CN114253643A - 动态调整用户界面方法、电子装置及计算机可读存储介质 - Google Patents

动态调整用户界面方法、电子装置及计算机可读存储介质 Download PDF

Info

Publication number
CN114253643A
CN114253643A CN202011163463.1A CN202011163463A CN114253643A CN 114253643 A CN114253643 A CN 114253643A CN 202011163463 A CN202011163463 A CN 202011163463A CN 114253643 A CN114253643 A CN 114253643A
Authority
CN
China
Prior art keywords
user interface
layer
moving
block
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011163463.1A
Other languages
English (en)
Inventor
武景龙
萧雅致
陈镜阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of CN114253643A publication Critical patent/CN114253643A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种动态调整用户界面的方法、电子装置及计算机可读存储介质。所述方法包括:显示用户界面,其中用户界面部分地显示第一区块,第一区块包括至少一图层;监控第一特定物体的第一移动方向;响应于判定第一特定物体朝向第一区块移动,将第一区块中的至少一图层的至少其中之一朝用户界面中的参考点移动。藉此,可让用户在较不受信息区块干扰/阻挡的情况下得到较佳的视野。

Description

动态调整用户界面方法、电子装置及计算机可读存储介质
技术领域
本发明涉及一种显示界面调整技术,且特别涉及一种动态调整用户界面的方法、电子装置及计算机可读存储介质。
背景技术
在已知抬头显示器(Head Up Display,HUD)所呈现的用户界面中,多半存在许多可提供用户额外信息的对象/区块。然而,当上述对象/区块较多或较大时,将可能因阻挡或干扰到用户对于前方的视线范围而造成不佳的使用体验。
另外,对于一般人而言,眼睛对于位于视野外侧或边界的文字的辨识能力较弱,因此当HUD所提供的文字位于用户的视野边界附近时,将可能令用户感到难以辨识。
发明内容
有鉴于此,本发明提供一种动态调整用户界面的方法、电子装置及计算机可读存储介质,其可用于解决上述技术问题。
本发明提供一种动态调整用户界面的方法,包括:显示一用户界面,其中用户界面部分地显示一第一区块,第一区块包括至少一图层;监控一第一特定物体的一第一移动方向;响应于判定第一特定物体朝向第一区块移动,将第一区块中的至少一图层的至少其中之一朝用户界面中的一参考点移动。
本发明提供一种电子装置,其包括显示器、存储电路及处理器。存储电路存储多个模块。处理器耦接于显示器及存储电路,并存取前述模块以执行下列步骤:控制显示器显示一用户界面,其中用户界面部分地显示一第一区块,第一区块包括至少一图层;监控一第一特定物体的一第一移动方向;响应于判定第一特定物体朝向第一区块移动,将第一区块中的至少一图层的至少其中之一朝用户界面中的一参考点移动。
本发明提供一种计算机可读存储介质,所述计算机可读存储介质记录可执行的计算机程序,所述可执行的计算机程序由电子装置加载以执行以下步骤:显示一用户界面,其中用户界面部分地显示一第一区块,第一区块包括至少一图层;监控一第一特定物体的一第一移动方向;响应于判定第一特定物体朝向第一区块移动,将第一区块中的至少一图层的至少其中之一朝用户界面中的一参考点移动。
附图说明
包含附图以便进一步理解本发明,且附图并入本说明书中并构成本说明书的一部分。附图说明本发明的实施例,并与描述一起用于解释本发明的原理。
图1是依据本发明的一实施例绘示的电子装置示意图。
图2是依据本发明的一实施例绘示的动态调整用户界面的方法流程图。
图3是依据本发明的一实施例绘示的用户界面示意图。
图4是依据图3绘示的移动区块的示意图。
图5是依据本发明第四实施例绘示的注视点可动范围示意图。
具体实施方式
现将详细地参考本发明的示范性实施例,示范性实施例的实例说明于附图中。只要有可能,相同组件符号在图式和描述中用来表示相同或相似部分。
请参照图1,其是依据本发明的一实施例绘示的电子装置示意图。在不同的实施例中,电子装置100例如是各式HUD,或是可在经用户穿戴后作为HUD使用的头戴式显示器(Head-Mounted Display,HMD),例如包括虚拟现实(Virtual Reality,VR)系统中的头戴式显示器,但可不限于此。
如图1所示,电子装置100包括显示器101、存储电路102及处理器104。显示器101例如是液晶显示器(liquid crystal display,LCD)、薄膜晶体管(TFT)-LCD、有机发光二极管(organic light-emitting diode,OLED)、柔性显示器,并可用于显示一用户界面供电子装置100的用户/穿戴者观看。
存储电路102例如是任意型式的固定式或可移动式随机存取存储器(RandomAccess Memory,RAM)、只读存储器(Read-Only Memory,ROM)、闪存(Flash memory)、硬盘或其他类似装置或这些装置的组合,而可用以记录多个程序代码或模块。
处理器104耦接于显示器101及存储电路102,并可为一般用途处理器、特殊用途处理器、传统的处理器、数字信号处理器、多个微处理器(microprocessor)、一个或多个结合数字信号处理器核心的微处理器、控制器、微控制器、特殊应用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列电路(FieldProgrammable Gate Array,FPGA)、任何其他种类的集成电路、状态机、基于进阶精简指令集机器(Advanced RISC Machine,ARM)的处理器以及类似品。
在本发明的实施例中,处理器104可存取存储电路102中记录的模块、程序代码来实现本发明提出的动态调整用户界面的方法,其细节详述如下。
请参照图2,其是依据本发明的一实施例绘示的动态调整用户界面的方法流程图。本实施例的方法可由图1的电子装置100执行,以下即搭配图1所示的组件说明图2各步骤的细节。此外,为使本申请的概念更易于理解,以下将另辅以图3的内容作说明,其中图3是依据本发明的一实施例绘示的用户界面示意图。
首先,在步骤S210中,处理器104可控制显示器101显示用户界面300。在图3中,用户界面300例如是HUD界面,其可部分地显示区块311~316,其中区块311~316例如是包括文字/图像/颜色以供用户参考的信息区块,但可不限于此。
由图3可看出,区块311~316分别仅有一部分呈现于用户界面300中。换句话说,区块311~316分别皆有未显示于用户界面300中的另一部分。例如,区块311约仅有右边的1/4呈现于用户界面300中,而区块311的左边3/4则未显示于用户界面300中。再以区块315为例,其仅有约左边的1/4呈现于用户界面300中,而区块315的右边3/4则未显示于用户界面300中。在此情况下,可让用户的视野较不受到区块311~316的阻挡或干扰,进而得到较为宽广的视野。
在本发明的实施例中,区块311~316分别可包括至少一图层,例如轮廓层及内容层,但可不限于此。以区块311为例,其中的文字部分例如可属于区块311的内容层,而剩余的区块外观则可以属于区块311的轮廓层,但可不限于此。
之后,在步骤S220中,处理器104可监控第一特定物体的第一移动方向。在第一实施例中,上述第一特定物体可以是上述头戴式显示器,而其第一移动方向例如是头戴式显示器的旋转方向(即,用户头部的旋转方向),但可不限于此。
接着,在步骤S230中,响应于判定第一特定物体朝向第一区块移动,将第一区块中的图层的至少其中之一朝用户界面300中的参考点移动。在本发明的实施例中,上述参考点例如是用户界面300的中心点O1,但可不限于此
在图3的实施例中,上述第一区块可以是区块311~316的任一。换句话说,当上述头戴式显示器朝向区块311~316中的任一区块旋转时,处理器104可相应地将此区块的图层的至少其中之一朝用户界面300中的参考点(例如,中心点O1)移动。
请参照图4,其是依据图3绘示的移动区块的示意图。在图4中,假设电子装置100为由用户499所穿戴的头戴式显示器。在此假设下,状态411例如是用户499未旋转头部且直视脸部前方的情境,而各区块311~316的位置例如可相同于图3的配置。另外,状态412~415分别例如是用户499在维持直视脸部前方的情况下向右转头、低头、向左转头及抬头的情境,但可不限于此。
如图4所示,当用户从状态411改变为状态412时,处理器104可相应地判定电子装置100(即,第一特定物体)已朝向区块311的方向移动,故可相应地将区块311视为上述第一区块,并将区块311的各图层(例如轮廓层及内容层)同步往用户界面300的中心点O1移动。在一实施例中,处理器104可持续地将区块311往中心点O1移动,直至区块311可完整地呈现于用户界面300中,但可不限于此。因此,对于用户499而言,当其将头部往右旋转时,可相应地观察到区块311被朝向中心点O1移动,进而可观察到区块311的完整内容。
并且,在一实施例中,当用户旋转其头部以远离区块311时(例如从状态412改变为状态411),处理器104可相应地判定电子装置100已朝远离第一区块的方向移动,并相应地将区块311恢复至如图3所示的原始位置。藉此,可让区块311再次呈现为部分显示于用户界面300中的态样,但可不限于此。
另外,当用户从状态411改变为状态413时,处理器104可相应地判定电子装置100(即,第一特定物体)已朝向区块316的方向移动,故可相应地将区块316视为上述第一区块,并将区块316的各图层同步往用户界面300的中心点O1移动。因此,对于用户499而言,当其低头时,可相应地观察到区块316被朝向中心点O1移动,进而可观察到区块316的完整内容。
当用户从状态411改变为状态414时,处理器104可相应地判定电子装置100(即,第一特定物体)已朝向区块315的方向移动,故可相应地将区块315视为上述第一区块,并将区块315的各图层同步往用户界面300的中心点O1移动。因此,对于用户499而言,当其将头部往左旋转时,可相应地观察到区块315被朝向中心点O1移动,进而可观察到区块315的完整内容。
相似地,当用户从状态411改变为状态415时,处理器104可相应地判定电子装置100(即,第一特定物体)已朝向区块313的方向移动,故可相应地将区块313视为上述第一区块,并将区块313的各图层同步往用户界面300的中心点O1移动。因此,对于用户499而言,当其抬头时,可相应地观察到区块313被朝向中心点O1移动,进而可观察到区块313的完整内容。
由上可知,当用户499未旋转头部并直视前方(即,状态411)时,本发明的方法可藉由让用户界面300仅呈现区块311~316各自的一部分来让用户499得到较为宽广的视野。并且,当检测到用户499的头部朝向某个区块移动时,本发明的方法可相应地将此区块往用户界面300的参考点(例如中心点O1)移动,从而让用户499可观看到此区块的完整内容。
此外,在第二实施例中,上述第一特定物体也可以是电子装置100的用户499的眼睛,而其第一移动方向例如是所述眼睛的旋转方向。由于用户499于用户界面300中的注视点将随着其眼睛的旋转而移动,故上述第一移动方向可理解为相同于用户499注视点的移动方向,但可不限于此。
在此情况下,当用户499的眼睛朝向区块311~316中的任一区块旋转(即,注视点朝此区块移动)时,处理器104可相应地判定第一特定物体已朝向此区块的方向移动,进而将此区块的图层的至少其中之一朝用户界面300中的参考点移动。
举例而言,当处于状态411的用户499将其眼睛朝右方旋转时(即,注视点朝右移动),处理器104可相应地判定第一特定物体已朝向区块311的方向移动,进而将区块311的各图层朝用户界面300中的参考点移动。
在其他实施例中,由于人类的眼睛一般对于形状及色彩的辨识能力较佳,但对于文字的辨识能力较弱,故在处理器104判定第一特定物体已朝向区块311移动时,处理器104可仅将区块311的内容层(例如包括文字)朝用户界面300中的参考点移动,或是内容层朝用户界面300中的参考点移动的幅度较其它图层大。藉此,可有助于用户499对于区块311的文字内容进行辨识,但可不限于此。
举另一例而言,当处于状态411的用户499将其眼睛朝左方旋转时(即,注视点朝左移动),处理器104可相应地判定第一特定物体已朝向区块315的方向移动,进而将区块315的各图层朝用户界面300中的参考点移动,但本发明可不限于此。
在一些情境中,用户499可能会随意地移动头部/注视点,而若处理器104过于敏感地依据用户499头部/注视点的移动而移动或过多地移动用户界面399中的区块,将可能导致不佳的使用体验。
有鉴于此,在第三实施例中,处理器104还可额外监控一第二特定物体的第二移动方向,并可在判定第二移动方向对应于第一移动方向时,再将第一区块中的图层的至少其中之一朝用户界面300中的参考点移动。
在第三实施例中,所述第一特定物体可以是头戴式显示器及用户499眼睛的其中之一,而所述第二特定物体可以是头戴式显示器及用户499眼睛的其中的另一个。换句话说,在第三实施例中,处理器104在判定头戴式显示器及用户499眼睛皆朝向第一区块移动时,才将第一区块中的图层朝用户界面300中的参考点移动。另外,当处理器104判定头戴式显示器及用户499眼睛未皆朝向第一区块移动时,处理器104可不移动第一区块。藉此,可避免处理器104在用户499在无意与第一区块互动时将第一区块朝上述参考点移动,进而避免造成上述的不佳体验。
在第四实施例中,假设电子装置100为头戴式显示器,且其穿戴者的注视点在头戴式显示器所显示的用户界面中具有一可动范围。在本实施例中,所述可动范围例如是穿戴者的注视点经移动后所能达到的视线范围,但可不限于此。
请参照图5,其是依据本发明第四实施例绘示的注视点可动范围示意图。在本实施例中,假设注视点500即为图4用户499的眼睛的注视点,但可不限于此。
一般而言,注视点500的水平移动范围例如是+30度至-30度,而移动旋转范围例如是+25度至-30度。由此可知,注视点500例如可具有图5所示的可动范围510,且其可因应于注视点500的移动而移动。
此外,在视角固定的情况下,一般人眼约可辨识到与视角相距30度至60度内的颜色、与视角相距5度至30度的形状,以及与视角相距5度至10度内的文字。基此,在注视点500位于图5所示位置的情况下,用户499的眼睛有能力辨识颜色的范围521约略等于可动范围510。另外,用户499的眼睛有能力辨识形状及文字的范围522、523可分别如图5所示。
在图5中,假设注视点500朝右上方移动至位于可动范围510边界上的位置P1,则范围521~523亦将相应地朝右上方移动,以形成范围521a~523a。
在第四实施例中,假设用户界面中存在位于可动范围510之外的区块599,其例如是位于图5所示位置的一按钮。由先前的教示可知,由于区块599位于范围523a之外,因此即便注视点500已移动至可动范围510的边界,用户499的眼睛仍无法清楚辨识区块599内的文字。
有鉴于此,在第四实施例中,处理器104可在判定注视点500朝向区块599移动之后,将用户在可动范围510中的注视点500定义为参考点,并将区块599的图层移动至注视点500。在图5中,由于注视点500位于位置P1,因此处理器104可相应地将区块599的图层移动至注视点500所在的位置P1。在此情况下,用户499即可清楚地辨识区块599中的文字,进而得到更佳的使用体验。
此外,假设区块599附近还存在与位置P1相距较远的其他区块,则处理器104可在判定区块599最接近于注视点500的位置P1之后,仅将区块599的图层移动至注视点500所在的位置P1,但可不限于此。
本发明还提供一种用于执行前述动态调整用户界面的方法的计算机可读存储介质。计算机可读存储介质由实施在其中的多个程序指令(例如,设定程序指令及部署程序指令)构成。这些程序指令可被加载到电子装置100中且由电子装置100执行,以执行动态调整用户界面的方法及上述功能。
综上所述,本发明的实施例可在用户未转动头部/眼睛的情况下,让用户界面仅部分地显示各信息区块,藉以让用户在较不受信息区块干扰/阻挡的情况下得到较佳的视野。另外,在判定用户的头部/眼睛朝向第一区块移动时,本发明的方法可相应地将第一区块朝向用户界面的参考点移动,藉以让用户能够查看第一区块的完整内容。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (23)

1.一种动态调整用户界面的方法,包括:
显示用户界面,其中所述用户界面部分地显示第一区块,所述第一区块包括至少一图层;
监控第一特定物体的第一移动方向;
响应于判定所述第一特定物体朝所述第一区块的方向移动,将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的参考点的方向移动。
2.根据权利要求1所述的方法,其中所述第一特定物体为用于显示所述用户界面的头戴式显示器。
3.根据权利要求1所述的方法,其中所述第一区块的所述至少一图层包括轮廓层及内容层,且将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤包括:
将所述轮廓层及所述内容层同步朝所述用户界面中的所述参考点的方向移动。
4.根据权利要求1所述的方法,其中所述第一区块的所述至少一图层包括轮廓层及内容层,且将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤包括:
仅将所述内容层朝所述用户界面中的所述参考点的方向移动。
5.根据权利要求1所述的方法,其中所述第一特定物体的所述第一移动方向表征为所述头戴式显示器的用户的眼睛的旋转方向。
6.根据权利要求5所述的方法,其中所述用户的注视点在所述用户界面中具有可动范围,所述第一区块位于所述可动范围之外,且将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤包括:
将所述用户在所述可动范围中的所述注视点定义为所述参考点,并将所述第一区块的所述至少一图层移动至所述注视点。
7.根据权利要求6所述的方法,其中所述用户界面还包括多个其他区块,而所述注视点最接近于所述第一区块。
8.根据权利要求1所述的方法,其中所述用户界面中的所述参考点为所述用户界面的中心点。
9.根据权利要求1所述的方法,其中经移动后的所述第一区块完整地呈现于所述用户界面中。
10.根据权利要求1所述的方法,其中在将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤之前,所述方法还包括:
监控第二特定物体的第二移动方向;
响应于判定所述第二移动方向对应于所述第一移动方向,将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动,反之则不移动所述第一区块。
11.根据权利要求1所述的方法,其中在将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤之后,所述方法还包括:
响应于判定所述第一特定物体朝远离所述第一区块的方向移动,将该所述第一区块中的所述至少一图层的至少其中之一朝远离所述用户界面中的参考点的方向移动。
12.一种电子装置,包括:
显示器;
存储电路,其存储多个模块;以及
处理器,其耦接于所述存储电路及所述显示器,并存取所述多个模块以执行下列步骤:
控制所述显示器显示用户界面,其中所述用户界面部分地显示第一区块,所述第一区块包括至少一图层;
监控第一特定物体的第一移动方向;
响应于判定所述第一特定物体朝所述第一区块的方向移动,将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的参考点的方向移动。
13.根据权利要求12所述的电子装置,其中所述第一特定物体为用于显示所述用户界面的头戴式显示器。
14.根据权利要求12所述的电子装置,其中所述第一区块的所述至少一图层包括轮廓层及内容层,且所述处理器经配置以:
将所述轮廓层及所述内容层同步朝所述用户界面中的所述参考点的方向移动。
15.根据权利要求12所述的电子装置,其中所述第一区块的所述至少一图层包括轮廓层及内容层,且所述处理器经配置以:
仅将所述内容层朝所述用户界面中的所述参考点的方向移动。
16.根据权利要求15所述的电子装置,其中所述第一特定物体的所述第一移动方向表征为所述头戴式显示器的用户的眼睛的旋转方向。
17.根据权利要求16所述的电子装置,其中所述用户的注视点在所述用户界面中具有可动范围,所述第一区块位于所述可动范围之外,且所述处理器经配置以:
将所述用户在所述可动范围中的所述注视点定义为所述参考点,并将所述第一区块的所述至少一图层移动至所述注视点。
18.根据权利要求17所述的电子装置,其中所述用户界面还包括多个其他区块,而所述注视点最接近于所述第一区块。
19.根据权利要求12所述的电子装置,其中所述用户界面中的所述参考点为所述用户界面的中心点。
20.根据权利要求12所述的电子装置,其中经移动后的所述第一区块完整地呈现于所述用户界面中。
21.根据权利要求12所述的电子装置,其中所述处理器更经配置以:
监控第二特定物体的第二移动方向;
响应于判定所述第二移动方向对应于所述第一移动方向,将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动,反之则不移动所述第一区块。
22.根据权利要求12所述的电子装置,其中所述处理器更经配置以:
在将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的所述参考点的方向移动的步骤之后,响应于判定所述第一特定物体朝远离所述第一区块的方向移动,将该所述第一区块中的所述至少一图层的至少其中之一朝远离所述用户界面中的参考点的方向移动。
23.一种计算机可读存储介质,所述计算机可读存储介质记录可执行的计算机程序,所述可执行的计算机程序由电子装置加载以执行以下步骤:
显示用户界面,其中所述用户界面部分地显示第一区块,所述第一区块包括至少一图层;
监控第一特定物体的第一移动方向;
响应于判定所述第一特定物体朝所述第一区块的方向移动,将所述第一区块中的所述至少一图层的至少其中之一朝所述用户界面中的参考点的方向移动。
CN202011163463.1A 2020-09-24 2020-10-27 动态调整用户界面方法、电子装置及计算机可读存储介质 Pending CN114253643A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW109133003A TWI750818B (zh) 2020-09-24 2020-09-24 動態調整使用者界面方法、電子裝置及電腦可讀儲存媒體
TW109133003 2020-09-24

Publications (1)

Publication Number Publication Date
CN114253643A true CN114253643A (zh) 2022-03-29

Family

ID=80681486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011163463.1A Pending CN114253643A (zh) 2020-09-24 2020-10-27 动态调整用户界面方法、电子装置及计算机可读存储介质

Country Status (3)

Country Link
US (1) US11762460B2 (zh)
CN (1) CN114253643A (zh)
TW (1) TWI750818B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070296646A1 (en) * 2006-06-27 2007-12-27 Kakuya Yamamoto Display apparatus and control method thereof
US20150009132A1 (en) * 2012-02-17 2015-01-08 Sony Corporation Head-mounted display, program for controlling head-mounted display, and method of controlling head-mounted display
CN104915086A (zh) * 2014-03-10 2015-09-16 宏达国际电子股份有限公司 提示产生方法及移动电子装置
CN106056092A (zh) * 2016-06-08 2016-10-26 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN111506188A (zh) * 2019-01-30 2020-08-07 托比股份公司 用于动态地调整hud的方法和hmd

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69434843T2 (de) * 1993-08-12 2007-02-15 Seiko Epson Corp. Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem
JPH09244961A (ja) * 1996-03-08 1997-09-19 Mitsubishi Electric Corp フラッシュata−pcカード
TW362207B (en) * 1997-05-08 1999-06-21 Shimadzu Corp Display system
JP5249686B2 (ja) * 2008-09-05 2013-07-31 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
WO2016129549A1 (ja) * 2015-02-12 2016-08-18 株式会社コロプラ ヘッドマウント・ディスプレイを用いたコンテンツ視聴のための装置およびシステム
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
KR20170055091A (ko) * 2015-11-10 2017-05-19 현대오트론 주식회사 헤드업 디스플레이 제어 장치 및 방법
JPWO2017086242A1 (ja) * 2015-11-16 2018-08-30 日本精機株式会社 ヘッドアップディスプレイ
JP6811106B2 (ja) * 2017-01-25 2021-01-13 矢崎総業株式会社 ヘッドアップディスプレイ装置および表示制御方法
CN108845754B (zh) * 2018-07-03 2022-09-30 西交利物浦大学 用于移动虚拟现实头戴显示器的无驻留文本输入方法
US11119580B2 (en) * 2019-10-08 2021-09-14 Nextsense, Inc. Head and eye-based gesture recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070296646A1 (en) * 2006-06-27 2007-12-27 Kakuya Yamamoto Display apparatus and control method thereof
US20150009132A1 (en) * 2012-02-17 2015-01-08 Sony Corporation Head-mounted display, program for controlling head-mounted display, and method of controlling head-mounted display
CN104915086A (zh) * 2014-03-10 2015-09-16 宏达国际电子股份有限公司 提示产生方法及移动电子装置
CN106056092A (zh) * 2016-06-08 2016-10-26 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN111506188A (zh) * 2019-01-30 2020-08-07 托比股份公司 用于动态地调整hud的方法和hmd

Also Published As

Publication number Publication date
TWI750818B (zh) 2021-12-21
US11762460B2 (en) 2023-09-19
TW202213066A (zh) 2022-04-01
US20220091666A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
US11126319B2 (en) Mixed reality device gaze invocations
US20190279407A1 (en) System and method for augmented reality interaction
US10175487B2 (en) Peripheral display for head mounted display device
US9195306B2 (en) Virtual window in head-mountable display
US8619005B2 (en) Switchable head-mounted display transition
US11194392B2 (en) Method of calibrating eye-tracking application and related optical system
US11595637B2 (en) Systems and methods for using peripheral vision in virtual, augmented, and mixed reality (xR) applications
US9965029B2 (en) Information processing apparatus, information processing method, and program
US20190088021A1 (en) Information processing device, information processing method, and program
US20210303107A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
US10551991B2 (en) Display method and terminal
US11720171B2 (en) Methods for navigating user interfaces
US10325561B2 (en) Transitioning between mixed, augmented, and/or virtual reality display modes
US11308685B2 (en) Rendering computer-generated reality text
KR20230037054A (ko) 사용자의 신체에 대한 디바이스의 디스플레이를 업데이트하기 위한 시스템들, 방법들, 및 그래픽 사용자 인터페이스들
CN106257394B (zh) 用于头戴显示器的三维用户界面
CN114253643A (zh) 动态调整用户界面方法、电子装置及计算机可读存储介质
US10522110B1 (en) Apparatuses, systems, and methods for measuring and adjusting the luminance of a head-mounted display
US20230092874A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
CA3141268C (en) Dynamic eye-tracking camera alignment utilizing eye-tracking maps
US20240094862A1 (en) Devices, Methods, and Graphical User Interfaces for Displaying Shadow and Light Effects in Three-Dimensional Environments
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
JP2018120331A (ja) プログラム及び表示装置
US20240103682A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152245A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination