CN118140169A - 用于显示内容的电子装置和方法 - Google Patents
用于显示内容的电子装置和方法 Download PDFInfo
- Publication number
- CN118140169A CN118140169A CN202280065217.3A CN202280065217A CN118140169A CN 118140169 A CN118140169 A CN 118140169A CN 202280065217 A CN202280065217 A CN 202280065217A CN 118140169 A CN118140169 A CN 118140169A
- Authority
- CN
- China
- Prior art keywords
- content
- electronic device
- processor
- user
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 239000011521 glass Substances 0.000 claims abstract description 53
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 82
- 238000010586 diagram Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 30
- 230000008859 change Effects 0.000 description 26
- 230000033001 locomotion Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 13
- 210000004247 hand Anatomy 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Abstract
根据各种实施例的电子装置可以包括主体部分、由主体部分支撑的玻璃构件、放置在玻璃构件处的显示器、可旋转地连接到主体部分的支撑部分、包括眼睛跟踪相机和被配置为捕获用户前侧的图像的前置相机的传感器模块、以及可操作地连接到显示器和传感器模块的处理器,其中处理器:通过显示器输出至少一个内容;通过控制前置相机来识别至少一个对象;从眼睛跟踪相机获得用户对对象的注视停留时间;当注视停留时间大于或等于参考时间时,计算前置相机的视场(FOV)中由对象占据的面积;基于所述面积,在与对象不重叠的区域上输出至少一个内容,或者通过减小至少一个内容的大小来在显示器的一侧上输出至少一个内容,以及当用户对对象的注视停留时间小于参考时间时,以与初始输出形式相同的形式输出至少一个内容。各种其它实施例是可能的。
Description
技术领域
本公开的实施例涉及一种电子装置,并且例如涉及一种与用于在电子装置中显示内容的方法相关的技术。
背景技术
根据移动通信技术和硬件/软件技术的发展,便携式电子装置(下文中,电子装置)已经变得能够实现各种功能以及传统的呼叫功能。电子装置可以在显示器(例如,头戴式显示器(HMD))上显示各种内容信息。例如,电子装置可以通过使用放置在玻璃构件处的显示器来在用户的视场(FOV)中显示内容。电子装置还可以包括主体部分和支撑部分,并且可以作为通过使用主体部分和支撑部分向用户提供分离/附接功能和安装功能的可穿戴装置来操作。例如,电子装置可以是能够向显示器提供虚拟信息的增强现实(AR)眼镜。
电子装置可以包括安装到前表面部分和后表面部分的至少一个相机,并且可以通过使用相机来识别位于电子装置前面或后面的对象。电子装置可以包括能够跟踪用户注视的眼睛跟踪相机。
发明内容
技术问题
当常规电子装置在用户佩戴AR或VR HMD时显示内容时,用户可能难以同时识别位于用户的视场(FOV)内的对象。例如,当在用户佩戴AR HMD并且终端装置存在于用户的视场内的相同直线中的同时显示内容时,用户可能难以识别终端装置。
各种实施例的一个方面是提供一种显示方法,通过该显示方法,当在电子装置如上所述显示内容的同时用户想要识别用户前方的对象时,可以通过改变显示内容的方法根据用户的意图来识别显示器上显示的内容或位于用户前方的对象。
问题的解决方案
根据实施例的一方面,提供了一种电子装置,其包括主体部分、放置在主体部分上的玻璃构件、设置在玻璃构件上的显示器、可旋转地连接到主体部分的支撑部分、包括眼睛跟踪相机和被配置为捕获用户前侧的图像的前置相机的传感器、以及可操作地连接到显示器和传感器的处理器,其中处理器被配置为经由显示器输出至少一个内容,通过前置相机来识别至少一个对象。通过眼睛跟踪相机获得用户对该对象的注视停留时间,基于该注视停留时间大于或等于参考时间,获得由前置相机的视场(FOV)中的对象占据的面积(area),基于该面积,在与对象不重叠的区域(region)上输出至少一个内容,或者减小至少一个内容的大小并在显示器的一侧上输出至少一个内容,并且基于用户对对象的注视停留时间小于参考时间,以与初始输出类型相同的类型输出至少一个内容。
根据实施例的另一方面,提供了一种电子装置的内容显示方法,该方法包括在显示器上输出至少一个内容,通过前置相机来识别至少一个对象,通过眼睛跟踪相机获得用户对该对象的注视停留时间,基于该注视停留时间大于或等于参考时间,获得由前置相机的视场(FOV)中的对象占据的面积,基于该面积,在与对象不重叠的区域上输出至少一个内容,或者减小至少一个内容的大小并且在显示器的一侧上输出至少一个内容,并且基于用户对对象的注视停留时间小于参考时间,以与初始输出类型相同的类型输出至少一个内容。
发明的有利效果
根据各种实施例,电子装置可以基于用户的视场中由对象占据的面积以及用户在对象处的注视时间来改变内容输出类型。当用户同时关注显示器上显示的内容和现实对象或其内容时,电子装置可以基于相机的视场中由现实对象占据的面积,在与现实对象不重叠的区域上输出内容。当用户优先关注用户前方的对象时,电子装置可以减小内容的大小并在显示器的一侧输出内容,使得可以实现用户的便利性。
将在针对电子装置的实施例的详细描述中直接或隐含地描述由电子装置的各种实施例可获得或预测的其它效果。例如,将在以下详细描述中描述根据电子装置的各种实施例预测的各种效果。
附图说明
图1是根据各种实施例的网络环境中的电子装置的框图;
图2a是示出根据本公开的各种实施例的包括多个相机的电子装置的整体配置的示意图;
图2b是示出根据本公开的各种实施例的电子装置的前表面的示例的示意图;
图3是根据各种实施例的电子装置的框图;
图4是根据各种实施例的电子装置的框图;
图5是示出根据各种实施例的注视停留时间的测量的示意图;
图6a和图6b是示出根据各种实施例的电子装置对内容的重新定位的示意图;
图7a和图7b是示出根据各种实施例的由电子装置移除部分内容区域的示意图;
图8a和图8b是示出根据各种实施例的由电子装置减小内容大小的示意图;
图9a和图9b是示出根据各种实施例的电子装置根据用户的视场中由对象占据的面积和位置来确定内容输出类型的实施例的示意图;
图10a和图10b是示出根据各种实施例的电子装置在显示器上输出对象的附加信息的实施例的示意图;
图11是示出根据各种实施例的电子装置根据内容的重要性级别确定输出类型的实施例的示意图;
图12是示出根据各种实施例的多个对象位于电子装置的前方的情况的实施例的示意图;
图13a和图13b是示出根据各种实施例的电子装置识别姿势并确定输出类型的实施例的示意图;
图14是示出根据各种实施例的根据用户握持对象的手的数量来确定输出类型的实施例的示意图;
图15是示出通过通信输出关于连接到根据各种实施例的电子装置的对象的附加信息的实施例的示意图;
图16是根据各种实施例的由电子装置输出内容的方法的流程图;以及
图17是根据各种实施例的由电子装置确定内容的输出类型的方法的流程图。
具体实施方式
在下文中,将参考附图详细描述本公开的实施例。
在描述实施例时,将省略与本公开所属领域中公知的并且不与本公开直接相关联的技术内容相关的描述。此外,将省略与具有基本相同的配置和功能的元件相关的详细描述。
出于相同的原因,在附图中,一些元件可能被夸大、省略或示意性地示出,并且每个元件的大小不精确地反映实际大小。因此,本公开不受附图中所示的相对大小或间隔的限制。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。
参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108中的至少一个进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入模块150、声音输出模块155、显示模块160、音频模块170、传感器模块176、接口177、连接端178、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略上述部件中的至少一个(例如,连接端178),或者可将一个或更多个其它部件添加到电子装置101中。在一些实施例中,可将上述部件中的一些部件(例如,传感器模块176、相机模块180或天线模块197)实现为单个集成部件(例如,显示模块160)。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据存储到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))或者与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、神经处理单元(NPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。例如,当电子装置101包括主处理器121和辅助处理器123时,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为专用于特定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123(而非主处理器121)可控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示模块160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。根据实施例,辅助处理器123(例如,神经处理单元)可包括专用于人工智能模型处理的硬件结构。可通过机器学习来生成人工智能模型。例如,可通过人工智能被执行之处的电子装置101或经由单独的服务器(例如,服务器108)来执行这样的学习。学习算法可包括但不限于例如监督学习、无监督学习、半监督学习或强化学习。人工智能模型可包括多个人工神经网络层。人工神经网络可以是深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、受限玻尔兹曼机(RBM)、深度置信网络(DBN)、双向循环深度神经网络(BRDNN)或深度Q网络或其两个或更多个的组合,但不限于此。另外地或可选地,人工智能模型可包括除了硬件结构以外的软件结构。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。非易失性存储器134可以包括至少一个内部存储器136和外部存储器138。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入模块150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它部件(例如,处理器120)使用的命令或数据。输入模块150可包括例如麦克风、鼠标、键盘、键(例如,按钮)或数字笔(例如,手写笔)。
声音输出模块155可将声音信号输出到电子装置101的外部。声音输出模块155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的。接收器可用于接收呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示模块160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示模块160可包括被适配为检测触摸的触摸传感器或被适配为测量由触摸引起的力的强度的压力传感器。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入模块150获得声音,或者经由声音输出模块155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,电力或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如姿势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如传统蜂窝网络、5G网络、下一代通信网络、互联网或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
无线通信模块192可支持在4G网络之后的5G网络以及下一代通信技术(例如新无线电(NR)接入技术)。NR接入技术可支持增强型移动宽带(eMBB)、大规模机器类型通信(mMTC)或超可靠低延时通信(URLLC)。无线通信模块192可支持高频带(例如,毫米波带)以实现例如高数据传输速率。无线通信模块192可支持用于确保高频带上的性能的各种技术,诸如例如波束成形、大规模多输入多输出(大规模MIMO)、全维MIMO(FD-MIMO)、阵列天线、模拟波束成形或大规模天线。无线通信模块192可支持在电子装置101、外部电子装置(例如,电子装置104)或网络系统(例如,第二网络199)中指定的各种要求。根据实施例,无线通信模块192可支持用于实现eMBB的峰值数据速率(例如,20Gbps或更大)、用于实现mMTC的丢失覆盖(例如,164dB或更小)或者用于实现URLLC的U平面延迟(例如,对于下行链路(DL)和上行链路(UL)中的每一个为0.5ms或更小,或者1ms或更小的往返)。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括天线,所述天线包括辐射元件,所述辐射元件由形成在基底(例如,印刷电路板(PCB))中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块197可包括多个天线(例如,阵列天线)。在这种情况下,可由例如通信模块190(例如,无线通信模块192)从所述多个天线中选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的组件(例如,射频集成电路(RFIC))可附加地形成为天线模块197的一部分。
根据各种实施例,天线模块197可形成毫米波天线模块。根据实施例,毫米波天线模块可包括印刷电路板、射频集成电路(RFIC)和多个天线(例如,阵列天线),其中,RFIC设置在印刷电路板的第一表面(例如,底表面)上,或与第一表面相邻并且能够支持指定的高频带(例如,毫米波带),所述多个天线设置在印刷电路板的第二表面(例如,顶部表面或侧表面)上,或与第二表面相邻并且能够发送或接收指定高频带的信号。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102或电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术、移动边缘计算(MEC)技术或客户机-服务器计算技术。电子装置101可使用例如分布式计算或移动边缘计算来提供超低延迟服务。在另一实施例中,外部电子装置104可包括物联网(IoT)装置。服务器108可以是使用机器学习和/或神经网络的智能服务器。根据实施例,外部电子装置104或服务器108可被包括在第二网络199中。电子装置101可应用于基于5G通信技术或IoT相关技术的智能服务(例如,智能家居、智能城市、智能汽车或医疗保健)。
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
应该理解的是,本公开的各种实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可包括在与所述多个短语中的相应一个短语中一起列举出的项的任意一项或所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应部件与另一部件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制所述部件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)结合”、“结合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如与本公开的各种实施例关联使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其它术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,所述机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其它部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被暂时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是暂时产生的,或者可将计算机程序产品中的至少部分至少暂时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体,并且多个实体中的一些实体可分离地设置在不同的部件中。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
图2a是示出根据本公开的各种实施例的包括多个相机的电子装置(例如,图1中的电子装置101)的整体配置的示意图。图2b是示出根据本公开的各种实施例的电子装置的前表面的示例的示意图。图2b是示出电子装置101的前表面部分的示例的示意图,并且内部配置可以与图2a中所示的配置相同。
在各种实施例中,电子装置101可以佩戴在用户的头部上,以向用户提供与增强现实服务相关的图像。根据实施例,电子装置101可以提供输出至少一个虚拟对象的增强现实服务,该至少一个虚拟对象被视为与被确定为用户的视场(FOV)的区域重叠。例如,被确定为用户的视场的区域是被确定为可由穿戴电子装置101的用户经由电子装置101识别的区域,并且可以是包括电子装置101的显示模块(例如,图1中的显示模块160)的全部或至少一部分的区域。根据实施例,电子装置101可包括分别与用户的双眼(例如,左眼和/或右眼)相对应的多个玻璃构件(例如,第一玻璃构件220和/或第二玻璃构件230)。多个玻璃构件可以包括显示模块(例如,图3中的第一显示模块351和/或第二显示模块353)的至少一部分。例如,第一显示模块351可以包括在与用户的左眼相对应的第一玻璃构件220中,并且第二显示模块353可以包括在与用户的右眼相对应的第二玻璃构件230中。例如,电子装置101可以被配置为眼镜、护目镜、头盔或帽子中的至少一种类型,但不限于此。
参照图2a,根据实施例的电子装置101可以包括显示模块214(例如,图1中的显示模块160)、相机模块(例如,图1中的相机模块180)、音频模块(例如,图1中的音频模块170)、第一支撑部221和/或第二支撑部222。根据实施例,显示模块160可以包括第一显示器(例如,第一玻璃构件220)(例如,图3中的第一显示模块351)和/或第二显示器(例如,第二玻璃构件230)(例如,图3中的第二显示模块353)。根据实施例,至少一个相机可以包括被配置为捕获与用户的视场(FOV)相对应的图像和/或测量到对象的距离的前置相机213、被配置为识别用户的注视方向的眼睛跟踪相机212、和/或被配置为识别特定空间的识别相机(姿势相机)211-1和211-2。例如,前置相机213可捕获电子装置101的向前方向上的图像,并且眼睛跟踪相机212可捕获与前置相机213的图像捕获方向相反的方向上的图像。例如,眼睛跟踪相机212可以至少部分地捕获用户的双眼的图像。根据实施例,第一支撑部分221和/或第二支撑部分222可以包括印刷电路板(PCB)231-1和231-2、扬声器232-1和232-2和/或电池233-1和233-2。
根据实施例,显示模块160(例如,图2a中的显示模块214)可放置在电子装置101的主体部分(例如,图2b中的主体部分223)处,并且可包括玻璃构件(例如,第一玻璃构件220和第二玻璃构件230)中的聚焦透镜和/或透明波导管。例如,透明波导管可以被至少部分地定位在玻璃构件的一部分中。根据实施例,从显示模块160发射的光可通过玻璃构件进入第一玻璃构件220和第二玻璃构件230中的每一个中的一端,并且进入的光可通过形成在每个玻璃构件中的波导管和/或波导通道(例如,波导)传送给用户。波导管可以由玻璃、塑料或聚合物制成,并且可以包括放置在其一个内表面或外表面上的纳米图案,例如,具有多边形形状或弯曲表面形状的光栅结构。根据实施例,进入的光可以通过由纳米图案在波导通道中传播或反射而被提供给用户。根据实施例,波导通道(波导)可以包括至少一个衍射元件(例如,衍射光学元件(DOE)或全息光学元件(HOE))或反射元件(例如,反射镜))中的至少一个。根据实施例,波导通道可以通过使用至少一个衍射元件或反射元件将从光源单元发射的显示光引导到用户的眼睛。
参考图2a,第一支撑部件221和/或第二支撑部件222可以包括用于将电信号传送到电子装置101的每个元件的印刷电路板231-1和231-2、用于输出音频信号的扬声器232-1和232-2、电池233-1和233-2、和/或用于至少部分地耦合到电子装置101的主体部件223的铰链部分240-1和240-2。根据实施例,扬声器232-1和232-2可以包括用于将音频信号传送到用户的左耳的第一扬声器232-1和用于将音频信号传送到用户的右耳的第二扬声器232-2。扬声器232-1和232-2可以被包括在图1所示的音频模块170中。根据实施例,电子装置101可包括多个电池233-1和233-2,并且可经由电力管理模块(例如,图1中的电力管理模块188)向印刷电路板231-1和231-2供电。
参考图2a,电子装置101可以包括被配置为接收用户的语音和周围声音的麦克风241。例如,麦克风241可以被包括在图1所示的音频模块170中。电子装置101可以包括用于提高至少一个相机(例如,前置相机213、眼睛跟踪相机212和/或识别相机211-1和211-2)的准确度的至少一个发光装置(照明LED)242。例如,当眼睛跟踪相机212捕获用户瞳孔的图像时,发光装置242可以用作用于提高准确度的辅助装置,并且发光装置242可以使用发射红外波长而不是可见波长的IR LED。作为另一示例,当在识别相机211-1和211-2捕获用户姿势的图像的情况下,由于黑暗环境或引入各种光源的混合而不容易检测要被图像捕获的被摄体(subject)时,发光装置242可以用作辅助装置。
参考图2b,根据实施例的电子装置101可以由主体部分223和支撑部分(例如,第一支撑部分221和/或第二支撑部分222)配置,并且主体部分223与支撑部分221和222可以可操作地彼此连接。例如,主体部分223和支撑部分221和222可以通过铰链部分240-1和240-2可操作地彼此连接。主体部分223可以被至少部分地放置在用户的鼻子上,并且可以包括显示模块160和相机模块(例如,图1中的相机模块180)。支撑部分221和222可以包括放置在用户耳朵上的支撑构件,并且可以包括放置在左耳上的第一支撑部分221和/或放置在右耳上的第二支撑部分222。根据实施例,第一支撑部分221或第二支撑部分222可以至少部分地包括印刷电路板231-1和231-2、扬声器232-1和232-2和/或电池233-1和233-2(例如,图1中的电池189,或者图3中的第一电池333和/或第二电池343)。电池可以电连接到电力管理模块(例如,图1中的电力管理模块188)。
根据实施例,显示模块160可包括第一玻璃构件220和/或第二玻璃构件230,并且可经由第一玻璃构件220和第二玻璃构件230向用户提供视觉信息。电子装置101可以包括与左眼相对应的第一玻璃构件220和/或与右眼相对应的第二玻璃构件230。根据实施例,显示模块160可包括显示面板和/或透镜(例如,玻璃构件)。例如,显示面板可以包括透明材料,诸如玻璃或塑料。
根据实施例,显示模块160可以由透明元件配置,并且用户可以识别显示模块160后面的真实空间,该真实空间通过显示模块160传输。显示模块160可以在透明元件的至少部分区域上显示虚拟对象,使得虚拟对象被用户视为被添加到真实空间的至少一部分。包括在显示模块160中的第一玻璃构件220和/或第二玻璃构件230可以包括分别与用户的双眼(例如,左眼和/或右眼)相对应的多个显示面板。
根据实施例,电子装置101可以包括虚拟现实(VR)装置。当电子装置101是VR装置时,第一玻璃构件220可以是第一显示模块351,并且第二玻璃构件230可以是第二显示模块353。
根据实施例,经由显示模块160输出的虚拟对象可以包括与在电子装置101中执行的应用程序相关的信息和/或与位于与被确定为用户的视场(FOV)的区域相对应的真实空间中的外部对象相关的信息。例如,电子装置101可以在与经由电子装置101的相机(例如,前置相机213)获得的真实空间相关的图像信息中、识别包括在与被确定为用户的视场(FOV)的区域相对应的至少一部分中的外部对象。电子装置101可以在电子装置101的显示区域中被确定为用户的视场的区域上输出(或显示)与在至少部分中识别的外部对象相关的虚拟对象。外部对象可以包括存在于真实空间中的对象。根据各种实施例,电子装置101在其上显示虚拟对象的显示区域可以包括显示模块(例如,第一显示模块351或第二显示模块353)的一部分(例如,显示面板的至少一部分)。根据实施例,显示区域可以是与第一玻璃构件220和/或第二玻璃构件230的至少一部分相对应的区域。
根据实施例,电子装置101可以包括被配置为捕获与用户的视场(FOV)相对应的图像和/或测量到对象的距离的前置相机213(例如,红绿蓝(RGB)相机)、被配置为识别用户的注视方向的眼睛跟踪相机212、和/或被配置为识别特定空间的识别相机(例如,姿势相机)211-1和211-2。根据实施例,电子装置101可以使用前置相机213来测量到位于电子装置101的向前方向上的对象的距离。根据实施例,电子装置101可以包括被布置为与用户的双眼相对应的多个眼睛跟踪相机212。例如,眼睛跟踪相机212可在与前置相机213的图像捕获方向相反的方向上捕获图像。眼睛跟踪相机212可以感测用户的注视方向(例如,瞳孔移动)。例如,眼睛跟踪相机212可以包括被配置为跟踪用户左眼的注视方向的第一眼睛跟踪相机212-1和被配置为跟踪用户右眼的注视方向的第二眼睛跟踪相机212-2。根据实施例,电子装置101可以借助于识别相机211-1和211-2感测预配置的距离(例如,特定空间)内的用户姿势。例如,电子装置可以包括可以被布置在电子装置101的两侧的多个识别相机211-1和211-2。
根据实施例,前置相机213可以包括具有高分辨率的相机,诸如高分辨率(HR)相机和/或照片视频(PV)相机。根据实施例,眼睛跟踪相机212可检测用户的瞳孔以跟踪注视方向,并且可用于移动虚拟图像的中心以根据注视方向移动。例如,眼睛跟踪相机212可以被区分为与左眼相对应的第一眼睛跟踪相机212-1和与右眼相对应的第二眼睛跟踪相机212-2,并且可以具有基本上相同的相机性能和/或规格。根据实施例,识别相机211-1和211-2可以用于执行用户的手部(姿势)的检测和/或空间识别,并且可以包括全局快门(GS)相机。例如,识别相机211-1和211-2可以包括具有很少运动模糊的GS相机,诸如卷帘快门(RS)相机,以便检测和跟踪快速的手部运动和/或精细的手指移动。
根据实施例,电子装置101可以基于与经由电子装置101的相机(例如,图1中的相机模块180)获得的真实空间相关的图像信息来显示与增强现实服务相关的虚拟对象。根据实施例,电子装置101可以基于被布置为与用户的双眼相对应的显示模块(例如,与左眼相对应的第一显示模块351和/或与右眼相对应的第二显示模块353)来显示虚拟对象。根据实施例,电子装置101可以基于预配置的配置信息(例如,分辨率、帧速率、亮度和/或显示区域)来显示虚拟对象。
根据实施例,电子装置101可以分别操作包括在第一玻璃构件220中的第一显示面板和包括在第二玻璃构件230中的第二显示面板作为独立的配置部件。例如,电子装置101可以基于第一配置信息确定第一显示面板的显示性能,并且基于第二配置信息确定第二显示面板的显示性能。
图2a和图2b所示的电子装置101中包括的至少一个相机(例如,前置相机213、眼睛跟踪相机212和/或识别相机211-1和211-2)的数量和位置可以不受限制。例如,电子装置101中包括的至少一个相机(例如,前置相机213、眼睛跟踪相机212和/或识别相机211-1和211-2)的数量和位置可以根据电子装置101的类型(例如,形状或大小)而变化。
图3是根据各种实施例的电子装置的框图。
参考图3,电子装置101可以包括处理器120(例如,图1中的处理器120)、存储器130(例如,图1中的存储器130)、显示模块160(例如,图1中的显示模块160)、音频模块170(例如,图1中的音频模块170)、传感器模块176(例如,图1中的传感器模块176)、相机模块180(例如,图1中的相机模块180)、电力管理模块188(例如,图1中的电力管理模块188)。电池189(例如,图1中的电池189)和/或通信模块(例如,图1中的通信模块190)。根据实施例,电子装置101可以经由连接端子330(例如,USB TYPE-C)连接到外部电子装置(未示出)。例如,电子装置101的电力管理模块188可经由连接端子330从外部电子装置接收电力并对电池189充电。作为另一示例,电子装置101的处理器120可以经由连接端子330与外部电子装置执行电力线通信。根据实施例,电子装置101可以由主体部分(例如,图2b中的主体部分223)和支撑部分(例如,图2b中的第一支撑部分221和/或第二支撑部分222)配置。根据实施例,电子装置101的元件可以被布置在主体部分223或支撑部分221和222处。
根据实施例,处理器120可以执行存储在存储器130中的程序(例如,图1中的程序140)以控制至少一个元件(例如,硬件或软件元件),并执行各种数据处理或计算。根据实施例,处理器120可以向用户提供增强现实服务。处理器120可以经由显示模块160输出至少一个虚拟对象,使得至少一个虚拟对象被视为被添加到与佩戴电子装置101的用户的视场相对应的真实空间。
根据实施例,电子装置101的显示模块160可包括至少一个玻璃构件(例如,第一玻璃构件(例如,图2a中的第一玻璃构件220)和/或第二玻璃构件(例如,图2a中的第二玻璃构件230)。根据实施例,第一玻璃构件220可包括第一显示模块351的至少一部分,并且第二玻璃构件230可包括第二显示模块353的至少一部分。例如,第一显示模块351和/或第二显示模块353中的每一个可以包括显示面板。显示面板可以由透明元件配置,使得用户可以经由显示模块160识别真实空间。显示模块160可以在显示面板的至少一部分上显示至少一个虚拟对象,使得佩戴电子装置101的用户看到虚拟对象被添加到真实空间。例如,用户的视角可以包括允许用户识别对象的角度和/或范围。根据实施例,显示模块160可以包括与用户的左眼相对应的第一显示模块351和/或与用户的右眼相对应的第二显示模块353。根据实施例,处理器120可以从存储器130加载与显示模块160的性能相关的配置信息(例如,分辨率、帧速率、显示区域的大小和/或锐度),并且可以基于配置信息来调整显示模块160的性能。根据实施例,可以关于包括在显示模块160中的每个显示面板单独地确定配置信息。例如,可以基于第一配置信息来配置与左眼相对应的第一显示面板,并且可以基于第二配置信息来配置与右眼相对应的第二显示面板。根据另一实施例,配置信息可以不同地配置显示模块160中包括的一个显示面板的至少一部分。例如,电子装置101可以不同地配置显示模块160的分辨率、帧速率和/或锐度中的至少一个。根据实施例,电子装置101可以至少部分地改变显示模块160的配置,以便降低功耗。
根据实施例,音频模块170可以基于处理器120的控制将声音转换为电信号,或者相反地可以将电信号转换为声音。例如,音频模块170可以包括图2a中的扬声器232-1和232-2和/或图2a中的麦克风241。根据实施例,电子装置101的传感器模块176可以包括接近传感器321、照度传感器322和/或陀螺仪传感器323。根据实施例,接近传感器321可以感测与电子装置101相邻的对象。照度传感器322可以测量电子装置101周围的亮度水平。根据实施例,处理器120可以借助于照度传感器322识别电子装置101周围的亮度水平,并且基于亮度水平改变显示模块160的亮度相关配置信息。例如,当周围亮度高于预配置的亮度时,处理器120可以将显示模块160配置为具有更高的亮度水平,以便增加用户的可见性。根据实施例,陀螺仪传感器323可感测电子装置101的姿势和位置。例如,陀螺仪传感器323可以感测电子装置101是否被正确地佩戴在用户的头部上。作为另一示例,陀螺仪传感器323可以感测电子装置101的移动或佩戴电子装置101的用户的移动。
根据实施例,电子装置101可经由通信模块190(例如,无线通信电路)与另一电子装置(例如,图1中的电子装置102或104)执行无线通信。例如,电子装置101可以与便携式电子装置(例如,智能电话)执行无线通信,并且彼此交换指令和/或数据。根据实施例,电子装置101可以至少部分地由另一外部电子装置(例如,便携式电子装置)控制。例如,可以在另一外部电子装置的控制下执行电子装置101的至少一个功能。
根据各种实施例,电子装置101可以基于通过有线或无线连接到电子装置的第二电子装置(例如,图1中的电子装置102或104)的控制来改变显示面板的配置的至少一部分。根据实施例,电子装置101可以向第二电子装置发送经由电子装置101的相机(例如,图1中的相机模块180)获得的注视眼睛(fixating eye)/辅助眼睛相关信息(例如,关于到位于真实空间中的对象的距离的信息、用户的眼睛跟踪信息或用户的姿势信息)。第二电子装置可以基于从电子装置101接收的与注视眼睛/辅助眼睛相关的信息,向电子装置101发送与检测的注视眼睛或辅助眼睛相对应的玻璃构件(例如,第一玻璃构件220和/或第二玻璃构件230)中包括的显示面板的配置信息。电子装置101可以基于从第二电子装置接收的显示面板的配置信息来改变显示面板的配置的至少一部分。例如,可以改变显示面板的配置以降低显示面板的质量,并且可以以用户不能感觉到的程度改变配置的至少一部分。根据实施例,电子装置101可以降低显示面板的分辨率,降低其帧速率,或者调整显示面板的显示区域的大小和位置。
根据实施例,电子装置101的相机模块180可以包括姿势相机311、眼睛跟踪相机313、距离测量相机(深度相机)315和/或RGB相机317。根据实施例,姿势相机311可以感测用户的移动。图2a所示的识别相机211-1和211-2可以包括姿势相机311。例如,至少一个姿势相机311可以被放置在电子装置101处,并且可以感测用户的手在预配置的距离内的移动。姿势相机311可以包括用于识别与电子装置的外围空间相关的信息(例如,位置和/或方向)的同步定位与建图(simultaneous localization and mapping(SLAM)camera,SLAM)相机。姿势相机311的姿势识别区域可以基于姿势相机311的图像捕获可用范围来配置。根据实施例,眼睛跟踪相机313(例如,图2a中的眼睛跟踪相机212)可以跟踪用户的左眼和右眼的运动。根据实施例,处理器120可以使用眼睛跟踪相机313来识别左眼的注视方向和右眼的注视方向。例如,眼睛跟踪相机313可以包括被配置为识别左眼的注视方向的第一眼睛跟踪相机212-1和被配置为识别右眼的注视方向的第二眼睛跟踪相机212-2。根据实施例,处理器120可以基于左眼的注视方向和右眼的注视方向来确定注视眼和辅助眼。根据实施例,距离测量相机315可测量到位于电子装置101前方的对象的距离。图2a中所示的图像捕获相机213可以包括距离测量相机315。距离测量相机315可以包括飞行时间(TOF)相机和/或深度相机。根据实施例,距离测量相机315可以捕获电子装置101的向前方向上的图像,并且眼睛跟踪相机313可以捕获与距离测量相机315的图像捕获方向相反的方向上的图像。根据另一实施例,电子装置101可以通过使用距离测量相机315测量到对象的距离,并且当距离等于或大于阈值时,改变显示面板的配置。例如,当到对象的距离是等于或小于阈值的近距离时,电子装置101可以保持显示面板的显示性能。根据实施例,电子装置101可以借助于眼睛跟踪相机313识别位于用户观看的注视方向(例如,FOV)上的对象之一,并且可以通过经由深度相机计算(获得)深度或经由TOF相机测量距离来获得到对象的距离。根据实施例,红绿蓝(RGB)相机317可以感测对象的颜色相关信息和关于到对象的距离的信息。根据实施例,电子装置101可以将距离测量相机315与RGB相机317集成,以便包括一种类型的相机。例如,图2a中所示的图像捕获相机213可以包括距离测量相机315和/或RGB相机317。根据实施例,包括在相机模块180中的姿势相机311、眼睛跟踪相机313、距离测量相机315和/或RGB相机317中的每一个可以被包括在电子装置101中,或者它们中的一些可以被实现为集成型相机。例如,距离测量相机315和RGB相机317可以被实现为一个集成型相机。
根据实施例,电力管理模块188可管理供应给电子装置101的电力。电力管理模块188可以包括多个电力管理模块(例如,第一电力管理模块331和第二电力管理模块332)。第一电力管理模块331或第二电力管理模块332的至少一部分可以被直接连接到处理器120,以便供应电力。第一电力管理模块331或第二电力管理模块332的至少一部分可以通过连接端子330(例如,TYPE-C)从外部电子装置接收电力,以便对电池189充电或向电子装置101的其它元件供电。根据实施例,电子装置101可以以无线充电方案从外部电子装置接收电力,以便对电池189充电。根据实施例,电力管理模块188可以电连接到电子装置101的元件(例如,存储器130、显示模块160、音频模块170、传感器模块176、相机模块180和/或通信模块190)。例如,电力管理模块188可以基于处理器120的控制向电子装置101的元件提供电池189的电力。根据实施例,电子装置101可以经由第一电力管理模块331从第一电池333接收电力,并且经由第二电力管理模块332从第二电池334接收电力。根据实施例,处理器120可以基于使用包括在相机模块180中的至少一个相机311、313、315和317获得的信息来至少部分地改变显示模块160的配置,以便管理消耗的电力。
根据实施例,在电力管理模块188的控制下,电池189可以通过供应电力来充电或通过提供电力来放电。根据实施例,电池189可以包括多个电池(例如,第一电池333和第二电池343)。例如,多个电池(例如,第一电池333和第二电池343)可以被布置在主体部分223和支撑部分(例如,第一支撑部分221和/或第二支撑部分222)处。根据实施例,第一电池333可以被放置在第一支撑部分221处,并且第二电池343可以被放置在第二支撑部分222处。
图4是根据各种实施例的电子装置的框图。
参考图4,电子装置400可以包括显示器420、传感器模块430、通信模块440、处理器410和存储器450,并且在各种实施例中,可以省略或替换所示元件中的一些。电子装置400还可以包括图1中的电子装置101的元件和/或功能中的至少一些。电子装置400的至少一些元件可以可操作地、功能地和/或电连接到彼此。
根据各种实施例,显示器420可以根据处理器410的控制显示各种图像。显示器420可以由液晶显示器(LCD)、发光二极管(LED)显示器、微LED显示器、量子点(QD)显示器或有机发光二极管(OLED)显示器中的一个来实现,但是实施例不限于此。显示器420可以由用于感测通过使用用户身体的部分(例如,手指)或通过输入装置(例如,触控笔)而形成的触摸和/或接近触摸(或悬停)的输入的触摸屏来实现。显示器420可以包括图1中的显示模块160的元件和/或功能中的至少一些。
根据各种实施例,显示器420可以是至少部分柔性的,并且可以由可折叠显示器或可滚动显示器实现。
根据各种实施例,传感器模块430(例如,图1中的传感器模块176)可以感测电子装置101的操作状态(例如,电力或温度)或外部环境状态(例如,用户的状态),并且生成与感测的状态相对应的电信号或数据值。根据实施例,传感器模块430可以包括例如姿势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
根据各种实施例,传感器模块430可以包括至少一个相机。例如,传感器模块430可以包括被配置为跟踪用户的注视的眼睛跟踪相机434和用于识别电子装置400前方的对象的前置相机432中的至少一个。
根据各种实施例,通信模块440可以根据处理器410的控制经由无线网络与外部装置通信。通信模块440可以包括用于向蜂窝网络(例如,长期演进(LTE)网络、5G网络或新无线电(NR)网络)和短距离网络(例如,Wi-Fi或蓝牙)发送数据或从蜂窝网络(例如,长期演进(LTE)网络、5G网络或新无线电(NR)网络)和短距离网络(例如,Wi-Fi或蓝牙)接收数据的硬件和软件模块。通信模块440可以包括图1中的通信模块190的元件和/或功能中的至少一些。
根据各种实施例,存储器450可以包括易失性存储器(例如,图1中的易失性存储器132)和非易失性存储器(例如,图1中的非易失性存储器134),以便暂时或永久地存储各种数据。存储器450可以包括图1中的存储器130的元件和/或功能中的至少一些,并且存储图1中的程序140。
根据各种实施例,存储器450可以存储可由处理器410执行的各种指令。这样的指令可以包括可以由处理器410识别的控制命令,诸如算术和逻辑运算、数据传送或输入/输出。
根据各种实施例,处理器410可以可操作地、功能地和/或电连接到电子装置400的元件(例如,显示器420、传感器模块430、通信模块440和存储器450),以便执行与元件的控制和/或通信相关的计算或数据处理。处理器410可以包括图1中的处理器120的元件和/或功能中的至少一些。
根据各种实施例,可以对可以由电子装置400上的处理器410实现的计算和数据处理功能没有限制。然而,在下文中,将描述用于在感测到电子装置400前方的对象时确定内容的显示方法的各种实施例。稍后描述的处理器410的操作可以通过加载存储在存储器450中的指令来执行。
根据各种实施例,处理器410可以在显示器420上输出内容。可以由处理器410在显示器420上输出的内容可以与例如由电子装置400提供的各种应用相对应的图像、电影、动画、游戏、视频和执行屏幕。处理器410可以在显示器420中输出关于用户视场的内容,并且可以在用户视场中的至少部分区域上输出内容。当由处理器410输出的内容是具有特定大小的图像并且可再现和可停止时,处理器410可以根据预定条件再现或停止由此输出的内容。例如,处理器410可以暂时停止当前正在再现的内容,同时最小化内容的大小,然后将内容移动到显示器420的一侧。
根据各种实施例,处理器410可以识别位于用户视场内的至少一个对象。处理器410可以识别一个或多个对象。根据实施例,处理器410可以识别和注册至少一个对象。处理器410可以将关于注册的对象的信息存储在存储器450中。根据实施例,处理器410可以仅在对象被预注册时识别用户视场内的对象。
根据各种实施例,处理器410可以获得识别的对象的用户注视停留时间。处理器410可以从眼睛跟踪相机434获得关于用户注视的信息。注视信息可以包括注视停留时间,该注视停留时间是用户盯着一个或多个对象的时间。处理器410可以识别多个对象,并且因此可以从眼睛跟踪相机434获得多个注视停留时间。例如,处理器410可以获得第一对象的第一注视停留时间和第二对象的第二注视停留时间。根据实施例,处理器410可以仅在识别的对象被预注册时获得注视停留时间。例如,当处理器410已经注册第一对象和第二对象,并且第一对象、第二对象和第三对象位于前方时,处理器410可以获得第一对象的第一注视停留时间和第二对象的第二注视停留时间,并且可以不识别第三对象。
根据各种实施例,处理器410可以确定用户对对象的注视停留时间是否等于或大于参考时间(例如,一秒)。处理器410可以确定注视停留时间的参考时间。参考时间可以足够长以使用户不能识别用户未关注的对象,并且可以足够短以使用户快速识别用户关注的对象。当用户对对象的注视停留时间等于或大于参考时间时,处理器410可以确定用户已经识别出对象。
根据各种实施例,处理器410可以计算(获得)前置相机432的视场内的对象的面积。处理器410可以从前置相机432获得电子装置400前方的情况的图像。处理器410可以识别包括在图像中的对象的图像,并且基于分配给对象的图像的像素数与整个分辨率的比率来计算对象的面积。
根据各种实施例,处理器410可以基于从传感器模块430获得的信息来输出各种类型的内容。在下文中,将详细描述由处理器410基于从传感器模块430获得的信息输出内容的方法。根据各种实施例,处理器410可以基于测量的面积输出内容。当前置相机432的视场中由对象占据的面积小于预定面积时,处理器410可以输出与对象不重叠的区域上的内容。当由对象占据的面积小于预定面积时,处理器410可以确定即使当仅移除当前正在输出的内容的部分区域时,用户也可以识别对象。当处理器410已经仅移除内容的部分区域时,用户可以识别出现在其视场内的对象,同时连续观看用户已经观看(或使用)的内容。根据实施例,处理器410可以移除视场中对象所在的区域上的内容。例如,当在处理器410正在包括第一区域的第二区域上输出内容的同时对象位于第一区域上时,处理器410可以在从第二区域中仅排除第一区域之后剩余的区域上输出内容。根据另一实施例,处理器410可以重新定位内容,使得不存在对象和内容彼此重叠的区域。例如,处理器410可以将正在第二区域上输出的内容移动到与第一区域没有重叠的第三区域。根据实施例,处理器410可以在重新定位内容的同时调整内容的大小。例如,处理器410可以在将内容移动到与对象不重叠的第三区域的同时减小内容的大小并输出内容。
根据各种实施例,当对象的面积等于或大于预定面积时,处理器410可以减小内容的大小并在显示器420的一侧上输出内容。当视场中由对象占据的面积等于或大于预定面积时,用户可能难以同时识别用户已经观看(或使用)的对象和内容。在这种情况下,处理器410可以减少内容并在显示器420的一侧上输出内容,从而提供用户能够识别对象的显示环境。根据实施例,处理器410可以将预定面积配置为足够小以使用户在不被中断的情况下观看内容。根据实施例,处理器410可以在减小内容的大小的同时暂时停止内容的再现。当内容的大小减小时,用户可能难以以用户已经使用内容的方式使用内容。因此,处理器410可以在减小内容的大小的同时暂时停止内容的再现,以便为用户提供便利。当对象在视场中消失时,或者当视场中由对象占据的面积变小时,处理器410可以将内容放大到原始大小,并再现内容。
根据各种实施例,处理器410可以实时控制内容的输出类型。根据视场内由对象占据的面积,处理器410可以实时改变内容的大小,重新定位内容,或者不在部分区域中输出内容。例如,当在排除对象所在的区域之后剩余的区域上输出内容的同时对象占据的面积变得更大以等于或大于预定面积时,处理器410可以减小内容的大小并在显示器420的一侧输出内容。此后,当由对象占据的面积变小时,处理器可以将内容的大小扩大到原始大小,并且在排除内容和对象彼此重叠的区域之后剩余的区域上输出内容。
根据各种实施例,处理器410可以基于视场内的对象的位置来输出内容。根据各种实施例,处理器410可以将前置相机432的视场配置为包括中心区域和边缘区域。处理器410可以根据对象是位于视场上的中心区域还是边缘区域中来输出内容。
根据各种实施例,处理器410可以确定内容的重要性级别,并且基于确定的重要性级别输出内容。处理器410可以基于在内容中执行的功能来确定重要性级别。例如,处理器410可以为内容配置高重要性级别,诸如导航应用,其在正在进行的执行期间停止时可能对用户造成危险。处理器可以为诸如电影内容或流传输内容的内容配置低重要性级别,即使在再现期间停止时,该低重要性级别也不会对用户造成危险。根据实施例,当在再现具有高重要性级别的内容的同时感测到对象时,处理器410可以不减小再现内容的大小或者可以同时显示对象和内容。根据实施例,当正在再现具有低重要性级别的内容时,处理器410可以基于由对象占据的面积的大小来确定内容的输出类型。
根据各种实施例,处理器410可以感测姿势和移动以识别对象。处理器410可以通过前置相机432识别预定的姿势。当识别出预定的姿势时,处理器410可以在不获得对象的注视停留时间的情况下确定用户正在识别对象。例如,当处理器410将向左和向右摇动对象的姿势配置为预定的姿势,并且识别出在前置相机432的视场内向左和向右摇动的对象时,即使当用户没有注视对象时,处理器也可以确定用户正在识别对象。处理器410可以识别姿势以减少注视跟踪所需的资源。
根据各种实施例,处理器410可以将唯一姿势映射到每个对象并存储该唯一姿势。处理器410可以分别为对象的类型配置不同的唯一姿势,而不配置仅一个姿势,并且当识别出特定姿势时,可以识别映射到姿势的对象。例如,处理器410可以将翻转手腕的姿势映射到第一对象(例如,智能手表),并存储该姿势。此后,当识别出翻转手腕的姿势时,处理器410可以确定用户识别出第一对象。
根据各种实施例,处理器410可以根据用户握持对象的手的数量来输出内容。处理器410可以借助于前置相机432识别对象以及用户用其握持对象的手。根据实施例,当用户用两只手握持对象时,处理器410可以确定用户正在关注对象,减小内容的大小,并在显示器420的一侧输出内容。根据实施例,当用户用一只手握持对象时,处理器410可以基于诸如在前置相机432的视场中由对象占据的面积和位置等因素来确定内容的输出类型。
根据各种实施例,处理器410可以借助于通信模块440与对象建立通信链路。根据实施例,处理器410可以与至少一个对象建立通信链路并将其存储在存储器450中。根据实施例,位于电子装置400前方的对象可以是能够与电子装置400通信的外部装置。处理器410可以与外部装置建立通信链路,并且识别外部装置是否是预注册的对象。
根据各种实施例,处理器410可以输出包括与通过通信连接到其的对象相关的信息的消息用户界面(UI)。处理器410可以从存储器450获得与通过通信连接到其的对象相关的信息。处理器410可以输出消息UI,该消息UI包括关于显示对象的视场上的区域的一侧处的对象的信息。根据各种实施例,当对象不是预注册的对象时,处理器410可以搜索对象以获得关于对象的信息,并显示包括该信息的消息UI。
根据各种实施例,处理器410可以识别位于视场内的多个对象。例如,处理器410可以识别包括第一对象和第二对象的多个对象。处理器410可以获得第一对象的第一注视停留时间和第二对象的第二注视停留时间。处理器410可以基于第一注视停留时间和第二注视停留时间来确定包括用户感兴趣的第一对象和第二对象中的至少一个的感兴趣对象。例如,当第一注视停留时间等于或大于参考时间并且第二注视停留时间小于参考时间时,处理器410可以仅将第一对象配置为感兴趣对象。当第一注视停留时间和第二注视停留时间都等于或大于参考时间时,处理器410可以将第一对象和第二对象都配置为感兴趣对象。根据各种实施例,处理器410可以基于视场中感兴趣由对象占据的面积的大小来确定内容的输出类型。例如,当第一对象和第二对象是感兴趣的对象时,处理器410可以确定通过将第一对象的第一面积添加到第二对象的第二面积而获得的面积的大小是否等于或大于预定面积的大小。
根据各种实施例,处理器410可以配置感兴趣对象。处理器410可以基于用户输入将至少一个对象配置为感兴趣对象,并且经由前置相机432识别被配置为感兴趣对象的对象。根据实施例,感兴趣对象可能不能通过通信连接到电子装置404,并且处理器410可以通过识别感兴趣对象的视觉特性来识别感兴趣对象。
根据各种实施例,当感兴趣对象和内容彼此重叠时,处理器410可以改变内容的透明度水平。处理器410可以改变内容的透明度水平,从而向用户提供指示感兴趣对象位于前方的通知。根据实施例,处理器410可以提供指示感兴趣对象的信息。例如,处理器410可提供指示所感兴趣对象的视觉/听觉信息。例如,当内容正在一起输出视觉信息和听觉信息时,处理器410可以仅提供关于感兴趣对象的视觉信息,并且当内容仅输出视觉信息时,处理器可以提供关于感兴趣对象的视觉和听觉信息。例如,处理器410可以提供包括感兴趣对象的照片。处理器410可以识别存储在电子装置400中的照片中是否存在感兴趣对象,并且当存在包括感兴趣对象的照片时,可以在显示器420上输出照片。
根据各种实施例,处理器410可以基于预定的切换事件在显示器420上显示感兴趣的对象或内容。切换事件可以包括用户在电子装置400上的触摸、用户在其上的点击、以及用户在通过通信连接到电子装置400的外部装置上的触摸输入。处理器410可以接收切换事件,在显示器420上输出内容或者在显示器420的一侧上最小化并显示内容,并且输出关于感兴趣对象的信息。根据实施例,当没有输出关于感兴趣对象的信息并且输出内容时,处理器410可以将关于感兴趣对象的信息的亮度改变为暗,并且在经过预定时间之后不输出信息。
根据各种实施例,当用户对对象的注视停留时间小于参考时间时,处理器410可以以初始值输出内容。处理器410可以获得对象的注视停留时间,并且当用户盯着对象的时间小于参考时间时,可以以初始值输出内容。根据实施例,处理器410可以不同地配置用于确定用户识别内容的时间和用于确定用户不再识别内容的时间。
图5是示出根据各种实施例的注视停留时间的测量的示意图。
参考图5,处理器(例如,图4中的处理器410)可以借助于前置相机(例如,图4中的前置相机432)和眼睛跟踪相机(例如,图4中的眼睛跟踪相机434)来测量注视停留时间。根据各种实施例,处理器可以借助于前置相机识别位于电子装置前方的对象510。处理器可以借助于眼睛跟踪相机来识别用户的瞳孔移动,并且基于从前置相机获得的对象510的位置来确定用户看着哪个对象。例如,参考图5的示意图(a),处理器可以借助于前置相机识别对象510位于前置相机的视场500上,并且可以借助于眼睛跟踪相机识别用户正在注视对象510。处理器可以测量用户对对象510的注视停留时间。
根据各种实施例,处理器可以基于用户的注视停留时间来改变内容的输出类型。处理器可以配置适合于识别用户盯着的对象510的参考时间。根据各种实施例,处理器可以基于注视停留时间和参考时间来改变内容的输出类型。例如,当注视停留时间小于参考时间时,处理器可以以初始值输出内容,并且当注视停留时间等于或大于参考时间时,处理器可以基于前置相机的视场500中由对象510占据的面积来改变内容的大小或重新定位内容。
根据各种实施例,即使在对象510位于前置相机的视场500内的情况下,当用户没有盯着对象510时,处理器也可能无法识别对象510。例如,参考图5的示意图(b),尽管对象510位于视场500内,但是用户不盯着对象510。处理器可以从眼睛跟踪相机获得指示用户没有盯着对象510的信息,并且可以不改变内容的输出类型。
根据各种实施例,当用户在内容的输出类型改变之后没有看着对象510时,处理器可以以初始值输出内容。例如,在处理器减小内容的大小并且然后在显示器(例如,图4中的显示器420)的一侧上显示内容之后,当注视停留时间小于参考时间时,因为用户没有盯着对象510,处理器可以将内容的大小和位置恢复到原始大小和位置,并且输出内容。处理器可以根据用户注视的位置和时间来改变内容的大小和位置,从而提供与用户意图匹配的输出屏幕。
图6a和图6b是示出根据各种实施例的电子装置对内容的重新定位的示意图。
根据各种实施例,当视场602中由内容620占据的面积612小于预定面积时,处理器(例如,图4中的处理器410)可以在与对象不重叠的区域上输出内容620。处理器可以识别位于视场602上的对象并且借助于前置相机(例如,图4中的前置相机432)以及眼睛跟踪相机(例如,图4中的眼睛跟踪相机434)识别用户正看着对象。处理器可以测量位于视场602上的对象的面积612,并将测量区域与预定面积进行比较。当对象的面积612的大小等于或大于预定面积的大小时,处理器可以减小内容620的大小,并且在显示器(例如,图4中的显示器420)的一侧上输出内容,并且当对象的面积612的大小小于预定面积的大小时,处理器可以在与对象不重叠的区域上输出内容620。图6a示出了对象的面积612的大小小于预定面积的大小的情况。
根据各种实施例,当对象的面积612小于预定面积的区域时,处理器可以移动内容620,使得不存在内容和对象彼此重叠的区域。例如,参考图6b,处理器可以移动内容620,使得不存在内容和对象彼此重叠的区域。根据实施例,处理器可以在重新定位内容620的同时减小要完全显示在显示器上的内容620的大小。处理器可以根据对象在视场602上的位置来确定内容620的移动方向。例如,如图6b所示,当对象位于屏幕的底部时,处理器可以将内容620移动到其顶部。例如,当对象位于屏幕的右侧时,处理器可以将内容620移动到其左侧。
图7a和图7b是示出根据各种实施例的由电子装置移除部分内容区域的示意图。
根据各种实施例,当视场702上由对象710占据的面积小于预定面积时,处理器(例如,图4中的处理器410)可以不在与对象710重叠的区域上输出内容720。参考图7a,处理器可以识别位于视场702上的对象710。当视场702上由对象710占据的面积小于预定面积时,处理器可以不改变内容720的位置和大小,并且可以不在重叠的区域上输出内容720。
图7b是示出在内容720和对象710彼此重叠的区域上移除内容720的实施例的示意图。处理器可以借助于眼睛跟踪相机(例如,图4中的眼睛跟踪相机434)识别用户盯着对象710,可以测量其面积,并且当测量的面积小于预定区域时,可以移除内容720的重叠的区域。根据实施例,处理器可以基于对象710在视场702中的位置来移除内容720的一部分或重新定位内容720。当对象710位于视场702的边缘时,处理器可以重新定位内容720,并且当对象710位于视场702的中心部分时,处理器可以移除内容720的部分区域。
图8a和图8b是示出根据各种实施例的由电子装置减小内容大小的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以基于视场800中由对象810占据的面积来减小内容820的大小并在显示器(例如,图4中的显示器420)的一侧上显示内容820。参考图8a,处理器可以识别位于视场800中的前方的对象810。处理器可以测量对象810的面积,并将其与预定面积进行比较。当对象810的面积等于或大于预定面积时,处理器可以减小输出内容820的大小并将其输出在显示器的一侧上,如图8b所示。处理器可以确定与当前正在输出的内容820相比,用户更多地关注出现在视场前方的对象。在对象810的大小大的情况下,即使当处理器移除内容820的部分区域或改变输出位置时,也可能难以识别对象。因此,处理器可以调整内容820的整体大小。
例如,在输出内容820时,处理器可以识别出现在相机的视场800中的对象810。当对象810的面积等于或大于预定面积时,处理器可以减小正在输出的内容820的大小,并将其输出在显示器的一侧。当处理器正在输出多个内容时,处理器可以改变多个内容的大小和位置。例如,处理器可以减小(例如,缩略图大小)内容的大小,并且分别将内容的位置改变为最接近边缘区域中的内容的位置。处理器可以暂时停止已经移动到边缘区域的内容的再现。处理器可以在显示器的固定位置处输出内容,使得内容根据用户的头部移动而一起移动。
图9a和图9b是示出根据各种实施例的电子装置根据用户的视场中由对象占据的面积和位置来确定内容输出类型的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以根据对象910在视场900上的位置来确定内容的输出类型。处理器可以确定对象910是位于视场900的边缘区域还是中心区域中。处理器可以基于与整个视场900的中心间隔开的位置来确定边缘区域或中心区域。例如,处理器可以配置与视场900的中心间隔开第一长度的区域作为中心区域,并且可以配置剩余区域作为边缘区域。处理器可以基于对象910是位于视场900的中心区域中还是位于边缘区域中来确定内容的输出类型。例如,当对象910位于视场900的边缘区域中并且由对象910占据的面积912小于预定面积时,处理器可以移除内容的部分区域或重新定位内容。参考图9a的示意图(a),因为对象910位于视场900的边缘区域中,并且由对象910占据的区域小于预定面积,所以处理器可以移除部分内容区域或重新定位内容。当对象910位于视场900的边缘区域中并且由对象910占据的面积912等于或大于预定面积时,处理器可以重新定位内容。参考图9a的(b),因为对象910位于视场900的边缘区域中,并且由对象910占据的面积等于或大于预定面积,所以处理器可以重新定位并输出内容。当对象910位于视场900的中心区域中并且由对象910占据的面积等于或大于预定面积时,处理器可以减小内容的大小并在显示器(例如,图4中的显示器420)的一侧上显示内容。参考图9b,因为对象910位于视场900的中心区域中,并且在视场900中由对象910占据的区域等于或大于预定面积,所以处理器可以减小内容的大小并在显示器的一侧上显示内容,以便使用户能够进一步平滑地识别对象910。根据实施例,当处理器在再现多个内容的同时识别对象910时,处理器可以减小多个内容的大小并将其重新定位到视场900的边缘区域。例如,处理器可以在再现第一内容、第二内容和第三内容的同时识别对象910。处理器可以将第一内容、第二内容和第三内容重新定位到视场900的边缘区域。处理器可以识别最接近视场900的边缘区域中的内容的位置,并且分别将内容重新定位到识别的位置。例如,处理器可以将第一内容重新定位到边缘区域内最接近第一内容的第一位置,将第二内容重新定位到边缘区域内最接近第二内容的第二位置,并且将第三内容重新定位到边缘区域内最接近第三内容的第三位置。根据实施例,处理器900可以在将内容重新定位到视场900的边缘区域的同时暂时停止内容的再现。当对象910位于视场900的中心区域中并且由对象910占据的面积小于预定面积时,处理器可以移除与对象910重叠的区域上的内容。
图10a和图10b是示出根据各种实施例的电子装置在显示器上输出对象的附加信息的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以获得识别的对象1030的附加信息,并且在显示器(例如,图4中的显示器420)上输出该信息。例如,当处理器借助于前置相机(例如,图4中的前置相机432)识别外部装置时,处理器可以获得诸如由外部装置提供的功能和外部装置的性能的附加信息,并且在外部装置的一侧输出信息。根据实施例,处理器可以借助于通信模块(例如,图4中的通信模块440)与外部装置建立通信链路,并且从外部装置接收与附加信息相关的数据。处理器可以基于接收的数据输出包括外部装置的附加信息的图形UI 1032。
根据各种实施例,处理器可以改变内容1020的大小和位置,以便输出包括对象1030的附加信息的图形UI 1032。处理器可以改变内容1020的大小和位置,使得不存在对象1030和内容1020彼此重叠的区域。参考图10a,当识别的对象1030位于视场1010的左侧时,处理器可以减小内容1020的大小并将其向右移动。处理器还可以在对象1030的一侧输出包括获得的附加信息的图形UI 1032。由处理器输出的图形UI 1032可以是消息类型或图像或视频,但不限于此。根据实施例,处理器可以显示包括预注册的对象1030的附加信息的图形UI 1032。当对象1030被注册时,处理器可以将对象1030的附加信息存储在存储器(例如,图4中的存储器450)中,并且当识别出预注册的对象1030时,处理器可以输出包括存储在存储器中的附加信息的图形UI 1032。根据实施例,处理器可以显示分别包括多个对象1030的附加信息的图形UI 1032。例如,当基于注视停留时间确定用户识别第一对象和第二对象时,处理器可以输出第一对象的第一附加信息和第二对象的第二附加信息。
参考图10b,处理器可以输出包括未注册的对象1040的附加信息的图形UI 1042。根据各种实施例,处理器可以基于注视停留时间来识别用户盯着的对象1040。当对象1040不是预注册的对象时,处理器可以通过通信连接到网络并搜索对象1040的附加信息。处理器可以在显示器上输出包括从网络获得的对象1040的附加信息的图形UI 1042,并且可以改变内容1020的大小和位置,使得内容不与对象1040和包括附加信息的图形UI 1042重叠。
图11是示出根据各种实施例的电子装置根据内容的重要性级别确定输出类型的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以确定正在输出的内容1100的重要性级别。每个内容的重要性级别可以针对应用被不同地配置,或者可以基于用户输入来确定。参考图11,由于导航应用连续地生成信息并将其提供给用户,因此处理器可以为其配置高重要性级别。在正在执行导航应用的情况下,即使前方视场中由对象占据的面积等于或大于预定面积时,处理器也可以不减小内容1100的大小。相反,在输出具有低重要性级别的内容1100(例如,观看电影或视频)期间在视场中识别出对象,处理器可以基于由内容1100占据的面积来确定输出类型。
根据各种实施例,处理器可以基于用户输入来改变内容1100的大小和位置。根据实施例,处理器可以在改变内容1100的大小和位置之前输出包括消息的图形UI 1110。例如,当处理器在输出具有高重要性级别的内容1100的同时识别出占据等于或大于预定面积的面积的对象时,处理器可以输出包括诸如“你想要去激活AR信息吗?”的消息的图形UI1110。处理器可以基于对消息的用户输入来减小正在输出的内容1100的大小,并且将其显示在显示器(例如,图4中的显示器420)的一侧上。
图12是示出根据各种实施例的多个对象位于电子装置前方的情况的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以识别位于前方视场1210中的多个对象。根据实施例,处理器可以分别获得用户对多个对象的注视停留时间。例如,处理器可以获得视场1210中的第一对象1220的第一注视停留时间和第二对象1230的第二注视停留时间。处理器可以将对象的注视停留时间与参考时间进行比较,并确定用户盯着的感兴趣对象。例如,当第一对象1220的第一注视停留时间等于或大于参考时间,但是第二对象1230的第二注视停留时间小于参考时间时,处理器可以仅将第一对象1220确定为感兴趣对象。当第一注视停留时间和第二注视停留时间都等于或大于参考时间时,处理器可以将第一对象1220和第二对象1230都确定为用户感兴趣的感兴趣对象。
根据各种实施例,处理器可以基于视场1210中由感兴趣对象占据的面积的大小来确定内容的输出类型。当存在多个感兴趣对象时,处理器可以对对象的面积和感兴趣对象的面积的大小求和。例如,当感兴趣对象包括第一对象1220和第二对象1230时,处理器可以将预定面积与通过对第一对象1220的第一面积和第二对象1230的第二面积求和而获得的面积进行比较,并确定输出类型。
图13a和图13b是示出根据各种实施例的电子装置识别姿势并确定输出类型的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以基于接收的姿势1312确定用户识别对象1310。处理器可以确定实现位于前置相机(例如,图4中的前置相机432)的视场内的对象1310的识别的姿势1312。当经由前置相机识别姿势1312时,处理器可以在不获得注视停留时间的情况下确定用户正在识别对象1310。参考图13a,处理器可以将向左和向右摇动对象1310的姿势1312存储在存储器(例如,图4中的存储器450)中,并且当识别出姿势1312时,处理器可以确定用户识别对象1310。此后,当识别出在视场中向左和向右摇动对象1310的姿势1312时,处理器可以确定用户在不获得对象1310的注视停留时间的情况下识别对象1310,。
参考图13b,处理器可以分别为对象生成唯一姿势,将唯一姿势映射到对象,并将其存储在存储器中。处理器可以识别特定姿势,并且确定用户识别映射到姿势的对象。例如,处理器可以将翻转手腕的姿势1322映射到可穿戴装置1320(例如,智能手表)。当处理器识别出翻转手腕的姿势1322时,处理器可以确定用户识别可穿戴装置1320。例如,处理器可以将伸展手指的姿势1332映射到外部装置1330(例如,电视(TV))。当处理器识别伸展手指的姿势1332时,处理器可以确定用户识别外部装置1330。
图14是示出根据各种实施例的根据用户握持对象的手的数量来确定输出类型的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以根据用户握持对象的手的数量来确定内容的输出类型。处理器可以基于用户是用一只手握持(运动1400)对象还是用两只手握持(运动1402)对象来确定内容的输出类型。参考图14,当用户用一只手握持(运动1400)对象时,处理器可以基于视场中由对象占据的面积来确定内容的输出类型。当用户用两只手握持(运动1402)对象时,处理器可以确定用户已经识别出由用户握持的对象,减小内容的大小,并将其输出在显示器(例如,图4中的显示器420)的一侧上。
图15是示出通过通信输出关于连接到根据各种实施例的电子装置的对象的附加信息的实施例的示意图。
根据各种实施例,处理器(例如,图4中的处理器410)可以通过显示器(例如,图4中的显示器420)上的通信输出与其连接的对象1510的附加信息。处理器可以获得对象1510的附加信息,并且输出提供对象1510的附加信息的图形UI 1520。根据实施例,处理器可以通过使用通信链路获得对象1510的附加信息。例如,处理器可以与包括至少一个按钮的控制器建立通信链路,并且输出包括每个按钮的附加信息的图形UI 1520。处理器可以通过通信链路从控制器接收包括每个按钮的功能的数据,并且可以基于接收的数据输出包括每个按钮的描述的图形UI 1520。
根据各种实施例的电子装置可以包括主体部分、由主体部分支撑的玻璃构件、放置在玻璃构件处的显示器、可旋转地连接到主体部分的支撑部分、包括眼睛跟踪相机和被配置为捕获用户前侧的图像的前置相机的传感器模块、以及可操作地连接到显示器和传感器模块的处理器,其中处理器被配置为经由显示器输出至少一个内容,通过控制前置相机来识别至少一个对象。从眼睛跟踪相机获得用户对所述对象的注视停留时间,当注视停留时间大于或等于参考时间时,计算前置相机的视场(FOV)中由对象占据的面积,基于该面积,在与对象不重叠的区域上输出至少一个内容,或者减小至少一个内容的大小并在显示器的一侧上输出至少一个内容,以及当用户对对象的注视停留时间小于参考时间时,以与初始输出类型相同的类型输出至少一个内容。
根据各种实施例,处理器可以从前置相机获得对象在视场中的位置坐标,基于位置坐标,在视场的边缘区域或中心区域中确定对象所在的区域,并且基于该面积和在视场中对象所在的区域输出至少一个内容。
根据各种实施例,当对象位于视场的边缘区域中,或者面积小于预定面积时,处理器可以在与对象不重叠的区域上输出至少一个内容,并且当对象位于视场的中心区域中,并且面积等于或大于预定面积时,处理器可以减小至少一个内容的大小并在显示器的一侧输出至少一个内容。
根据各种实施例,在在与对象不重叠的区域上输出至少一个内容的情况下,当由对象占据的面积小于预定面积时,处理器可以在排除显示对象的区域之后剩余的区域上输出至少一个内容,并且当由对象占据的面积等于或大于预定面积并且显示对象的区域属于边缘区域时。处理器可以移动输出至少一个内容的区域,使得移动的区域不与显示对象的区域重叠。
根据各种实施例,处理器可以基于使用前置相机获得的对象的图像来确定对象是否是预注册的对象,并且当对象是预注册的对象时,获得用户对对象的注视停留时间。
根据各种实施例,当对象是预注册的对象时,处理器还可以在显示器上输出包括对象的附加信息的图形UI。
根据各种实施例,当减小至少一个内容的大小并且然后在显示器的一侧上输出至少一个内容时,处理器可以在减小内容的大小的时间点暂时停止内容的再现。
根据各种实施例,处理器可以搜索对象的图像并获得相关信息,并且在视场中的对象的一侧输出包括相关信息的图形UI。
根据各种实施例,当注视停留时间等于或大于参考时间并且用一只手握持对象时,处理器可以从前置相机获得握持对象的手的图像,基于该面积输出与对象不重叠的区域上的至少一个内容,并且当注视停留时间等于或大于参考时间并且用两只手握持对象时。减小至少一个内容的大小并在显示器的一侧上输出至少一个内容。
根据各种实施例,当前置相机识别第一对象和第二对象时,处理器可以基于第一对象的第一注视停留时间和第二对象的第二注视停留时间将第一对象和第二对象中的至少一个确定为感兴趣对象,并且基于视场中由至少一个感兴趣对象占据的面积输出至少一个内容。
根据各种实施例,处理器可以通过借助于前置相机识别握持对象的手的姿势来确定用户已经识别出对象。
根据各种实施例,处理器可以生成对象的唯一姿势,将唯一姿势映射到对象,并存储映射的唯一姿势和对象,并且当识别出唯一姿势时,确定用户已经识别出映射到唯一姿势的对象。
根据各种实施例,处理器可以确定至少一个内容的重要性级别,并且当重要性级别等于或大于预定值、减小至少一个内容的大小并且在显示器的一侧输出至少一个内容时,基于用户输入同时输出至少一个内容和对象。
图16是根据各种实施例的由电子装置输出内容的方法的流程图。
图16所示的方法可以由参考图1至图15描述的电子装置(例如,图1中的电子装置101)执行,并且在以下描述中,将省略对上述技术特征的描述。
根据各种实施例,在操作1602中,电子装置可以在显示器(例如,图4中的显示器420)上输出内容。可以由电子装置在显示器上输出的内容可以与由电子装置提供的各种应用相对应的图像、电影、动画、游戏、视频和执行屏幕。电子装置可以在显示器中输出用户视场上的内容,并且可以在用户视场中的至少部分区域上输出内容。当由电子装置输出的内容是具有特定大小的图像并且可再现和可停止时,电子装置可以根据预定条件再现或停止由此输出的内容。
根据各种实施例,在操作1604中,电子装置可以识别位于前置相机的视场内的对象。电子装置可以识别一个或多个对象。根据实施例,电子装置可以识别和注册至少一个对象。电子装置可以将关于注册对象的信息存储在存储器(例如,图4中的存储器450)中。根据实施例,电子装置可以仅在对象被预注册时识别用户视场内的对象。
根据各种实施例,在操作1606中,电子装置可以获得用户对对象的注视停留时间。电子装置可以从眼睛跟踪相机(例如,图4中的眼睛跟踪相机434)获得关于用户注视的信息。注视信息可以包括注视停留时间,该注视停留时间是用户盯着一个或多个对象的时间。电子装置可以识别多个对象,并且因此可以从眼睛跟踪相机获得多个注视停留时间。根据实施例,电子装置可以仅在识别出的对象被预注册时获得注视停留时间。
根据各种实施例,在操作1610中,电子装置可以确定获得的注视停留时间是否等于或大于参考时间。电子装置可以确定注视停留时间的参考时间。参考时间可以足够长以使用户不能识别用户未关注的对象,并且可以足够短以使用户快速识别用户关注的对象。当用户对对象的注视停留时间等于或大于参考时间时,电子装置可以确定用户已经识别出对象。
根据各种实施例,在操作1612中,当注视停留时间等于或大于参考时间时,电子装置可以计算前方视场内由对象占据的面积。电子装置可以从前置相机获得电子装置前方的情况的图像。电子装置可以识别图像中包括的对象的图像,并且基于分配给对象的图像的像素的数量与整个分辨率的比率来计算(获得)对象的面积。
根据各种实施例,在操作1614中,电子装置可以确定内容的输出类型。根据各种实施例,电子装置可以基于测量的面积来输出内容。当前置相机的视场内由对象占据的面积小于预定面积时,电子装置可以在与对象不重叠的区域上输出内容。当由对象占据的面积小于预定面积时,即使当仅移除当前正在输出的内容的部分区域时,电子装置也可以确定用户可以识别对象。当电子装置仅移除内容的部分区域时,用户可以识别出现在其视场内的对象,同时连续观看用户已经观看(或使用)的内容。根据实施例,电子装置可以移除视场中对象所在的区域上的内容。根据另一实施例,电子装置可以重新定位内容,使得不存在对象和内容彼此重叠的区域。根据实施例,电子装置可以在重新定位内容的同时调整内容的大小。
根据各种实施例,当对象的面积等于或大于预定面积时,电子装置可以减小内容的大小并在显示器的一侧上输出内容。当视场中由对象占据的面积等于或大于预定面积时,用户可能难以同时识别用户已经观看(或使用)的对象和内容。在这种情况下,电子装置可以减少内容并在显示器的一侧上输出内容,从而提供用户能够识别对象的显示环境。根据实施例,电子装置可以将预定面积配置为足够小以使用户在不被中断的情况下观看内容。根据实施例,电子装置可以在减小内容的大小的同时暂时停止内容的再现。
根据各种实施例,电子装置可以实时控制内容的输出类型。根据视场中由对象占据的面积,电子装置可以实时改变内容的大小、重新定位内容、或者不在部分区域中输出内容。
根据各种实施例,电子装置可以基于视场内对象的位置来输出内容。根据各种实施例,电子装置可以将前置相机的视场配置为包括中心区域和边缘区域。电子装置可以根据对象位于视场上的中心区域还是边缘区域中来输出内容。
根据各种实施例,电子装置可以确定内容的重要性级别,并基于确定的重要性级别输出内容。电子装置可以基于在内容中执行的功能来确定重要性级别。根据实施例,当正在再现具有高重要性级别的内容的同时感测到对象时,电子装置可以不减小再现内容的大小或者可以同时显示对象和内容。根据实施例,当正在再现具有低重要性级别的内容时,电子装置可以基于由对象占据的面积的大小来确定内容的输出类型。
根据各种实施例,电子装置可以感测姿势和移动以识别对象。电子装置可以借助于前置相机来识别预定姿势。当识别出预定姿势时,电子装置可以在不获得对象的注视停留时间的情况下确定用户正在识别对象。
根据各种实施例,电子装置可以将唯一姿势映射到每个对象并存储该唯一姿势。电子装置可以分别为对象的类型配置不同的唯一姿势,而不是仅配置一个姿势,并且当识别出特定姿势时,可以识别映射到姿势的对象。
根据各种实施例,电子装置可以根据用户握持对象的手的数量来输出内容。电子装置可以借助于前置相机识别对象和用户握持对象的手。根据实施例,当用户用两只手握持对象时,电子装置可以确定用户正在聚焦在对象上,减小内容的大小,并在显示器的一侧输出内容。根据实施例,当用户用一只手握持对象时,电子装置可以基于诸如前置相机的视场内由对象占据的面积和位置的因素来确定内容的输出类型。
根据各种实施例,电子装置可以借助于通信模块(例如,图4中的通信模块440)与对象建立通信链路。根据实施例,电子装置可以与至少一个对象建立通信链路并将其存储在存储器中。根据实施例,位于电子装置前方的对象可以是能够与电子装置通信的外部装置。电子装置可以与外部装置建立通信链路,并且识别外部装置是否是预注册的对象。
根据各种实施例,电子装置可以通过通信输出包括与连接到其的对象相关的信息的消息UI。电子装置可以通过来自存储器的通信获得与连接到其的对象相关的信息。电子装置可以输出消息UI,该消息UI包括关于显示对象的视场上的区域的一侧处的对象的信息。根据各种实施例,当对象不是预注册的对象时,电子装置可以搜索对象以获得关于对象的信息,并显示包括该信息的消息UI。
根据各种实施例,电子装置可以识别位于视场内的多个对象。例如,电子装置可以识别包括第一对象和第二对象的多个对象。电子装置可以获得第一对象的第一注视停留时间和第二对象的第二注视停留时间。电子装置可以基于第一注视停留时间和第二注视停留时间来确定包括用户感兴趣的第一对象和第二对象中的至少一个的感兴趣对象。根据各种实施例,电子装置可以基于视场中由感兴趣对象占据的面积的大小来确定内容的输出类型。
根据各种实施例,电子装置可以配置感兴趣对象。电子装置可以基于用户输入将至少一个对象配置为感兴趣对象,并且经由前置相机识别被配置为感兴趣对象的对象。根据实施例,感兴趣对象可能无法通过通信连接到电子装置,并且电子装置可以通过识别感兴趣对象的视觉特性来识别感兴趣对象。
根据各种实施例,当感兴趣对象和内容彼此重叠时,电子装置可以改变内容的透明度水平。电子装置可以改变内容的透明度水平,从而向用户提供指示感兴趣对象位于前方的通知。根据实施例,电子装置可以提供关于感兴趣对象的信息。
根据各种实施例,电子装置可以基于预定的切换事件在显示器上显示感兴趣的对象或内容。切换事件可以包括用户在电子装置上的触摸、用户在其上的点击、以及用户在通过通信连接到电子装置的外部装置上的触摸输入。电子装置可以接收切换事件,在显示器上输出内容或者在显示器的一侧上最小化并显示内容,并且输出关于感兴趣对象的信息。根据实施例,当没有输出关于感兴趣对象的信息并且输出内容时,电子装置可以将关于感兴趣对象的信息的亮度改变为暗,并且在经过预定时间之后不输出信息。
根据各种实施例,在操作1616中,当注视停留时间小于参考时间时,电子装置可以在显示器上以初始值输出内容。电子装置可以获得对象的注视停留时间,并且当用户注视对象的时间小于参考时间时,可以以初始值输出内容。根据实施例,电子装置可以不同地配置用于确定用户识别内容的时间和用于确定用户不再识别内容的时间。
图17是根据各种实施例的由电子装置确定输出类型的方法的流程图。
根据各种实施例,在操作1710中,电子装置可以识别前置相机的视场内的对象。在操作1720中,电子装置可以识别用户对对象的注视停留时间是否等于或大于参考时间。电子装置可以确定用户识别注视停留时间等于或大于参考时间的对象。电子装置可以确定用户没有识别注视停留时间小于参考时间的对象。
根据各种实施例,在操作1730中,电子装置可以确定由用户识别的对象占据的面积是否等于或大于预定面积。电子装置可以基于由对象占据的面积来确定内容的输出类型。
根据各种实施例,在操作1740中,当由对象占据的面积小于预定面积时,电子装置可以在与对象不重叠的区域上输出内容。根据实施例,当对象位于视场的边缘区域中时,或者当即使对象位于中心区域中对象所占据的面积较小时,电子装置也可以不在对象和内容重叠的区域上输出内容。
根据各种实施例,在操作1750中,当对象占据的面积大于或等于预定面积时,电子装置可以减小内容的大小并将其输出在显示器的一侧。根据实施例,当对象具有预定面积或更宽并且位于视场的中心区域中时,电子装置可以减小内容的大小。根据实施例,当电子装置识别用户用两只手握持对象时,电子装置可以减小内容的大小。根据实施例,即使满足上述条件,当电子装置正在输出具有高重要性级别的内容时,电子装置也可以不减小内容的大小,并且在与对象不重叠的区域上输出内容。
根据各种实施例的电子装置的内容显示方法可以包括:在显示器上输出至少一个内容,通过控制前置相机来识别至少一个对象,从眼睛跟踪相机获得用户对对象的注视停留时间,当注视停留时间大于或等于参考时间时,计算前置相机的视场(FOV)中由对象占据的面积,基于该面积,在与对象不重叠的区域上输出至少一个内容,或者减小至少一个内容的大小并在显示器的一侧上输出至少一个内容,并且当用户对对象的注视停留时间小于参考时间时,以与初始输出类型相同的类型输出至少一个内容。
根据各种实施例,输出内容还可以包括:从前置相机获得对象在视场中的位置坐标,基于位置坐标,在视场的边缘区域或中心区域中确定对象所在的区域,以及基于该面积和在视场中对象所在的区域输出至少一个内容。
根据各种实施例,内容的输出还可以包括:当对象位于视场的边缘区域中或者面积小于预定面积时,在与对象不重叠的区域上输出至少一个内容,并且当对象位于视场的中心区域中并且面积等于或大于预定面积时,减小至少一个内容的大小并在显示器的一侧输出至少一个内容。
根据各种实施例,内容的输出还可以包括:基于使用前置相机获得的对象的图像来确定对象是否是预注册的对象,并且当对象是预注册的对象时,获得用户对对象的注视停留时间。
根据各种实施例,输出内容还可以包括:当减小至少一个内容的大小并且然后在显示器的一侧输出至少一个内容时,在减小内容的大小的时间点暂时停止内容的再现。
根据各种实施例,输出内容还可以包括:从前置相机获得握持对象的手的图像,并且当注视停留时间等于或大于参考时间并且用一只手握持对象时,基于该面积在与对象不重叠的区域上输出至少一个内容,并且当注视停留时间等于或大于参考时间并且用双手握持对象时,减小至少一个内容的大小并在显示器的一侧上输出至少一个内容。
根据各种实施例,输出内容还可以包括:当前置相机识别出第一对象和第二对象时,基于第一对象的第一注视停留时间和第二对象的第二注视停留时间,将第一对象和第二对象中的至少一个确定为感兴趣对象,并且基于视场中由至少一个感兴趣对象占据的面积,输出至少一个内容。
Claims (15)
1.一种电子装置,包括:
主体部分;
玻璃构件,所述玻璃构件放置在主体部分上;
显示器,所述显示器放置在玻璃构件上;
支撑部分,所述支撑部分可旋转地连接到主体部分;
传感器,所述传感器包括眼睛跟踪相机和前置相机,所述前置相机被配置为捕获用户的前侧的图像;以及
处理器,所述处理器可操作地连接到显示器和传感器,
其中,所述处理器被配置为:
经由显示器输出至少一个内容;
通过前置相机识别至少一个对象;
通过眼睛跟踪相机获得用户对对象的注视停留时间;
基于注视停留时间大于或等于参考时间,获得前置相机的视场(FOV)中由对象占据的面积;
基于所述面积,在与对象不重叠的区域上输出所述至少一个内容,或者减小所述至少一个内容的大小并在所述显示器的一侧输出所述至少一个内容;以及
基于用户对对象的注视停留时间小于参考时间,以与初始输出类型相同的类型输出所述至少一个内容。
2.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
通过前置相机获得对象在FOV中的位置坐标;
基于位置坐标,在FOV的边缘区域或中心区域中确定对象位于的区域;以及
基于所述面积和在FOV中对象位于的区域,输出所述至少一个内容。
3.根据权利要求2所述的电子装置,其中,所述处理器还被配置为:
基于对象位于FOV的边缘区域中,或者面积小于预定面积,在与对象不重叠的区域上输出所述至少一个内容;以及
基于对象位于FOV的中心区域中,并且面积等于或大于预定面积,减小所述至少一个内容的大小并在显示器的一侧上输出所述至少一个内容。
4.根据权利要求3所述的电子装置,其中,所述处理器还被配置为:
基于所述至少一个内容在与对象不重叠的区域上被输出,
基于由对象占据的面积小于预定面积,在除了显示对象的区域之外的剩余区域上输出所述至少一个内容;以及
基于由对象占据的面积等于或大于预定面积,并且显示对象的区域被包括在边缘区域中,移动输出所述至少一个内容的区域,使得移动的区域不与显示对象的区域重叠。
5.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
基于使用前置相机被获得的对象的图像来确定对象是否是预注册的对象;以及
基于对象是预注册的对象,获得用户对对象的注视停留时间。
6.根据权利要求5所述的电子装置,其中,所述处理器还被配置为:
基于对象是预注册的对象,在显示器上输出包括与对象相对应的附加信息的图形用户界面(UI)。
7.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
基于所述至少一个内容的大小被减小并且所述至少一个内容被输出在显示器的一侧上,在减小内容的大小的时间点暂时停止内容的再现。
8.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
搜索与对象相对应的图像并获得与图像相对应的相关信息;以及
在FOV中的对象的一侧输出包括相关信息的图形用户界面(UI)。
9.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
通过前置相机获得握持对象的用户的手的图像;
基于注视停留时间等于或大于参考时间,并且对象被用户的一只手握持,基于所述面积,在与对象不重叠的区域上输出所述至少一个内容;以及
基于注视停留时间等于或大于参考时间并且对象被用户的双手握持,减小所述至少一个内容的大小并在显示器的一侧上输出所述至少一个内容。
10.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
基于前置相机识别第一对象和第二对象,
基于第一对象的第一注视停留时间和第二对象的第二注视停留时间,将第一对象和第二对象中的至少一个确定为感兴趣对象;以及
基于FOV中由至少一个感兴趣对象占据的面积,输出所述至少一个内容。
11.根据权利要求1所述的电子装置,其中,所述处理器还被配置为基于通过前置相机识别握持对象的用户的手的姿势,确定用户已识别出对象。
12.根据权利要求11所述的电子装置,其中,所述处理器还被配置为:
生成对象的唯一姿势,将唯一姿势映射到对象,并存储映射的唯一姿势和对象;以及
基于唯一姿势被识别,确定用户已经识别出被映射到唯一姿势的对象。
13.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
确定所述至少一个内容的重要性级别;以及
基于重要性级别等于或大于预定值,所述至少一个内容的大小被减小,并且所述至少一个内容被输出在显示器的一侧上,基于用户输入同时输出所述至少一个内容和对象。
14.一种电子装置的内容显示方法,所述方法包括:
在显示器上输出至少一个内容;
通过前置相机识别至少一个对象;
通过眼睛跟踪相机获得用户对对象的注视停留时间;
基于注视停留时间大于或等于参考时间,获得前置相机的视场(FOV)中由对象占据的面积,
基于所述面积,在与对象不重叠的区域上输出所述至少一个内容,或者减小所述至少一个内容的大小并在显示器的一侧上输出所述至少一个内容;以及
基于用户对对象的注视停留时间小于参考时间,以与初始输出类型相同的类型输出所述至少一个内容。
15.根据权利要求14所述的方法,其中,内容的输出还包括:
由前置相机获得对象在FOV中的位置坐标;
基于位置坐标,在FOV的边缘区域或中心区域中确定对象位于的区域;以及
基于所述面积和在FOV中对象位于的区域,输出所述至少一个内容。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0127434 | 2021-09-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118140169A true CN118140169A (zh) | 2024-06-04 |
Family
ID=
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11947728B2 (en) | Electronic device for executing function based on hand gesture and method for operating thereof | |
US11928257B2 (en) | Method and electronic device for tracking eye | |
EP4357838A1 (en) | Electronic device and method for displaying content | |
US20230244301A1 (en) | Augmented reality device for changing input mode and method thereof | |
US20230199328A1 (en) | Method of removing interference and electronic device performing the method | |
US20230152900A1 (en) | Wearable electronic device for displaying virtual object and method of controlling the same | |
US20220329726A1 (en) | Wearable electronic device including cameras | |
US11893698B2 (en) | Electronic device, AR device and method for controlling data transfer interval thereof | |
US20220276824A1 (en) | Augmented reality device and electronic device interacting with augmented reality device | |
CN116830065A (zh) | 用于跟踪用户注视并提供增强现实服务的电子装置及其方法 | |
CN118140169A (zh) | 用于显示内容的电子装置和方法 | |
US20230152899A1 (en) | Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor | |
US20240045943A1 (en) | Apparatus and method for authenticating user in augmented reality | |
US20230262323A1 (en) | Method and device for obtaining image of object | |
US11741862B2 (en) | Augmented reality wearable electronic device including camera | |
US20230169723A1 (en) | Electronic device for providing contents in connection with external electronic device and method of the same | |
US20240169935A1 (en) | Head-mounted electronic device and method for operating the same | |
US20240160024A1 (en) | Wearable device for adjusting light transmittance according to illuminance of external light source, and method for controlling same | |
KR20230044833A (ko) | 전자 장치 및 컨텐츠 표시 방법 | |
US20240048668A1 (en) | Electronic device for supporting various communications during video call, and operating method therefor | |
US20240054740A1 (en) | Augmented reality device and electronic device interacting with augmented reality device | |
US20240096254A1 (en) | Wearable device for adjusting size of effective display area according to external illuminance and control method thereof | |
US20240046530A1 (en) | Method of controlling display module, and electronic device performing the method | |
US20230252738A1 (en) | Method and electronic device for displaying augmented reality content based on ambient illuminance | |
US20230018784A1 (en) | Electronic device and operation method of electronic device for controlling external electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication |