CN115190291A - 智能眼镜及操作智能眼镜的方法 - Google Patents
智能眼镜及操作智能眼镜的方法 Download PDFInfo
- Publication number
- CN115190291A CN115190291A CN202210812821.XA CN202210812821A CN115190291A CN 115190291 A CN115190291 A CN 115190291A CN 202210812821 A CN202210812821 A CN 202210812821A CN 115190291 A CN115190291 A CN 115190291A
- Authority
- CN
- China
- Prior art keywords
- display
- content
- processor
- image
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000005286 illumination Methods 0.000 claims description 33
- 239000011521 glass Substances 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 45
- 230000008859 change Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 210000001525 retina Anatomy 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 13
- 230000003190 augmentative effect Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000024159 perception of rate of movement Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
Abstract
提供了一种智能眼镜及操作智能眼镜的方法。一种电子装置包括:第一传感器、存储器、显示器和处理器。处理器被配置为使用第一传感器确认电子装置的环境照度,当确认出的照度在第一照度范围内时,指定存储在存储器中的内容将被显示在与第一视场(FOV)相应的第一显示区域的至少部分中的位置,并且当确认出的照度在第二照度范围内时,指定所述内容将被显示在与比第一FOV宽的第二FOV相应的第二显示区域的至少部分中的位置。
Description
本申请是申请日为2019年5月15日、申请号为201980031406.7、题为“用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法”的专利申请的分案申请。
技术领域
本公开总体上涉及一种调整在显示器上显示的内容的位置的电子装置及其操作方法。
背景技术
随着电子装置高度集成,以及高速、大容量无线通信技术进步,电子装置配备有各种功能。例如,电子装置具有集成功能,包括娱乐功能(诸如玩视频游戏)、多媒体功能(重放音乐/视频)、用于移动银行的通信和安全功能、以及日程安排或电子钱包功能。
进步的显示器和电池性能已经导致更紧凑和便携式电子装置的发展。例如,正在引入头戴式或其它各种可穿戴电子装置。
近来,电子装置正在提供更多样化的服务和附加功能。还在开发可在便携式装置上运行的多样化应用。头戴式装置、可穿戴装置或其它各种便携式电子装置正在投入使用以满足用户需求。
发明内容
技术问题
头戴式便携式装置可显示增强现实(AR)图像。头戴式便携式装置会在不变的显示区域中输出AR图像,而不管环境照度或移动速度如何。
由于视网膜的周边和中心之间的特征的差异,用户的视角可根据环境照度或移动速度而变化。例如,当环境照度或移动速度变化时,用户可能需要将其注视转移到输出图像的显示区域。当由于环境照度或移动速度而不对图像进行改变时,持续地注视AR图像的用户可能由于注视转移的延迟而遭受疲劳、瞳孔损伤或其它安全问题。
技术方案
已经做出本公开以至少解决上述缺点并至少提供下述优点。
根据本公开的一方面,提供了一种电子装置。所述电子装置包括第一传感器、存储器、显示器和处理器。处理器被配置为使用第一传感器确认所述电子装置的环境照度,当确认出的照度在第一照度范围内时,指定存储在存储器中的内容将被显示在与第一视场(FOV)相应的第一显示区域的至少部分中的位置,并且当确认出的照度在第二照度范围内时,指定所述内容将被显示在与比第一FOV宽的第二FOV相应的第二显示区域的至少部分中的位置。
根据本公开的一方面,提供了一种电子装置。所述电子装置包括:传感器,被配置为检测所述电子装置的状态;存储器;显示器以及处理器。处理器被配置为使用传感器确认所述电子装置的状态,当指示确认出的所述电子装置的状态的传感器值在第一范围内时,指定存储在存储器中的内容将被显示在与第一FOV相应的第一显示区域的至少部分中的位置,并且当所述传感器值落入第二范围内时,指定所述内容将被显示在与比第一FOV宽的第二FOV相应的第二显示区域的至少部分中的位置。
根据本公开的一方面,提供了一种电子装置。所述电子装置包括传感器模块、显示器和处理器。处理器被配置为使用传感器模块确认所述电子装置的环境照度或所述电子装置的速度中的至少一个,并且基于所述电子装置的环境照度或速度中的至少一个调整与通过显示器显示的内容相应的虚拟图像的位置。
附图说明
根据结合附图进行的以下详细描述,本公开的特定实施例的以上和其它方面、特征和优点将更加明显,其中:
图1是示出根据实施例的基于网络环境中的环境照度来调整在显示器上显示的内容的位置的电子装置的示图;
图2是根据实施例的电子装置的示图;
图3是根据实施例的电子装置的配置的示图;
图4是根据实施例的电子装置的操作的流程图;
图5是根据实施例的电子装置的操作的流程图;
图6是根据实施例的电子装置的操作的流程图;
图7是根据实施例的电子装置的操作的流程图;
图8a和图8b是根据实施例的取决于照度的视角与可见度之间的差异的示图;
图9是根据实施例的取决于速度的视角与可见度之间的差异的示图;
图10a、图10b和图10c是根据实施例的调整电子装置上的内容的位置的操作的示图;
图11是根据实施例的调整电子装置上的内容的位置的操作的示图;以及
图12a、图12b和图12c是根据实施例的调整电子装置上的内容的位置的操作的示图。
具体实施方式
图1是示出根据各种实施例的网络环境100中的基于环境照度调整在显示器上显示的内容的位置的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略组件中的至少一个组件(例如,显示装置160或相机模块180),或者可将一个或更多个其它组件添加到电子装置101中。在一些实施例中,可将组件中的一些组件实现为单个集成电路。例如,可将传感器模块176(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置160(例如,显示器)中。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其它组件(例如,硬件组件或软件组件),并可处理和计算各种数据。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一组件(例如,传感器模块176或通信模块190)接收到的命令或数据加载到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或可选地,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为指定用于指定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,睡眠)状态时,辅助处理器123(而非主处理器121)可控制与电子装置101的组件中的至少一个组件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的组件中的至少一个组件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一组件(例如,相机模块180或通信模块190)的部分。
存储器130可存储由电子装置101的至少一个组件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可从电子装置101的外部(例如,用户)接收将由电子装置101的其它组件(例如,处理器120)使用的命令或数据。输入装置150可包括例如麦克风、鼠标或键盘。
声音输出装置155可将声音信号输出到电子装置101的外部。声音输出装置155可包括例如扬声器或受话器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,受话器可用于呼入呼叫。根据实施例,可将受话器实现为与扬声器分离,或实现为扬声器的部分。
显示装置160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可将声音转换成电信号,反之亦可。根据实施例,音频模块170可通过输入装置150获得声音或通过声音输出装置155或外部电子装置(例如,与电子装置101直接或无线连接的电子装置102(例如,扬声器或耳机))输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用于使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个指定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个镜头、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个组件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如BluetoothTM、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个组件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个组件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并认证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括一个或更多个天线,并且因此,可由例如通信模块190(例如,无线通信模块192)选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190与外部电子装置之间发送或接收信号或电力。
上述组件中的至少一些组件可相互连接并且经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动行业处理器接口(MIPI))在其间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101与外部电子装置104之间发送或接收命令或数据。第一外部电子装置102和第二外部电子装置104各自可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应自动执行功能或服务或者应响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的至少部分,或者执行与请求相关的另外功能或另外服务,并将执行的结果传递到电子装置101。电子装置101可在对结果进行进一步处理的情况下或者在不对结果进行进一步处理的情况下将结果提供作为对请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上列出的实施例。
应理解的是,本公开的各种实施例以及其中使用的术语并不意图将本文阐述的技术特征限于特定实施例,并且包括针对相应实施例的各种改变、等同物或替换物。关于附图的描述,相似的参考标号可用于指相似或相关的元件。将理解的是,除非相关上下文另有明确指示,否则与术语相应的单数形式的名词可包括一个或更多个事物。如本文使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每个短语可包括在与短语中的相应一个短语中一起列举出的项的所有可能组合。如本文使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应组件与另一组件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制组件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果元件(例如,第一元件)被称为“与另一元件(例如,第二元件)耦合”、“耦合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如本文使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其它术语(例如,“逻辑”、“逻辑块”、“部件”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成组件或者该单个集成组件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将本文阐述的各种实施例实现为包括存储在可由机器(例如,电子装置101)读取的存储介质(例如,内部存储器136或外部存储器138)中的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或没有使用一个或更多个其它组件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或可由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着存储介质是有形装置,并且不包括信号(例如,电磁波),但该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者与购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,PlayStoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间发布(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述组件中的每个组件(例如,模块或程序)可包括单个实体或多个实体。根据各种实施例,可省略上述组件中的一个或更多个组件,或者可添加一个或更多个其它组件。可选地或另外地,可将多个组件(例如,模块或程序)集成为单个组件。在这种情况下,根据各种实施例,集成组件可按照与所述多个组件中的相应一个组件在集成之前执行所述多个组件中的每个组件的一个或更多个功能相同或相似的方式,执行所述一个或更多个功能。根据各种实施例,由模块、程序或另一组件执行的操作可顺序地、并行地、重复地或以启发式方式被执行,或者所述操作中的一个或更多个操作可按照不同的顺序被运行或被省略,或者可添加一个或更多个其它操作。
图2是根据实施例的电子装置201的示图。
参照图2,电子装置201可以以与以上结合图1描述的电子装置101基本上相同或相似的方式被实现。电子装置201可包括可穿戴装置(例如,智能眼镜)。电子装置201可包括显示器260。显示器260可包括透明玻璃板、反射半透明玻璃、光波导型玻璃和/或透明显示器。
电子装置201可使用增强现实(AR)技术通过显示器260显示内容210。内容210可包含存储在电子装置201中的图像和/或对象。可由用户通过包括在电子装置201中的显示器260(例如,透明显示器)识别外部对象202。可在显示器260的第一位置203中识别外部对象202。可由用户识别在显示器260上显示的外部对象202连同内容210。
电子装置201可确认电子装置201的环境照度或速度中的至少一个,且基于确认出的电子装置201的环境照度或速度中的至少一个来调整通过显示器260显示的内容的位置和/或尺寸。电子装置201可调整通过显示器260显示的内容的位置和/或尺寸,以最小化由于环境照度或速度的改变引起的用户注视的转移。
图3是根据实施例的电子装置301的配置的示图。
参照图3,电子装置301可以以与图1的电子装置101或102或者图2的电子装置201基本上相同或相似的方式被实现。电子装置301可包括传感器模块310、处理器320、存储器330、显示器360或通信模块390中的至少一个。
传感器模块310可检测电子装置301的状态。传感器模块310可以以与以上结合图1描述的传感器模块176相同或相似的方式被实现。传感器模块310可检测电子装置301的环境照度和/或速度(或加速度)。传感器模块310可包括照度传感器312、加速度传感器315和全球定位系统(GPS)模块317。
照度传感器312可检测电子装置301的环境照度。照度传感器312可检测电子装置301的环境照度,并将与检测到的环境照度相应的信号发送到处理器320。处理器320可基于从照度传感器312接收到的信号来确认电子装置301的环境照度。
加速度传感器315可检测电子装置301的加速度和/或速度。加速度传感器315可检测电子装置301的加速度和/或速度,且将与检测到的加速度和/或速度相应的信号发送到处理器320。处理器320可基于从加速度传感器315接收到的信号来确认电子装置301的加速度和/或速度。
GPS模块317可获得关于电子装置301的位置的信息。处理器320可基于从GPS模块317接收到的位置信息来确定电子装置301的位置的变化。处理器320可基于电子装置301的位置的改变来确认电子装置301的速度。
处理器320可控制电子装置301的全部操作。处理器320可以以与图1的处理器120基本上相同或相似的方式被实现。
处理器320可通过显示器360显示存储在存储器330中的图像(或内容)。处理器320可使用增强现实技术来显示图像(或内容)。处理器320可根据使用传感器模块310获得的电子装置301的环境照度和/或速度来调整使用增强现实技术显示的图像(或内容)的位置和/或尺寸。
处理器320可根据电子装置301的环境照度来调整在显示器360上显示的内容的输出的位置。处理器320可向左或向右调整内容的输出的位置。
当照度高于指定照度时,用户的视场可以是宽的,因此,处理器320可调整内容的输出的位置,使得内容在与宽视场相应的显示区域中被输出。此外,处理器320可以以比照度更低时更短的焦距来输出内容。当照度低于所述指定照度时,用户的视野可能较窄,因此,处理器320可调整内容的输出的位置,使得内容在与窄视野相应的显示区域中被输出。此外,处理器320可以以比照度更高时更长的焦距来输出内容。
处理器320可使用照度传感器312确认电子装置301的环境照度。处理器320可基于确认出的照度,在与包括确认出的照度的范围相应的显示区域中显示内容。当确认出的照度在第一照度范围内时,处理器320可将内容的显示位置指定为第一显示区域的至少部分。当确认出的照度在第二照度范围内时,处理器320可将内容的显示位置指定为第二显示区域的至少部分。第一显示区域和第二显示区域可意指包括在显示器360中的区域。第一显示区域和第二显示区域可意指当使用增强现实技术显示图像和/或对象时的区域。第一显示区域和第二显示区域可具有不同的视角(或视场)和/或焦距。当第二照度范围与高于第一照度范围的照度相应时,第一显示区域可与第一视场(FOV)相应,并且第二显示区域可与比第一FOV宽的第二FOV相应。
处理器320可根据电子装置301的速度来调整在显示器360上显示的内容的输出的位置。处理器320可向左或向右调整内容的输出位置。
当速度低于指定速度时,用户的FOV可以是宽的,并且因此,处理器320可调整内容的输出位置,使得在与宽FOV相应的显示区域中输出内容。此外,处理器320可以以比速度更高时更短的焦距来输出内容。当速度高于指定速度时,用户的FOV可以是窄的,并且因此,处理器320可调整内容的输出位置,使得在与窄FOV相应的显示区域中输出内容。此外,处理器320可以以比速度更低时更长的焦距来输出内容。
处理器320可使用加速度传感器315和GPS模块317中的至少一个来确认电子装置301的速度。处理器320可基于确认出的速度,在与包括确认出的速度的范围相应的显示区域中显示内容。当确认出的速度在第一速度范围内时,处理器320可将内容的显示位置指定为第三显示区域的至少部分。当确认出的速度在第二速度范围内时,处理器320可将内容的显示位置指定为第四显示区域的至少部分。第三显示区域和第四显示区域可意指包括在显示器360中的区域。第三显示区域和第四显示区域可意指当使用增强现实技术显示图像和/或对象时的区域。第三显示区域和第四显示区域可具有不同的视角(或FOV)和/或焦距。当第二速度范围与高于第一速度范围的速度相应时,第三显示区域可与第三FOV相应,并且第四显示区域可与比第三FOV窄且具有比第三FOV长的焦距的第四FOV相应。第一显示区域和第三显示区域可彼此相同或不同。第二显示区域和第四显示区域可彼此相同或不同。
处理器320可接收用于显示内容的请求。响应于通过输入装置接收到的请求显示内容的输入,处理器320可确认内容显示请求。
在确认出内容显示请求时,处理器320可确认内容在包括在显示器360中的多个显示区域中将被显示的位置。处理器320可确认内容在第一显示区域或第二显示区域中的显示位置。
处理器320可基于确认出的位置通过显示器360显示内容。处理器320可使用增强现实技术在第一显示区域或第二显示区域中显示内容。
处理器320可基于通过传感器模块310确认出的电子装置301的照度和速度中的至少一个来调整与内容相应的虚拟图像。处理器320可使用增强现实技术来调整显示的内容的视角(或FOV)和/或焦距。处理器320可将与内容相应的虚拟图像的位置调整到内部或外部。处理器320可调整在显示器360上显示的内容的位置和尺寸中的至少一个,使得与内容相应的虚拟图像的位置被调整。处理器320可通过调整与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离来调整与内容相应的虚拟图像的位置。
处理器320可包括传感器集线器(未示出)。传感器集线器可控制传感器模块310的操作。传感器集线器可接收从传感器模块310输出的信号。例如,传感器集线器可以以低功率被驱动。
电子装置301还可包括传感器集线器(未示出)作为与处理器320分离的组件。传感器集线器可接收从传感器模块310输出的信号,并且将接收到的信号发送到处理器320。与处理器320相比,传感器集线器可以以较低的功率被驱动。即使处理器320处于睡眠模式,传感器集线器也可控制传感器模块310。即使处理器320处于睡眠模式,传感器集线器也可接收从传感器模块310输出的信号。
存储器330可存储关于电子装置301的数据。存储器330可存储电子装置301的内容。存储器330可以以与以上结合图1描述的存储器130基本上相同或相似的方式被实现。
显示器360可显示存储在存储器330中的内容。显示器360可使用增强现实技术来显示内容连同外部对象。显示器360可包括用于发射光的液晶显示器或投影仪。显示器360可包括用于改变从光发射器发射的光的路径的装置,诸如反射玻璃、光波导和/或透射玻璃。
显示器360可包含多个显示区域,所述多个显示区域中的每个显示区域与多个FOV中的相应一个相应。所述多个显示区域可具有各种视角(或FOV)和/或焦距。
显示器360可包括透明玻璃板。显示器360可包括能够通过玻璃板显示图像(或内容)的虚拟显示区域。显示器360可包括能够在玻璃板上显示图像(或内容)的显示区域。显示器360可包括单目或双目玻璃。
通信模块390可向外部电子装置发送数据或从外部电子装置接收数据。
通信模块390可接收指示从外部电子装置检测到的电子装置301的状态的信息。通信模块390可接收关于从外部电子装置检测到的电子装置301的环境照度和/或速度的信息。通信模块390可将从外部电子装置接收到的关于电子装置301的环境照度和/或速度的信息发送到处理器320。
电子装置301还可包括相机(例如,图1的相机模块180)。处理器320可在显示器360上显示通过相机模块180捕获的图像,同时使用增强现实技术显示存储在存储器330中的图像(或内容)。处理器320可基于电子装置301的照度和速度来调整通过增强现实技术显示的图像(或内容)的位置和/或尺寸。处理器320可使用增强现实技术来调整显示的内容的视角(或FOV)和/或焦距。
图4是根据实施例的电子装置301的操作的流程图。
参照图4,在步骤401,处理器320可确认电子装置301的环境照度。处理器320可通过照度传感器312确认电子装置301的环境照度。
在步骤403,处理器320可基于确认出的照度来指定存储在存储器330中的内容将被显示的位置。处理器320可将包括在显示器中的具有不同视角(或FOV)和/或焦距的显示区域中的任何一个显示区域指定为内容将被显示的位置。
步骤405,处理器320可通过显示器360在指定位置显示内容。
图5是根据实施例的电子装置301的操作的流程图。
参照图5,在步骤501,处理器320可通过传感器模块310确认电子装置301的状态。处理器320可通过传感器模块310确认电子装置301的环境照度和速度中的至少一个。
在步骤503,处理器320可确定与确认出的电子装置301的环境照度和速度中的至少一个相应的显示区域。处理器320可在具有不同视角(或FOV)和/或焦距且包括在显示器中的显示区域中确定与确认出的电子装置301的照度和速度中的至少一个相应的显示区域。
在步骤505,处理器320可调整通过显示器360显示的内容的显示位置。处理器320可将显示内容的位置改变到与电子装置301的环境照度和速度中的至少一个相应的显示区域。处理器320可将与内容相应的虚拟图像的显示位置改变到与电子装置301的环境照度和速度中的至少一个相应的显示区域。为了改变与内容相应的虚拟图像的显示位置,处理器320可调整通过显示器360显示的内容的位置和/或尺寸。
图6是根据实施例的电子装置301的操作的流程图。
参照图6,在步骤601,处理器320可使用照度传感器312确认电子装置301的环境照度。
在步骤603,处理器320可将确认出的照度与指定照度进行比较。处理器320可确定确认出的照度是否高于指定照度。指定照度可由用户设置或由处理器320自动设置。
在步骤605,当确认出的照度高于指定照度时,处理器320可将与内容相应的虚拟图像的位置改变到具有更宽的视角(或FOV)的第一显示区域。处理器320可将与内容相应的虚拟图像的位置改变到用户的外部(例如,远离用户的FOV的中心轴)。为了改变与内容相应的虚拟图像的位置,处理器320可调整在显示器360上显示的内容的位置和/或尺寸。处理器320可将通过显示器360显示的内容的位置改变到外部区域。处理器320可增加与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离。处理器320可以以比照度更低时更短的焦距来显示内容。
当确认出的照度高于指定照度时,处理器320可不在第一区域中而是在与第一区域相比已经进一步扩展的第二区域中输出图像。
在步骤607,如果确认出的照度不高于指定照度,则处理器320可确定确认出的照度是否低于指定照度。
在步骤609,当确认出的照度低于指定照度时,处理器320可将与内容相应的虚拟图像的位置改变到具有更窄的视角(或FOV)的第二显示区域。处理器320可将与内容相应的虚拟图像的位置改变到用户的内部(例如,更靠近用户的FOV的中心轴)。为了改变与内容相应的虚拟图像的位置,处理器320可调整在显示器360上显示的内容的位置和/或尺寸。处理器320可将通过显示器360显示的内容的位置改变到内部区域。处理器320可减小与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离。
当确认出的照度低于指定照度时,处理器320可在与第一区域相比已经被限制的第三区域中输出图像。
在步骤611,当确认出的照度与指定照度相同时,处理器320可保持与内容相应的虚拟图像的位置。换句话说,处理器320可避免改变通过显示器360显示的内容的位置和/或尺寸。
图7是根据实施例的电子装置301的操作的流程图。
参照图7,在步骤701,处理器320可使用加速度传感器315和GPS模块317中的至少一个来确认电子装置301的速度。
在步骤703,处理器320可将确认出的速度与指定速度进行比较。处理器320可确定确认出的速度是否高于指定速度。指定速度可由用户设置或由处理器320自动设置。
在步骤705,当确认出的速度高于指定速度时,处理器320可将与内容相应的虚拟图像的位置改变到具有较窄的视角(或FOV)的第三显示区域。处理器320可将与内容相应的虚拟图像的位置改变到用户的内部(例如,更靠近用户的FOV的中心轴)。为了改变与内容相应的虚拟图像的位置,处理器320可调整在显示器360上显示的内容的位置和/或尺寸。处理器320可将通过显示器360显示的内容的位置改变到内部区域。处理器320可减小与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离。因此,处理器320可以以比速度更低时更长的焦距来显示内容。
在步骤707,如果确认出的速度不高于指定速度,则处理器320可确定确认出的速度是否低于指定速度。
在步骤709,当确认出的速度低于指定速度时,处理器320可将与内容相应的虚拟图像的位置改变到具有更宽的视角(或FOV)的第四显示区域。处理器320可将与内容相应的虚拟图像的位置改变到用户的外部(例如,远离用户的FOV的中心轴)。为了改变与内容相应的虚拟图像的位置,处理器320可调整在显示器360上显示的内容的位置和/或尺寸。处理器320可将通过显示器360显示的内容的位置改变到外部区域。处理器320可增加与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离。因此,处理器320可以以比速度更高时更短的焦距来显示内容。
在步骤711,当确认出的速度与指定速度相同时,处理器320可保持与内容相应的虚拟图像的位置。换句话说,处理器320可避免改变通过显示器360显示的内容的位置和/或尺寸。
图8a和图8b是根据实施例的取决于照度的视角与可见度之间的差异的示图。
参照图8a和图8b,处理器320可确定与通过照度传感器312确认的照度相应的可见区域,并基于确定的可见区域指定显示区域。
图8a示出当人类视网膜在较高照度下(例如,在白天)感知图像时的可见区域。在较高照度下,人类视网膜可感知整个区域801的第一可见区域810内的图像。换句话说,人类视网膜可识别在与第一可见区域810相应的视角(或FOV)和/或可见距离内的对象。
处理器320可基于电子装置301的环境照度在第一可见区域810中显示内容。处理器320可将通过显示器360显示的内容的位置改变到第一可见区域810。
图8b示出当人类视网膜在较低照度下(例如,在夜间)感知图像时的可见区域。在较低照度下,人类视网膜可感知整个区域801的第二可见区域820内的图像。换句话说,人类视网膜可识别在与第二可见区域820相应的视角(或FOV)和/或可见距离内的对象。第二可见区域820可具有比第一可见区域810更窄的视角和更短的可见距离。
处理器320可基于电子装置301的环境照度在第二可见区域820中显示内容。处理器320可将通过显示器360显示的内容的位置改变到第二可见区域820。
随着照度增加,人类视网膜可识别更宽的视角和更长的可见距离内的对象。因此,处理器320可确认电子装置301的环境照度和/或照度变化,并基于确认出的照度和照度变化在可见区域中显示内容。
图9是根据实施例的取决于速度的视角与可见度之间的差异的示图。
参照图9,处理器320可确定与通过加速度传感器315和GPS模块317确认的速度相应的可见区域,并基于确定的可见区域指定显示区域。
图9示出当用户905的视网膜在第一速度下(例如,在较高速度下)感知图像时的可见区域。在第一速度下(例如,在较高速度下),人类视网膜可感知在第一可见区域910内的图像。换句话说,人类视网膜可识别在与第一可见区域910相应的视角(或FOV)和/或焦距内的对象。
处理器320可基于电子装置301的速度在第一可见区域910中显示内容。处理器320可将通过显示器360显示的内容的位置改变到第一可见区域910。
在第二速度下(例如,在正常速度下),人类视网膜可感知在第二可见区域920内的图像。换句话说,人类视网膜可识别在与第二可见区域920相应的视角(或FOV)和/或焦距内的对象。第二可见区域920可意指具有比第一可见区域910更宽的视角(或FOV)和/或更短的焦距的区域。
处理器320可基于电子装置301的速度在第二可见区域920中显示内容。处理器320可将通过显示器360显示的内容的位置改变到第二可见区域920。
在第三速度下(例如,较低速度),人类视网膜可感知在第三可见区域930内的图像。换句话说,人类视网膜可识别在与第三可见区域930相应的视角(或FOV)和/或焦距内的对象。第三可见区域930可具有比第二可见区域920具有更宽的视角(或FOV)和/或更短的焦距的区域。
处理器320可基于电子装置301的速度在第三可见区域930中显示内容。处理器320可将通过显示器360显示的内容的位置改变到第三可见区域930。
参照图9,随着速度增加,人类视网膜可识别在更窄的视角(或FOV)和更短的可见距离内的对象。因此,处理器320可确认电子装置301的速度和/或速度变化,并基于确认出的速度和速度变化在可见区域中显示内容。
图10a、图10b和图10c是根据实施例的调整电子装置上的内容的位置的操作的示图。
参照图10a至图10c,处理器320可根据电子装置301的照度和速度来调整通过显示器1001显示的内容的位置。显示器1001可包括单目显示器或单个显示器。
参照图10a,处理器320可基于确认出的照度和速度中的至少一个在第一显示区域1010中显示多个内容1011至1015。
当确认出的照度在第一照度范围内时,处理器320可在第一显示区域1010中显示多个内容1011至1015。第一显示区域1010可与图8(a)的可见区域810相应。
当确认出的速度在第一速度范围(例如,60km/h)内时,处理器320可在第一显示区域1010中显示多个内容1011至1015。当确认出的照度在第一照度范围内且确认出的速度在第一速度范围(例如,60km/h)内时,处理器320可在第一显示区域1010中显示多个内容1011至1015。
参照图10b,处理器320可基于确认出的照度和速度中的至少一个在第二显示区域1020中显示多个内容1021至1025。
当确认出的照度在第二照度范围内时,处理器320可在具有比第一显示区域1010更窄的视角和更短的可见距离(或焦距)的第二显示区域1020中显示多个内容1021至1025。第二照度范围可与低于第一照度范围的照度的照度相应。第二显示区域1020可与图8(b)的可见区域820相应。
当确认出的速度在第二速度范围(例如,100km/h)内时,处理器320可在第二显示区域1020中显示多个内容1021至1025。当确认出的照度在第二照度范围内且确认出的速度在第二速度范围(例如,100km/h)内时,处理器320可在第二显示区域1020中显示多个内容1021至1025。
处理器320可确认电子装置301的环境照度(或速度)的变化。处理器320可根据照度(或速度)的变化在第二显示区域1020中显示过去在第一显示区域1010中显示的多个内容1011至1015。处理器320可根据照度(或速度)的变化将多个内容1011至1015的显示位置从第一显示区域1010逐渐改变到第二显示区域1020。
处理器320可调整在第二显示区域1020上显示的多个内容1021至1025的尺寸。当多个内容1011至1015的显示位置变化时,处理器320可在第二显示区域1020中显示尺寸等于或小于过去在第一显示区域1010中显示的内容1011至1015的内容1021至1025。
参照图10c,处理器320可基于确认出的照度和速度中的至少一个在第三显示区域1030中显示多个内容1031至1035。
当确认出的照度在第三照度范围内时,处理器320可在具有比第一显示区域1010更宽的视角和更长的可见距离(或焦距)的第三显示区域1030中显示多个内容1031至1035。第三照度范围可与高于第一照度范围的照度的照度相应。
当确认出的速度在第三速度范围(例如,30km/h)内时,处理器320可在第三显示区域1030中显示多个内容1031至1035。当确认出的照度在第三照度范围内且确认出的速度在第三速度范围(例如,30km/h)内时,处理器320可在第三显示区域1030中显示多个内容1031至1035。
处理器320可调整在第三显示区域1030上显示的多个内容1031至1035的尺寸。当多个内容1011至1015的显示位置变化时,处理器320可在第三显示区域1030中显示尺寸等于或大于过去在第一显示区域1010中显示的内容1011至1015的内容1031至1035。
第一显示区域1010、第二显示区域1020和第三显示区域1030可彼此重叠。可选地,第一显示区域1010、第二显示区域1020和第三显示区域1030可彼此不重叠。
图11是根据实施例的调整电子装置上的内容的位置的操作的示图。
参照图11,处理器320可根据电子装置301的照度和速度来调整通过显示器360显示的内容的位置。显示器360可包括双目显示器或多个显示器1101和1102。
处理器320可在多个显示器1101和1102中的每个显示器上显示内容,实现增强现实技术。处理器320可在第一显示器1101上显示与内容相应的第一图像1110(针对左眼的图像),并且在第二显示器1102上显示与内容相应的第二图像1120(针对右眼的图像)。
处理器320可基于电子装置301的照度和速度中的至少一个来调整与通过显示器360显示的内容相应的第一图像1110(例如,针对左眼的图像)与第二图像1120(例如,针对右眼的图像)之间的距离L。处理器320可通过调整第一图像1110与第二图像1120之间的距离L来调整与内容相应的虚拟图像的位置(或深度)。处理器320可将第一图像1110向左移动且将第二图像1120向右移动,因此增加第一图像1110与第二图像1120之间的距离L。处理器320可将第一图像1110向右移动且将第二图像1120向左移动,因此减小第一图像1110与第二图像1120之间的距离。处理器320可通过调整第一图像1110与第二图像1120之间的距离来调整与内容相应的虚拟图像的位置(或深度)。换句话说,处理器320可针对第一图像1110和第二图像1120使用双目视差来调整虚拟图像的位置(或深度)。
图12a、图12b和图12c是根据实施例的调整电子装置上的内容的位置的操作的示图。
参照图12a至图12c,处理器320可根据电子装置301的照度和速度中的至少一个来调整与通过显示器360(例如,双目显示器)显示的内容相应的第一图像1210与第二图像1220之间的距离,从而调整与内容相应的虚拟图像1230的位置。
参照12a,处理器320可调整与通过显示器360显示的内容相应的虚拟图像1230的位置。
处理器320可基于确认出的照度或速度中的至少一个在第一显示区域中显示与内容相应的虚拟图像1230。在确认出较低照度和/或较高速度时,处理器320可将与内容相应的虚拟图像1230定位在第一显示区域中。
处理器320可在显示器360的中心的左侧显示第一图像1210并且在显示器的中心的右侧显示第二图像1220,从而将虚拟图像1230定位在第一显示区域中。第一显示区域可意指具有较窄的视角和较长的焦距的区域。第一显示区域可意指显示器360的外部区域。例如,第一显示区域可与图9(a)的可见区域910相应。
参照图12b,处理器320可基于确认出的照度或速度中的至少一个在第二显示区域中显示与内容相应的虚拟图像1230。在确认正常照度和/或正常速度时,处理器320可将与内容相应的虚拟图像1230定位在第二显示区域中。
处理器320可在显示器360的中间部分中显示第一图像1210并且在显示器的中间部分中显示第二图像1220,从而将虚拟图像1230定位在第二显示区域中。第二显示区域可意指具有比第一显示区域更宽的视角和更短的焦距的区域。第二显示区域可意指与显示器360匹配的区域。第二显示区域可与图9(b)的可见区域920相应。
参照图12c,处理器320可基于确认出的照度或速度中的至少一个在第三显示区域中显示与内容相应的虚拟图像1230。在确认出较高的照度和/或较低的速度时,处理器320可将与内容相应的虚拟图像1230定位在第三显示区域中。
处理器320可在显示器360的中心的右侧显示第一图像1210并且在显示器的中心的左侧显示第二图像1220,从而将虚拟图像1230定位在第三显示区域中。第三显示区域可意指具有比第二显示区域更宽的视角和更短的焦距的区域。第三显示区域可意指显示器360的内部区域。第三显示区域可与图9(c)的可见区域930相应。
处理器320可调整与内容相应的虚拟图像的位置,以使内容被显示在与电子装置301的照度和速度中的至少一个相应的显示区域中。
当确认出的照度高于与指定照度相应的范围时,处理器320可在第二显示区域或第三显示区域中显示与过去在第一显示区域中显示的内容相应的虚拟图像。当确认出的照度低于与指定照度相应的范围时,处理器320可在第一显示区域或第二显示区域中显示与过去在第三显示区域中显示的内容相应的虚拟图像。当确认出的照度属于与指定照度相应的范围时,处理器320可保持与内容相应的虚拟图像的位置。
当确认出的速度低于与指定速度相应的范围时,处理器320可在第二显示区域或第三显示区域中显示与过去在第一显示区域中显示的内容相应的虚拟图像。当确认出的速度高于与指定速度相应的范围时,处理器320可在第一显示区域或第二显示区域中显示与过去在第三显示区域中显示的内容相应的虚拟图像。当确认出的速度属于与指定速度相应的范围时,处理器320可保持与内容相应的虚拟图像的位置。
处理器320可确认电子装置301的照度(或速度)的变化。处理器320可根据照度(或速度)的变化,将与在第一显示区域中显示的内容相应的虚拟图像移动到第二显示区域或第三显示区域。处理器320可根据照度(或速度)的变化,将与内容相应的虚拟图像的位置从第一显示区域逐渐移动到第二显示区域或第三显示区域。
一种电子装置可包括:第一传感器;存储器;显示器;和处理器,被配置为:使用第一传感器确认电子装置的环境照度,当确认出的照度在第一照度范围内时,指定存储在存储器中的内容将被显示在与第一FOV相应的第一显示区域的至少部分中的位置,并且当确认出的照度在第二照度范围内时,指定内容将被显示在与比第一FOV宽的第二FOV相应的第二显示区域的至少部分中的位置。
处理器可被配置为:确认显示内容的请求,在确认出内容显示请求时,确认通过显示器显示内容的位置,并且基于确认出的位置在第一显示区域或第二显示区域中显示内容。
第二照度范围可包括与高于第一照度范围的照度相应的范围。
处理器可被配置为基于确认出的照度调整内容的位置或尺寸中的至少一个,以使与内容相应的虚拟图像的位置被调整。
处理器可被配置为通过基于确认出的照度调整与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离来调整与内容相应的虚拟图像的位置。
处理器可被配置为:当确认出的照度低于指定照度时,调整虚拟图像的位置以使内容被显示在第一显示区域中,并且当确认出的照度高于指定照度时,调整虚拟图像的位置以使内容被显示在第二显示区域中。
处理器可被配置为:当确认出的照度落入与指定照度相应的范围内时,保持与内容相应的虚拟图像的位置。
电子装置还可包括第二传感器,其中,处理器可被配置为:使用第二传感器确认电子装置的速度,当确认出的速度在第一速度范围内时,指定存储在存储器中的内容将被显示在第三显示区域的至少部分中的位置,并且当确认出的照度在第二速度范围内时,指定内容将被显示在具有比第三显示区域窄的FOV的第四显示区域的至少部分中的位置。
第二速度范围可与高于第一速度范围的速度相应。
一种电子装置可包括:传感器,被配置为检测电子装置的状态;存储器;显示器;以及处理器,被配置为:使用传感器确认电子装置的状态,当指示确认出的电子装置的状态的传感器值在第一范围内时,指定存储在存储器中的内容将被显示在与第一FOV相应的第一显示区域的至少部分中的位置,并且当传感器值在第二范围内时,指定内容将被显示在与比第一FOV宽的第二FOV相应的第二显示区域的至少部分中的位置。
电子装置的状态可包括电子装置的环境照度或电子装置的速度中的至少一个。
处理器可被配置为基于电子装置的环境照度调整内容的位置或尺寸中的至少一个,以使与内容相应的虚拟图像的位置被调整。
处理器可被配置为通过基于电子装置的环境照度调整与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离来调整与内容相应的虚拟图像的位置。
处理器可被配置为基于电子装置的速度调整内容的位置或尺寸中的至少一个,以使与内容相应的虚拟图像的位置被调整。
处理器可被配置为通过基于电子装置的速度调整与内容相应的针对左眼的图像和与内容相应的针对右眼的图像之间的距离来调整与内容相应的虚拟图像的位置。
一种电子装置可包括:传感器模块;显示器;和处理器,被配置为:使用传感器模块来确认电子装置的环境照度或电子装置的速度中的至少一个,并且基于电子装置的环境照度或速度中的至少一个来调整与通过显示器显示的内容相应的虚拟图像的位置。
处理器可被配置为:当电子装置的环境照度在第一照度范围内时,将虚拟图像的位置改变到与第一照度范围相应的第一显示区域,并且当电子装置的环境照度在第二照度范围内时,将虚拟图像的位置改变到与第二照度范围相应的第二显示区域。
当第二照度范围与高于第一照度范围的照度相应时,第一显示区域可与第一FOV相应,并且第二显示区域可与具有比第一FOV更宽的视角和更短的焦距的第二FOV相应。
处理器可被配置为:当确认出的速度在第一速度范围内时,将虚拟图像的位置改变到与第一速度范围相应的第三显示区域,并且当确认出的速度在第二速度范围内时,将虚拟图像的位置改变到与第二速度范围相应的第四显示区域。
当第二速度范围与高于第一速度范围的速度相应时,第一显示区域可与第一FOV相应,并且第二显示区域可与具有比第一FOV更窄的视角和更长的焦距的第二FOV相应。
根据各种实施例的每个组件(例如,模块或程序)可包括以上组件中的至少一个组件,并且可省略以上子组件的一部分,或者还可包括附加的其它子组件。可选地或另外地,一些组件可被集成在一个组件中,并且可执行在集成之前由每个相应组件执行的相同或相似的功能。由根据本公开的各种实施例的模块、程序或其它组件执行的操作可顺序地、并行地、重复地或以启发式方法被运行。此外,至少一些操作可以以不同的顺序被运行、被省略,或者可添加其它操作。
如从前述描述显而易见的是,根据本公开的各种实施例,电子装置可通过确认电子装置的环境照度和速度中的至少一个来自动地调整在显示器上显示的内容的位置和/或尺寸,从而增加可用性和稳定性。
尽管已经参照本公开的特定实施例示出和描述了本公开,但本领域技术人员将理解,在不脱离本公开的范围的情况下,可对其进行形式和细节上的各种改变。因此,本公开的范围不应被限定为限于实施例,而是应由权利要求及其等同物限定。
Claims (14)
1.一种智能眼镜,包括:
至少一个传感器;
第一显示器,被配置用于输出与针对用户的左眼的内容相应的第一图像;
第二显示器,被配置用于输出与针对用户的右眼的内容相应的第二图像;以及
处理器,被配置用于进行以下操作:
使用第一显示器和第二显示器,通过智能眼镜的玻璃片在虚拟显示区域中显示所述内容,
使用所述至少一个传感器识别智能眼镜的状态,
基于识别出指示智能眼镜的状态的所述至少一个传感器的传感器值低于预设值,调整虚拟显示区域中的所述内容的显示位置或尺寸中的至少一个,使得所述内容被显示在与根据智能眼镜的所述状态变窄的用户的第一视场(FOV)相应的第一显示区域中,以及
基于识别出所述传感器值高于所述预设值,调整虚拟显示区域中的所述内容的显示位置或尺寸中的至少一个,使得所述内容被显示在与根据智能眼镜的所述状态变宽的用户的第二FOV相应的第二显示区域中,其中,第二FOV具有比第一FOV更宽的视角和更短的焦距。
2.如权利要求1所述的智能眼镜,其中,智能眼镜的状态包括智能眼镜的环境照度或智能眼镜的速度中的至少一个。
3.如权利要求2所述的智能眼镜,其中,处理器还被配置用于基于智能眼镜的环境照度调整输出第一图像或第二图像中的至少一个的位置,使得所述内容的显示位置或尺寸中的至少一个被调整。
4.如权利要求3所述的智能眼镜,其中,处理器还被配置用于基于智能眼镜的环境照度调整第一图像与第二图像之间的距离。
5.如权利要求2所述的智能眼镜,其中,处理器还被配置用于基于智能眼镜的速度调整输出第一图像或第二图像中的至少一个的位置,使得所述内容的显示位置或尺寸中的至少一个被调整。
6.如权利要求5所述的智能眼镜,其中,处理器还被配置用于基于智能眼镜的速度调整第一图像与第二图像之间的距离。
7.如权利要求1所述的智能眼镜,其中,处理器还被配置用于使用第一显示器和第二显示器输出通过包括在智能眼镜中的相机获得的图像。
8.一种操作智能眼镜的方法,所述方法包括:
使用包括在智能眼镜中的第一显示器和第二显示器,通过智能眼镜的玻璃片在虚拟显示区域中显示内容,其中,第一显示器输出与针对用户的左眼的内容相应的第一图像,第二显示器输出与针对用户的右眼的内容相应的第二图像;
使用包括在智能眼镜中的至少一个传感器识别智能眼镜的状态;
基于识别出指示智能眼镜的状态的所述至少一个传感器的传感器值低于预设值,调整虚拟显示区域中的所述内容的显示位置或尺寸中的至少一个,使得所述内容被显示在与根据智能眼镜的所述状态变窄的用户的第一视场(FOV)相应的第一显示区域中;以及
基于识别出所述传感器值高于所述预设值,调整虚拟显示区域中的所述内容的显示位置或尺寸中的至少一个,使得所述内容被显示在与根据智能眼镜的所述状态变宽的用户的第二FOV相应的第二显示区域中,其中,第二FOV具有比第一FOV更宽的视角和更短的焦距。
9.如权利要求8所述的方法,其中,智能眼镜的状态包括智能眼镜的环境照度或智能眼镜的速度中的至少一个。
10.如权利要求9所述的方法,还包括:
基于智能眼镜的环境照度调整输出第一图像或第二图像中的至少一个的位置,使得所述内容的显示位置或尺寸中的至少一个被调整。
11.如权利要求10所述的方法,其中,调整输出第一图像或第二图像中的至少一个的位置的步骤包括:
基于智能眼镜的环境照度调整第一图像与第二图像之间的距离。
12.如权利要求9所述的方法,还包括:
基于智能眼镜的速度调整输出第一图像或第二图像中的至少一个的位置,使得所述内容的显示位置或尺寸中的至少一个被调整。
13.如权利要求12所述的方法,其中,调整输出第一图像或第二图像中的至少一个的位置的步骤包括:
基于智能眼镜的速度调整第一图像与第二图像之间的距离。
14.如权利要求8所述的方法,还包括:
使用第一显示器和第二显示器输出通过包括在智能眼镜中的相机获得的图像。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0057208 | 2018-05-18 | ||
KR1020180057208A KR102462678B1 (ko) | 2018-05-18 | 2018-05-18 | 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법 |
PCT/KR2019/005855 WO2019221518A1 (en) | 2018-05-18 | 2019-05-15 | Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same |
CN201980031406.7A CN112106353B (zh) | 2018-05-18 | 2019-05-15 | 用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980031406.7A Division CN112106353B (zh) | 2018-05-18 | 2019-05-15 | 用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115190291A true CN115190291A (zh) | 2022-10-14 |
Family
ID=68533239
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210812821.XA Pending CN115190291A (zh) | 2018-05-18 | 2019-05-15 | 智能眼镜及操作智能眼镜的方法 |
CN201980031406.7A Active CN112106353B (zh) | 2018-05-18 | 2019-05-15 | 用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980031406.7A Active CN112106353B (zh) | 2018-05-18 | 2019-05-15 | 用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11122254B2 (zh) |
EP (2) | EP4164218A3 (zh) |
KR (1) | KR102462678B1 (zh) |
CN (2) | CN115190291A (zh) |
WO (1) | WO2019221518A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115280404A (zh) | 2020-12-14 | 2022-11-01 | 谷歌有限责任公司 | 可变亮度和视场显示 |
JP2022113973A (ja) * | 2021-01-26 | 2022-08-05 | セイコーエプソン株式会社 | 表示方法、表示装置、及び、プログラム |
KR20240040518A (ko) * | 2022-09-21 | 2024-03-28 | 삼성전자주식회사 | 외부 조도에 따라 유효 디스플레이 영역의 크기를 조정하는 웨어러블 장치 및 그 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020067366A1 (en) * | 2000-12-01 | 2002-06-06 | Nissan Motor Co., Ltd. | Display apparatus for vehicle |
CN1926605A (zh) * | 2004-03-25 | 2007-03-07 | 索尼爱立信移动通讯股份有限公司 | 便携式电子装置显示器的动态显示控制 |
US20160034032A1 (en) * | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
US20160139411A1 (en) * | 2014-11-18 | 2016-05-19 | Samsung Electronics Co., Ltd. | Wearable device and method for outputting virtual image |
CN107203044A (zh) * | 2016-03-18 | 2017-09-26 | 丰田自动车株式会社 | 车辆用显示装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5880734A (en) * | 1996-10-03 | 1999-03-09 | Intel Corporation | Peripheral vision simulator for immersive 3D virtual environments |
TW200527920A (en) * | 2003-12-15 | 2005-08-16 | Koninkl Philips Electronics Nv | Projector and method of projecting an image having multiple image sizes |
US20070146356A1 (en) * | 2005-12-27 | 2007-06-28 | Research In Motion Limited | Method and device for setting or varying properties of elements on a visual display based on ambient light |
CN100527216C (zh) * | 2006-03-02 | 2009-08-12 | 英华达(南京)科技有限公司 | 利用位移感应器移动画面显示位置的电子装置及方法 |
JP2009135686A (ja) | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
KR101378407B1 (ko) * | 2008-05-08 | 2014-03-28 | 에스케이플래닛 주식회사 | 광시야각이 가능한 입체 영상 디스플레이 장치 및 그 입체영상 디스플레이 장치에서의 표시부 위치 조절 방법 |
US8514242B2 (en) * | 2008-10-24 | 2013-08-20 | Microsoft Corporation | Enhanced user interface elements in ambient light |
JP4702437B2 (ja) * | 2008-11-25 | 2011-06-15 | トヨタ自動車株式会社 | 車両用表示装置 |
US8749478B1 (en) * | 2009-08-21 | 2014-06-10 | Amazon Technologies, Inc. | Light sensor to adjust contrast or size of objects rendered by a display |
US9097891B2 (en) * | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
JP5780848B2 (ja) * | 2011-06-23 | 2015-09-16 | 京セラ株式会社 | 電子機器 |
EP2565865A1 (en) | 2011-09-01 | 2013-03-06 | Research In Motion Limited | Data display adapted for bright ambient light |
CN103135889B (zh) * | 2011-12-05 | 2017-06-23 | Lg电子株式会社 | 移动终端及其3d图像控制方法 |
US9628770B2 (en) * | 2012-06-14 | 2017-04-18 | Blackberry Limited | System and method for stereoscopic 3-D rendering |
JP6089705B2 (ja) * | 2013-01-07 | 2017-03-08 | セイコーエプソン株式会社 | 表示装置、および、表示装置の制御方法 |
KR20150008733A (ko) | 2013-07-15 | 2015-01-23 | 엘지전자 주식회사 | 안경형 휴대기기 및 그의 정보 투사면 탐색방법 |
KR101511587B1 (ko) | 2013-12-12 | 2015-04-14 | 현대오트론 주식회사 | 헤드업 디스플레이 정보 표시 장치 및 방법 |
JP2015152746A (ja) | 2014-02-14 | 2015-08-24 | 日本精機株式会社 | 表示装置 |
KR101610169B1 (ko) | 2014-11-05 | 2016-04-08 | 현대자동차 주식회사 | 헤드업 디스플레이 및 헤드업 디스플레이의 제어방법 |
CN115447474A (zh) * | 2015-01-13 | 2022-12-09 | 麦克赛尔株式会社 | 图像投影装置和图像投影方法 |
KR20180000912A (ko) | 2016-06-24 | 2018-01-04 | 현대모비스 주식회사 | 헤드 업 디스플레이 장치 및 그 제어 방법 |
-
2018
- 2018-05-18 KR KR1020180057208A patent/KR102462678B1/ko active IP Right Grant
-
2019
- 2019-04-18 US US16/388,059 patent/US11122254B2/en active Active
- 2019-05-15 EP EP22211682.4A patent/EP4164218A3/en active Pending
- 2019-05-15 WO PCT/KR2019/005855 patent/WO2019221518A1/en unknown
- 2019-05-15 EP EP19802667.6A patent/EP3744087B1/en active Active
- 2019-05-15 CN CN202210812821.XA patent/CN115190291A/zh active Pending
- 2019-05-15 CN CN201980031406.7A patent/CN112106353B/zh active Active
-
2021
- 2021-09-13 US US17/473,458 patent/US11645821B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020067366A1 (en) * | 2000-12-01 | 2002-06-06 | Nissan Motor Co., Ltd. | Display apparatus for vehicle |
CN1926605A (zh) * | 2004-03-25 | 2007-03-07 | 索尼爱立信移动通讯股份有限公司 | 便携式电子装置显示器的动态显示控制 |
US20160034032A1 (en) * | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
US20160139411A1 (en) * | 2014-11-18 | 2016-05-19 | Samsung Electronics Co., Ltd. | Wearable device and method for outputting virtual image |
CN107203044A (zh) * | 2016-03-18 | 2017-09-26 | 丰田自动车株式会社 | 车辆用显示装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019221518A1 (en) | 2019-11-21 |
EP4164218A2 (en) | 2023-04-12 |
EP3744087A1 (en) | 2020-12-02 |
KR20190132033A (ko) | 2019-11-27 |
US11645821B2 (en) | 2023-05-09 |
KR102462678B1 (ko) | 2022-11-04 |
CN112106353B (zh) | 2022-09-02 |
EP3744087A4 (en) | 2021-03-10 |
US20190356903A1 (en) | 2019-11-21 |
CN112106353A (zh) | 2020-12-18 |
EP4164218A3 (en) | 2023-07-05 |
US20210409673A1 (en) | 2021-12-30 |
EP3744087B1 (en) | 2022-12-07 |
US11122254B2 (en) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11914835B2 (en) | Method for displaying user interface and electronic device therefor | |
EP3011418B1 (en) | Virtual object orientation and visualization | |
US11847258B2 (en) | Method for wireless connection in augmented reality environment and electronic device therefor | |
US20160063767A1 (en) | Method for providing visual reality service and apparatus for the same | |
US11645821B2 (en) | Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same | |
KR102499354B1 (ko) | 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법 | |
US11295641B2 (en) | Wearable electronic device for controlling, on basis of remaining battery capacity, transmittance of transparent member and output luminance of projector, and operation method | |
US11852830B2 (en) | Augmented reality glass and operating method therefor | |
EP4167019A1 (en) | Method of changing settings of display and electronic device | |
US10978008B2 (en) | Electronic device including optical members that change the optical path | |
US12056286B2 (en) | Electronic device for providing augmented reality service and operating method thereof | |
US20230199328A1 (en) | Method of removing interference and electronic device performing the method | |
US11733952B2 (en) | Wearable electronic device including display, method for controlling display, and system including wearable electronic device and case | |
US11893698B2 (en) | Electronic device, AR device and method for controlling data transfer interval thereof | |
US20230034288A1 (en) | Wearable electronic device including display | |
KR102717796B1 (ko) | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
US20230169723A1 (en) | Electronic device for providing contents in connection with external electronic device and method of the same | |
US20240119683A1 (en) | Electronic device and method for providing ar information using watch face image | |
EP4273613A1 (en) | Head mounted display device, operating method for device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |