CN111713181A - 使用增强现实的照明和物联网设计 - Google Patents
使用增强现实的照明和物联网设计 Download PDFInfo
- Publication number
- CN111713181A CN111713181A CN201880089939.6A CN201880089939A CN111713181A CN 111713181 A CN111713181 A CN 111713181A CN 201880089939 A CN201880089939 A CN 201880089939A CN 111713181 A CN111713181 A CN 111713181A
- Authority
- CN
- China
- Prior art keywords
- model
- lighting
- real
- lighting fixture
- time image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013461 design Methods 0.000 title claims abstract description 103
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 claims abstract description 90
- 230000004044 response Effects 0.000 claims abstract description 38
- 238000005286 illumination Methods 0.000 claims description 59
- 238000004891 communication Methods 0.000 description 21
- 230000008859 change Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 8
- 238000010079 rubber tapping Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005282 brightening Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0621—Item configuration or customization
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/04—Billing or invoicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/14—Charging, metering or billing arrangements for data wireline or wireless communications
- H04L12/1428—Invoice generation, e.g. customization, lay-out, database processing, algorithms for calculating the bill or formatting invoices as WWW pages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/22—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
- H05B47/196—Controlling the light source by remote control characterised by user interface arrangements
- H05B47/1965—Controlling the light source by remote control characterised by user interface arrangements using handheld communication devices
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Optics & Photonics (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于增强现实的照明设计方法,包括由增强现实设备在显示屏上显示目标物理区域的实时图像。该方法还包括响应于用户输入,由增强现实设备在显示屏上显示照明设施3‑D模型,其中照明设施3‑D模型覆盖在目标物理区域的实时图像上。该方法还包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的照明模式,其中照明模式至少基于与照明设施3‑D模型相关联的光度数据来生成。
Description
技术领域
本公开总体上涉及照明和控制解决方案,更具体地,涉及使用增强现实的照明或物联网(IoT)设计。
背景技术
一种常见的照明设计方法包括检查目标区域的平面图、天花板高度、结构等,以及使用建模工具估计用于目标区域的照明。建模工具通常依赖于基于对目标区域的检查而创建的目标区域的3-D模型。目标区域的3-D模型的生成和使用3-D模型的建模工具可能相当复杂。目标区域估计照明的可靠性也很大程度上取决于3-D模型的准确性。IoT设计中也存在类似的挑战。因此,提供用户友好和可靠的照明设计装置的解决方案是期望的。类似的解决方案也可以应用于IoT设计。
发明内容
本公开总体上涉及照明和控制解决方案,更具体地,涉及使用增强现实的照明或IoT设计。在示例实施例中,基于增强现实的照明设计方法包括由增强现实设备在显示屏上显示目标物理区域的实时图像。该方法还包括响应于用户输入,由增强现实设备在显示屏上显示照明设施3-D模型,其中照明设施3-D模型覆盖在目标物理区域的实时图像上。该方法还包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的照明模式,其中照明模式至少基于与照明设施3-D模型相关联的光度数据来生成。
在另一示例实施例中,基于增强现实的物联网(IoT)设计方法包括由增强现实设备在显示屏上显示目标物理区域的实时图像。该方法还包括响应于用户输入,由增强现实设备在显示屏上显示具有一个或多个IoT设备的照明设施的3-D模型,其中3-D模型覆盖在目标物理区域的实时图像上。该方法还包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的模式,其中该模式对应于与3-D模型相关联的参数数据。该方法还可以包括由增强现实设备或另一设备从与3-D模型相关联的参数数据生成模式。一个或多个IoT设备可以包括一个或多个麦克风,其中3-D模型与参数数据文件相关联,该参数数据文件包括指示一个或多个麦克风的声音检测范围和/或方向性的数据。所述一个或多个IoT设备可以包括一个或多个传感器,其中所述3-D模型与参数数据文件相关联,所述参数数据文件包括指示所述一个或多个传感器的检测范围的数据。一个或多个IoT设备可以包括一个或多个扬声器,其中3-D模型与参数数据文件相关联,该参数数据文件包括指示由一个或多个扬声器产生的声音的范围和方向中的至少一个的数据。
在另一示例实施例中,增强现实设备包括捕捉目标物理区域的实时图像的相机和显示屏。该设备还包括控制器,该控制器被配置为执行软件代码以在显示屏上显示目标物理区域的实时图像,并响应于用户输入在显示屏上显示照明设施3-D模型,其中照明设施3-D模型覆盖在目标物理区域的实时图像上。控制器还被配置为执行软件代码以在显示屏上显示照明模式,其中照明模式覆盖在目标物理区域的实时图像上,其中照明模式至少基于与照明设施3-D模型相关联的光度数据来生成。
从以下描述和所附权利要求中,这些和其他方面、目的、特征和实施例将变得显而易见。
附图说明
现在将参考附图,附图不一定按比例绘制,其中:
图1A和1B示出了根据示例实施例的用于照明设计和物联网(IoT)设计的增强现实设备;
图1C和1D示出了根据另一示例实施例的用于照明设计和IoT设计的增强现实设备;
图2示出了根据示例实施例的图1A-1D的增强现实设备的框图;
图3-7A示出了根据示例实施例的使用图1A-1D的增强现实设备的照明设计阶段;
图7B示出了根据示例实施例的在图1A和1B的AR设备的视口上指示的亮度等级;
图7C示出了根据示例实施例的照明设施和照明模式的3-D模型,该照明模式包括基于与照明设施相关联的光度数据或照明数据的另一梯度的亮度等级;
图8A示出了根据示例实施例的显示在图1A和1B的增强现实设备上的电子商务界面;
图8B示出了根据示例实施例的显示在图1A和1B的增强现实设备100上的物料清单(BOM)生成界面;
图8C示出了根据示例实施例的显示在图1A和1B的增强现实设备100上的物料清单(BOM);
图9-11示出了根据另一示例实施例的使用图1A-1D的AR设备的照明设计阶段;
图12示出了根据示例实施例的图1A和1B的增强现实设备的照明特性选择器;
图13A-13C示出了根据示例实施例的具有不同色温的图11和12的照明模式;
图14示出了根据示例实施例的由图1A和1B的增强现实设备产生的替代照明模式;
图15示出了根据示例实施例的使用图1A和1B的增强现实设备产生的图像的不同截屏;
图16示出了根据示例实施例的具有集成传感器1606的照明设施的3-D模型1602;
图17示出了根据示例实施例的具有集成相机1706的照明设施的3-D模型;
图18示出了根据示例实施例的具有集成扬声器1806的照明设施的3-D模型;
图19示出了根据示例实施例的具有集成麦克风1906的照明设施的3-D模型;和
图20和21示出了根据示例实施例,使用图1A的增强现实设备来仿真传感器控制的照明行为;
图22示出了根据示例实施例的基于增强现实的照明和IoT设计的方法;
图23示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法;
图24示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法;和
图25示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法。
附图仅示出了示例实施例,因此不应被认为是对范围的限制。附图中所示的元件和特征不一定是按比例的,而是强调清楚地说明示例实施例的原理。另外,某些尺寸或位置可能被夸大,以帮助视觉传达这些原则。在附图中,不同附图中使用的相同附图标记可以表示相似或对应的元件,但不一定是相同的元件。
具体实施方式
在以下段落中,将参考附图进一步详细描述示例实施例。在描述中,省略或简要描述了众所周知的组件、方法和/或处理技术。此外,对实施例的各种特征的引用并不意味着所有实施例都必须包括所引用的特征。
在一些示例实施例中,增强现实(AR)平台可以被用户(例如照明设计师、消费者、建筑商、安装商、承包商、房主、租户、房东、建筑物居住者等)用来将虚拟设施模型放置到真实环境中,以快速测量外观以及查看、协调或布局各种设施照明参数,例如设施美学或附件选项、色温、形状、分布、亮度、光等级、空间或视场的光束覆盖范围(例如,对于可以集成到设施中的相机)或传感器(例如,IR或其他类型的运动或环境传感器)或附属设备(扬声器范围/方向、麦克风范围/方向)的传感器范围/方向,伴随或独立于照明器等。
AR设备可以包括照明设计AR应用和照明设施的数据库,以及相关联的光度文件或具有照明信息的替代梯度的参数数据文件。光度文件(例如,IES文件)包含必要的信息来估计由三维空间内的照明设施产生的一个或多个照明模式。光度文件还可以包括色温、亮度强度和/或关于照明设施发出的光的其他信息。照明设计AR应用使用户能够在正被显示的物理/真实空间的实时图像中选择和放置一个或多个照明设施,例如,在AR设备的视口上,并且允许可视化所选择的(一个或多个)照明设施将如何在物理/真实空间中表现和出现。AR应用实现照明设施和照明模式以及其他光特性(例如,色温和亮度)的渲染覆盖,并考虑由AR设备图像处理或AR设备和检测到的对象之间的其他通信检测到的物理/真实空间中的对象/结构的表面上的反射照明模式和阴影,这产生合理的现实结果,而不需要安装实际的照明设施。例如,AR设备可以实现独立的人工智能应用或与AR应用集成的人工智能代码,以检测和识别物理/真实空间中的对象/结构。
类似地,AR设备可以包括传感器(或附件)设计AR应用和传感器数据库以及相关联的数据文件(范围、视角、分辨率或可以通过AR设备可视化的类似操作信息)。例如,文件可以包含必要的信息,以估计三维空间中与传感器(例如,运动、光、温度、湿度、声音或其他类型的传感器)或附件设备(例如,相机、麦克风、扬声器、发射器/检测器、类似蓝牙或Wi-Fi中继器的无线设备等)相关联的一个或多个视角和范围。这些文件还可以包括关于传感器或附件发出的光的其他信息。AR应用使用户能够选择一个或多个传感器或附件并将其放置在正被显示的物理/真实空间的实时图像中,例如,在AR设备的视口上,并允许可视化所选择的传感器或附件将如何在物理/真实空间中表现和出现。AR应用实现传感器或附件和相关模式或视觉效果以及其他特征的渲染覆盖。AR设备可以基于由AR设备图像处理或AR设备和被检测对象之间的其他通信检测到的物理/真实空间中的对象/结构的表面来考虑反射模式或干扰,这产生了合理的现实结果,而不需要安装实际的传感器或附件。
图1A和1B示出了根据示例实施例的用于照明设计的增强现实设备100。在一些示例实施例中,图1A示出了增强现实设备100的背面,而图1B示出了增强现实设备100的正面。例如,增强现实设备100可以是平板电脑、智能电话等。可替代地,增强现实设备100可以是耳机、眼镜、护目镜或具有增强现实能力的显示器的另一种类型的设备。
参考图1A和1B,在一些示例实施例中,增强现实(AR)设备100可以包括在增强现实设备100的背面上的背面相机102。AR设备100还可以包括位于增强现实设备100正面的视口/显示屏106。在一些示例实施例中,AR设备100还可以包括正面相机104、用户输入区域108、环境光传感器110、加速度计或其他传感器,这些传感器可用于从AR设备100所处的物理空间确定取向或实时反馈,以用于在AR设备100的显示器106上解释和显示AR。
在一些示例实施例中,视口106可用于显示由相机102、104看到的图像,以及显示由AR设备100存储、接收和/或生成的对象(例如,图标、文本等)。视口106也可以用作AR设备100的用户输入接口。例如,视口106可以是触敏显示屏。视口106可以包含垂直和水平方向上的多个像素(称为显示分辨率)。例如,视口106可以具有2048×1536的显示分辨率。每个像素可以包含子像素,其中每个子像素通常代表红色、绿色和蓝色。
在一些示例实施例中,在AR设备100前面的物理/真实区域的图像可以如相机102所看到的那样实时显示在视口106上。例如,AR设备100可以包括照明设计AR应用,其激活相机102,使得由相机102观察到的物理空间的实时图像显示在视口106上。可替代地,相机102可以被启用/激活以在照明设计AR应用开始之前或之后显示物理空间的实时图像。在一些示例实施例中,显示在物理空间上的实时图像可以稍微延迟地显示。
在一些示例实施例中,AR设备100可以包括人工智能应用和/或组件,其可以确定物理空间/区域中的真实的发光表面和/或其他表面或结构,例如窗户、天花板、墙壁、地板、镜面或反射表面等,并且基于与光设施相关联的特性(例如,眩光、强度、可用色温或颜色、改变由光设施产生的光束角度或分布的可用光学器件或附件等),自动建议/提供推荐类型的照明设施以及附加信息,例如建议的位置、取向和/或适当数量的照明设施。例如,人工智能软件应用和/或组件可以识别或建议观察到的空间中的某个设施的正确位置,这导致在实现物理空间/区域的照明设计时,用户需要最少的输入、交互和决策。类似地,软件应用包含建议或识别设备的建议位置,例如传感器(运动、光、环境条件,如热、湿度、声音等)或附件(例如,相机、麦克风、扬声器、无线通信、中继器等),该软件应用可以用在针对传感器或附件的实施例中,代替或附加于光设施。
图1C和1D示出了根据另一示例实施例的用于照明设计和IoT设计的增强现实设备120、130。在一些示例实施例中,AR设备120可以用于以类似的方式执行上述关于AR设备100的操作。例如,设备120、130的玻璃屏幕可以用作类似于AR设备100的视口106的显示屏。在一些示例实施例中,另一AR设备可以用于以与上面参考图1A和1B描述的类似方式来执行AR设备100执行的操作。尽管下面的描述一般是针对图1A和1B的AR设备100给出的,但是该描述同样适用于图1C和1D的AR设备120、130。
图2示出了根据示例实施例的图1A和1B的增强现实设备100的框图。在一些示例实施例中,图2的框图可以对应于图1C和1D的增强现实设备120、130。参考图1A、1B和图2,在一些示例实施例中,AR设备100包括控制器202、相机组件204、显示器组件206、输入接口208、存储器设备212和通信接口214。例如,相机组件204可以对应于或者可以是相机102、104的一部分。显示器组件206可以对应于视口/显示屏106或者可以是视口/显示屏106的一部分,并且可以包括在视口106上实现或执行信息(例如,图像、文本等)显示的电路。例如,视口的像素可以被设置/调整以显示由相机102或104观察到的图像。输入接口208可以对应于用户输入区域108和/或视口106的用户输入能力。例如,显示器组件206和输入接口208可以组成视口106或者可以是视口106的一部分,其中视口106例如是触敏显示屏。通信接口214可以用于由AR设备100进行的无线或经由有线连接的通信。
控制器202可以包括一个或多个微处理器和/或微控制器,其可以执行存储在存储器设备212中的软件代码。例如,照明设计AR应用和IoT设计应用的软件代码可以存储在存储器设备212中,或者可以经由通信接口214或其他通信装置从远程存储位置(例如,云服务或远程定位的服务器或数据库)检索。在AR设备100的操作中使用的其他可执行软件代码也可以存储在AR设备100的存储器设备212或另一存储器设备中。例如,人工智能照明和/或其他软件可以作为AR应用的一部分或者与AR应用一起存储在存储器设备212中,并且可以由控制器202执行。
为了说明,控制器202可以执行人工智能应用来确定物理空间/区域中真实的发光表面和/或结构(例如,窗口)、反射表面等,例如,基于由相机102或104观察到的物理空间/区域的实时图像和/或基于由环境光传感器组件216(对应于、连接到或包括在环境光传感器110中)感测到的照明条件,并且自动建议/提供(一个或多个)推荐类型的照明设施以及附加信息,例如建议的位置、取向和/或适当数量的照明设施。通常,控制器202的一个或多个微处理器和/或微控制器执行存储在存储器设备212或另一设备中的软件代码,以实现本文描述的AR设备100的操作。在一些示例实施例中,存储器设备212可以包括非易失性存储器设备和易失性存储器设备。
在一些示例实施例中,在照明设计AR应用、IoT设计AR应用和其他代码的执行中使用或生成的数据也可以经由通信接口214或其他通信装置被检索和/或存储在AR设备100的存储器设备212或其他存储器设备中,或者从远程存储位置(例如,云服务或远程定位的服务器或数据库)检索。例如,照明设施的3-D模型和与照明设施模型相关联的光度数据文件(例如,IES文件)可以存储在存储器设备112中,或者从基于远程“云”的服务的存储中检索,并且可以在照明设计AR应用的执行期间检索。其他设备(如传感器、相机、麦克风、扬声器发射器/检测器、例如蓝牙或Wi-Fi中继器等的无线设备)的3-D模型以及与设备相关联的数据可以存储在存储器设备112中,或者存储在基于远程“云”的服务上的存储中并从其检索,并且可以在AR设备100上的IoT设计AR应用的执行期间检索。
存储和/或检索的数据可以包括例如范围、视角、分辨率或可以通过AR设备可视化的类似操作信息的信息。例如,数据可以包含必要的信息,以估计由传感器(例如,运动、光、温度、湿度、声音或其他类型的传感器)或附件设备(例如,相机、麦克风、扬声器、发射器/检测器、像蓝牙或Wi-Fi中继器这样的无线设备等)在三维空间中产生的一个或多个视角和范围。这些文件还可以包括关于由传感器或附件设备发射的光的其他信息。
在一些示例实施例中,存储在存储器设备112中的照明设计AR应用可以包含增强现实应用/软件(例如ARKit、ARCore、全息透镜等)或与增强现实应用/软件接合,这些增强现实应用/软件也可以存储在存储器设备112中,或者经由通信接口214或其他通信装置从远程存储位置(例如,云服务或远程定位服务器或数据库)调用或提供。
控制器202可以与AR设备100的不同组件通信(例如相机组件204等)并且可以执行相关代码,例如,以显示由相机102和/或104以及视口106上的其他图像对象观察到的实时图像。
尽管以上针对AR设备100描述了图2的框图,但是该框图和以上描述同样适用于图1C和1D的AR设备120、130。
图3-7A示出了根据示例实施例的使用图1A-1B的增强现实设备的照明设计阶段。尽管下面的描述一般是针对图1A和1B的AR设备100给出的,但是该描述同样适用于图1C和1D的AR设备120、130。在一些示例实施例中,图3示出了在包含了照明设计AR应用的AR设备100上显示的目标区域302的实时图像304。为了说明,在启动照明设计AR应用之后,例如,通过选择显示在视口106上的照明设计AR应用图标,目标区域302的实时图像304可以显示在视口106上。显示在视口106上的实时图像304可以是由背面相机102观察到的目标区域302的图像。例如,在实时图像304中示出了作为目标区域302中的真实对象的沙发306和照明设施308。响应于照明设计AR应用的激活,可以启用/激活背面相机102来观察(不一定记录)目标区域302,或者可以单独启用/激活背面相机102。
在一些示例实施例中,AR设备100可以用于评估目标区域302以识别目标区域302中的对象、结构、表面等。例如,AR设备100可以包括并使用一个或多个加速度计来确定AR设备100相对于目标区域302的取向,并因此基于由相机304捕获的目标区域302的实时图像304,确定目标区域302中的对象、结构、表面等的取向。AR设备100可以通过执行人工智能和图像处理代码并基于由环境光传感器110感测的目标区域的照明条件来识别对象、结构、表面等。例如,AR设备100可以基于目标区域302的实时图像304、目标区域302的照明条件、AR设备100的取向等识别光反射(例如,镜子)、透射(例如,窗户)、天花板、墙壁、地板、家具等。AR设备100可以使用来自目标区域302的评估的信息,例如,生成显示模型,该显示模型表示由如下所述的所选择的照明设施模型产生的(一个或多个)照明模式。
在一些示例实施例中,图4示出了显示在AR设备100的视口106上的目标区域302的修改图像402。例如,用户可以向AR设备100提供输入(例如,经由输入区域108或经由视口106),以对视口106的像素应用变暗滤波器,使得修改图像402是实时图像304和视口106变暗的结果。从图4中可以看出,在应用变暗滤波器之后,目标区域302的实时图像304仍然可以被用户看到。为了说明,视口106的变暗可以提供参考照明等级,以允许照明模式和其他特性的后续调整更容易辨别。
在将变暗滤波器应用于视口106期间,视口106的像素基于来自相机102的像素数据(即,由相机102观察到的实时图像)和由环境光传感器110检测到的光等级而被变换。在一些示例实施例中,为了使视口106的像素变暗,照明设计AR应用可以包括对应于下面所示等式的代码,该代码由AR设备100针对视口106的各个像素执行:
PixNew(R,G,B) = PixOld(R,G,B) * DarkFilter(R,G,B),
其中:
PixNew(R,G,B) 是过滤后的像素;
PixOld(R,G,B) 是代表由相机102观察到的实时图像的像素;以及
DarkFilter = f(环境光传感器)→Z% (例如Z=0.1),其中环境光传感器范围是0到255。
通过考虑环境光等级,视口106可以变暗到允许用户观察目标区域302的实时图像304的等级。在视口变暗之后,照明设计AR应用可以向用户显示消息,指示显示或添加照明设施到修改图像402的选项。
在一些示例实施例中,图5示出了显示在AR设备100的视口106上的修改图像402以及照明设施3-D模型菜单502,用于用户选择一个或多个照明设施3-D模型。如上所述,每个光设施3-D模型可以存储在数据库中,并且可以与包括指示照明模式、色温、亮度强度等的信息的光度文件(例如,IES文件)相关联。在一些示例实施例中,可通过菜单502选择的照明设施3-D模型可以包括相同类型的照明设施和/或不同类型的照明设施的不同模型,其中不同模型与表示不同照明模式、色温、亮度强度等的相应光度文件相关联。
通常,可通过菜单502选择的光设施3-D模型可以被提供给用户,用于以若干其他方式中的一种进行选择,例如通过在视口106上的其他位置显示模型,在不同的显示页面上单独显示,作为下拉菜单项等。可替代地,可以在调出视口106之前选择光设施3-D模型,以在观察空间中显示选择的光设施3-D模型。
根据一些示例实施例,图6示出了与图4和图5所示的图像402一起显示在视口106上的四个照明设施3-D模型602-608。为了说明,用户可以从提供给用户的照明设施模型菜单502中选择四个照明设施3-D模型,如图5所示。用户可以从图5所示的照明设施模型菜单502中选择照明设施3-D模型602,并将模型602放置在修改图像402上的期望位置。例如,用户可以使用手指、触笔或鼠标来选择模型602并将其放置在期望的位置。用户可以以与模型602类似的方式选择其他3-D照明设施3-D模型604-608并将其放置在修改图像402上的期望位置,从而产生显示在图6所示的视口106中的图像610。用户可以从视口106移除模型602-608中的一个或多个模型,例如,通过拖动视口602的特定的一个或多个模型,或者通过受益于本公开的本领域普通技术人员可以想到的其他方式。
在一些示例实施例中,当用户将照明设施3-D模型604-608放置在修改图像402上的位置时,照明设施3-D模型602-608与目标区域302中的物理位置相关联,使得相对于目标区域302中的物理位置示出由所选照明设施模型602-608产生的照明模式。例如,AR设备100可以使用视口106的显示坐标来跟踪与修改图像402上的位置相对应的目标区域的物理位置。AR设备100可以跟踪AR设备100的倾斜角、取向、方向、位置、距离等中的一个或多个,以保持视口106与目标区域302的物理位置相关联。
在一些示例实施例中,图7A示出了目标区域302的图像702,该图像702覆盖有由所选照明设施3-D模型602-608和相关联的光度文件产生的照明模式。AR设备100执行照明设计AR应用,以处理每个选择的3-D模型602-608的光度数据,并生成覆盖在目标区域302的实时图像304上的照明模式和3-D模型602-608。在一些替代实施例中,例如本地或远程(例如,云)服务器的另一设备可以执行照明设计AR应用的一些功能,例如光度数据的处理,并将结果信息提供给AR设备100。
在一些示例实施例中,照明设计AR应用基于所选照明设施3-D模型602-608的光度简档(例如,IES),根据需要选择性地移除/改变应用于像素的变暗滤波器。为了说明,视口106的像素可以基于对应于所选照明设施3-D模型602-608的光度数据选择性地变亮。例如,在所选照明设施3-D模型602-608的照明分布区域中的视口106的像素可以与图4中所示的修改图像402相比而变亮。
在一些示例实施例中,由AR设备100确定的照明模式可以包括与可以是昏暗照明的区域706和708相比照明良好的区域704。例如,区域706、708可以主要由于来自所选照明设施3-D模型602-608产生的光的反射光而被照亮。为了说明,照明设计AR应用可以处理所选择的3-D模型602-608的光度数据,以确定可以被直接照亮和/或作为反射光的结果的区域。照明设计AR应用可以处理所选3-D模型602-608的光度数据,以确定目标区域302的实时图像304中检测或确定的表面/对象上的阴影的外观,从而产生逼真的照明模式。例如,AR设备100可以执行人工智能应用来确定目标区域中的对象和结构,例如,基于由AR设备100的相机观察到的目标区域的实时图像。例如,AR设备100可以识别反射表面、墙壁、家具等,并考虑移除/改变应用于视口106的像素的变暗滤波器的反射、阴影等。在一些示例实施例中,AR设备100还考虑目标区域中的照明条件,例如,基于由环境光传感器110感测的照明条件。例如,AR设备100可以使用目标区域中的照明条件来设置/调整用于移除/改变应用于视口106的像素的变暗滤波器的参数。
在一些示例实施例中,AR设备100可以使用与每个选择的照明设施3-D模型602-608相关联的光度数据来生成覆盖在目标区域的实时图像上的照明模式的照明显示模型,从而产生图7A所示的图像702。照明模式的显示模型(包括亮度等级、色温等)可以是多边形或其他类型的图像。在一些替代实施例中,AR设备100可以将指示所选择的照明设施3-D模型602-608的信息发送到另一处理设备,例如本地或云服务器,并且另一处理设备可以基于与相应的照明设施3-D模型602-608相关联的光度数据来生成显示模型(例如,多边形或另一图像)。AR设备100可以从另一个处理设备接收或检索生成的显示模型,用于在视口106上显示,其中显示模型覆盖在目标区域302的实时图像上。
在一些示例实施例中,显示模型可以是多边形,例如二维(2D)多边形、三维(3-D)多边形、2D和/或3-D多边形的组合等、或一种或多种其他类型的图像(例如图形图像等)。为了说明,图7A中显示的图像可以是AR设备100将照明显示模型覆盖在图6中所示的图像610上的结果,这有效地移除/改变了图5中所示的变暗滤波器。例如,AR设备100可以生成或检索多边形,该多边形具有与由与多个选择的照明设施3-D模型602-608相关联的光度数据文件所表示的照明模式相对应的显示参数。包含在光度数据文件中的信息(例如色温、亮度等级等)可以由多边形的显示参数来表示,并且视口106的像素可以基于这些参数来改变/设置。生成的多边形的不同点或部分可以与包含在光度数据文件中的不同的亮度级、色温值等相关联。AR设备100可以通过调整/设置视口106的像素来显示用多边形覆盖的目标区域的实时图像。例如,在视口106上生成的多边形的显示可以移除/改变在图5所示的设计阶段应用的变暗滤波器,产生图7A所示的图像。
在一些示例实施例中,AR设备100可以为所选择的照明设施3-D模型602-608的每一个生成或检索显示模型,例如多边形(例如,2D多边形、3-D多边形、2D和/或3-D多边形的组合、图形图像等)或(一个或多个)另一种类型的图像,并组合多个显示模型以生成表示组合照明模式的显示模型。例如,AR设备100可以组合具有对应于每个所选照明设施3-D模型602-608的光度数据的参数的多边形,以生成组合的多边形,该组合的多边形具有考虑了各个多边形的显示参数的显示参数。AR设备100可以从本地存储或例如云服务器的远程源检索各个多边形或其他类型的显示模型。
在一些示例实施例中,AR设备100可以在生成表示由所选照明设施3-D模型602-608产生的照明模式的显示模型时考虑目标区域中的照明条件。例如,AR设备100可以使用由环境光传感器110感测的照明条件以及每个选择的照明设施3-D模型602-608的光度数据来生成多边形的显示参数,该多边形显示在覆盖在目标区域302的实时图像上的视口106上。AR设备100可以识别如上所述的反射表面、墙壁、家具等,并在生成覆盖在实时图像上的多边形时考虑反射、阴影等。
如图7A所示,所选择的照明设施3-D模型602-608显示在目标区域302的实时图像中,使得用户能够评估当安装在目标区域302中时相应的照明设施或照明效果将是什么样子。使用AR设备100,用户(例如,照明设计者、所有者等)可以更有效地执行特定区域(例如,客厅、卧室、走廊、办公室、仓库、室外景观、停车场等)的照明设计,而不必安装实际的照明设施,同时最大限度地减少设计误差。因为所选择的照明设施模型602-608与如上所述的目标区域302的物理位置相关联,并且因为照明显示模型(例如,(一个或多个)多边形)与所选择的照明设施模型602-608相关联,所以用户可以持有AR设备100在目标区域302中移动,并且评估照明设施的放置以及在目标区域302的不同位置处产生的照明效果。当用户移动通过目标区域302并靠近目标区域302时,视口106上显示的照明模式的形状可以根据AR设备100的相机102可看到的目标区域的部分和视口106上显示的相应实时图像而改变。
如上所述,表示与一个或多个照明设施相关联的光度数据的显示模型可以是2D多边形、3-D多边形以及2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。通常,用作显示模型的多边形可以是2D多边形、3-D多边形、2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。
在一些示例实施例中,用户可以改变照明设施3-D模型602-608的外观(例如,颜色),而不改变与照明设施3-D模型602-608相关联的照明特性(例如,亮度等级、色温等)。例如,响应于用户输入(例如,点击或轻敲显示的照明设施3-D模型),AR设备100可以改变装饰环的颜色和/或显示的照明设施3-D模型的外壳的颜色,而不改变在视口106上显示的照明模式。例如,用户点击或轻敲显示的照明设施3-D模型可以导致AR设备100执行软件代码以按照预定顺序(例如,白色、蓝色、红色、白色、…)改变外壳的颜色。
在一些示例实施例中,用户可以使用AR设备100来评估目标区域302中相应照明设施的外观。例如,AR设备100可以在目标区域302的实时图像304中覆盖照明设施3-D模型602-608,以评估目标区域302中相应照明设施的外观,而无需安装照明设施。为了说明,在实时图像304如图3所示显示在视口106上之后,AR设备100可以响应于用户输入将照明设施3-D模型602-608覆盖在实时图像304上。例如,照明设施3-D模型菜单502可以与图像304一起显示在视口106上。用户可以在实时图像304上选择和放置照明设施3-D模型602-608和/或其他3-D模型。在一些示例实施例中,当AR设备100用于评估照明设施的物理外观时,与照明设施3-D模型602-608和其他3-D模型相关联的照明模式可以或可以不显示在视口106上。例如,可以省略与图4相关联的设计阶段以及照明模式的后续生成和/或显示。
如上所述,装饰环的颜色、装饰环的尺寸、装饰环或替代光学附件的类型、透镜类型、照明设施外壳的颜色、光设施的(一个或多个)替代子组件和/或所显示的照明设施3-D模型的其他美学方面可以改变,例如,通过轻敲或点击所显示的照明设施3-D模型。在一些替代实施例中,在显示与照明设施3-D模型相关联的照明模式之后,可以改变所显示的照明设施3-D模型(例如3-D模型602-608)的美学特征,例如,如图7A所示。
通常,由AR设备100执行的照明设计AR应用可以包括或依赖于AR应用执行的操作,例如ARKit、ARCore等。在一些替代实施例中,可以使用目标区域302的静止图像(捕获的图片)来代替实时图像。例如,包含足够信息的照片(例如AR设备100的倾斜角、GPS位置等)可以允许执行照明设计AR应用和/或人工智能应用的AR设备100从照片中确定3-D信息,并基于该信息实现照明设计。
在一些替代实施例中,另一个设备可以执行本文针对AR设备100描述的操作的一些操作。为了说明,例如本地或远程服务器的另一设备可以基于AR设备100提供的信息生成一个或多个显示模型。例如,AR设备100可以向生成(一个或多个)显示模型的另一个处理设备提供例如所选照明设施3-D模型602-608和/或相关光度数据的信息,并且AR设备100可以从另一个处理设备接收/检索所生成的(一个或多个)显示模型。
图7B示出了根据示例实施例的在图1A和1B的AR设备100的视口106上指示的亮度等级。在一些示例实施例中,例如,可以在视口106上显示亮度等级值,以基于所选择的照明设施3-D模型602-608来提供目标区域的不同位置处的明亮等级的数字表示。例如,如上所述生成的显示模型的不同点或区域(例如,多边形的不同点或区域)可以与亮度等级值相关联或以其他方式标记。为了说明,一些区域可以与较高的明亮等级(例如,5.5英尺烛光(FC))相关联,而其他区域可以与相对较暗的等级(例如,3.2 FC)相关联。当用户手持AR设备100在目标区域中移动时,基于用户相对于所选择的照明设施3-D模型602-608的位置,所显示的亮度等级值可以根据由AR设备100的相机观察到并显示在视口106上的目标区域的部分而改变。
图7C示出了根据示例实施例的照明设施700的3-D模型和照明模式,该照明模式包括基于与照明设施相关联的光度数据或照明数据的另一梯度的亮度等级。例如,照明设施700可以对应于图7A所示的照明设施602-608。与照明设施700相关联的光度数据可以被示出为传达照明分布形状、色温以及由亮度等级值指示的亮度等级,例如,在距照明设施700特定距离的表面处。虽然显示了特定表面的亮度等级值,但是光度数据可以包括不同距离处的亮度等级值。AR设备100可以使用包括照明分布形状、色温、亮度等级等的光度数据,以生成覆盖在视口106上显示的目标区域的实时图像上的显示模型。尽管多边形在本文中被描述为显示模型的示例,但是也可以同等地使用其他类型的显示模型,例如其他类型的图像。
图8A示出了根据示例实施例的显示在图1A和1B的AR设备100上的电子商务界面802。参考图1A-8A,包括在电子商务界面802中的信息可以基于上述照明设计阶段生成。为了说明,在一些示例实施例中,用户可以被给予购买对应于所选照明设施3-D模型602-608的照明设施的选项。例如,AR设备100可以执行AR应用以在视口106上显示网络链接,供用户点击或轻敲以购买对应于所选照明设施3-D模型602-608的照明设施。可替代地,当设计阶段完成和/或用户终止显示AR相关信息时,可以在单独的网络浏览器页面上或在单独的电子商务应用屏幕中向用户提供网络链接。其他购买选项(包括通过语音命令进行购买的选项等)也可以提供给用户。例如,照明设计AR应用可以包含另一个应用或与另一个应用接合,以提供购买选项以及基于用户的输入执行照明设施的购买。
在一些替代实施例中,电子商务界面802可以以不同于图8A所示的格式显示,而不脱离本公开的范围。在一些替代实施例中,在不脱离本公开的范围的情况下,可以在视口上显示其他用户输入图标和信息。尽管电子商务界面802在上文中针对图1A和1B的AR设备100进行了描述,但是该描述同样适用于图1C和1D的AR设备120、130。
图8B示出了根据示例实施例的显示在图1A和1B的增强现实设备100上的物料清单(BOM)生成输入界面806。在一些示例实施例中,用户可以使用BOM生成输入界面806来生成BOM(或BOM的采购订单),或者更一般地,生成由上述基于AR的设计产生的可购买产品的列表(在一些实施例中,包括安装或操作所需的任何附件或附加项目)。例如,在显示图7A所示的图像702之后,如图8B所示,可以在视口106中显示BOM生成页面。用户可以点击或轻敲BOM生成输入界面806,并且作为响应,AR设备100可以执行AR应用或另一个应用来生成包括例如标识信息(例如,型号、产品号等)的BOM,该标识信息对应于图7A所示的照明设施3-D模型602-608和/或用户添加的其他照明设施和设备(在一些实施例中,包括安装或操作所需的任何附件或附加项目)。图8B所示的BOM生成页面可以在显示图8A所示的电子商务界面802之前呈现在视口106上。例如,图8A所示的电子商务界面802可以在生成BOM之后显示在视口106上。
在一些示例实施例中,产品选单804也可以显示在视口106上。例如,产品选单804可以允许用户向BOM添加附加产品。产品选单804可以允许用户将具有或不具有集成IoT设备(例如,传感器、相机、扬声器、麦克风等)的照明设施、负载控制设备(例如继电器、开关、调光器等)、IoT设备(例如,独立连接的传感器、麦克风、扬声器等)、装饰件、接线盒、壁挂支架和其他类型的产品以及安装或操作所需的任何附件或附加物品(如线束、连接器、电缆、远程电源等)添加到生成的BOM中。如本文所使用的,IoT设备是指可以集成到光设施中的任何传感器和/或通信设备,或者可以是能够控制或以其他方式与位于IoT设备附近的光设施或其他设备通信或者向网络提供用于IoT设备附近的光设施或其他设备的通信的独立设备。可替代地或附加地,产品选单804可以允许用户在生成BOM之前添加额外的产品。为了说明,在对应于图7A或图7B的设计阶段之后,用户可以在生成BOM之前使用产品选单804添加其他产品(例如,负载控制设备等)。
在一些示例实施例中,产品选单804可以是下拉菜单、另一类型的用户界面(例如,列表)、到另一个页面的链接等。在一些示例实施例中,代替产品选单804或除了产品选单804之外,还可以呈现产品搜索界面。在一些替代实施例中,BOM生成输入界面806可以在不同的设计阶段显示在视口106上,例如在对应于图6-7C的设计阶段。在一些替代实施例中,BOM生成输入界面806可以显示在视口106的不同位置和/或可以以不同的格式显示或提供给用户,例如从下拉菜单中选择等。
图8C示出了根据示例实施例的显示在图1A和1B的增强现实设备100上的物料清单(BOM)808。参考图1-8B,在一些示例实施例中,响应于经由BOM生成输入界面806提供的用户输入,可以由AR设备100生成BOM 808。例如,用户可以使用显示在视口106上的BOM生成输入界面806,如图8B、8C所示,或者可以在其他设计阶段显示,例如对应于图7A和7B的设计阶段。
在一些示例实施例中,在生成和显示BOM 808之后,用户可以向生成的BOM 808添加额外的产品,例如具有或不具有集成IoT设备的照明设施、负载控制设备、IoT设备、装饰、接线盒、壁挂支架和其他类型的产品。例如,用户可以使用产品选单804向生成的BOM 808添加额外的产品,如以上参考图8B所述。
在一些示例实施例中,用户可以通过使用BOM验证输入界面812提供输入来请求BOM 808的验证。例如,点击或轻敲BOM验证输入界面812可以导致BOM 808被发送到与AR设备通信的技术支持人员、承包商、销售代表或自动验证系统,其可以确认BOM上所列项目的准确性、完整性或可用性。如受益于本公开的本领域普通技术人员容易理解的,AR设备100对BOM 808的传输可以通过执行AR应用和/或另一软件代码或应用来执行。可替代地或除了发送BOM 808之外,点击或轻敲BOM验证输入界面812可以发起与技术支持人员、承包商、销售代表等的聊天会话。
在一些示例实施例中,点击或轻敲BOM验证输入界面812可以发起AR设备100的操作以验证设计信息814,设计信息814可以包括BOM 808中包括的产品是否符合一个或多个照明或电气法规和/或指南。例如,照明或电气法规和/或指南可以是国际、国家和/或地方法规和指南。为了说明,照明或电气法规和/或指南可能涉及与特定空间相关的照明等级(例如,OSHA指南等)、照明设施待机功率和启动时间(例如,加利福尼亚州法规规范第24编等)、压力通风评级(如芝加哥市电气法规等),以及其他电气和照明要求和指南,例如欧盟标准中包括的电气和照明要求和指南。
在一些示例实施例中,一个或多个照明和/或电气法规和/或指南可以存储在存储器设备212或另一个存储器设备中。可替代地或附加地,响应于经由BOM验证输入界面812或另一个用户接口提供给AR设备100的用户输入,AR设备100可以从远程源检索或比较一个或多个照明和/或电气法规和/或指南以合规。例如,AR设备100可以基于用户提供的地理位置信息或者基于AR设备100使用GPS和/或其他方式确定的AR设备100的位置,检索相关的照明和/或电气法规和/或指南,或者比较关于这些指南的合规性。
在一些示例实施例中,AR设备100可以在视口106上显示其他设计信息814。例如,设计信息814可以包括指示BOM 808中的产品是否符合例如上述的一个或多个法规和/或指南的信息。AR设备100可以响应于使用BOM验证输入界面812提供的用户输入来显示设计信息814。可替代地或附加地,AR设备100可以响应于如上所述的BOM 808的生成来显示设计信息814。在一些示例实施例中,AR设备100或者经由与能够访问库存信息的云服务器的通信,可以显示BOM(例如,BOM 808)中的一个或多个产品是否可用于购买,或者一个或多个产品何时可用于购买或交付的估计。
在一些示例实施例中,设计信息814可以包括附加和/或替换产品的建议。例如,基于包含在BOM 808中的照明设施和IoT设备的数量以及照明设施和IoT设备的额定功率,设计信息814可以建议一个或多个负载控制设备(例如,继电器等)。作为另一个示例,设计信息814可以建议一个或多个替换照明设施,以满足照明等级指南和/或要求、基于占用的照明控制要求、压力通风评级要求、功率密度要求等。在一些示例实施例中,设计信息814可以基于包括在BOM 808中的照明设施和负载控制设备的数量来提供指示线规推荐的信息。用户可以使用产品选单804将产品添加到BOM 808中,或者替换BOM 808中包括的产品。
在一些示例实施例中,用户可以使用订单输入界面810来订购包括在BOM 808中的产品。例如,点击或轻敲订单输入界面810可以导致电子商务界面802或另一页面/界面显示在视口106上,用于执行对包括在BOM中的产品的购买/订购。
通常,AR设备可以执行AR应用中包括的软件代码,或者与AR应用接合以执行本文描述的操作。可替代地或附加地,AR设备100可以向另一设备(例如,云服务器)发送相关信息以执行操作中的一些操作。
在一些替代实施例中,在不脱离本公开的范围的情况下,图8C中所示的BOM 808、接口等可以以不同的格式、在不同的页面上等显示。在一些替代实施例中,在不脱离本公开的范围的情况下,可以省略图8C所示的一个或多个界面和信息。
图9-11示出了根据另一示例实施例的使用图1A-1D的AR设备100的照明设计阶段。尽管下面的描述一般是针对图1A和1B的AR设备100给出的,但是该描述同样适用于图1C和1D的AR设备120、130。在一些示例实施例中,图9示出了在包含了照明设计AR应用的AR设备100的视口106上显示的目标区域的实时图像902。图10示出了目标区域的修改图像1002以及照明设施3-D模型1004,其被显示以供用户选择。例如,如参考图4所述,用户可以向AR设备100提供输入(例如,经由输入区域108或经由视口106),以将变暗滤波器应用于视口106的像素,使得修改图像1002是实时图像902和视口106变暗的结果。从图10中可以看出,在应用变暗滤波器以允许用户将一个或多个所选择的照明设施3-D模型放置在相对于目标区域的实时图像902的期望位置之后,目标区域的实时图像902仍然对用户可见。
在一些示例实施例中,图11示出了图像1104,该图像1104包括目标区域的实时图像902,该实时图像902覆盖有与所选照明设施3-D模型1102和相关联的光度文件相关联或由其产生的照明模式。AR设备100执行照明设计AR应用,以处理所选3-D模型1102的光度数据,并生成照明模式,该照明模式与所选照明设施3-D模型1102一起覆盖在目标区域的实时图像902上。例如,AR设备100可以使用与所选照明设施3-D模型1102相关联的光度数据来生成表示照明模式的显示模型(例如,多边形或另一显示模型),并且所生成的显示模型可以显示在覆盖在目标区域的实时图像902上的视口106上。在一些替代实施例中,显示模型可以由AR设备100响应于照明设施3-D模型1102的选择而接收/检索。例如,AR设备100可以在从AR设备100接收到指示所选照明设施3-D模型1102的信息之后,从生成显示模型的另一设备(例如,本地或远程服务器)接收/检索表示照明模式的显示模型(例如,作为多边形或另一类型的显示模型)。
包含在光度数据中的例如色温、亮度等级等信息可以由显示模型的参数来表示,并且视口106的像素基于显示模型的参数来改变/设置。例如,多边形(或另一显示模型)的不同点或部分可以与包含在与所选照明设施3-D模型1102相关联的光度数据中的不同的亮度等级、色温值等相关联。AR设备100可以通过调整/设置视口106的像素以考虑多边形的参数来显示覆盖有多边形的目标区域的实时图像。
在一些示例实施例中,AR设备100可以使用与所选照明设施3-D模型1102相关联的光度数据以及目标区域中的照明条件来生成多边形(或另一显示模型),该多边形具有基于光度数据和照明条件两者的参数。例如,AR设备100可以使用由环境光传感器110感测的照明条件来生成显示模型的参数。在一些示例实施例中,AR设备100可以基于所选照明设施3-D模型1102的光度数据生成显示模型,并且基于感测到的照明条件修改显示模型的参数。
在一些示例实施例中,AR设备100可以执行人工智能应用,以例如基于目标区域的实时成像器来确定目标区域中的对象和结构。例如,AR设备100可以识别反射表面、墙壁、家具等,并且在生成覆盖在视口106上显示的实时图像上的显示模型时考虑反射、阴影等。
AR设备100执行照明设计AR应用,以选择性地移除/改变应用于视口106的像素的变暗滤波器,如以上参考图7所述。如图11所示,区域1106与可以是昏暗的区域1108和1110相比可以是明亮的。照明设计AR应用可以处理所选3-D模型1102的光度数据,以确定阴影的外观等,以产生逼真的照明模式。
如图11所示,所选择的照明设施3-D模型1102显示在目标区域的实时图像中,使得用户能够评估当安装在目标区域中时相应的照明设施将看起来如何。因此,例如照明设计者、所有者等的用户可以更有效地执行特定区域(例如,客厅、卧室、走廊等)的照明设计,而不必安装实际的照明设施,同时最大限度的减少设计误差。
如上所述,表示与一个或多个照明设施相关联的光度数据的显示模型可以是2D多边形、3-D多边形、2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。作为显示模型的示例的多边形可以是2D多边形、3-D多边形、2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。
在一些替代实施例中,另一个设备可以执行本文针对AR设备100描述的操作的一些操作。为了说明,例如本地或远程服务器的另一设备可以基于AR设备100提供的信息生成一个或多个显示模型。例如,AR设备100可以向生成(一个或多个)显示模型的另一个处理设备提供例如所选照明设施3-D模型602-608和/或相关光度数据的信息,并且AR设备100可以从另一个处理设备接收/检索所生成的(一个或多个)显示模型。
图12示出了根据示例实施例的图1的增强现实设备的照明特性选择器1202。在一些示例实施例中,照明特性选择器1202可以用于改变和/或选择来自3-D模型1102的光的色温或者甚至特定颜色(例如,波长)。例如,选择器1202可以用于从对应于存储或可用于AR设备100的照明设施3-D模型的离散色温值中进行选择。可替代地或附加地,选择器1202或另一个选择器可以用于改变和/或选择亮度等级、所选3-D模型1102的光输出模式等。在一些示例实施例中,例如,当3-D模型的外观不受变化影响时,改变来自所选3-D模型1102的光的特性可以有效地导致用另一个3-D模型替换所选3-D模型或者替换相关联的(一个或多个)光度文件。来自所选3-D模型1102的光的特性的改变/选择可以导致相应的改变被反映在显示在视口1104上的图像1104中。
图13A-13C示出了根据示例实施例的具有不同色温的图11和12的照明模式。图13A-13C所示的具有特定色温的照明模式可以由AR设备基于用户使用例如图12的照明特性选择器1202或另一选择装置对相应色温的选择来产生。例如,图13A中所示的2200 K的CCT可以对应于照明特性选择器1202的最底部位置,图13B中所示的4000 K的CCT可以对应于照明特性选择器1202的中间位置,并且图13C中所示的6500 K的CCT可以对应于照明特性选择器1202的最上部位置。为了说明,响应于由照明特性选择器1202指示的CCT选择,AR设备100可以执行代码来改变相关像素的颜色(以及根据需要改变明亮度)。例如,每个相关像素的子像素可以被调整以产生特定像素的期望颜色。在一些示例实施例中,AR设备100对视口106的像素应用变暗、变亮和/或颜色调整滤波器,以显示具有对应于由照明特性选择器1202指示的选择的CCT的照明模式。
在一些示例实施例中,照明特性选择器1202的特定位置可以与存储在AR设备100中或可由AR设备100检索的相应显示模型相关联。例如,每个模型可以是具有对应于特定光分布模式的形状的多边形,其中该多边形具有对应于CCT值的显示参数等。为了说明,AR设备100可以修改视口106的像素,以显示覆盖在目标区域的实时图像上的多边形(即,显示模型)。在一些示例实施例中,AR设备100可以基于由照明特性选择器1202指示的多边形的CCT来生成或检索多边形的CCT相关参数。在一些示例实施例中,AR设备100可以基于由照明特性选择器1202指示的CCT选择以及例如由设备100的环境光传感器110感测的目标区域中的照明条件来生成或修改多边形的参数。
在一些替代实施例中,图13A-13C所示的照明模式的每个色温可以通过从图10所示的3-D模型1004中选择照明设施3-D模型来产生,其中所选择的3-D模型与反映期望色温的光度文件相关联。
在一些示例实施例中,图11和12的照明模式也可以以与色温所描述的类似方式产生期望的亮度等级。为了说明,图11和12的照明模式也可以通过使用图12的选择器1202或另一种装置选择期望的亮度等级来产生期望的亮度等级。例如,照明特性选择器1202的顶部位置可以对应于第一亮度等级(例如,1300流明),照明特性选择器1202的中间位置可以对应于第二亮度等级(例如,1100流明),并且照明特性选择器1202的底部位置可以对应于第三亮度等级(例如,900流明)。为了说明,响应于由照明特性选择器1202指示的亮度等级选择,AR设备100可以执行代码来改变相关像素的颜色(以及根据需要改变明亮度)。在一些示例实施例中,AR设备100将变暗或变亮滤波器应用于视口106的像素,以显示具有对应于由照明特性选择器1202指示的选择的亮度等级的照明模式。
在一些示例实施例中,照明特性选择器1202的特定位置可以与存储在AR设备100中或可由AR设备100检索的相应显示模型相关联。例如,每个显示模型可以是具有对应于特定光分布模式的形状的多边形,其中该多边形具有对应于亮度等级等的显示参数。为了说明,AR设备100可以修改视口106的像素,以显示覆盖在目标区域的实时图像上的多边形(即,显示模型)。在一些示例实施例中,AR设备100可以基于由照明特性选择器1202指示的亮度等级来生成或检索多边形的亮度等级相关参数。在一些示例实施例中,AR设备100可以基于由照明特性选择器1202指示的亮度等级选择以及例如由设备100的环境光传感器110感测的目标区域中的照明条件来生成或修改多边形的参数。
可替代地,可以通过选择与包括期望亮度强度的光度文件相关联的3-D模型来实现期望亮度强度。
图14示出了根据示例实施例的AR设备100产生的替代的照明模式。替代的照明模式可以由照明设施3-D模型1402的选择产生,该照明设施3-D模型1402产生与图11的3-D模型1102相比不同的照明模式。
在一些示例实施例中,来自照明设施3-D模型的光的色温、亮度强度、照明模式和/或另一特性可以在显示如图11(也在图7A中)所示的初始照明模式之后改变。
图15示出了根据示例实施例的使用图1A和1B的增强现实设备产生的图像的图像帧1500截屏。这些图像也可以显示在图1C和1D的AR设备120、130的屏幕上。在一些示例实施例中,从每行图像的左到右,在顶部行中,最左边的图像显示用于激活上述AR应用的图标(LiAR)。顶部行中的下一个图像显示了一个菜单,该菜单可以用于例如选择要放置在AR设备的相机可观察区域的实时图像中的照明设施模型。顶部行的右两幅图像和中间一行的所有图像显示了不同照明设施的3-D模型,这些照明设施覆盖在由AR设备的相机观察到的物理区域(例如,办公室走廊)的图像上。
底部行的图像显示了不同室外照明设施的3-D模型,这些模型覆盖在由AR设备的相机观察到的物理区域(例如,人行道)的图像上。一般而言,AR设备100、120、130可以执行AR照明设计应用,以将室内和室外照明设施的一个或多个3-D模型覆盖在物理空间(例如,室内空间,例如客厅、厨房、走廊、大厅等和室外空间,例如,停车库、露天停车场、人行道、体育场、礼堂等)的图像上,以在安装照明设施之前对照明设施的外观以及照明设施的照明效果进行现实评估。
图16示出了根据示例实施例的具有集成传感器1606的照明设施的3-D模型1602。在一些示例实施例中,除了照明设计之外或代替照明设计,AR设备100、120、130可以用于IoT设计(例如,在空间中放置IoT设备)。AR设备100、120、130可以用于以与上面关于AR设备100和照明设计描述的类似方式来执行IoT设计。例如,具有和不具有集成IoT设备(例如,传感器1606)和独立IoT设备的照明设施的3-D模型的菜单1604可以显示或以其他方式提供在AR设备100的视口106上以及AR设备120和130的相应显示屏上。每个3-D模型可以与参数数据文件相关联,该参数数据文件包括指示传感器1606(例如,运动传感器、二氧化碳传感器、一氧化碳传感器、烟雾传感器等)的检测范围/角度/视场1608的数据。用户可以选择3-D模型,例如具有传感器1606的照明设施的3-D模型1602,并将3-D模型放置在目标区域的实时图像上的期望位置上,如以上参考图3-11所述。AR设备100、120、130可以执行AR应用,以与上述关于照明设计的类似方式,在目标区域的实时图像上覆盖对应于传感器1606的检测范围/角度的显示模型(例如,多边形或另一显示模型)。例如,AR设备100、120、130可以生成显示模型或检索与所选3-D模型1602相关联的现有显示模型。在一些示例实施例中,参数数据文件可以包括可以用于生成显示模型的其他信息,而不脱离本公开的范围。
图17示出了根据示例实施例的具有集成相机1706的照明设施的3-D模型。在一些示例实施例中,可以在AR设备100的视口106上以及AR设备120和130的相应显示屏上显示或以其他方式提供具有和不具有集成的IoT设备(例如,相机1706)和独立的IoT设备的照明设施的3-D模型的菜单1704。每个3-D模型可以与参数数据文件相关联,该参数数据文件包括指示相机1706的视场1708的数据。用户可以选择3-D模型,例如具有集成相机1706的照明设施的3-D模型1702,并将3-D模型放置在目标区域的实时图像上的期望位置上,如以上参考图3-11所述。AR设备100、120、130可以执行AR应用,以与上述关于照明设计的类似方式,在目标区域的实时图像上覆盖对应于相机1706的视场1708的显示模型(例如,多边形或另一显示模型)。例如,AR设备100、120、130可以生成显示模型或检索与所选3-D模型相关联的现有显示模型1702。在一些示例实施例中,参数数据文件可以包括可以用于生成显示模型的其他信息,而不脱离本公开的范围。
图18示出了根据示例实施例的具有集成扬声器或扬声器阵列1806的照明设施的3-D模型。在一些示例实施例中,具有和不具有集成的IoT设备(例如,扬声器或扬声器阵列1806)和独立的IoT设备的照明设施的3-D模型的菜单1804可以显示或以其他方式提供在AR设备100的视口106上以及AR设备120和130的相应显示屏上。每个3-D模型可以与参数数据文件相关联,该参数数据文件包括指示可以由扬声器或扬声器阵列或扬声器阵列1806产生的声音的范围和/或方向性1808的数据,例如,在扬声器或扬声器阵列1806的最大额定值和/或在扬声器或扬声器阵列1806的最大额定值的不同百分比。用户可以选择3-D模型,例如具有集成扬声器或扬声器阵列1806的照明设施的3-D模型1802,并将3-D模型放置在目标区域的实时图像上的期望位置上,如以上参考图3-11所述。AR设备100、120、130可以执行AR应用,以与上面关于照明设计中的光度数据描述的类似方式,在目标区域的实时图像上覆盖与扬声器或扬声器阵列1806的范围1808相对应的显示模型(例如,多边形或另一显示模型)。例如,AR设备100、120、130可以生成显示模型或检索与所选3-D模型1802相关联的现有显示模型。在一些示例实施例中,参数数据文件可以包括可以用于生成显示模型的其他信息,而不脱离本公开的范围。
图19示出了根据示例实施例的具有集成麦克风或麦克风阵列1906的照明设施的3-D模型。在一些示例实施例中,具有和不具有集成IoT设备(例如,麦克风或麦克风阵列1906)和独立IoT设备的照明设施的3-D模型的菜单1904可以显示或以其他方式提供在AR设备100的视口106上以及AR设备120和130的相应显示屏上。每个3-D模型可以与参数数据文件相关联,该参数数据文件包括指示以特定分贝或不同分贝产生的声音可以被麦克风或麦克风阵列1906检测到的范围和/或方向性的数据1908。用户可以选择3-D模型,例如具有集成麦克风或麦克风阵列1906的照明设施的3-D模型1902,并将3-D模型放置在目标区域的实时图像上的期望位置,如以上参考图3-11所述。
AR设备100、120、130可以执行AR应用,以与上面关于照明设计中的光度数据描述的类似方式,在目标区域的实时图像上覆盖与麦克风或麦克风阵列1906的范围1908相对应的显示模型(例如,多边形或另一显示模型)。例如,AR设备100、120、130可以生成显示模型或检索与所选3-D模型1702相关联的现有显示模型。在一些示例实施例中,参数数据文件可以包括可以用于生成显示模型的其他信息,而不脱离本公开的范围。
在一些示例实施例中,AR设备100、120、130和AR应用可以用于执行照明以及IoT设计,其中在AR设备的显示屏上向用户呈现具有和不具有IoT设备的照明设施的3-D模型。一般来说,本文提供的关于AR设备100、120、130之一的操作适用于AR设备100、120、130中的其他设备。
在一些替代实施例中,可以使用包括照明信息的替代梯度的参数数据文件来代替上述光度数据文件。本文提供的关于光度数据和光度数据文件的描述可以同样地适用于具有照明数据的替代梯度的参数数据和参数数据文件。
图20和21示出了根据示例实施例的使用图1A的增强现实设备100来仿真传感器控制的照明行为。在一些示例实施例中,可以使用图1C和1D的AR设备120、130来代替AR设备100。参考图1A-21,在一些示例实施例中,AR设备100可以以与上面参考图3和图9描述的类似方式显示目标区域的实时图像2006,例如停车场或车库或室内空间。AR设备100可以显示一个或多个3-D模型,例如照明设施的3-D模型2002,其中一个或多个IoT设备被示为IoT设备2004。例如,3-D模型2002可以对应于图16所示的3-D模型1602或图16所示的3-D模型1702。
在一些示例实施例中,IoT设备2004可以具有操作范围2008。例如,IoT设备2004可以是例如运动传感器的传感器。为了说明,IoT设备2004的操作范围2008可以是运动传感器的检测范围、角度或视场。作为另一个示例,IoT设备2004可以是相机,其中IoT设备2004的操作范围2008可以是相机的视场。
在一些示例实施例中,由3-D模型2002表示的照明设施的一些操作可以依赖于照明设施的一个或多个IoT设备,或者可以由照明设施的一个或多个IoT设备控制。为了说明,在包括包含IoT设备2004的3-D模型2002的一个或多个3-D模型显示在视口1006上之后,携带AR设备的用户可以朝向实时图像2006和IoT设备2004移动(即,朝向3-D模型2002)。当用户到达IoT设备2004的操作范围2008(其可以或可以不显示在视口106中)时,照明模式2010可以由AR设备100显示。响应于用户进入或在IoT设备2004的操作范围2008内,照明模式2010的显示仿真具有一个或多个IoT设备的照明设施的行为,该照明设施由3-D模型2002表示,其对人(或由IoT设备检测到的汽车或其他对象)进入或在一个或多个IoT设备的检测或感测区内作出响应。
在一些示例实施例中,响应于用户持有AR设备100移出IoT设备的操作范围2008,可以从视口106移除照明模式2010。例如,如果用户返回到目标物理区域中的原始位置,则显示在视口106上的图像可以类似于图20所示的图像。
通过在不安装照明设施和IoT设备的情况下仿真照明设施的行为,用户可以获得期望的结果,确认需要物理安装的期望操作,和/或避免一些设计误差。例如,可以通过响应于IoT设备仿真照明设施的行为来确定与照明设施集成在一起或在照明设施外部的IoT设备的更精确的位置和/或取向。
在一些替代实施例中,IoT设备2004可以在由3-D模型2002表示的照明设施的外部。在一些示例实施例中,可以以类似的方式仿真多个照明设施响应于一个或多个IoT设备的行为。在一些示例实施例中,照明模式2010可以类似于图3或图9所示的照明模式。在一些示例实施例中,响应于AR设备进入或离开与(一个或多个)IoT设备的操作特性相关联的仿真范围或模式,被控制或与(一个或多个)IoT设备通信的设备(不是光设施,例如自动门、窗帘、风扇、恒温器、显示器或其他可控设备)的操作的类似仿真可以显示在AR设备上。
图22示出了根据示例实施例的基于增强现实的照明和IoT设计的方法2200。参考图1A-22,在一些示例实施例中,方法2200包括在步骤2202,由增强现实设备(例如,AR设备100、120、130)在AR设备的显示屏上显示目标物理区域的实时图像。例如,AR设备100可以显示由相机102观察到的目标物理区域302的实时图像304。
在步骤2204,方法2200可以包括响应于用户输入,由增强现实设备在显示屏上显示照明设施3-D模型,其中照明设施3-D模型覆盖在目标物理区域的实时图像上。例如,3-D模型602和其他3-D模型可以覆盖在实时图像304上。为了说明,照明设施3-D模型可以在变暗滤波器已经被应用于实时图像304之前或之后被覆盖在实时图像304上,如参考图4所描述的。作为另一个示例,一个或多个照明设施3-D模型可以覆盖在图9所示的实时图像902上。
在步骤2206,方法2200可以包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的照明模式,其中照明模式至少基于与照明设施3-D模型相关联的光度数据来生成。例如,图7A中所示的包括照明模式的图像702可以由AR设备100通过将照明模式覆盖在目标物理区域302的实时图像304上来显示。AR设备100、120、130或另一设备可以至少从如上所述的与照明设施3-D模型相关联的光度数据生成照明模式。
在一些示例实施例中,方法2200可以包括在显示屏上显示照明设施3-D模型之前使显示屏变暗,如参考图4和10所述。例如,目标物理区域的实时图像可以在显示屏变暗之后保持可见,以允许在实时图像304中的期望位置放置照明设施3-D模型。在一些替代实施例中,当例如没有执行照明模式的评估时,可以省略使显示屏变暗。例如,照明设计可以关注目标区域中的(一个或多个)照明设施(或光设施子组件的一个或多个,例如装饰件、光学器件或附件)的美学特征,而不是照明模式。
在一些示例实施例中,方法2200可以包括改变与显示在显示屏上的照明模式相关联的色温。色温可以响应于用户输入而改变。例如,照明特性选择器1202可以用于改变和/或选择色温,如参照图12-13C所述。在一些替代实施例中,用另一个3-D模型替换显示的3-D模型可以产生不同的色温。
在一些示例实施例中,方法2200可以包括改变与显示在显示屏上的照明模式相关联的亮度等级。亮度等级可以响应于用户输入而改变。例如,如参照图12-13C所述,照明特性选择器1202可以用于改变和/或选择亮度等级。在一些替代实施例中,用另一个3-D模型替换显示的3-D模型可以产生不同的亮度等级。
在一些示例实施例中,方法2200可以包括由增强现实设备显示亮度等级值,该亮度等级值指示与覆盖在目标物理区域的实时图像上的照明模式相关联的亮度等级,例如,如关于参考图7B所述。方法220还可以包括由增强现实设备响应于用户输入在显示屏上显示一个或多个其他照明设施3-D模型,例如,如参考图6所述。在步骤2204,一个或多个照明设施3-D模型可以以与3-D模型相似的方式覆盖在目标物理区域的实时图像上。在一些替代实施例中,在使显示屏变暗之前或之后,可以将一个或多个其他照明设施3-D模型添加到显示在显示屏(例如,显示屏106)上的实时图像(例如,实时图像304、902)。可替代地,可以省略显示屏的变暗。
在一些替代实施例中,方法2200的一个或多个步骤可以被省略或者可以以与上述不同的顺序执行。尽管方法2200的一些步骤是针对一个或多个图像或图形描述的,但是这些步骤可以适用于其他图像和图形,而不脱离本公开的范围。尽管方法2200的一些步骤是针对AR设备100描述的,但是这些步骤可以由包括AR设备120和130的其他AR设备来执行,而不脱离本公开的范围。通常,方法2200的步骤可以由AR设备100、120、130来执行。例如,AR设备的控制器(例如,控制器202)可以执行软件代码来执行方法2200的步骤。
图23示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法2300。参考图1A-23,在一些示例实施例中,方法2300包括在步骤2302,由增强现实设备(例如,AR设备100、120、130)在AR设备的显示屏上显示目标物理区域的实时图像。例如,AR设备100可以显示由相机102观察到的目标物理区域302的实时图像304。
在步骤2304,方法2300可以包括响应于用户输入,由增强现实设备在显示屏上显示具有一个或多个IoT设备的照明设施的3-D模型,其中3-D模型覆盖在目标物理区域的实时图像上。例如,3-D模型602可以对应于具有一个或多个集成IoT设备(或者可替代地,一个或多个独立IoT设备)的照明设施,并且3-D模型602和其他类似的3-D模型可以覆盖在图3所示的实时图像304上。如参考图4所述,在将变暗滤波器应用于实时图像304之前或之后,可以将3-D模型602覆盖在实时图像304上。作为另一个示例,具有一个或多个IoT设备的照明设施的3-D模型可以覆盖在图9所示的实时图像902上。
在步骤2306,方法2300可以包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的模式,其中该模式对应于与3-D模型相关联的参数数据。例如,该模式可以对应于与集成于照明设施的(一个或多个)IoT设备相关联的一个或多个操作特性,该照明设施对应于3-D模型。在一些示例实施例中,如上所述的照明模式,例如,关于图7A和11,也可以覆盖在显示屏上显示的实时图像上。
为了举例说明,一个或多个IoT设备可以包括一个或多个传感器,并且覆盖在实时图像上的模式可以显示一个或多个传感器的检测范围、角度和/或视场。例如,显示图16中所示的检测范围/角度1608的模式可以以与上述照明模式或亮度等级类似的方式覆盖在实时图像304或902上。具有一个或多个IoT设备的照明设施的3-D模型可以与参数数据文件相关联,该参数数据文件包括指示一个或多个传感器的检测范围、角度和/或视场的数据。
作为另一个示例,一个或多个IoT设备可以包括一个或多个相机,并且覆盖在实时图像上的模式可以显示一个或多个相机的视场。例如,显示图17中所示的相机1706的视场1708的模式可以以与上述照明模式或亮度等级类似的方式覆盖在实时图像304或902上。具有一个或多个IoT设备的照明设施的3-D模型可以与参数数据文件相关联,该参数数据文件包括指示一个或多个相机的视场的数据。
作为另一个示例,一个或多个IoT设备可以包括一个或多个扬声器,并且覆盖在实时图像上的模式可以显示由一个或多个扬声器产生的声音的范围和/或方向性,例如,以特定的分贝(也可以显示一个或多个分贝值)产生的声音。例如,显示图18中所示的扬声器1806的范围和/或方向性1808的模式可以以与上述照明模式或亮度等级类似的方式覆盖在实时图像304或902上。具有一个或多个IoT设备的照明设施的3-D模型可以与参数数据文件相关联,该参数数据文件包括指示由一个或多个扬声器以一个或多个分贝产生的声音的范围和/或方向性的数据。
作为另一示例,一个或多个IoT设备可以包括一个或多个麦克风,并且覆盖在实时图像上的模式可以例如以特定分贝(也可以显示一个或多个分贝值)显示一个或多个麦克风的声音检测范围和/或方向性。例如,显示图19中所示的麦克风1906的声音检测范围和方向性1908的模式可以以与上述照明模式或亮度等级类似的方式覆盖在实时图像304或902上。具有一个或多个IoT设备的照明设施的3-D模型可以与参数数据文件相关联,该参数数据文件包括指示一个或多个麦克风的声音检测范围和/或方向性的数据。
在一些示例实施例中,如上所述的照明模式,例如,关于图7A和11,也可以覆盖在显示屏上显示的实时图像上。
在一些示例实施例中,方法2300的一个或多个步骤可以使用独立IoT设备的3-D模型来执行。在一些示例实施例中,方法2300的一个或多个步骤可以作为方法2200的一个或多个步骤来执行,而不脱离本公开的范围。在一些替代实施例中,方法2300的一个或多个步骤可以被省略或者可以以与上述不同的顺序执行。尽管方法2300的一些步骤是针对一个或多个图像或图形描述的,但是这些步骤可以适用于其他图像和图形,而不脱离本公开的范围。通常,方法2300的步骤可以由AR设备100、120、130来执行。例如,AR设备的控制器(例如,控制器202)可以执行软件代码来执行方法2300的步骤。
图24示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法2400。参考图1A-24,在一些示例实施例中,方法2400包括在步骤2402,由增强现实设备(例如,AR设备100、120、130)在AR设备的显示屏上显示目标物理区域的实时图像。例如,AR设备100可以显示由相机102观察到的目标物理区域302的实时图像304。作为另一示例,AR设备100可以显示由相机102观察到的目标物理区域的实时图像902。
在步骤2404,方法2400可以包括响应于用户输入,由增强现实设备在显示屏上显示照明设施3-D模型,其中照明设施3-D模型覆盖在目标物理区域的实时图像上。例如,3-D模型602可以对应于具有或不具有一个或多个集成IoT设备的照明设施,并且3-D模型602和其他类似的3-D模型可以覆盖在图3所示的实时图像304上。作为另一个示例,具有或不具有一个或多个IoT设备的照明设施的3-D模型可以覆盖在图9所示的实时图像902上。
在步骤2406,方法2400可以包括由增强现实设备生成包括对应于照明设施3-D模型的照明设施的BOM(或采购订单)。例如,AR设备100可以生成图8C所示的BOM 808。为了说明,AR设备100可以响应于提供给AR设备100的用户输入,例如经由BOM生成输入界面806或另一输入接口,从生成BOM 808的远程设备(例如,云服务器)生成或检索BOM 808。可替代地,如受益于本公开的本领域普通技术人员可以理解的,可以在完成照明和IoT设计过程时生成BOM,该设计过程可以用几种方式之一来指示。
例如,3-D模型602和其他3-D模型可以覆盖在实时图像304上。为了说明,照明设施3-D模型可以在变暗滤波器已经被应用于实时图像304之前或之后被覆盖在实时图像304上,如参考图4所描述的。作为另一个示例,一个或多个照明设施3-D模型可以覆盖在图9所示的实时图像902上。
在一些示例实施例中,方法2400可以包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的照明模式,例如,如关于方法2200所描述的。在一些示例实施例中,方法2400可以包括由增强现实设备在显示屏(例如,视口106)上显示产品选单(例如,产品选单804和/或用于搜索产品的搜索栏),以供用户将一个或多个产品添加到BOM(例如BOM 808)。
在一些示例实施例中,方法2400可以包括由增强现实设备显示建议将一个或多个其他照明产品添加到BOM(例如,BOM 808)的消息(例如,设计信息814)。在一些示例实施例中,方法2400可以包括通过增强现实设备或经由与云服务器的通信来确定BOM(例如,BOM808)中的一个或多个产品是否可用于购买,或者确定一个或多个产品何时可用于购买或交付的估计。在一些示例实施例中,方法2400可以包括通过增强现实设备或经由与云服务器的通信来确定BOM(例如,BOM 808)中的一个或多个产品是否符合电气或照明法规或指南(例如,ICC、OSHA、加利福尼亚州法规规范第24编和/或其他法规或标准)。在一些示例实施例中,方法2400可以包括由增强现实设备显示指示BOM中的一个或多个产品是否符合电气或照明法规或指南的消息(例如,设计信息814)。所显示的信息(例如,设计信息814)还可以包括由AR设备显示的另一消息,该消息建议一个或多个其他照明产品作为对包括在BOM中的一个或多个产品的替换。在一些示例实施例中,方法2400还可以包括显示消息,该消息指示在BOM中列出的一个或多个照明设施是否提供具有符合电气或照明法规或指南的照明等级的灯。例如,该消息可以包括在显示在视口106上的设计信息814中。
在一些示例实施例中,方法2400的一个或多个步骤可以作为方法2200和2300的一个或多个步骤来执行,而不脱离本公开的范围。在一些替代实施例中,方法2400的一个或多个步骤可以被省略或者可以以与上述不同的顺序执行。尽管方法2400的一些步骤是针对一个或多个图像或图形描述的,但是这些步骤可以适用于其他图像和图形,而不脱离本公开的范围。通常,方法2400的步骤可以由AR设备100、120、130来执行。例如,AR设备的控制器(例如,控制器202)可以执行软件代码来执行方法2400的步骤。
图25示出了根据另一示例实施例的基于增强现实的照明和IoT设计的方法。参考图1A-25,在一些示例实施例中,方法2500包括在步骤2502,由增强现实设备(例如,AR设备100、120、130)在AR设备的显示屏上显示目标物理区域的实时图像。例如,AR设备100可以显示由相机102观察到的目标物理区域302的实时图像304。作为另一示例,AR设备100可以显示由相机102观察到的目标物理区域的实时图像902。
在步骤2504,方法2500可以包括响应于用户输入,由增强现实设备在显示屏上显示具有一个或多个IoT设备的照明设施的3-D模型,其中3-D模型覆盖在目标物理区域的实时图像上。例如,3-D模型602可以对应于具有或不具有一个或多个集成的IoT设备的照明设施(或由一个或多个IoT设备控制或与之通信的其他设备),并且3-D模型602和其他类似的3-D模型可以覆盖在图3所示的实时图像304上。作为另一个示例,具有或不具有一个或多个IoT设备的照明设施的3-D模型可以覆盖在图9所示的实时图像902上。
在步骤2506,方法2500可以包括响应于增强现实设备在一个或多个IoT设备的操作范围内移动,由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的照明模式。例如,照明模式可以类似于图7A和11中所示的照明模式,或者可以旨在仅示出3-D模型正在发射类似于图21中所示的发射光的光。可替代地,照明模式可以具有与图7A、11和21所示不同的外观,而不脱离本公开的范围。在一些示例实施例中,方法2500可以包括,在显示光模式之前,响应于增强现实设备在一个或多个IoT设备的操作范围内移动,在显示屏上显示覆盖在目标物理区域的实时图像上的IoT设备模式。例如,IoT设备模式可以对应于一个或多个IoT设备的操作范围2008(例如,范围、角度、视场等)。
在一些示例实施例中,方法2500可以包括由增强现实设备在显示屏上显示覆盖在目标物理区域的实时图像上的IoT设备模式,例如,如图21所示。例如,一个或多个IoT设备可以包括一个或多个运动传感器,其中一个或多个IoT设备的操作范围是一个或多个运动传感器的检测范围,例如图16中所示的传感器1606的检测范围/角度/视场1608或者图20中所示的一个或多个IoT设备2004(例如一个或多个传感器)的操作范围2008(例如检测范围)。作为另一个示例,一个或多个IoT设备可以包括一个或多个相机,其中一个或多个IoT设备的操作范围是一个或多个相机的视场,例如图17所示的相机1706的视场1708或者图20所示的一个或多个IoT设备2004(例如一个或多个相机)的操作范围2008(例如视场)。
在一些示例实施例中,方法2500包括响应于AR设备移出一个或多个IoT设备的操作范围,从显示屏移除覆盖的照明模式。例如,当携带AR设备100的人移动到一个或多个IoT设备(例如,一个或多个运动传感器和/或相机)的操作范围2008之外时,图21中所示的光模式可以被移除,使得当AR设备100返回到与图20中相同的位置时,在AR设备100上显示的图像看起来类似于图20中所示的图像。
在一些示例性实施例中,方法2500的一个或多个步骤可以被执行以响应于AR设备进入或离开与IoT设备的操作特性相关联的仿真范围或模式,来仿真(一个或多个)IoT设备被控制或与之通信的设备(其不是光设施,例如自动门、窗帘、风扇、恒温器、显示器或其他可控设备)的操作。在一些示例实施例中,方法2500的一个或多个步骤可以作为本文描述的其他方法的一个或多个步骤来执行,而不脱离本公开的范围。在一些替代实施例中,方法2500的一个或多个步骤可以被省略或者可以以与上述不同的顺序执行。尽管方法2500的一些步骤是针对一个或多个图像或图形描述的,但是这些步骤可以适用于其他图像和图形,而不脱离本公开的范围。通常,方法2500的步骤可以由AR设备100、120、130来执行。例如,AR设备的控制器(例如,控制器202)可以执行软件代码来执行方法2500的步骤。
在以上描述中,表示与一个或多个照明设施相关联的光度数据或其他参数数据或与一个或多个IoT设备相关联的参数数据的显示模型可以是2D多边形、3-D多边形、2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。作为显示模型的示例的多边形可以是2D多边形、3-D多边形、2D和/或3-D多边形的组合、(一个或多个)图形图像、(一个或多个)另一种类型的图像等。
在一些替代实施例中,另一个设备可以执行本文关于AR设备100描述的一些操作。为了说明,例如本地或远程服务器的另一设备可以基于AR设备100提供的信息生成一个或多个显示模型。例如,AR设备100可以向生成(一个或多个)显示模型的另一个处理设备提供信息,例如指示所选择的照明设施3-D模型的信息,和/或相关的光度数据或其他参数数据,并且AR设备100可以从其他处理设备接收/检索所生成的(一个或多个)显示模型。
虽然本文已经详细描述了特定的实施例,但是这些描述是示例性的。本文描述的示例实施例的特征是代表性的,并且在替代实施例中,可以添加或省略某些特征、元素和/或步骤。此外,在不脱离所附权利要求的精神和范围的情况下,本领域技术人员可以对本文描述的示例性实施例的各方面进行修改,权利要求的范围将符合最广泛的解释,从而涵盖修改和等同结构。
Claims (15)
1.一种基于增强现实的照明设计方法,包括:
由增强现实设备在显示屏上显示目标物理区域的实时图像;
响应于用户输入,由所述增强现实设备在所述显示屏上显示照明设施3-D模型,其中所述照明设施3-D模型覆盖在所述目标物理区域的所述实时图像上;和
由所述增强现实设备在所述显示屏上显示覆盖在所述目标物理区域的所述实时图像上的照明模式,其中所述照明模式至少基于与所述照明设施3-D模型相关联的光度数据来生成。
2.根据权利要求1所述的方法,还包括在所述显示屏上显示所述照明设施3-D模型之前使所述显示屏变暗,其中在所述显示屏变暗之后,所述目标物理区域的所述实时图像保持可见。
3.根据权利要求1所述的方法,还包括响应于用户输入,改变与显示在所述显示屏上的所述照明模式相关联的色温。
4.根据权利要求1所述的方法,还包括响应于用户输入,改变与显示在所述显示屏上的所述照明模式相关联的亮度等级。
5.根据权利要求1所述的方法,其中显示在所述显示屏上的所述照明模式考虑了光反射。
6.根据权利要求1所述的方法,其中显示在所述显示屏上的所述照明模式包括在所述目标物理区域的所述实时图像中的对象上形成的阴影。
7.根据权利要求1所述的方法,还包括由所述增强现实设备或由另一设备至少从与所述照明设施3-D模型相关联的光度数据生成所述照明模式。
8.根据权利要求1所述的方法,其中,显示在所述显示屏上的所述照明模式考虑了所述目标物理区域中的环境光。
9.根据权利要求1所述的方法,还包括由所述增强现实设备显示亮度等级值,所述亮度等级值指示与覆盖在所述目标物理区域的所述实时图像上的所述照明模式相关联的亮度等级。
10.根据权利要求1所述的方法,其中当所述增强现实设备相对于所述目标物理区域中的位置移动时,所述照明设施3-D模型保持与所述位置相关联。
11.根据权利要求1所述的方法,还包括响应于第二用户输入,由所述增强现实设备在所述显示屏上显示第二照明设施3-D模型,其中所述第二照明设施3-D模型覆盖在所述目标物理区域的所述实时图像上。
12.根据权利要求11所述的方法,其中所述照明模式进一步基于至少与所述第二照明设施3-D模型相关联的光度数据来生成。
13.一种增强现实设备,包括:
相机,用于捕获目标物理区域的实时图像;
显示屏;和
控制器,被配置为执行软件代码以:
在所述显示屏上显示所述目标物理区域的实时图像;
响应于用户输入,在所述显示屏上显示照明设施3-D模型,其中所述照明设施3-D模型覆盖在所述目标物理区域的所述实时图像上;和
在所述显示屏上显示照明模式,其中所述照明模式覆盖在所述目标物理区域的所述实时图像上,其中所述照明模式至少基于与所述照明设施3-D模型相关联的光度数据来生成。
14.根据权利要求13所述的设备,还包括响应于用户输入,改变与显示在所述显示屏上的所述照明模式相关联的亮度等级。
15.根据权利要求13所述的设备,还包括由所述增强现实设备显示亮度等级值,所述亮度等级值指示与覆盖在所述目标物理区域的所述实时图像上的所述照明模式相关联的亮度等级。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762608361P | 2017-12-20 | 2017-12-20 | |
US62/608361 | 2017-12-20 | ||
US15/971,623 US10726463B2 (en) | 2017-12-20 | 2018-05-04 | Lighting and internet of things design using augmented reality |
US15/971623 | 2018-05-04 | ||
PCT/EP2018/025323 WO2019120621A1 (en) | 2017-12-20 | 2018-12-18 | Lighting and internet of things design using augmented reality |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111713181A true CN111713181A (zh) | 2020-09-25 |
CN111713181B CN111713181B (zh) | 2023-10-17 |
Family
ID=66816245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880089939.6A Active CN111713181B (zh) | 2017-12-20 | 2018-12-18 | 使用增强现实的照明和物联网设计 |
Country Status (4)
Country | Link |
---|---|
US (5) | US11232502B2 (zh) |
EP (1) | EP3729915A1 (zh) |
CN (1) | CN111713181B (zh) |
WO (1) | WO2019120621A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023134743A1 (zh) * | 2022-01-13 | 2023-07-20 | 达闼机器人股份有限公司 | 调节智能灯光设备的方法、机器人、电子设备、存储介质及计算机程序 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10091303B1 (en) * | 2016-06-12 | 2018-10-02 | Apple Inc. | Using in-home location awareness |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
US11494158B2 (en) * | 2018-05-31 | 2022-11-08 | Shure Acquisition Holdings, Inc. | Augmented reality microphone pick-up pattern visualization |
US11494985B2 (en) * | 2018-06-04 | 2022-11-08 | Timothy Coddington | System and method for mapping an interior space |
US11022802B2 (en) * | 2018-09-28 | 2021-06-01 | Apple Inc. | Dynamic ambient lighting control |
US10945190B2 (en) | 2019-01-04 | 2021-03-09 | Apple Inc. | Predictive routing based on microlocation |
US11958183B2 (en) | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
WO2021224262A2 (en) * | 2020-05-07 | 2021-11-11 | Signify Holding B.V. | Augmented reality based design |
EP4157371A1 (en) * | 2020-05-28 | 2023-04-05 | Signify Holding B.V. | An augmented reality device for determining disinfection levels caused by lighting device and a method thereof |
US11985748B2 (en) | 2020-06-04 | 2024-05-14 | Signify Holding B.V. | Method of configuring a plurality of parameters of a lighting device |
WO2022066399A1 (en) * | 2020-09-24 | 2022-03-31 | Sterling Labs Llc | Diffused light rendering of a virtual light source in a 3d environment |
CN114444632B (zh) * | 2022-01-27 | 2024-05-07 | 中铁第四勘察设计院集团有限公司 | 一种轨道交通待检零部件检修可视化物料防错方法及系统 |
WO2023148513A1 (en) | 2022-02-04 | 2023-08-10 | SKIRA d.o.o. | A computer-implemented method for optimizing lighting of indoor and outdoor spaces |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681811A (zh) * | 2011-03-10 | 2012-09-19 | 微软公司 | 照片表示视图的基于主题的增强 |
EP2709427A2 (en) * | 2012-09-13 | 2014-03-19 | Panasonic Corporation | Lighting system |
WO2014150430A1 (en) * | 2013-03-14 | 2014-09-25 | Microsoft Corporation | Presenting object models in augmented reality images |
US20160180016A1 (en) * | 2014-09-23 | 2016-06-23 | Crestron Electronics, Inc. | System and method for modeling a lighting control system |
WO2016206997A1 (en) * | 2015-06-23 | 2016-12-29 | Philips Lighting Holding B.V. | Augmented reality device for visualizing luminaire fixtures |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5821937A (en) * | 1996-02-23 | 1998-10-13 | Netsuite Development, L.P. | Computer method for updating a network design |
US20020010734A1 (en) | 2000-02-03 | 2002-01-24 | Ebersole John Franklin | Internetworked augmented reality system and method |
US6980697B1 (en) | 2001-02-01 | 2005-12-27 | At&T Corp. | Digitally-generated lighting for video conferencing applications |
US20020138316A1 (en) * | 2001-03-23 | 2002-09-26 | Katz Steven Bruce | Value chain intelligence system and methods |
US6734640B2 (en) * | 2002-07-11 | 2004-05-11 | International Rectifier Corporation | System and method for electronic ballast design |
US7103434B2 (en) * | 2003-10-14 | 2006-09-05 | Chernyak Alex H | PLM-supportive CAD-CAM tool for interoperative electrical and mechanical design for hardware electrical systems |
US7251569B2 (en) * | 2004-01-26 | 2007-07-31 | Synapsis Enterprise Llc | Method and apparatus for determining material breakdown and product compliance |
JP4434890B2 (ja) * | 2004-09-06 | 2010-03-17 | キヤノン株式会社 | 画像合成方法及び装置 |
US7802200B1 (en) * | 2006-03-29 | 2010-09-21 | Amazon Technologies, Inc. | Detecting inconsistencies and incompatibilities of selected items |
JP4804256B2 (ja) | 2006-07-27 | 2011-11-02 | キヤノン株式会社 | 情報処理方法 |
US20080154749A1 (en) * | 2006-12-23 | 2008-06-26 | Agile Software Corporation | Integrated System and Method for Improved Product Substance Compliance |
US8405657B2 (en) | 2008-09-09 | 2013-03-26 | Autodesk, Inc. | Animatable graphics lighting analysis |
US9787885B2 (en) * | 2011-11-14 | 2017-10-10 | Tseng-Lu Chien | Light device has built-in digital data system for record image, sound |
US20100265311A1 (en) * | 2009-04-16 | 2010-10-21 | J. C. Penney Corporation, Inc. | Apparatus, systems, and methods for a smart fixture |
US9111326B1 (en) | 2010-12-21 | 2015-08-18 | Rawles Llc | Designation of zones of interest within an augmented reality environment |
CN102819526A (zh) * | 2011-06-07 | 2012-12-12 | 鸿富锦精密工业(深圳)有限公司 | 电子元件bom表模块化处理系统及方法 |
JP5145444B2 (ja) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
WO2013014582A1 (en) | 2011-07-22 | 2013-01-31 | Koninklijke Philips Electronics N.V. | Control unit and method for lighting control |
US20130061142A1 (en) | 2011-09-07 | 2013-03-07 | Solarcity Corporation | Systems and Methods for Mobile Design Automation |
US20130080293A1 (en) * | 2011-09-28 | 2013-03-28 | Maung (Bob) A. Khin | Manufacturing supply chain management |
US9498720B2 (en) * | 2011-09-30 | 2016-11-22 | Microsoft Technology Licensing, Llc | Sharing games using personal audio/visual apparatus |
AU2012332206B2 (en) | 2011-11-03 | 2016-02-04 | Osram Sylvania Inc. | Methods, systems, and apparatus for intelligent lighting |
US9495936B1 (en) | 2012-09-21 | 2016-11-15 | Amazon Technologies, Inc. | Image correction based on projection surface color |
US20140304030A1 (en) * | 2013-04-03 | 2014-10-09 | Andre Bryan | Supply chain architecture |
AU2016202659A1 (en) * | 2015-04-28 | 2016-11-17 | Red Marker Pty Ltd | Device, process and system for risk mitigation |
US10345483B2 (en) | 2015-06-10 | 2019-07-09 | Escaype | Observer-based meteorology and image identification |
US20170061445A1 (en) * | 2015-08-25 | 2017-03-02 | Tata Consultancy Services Limited | Generation of proof explanation in regulatory compliance management |
US10049500B2 (en) * | 2015-09-22 | 2018-08-14 | 3D Product Imaging Inc. | Augmented reality e-commerce for home improvement |
WO2018200685A2 (en) * | 2017-04-27 | 2018-11-01 | Ecosense Lighting Inc. | Methods and systems for an automated design, fulfillment, deployment and operation platform for lighting installations |
US20180132841A1 (en) | 2016-11-11 | 2018-05-17 | Arthrex, Inc. | Soft anchor with tubular sheath having flared ends |
US20190340306A1 (en) * | 2017-04-27 | 2019-11-07 | Ecosense Lighting Inc. | Methods and systems for an automated design, fulfillment, deployment and operation platform for lighting installations |
US10210664B1 (en) | 2017-05-03 | 2019-02-19 | A9.Com, Inc. | Capture and apply light information for augmented reality |
CA3005051A1 (en) * | 2017-05-16 | 2018-11-16 | Michael J. Schuster | Augmented reality task identification and assistance in construction, remodeling, and manufacturing |
WO2019055703A2 (en) * | 2017-09-13 | 2019-03-21 | Magical Technologies, Llc | VIRTUAL DISPLAY PANEL, FACILITATION OF COLLABORATION, AND MESSAGE OBJECTS FOR FACILITATING COMMUNICATION SESSIONS IN AN INCREASED REALITY ENVIRONMENT |
US10438404B2 (en) * | 2017-10-13 | 2019-10-08 | Disney Enterprises, Inc. | Ambient light characterization |
-
2018
- 2018-05-04 US US15/971,819 patent/US11232502B2/en active Active
- 2018-05-04 US US15/971,623 patent/US10726463B2/en active Active
- 2018-12-18 CN CN201880089939.6A patent/CN111713181B/zh active Active
- 2018-12-18 WO PCT/EP2018/025323 patent/WO2019120621A1/en unknown
- 2018-12-18 EP EP18830718.5A patent/EP3729915A1/en active Pending
-
2020
- 2020-06-30 US US16/916,526 patent/US11410217B2/en active Active
-
2022
- 2022-08-02 US US17/878,989 patent/US11847677B2/en active Active
-
2023
- 2023-10-23 US US18/382,917 patent/US20240070740A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681811A (zh) * | 2011-03-10 | 2012-09-19 | 微软公司 | 照片表示视图的基于主题的增强 |
EP2709427A2 (en) * | 2012-09-13 | 2014-03-19 | Panasonic Corporation | Lighting system |
WO2014150430A1 (en) * | 2013-03-14 | 2014-09-25 | Microsoft Corporation | Presenting object models in augmented reality images |
US20160180016A1 (en) * | 2014-09-23 | 2016-06-23 | Crestron Electronics, Inc. | System and method for modeling a lighting control system |
WO2016206997A1 (en) * | 2015-06-23 | 2016-12-29 | Philips Lighting Holding B.V. | Augmented reality device for visualizing luminaire fixtures |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023134743A1 (zh) * | 2022-01-13 | 2023-07-20 | 达闼机器人股份有限公司 | 调节智能灯光设备的方法、机器人、电子设备、存储介质及计算机程序 |
Also Published As
Publication number | Publication date |
---|---|
US20200334728A1 (en) | 2020-10-22 |
EP3729915A1 (en) | 2020-10-28 |
US20190188913A1 (en) | 2019-06-20 |
US11410217B2 (en) | 2022-08-09 |
CN111713181B (zh) | 2023-10-17 |
US11847677B2 (en) | 2023-12-19 |
WO2019120621A1 (en) | 2019-06-27 |
US11232502B2 (en) | 2022-01-25 |
US10726463B2 (en) | 2020-07-28 |
US20240070740A1 (en) | 2024-02-29 |
US20190188766A1 (en) | 2019-06-20 |
US20230015451A1 (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111713181B (zh) | 使用增强现实的照明和物联网设计 | |
US10937245B2 (en) | Lighting and internet of things design using augmented reality | |
US10789775B2 (en) | Method for controlling an object | |
KR101808439B1 (ko) | Vr 모델하우스 제공방법 | |
RU2549185C2 (ru) | Способ и реализованное компьютером устройство для управления осветительной инфраструктурой | |
US11270366B2 (en) | Graphical user interface for creating building product literature | |
KR101943618B1 (ko) | 인테리어 시뮬레이션 시스템 | |
US11410390B2 (en) | Augmented reality device for visualizing luminaire fixtures | |
US20160330819A1 (en) | Multiple light fixture commissioning systems and methods | |
JP2022105083A (ja) | 三次元空間の眺めを表示させる方法、装置、及び記憶媒体 | |
WO2010070517A1 (en) | System for simulation of a lighting distribution | |
WO2016203770A1 (ja) | 画像処理システム、方法、及びプログラム | |
CN116847508B (zh) | 基于场景融合的仿真立体地图的智慧照明控制方法及系统 | |
KR20160072863A (ko) | 신개념 3d max 모델하우스 | |
US20200257831A1 (en) | Led lighting simulation system | |
AU2020304463A1 (en) | Method and apparatus for displaying item information in current space, and medium | |
US20180114354A1 (en) | Image processing system, method, and program | |
JP7489019B2 (ja) | 情報処理装置および情報処理方法 | |
AU2021107245A4 (en) | A Room and Area Visualisation System | |
WO2021224262A2 (en) | Augmented reality based design | |
EP3948793B1 (en) | Determining lighting design preferences in an augmented and/or virtual reality environment | |
JP7404745B2 (ja) | 情報処理装置および情報処理方法 | |
JP6693069B2 (ja) | 画像表示装置、方法、およびプログラム | |
KR101807436B1 (ko) | 다기능 브리핑 서비스 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |