CN111902849B - 在图像上叠加传感器及其检测区域的虚拟表示 - Google Patents

在图像上叠加传感器及其检测区域的虚拟表示 Download PDF

Info

Publication number
CN111902849B
CN111902849B CN201980024551.2A CN201980024551A CN111902849B CN 111902849 B CN111902849 B CN 111902849B CN 201980024551 A CN201980024551 A CN 201980024551A CN 111902849 B CN111902849 B CN 111902849B
Authority
CN
China
Prior art keywords
sensor
image
processor
electronic device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980024551.2A
Other languages
English (en)
Other versions
CN111902849A (zh
Inventor
B·W·梅尔贝克
D·V·R·恩格伦
J·R·范赫吕沃
B·M·范德斯勒伊斯
A·H·波尔格曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Publication of CN111902849A publication Critical patent/CN111902849A/zh
Application granted granted Critical
Publication of CN111902849B publication Critical patent/CN111902849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Alarm Systems (AREA)
  • Telephone Function (AREA)

Abstract

电子设备(1)被配置为获得利用相机捕获的图像,确定传感器的位置,基于为传感器确定的位置确定传感器相对于图像的检测区域,并且显示图像、传感器的虚拟表示(54)和叠加在图像上的检测区域的虚拟表示(55)。电子设备被配置为允许用户指定或适配传感器(17)的至少一个属性。该至少一个属性包括传感器的位置,并且可以进一步包括传感器的取向和/或设置。

Description

在图像上叠加传感器及其检测区域的虚拟表示
技术领域
本发明涉及一种用于在图像上叠加检测区域的电子设备。
本发明进一步涉及一种在图像上叠加检测区域的方法。
本发明还涉及一种使得计算机系统能够执行这样的方法的计算机程序产品。
背景技术
智能照明设备可以连接到传感器,因此当检测到环境中的某个事件时,灯触发。例如,飞利浦秀照明系统可以连接到运动传感器,使得当人们进入房间时,灯接通。当考虑购买这样的传感器时的一个主要问题是它是否将正确地工作,并且当安装这样的传感器时的一个主要问题是如何使它正确地工作。
美国专利2015/0077566公开了一种方法,在该方法中,配备有PIR传感器和相机的PIR检测器记录其上叠加了PIR传感器的范围和信号强度的相机图像。这允许安全系统的安装者通过行走穿过PIR传感器前面的区域来执行行走测试。之后,安装者可以在计算机上回放记录的视频,以确定需要如何调整PIR传感器阈值,以便覆盖应该在其中检测到入侵的位置。
该方法的一个缺点是,它仅可以在有限数量的情形下被使用,并且仅可以与能够记录相机图像的检测器一起被使用。
发明内容
本发明的第一目的是提供一种电子设备,该电子设备便于在宽范围的情形下安装传感器。
本发明的第二目的是提供一种方法,该方法便于在宽范围的情形下安装传感器。
在本发明的第一方面中,该电子设备包括至少一个处理器,该处理器被配置为获得利用相机捕获的图像,确定传感器的位置,基于为所述传感器确定的所述位置确定所述传感器相对于所述图像的检测区域,并且显示所述图像以及叠加在所述图像上的所述传感器和所述检测区域的虚拟表示,其中所述至少一个处理器被配置为允许用户指定或适配所述传感器的至少一个属性,所述至少一个属性包括所述位置。例如,电子设备可以是移动电话、平板设备、增强现实眼镜或增强现实耳机。
所述至少一个处理器可以被配置为获得利用所述相机捕获的另外图像,基于所述至少一个适配属性确定所述传感器相对于所述另外图像的另外检测区域,并且显示所述另外图像以及叠加在所述另外图像上的所述传感器和所述另外检测区域的虚拟表示。例如,检测区域可以对应于视场和/或检测范围。检测区域可以取决于传感器设置,例如灵敏度设置。
发明人已经认识到,通过将传感器及其检测区域的虚拟表示叠加在相机图像上,优选实时或接近实时地叠加,该增强现实视图可以用于确定传感器是否能够正确地工作和/或如何可以使传感器正确地工作。传感器可能尚未被安装(并且甚至可能尚未被购买),或者传感器可能已经被安装,但可能安装在不适当或未达最佳的位置。
由于不需要在与所表示的传感器相同的位置存在真实的传感器,因此本发明可以在宽范围的情形下使用,例如在购买传感器之前、安装传感器之前或重新定位传感器之前,并且传感器不需要结合捕获和传输图像的相机。例如,电子设备用户可以允许用户指定他希望安装的传感器的潜在位置,或者电子设备可以确定传感器的当前或建议位置,并允许用户适配该位置。
所述至少一个处理器可以被配置为模拟对所述传感器的动态输入,并且显示叠加在所述图像上的所述动态输入的动态虚拟表示。这允许用户测试输入触发传感器所处的时刻。例如,传感器可以包括运动检测器和/或热检测器。
所述传感器可以包括存在传感器,并且所述至少一个处理器可以被配置为显示虚拟角色行走穿过由所述图像捕获的物理空间的动画,作为所述动态虚拟表示。这允许用户测试输入在什么时刻触发存在传感器。
所述至少一个处理器可以被配置为模拟所述动态输入,所述动态输入使得所述传感器生成传感器输出,并且基于所述传感器输出来控制虚拟照明设备和/或安装的照明设备。这允许用户看到哪个照明设备响应于输入而被触发以及在什么时刻被触发。
所述至少一个处理器可以被配置为模拟使得所述传感器生成传感器输出的所述动态输入,模拟由所述虚拟照明设备响应于所述传感器输出而生成的光效果,所述光效果是基于所述虚拟照明设备的位置和取向而生成的,并且显示叠加在所述图像上的所述模拟光效果。这允许用户看到哪个虚拟照明设备响应于增强现实视图中的输入而被触发。
所述传感器的所述至少一个属性可以进一步包括所述传感器的取向。如果传感器不是全向传感器,则这是有益的。如果传感器不是全向传感器,则优选地基于为传感器确定的位置和取向二者相对于图像来确定检测区域。
所述传感器的所述至少一个属性可以进一步包括所述传感器的一个或多个设置。通过允许用户指定或适配传感器的一个或多个设置、例如其灵敏度,用户可以检查是否可以利用这些一个或多个设置获得期望的覆盖范围。
所述至少一个处理器可以被配置为允许所述用户利用所述一个或多个设置来配置所述传感器。如果找到满意的设置,则这允许用户利用这些设置配置传感器,如果传感器已经安装则立即配置,或者如果没有安装,则稍后(例如,在安装传感器时)配置。
所述至少一个处理器可以被配置为允许所述用户指定和/或适配所述图像中所述传感器的所述位置。通过允许用户在图像中而不是在例如模型中指定和/或适配位置,可以立即显示指定或适配位置的效果。
所述至少一个处理器可以被配置为允许所述用户在建筑物的至少部分的模型中指定所述传感器的所述位置,所述图像捕获所述建筑物的所述至少部分的至少一部分。通过允许用户在这样的模型中而不是在例如图像本身中指定和/或适配位置,对于用户而言可以更容易地在3D空间中定位传感器,即,当以某种方式移动传感器的虚拟表示时,知道虚拟表示的x、y和z坐标中的哪一个将改变。
所述至少一个处理器可以被配置为基于与建筑物的至少一部分相关的信息来确定所述传感器的所述位置作为所述传感器的建议位置,所述图像捕获所述建筑物的所述至少部分的至少一部分。通过自动确定和建议传感器的某个位置,对于用户而言确定满意或最佳位置变得更容易且花费更少时间。
所述至少一个处理器可以被配置为基于与建筑物的至少一部分相关的信息来确定所述传感器的一个或多个建议设置,所述图像捕获所述建筑物的所述至少部分的至少一部分,并且基于所述一个或多个建议设置来确定所述传感器相对于所述图像的所述检测区域。通过自动确定和建议传感器的某些设置,对于用户而言确定满意或最佳设置变得更容易且花费更少时间。
在本发明的第二方面中,该方法包括获得利用相机捕获的图像,确定传感器的位置,基于为所述传感器确定的所述位置确定所述传感器相对于所述图像的检测区域,以及显示所述图像和叠加在所述图像上的所述传感器和所述检测区域的虚拟表示,其中提供用户界面以允许用户指定或适配所述传感器的至少一个属性,所述至少一个属性包括所述位置。该方法可以在硬件和/或软件中实现。
此外,提供了一种用于执行本文中描述的方法的计算机程序,以及存储该计算机程序的非暂时性计算机可读存储介质。例如,计算机程序可以由现有设备下载或上传到现有设备,或者在制造这些系统时被存储。
一种非暂时性计算机可读存储介质存储至少一个软件代码部分,该软件代码部分当由计算机执行或处理时被配置为执行可执行操作,该可执行操作包括:获得利用相机捕获的图像,确定传感器的位置和取向,基于为所述传感器确定的所述位置和所述取向来确定所述传感器相对于所述图像的检测区域,以及显示所述图像和叠加在所述图像上的所述传感器和所述检测区域的虚拟表示,其中提供用户界面以允许用户指定或适配所述传感器的至少一个属性,所述至少一个属性包括所述位置和所述取向中的至少一个。
如本领域技术人员将领会的,本发明的方面可以体现为设备、方法或计算机程序产品。因此,本发明的方面可以采取完全硬件实施例、完全软件实施例(包括固件、常驻软件、微代码等)、或结合软件和硬件方面的实施例的形式,其全部可以在本文中通常称为“电路”、“模块”或“系统”。本公开中描述的功能可以实现为由计算机的处理器/微处理器执行的算法。此外,本发明的各方面可以采取体现在一个或多个计算机可读介质中的计算机程序产品的形式,在该一个或多个计算机可读介质上体现(例如存储)有计算机可读程序代码。
可以利用一个或多个计算机可读介质的任何组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以例如是但不限于,电子、磁、光、电磁、红外或半导体系统、装置或设备,或前述的任何合适的组合。计算机可读存储介质的更具体的示例可以包括但不限于以下:具有一条或多条导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪速存储器)、光纤、便携式光盘只读存储器(CD-ROM)、光存储设备、磁存储设备或前述的任何合适的组合。在本发明的上下文中,计算机可读存储介质可以是能够包含或存储由指令执行系统、装置或设备使用或与之结合使用的程序的任何有形介质。
计算机可读信号介质可以包括其中体现有计算机可读程序代码的传播数据信号,例如在基带中或作为载波的部分。这样的传播信号可以采取多种形式中的任何一种,其包括但不限于电磁、光学或其任何合适的组合。计算机可读信号介质可以是任何计算机可读介质,其不是计算机可读存储介质,并且可以传送、传播或传输由指令执行系统、装置或设备使用或与之结合使用的程序。
体现在计算机可读介质上的程序代码可以使用任何适当的介质来传输,所述任何适当的介质包括但不限于无线、有线、光纤、线缆、RF等、或前述的任何合适的组合。用于执行本发明各方面的操作的计算机程序代码可以用一种或多种编程语言的任何组合来编写,所述一种或多种编程语言包括诸如Java(TM)、Smalltalk、C++等之类的面向对象编程语言以及诸如“C”编程语言或类似编程语言之类的常规过程编程语言。程序代码可以完全在用户的计算机上、部分在用户的计算机上作为独立的软件包来执行,部分在用户的计算机上并且部分在远程计算机上执行,或者完全在远程计算机或服务器上执行。在后一种场景下,远程计算机可以通过任何类型的网络连接到用户的计算机,所述任何类型的网络包括局域网(LAN)或广域网(WAN),或者可以被使得去往外部计算机(例如,通过使用因特网服务提供商的因特网)的连接。
下面参考根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图说明和/或框图来描述本发明的各方面。将理解,流程图说明和/或框图的每个框以及流程图说明和/或框图中的框的组合可以由计算机程序指令来实现。这些计算机程序指令可以被提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器、特别是微处理器或中央处理单元(CPU),以产生机器,使得经由计算机的处理器、其他可编程数据处理装置或其他设备执行的指令创建用于实现流程图和/或框图的一个或多个框中指定的功能/动作的装置。
这些计算机程序指令也可以存储在计算机可读介质中,该计算机可读介质可以引导计算机、其他可编程数据处理装置或其他设备以特定方式运行,使得存储在计算机可读介质中的指令产生一件制品,该件制品包括实现流程图和/或框图的一个或多个框中指定的功能/动作的指令。
计算机程序指令也可以加载到计算机、其他可编程数据处理装置或其他设备上,以使得在计算机、其他可编程装置或其他设备上执行一系列操作步骤,从而产生计算机实现的过程,使得在计算机或其他可编程装置上执行的指令提供用于实现流程图和/或框图的一个或多个框中指定的功能/动作的过程。
各图中的流程图和框图说明了根据本发明的各种实施例的设备、方法和计算机程序产品的可能实现的架构、功能和操作。在这点上,流程图或框图中的每个框可以表示模块、代码段或代码部分,其包括用于实现(一个或多个)指定逻辑功能的一个或多个可执行指令。还应当注意,在一些替代实现方式中,框中标注的功能可以不按各图中标注的次序发生。例如,取决于所涉及的功能,连续示出的两个框实际上可以基本上同时执行、或者这些框有时可以以相反的次序执行。还将注意到,框图和/或流程图说明的每个框以及框图和/或流程图说明中的框的组合可以由执行指定功能或动作的基于专用硬件的系统或者专用硬件和计算机指令的组合来实现。
附图说明
参考附图,本发明的这些和其他方面通过示例是清楚的,并且将被进一步阐明,其中:
图1是本发明的电子设备的实施例的框图;
图2是本发明方法的实施例的流程图;
图3示出了相机图像的示例;
图4示出了示例图像,其中传感器和检测区域的虚拟表示叠加在图3的图像上;
图5示出了其中虚拟角色叠加在图4的图像上的示例图像;
图6示出了其中图4中表示的传感器的位置已经被适配的示例图像;
图7示出了其中图6中表示的传感器的设置已经被适配的示例图像;
图8示出了其中虚拟角色叠加在图7的图像上的示例图像;和
图9是用于执行本发明方法的示例性数据处理系统的框图。
附图中对应的元件用相同的附图标记标示。
具体实施方式
图1示出了本发明的电子设备的实施例。平板设备1包括处理器3、相机4、显示器5、收发器6和存储装置7。平板设备1连接到无线接入点11。例如飞利浦秀桥的桥13也例如经由以太网链路连接到无线接入点11。灯51和52(例如飞利浦秀灯)运动传感器17(例如飞利浦秀运动传感器)例如经由Zigbee与桥13通信。
处理器3被配置为获得利用相机4捕获的图像,并确定传感器17的位置和取向。传感器17可能已经安装或者可能尚未在那个时间点安装。处理器3进一步被配置为基于为传感器17确定的位置和取向来确定传感器17相对于图像的检测区域,并显示图像以及叠加在图像上的传感器和检测区域的虚拟表示。处理器3被配置为允许用户指定或适配传感器17的至少一个属性。该至少一个属性包括位置和取向中的至少一个。
处理器3进一步被配置为获得利用相机4捕获的另外图像,基于至少一个适配的属性确定传感器17相对于该另外图像的另外检测区域,并且显示该另外图像以及叠加在该另外图像上的该传感器和该另外检测区域的虚拟表示。在图2的描述中进一步解释了平板设备1的操作。
在图1中所示的平板设备1的实施例中,平板设备1包括一个处理器3。在替代实施例中,平板设备1包括多个处理器。平板设备1的处理器3可以是通用处理器(例如来自基于高通或ARM公司的处理器)或专用处理器。例如,平板设备1的处理器3可以运行安卓或iOS操作系统。存储装置7可以包括一个或多个存储器单元。例如,存储装置7可以包括一个或多个硬盘和/或固态存储器。例如,存储装置7可以用于存储操作系统、应用和应用数据。
例如,收发器6可以使用一种或多种无线通信技术来与因特网接入点11通信。在替代实施例中,使用多个收发器来代替单个收发器。在图1中所示的实施例中,接收器和发射器已经被组合成收发器6。在替代实施例中,使用一个或多个单独的接收器组件和一个或多个单独的发射器组件。例如,显示器5可以包括LCD或OLED面板。显示器5可以是触摸屏。例如,相机4可以包括CMOS传感器。平板设备1可以包括平板设备典型的其他组件,诸如电池和电源连接器。
在图1的实施例中,本发明的电子设备是平板设备。在不同的实施例中,例如,本发明的电子设备可以是移动电话、增强现实眼镜或PC。在图1的实施例中,相机4是电子设备的部分。在不同的实施例中,相机4可以在电子设备的外部。例如,相机4可以是用户的(其他)移动或可佩戴设备的部分——例如智能电话或增强现实眼镜,或者是固定的相机——例如(固定)智能TV的相机、智能助手的相机(例如亚马逊回声秀)或安全相机。可以使用多个相机来代替单个相机。在替代实施例中,传感器可以是另一种传感器,例如像麦克风一样的全向传感器。如果传感器是全向传感器,则可能没有必要允许用户指定和/或适配取向。本发明可以使用运行在一个或多个处理器上的计算机程序来实现。
图2中示出了本发明方法的实施例。步骤31包括获得利用相机捕获的图像。步骤33包括确定传感器的位置和取向。步骤35包括基于为传感器确定的位置和取向来确定传感器相对于图像的检测区域。步骤37包括显示图像和叠加在图像上的传感器和检测区域的虚拟表示。
步骤41、步骤43或步骤45可以在步骤37之后执行。替代地,步骤31可以在步骤37之后重复。如果再次执行步骤31,则步骤31包括获得利用相机捕获的另外图像。步骤35然后包括基于至少一个适配的属性确定传感器相对于另外图像的另外检测区域,并且步骤37然后包括显示该另外图像以及叠加在该另外图像上的传感器和另外检测区域的虚拟表示。步骤31-37可以根据期望/需要那样频繁地被重复。
步骤41包括接收用户输入以适配传感器配置设置。步骤43包括模拟至传感器的动态输入。步骤45包括存储适配的传感器配置设置。步骤31可以在步骤41、43和45之后重复。提供用户界面,用于允许用户指定或适配传感器的至少一个属性。该至少一个属性包括位置和取向中的至少一个。可以在步骤33中指定或适配传感器的位置和取向。现在更详细地描述步骤31-45。
步骤31:
在步骤31中捕获的图像可以是2D图像或3D图像。如果增强现实用户界面是在移动电话或平板设备的显示器上实现的,那么信息通常将叠加在2D图像上。如果增强现实用户界面是在增强现实眼镜上实现的,那么信息通常将叠加在3D图像上。为了实现增强现实,捕获的图像需要实时或接近实时地(即在它们被捕获之后不久)被显示。即使图像仅可以以2D显示,但是捕捉3D图像仍然是有益的。例如,可以从这些捕获的3D图像构建建筑信息模型(BIM)。BIM可以范围从仅具有在适当位置中的墙/门/窗的空房间到还包含如家具和安装的照明设备/传感器之类的更多细节的图像。该BIM可以在后续步骤中使用。
步骤33:
在步骤33中,为已经安装的传感器或尚未安装的传感器确定位置和取向。如果传感器已经被安装,则可以自动确定该传感器的位置和取向。替代地,可以允许用户指定传感器的位置和取向,或者该方法可以牵涉到建议传感器的位置和取向,其可以不同于实际位置和/或实际取向。如果传感器尚未被安装,并且甚至可能还尚未被购买,则可以允许用户指定传感器的位置和取向,或者该方法可以牵涉到建议传感器的位置和取向。在这两种情况下,传感器优选地被添加到图像捕获其至少一部分的建筑物的至少部分的3D模型(例如BIM)。
可以允许用户指定传感器在图像中的位置和取向,例如通过轻敲正在呈现图像的触摸显示器上的位置,或者在3D模型的2D表示(例如平面图)或3D表示中。其他传感器和/或照明设备的位置和取向可以以类似的方式确定或指定,可能使用附加的触摸手势,如拖动、轻弹、捏、展开和旋转。已经安装和将要安装的设备二者可以被添加到建筑物的3D模型。
可以有可能的是使用对象检测方法从(一个或多个)捕获的图像中自动检测这些设备及其位置(以及可能它们的取向)。这可以以各种方式完成,例如,移动设备上的app可以使用用于模式识别(或其他技术)的本地处理来标识设备类别(例如,灯条、灯泡或运动传感器)。另一种选项是从照明系统中检索关于传感器和照明设备的位置的信息。例如,这些设备的自动定位可以通过RF信号强度分析(信标)或使用可见光通信(VLC)来完成。
(一个或多个)传感器的取向通常是重要的,因为传感器通常具有有限的视角,并且因此检测区域取决于该取向。通过在传感器设备中集成罗盘(相对于地球磁场的取向)和/或加速度计(相对于地球重力的取向),并且将该取向与传感器的轴相联系,可以从已经安装的传感器中检索取向。另一种选项是从对捕获图像的分析中导出取向。该取向被包括在3D模型中,并且可以允许用户在增强现实视图中或在3D模型中操纵该取向(例如,在描绘传感器的触摸屏区上的旋转手势)。
可以基于与建筑物的至少一部分相关的信息来建议传感器的位置和取向。可以分析捕获的(3D)图像,以确定传感器的良好位置和取向。这要求捕获一个或多个(3D)图像,从该一个或多个(3D)图像中导出环境的3D几何结构。3D几何结构优选地指示可以在其上放置传感器的表面以及(一个或多个)房间的尺寸。除了3D空间输入之外,还可以检索使用信息以确定最佳传感器位置和配置设置。例如,这样的使用信息可以来自于明确的用户输入,或者可以导出自观察到的人类行为(例如,频繁跟随的路径或频繁使用的座位),来自(一个或多个)先前配置的房间类型(例如,客厅、大厅或厨房),来自预定义的使用模板,或者来自(分析的)系统使用数据。例如,可以使用固定的相机观察人类行为。例如,可以定位一个或多个运动传感器,使得它们指向典型的用户位置和/或它们可以检测进入该区域的人。
步骤35:
在步骤35中,例如从传感器设备制造商的产品数据库和/或从传感器设备本身检索与传感器相关的信息。作为第一示例,可以从产品数据库中检索在最大灵敏度下的检测区域,可以从传感器设备中检索灵敏度,并且可以从该信息中确定在所选(例如,实际或推荐)灵敏度下的检测区域。作为第二示例,可以从产品数据库或传感器设备中检索传感器范围和检测角度,并且可以从该信息中确定检测区域。可以使用为传感器确定的位置和取向将确定的检测区域添加到3D模型。
为了确定在哪里以及如何表示检测区域,首先需要确定3D模型与图像内容之间的关系。这可以通过确定3D模型中的哪些对象(例如,固定的照明设备、门、窗或固定在建筑物中的其他对象)被表示在捕获的图像中来实现。一旦已经标识了这些对象,就可以相对于3D模型中的对象来确定相机的位置和角度,即,好像相机是3D模型的部分。
然后可以根据3D模型中确定的相机位置以及利用确定的相机角度来确定3D建模的检测区域的2D视图或3D视图(表示)。3D模型/环境中的一个或多个对象的2D视图的创建可以使用用于在2D屏幕上表示3D环境的常规技术来实现。
步骤35进一步包括确定检测区域需要在图像中叠加的位置。这可以通过与在图像中标识的建模对象相比确定传感器位于3D模型中的什么地方、并且使用该信息来确定与这些对象在图像中的检测位置相比传感器应该表现在图像中的什么地方来实现。
步骤37:
在步骤37中,显示捕获的图像,并且在步骤35中确定的检测区域的(虚拟)表示在步骤35中确定的位置处叠加在图像上显示(例如,作为图形覆盖)。传感器的(小得多的)虚拟表示在相同位置处叠加在图像上显示(例如,作为图形覆盖)。
步骤41:
除了允许用户在步骤31中指定或适配传感器的位置和取向之外,步骤41还允许用户适配传感器的一个或多个配置设置,以根据他的需要对其进行配置。这可以在步骤43中模拟至传感器的动态输入之前和/或之后进行。例如,如果运动传感器触发得太快,则用户可以适配运动传感器的灵敏度、检测时间、检测范围或检测视野。在步骤37中显示的检测区域的虚拟表示帮助用户确定如何适配配置设置。在步骤35中不可以检索到当前的配置设置的情况下,例如因为传感器尚未被安装或不允许对这些设置访问,则可以使用默认设置。
在手持式设备实施例中,这些传感器配置设置的适配可以经由在触摸屏上显示的增强现实图像上的触摸手势来完成。在可佩戴设备实施例中,用户输入可以通过在可佩戴设备(例如,增强现实眼镜)前面做出的手势来完成。在这种情况下,手势可以由集成在可佩戴设备中的一个或多个传感器来检测。
代替或除了允许用户直接调整传感器设置之外,还可以基于自动获得的信息和/或针对用户输入的使用信息向用户建议一个或多个传感器设置。步骤41可以牵涉到基于与建筑物的至少一部分(图像捕获该建筑物的至少一部分)相关的信息来确定传感器的一个或多个建议设置,并且基于一个或多个建议设置来确定传感器相对于图像的检测区域。
例如,可以使用标识各种区域类型的使用信息——例如指示什么是最频繁居住的区域,以及指示典型入口和路径位于什么地方。然后可以根据那些标识的区域生成传感器配置设置。关于步骤33,已经提供了可以使用的使用信息的其他示例。
步骤43:
在步骤43中,模拟至传感器的动态输入,并且动态输入的动态虚拟表示叠加在图像上显示,以呈现包括传感器的光系统的行为。如果传感器包括存在传感器,则动态虚拟表示可以是虚拟角色行走通过由图像捕获的物理空间的动画,以可视化/模拟照明系统响应于存在传感器的行为。步骤43的每次迭代,可以显示动画的下一帧。角色的行为可以基于典型用户行为的一般模型,或者(一个或多个)系统当前用户的建模行为。动画优选地具有与显示的图像和显示的检测区域的虚拟表示相同的比例。用户可能能够配置角色的高度,例如将其设置为他自己的高度或他孩子的高度。
步骤43可以进一步包括模拟动态输入,使得传感器生成传感器输出,并且基于传感器输出控制虚拟照明设备(例如,由用户在步骤33中添加的)和/或安装的(即,物理的)照明设备(如果可用的话)。(虚拟的/安装的)灯反应得好像真实的对象在物理空间中一样。在控制虚拟照明设备的情况下,可以模拟由虚拟照明设备响应于传感器输出而生成的光效果。基于虚拟照明设备的位置和取向来生成光效果。模拟的光效果是叠加在图像上显示的效果。
用户可能能够通过选择显示设备上的按钮来开始预定义用例的可视化,和/或可能能够创建他自己的行为(例如,在路径中拖动对象或绘制路径)。可选地,也可以感测环境中的真实对象(例如,在房间中行走的真实的人员),并且使灯触发得好像(一个或多个)表示的传感器实际上存在于表示的位置处并且具有表示的取向一样。在这种情况下,相机图像可用于检测这些对象及其参数(例如位置、轨迹),以将这用作至模拟中虚拟传感器的输入。
在安装的照明设备受到控制的情况下,模拟传感器输出被发送到照明控制系统。基于该模拟传感器数据来控制安装的灯,以向用户展示系统的行为。当已安装的传感器连接到已安装的控制器时,可以有可能的是使用“中间人”方法,其通过利用模拟传感器数据替换来自已安装传感器的数据并且将该修改的数据转发给已安装的控制器。
步骤45:
在步骤45中,允许用户指示他是否想要存储一个或多个建议的设置或者由步骤41中执行的适配所产生的一个或多个设置。如果已经安装了传感器,则这些一个或多个设置可以存储在传感器(设备)本身中,从而配置传感器。如果尚未安装传感器,则这些一个或多个设置可以存储在另一个设备、例如呈现增强现实可视化的设备中,并且在已经安装了传感器(设备)之后被传送到传感器(设备)。替代地,这些一个或多个设置可以存储在控制设备中,该控制设备包含响应传感器输出的逻辑,从而配置传感器。
在图3至图8的帮助下图示了本发明的方法与运动传感器一起使用的示例。在该示例中,用户有兴趣为他的厨房购买运动传感器,但是想要试试这将如何工作。他拿起他的平板设备,启动飞利浦秀app,并且选择app内购买的菜单。这将启动增强现实功能,其中用户可以将他的智能电话相机指向他想要安装运动传感器的他的厨房区。图3示出了用户利用他的平板设备相机捕获到他想要在那里安装的运动传感器的厨房。通过对相机图像的分析,厨房被检测到,并且来自秀灯51和52的信息以及它们的位置被从照明系统中检索。
运动传感器的检测范围在增强现实中是可视化的。图4示出了传感器的虚拟表示54,该传感器已经通过用户选择传感器并且然后在触摸屏上点击该位置而被放置在所示位置处。运动传感器的检测区域的虚拟表示55叠加在图像上显示。在图3至图8的示例中,检测区域表示由单个区域组成。然而,在实践中,对象被检测到的概率在检测区域的边缘附近较低。检测区域表示可以被划分成多个(例如不同颜色的)区域,其具有在该区域中对象被检测到的相似概率。换句话说,不同的区域表示不同的检测准确度。
图5示出了人员在厨房中行走的动画57的再现。由于厨房中现有的秀灯51和52没有接通,因此用户将传感器的虚拟表示54重新定位到右边。传感器的新位置如图6中所示。在图3至图8的示例中,传感器尚未被安装。如果已经安装了传感器,则实际的传感器可能变得模糊,或者以其他方式在图6的图像中被移除。
因为传感器的检测区域不够宽,所以用户利用捏手势来加宽检测区域。图7中示出了加宽的检测区域,其中检测区域的虚拟表示55已经被修改以反映适配。图8示出了人员行走进入厨房中的动画57被再次再现,并且虚拟角色一旦进入运动传感器的检测区域,厨房中现有的秀灯51和52就被接通。
在该示例中,在第一次放置虚拟运动传感器之后,当虚拟角色进入厨房时,灯未被打开。然后,用户将运动传感器拖动和拖放到不同的位置,以具有对感兴趣区的更好覆盖范围。此外,他利用触摸屏上的触摸手势加宽了传感器的检测区域。
可选地,app可以基于用户请求的行为(例如,当某人进入厨房时自动接通灯)来建议传感器(或当适当时多个传感器)的类型和位置。如上所述,该建议可以在增强现实中可视化,其指示检测区域,并且示出当虚拟角色进入房间并在房间周围行走时的系统行为。然后,用户可以进一步优化/修改建议的解决方案,并且查看对(模拟的)行为的影响。
当对虚拟传感器、其设置和结果得到的照明系统行为满意时,用户可以立即订购虚拟传感器并将其安装在他的家中,例如作为图1的传感器17。优选地,存储每个购买的传感器的位置、取向和设置,因此用户可以在安装时回想起它们(例如以照明控制app内的个性化安装指南的形式)。在安装之后,可以自动应用任何设置。
图9描绘了说明可以执行如参考图2描述的方法的示例性数据处理系统的框图。
如图9中所示,数据处理系统300可以包括通过系统总线306耦合到存储元件304的至少一个处理器302。照此,数据处理系统可以在存储器元件304内存储程序代码。此外,处理器302可以执行经由系统总线306从存储元件304访问的程序代码。在一个方面中,数据处理系统可以被实现为适合于存储和/或执行程序代码的计算机。然而,应当领会到,可以以包括能够执行本说明书内描述的功能的处理器和存储器的任何系统的形式来实现数据处理系统300。
存储器元件304可以包括一个或多个物理存储设备,诸如例如本地存储器308和一个或多个大容量存储设备310。本地存储器可以指代在程序代码的实际执行期间通常使用的随机存取存储器或(一个或多个)其他非持久性存储器设备。大容量存储设备可以实现为硬盘驱动器或其他持久性数据存储设备。处理系统300还可以包括一个或多个高速缓冲存储器(未示出),其提供至少一些程序代码的临时存储,以便减少在执行期间必须从大容量存储设备310检索程序代码的次数。例如,如果处理系统300是云计算平台的部分,则处理系统300也可能能够使用另一个处理系统的存储器元件。
被描绘为输入设备312和输出设备314的输入/输出(I/O)设备可以可选地耦合到数据处理系统。输入设备的示例可以包括但不限于键盘、诸如鼠标的定点设备、麦克风(例如用于语音和/或语音识别)等。输出设备的示例可以包括但不限于监视器或显示器、扬声器等。输入和/或输出设备可以直接或通过中间的I/O控制器耦合到数据处理系统。
在实施例中,输入和输出设备可以被实现为组合的输入/输出设备(在图9中利用围绕输入设备312和输出设备314的虚线来图示)。这样的组合设备的示例是触敏显示器,其有时也称为“触摸屏显示器”或简称为“触摸屏”。在这样的实施例中,对设备的输入可以通过物理对象的移动来提供,所述物理对象诸如例如是触摸屏显示器上或附近的用户的触笔或手指。
网络适配器316也可以耦合到数据处理系统,以使得其能够通过中间的私有或公共网络变成耦合到其他系统、计算机系统、远程网络设备和/或远程存储设备。网络适配器可以包括用于接收由所述系统、设备和/或网络传输到数据处理系统300的数据的数据接收器,以及用于将数据从数据处理系统300传输到所述系统、设备和/或网络的数据传输器。调制解调器、线缆调制解调器和以太网卡是可以与数据处理系统300一起使用的不同类型的网络适配器的示例。
如图9中所描绘的,存储器元件304可以存储应用318。在各种实施例中,应用318可以存储在本地存储器308、一个或多个大容量存储设备310中,或者与本地存储器和大容量存储设备分离。应当领会到,数据处理系统300可以进一步执行可以促进应用318的执行的操作系统(图9中未示出)。以可执行程序代码的形式实现的应用318可以由数据处理系统300执行,例如由处理器302执行。响应于执行该应用,数据处理系统300可以被配置为执行本文中描述的一个或多个操作或方法步骤。
本发明的各种实施例可以实现为与计算机系统一起使用的程序产品,其中程序产品的(一个或多个)程序定义实施例的功能(包括本文中描述的方法)。在一个实施例中,(一个或多个)程序可以包含在多种非暂时性计算机可读存储介质上,其中,如本文中所使用的,表述“非暂时性计算机可读存储介质”包括所有计算机可读介质,唯一的例外是暂时性传播信号。在另一个实施例中,(一个或多个)程序可以包含在多种暂时性计算机可读存储介质上。说明性的计算机可读存储介质包括但不限于:(i)不可写存储介质(例如,计算机内的只读存储器设备,诸如可由CD-ROM驱动器读取的CD-ROM光盘、ROM芯片或任何类型的固态非易失性半导体存储器),信息永久存储在该不可写存储介质上;和(ii)可写存储介质(例如,闪速存储器、软盘驱动器内的软盘或硬盘驱动器或任何类型的固态随机存取半导体存储器),可更改的信息存储在该可写存储介质上。计算机程序可以在本文中描述的处理器302上运行。
本文中使用的术语仅仅是为了描述特定的实施例的目的,并且不意图限制本发明。如本文中所使用的,单数形式“一”、“一个”和“该”也意图包括复数形式,以及除非上下文清楚地另有指示。将进一步理解,当在本说明书中使用时,术语“包括”和/或“包含”指定所陈述的特征、整数、步骤、操作、元素和/或组件的存在,但是不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或其组的存在或添加。
以下权利要求中的所有装置或步骤加功能元素的对应结构、材料、动作和等同物意图包括用于结合如具体要求保护的其他要求保护的元素来执行功能的任何结构、材料或动作。本发明的实施例的描述是为了说明的目的而呈现的,但不意图穷举或限于以所公开形式的实现。在不脱离本发明的范围和精神的情况下,许多修改和变型对于本领域普通技术人员而言将是清楚的。选择和描述实施例以便最好地解释本发明的原理和一些实际应用,并且使得本领域的其他普通技术人员能够理解本发明的各种实施例,这些实施例具有如适合于预期的特定用途的各种修改。

Claims (15)

1.一种电子设备(1),包括至少一个处理器(3),其被配置为:
-获得利用相机(4)捕获的图像,
-确定待安装传感器(17)的位置,
-基于为所述待安装传感器(17)确定的所述位置,确定所述待安装传感器(17)相对于所述图像的检测区域,以及
-实时或接近实时地显示所述图像以及叠加在所述图像上的所述待安装传感器和所述检测区域的虚拟表示(54,55),
其中所述至少一个处理器(3)被配置为允许用户指定或适配所述待安装传感器(17)的至少一个属性,所述至少一个属性包括至少所述位置;
其中所述至少一个处理器(3)被配置为模拟至所述待安装传感器(17)的动态输入,使得所述待安装传感器(17)生成传感器输出,以及基于所述传感器输出控制虚拟照明设备和/或安装的照明设备(51,52)。
2.根据权利要求1所述的电子设备(1),其中所述至少一个处理器(3)被配置为:
-显示叠加在所述图像上的所述动态输入的动态虚拟表示。
3.根据权利要求2所述的电子设备(1),其中,所述待安装传感器包括存在传感器,并且所述至少一个处理器(3)被配置为显示虚拟角色行走通过由所述图像捕获的物理空间的动画,作为所述动态虚拟表示。
4.根据权利要求3所述的电子设备(1),其中所述至少一个处理器(3)被配置为:
-模拟所述动态输入,使得所述待安装传感器(17)生成传感器输出,以及
-基于所述传感器输出控制虚拟照明设备和/或安装的照明设备(51,52)。
5.根据权利要求4所述的电子设备(1),其中所述至少一个处理器(3)被配置为:
-模拟所述动态输入,使得所述待安装传感器(17)生成传感器输出,
-响应于所述传感器输出,模拟由所述虚拟照明设备生成的光效果,所述光效果是基于所述虚拟照明设备的位置和取向生成的,以及
-显示叠加在所述图像上的模拟光效果。
6.根据权利要求1到4中任一项所述的电子设备(1),其中所述待安装传感器的所述至少一个属性进一步包括所述待安装传感器(17)的取向。
7.根据权利要求1到4中任一项所述的电子设备(1),其中所述待安装传感器的所述至少一个属性进一步包括所述待安装传感器(17)的一个或多个设置。
8.根据权利要求7所述的电子设备(1),其中所述至少一个处理器(3)被配置为允许所述用户利用所述一个或多个设置来配置所述待安装传感器(17)。
9.根据权利要求1到4中任一项所述的电子设备(1),其中所述至少一个处理器(3)被配置为:
-获得利用所述相机(4)捕获的另外图像,
-基于至少一个适配属性,确定所述待安装传感器(17)相对于所述另外图像的另外检测区域,以及
-显示所述另外图像以及叠加在所述另外图像上的所述待安装传感器和所述另外检测区域的虚拟表示(54,55)。
10.根据权利要求1到4中任一项所述的电子设备(1),其中所述至少一个处理器(3)被配置为允许所述用户指定所述图像中所述待安装传感器的所述位置。
11.根据权利要求1到4中任一项所述的电子设备(1),其中所述至少一个处理器(3)被配置为允许所述用户指定所述待安装传感器(17)在建筑物的至少部分的模型中的所述位置,所述图像捕获所述建筑物的所述至少部分的至少一部分。
12.根据权利要求1到4中任一项所述的电子设备(1),其中所述至少一个处理器(3)被配置为基于与建筑物的至少一部分相关的信息,将所述待安装传感器(17)的所述位置确定为所述待安装传感器(17)的建议位置,所述图像捕获所述建筑物的所述至少部分的至少一部分。
13.根据权利要求1到4中任一项所述的电子设备(1),其中所述至少一个处理器(3)被配置为:
-基于与建筑物的至少一部分相关的信息,确定所述待安装传感器(17)的一个或多个建议设置,所述图像捕获所述建筑物的所述至少部分的至少一部分,以及
-基于所述一个或多个建议设置,确定所述待安装传感器(17)相对于所述图像的所述检测区域。
14.一种在图像上叠加检测区的方法,包括:
-获得利用相机捕获的图像;
-确定待安装传感器的位置;
-基于为所述待安装传感器确定的所述位置,确定所述待安装传感器相对于所述图像的检测区域;
-实时或接近实时地显示所述图像和叠加在所述图像上的所述待安装传感器和所述检测区域的虚拟表示;
-模拟至所述待安装传感器(17)的动态输入,使得所述待安装传感器(17)生成传感器输出,和
-基于所述传感器输出控制虚拟照明设备和/或安装的照明设备(51,52);
其中提供用户界面,用于允许用户指定或适配所述待安装传感器的至少一个属性,所述至少一个属性包括所述位置。
15.一种计算机存储介质,存储至少一个软件代码部分,所述软件代码部分当在计算机系统上运行时被配置用于使能执行权利要求14所述的方法。
CN201980024551.2A 2018-04-09 2019-04-01 在图像上叠加传感器及其检测区域的虚拟表示 Active CN111902849B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18166316 2018-04-09
EP18166316.2 2018-04-09
PCT/EP2019/058175 WO2019197196A1 (en) 2018-04-09 2019-04-01 Superimposing a virtual representation of a sensor and its detection zone over an image

Publications (2)

Publication Number Publication Date
CN111902849A CN111902849A (zh) 2020-11-06
CN111902849B true CN111902849B (zh) 2023-07-04

Family

ID=61913094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980024551.2A Active CN111902849B (zh) 2018-04-09 2019-04-01 在图像上叠加传感器及其检测区域的虚拟表示

Country Status (5)

Country Link
US (1) US11151797B2 (zh)
EP (1) EP3776506A1 (zh)
JP (1) JP7335266B2 (zh)
CN (1) CN111902849B (zh)
WO (1) WO2019197196A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB202018724D0 (en) * 2020-11-27 2021-01-13 Essence Security International Esi Ltd Smart installation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7259778B2 (en) 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
KR20100041800A (ko) 2007-06-29 2010-04-22 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 조명 시스템의 설정들을 대화식으로 변경하기 위한 사용자 인터페이스를 갖는 조명 제어 시스템 및 사용자 인터페이스를 이용해 조명 시스템의 설정들을 대화식으로 변경하기 위한 방법
JP2009080513A (ja) * 2007-09-25 2009-04-16 Mitsubishi Electric Corp センサ配置設計支援システム
EP2446711B1 (en) 2009-06-25 2017-11-22 Philips Lighting Holding B.V. Effect-driven specification of dynamic lighting
BR112013008713A2 (pt) 2010-10-15 2021-05-25 Koninklijke Philips Electronics N.V. sistema de interação com o usuário para o controle de um sistema sw iluminação para a iluminação de um ambiente e disposição eletrônico portátil
US8830230B2 (en) * 2011-01-31 2014-09-09 Honeywell International Inc. Sensor placement and analysis using a virtual environment
WO2013011395A2 (en) 2011-07-19 2013-01-24 Koninklijke Philips Electronics N.V. Configuration unit and method for presence detection
JP5948201B2 (ja) * 2012-09-28 2016-07-06 コイズミ照明株式会社 照明シミュレーション装置、照明シミュレーション方法、プログラム、および媒体
US20150077566A1 (en) 2013-09-17 2015-03-19 Honeywell International Inc. Method of Installing PIR Sensor with Camera
US20170076015A1 (en) 2014-03-03 2017-03-16 Philips Lighting Holding B.V. Method for deploying sensors
WO2015170316A1 (en) * 2014-05-08 2015-11-12 Tyco Fire & Security Gmbh Dual-detector capacity intrusion detection systems and methods and systems and methods for configuration thereof
CN104298118A (zh) * 2014-10-20 2015-01-21 中山火炬开发区伟棋五金厂 一种智能家居系统
CN107851335A (zh) * 2015-06-23 2018-03-27 飞利浦照明控股有限公司 用于使照明器灯具可视化的增强现实设备
JP2018531493A (ja) 2015-10-22 2018-10-25 フィリップス ライティング ホールディング ビー ヴィ 低コストの占有センサを用いた軌道追跡
WO2019241772A1 (en) * 2018-06-15 2019-12-19 Google Llc Smart-home device placement and installation using augmented-reality visualizations

Also Published As

Publication number Publication date
US11151797B2 (en) 2021-10-19
CN111902849A (zh) 2020-11-06
JP7335266B2 (ja) 2023-08-29
EP3776506A1 (en) 2021-02-17
JP2021521690A (ja) 2021-08-26
WO2019197196A1 (en) 2019-10-17
US20210150816A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US11887258B2 (en) Dynamic integration of a virtual environment with a physical environment
KR102522814B1 (ko) 사물 인터넷 장치의 3d 매핑
CN108027649B (zh) 定位增强现实环境中的设备
US20150185825A1 (en) Assigning a virtual user interface to a physical object
US11887246B2 (en) Generating ground truth datasets for virtual reality experiences
US20150187137A1 (en) Physical object discovery
US11410390B2 (en) Augmented reality device for visualizing luminaire fixtures
TWI633464B (zh) 用於顯示對應於實體物件之影像的處理方法及電子裝置
US11461980B2 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
KR20170110919A (ko) 지능형 전자 장치 및 그 동작 방법
KR102632270B1 (ko) 전자 장치 및 파노라마 영상 표시와 생성 방법
CN111902849B (zh) 在图像上叠加传感器及其检测区域的虚拟表示
WO2019228969A1 (en) Displaying a virtual dynamic light effect
US10095029B2 (en) Electronic apparatus and method for displaying virtual environment image
CN112965911A (zh) 界面异常检测方法、装置、计算机设备及存储介质
US20240144517A1 (en) Displaying an aggregation of data in dependence on a distance to a closest device in an image
KR20180097913A (ko) 사용자 단말의 사용자 인터페이스를 이용하는 촬영 동작 가이드 방법 및 시스템
WO2024083560A1 (en) Displaying a virtual sensor value in an augmented reality user interface
CN113678169A (zh) 在增强和/或虚拟现实环境中确定照明设计偏好
JP2023500296A (ja) 複数のインディケーションを介した検出される存在の可能性の指示
US20190344168A1 (en) Interactive display system displaying a machine readable code
CN117130465A (zh) 基于xr设备的参数设置方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant