CN106255938A - 传感器和投影仪的校准 - Google Patents

传感器和投影仪的校准 Download PDF

Info

Publication number
CN106255938A
CN106255938A CN201480078622.4A CN201480078622A CN106255938A CN 106255938 A CN106255938 A CN 106255938A CN 201480078622 A CN201480078622 A CN 201480078622A CN 106255938 A CN106255938 A CN 106255938A
Authority
CN
China
Prior art keywords
sensor
coordinate
projector unit
mapping
multiple sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480078622.4A
Other languages
English (en)
Other versions
CN106255938B (zh
Inventor
J.康
N.P.里昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of CN106255938A publication Critical patent/CN106255938A/zh
Application granted granted Critical
Publication of CN106255938B publication Critical patent/CN106255938B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1631Panel PC, e.g. single housing hosting PC and display panel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

提供了一种系统,包括投影仪单元;多合一计算机,包括校准模块并且可附连到投影仪单元;以及通信地耦合到多合一计算机的多个传感器。此外,多合一计算机存储涉及公共坐标系中的投影仪单元与多个传感器之间的映射的映射信息。另外,校准模块使用映射信息校准多个传感器和投影仪单元。

Description

传感器和投影仪的校准
背景技术
视觉传感器是可以捕获与目标相关联的视觉数据的传感器。视觉数据可以包括目标的图像或目标的视频。异类视觉传感器(不同类型的视觉传感器)的集群可以用于某些应用,该应用可以在计算机系统中采用。由异类传感器收集的视觉数据可以被组合和处理以执行与相应应用相关联的任务。而且,不同异类视觉传感器可以具有不同的分辨率和视场。
附图说明
为了各种示例的详细描述,现在将参照附图,其中:
图1是依照本文所公开的原理的计算机系统的示例的示意性透视图;
图2是依照本文所公开的原理的图1的计算机系统的另一示意性透视图;
图3是依照本文所公开的原理的图1的计算机系统的示意性侧视图;
图4是依照本文所公开的原理的图1的计算机系统的示意性前视图;
图5是依照本文所公开的原理的在操作期间图1的计算机系统的示意性侧视图;
图6是依照本文所公开的原理的在操作期间图1的系统的示意性前视图;
图7是依照本文所公开的原理的图1的计算机系统的黑盒电路图;以及
图8是依照本文所公开的原理的示例过程流程图。
具体实施方式
本公开的各种方面针对校准传感器集群和投影单元。更具体地,并且如以下更加详细描述的,本公开的各种方面针对通过其关于彼此并且关于投影仪校准包括深度传感器和姿势传感器的多个传感器以允许正确操作的方式。
本文所描述的本公开的各方面讨论集群中的异类视觉传感器(不同类型的视觉传感器)的使用。除其它事物之外,该方案允许用于各种应用的更丰富且更鲁棒的信息的捕获。
而且,本文所描述的本公开的各方面讨论正确校准传感器集群。该方案允许传感器和投影仪通过标识用于传感器和投影仪的公共坐标系而知晓当一个传感器已经将对象定位在其视场内时对象在其坐标系中位于哪里。除其它事物之外,该方案允许传感器和投影仪能够跨所有传感器坐标系而引用相同的点位置。
另外,本文所描述的本公开的各方面还公开了将x,y和z坐标从一个传感器坐标系无缝地变换到另一坐标系。相应地,利用来自多个传感器的数据的软件开发者创建程序能够简化任务复杂度并且更快地构建更好的应用。除其它事物之外,该方案允许传感器融合,从而导致组合来自全异源的感测数据或从感测数据导出的数据的能力,使得实现结果得到的信息,这在这些源为单独时将不会发生。
在依照本公开的一个示例中,提供了一种示例系统,包括投影仪单元、包括校准模块并且可附连到投影仪单元的多合一计算机,以及通信耦合到多合一计算机的多个传感器。此外,多合一计算机存储涉及公共坐标系中的投影仪单元与多个传感器之间的映射的映射信息。另外,校准模块使用映射信息校准多个传感器和投影仪单元。
在依照本公开的另一示例中,提供了一种方法。方法包括,通过第一传感器捕获校准图案,其中多个传感器至少具有第一传感器和第二传感器,检测校准图案的特征(该特征与第一传感器的坐标空间中的坐标相关联),将所检测到的特征的坐标映射到公共坐标空间,以及基于第一传感器的坐标空间中的坐标和所映射的坐标导出公共坐标空间和第二传感器的坐标空间中的坐标之间的映射。
图1-4图示了依照实现的示例系统100。应当容易明显的是,本图示不应当被解释成由图1中所示的该特定说明性架构限制,并且系统100表示一般化图示并且可以添加其它元件或可以移除、修改或以许多方式重布置所图示的元件。系统100包括支撑结构110、计算设备150、投影仪单元180和触敏垫200。计算设备150可以包括任何合适的计算设备,而同时仍旧遵从本文所公开的原理。例如,在一些实现中,设备150可以包括电子显示器、智能电话、平板电脑、多合一计算机(即还容纳计算机的板的显示器)或其某种组合。在该示例中,设备150是包括中心轴或中心线155、第一或顶侧150a、在轴向上与顶侧150a相对的第二或底侧150b、在侧部150a,150b之间轴向延伸的前侧150c、同样在侧部150a,150b之间轴向延伸并且一般与前侧150c径向相对的后侧的多合一计算机。显示器152限定观看表面并且沿前侧150c部署以投影用于供用户(未示出)观看和交互的图像。在一些示例中,显示器152包括触敏技术,诸如例如电阻式、电容式、声波、红外(IR)、应变仪、光学、声学脉冲识别或其某种组合。因此,贯穿以下描述,显示器152可能偶尔被称为触敏表面或显示器。此外,在一些示例中,设备150还包括在用户位于显示器152前面的同时拍取他或她的图像的相机154。在一些实现中,相机154是网络(web)相机。另外,在一些示例中,设备150还包括布置成在操作期间从用户接收声音输入(例如语音)的麦克风或类似的设备。
仍旧参照图1-4,支撑结构110包括基座120、直立构件140和顶部160。基座120包括第一或前端120a和第二或后端120b。在操作期间,基座120与支撑表面15接合以在操作期间支撑系统100的组件(例如构件140、单元180、设备150、顶部160等)的至少部分的重量。在该示例中,基座120的前端120a包括在支撑表面15上方略微分离的抬高部分122,从而创建部分122与表面15之间的空间或空隙。如以下将更加详细解释的,在系统100的操作期间,垫200的一侧被接收在形成于部分122与表面15之间的空间内以确保垫200的正确对准。然而,应当领会的是,在其它示例中,可以使用其它合适的对准方法或设备而同时仍旧遵从本文所公开的原理。
直立构件140包括第一或上端140a、与上端140a相对的第二或下端140b、在端部140a,140b之间延伸的第一或前侧140c,以及与第一侧140c相对并且同样在端部140a,140b之间延伸的第二或后侧140d。构件140的下端140b耦合到基座120的后端120b,使得构件140大体从支撑表面15向上延伸。
顶部160包括第一或近端160a、与近端160a相对的第二或远端160b、在端部160a,160b之间延伸的顶表面160c,以及与顶表面160c相对并且同样在端部160a,160b之间延伸的底表面160d。顶部160的近端160a耦合到直立构件140的上端140a,使得远端160b从其向外延伸。作为结果,在图2中所示的示例中,顶部160仅在端部160a处被支撑并且因而在本文中被称为“悬臂式”顶部。在一些示例中,基座120、构件140和顶部160全部单片形成;然而,应当领会的是,在其它示例中,基底120、构件140和/或顶部160可以不是单体形成的而同时仍旧遵从本文所公开的原理。
仍旧参照图1-4,垫200包括中心轴或中心线205、第一或前侧200a,以及在轴向上与前侧200a相对的第二或后侧200b。在该示例中,触敏表面202(其表示投影仪空间)部署在垫200上并且与轴205大体对准。表面202可以包括用于检测和追踪用户的一个或多个触摸输入的任何合适的触敏技术,以便允许用户与设备150或某个其它计算设备(未示出)执行的软件交互。例如,在一些实现中,表面202可以利用已知触敏技术(诸如例如电阻式、电容式、声波、红外、应变仪、光学、声学脉冲识别或其某种组合)而同时仍旧遵从本文所公开的原理。此外,在该示例中,表面202仅在垫200的部分之上延伸;然而,应当领会的是,在其它示例中,表面202可以在垫200的大体全部之上延伸而同时仍旧遵从本文所公开的原理。
在操作期间,垫200与结构100的基座120对准(如之前所描述的),以确保其正确对准。特别地,在该示例中,垫200的后侧200b放置在基座120的抬高部分122与支撑表面15之间,使得后端200b与基座的前侧120a对准,从而确保垫200(并且特别地表面202)与系统100内的其它组件的正确总体对准。在一些示例中,垫200与设备150对准使得设备150的中心线155与垫200的中心线205大体对准;然而,其它对准是可能的。此外,如以下将更加详细描述的,在至少一些示例中,垫200的表面202和设备150电气耦合到彼此使得由表面202接收的用户输入被传送至设备150。可以在表面202与设备150之间使用任何合适的无线或有线电气耦合或连接(诸如例如WI-FI、BLUETOOTH®、超声、电气线缆、电气引线、具有磁性保持力的电气弹簧加载的弹簧针(pogo pin),或其某种组合),而同时仍旧遵从本文所公开的原理。在该示例中,部署在垫200的后侧200b上的暴露的电气接触件与基座120的部分122内的对应电气弹簧针引线接合以在操作期间在设备150与表面202之间输送信号。此外,在该示例中,电气接触件通过位于之前描述的基座120的部分122与表面15之间的间隙中的相邻磁体保持在一起,以磁性吸引和(例如机械地)保持沿垫200的后侧200b部署的对应含铁和/或磁性材料。
现在具体地参照图3,投影仪单元180包括外壳体182和部署在壳体182内的投影仪组装件184。壳体182包括第一或上端182a、与上端182a相对的第二或下端182b,以及内部腔体183。在该实施例中,壳体182还包括耦合或安装构件186以在操作期间与支撑设备150接合。一般而言,构件186可以是用于悬挂和支撑计算机设备(例如设备150)的任何合适的构件或设备而同时仍旧遵从本文所公开的原理。例如,在一些实现中,构件186包括铰链,其包括旋转轴使得用户(未示出)可以关于旋转轴旋转设备150以从其获得最佳观看角度。另外,在一些示例中,设备150永久或半永久地附连到单元180的壳体182。例如,在一些实现中,壳体180和设备150一体和/或单片地形成为单个单元。
因此,简要地参照图4,当设备150通过壳体182上的安装构件186从结构110悬挂时,当从大体面向部署在设备150的前侧150c上的显示器152的观看角度或观看表面观看系统100时,投影仪单元180(即壳体182和组装件184二者)大体隐藏在设备150后面。此外,如同样在图4中所示出的,当设备150以所描述的方式从结构110悬挂时,投影仪单元180(即壳体182和组装件184二者)和由此投影的任何图像关于设备150的中心线155大体对准或定心。
投影仪组装件184一般部署在壳体182的腔体183内,并且包括第一或上端184a、与上端184a相对的第二或下端184b。上端184a接近壳体182的上端182a而下端184b接近壳体182的下端182b。投影仪组装件184可以包括用于从计算设备(例如设备150)接收数据并且投影与该输入数据对应的一个或多个图像(例如来自上端184a)的任何合适的数字光投影仪组装件。例如,在一些实现中,投影仪组装件184包括数字光处理(DLP)投影仪或硅上液晶(LCoS)投影仪,其有利地为能够具有多个显示分辨率和大小(诸如例如标准XGA(1024x768)分辨率4:3纵横比或标准WXGA(1280x800)分辨率16:10纵横比)的紧凑且功率高效的投影引擎。投影仪组装件184还电气耦合到设备150以便从其接收数据以用于在操作期间从端部184a产生光和图像。投影仪组装件184可以通过任何合适类型的电气耦合来电气耦合到设备150而同时仍旧遵从本文所公开的原理。例如,在一些实现中,组装件184通过电气导体、WI-FI、BLUETOOTH®、光学连接、超声连接或其某种组合电气耦合到设备150。在该示例中,设备150通过部署在安装构件186内的电气引线或导体(之前描述的)电气耦合到组装件184使得当设备150通过构件186从结构110悬挂时,部署在构件186内的电气引线接触部署在设备150上的对应引线或导体。
仍旧参照图3,顶部160还包括折叠镜162和传感器捆束164。镜162包括沿顶部160的底表面160d部署并且定位成在操作期间朝向垫200反射从投影仪组装件184的上端184a投影的图像和/或光的高反射表面162a。镜162可以包括任何合适类型的镜或反射表面而同时仍旧遵从本文所公开的原理。在该示例中,折叠镜162包括标准前表面真空金属化铝涂敷玻璃镜,其起作用以将从组装件184发射的光向下折叠到垫200。在其它示例中,镜162可以具有复杂的非球面曲率以充当提供附加聚焦能力或光学校正的反射透镜元件。
传感器捆束164包括多个传感器(例如异类传感器)和/或相机以测量和/或检测在操作期间出现在垫200上或附近的各种参数。例如,在图3中描绘的特定实现中,捆束164包括环境光传感器164a、相机(例如彩色相机)164b、深度传感器或相机164c和三维(3D)用户接口(例如姿势)传感器164d。每一个传感器可以具有不同的分辨率和视场。在一个示例中,这些传感器中的每一个可以瞄准水平触敏垫200和触敏表面202(例如用于投影仪的屏幕)。相应地,这些传感器的视场可以重叠。
其中可以使用传感器捆束164的应用的示例包括对象检测、对象追踪、对象识别、对象分类、对象分段、对象捕获和重构、光学触摸、增强现实呈现或其它应用。对象检测可以是指检测所捕获到的视觉数据(其可以包括图像或视频)中的对象的存在。对象追踪可以是指追踪对象的移动。对象识别可以是指标识特定对象,诸如标识一个类型的对象、标识人员等等。对象分类可以是指将对象分类到多个类或类别中的一个中。对象分段可以是指将对象分段成多个段。对象捕获和构造可以是指捕获对象的视觉数据并且构造对象的模型。光学触摸可以是指识别由用户的手部、触笔或意图向系统提供输入的其它物理人工制品所做出的姿势。姿势类似于对应于在触敏显示面板上做出的姿势或鼠标设备的移动的姿势。然而,光学触摸允许姿势在三维(3D)空间中或在未被配置成检测用户输入的物理目标上做出。
增强现实呈现可以是指通过包括音频数据、视频数据、图像数据、文本数据等的附加信息增强的物理、真实世界环境的呈现。在增强现实中,视觉传感器(或视觉传感器的集群)可以捕获物理目标的视觉数据。响应于所捕获到的物理目标的识别,可以产生增强现实呈现。例如,物理目标可以是报纸或杂志中的图片,并且图片的捕获可以导致在线电子游戏开始播放。报纸或杂志中的给定图片可以是游戏角色、广告或与在线电子游戏相关联的其它信息。被触发的增强现实呈现可以包括所捕获到的物理目标的视觉数据,以及所捕获到的视觉数据周围的其它数据(例如游戏环境)。
环境光传感器164a布置成测量系统100周围的环境光的强度,以便在一些实现中调节相机和/或传感器(例如传感器164a,164b,164c,164d)曝光设置,和/或调节从诸如例如投影仪组装件184、显示器152等之类的遍及系统的其它源发射的光的强度。在一些实例中,相机164b可以包括彩色相机,其布置成拍取部署在垫200上的文档和/或对象的静止图像或视频。深度传感器164c一般指示3D对象何时在工作表面上。特别地,深度传感器164c可以感测或检测在操作期间放置在垫200上的对象(或对象的(多个)特定特征)的存在、形状、轮廓、运动和/或3D深度。深度相机164c可以相对鲁棒以抵抗由于照明改变、阴影的存在或由投影仪产生的动态背景所致的效应。来自深度传感器164c的输出信息可以是三维(3D)深度信息(还称为“深度图”)、红外(IR)图像帧和红-绿-蓝(RGB)图像帧。“图像帧”是指构成图像的视觉数据点的集合。深度图像是指物理目标关于深度相机的深度;该深度信息表示物理目标(或物理目标的部分)与深度相机之间的距离。深度和IR传感器可以用于帮助看起来在RGB颜色中接近(例如白色上的白色)的2D对象的分段以捕获垫表面200。在可见光频率中2D对象可能并非看起来不同于垫200,但是在IR波长中可能具有不同反射率并且因而能够帮助分段,只要一个传感器图像中的像素已知为对应于其它传感器的图像中的像素即可。如果深度传感器检测到对象高度相对于垫高度的差异,其图像的分析可以帮助使用像素从深度图像到RGB图像中的变换的前景/背景分段。
因此,在一些实现中,传感器164c可以采用任何合适的传感器或相机布置以感测和检测3D对象和/或部署在传感器的视场(FOV)中(无论红外、彩色还是其它)的每一个像素的深度值。例如,在一些实现中,传感器164c可以包括具有IR光的均匀泛光(uniformflood)的单个红外(IR)相机传感器、具有IR光的均匀泛光的双IR相机传感器、结构光深度传感器技术、飞行时间(TOF)深度传感器技术或其某种组合。在一些实现中,深度传感器164c可以用作用于对准所有其它传感器和投影仪的参考传感器,这将在下面被更加详细地讨论。
用户接口传感器(例如姿势传感器)164d包括用于追踪诸如例如手部、触笔、指向设备等之类的用户输入设备的任何合适的一个或多个设备(例如传感器或相机)。在一些实现中,传感器164d包括布置成当用户输入设备(例如触笔)由用户关于垫200、并且特别地关于垫200的表面202移动时立体追踪其位置的相机对。在其它示例中,传感器164d还可以或可替换地包括布置成检测由用户输入设备发射或反射的红外光的(多个)红外相机或(多个)传感器。相应地,来自传感器164d的输出信息可以是所检测到的特征(例如手指、触笔和工具)的3D坐标(即x,y和z)。
还应当领会的是,捆束164可以包括取代于或附加于之前描述的传感器164a,164b,164c,164d的其它传感器和/或相机。此外,如以下将更加详细解释的,捆束164内的传感器164a,164b,164c,164d中的每一个电气且通信耦合到设备150使得在捆束164内生成的数据可以被传输至设备150并且由设备150发布的命令可以在操作期间被传送至传感器164a,164b,164c,164d。如以上针对系统100的其它组件所解释的,任何合适的电气和/或通信耦合(诸如例如电气导体、WI-FI、BLUETOOTH®、光学连接、超声连接或其某种组合)可以用于将传感器捆束164耦合到设备150。在该示例中,电气导体的路线为从捆束164通过顶部160、直立构件140和投影仪单元180、并且通过部署在之前描述的安装构件186内的引线而到设备150中。
在一个实现中,捆束164被校准以便使所有传感器一起工作。如果捆束164未被正确校准,则组合由传感器(例如传感器164a,164b,164c,164d)收集的视觉数据可能不提供精确的结果。相应地,为了允许捆束的正确操作,可以执行校准过程以关于彼此校准视觉传感器,这将在以下更加详细地描述。依照一些实现,提供校准机制或技术以校准作为捆束164的部分的传感器。此外,传感器164a,164b,164c,164d可能全部需要与投影仪单元180对准。这样的对准提供所有这些组件之间的通信。更具体地,对准提供跨不同传感器传播信息并且投影来自所有传感器的信息以供在系统100的各种应用中的进一步处理。对于要实现的对准,可能需要建立公共坐标系。更具体地,当一个传感器在视场内定位对象时,其它传感器和投影仪单元180可以在其自身的坐标系中标识这样的对象的位置。
在一个实现中,系统100可以包括用于验证系统100内的组件关于彼此的对准的程序。程序可以由在设备150内执行的软件发起。作为示例,程序可以验证触敏垫200是否关于其它组件正确对准,以及传感器捆束164是否关于投影仪组装件184正确地校准,如将进一步描述的。作为示例,验证程序可以定期(例如每周一次)、在系统100上电时或在垫200重连时执行。如果检测到系统100内的组件的未对准,可以执行校准操作。
作为示例,系统100内的组件(至少在投影仪组装件184与触敏表面202之间)的对准可以通过检测触敏表面202的角落和投影仪显示空间的角落以及基于根据诸如单应性之类的映射方法确定两个角落集合之间的任何对应性来验证。作为示例,可以生成两个角落集合之间的矢量偏移以便确定任何对应性。基于在两个角落集合之间检测到的差异,可以在系统100的一个或多个组件上执行(例如自动和/或手动的)校准操作,如将进一步描述的。作为示例,角落或触敏表面202可以反映射到投影仪显示空间的角落以用于估计投影仪组装件184与触敏垫200之间的重对准单应性。
现在参照图5和6,在系统100的操作期间,光187从投影仪组装件184发射,并且朝向垫200被反射离开镜162从而在投影仪显示空间188上显示图像。在该示例中,空间188大体为矩形并且由长度L188和宽度W188限定。在一些示例中,长度L188可以近似等于16英寸,而宽度W188可以近似等于12英寸;然而,应当领会的是,可以使用用于长度L188和宽度W188二者的其它值而仍旧遵从本文所公开的原理。此外,捆束164内的传感器(例如传感器164a,164b,164c,164d)包括被感测空间168,其在至少一些示例中,与之前描述的投影仪显示空间188重叠和/或对应。空间168限定捆束164内的传感器布置成以之前描述的方式监视和/或检测其状况的体积。在一些示例中,空间188和空间168二者重合或与之前描述的垫200的表面202对应,以有效地在所限定的区域内集成触敏表面202、投影仪组装件184和传感器捆束164的功能。在一个实现中,投影仪显示空间188可以与触敏垫200的触敏表面202重合,使得空间188的边界刚好落在表面202的边界内。
现在参照图5-7,在一些示例中,设备150引导组装件184以将图像投影到垫200的表面202上。此外,设备150还可以在显示器152上显示图像(其可以与由组装件184投影到表面202上的图像相同或可以不相同)。由组装件184投影的图像可以包括由设备150内执行的软件产生的信息和/或图像。用户(未示出)然后可以通过物理地接合垫200的触敏表面202来与显示在表面202和显示器152上的图像交互。这样的交互可以通过任何合适的方法发生,该方法诸如利用用户的手部35的直接交互、通过触笔25或(多个)其它合适的用户输入设备。多传感器和投影仪校准空间允许用户将物理对象引入到该空间中,并且系统由于传感器坐标变换能力而能够利用投影仪来追踪、捕获和影响对象上的视觉效果。
如图7中所示,当用户与垫200的表面202交互时,生成通过之前描述的电气耦合方法和设备中的任一个路由至设备150的信号。一旦设备150接收到在垫200内生成的信号,该信号通过内部导体路径153被路由至处理器250,处理器250与非暂时性计算机可读存储介质260通信以生成然后被路由回到投影仪组装件184和/或显示器152的输出信号以分别实现投影到表面202上的图像和/或显示在显示器152上的图像中的改变。还应当领会的是,在该过程期间,用户还可以通过与部署在其上的触敏表面的接合和/或通过诸如例如键盘和鼠标之类的另一用户输入设备与显示在显示器152上的图像交互。
此外,在一些示例中,触笔25还包括布置成追踪触笔25的定位(无论触笔25是否与表面202交互)并且通过无线信号50与部署在设备150内的接收器270通信的发送器27。在这些示例中,由接收器270从触笔25上的发送器27接收的输入还通过路径153被路由至处理器250,使得输出信号可以被生成和路由至组装件184和/或如之前所描述的显示器152。
另外,在一些示例中,包括在传感器捆束164中的传感器(例如传感器164a,164b,164c,164d)还可以生成系统输入,其被路由至设备150以供处理器250和设备260进一步处理。例如,在一些实现中,传感器捆束164可以感测用户的手部35或触笔25的位置和/或存在并且然后生成路由至处理器250的输入信号。处理器250然后生成以上面所描述的方式被路由至显示器152和/或投影仪组装件184的对应输出信号。特别地,在一些实现中,捆束164包括布置成执行(例如触笔25的)立体触笔追踪的相机或传感器对。在再其它的实现中,触笔25包括涂敷在红外反向反射涂层(例如涂漆)中的尖端26,因而允许它充当红外反向反射器。捆束164(并且更特别地为传感器164c或164d)然后还可以包括如之前所描述的红外相机或传感器,其检测被反射离开触笔25的尖端26的红外光并且因而在尖端26在操作期间跨表面202移动时追踪其位置。
作为结果,在一些示例中,由组装件184投影到表面202上的图像充当系统100内的第二或可替换触敏显示器。此外,与显示在表面202上的图像的交互还通过使用如以上描述的传感器捆束164中的传感器(例如传感器164a,164b,164c,164d)进一步增强。
而且,计算设备150可以包括校准模块280,其根据一些实现能够执行校准过程以用于校准捆束164中的传感器和投影仪组装件184。在一些示例中,校准模块280可以实现为在一个或多个处理器250上可执行的机器可读指令。在其它示例中,校准模块可以存在于计算设备150外部的校准模块系统中并且可以实现为硬件。在一个示例中,校准模块280可以通过网络与捆束164通信。另外,非暂时性计算机可读存储介质260可以存储映射信息,其中映射信息涉及捆束164的不同传感器之间的映射。映射信息用于执行除关于投影仪组装件184的校准之外的捆束164的传感器之间的校准。在一个实现中,可以导出捆束164中的每一个传感器对之间的单应性映射。单应性映射是3D至2D映射,并且在(深度传感器164c的)三维(3D)坐标与(捆束164中的另一传感器的)二维(2D)坐标之间进行映射。例如,3D单应性映射可以针对传感器捆束164中的深度传感器164c与姿势传感器164d之间的直接映射而导出。在另一示例中,可以在深度传感器164c的3D坐标与投影仪组装件184的2D坐标之间限定投影映射。特别地,两个传感器之间的3D映射可以包括尺度、旋转、平移和深度不变。
在一个示例中,校准通过能够将第一传感器(例如深度传感器164c)和第二传感器(例如姿势传感器164d)中的一个的数据映射到第一和第二视觉传感器中的另一个的坐标空间来实现。系统可以使用第一传感器的坐标系或第二传感器的坐标系。该过程可以牵涉计算用于传感器对(第一和第二传感器)的透视变换。透视变换可以通过在平面上投影来自两个不同投影中心的另一平面的点而被限定为平面中的共线设置,并且每一对传感器可以具有经计算的透视变换。在另一示例中,可以基于物理真实世界坐标(基于在多个传感器中的至少一个的视场中可见的可见原点)来使用公共坐标系。例如,可以标识与多个传感器中的至少一个共享透视变换的公共坐标系。该过程可以针对164中的每一个其它视觉传感器对重新迭代以提供捆束164中的每一个其它传感器对之间的直接3D至2D映射。
仍旧参照图5-7,此外,在至少一些示例的操作期间,系统100可以捕获二维(2D)图像或创建物理对象的3D扫描使得对象的图像然后可以被投影到表面202上以供其进一步使用和操纵。特别地,在一些示例中,对象40可以被放置在表面202上使得164内的传感器(例如相机164b、深度传感器164c等)可以检测例如位置、尺寸,以及在一些实例中,对象40的颜色,以增强2D图像或创建其3D扫描。由164内的传感器(例如传感器164b,164c)搜集的信息然后可以被路由至处理器250,其与如之前所描述的设备260通信。此后,处理器250引导投影仪组装件184将对象40的图像投影到表面202上。如以上更加详细解释的,当使用投影仪和相机的校准单应性时,处理器250可以指令计算机系统150中的应用绘制可以由观看对象40的相机164b检测的对象周围的紧密细白色轮廓。作为校准过程的结果(例如使用公共坐标系,导致跨所有传感器和投影仪的相同分辨率和图像纵横比),所投影的轮廓匹配对象40的物理位置。
还应当领会的是,在一些示例中,还可以由捆束164内的传感器扫描诸如文档或照片之类的其它对象以便生成利用组装件184投影到表面202上的其图像。此外,在一些示例中,一旦由捆束164内的传感器扫描(多个)对象,图像的背景可以可选地在投影到表面202上(或在设备150的显示器152上示出)的所得图像内被数字移除。因此,在一些示例中,可以在操作期间捕获、数字化和在表面202上显示物理对象(例如对象40)的图像以迅速且容易地创建物理对象的数字版本以允许与本文所描述的方式一致的其另外的操纵。
如以上指出的,可以在深度传感器164c的3D坐标与投影仪组装件184的2D坐标之间限定投影映射。投影仪组装件184可以用于将校准图案(其是已知或预定义图案)投影到投影表面202上。在一个实现中,校准图案可以被投影到白色平坦表面对象上以使所投影的内容可见。在一些示例中,对象可以是3D空间中的平面。校准图案可以是棋盘图案。
深度传感器164c可以捕获由投影仪组装件184投影到对象上的校准图案图像。由深度传感器164c捕获的(所投影的校准图案图像的)视觉数据在(通过3D坐标限定的)3D空间中,而由投影仪组装件184投影的校准图案在(通过2D坐标限定的)2D空间中。深度传感器164c的3D坐标与投影仪组装件184的2D坐标之间的投影映射通过以下的Eq.1限定:
(Eq. 1)
其中x表示2D坐标并且X表示3D坐标。更具体地,Eq.1可以写作
(Eq. 2)
其中表示2D坐标,表示3D坐标,是任意尺度(具有预定义值),K表示固有参数,R表示外来旋转参数,并且t表示外来平移(translation)参数。固有参数K被限定如下:
(Eq. 3)
其中表示视觉传感器的透镜的焦距,表示沿视觉传感器的光轴的光学中心,并且s是表示视觉传感器的偏斜失真的偏斜系数。
外来旋转参数(R)和外来平移参数(t)是传感器的几何参数的部分。旋转参数可以限定视觉传感器在几何空间中的摇射、倾斜和偏航。平移参数可以限定视觉传感器在几何空间中的平移定位。
以所描述的方式,通过使用依照本文所公开的原理的计算机系统100的示例,可以将附加触敏显示投影到触敏表面(例如表面202)上以便为计算设备(例如设备150)提供双屏(dual screen)能力。此外,通过使用依照本文所公开的原理的计算机系统100,可以扫描物理对象(例如对象40)从而创建用于在计算设备的显示表面(例如显示器152和/或表面202)上观看和/或操纵的物理对象的数字版本。另外,通过使用依照本文所公开的原理的计算机系统100,可以创建用于远程定位的用户的数字共享工作站,其中物理内容可以在数字协作工作站的所有并发用户之中被扫描、数字化和共享,并且与数字内容和/或物理对象的用户交互对所有参与者可见。
虽然已经将设备150描述为多合一计算机,但是应当领会的是,在其它示例中,设备150还可以采用更传统的用户输入设备(诸如例如键盘和鼠标)的使用。此外,虽然已经将捆束164内的传感器164a,164b,164c,164d描述为每一个表示单个传感器或相机,但是应当领会的是,传感器164a,164b,164c,164d中的每一个可以各自包括多个传感器或相机而同时仍旧遵从本文所描述的原理。另外,虽然在本文中已将顶部160描述为悬臂式顶部,但是应当领会的是,在其它示例中,顶部160可以在多于一个点处被支撑并且因而可以不是悬臂式的,而同时仍旧遵从本文所公开的原理。
现在转向系统100的操作。图8图示了依照实现的示例过程流程图800。过程800描绘了可以与传感器的捆束和投影单元交互的方法的示例。机器可读指令可以指令处理器250允许系统100执行如由图8中的流程图所图示的过程800。在一个实现中,系统100可以响应于从用户接收到控制投影系统的指令而执行过程800。
过程800可以在块805处开始,其中系统中的多个传感器中的第一传感器捕获校准图案并且提供给校准模块。在一个示例中,校准图案可以是已知或预定义的图案。例如,校准图案可以是棋盘图案。
在块810处,系统的校准模块检测来自传感器捆束中的传感器的特征。在一个实现中,校准模块检测校准图案的特征。例如,特征检测牵涉标识示例校准图案图像的棋盘图案的特征。在一个示例中,特征可以与第一传感器的坐标空间中的坐标相关联。
在块815处,校准模块将所检测到的特征的坐标映射到公共坐标空间。在一个示例中,公共空间坐标可以表示在距与第一传感器相关联的第一位置(place)任意距离处限定的坐标空间。而且,公共坐标空间可以与第一传感器共享透视变换。
在块820处,校准模块基于所映射的坐标(并且更具体地,公共坐标空间)和第一传感器的坐标空间中的坐标导出第二传感器的坐标空间与公共坐标空间中的坐标之间的映射。更具体地,映射可以用于关于彼此校准传感器捆束中的传感器。
在另一实现中,校准模块基于所映射的坐标导出投影仪的坐标空间与公共坐标空间中的坐标之间的映射。该映射可以用于关于传感器捆束中的传感器校准投影仪。
以上讨论意指说明本发明的原理和各种实施例。一旦完全领会以上公开内容,众多变型和修改将变得对本领域技术人员而言显而易见。意图在于下面的权利要求被解释成涵盖所有这样的变型和修改。

Claims (15)

1.一种系统,包括:
投影仪单元;
多合一计算机,包括校准模块并且可附连到投影仪单元,
通信地耦合到多合一计算机的多个传感器;并且
其中多合一计算机存储涉及公共坐标系中的投影仪单元与多个传感器之间的映射的映射信息,并且
其中校准模块使用所述映射信息校准多个传感器和投影仪单元。
2.权利要求1的系统,其中校准模块计算多个传感器之间的透视变换以导出所述多个传感器之间的所述映射。
3.权利要求1的系统,其中校准模块将多个传感器和投影仪单元映射到参考传感器,其中所述参考传感器是深度传感器。
4.权利要求1的方法,其中所述映射包括三维(3D)至二维(2D)映射,所述映射在多个传感器中的一个传感器的3D坐标与另一传感器的2D坐标之间进行映射。
5.权利要求1的系统,其中所述多个传感器包括深度传感器和姿势传感器,并且所述映射包括所述深度传感器和所述姿势传感器的数据的映射。
6.权利要求1的系统,其中所述多个传感器包括深度传感器,并且所述映射包括所述深度传感器的3D坐标与所述投影仪单元的2D坐标之间的投影映射。
7.权利要求1的方法,其中所述多个传感器之间的所述映射包括涉及尺度、旋转、平移和深度不变的数据。
8.权利要求1的系统,其中所述多个传感器中的一个是深度传感器,并且所述深度传感器检测由所述投影仪单元投影的校准图案。
9.权利要求7的系统,其中所述校准图案可以是已知或预定义的图案,诸如棋盘图案。
10.权利要求7的系统,其中所述校准图案与公共坐标系统中的所述投影仪单元与所述多个传感器之间的映射有关地使用。
11.权利要求1的系统,其中所述多个传感器包括多个相机,所述多个相机中的一些用于深度检测、姿势感测和立体触笔追踪。
12.一种用于提供多个传感器与投影仪单元之间的校准的方法,包括:
接收校准图案,其中所述多个传感器至少具有第一传感器和第二传感器;
检测所述校准图案的特征,所述特征与所述第一传感器的坐标空间中的坐标相关联;
将所检测到的特征的坐标映射到公共坐标空间;以及
基于所述第一传感器的坐标空间中的所述坐标和所映射的坐标导出第二传感器的坐标空间与公共坐标空间中的坐标之间的映射。
13.权利要求12的方法,还包括计算所述第一传感器与第二传感器之间的透视几何结构。
14.权利要求12的方法,还包括导出所述多个传感器与投影仪单元之间的投影映射。
15.权利要求14的方法,其中所述多个传感器包括深度传感器,并且投影映射在所述深度传感器的3D坐标与所述投影仪单元的2D坐标之间。
CN201480078622.4A 2014-02-28 2014-02-28 传感器和投影仪的校准 Expired - Fee Related CN106255938B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/019693 WO2015130320A1 (en) 2014-02-28 2014-02-28 Calibration of sensors and projector

Publications (2)

Publication Number Publication Date
CN106255938A true CN106255938A (zh) 2016-12-21
CN106255938B CN106255938B (zh) 2019-12-17

Family

ID=54009487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480078622.4A Expired - Fee Related CN106255938B (zh) 2014-02-28 2014-02-28 传感器和投影仪的校准

Country Status (5)

Country Link
US (1) US10241616B2 (zh)
EP (1) EP3111299A4 (zh)
CN (1) CN106255938B (zh)
TW (1) TWI547828B (zh)
WO (1) WO2015130320A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108279809A (zh) * 2018-01-15 2018-07-13 歌尔科技有限公司 一种校准方法和装置

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016105496A1 (de) * 2015-03-26 2016-09-29 Faro Technologies Inc. System zur Prüfung von Objekten mittels erweiterter Realität
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9753591B2 (en) 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US11106314B2 (en) * 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9791979B2 (en) 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9804718B2 (en) * 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
FR3043295A1 (fr) * 2015-11-04 2017-05-05 Florence Christine Elisabeth Maliar Dispositif de realite augmentee spatiale pour un environnement de bureau
KR20230165389A (ko) * 2016-07-24 2023-12-05 라이트 필드 랩, 인코포레이티드 홀로그램 에너지 지향 시스템에 대한 캘리브레이션 방법
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
US10275047B2 (en) 2016-08-30 2019-04-30 Lenovo (Singapore) Pte. Ltd. Determining stylus location relative to projected whiteboard using secondary IR emitter on stylus
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US11393366B2 (en) 2017-07-11 2022-07-19 Hewlett-Packard Development Company, L.P. Projection calibrations
US20200213576A1 (en) * 2017-09-14 2020-07-02 Oregon State University Automated calibration target stands
US11132090B2 (en) * 2017-12-04 2021-09-28 Hewlett-Packard Development Company, L.P. Peripheral display devices
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10276075B1 (en) * 2018-03-27 2019-04-30 Christie Digital System USA, Inc. Device, system and method for automatic calibration of image devices
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
KR101977332B1 (ko) * 2018-08-03 2019-05-10 주식회사 버넥트 증강현실 원격화상통신환경에서 직관적인 가이드를 위한 테이블탑 시스템
US20220179516A1 (en) * 2019-07-23 2022-06-09 Hewlett-Packard Development Company, L.P. Collaborative displays
CN111123625B (zh) * 2019-12-13 2021-05-18 成都极米科技股份有限公司 投影仪及投影方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120035934A1 (en) * 2010-08-06 2012-02-09 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
CN102763422A (zh) * 2010-02-23 2012-10-31 微软公司 用于无设备的增强的现实与交互的投影仪和深度相机
US20120300044A1 (en) * 2011-05-25 2012-11-29 Thomas Clarence E Systems and Methods for Alignment, Calibration and Rendering for an Angular Slice True-3D Display
CN102929430A (zh) * 2011-10-20 2013-02-13 微软公司 多指针间接输入设备的显示映射模式
CN103455141A (zh) * 2013-08-15 2013-12-18 无锡触角科技有限公司 互动投影系统及其深度传感器和投影仪的校准方法

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US7050085B1 (en) 2000-10-26 2006-05-23 Imove, Inc. System and method for camera calibration
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
US6789039B1 (en) 2000-04-05 2004-09-07 Microsoft Corporation Relative range camera calibration
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
JP4501239B2 (ja) 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
KR100386090B1 (ko) 2001-04-02 2003-06-02 한국과학기술원 동심원 패턴을 이용한 카메라 내부변수 보정시스템 및카메라 보정방법
US20030076980A1 (en) 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7068303B2 (en) 2002-06-03 2006-06-27 Microsoft Corporation System and method for calibrating a camera with one-dimensional objects
US7151530B2 (en) * 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7119833B2 (en) 2002-12-03 2006-10-10 University Of Kentucky Research Foundation Monitoring and correction of geometric distortion in projected displays
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
US20040222987A1 (en) 2003-05-08 2004-11-11 Chang Nelson Liang An Multiframe image processing
US20050078092A1 (en) 2003-10-08 2005-04-14 Clapper Edward O. Whiteboard desk projection display
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7613361B2 (en) 2004-05-14 2009-11-03 Canon Kabushiki Kaisha Information processing method and device
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
JP4681856B2 (ja) 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
CA2615228A1 (en) 2005-04-11 2006-10-19 Polyvision Corporation Automatic projection calibration
US7773827B2 (en) 2006-02-15 2010-08-10 Mersive Technologies, Inc. Hybrid system for multi-projector geometry calibration
US7599561B2 (en) 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
WO2008130906A1 (en) 2007-04-17 2008-10-30 Mikos, Ltd. System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
US8199117B2 (en) 2007-05-09 2012-06-12 Microsoft Corporation Archive for physical and digital objects
US7671891B2 (en) 2007-05-22 2010-03-02 Microsoft Corporation Online camera calibration
JP2009100342A (ja) 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
KR100966592B1 (ko) 2007-12-17 2010-06-29 한국전자통신연구원 영상에서 평행 사변형의 호모그래피를 이용한 카메라의 보정 방법
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
GB2466497B (en) 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
JP2010273091A (ja) 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> 広域多視点カメラ校正方法、広域多視点カメラ校正装置、およびプログラム
KR101095670B1 (ko) 2009-07-06 2011-12-19 (주) 비전에스티 스테레오 카메라의 고속 칼리브레이션 및 렉티피케이션 방법 및 장치
US20110010122A1 (en) 2009-07-07 2011-01-13 Delta Design, Inc. Calibrating separately located cameras with a double sided visible calibration target for ic device testing handlers
TWI402479B (zh) 2009-12-15 2013-07-21 Ind Tech Res Inst 深度感測方法及應用其之系統
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US8355601B2 (en) 2010-01-15 2013-01-15 Seiko Epson Corporation Real-time geometry aware projection and fast re-calibration
TWI423096B (zh) 2010-04-01 2014-01-11 Compal Communication Inc 具可觸控投影畫面之投影系統
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
CN102466519B (zh) 2010-11-10 2014-02-05 敦南科技股份有限公司 光感测装置的输出信号校正方法及光感测装置
GB2486445B (en) 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
US8736583B2 (en) 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US9270974B2 (en) 2011-07-08 2016-02-23 Microsoft Technology Licensing, Llc Calibration between depth and color sensors for depth cameras
US20140139668A1 (en) 2011-08-02 2014-05-22 David Bradley Short Projection capture system and method
JP5864950B2 (ja) 2011-08-15 2016-02-17 キヤノン株式会社 三次元計測装置、三次元計測方法およびプログラム
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
DE102011114674C5 (de) 2011-09-30 2020-05-28 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
US8933912B2 (en) 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US8497841B1 (en) * 2012-08-23 2013-07-30 Celluon, Inc. System and method for a virtual keyboard
US9519968B2 (en) 2012-12-13 2016-12-13 Hewlett-Packard Development Company, L.P. Calibrating visual sensors using homography operators
US9210404B2 (en) 2012-12-14 2015-12-08 Microsoft Technology Licensing, Llc Calibration and registration of camera arrays using a single circular grid optical target
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763422A (zh) * 2010-02-23 2012-10-31 微软公司 用于无设备的增强的现实与交互的投影仪和深度相机
US20120035934A1 (en) * 2010-08-06 2012-02-09 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
US20120300044A1 (en) * 2011-05-25 2012-11-29 Thomas Clarence E Systems and Methods for Alignment, Calibration and Rendering for an Angular Slice True-3D Display
CN102929430A (zh) * 2011-10-20 2013-02-13 微软公司 多指针间接输入设备的显示映射模式
CN103455141A (zh) * 2013-08-15 2013-12-18 无锡触角科技有限公司 互动投影系统及其深度传感器和投影仪的校准方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108279809A (zh) * 2018-01-15 2018-07-13 歌尔科技有限公司 一种校准方法和装置
CN108279809B (zh) * 2018-01-15 2021-11-19 歌尔科技有限公司 一种校准方法和装置

Also Published As

Publication number Publication date
EP3111299A4 (en) 2017-11-22
TW201533612A (zh) 2015-09-01
WO2015130320A1 (en) 2015-09-03
US10241616B2 (en) 2019-03-26
EP3111299A1 (en) 2017-01-04
CN106255938B (zh) 2019-12-17
US20160378258A1 (en) 2016-12-29
TWI547828B (zh) 2016-09-01

Similar Documents

Publication Publication Date Title
CN106255938A (zh) 传感器和投影仪的校准
TWI529475B (zh) 具有投影機單元和電腦之系統
CN104871084B (zh) 自适应投影仪
TWI546719B (zh) 用以鏡面式反射紅外光線之投影螢幕
US10114512B2 (en) Projection system manager
CN105723300A (zh) 基于表示对象的图像确定分割边界
US20160334938A1 (en) Touch sensitive mat of a system with a projector unit
US10664090B2 (en) Touch region projection onto touch-sensitive surface
TWI575406B (zh) 用以產生顯示區之角落的方法、相關電腦系統及機器可讀儲存媒體
KR102183692B1 (ko) 투영 객체 인식을 통한 미러 디스플레이 기반 증강 현실 영상 서비스 장치 및 방법
US10725586B2 (en) Presentation of a digital image of an object
US10649584B2 (en) Process image according to mat characteristic
TWI566169B (zh) 管理顯示單元之方法、電腦可讀媒體及相關系統
CN107079126A (zh) 图像投影
US20170329207A1 (en) Tracking a handheld device on surfaces with optical patterns
CN107077196A (zh) 识别触敏表面上的对象
TW201621554A (zh) 物件影像之捕捉及投影技術

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20191217

CF01 Termination of patent right due to non-payment of annual fee