CN106997240B - 可视化装置 - Google Patents
可视化装置 Download PDFInfo
- Publication number
- CN106997240B CN106997240B CN201610976668.9A CN201610976668A CN106997240B CN 106997240 B CN106997240 B CN 106997240B CN 201610976668 A CN201610976668 A CN 201610976668A CN 106997240 B CN106997240 B CN 106997240B
- Authority
- CN
- China
- Prior art keywords
- virtual
- real
- light box
- computer
- implemented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Arrangement Of Elements, Cooling, Sealing, Or The Like Of Lighting Devices (AREA)
- Image Generation (AREA)
Abstract
一种可视化装置,包括真实灯箱(100),所述真实灯箱(100)包括用于照亮放在真实灯箱中的真实物体(OR)的照明阵列(150)、以及实现为屏幕(140)的后限制壁。所述装置还包括计算机(300),所述计算机实现为在屏幕(140)上空间地显示虚拟灯箱(200),使得屏幕(140)上所显示的虚拟灯箱(200)看起来形成真实灯箱(100)的连续向后延伸,使得给观察者(B)这是一个连续的灯箱的印象。此外,计算机(300)实现为在屏幕(140)上显示虚拟物体(OV),使得虚拟物体(OV)位于虚拟灯箱(200)中。真实灯箱和虚拟灯箱的组合使观察者能够在与真实物体的直接比较中逼真地评估渲染至虚拟物体的外观数据。
Description
技术领域
本发明涉及一种可视化装置。
背景技术
在广义上来讲,本发明属于借助计算机图形技术使物体或材料在屏幕上可视化的领域,其中真实材料的数字化表示或真实物体表面的数字化表示被应用于(渲染到)为任意形式的虚拟物体,然后在用户选择的照明条件和用户选择的观察方向的条件下,将按此方式模拟出的虚拟物体的外观显示在屏幕上。
材料的外观应理解为意味着表示物理材料(例如物体的表面)的视觉影像,所述影像在由不同照明和观察条件下的所有其色彩、结构和材料特性的整体决定。材料特性例如包括半透明。外观数据是材料的外观的数字化表示。渲染应理解为意味着将描述材料的外观的数据(即外观数据)计算机图形化地应用于虚拟材料或物体的表面,并显示该虚拟材料或物体。术语“外观”、“外观数据”和“渲染”本身已被限定在相关专用范围内,因此也被用于本文的语境中。
在举例来说如产品设计的创新性应用中,需要外观数据的综合数据库。外观数据和/或数据集的已知示例包括所谓双向纹理函数(BTF)以及空间变化双向反射分布函数(SVBRDF)。为了获得一组外观数据,举例来说如真实材料和/或真实物体表面的BTF或SVBRDF,要针对大量的照明方向和观察方向对所讨论的物体的代表性表面区域逐个像素地进行比色测量,一般是通过使用多个数字彩色照相机以及包括数百个点光源的综合照明系统来进行,所述点光源被布置为分布于待测量材料的上半球和/或下半球。
真实材料的可获得的外观数据被用于可视化,也就是,利用将外观数据用作输入数据的数字渲染技术,在任意期望的照明条件和任意期望的观察方向下,以渲染到任意形式的虚拟物体上的形式,将材料图形化地显示在屏幕上。适当的渲染技术和相应的软件在计算机图形学中是公知的,且不是本发明的主题。仅需提及的是,这种渲染技术能够对于任意设定的照明方向和任意设定的观察方向,从对应于真实材料的每个像素的外观数据中提取颜色值(颜色反射率值),其中可以通过对外观数据中包含的值之间进行插值来计算出中间值。
在所述可视化技术的所有实际应用中,寻求在所有照明和观察条件下,基础真实材料和/或物体的外观与虚拟物体之间的尽可能好的匹配,真实材料的外观已被渲染到了所述虚拟物体上。如果假设所使用的渲染技术本身足够强大,则虚拟化的质量主要取决于基础外观数据的质量。此外,一些真实材料相比于其他的而言较不适用于模拟可视化。最终,只能通过视觉比较基础真实材料和/或物体与虚拟物体来评估可视化质量,但是其中该视觉比较应当尽可能多地在受控的照明和观察条件下进行。
发明内容
针对此背景,本发明的目的是提供一种可视化装置,其能够进行真实物体与虚拟物体的直接视觉评估和比较,所述虚拟物体通过该真实物体的数字外观数据的基于计算机的渲染而显示在屏幕上。该可视化装置尤其是意在能够在受控的照明和观察条件下进行评估和/或比较。
利用根据本发明的可视化装置,可以实现本发明的目标,所述可视化装置的特征在本发明的实施例中描述。根据本发明的可视化装置的优选实施方式和改进方式在本发明的进一步实施例中描述。
本发明的重点如下。一种可视化装置包括真实灯箱,所述真实灯箱包括照明阵列和限制壁,所述限制壁相对于观察者而言是后壁。真实灯箱的后限制壁被实现为屏幕,该装置包括计算机,所述计算机被实现为在屏幕上显示虚拟灯箱,使得显示在屏幕上的虚拟灯箱看起来形成真实灯箱的连续向后延伸,从而给观察者这是一个连续的灯箱的印象。此外,计算机被实现为在屏幕上显示至少一个虚拟物体,使得该虚拟物体看起来位于虚拟灯箱中。
真实灯箱和形成了真实灯箱的虚拟延续的虚拟灯箱的根据本发明的组合,使得观察者能在非常逼真的条件下以直接与真实物体比较的方式来评估渲染至虚拟物体的数字外观数据。根据本发明的综合方案允许在不受限的情况下评估材料,同时利用明确界定且标准化的观察环境来保持对形状和光线的影响的完全控制。
根据一个优选实施方式,真实灯箱包括真实底限制壁和真实侧限制壁,在真实底限制壁和两个真实侧限制壁的每个之间实现以常数或多面方式形成圆角的真实过渡区域。此外,虚拟灯箱包括虚拟底限制壁和虚拟侧限制壁,在虚拟底限制壁和两个虚拟侧限制壁中的每个之间实现以常数或多面方式形成圆角的虚拟过渡区域。此外,在观察者看来真实过渡区域和虚拟过渡区域彼此无缝过渡,其中真实过渡区域有利地向后延伸,并且虚拟过渡区域也相应地向后延伸。
于是虚拟灯箱有利地包括虚拟后限制壁以及位于虚拟底限制壁和虚拟后限制壁之间的虚拟过渡区域,该虚拟过渡区域被实现为以常数或多面方式形成圆角。
虚拟灯箱适宜地包括位于虚拟后限制壁和虚拟侧限制壁之间的虚拟过渡区域,这些虚拟过渡区域被实现为以常数或多面方式形成圆角。
虚拟后限制壁和虚拟侧限制壁和虚拟底限制壁之间的虚拟过渡区域的形状有利地为回旋曲线。
由于形成圆角(以常数或多面方式形成圆角)的过渡区域,因此在显示虚拟灯箱时几乎没有或没有明显的视差误差(parallax error)。
可视化装置有利地包括第一传感器阵列,用于检测观察者眼睛的位置。第一传感器阵列和计算机有利地被实现为确定观察者眼睛在支撑座区域上方的高度,且该装置包括受控于计算机的、用于调节真实灯箱在支撑座区域上方的高度的装置,其中计算机被实现为基于所确定的观察者眼睛在支撑座区域上方的高度来设置真实灯箱在支撑座区域上方的高度。这样能保证观察者总是具有最佳的观察条件,而与其物理高度无关。
根据另一个有利的实施方式,第一传感器阵列和计算机被实现为确定观察者眼睛相对于真实灯箱的位置,所述计算机被实现为基于所确定的观察者眼睛位置来调节虚拟灯箱的透视显示,使得无论观察者处于任意位置,在观察者看起来虚拟灯箱都显示为真实灯箱的连续延伸。
计算机有利地被实现为将输入到所述计算机的真实材料或物体的外观数据渲染到虚拟物体上。
计算机尤其有利地被实现为基于所确定的观察者眼睛的位置来调节虚拟物体的透视显示。观察者因此总是从相同的透视视角看到真实物体和虚拟物体。
根据根据本发明的可视化装置的另一个有利的实施方式,在计算机中储存基于不同的观察角度的多个监视器配置文件,计算机被实现为当渲染虚拟灯箱或虚拟物体时,根据所确定的观察者眼睛相对于真实灯箱的位置,从储存的监视器配置文件中选择或计算出一监视器配置文件并使用该监视器配置文件。使用与观察角度相关的监视器配置文件,进一步提高了显示质量。
根据另一个有利实施方式,可视化装置包括第二传感器阵列,用于检测放在真实灯箱中的一个或多个真实物体的空间取向,且计算机被实现为将相应的虚拟物体的空间取向调节成检测到的真实物体的空间取向。
有利的是,真实灯箱中的照明条件是可调的,且计算机被实现为在虚拟灯箱内复制真实灯箱的照明条件并相应地调节虚拟物体的渲染。观察者因此总是在相同的照明条件下观察真实物体和虚拟物体。
根据另一个有利的实施方式,屏幕为具有在2500至5000cd/m2范围内的高照度的屏幕。根据另一个有利的实施方式,屏幕为自动立体(autostereoscopic)屏幕。
根据另一个有利的实施方式,可视化装置包括第三传感器阵列,用于检测环境光,计算机被实现为基于所检测到的环境光来调节虚拟物体的渲染。这样能够保证真实物体与虚拟物体的客观比较,与环境光无关。
根据另一个有利的实施方式,可视化装置包括第四传感器阵列,用于检测真实灯箱的照明光,计算机被实现为基于所检测到的照明光来调节虚拟物体的渲染。
可视化装置适宜地包括与第四传感器阵列协作的补偿装置,以补偿照明阵列和/或其光源中的变化,尤其是因老化引起的变化。这样能够提供和/或改善可视化装置的长期稳定性。
在根据本发明的可视化装置的一个变形中,照明阵列由受控于计算机的屏幕形成。这样能使照明光在较大的限制范围内以简单的方式根据各个要求进行调节。
在另一个变形中,真实灯箱的侧限制壁及还可以有其底限制壁被实现为受控于计算机的屏幕。这样一方面允许照亮真实物体,另一方面允许以完全半球的环境来显示虚拟物体,其中优选地将光导材料布置在每两个相邻的屏幕之间,以避免产生直角边缘的印象。另外的或可选的是,屏幕可包括位于其侧边的圆角过渡区域。
附图说明
下面将基于附图更详细地描述本发明,附图显示为:
图1是根据本发明的可视化装置的示例性实施方式的基本布置的总体概览示图;
图2是图1中的可视化装置的更详细的示图;
图3是图1中的可视化装置的基于计算机的控制框图。
图4是图1中的可视化装置的详细示图;
图5是沿图4中的V-V线的详细虚拟截面;
图6是沿图4中的VI-VI线的详细虚拟截面;
图7是沿图4中的VII-VII线的详细虚拟截面;
图8是阐述了如何调节透视视角的框图;以及
图9是根据本发明的可视化装置的第二示例性实施方式的示意性草图。
具体实施方式
以下规则适用于下文中对附图的描述:无论何处的单个附图标记没有存在于图中,则就这方面来说参考其他的附图和说明书的相应部分。
根据图1所示,根据本发明的可视化装置包括安装框架1,所述安装框架1在实际操作中位于支撑座区域且容纳装置的所有部件。朝向面对观察者B的前方开口的真实灯箱100被布置在安装框架1的顶部。真实灯箱100通过屏幕140封闭其后侧。虚拟灯箱200显示于屏幕上。真实物体OR置于真实灯箱100中,而虚拟物体OV显示在屏幕上,即,在虚拟灯箱200中。观察者B能同时看到物体OR和OV并从视觉上比较它们。
图2和4更详细地显示了可视化装置。向前方开口的真实灯箱100具有底限制壁110、两个侧限制壁120和130以及由屏幕140形成的后限制壁(图4)。照明阵列150位于灯箱100的顶侧,且包括多个光源151、152以及用于照明阵列和/或其光源的控制器153,所述多个光源151、152在其照度和色温和/或光谱范围方面是不同的并产生散射光和/或点光。可选的是,照明阵列150也可以由计算机控制的屏幕形成。
真实灯箱100实际上根据与已知的该类型灯箱相同的方式来实现,因此不需要进行很详细的描述。其照明阵列150在可选的且特别是标准化的照明条件下(例如具有期望的且特别是标准化的质量的散射光和/或点光)照亮位于灯箱内的真实物体。
计算机300设置为与真实灯箱100侧向相邻,并控制可视化装置的所有组件和/或功能。在真实灯箱100下方设置有可拉出的抽屉,在所述抽屉中设有计算机300的用户接口160。举例来说,用户接口可实现为具有触摸感应屏幕的平板电脑。计算机300还配备有数据接口170(图3),通过该数据接口可以从外部输入数据尤其是外观数据。计算机300包括作为其最重要的元件的渲染引擎350(图3),用于显示虚拟灯箱200并将外观数据应用于虚拟物体并在屏幕140上显示该虚拟物体。
由马达驱动且能受控于计算机300的旋转和/或倾斜工作台180被布置在真实灯箱100的底限制壁110中,所述工作台180用于放置在其上的真实物体。
根据图2,可视化装置还包括与计算机300协作的多种传感器阵列,下面将对其进行描述。
第一传感器阵列包括两组传感器311和312,并与计算机300一起形成身体和头部/脸部识别系统。第一传感器阵列311-312和计算机300实现为确定观察者的眼睛的位置。眼睛的位置应理解为意味着一方面是观察者的眼睛在支撑座区域S上方的高度,而另一方面是观察者的眼睛相对于真实灯箱100的位置。举例来说,两个传感器阵列以本身已知的方式配备有一个或多个照相机和红外传感器。
安装框架1被提供有可以通过液压或电力马达拉长或收回的腿11,利用所述腿11,可以根据所检测和/或计算出的观察者眼睛的高度,通过驱动装置190(仅象征性地显示,且受控于计算机300)将真实灯箱100在支撑座区域S上方的高度(以及因此当然还有虚拟灯箱200的高度)自动设置为最优值,其中,高度的最优值应理解为意味着这样的高度,在此高度观察者已经畅通无阻地看到灯箱,但不能直接看到照明阵列150的光源。
观察者的眼睛相对于真实灯箱100的位置提供了观察者看向真实灯箱100中的空间方向(透视视角(perspective))。计算机300实现为基于所检测到的观察者的眼睛相对于真实灯箱100的位置,调节虚拟灯箱200以及其中所显示的虚拟物体OV的透视显示(perspective display),从而使观察者从与看真实物体OR相同的透视视角看到虚拟灯箱200和其中所显示的虚拟物体OV。
第二传感器阵列由多个照相机形成,在本方案中为四个照相机321、322、323和324。它用于检测放在真实灯箱100中的真实物体OR的空间定向。计算机300实现为将显示在屏幕140上的虚拟物体OV的空间定向调节成所检测到的真实物体OR的空间定向。
第三传感器阵列331包括用于检测环境光的传感器。该传感器可被实现为提供环境光测量功能的颜色测量装置。借助于传感器331和计算机300,可以基于所检测到的环境光来调节虚拟灯箱200中的虚拟物体OV的渲染。
第四传感器阵列341监控照明阵列150所产生的光,并与控制器153协作,补偿照明阵列150中的变化,例如由老化引起的变化,以确保照明的长期稳定性。可以按照与传感器331类似或相同的方式实现第四传感器阵列341。此外,计算机300实现为在渲染虚拟物体OV时,还考虑第四传感器阵列341所检测到的照明光和/或所述照明光的变化。
图3为显示刚才已描述的可视化装置的组件如何与计算机300交互的框图。
根据本发明的可视化装置的最重要的特征是虚拟灯箱200,所述虚拟灯箱200能够通过计算机300空间地显示在屏幕140上,从而使得其对于观察者B来说显示成真实灯箱100的向后延伸,即给观察者一种印象,认为站在一个(进一步向后延伸的)灯箱的前方。虚拟灯箱200在某种程度上是真实灯箱100的虚拟复制,且数字地储存在计算机300中。计算机300可以根据观察者B(的眼睛)的位置来改变和/或调节虚拟灯箱200在屏幕上的空间显示。为此,计算机300与由第一传感器阵列311-312形成的眼睛跟踪系统协作,确定观察者的眼睛相对于真实灯箱100的位置。这个位置限定了观察透视视角,且用于根据观察者眼睛的位置来调节虚拟灯箱200的透视显示。为此,如图8的框图所示,观察者眼睛的位置(方框401)被用于重新计算所需的投影(方框402),然后计算虚拟灯箱的新的合成图像(方框403),最后在屏幕上显示该合成图像(方框404)。可以确定,虚拟物体OV的透视显示可以根据同样的方式进行调节。
如图4所示,举例来说,真实灯箱100的两个水平底部侧边缘并非呈直角,而是呈圆角。为此,在真实灯箱100的底限制壁110与两个侧限制壁120和130中的每个之间分别实现圆角的真实过渡区域121至131,且优选的——但并非必须——从前向后延伸。两个真实过渡区域的曲率半径的尺寸在前部是例如约55mm,在后部就在屏幕140处是例如约105mm。在此显示的两个过渡区域121和131为圆锥形。过渡区域原则上也可以由将相互倾斜的多个平坦的区域或面并置而形成。于是在横截面中过渡区域的曲率不会是常数,而是线性部分的组合。以此方式实现的过渡区域在下文中称为“以多面方式形成圆角”。
虚拟灯箱200包括虚拟底限制壁210、两个虚拟侧限制壁220和230以及虚拟后限制壁240。类似于真实灯箱100,在虚拟底限制壁210与两个虚拟侧限制壁220和230中的每个之间分别设置有(以常数或多面方式)形成圆角的虚拟过渡区域221或231,其中虚拟过渡区域优选为同样向后延伸并分别与真实灯箱100的真实过渡区域121和131无缝连接。如上所述,虚拟灯箱200的透视显示(perspective display)是一直由计算机300调节成由观察者(的眼睛)的位置所限定的透视视角。这样可以给观察者只看到一个灯箱的印象。
由于分别的形成圆角(以常数或多面方式形成)的真实过渡区域121和131以及虚拟过渡区域221和231,观察者不会注意到虚拟灯箱200的投影中的(较小的)视差,这进一步增强了连续灯箱的错觉。
在一种改进方式中,虚拟灯箱200的虚拟后限制壁240与虚拟底限制壁210和虚拟侧限制壁220和230之间的虚拟过渡区域241、242和243也可以实现为圆角,如图5至7中概要所示,其中三个过渡区域241、242和243的形状优选为回旋曲线。
所有的真实和/或虚拟过渡区域或单个的真实和/或虚拟过渡区域原则上也可以由将相互倾斜的多个平坦的区域或面并置而形成。于是在横截面中过渡区域的曲率不会是常数,而是线性部分的组合。
计算机300实现为在屏幕140上显示至少一个任意种类的虚拟物体OV。为此,描述虚拟物体的物理外形的相应数据被储存在计算机中和/或从外部输入计算机中,其中可以以任意取向来显示虚拟物体OV。此外,计算机300实现为将输入计算机中或储存在计算机中的真实物体或材料的外观数据渲染至虚拟物体OV,其中计算机300按照与在真实灯箱100中获取的相同的照明条件下执行渲染。同样地,以与真实灯箱100中的真实物体OR的观察者的透视视角匹配的投影(透视视角)来显示虚拟物体OV。如果真实灯箱100中的照明条件改变,则虚拟灯箱200中的照明条件也自动改变,并且在渲染时考虑改变后的照明条件,其中利用传感器331所检测到的环境光也考虑在内。
可以利用照相机321-324和/或由它们形成的第二传感器阵列(与计算机300协作)来检测放置在真实灯箱100中的真实物体OR的空间位置和/或取向。此外,计算机300实现为将屏幕140上所显示的虚拟物体OV的空间取向调节为实时检测到的真实物体OR的空间取向,即,按照与真实灯箱100中的真实物体OR的取向相同的取向在虚拟灯箱200中显示虚拟物体OV。
通常会使用监视器配置文件来实现最佳屏幕显示质量。屏幕所显示的颜色和/或亮度或多或少取决于观察的角度。根据本发明的一个有利的改进,所使用的用于屏幕140的多个不同的监视器配置文件被储存在计算机300中,其中在以不同的竖直和水平的观察角度校准屏幕时,产生了这些监视器配置文件。计算机300实现为根据观察者(的眼睛)的位置选择一个适当的监视器配置文件,并在渲染虚拟灯箱以及首先是虚拟物体时考虑该监视器配置文件。如果监视器配置文件不适合于观察者眼睛的位置所确定的观察角度,则计算机300还能计算出适用的监视器配置文件,例如通过对邻近真实观察角度的多个已所储存的观察角度相对应的监视器配置文件进行插值来计算。
图9为显示根据本发明的可视化装置的另一个典型实施方式的草图。
在该典型实施方式中,真实灯箱100a的顶限制壁、底限制壁和侧限制壁被实现为受控于计算机300的屏幕150a、110a、120a和130a。为了避免或至少减少每两个相邻屏幕之间的直角过渡印象,可以在这些过渡区域布置光导材料L。在一个变形中,只有真实灯箱的顶限制壁和两个侧限制壁是由屏幕形成的。
这些屏幕可以实现为曲面和/或可包括在其边缘的圆角过渡区域,从而避免直角过渡。
顶部屏幕150a和两个侧部屏幕120a和130a以及也可适用的底部屏幕110a一方面用于照亮真实物体,另一方面用于以完全半球的环境或“场景”(预先记录的)显示虚拟物体,其中半球被相应地投影至屏幕相对于彼此的直角布置中,其中通过利用选择出的环境照亮虚拟物体来执行渲染。
实时同步和调节的外观渲染(照明光、环境光、观察者的位置、真实物体的取向和位置)保证给予观察者非常深的印象,并能保证精确且有意义地评估外观数据以及基于所述外观数据的渲染的质量,并使真实灯箱中的真实材料或物体能与虚拟灯箱中的虚拟物体进行比较。
Claims (24)
1.一种可视化装置,包括真实灯箱(100),所述真实灯箱(100)包括照明阵列(150)和限制壁,所述限制壁相对于观察者(B)而言是后壁,其中真实灯箱(100)的后限制壁被实现为屏幕(140);并且其中所述可视化装置还包括计算机(300),所述计算机被实现为在所述屏幕(140)上空间地显示虚拟灯箱(200),使得显示在所述屏幕(140)上的所述虚拟灯箱(200)看起来形成所述真实灯箱(100)的连续向后延伸,从而给所述观察者(B)这是一个连续的灯箱的印象;并且其中所述计算机(300)还被实现为在所述屏幕(140)上显示至少一个虚拟物体(OV),使得所述虚拟物体(OV)位于所述虚拟灯箱(200)中,其中所述真实灯箱(100)包括:真实底限制壁(110)和真实侧限制壁(120,130);真实过渡区域(121,131),以常数或多面方式形成圆角,并且被实现在所述真实底限制壁(110)和两个真实侧限制壁(120,130)中的每个之间;所述虚拟灯箱(200)包括:虚拟底限制壁(210)和虚拟侧限制壁(220,230);虚拟过渡区域(221,231),以常数或多面方式形成圆角并且位于所述虚拟底限制壁(210)和两个虚拟侧限制壁(220,230)中的每个之间;并且其中在观察者看起来所述真实过渡区域(121,131)和所述虚拟过渡区域(221,231)彼此无缝过渡。
2.如权利要求1所述的装置,其中所述真实过渡区域(121,131)和所述虚拟过渡区域(221,231)向后延伸。
3.如权利要求1或2所述的装置,其中所述虚拟灯箱(200)还包括虚拟后限制壁(240)以及位于所述虚拟底限制壁(210)和所述虚拟后限制壁(240)之间的虚拟过渡区域(241);并且其中该虚拟过渡区域(241)被实现为以常数或多面方式形成圆角。
4.如权利要求3所述的装置,其中所述虚拟灯箱(200)还包括位于所述虚拟后限制壁(240)和所述虚拟侧限制壁(220,230)之间的虚拟过渡区域(242,243);并且其中所述虚拟过渡区域(242,243)被实现为以常数或多面方式形成圆角。
5.如权利要求3所述的装置,其中所述虚拟过渡区域(241,242,243)的形状为回旋曲线。
6.如权利要求1所述的装置,还包括第一传感器阵列(311,312),用于检测观察者(B)的眼睛的位置。
7.如权利要求6所述的装置,其中所述第一传感器阵列(311,312)和所述计算机(300)被实现为确定所述观察者的眼睛在支撑座区域(S)上方的高度;其中所述装置还包括受控于所述计算机(300)的、用于调节所述真实灯箱(100)在所述支撑座区域(S)上方的高度的装置(11,190);并且其中所述计算机(300)被实现为基于所确定的所述观察者的眼睛在所述支撑座区域(S)上方的高度来设置所述真实灯箱(100)在所述支撑座区域(S)上方的高度。
8.如权利要求6所述的装置,其中所述第一传感器阵列(311,312)和所述计算机(300)被实现为确定所述观察者(B)的眼睛相对于所述真实灯箱(100)的位置;并且其中所述计算机(300)被实现为基于所确定的所述观察者的眼睛的位置来调节所述虚拟灯箱(200)的透视显示,使得无论所述观察者处于任意位置,在所述观察者看起来所述虚拟灯箱(200)都显示为所述真实灯箱(100)的连续延伸。
9.如权利要求8所述的装置,其中所述计算机(300)被实现为基于所确定的所述观察者的眼睛的位置来调节所述虚拟物体(OV)的透视显示。
10.如权利要求6所述的装置,其中基于不同的观察角度的多个监视器配置文件被储存在所述计算机(300)中;并且其中所述计算机(300)被实现为当渲染所述虚拟灯箱(200)和所述虚拟物体(OV)时,根据所确定的所述观察者的眼睛相对于所述真实灯箱的位置来从储存的所述监视器配置文件中选择或计算出一监视器配置文件并应用所选择或计算的该监视器配置文件。
11.如权利要求1所述的装置,其中所述计算机(300)被实现为将输入到所述计算机(300)的真实材料的外观数据渲染至虚拟物体(OV)。
12.如权利要求1所述的装置,还包括第二传感器阵列(321,322,323,324),用于检测放在所述真实灯箱(100)中的一个或多个真实物体(OR)的空间取向;并且其中所述计算机(300)被实现为将对应的虚拟物体(OV)的空间取向调节成所检测到的所述真实物体(OR)的空间取向。
13.如权利要求1所述的装置,其中所述真实灯箱(100)中的照明条件是可调的;并且其中所述计算机(300)被实现为在所述虚拟灯箱(200)中复制所述真实灯箱(100)的照明条件,以及相应地调节所述虚拟物体(OV)的渲染。
14.如权利要求1-2和4-13中任意一项所述的装置,其中所述屏幕(140)为具有在2500至5000cd/m2范围内的高照度的屏幕。
15.如权利要求1所述的装置,其中所述屏幕(140)为自动立体屏幕。
16.如权利要求1所述的装置,还包括第三传感器阵列(331),用于检测环境光;并且其中所述计算机(300)被实现为基于所检测到的环境光来调节虚拟物体(OV)的渲染。
17.如权利要求1所述的装置,还包括第四传感器阵列(341),用于检测所述真实灯箱(100)的照明光;并且其中所述计算机(300)被实现为基于所检测到的照明光来调节所述虚拟物体(OV)的渲染。
18.如权利要求17所述的装置,还包括与所述第四传感器阵列(341)协作的补偿装置(153),以补偿所述照明阵列(150)中的变化。
19.如权利要求1所述的装置,其中所述真实灯箱(100;100a)包括顶限制壁,所述顶限制壁被实现为受控于所述计算机(300)的屏幕(150a),代替所述照明阵列。
20.如权利要求1所述的装置,其中所述真实灯箱(100a)的所述真实侧限制壁被实现为受控于所述计算机(300)的屏幕(120a,130a)。
21.如权利要求1所述的装置,其中所述真实灯箱(100a)的所述真实底限制壁被实现为受控于所述计算机(300)的屏幕(110a)。
22.如权利要求19所述的装置,还包括光导材料(L),布置在每两个相邻屏幕(110a,120a,130a,150a)之间,以避免产生直角边缘。
23.如权利要求19所述的装置,其中所述屏幕(110a,120a,130a)在其侧边包括圆角的过渡区域。
24.如权利要求18所述的装置,其中所述照明阵列(150)中的变化因老化引起。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15192098.0 | 2015-10-29 | ||
EP15192098.0A EP3163358B1 (de) | 2015-10-29 | 2015-10-29 | Visualisierungsvorrichtung |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106997240A CN106997240A (zh) | 2017-08-01 |
CN106997240B true CN106997240B (zh) | 2020-06-09 |
Family
ID=54544896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610976668.9A Active CN106997240B (zh) | 2015-10-29 | 2016-10-28 | 可视化装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9704278B2 (zh) |
EP (1) | EP3163358B1 (zh) |
JP (1) | JP6357513B2 (zh) |
CN (1) | CN106997240B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3937133A1 (en) | 2020-07-07 | 2022-01-12 | X-Rite Europe GmbH | Generating a destination texture from a plurality of source textures |
EP3937136A1 (en) | 2020-07-07 | 2022-01-12 | X-Rite Europe GmbH | Visualizing the appearance of at least two materials |
EP3937137A1 (en) | 2020-07-07 | 2022-01-12 | X-Rite Europe GmbH | Visualizing the appearances of at least two materials |
EP3937138A1 (en) | 2020-07-10 | 2022-01-12 | X-Rite Europe GmbH | Displaying a virtual object in a real-life scene |
EP4209998A1 (en) | 2022-01-07 | 2023-07-12 | X-Rite Europe GmbH | Method, computer and computer program for modifying texture images |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1894567A (zh) * | 2003-12-15 | 2007-01-10 | 伊斯曼柯达公司 | 环境光检测电路 |
CN1926886A (zh) * | 2003-08-26 | 2007-03-07 | 视真技术有限公司 | 自动立体多用户显示器 |
CN101115168A (zh) * | 2006-07-27 | 2008-01-30 | 佳能株式会社 | 产生虚拟图像和真实图像的合成图像 |
US7502034B2 (en) * | 2003-11-20 | 2009-03-10 | Phillips Solid-State Lighting Solutions, Inc. | Light system manager |
CN102176888A (zh) * | 2008-08-25 | 2011-09-07 | 苏黎世大学数学和自然科学部 | 可调整的虚拟现实系统 |
CN102866825A (zh) * | 2011-06-21 | 2013-01-09 | 索尼公司 | 显示控制装置、显示控制方法和程序 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69331114T2 (de) * | 1992-12-17 | 2002-06-06 | Sharp Kk | Autostereoskopische Anzeigevorrichtung |
US7242152B2 (en) * | 1997-08-26 | 2007-07-10 | Color Kinetics Incorporated | Systems and methods of controlling light systems |
HU0401034D0 (en) * | 2004-05-24 | 2004-08-30 | Ratai Daniel | System of three dimension induting computer technology, and method of executing spatial processes |
US20080166111A1 (en) * | 2004-12-01 | 2008-07-10 | Richard Didow | Back Light Screen for Chroma-Key Photography |
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
WO2007102237A1 (ja) * | 2006-03-06 | 2007-09-13 | D & M Holdings Inc. | ユーザインタフェース処理装置およびユーザインタフェース処理方法 |
US7470044B2 (en) * | 2006-03-22 | 2008-12-30 | The Picture People | Light diffusion device |
US8139059B2 (en) * | 2006-03-31 | 2012-03-20 | Microsoft Corporation | Object illumination in a virtual environment |
US7680401B1 (en) * | 2007-10-03 | 2010-03-16 | Alan Adelstein | Portable photography studio and method of assembly |
US20120200600A1 (en) * | 2010-06-23 | 2012-08-09 | Kent Demaine | Head and arm detection for virtual immersion systems and methods |
US9386294B2 (en) * | 2011-01-05 | 2016-07-05 | Google Technology Holdings LLC | Method and apparatus for 3DTV image adjustment |
US9417185B1 (en) * | 2012-10-21 | 2016-08-16 | Google Inc. | Controlling light arrays to determine properties of an object |
US9562857B2 (en) * | 2013-03-14 | 2017-02-07 | University Of Southern California | Specular object scanner for measuring reflectance properties of objects |
WO2015140813A1 (en) * | 2014-03-17 | 2015-09-24 | Vats Nitin | Interactive display system with screen cut-to-shape of displayed object for realistic visualization and user interaction |
JP6625801B2 (ja) * | 2015-02-27 | 2019-12-25 | ソニー株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6717302B2 (ja) * | 2015-06-17 | 2020-07-01 | 凸版印刷株式会社 | 画像処理システム、方法、及びプログラム |
-
2015
- 2015-10-29 EP EP15192098.0A patent/EP3163358B1/de active Active
- 2015-12-03 US US14/957,742 patent/US9704278B2/en active Active
-
2016
- 2016-09-16 JP JP2016181643A patent/JP6357513B2/ja active Active
- 2016-10-28 CN CN201610976668.9A patent/CN106997240B/zh active Active
-
2017
- 2017-07-07 US US15/643,810 patent/US10255706B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1926886A (zh) * | 2003-08-26 | 2007-03-07 | 视真技术有限公司 | 自动立体多用户显示器 |
US7502034B2 (en) * | 2003-11-20 | 2009-03-10 | Phillips Solid-State Lighting Solutions, Inc. | Light system manager |
CN1894567A (zh) * | 2003-12-15 | 2007-01-10 | 伊斯曼柯达公司 | 环境光检测电路 |
CN101115168A (zh) * | 2006-07-27 | 2008-01-30 | 佳能株式会社 | 产生虚拟图像和真实图像的合成图像 |
CN102176888A (zh) * | 2008-08-25 | 2011-09-07 | 苏黎世大学数学和自然科学部 | 可调整的虚拟现实系统 |
CN102866825A (zh) * | 2011-06-21 | 2013-01-09 | 索尼公司 | 显示控制装置、显示控制方法和程序 |
Non-Patent Citations (1)
Title |
---|
Creating Spatio-Temporal Contiguities Between Real and Virtual Rooms in an Assistive Living Environment;Kai Kasugai等;《Create’10 Proceedings of the 2010 international conference on The Interaction Design》;20100630;第40-45页 * |
Also Published As
Publication number | Publication date |
---|---|
JP2017097849A (ja) | 2017-06-01 |
EP3163358A1 (de) | 2017-05-03 |
US9704278B2 (en) | 2017-07-11 |
CN106997240A (zh) | 2017-08-01 |
EP3163358B1 (de) | 2018-03-28 |
US20170124743A1 (en) | 2017-05-04 |
US10255706B2 (en) | 2019-04-09 |
JP6357513B2 (ja) | 2018-07-11 |
US20170372502A1 (en) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106997240B (zh) | 可视化装置 | |
KR101740326B1 (ko) | 증강현실 기반 실감체험 장치 및 제공 방법 | |
CN102449680B (zh) | 信息呈现装置 | |
IL268637A (en) | Display system and method | |
Kovács et al. | Tangible holographic 3d objects with virtual touch | |
KR101174551B1 (ko) | 조명장치 | |
KR101102610B1 (ko) | 입체 영상 디스플레이 장치 | |
US10895909B2 (en) | Gaze and saccade based graphical manipulation | |
CN103198513A (zh) | 电影后期合成反走样方法 | |
Nayar et al. | 3D display using passive optical scatterers | |
CN105939466B (zh) | 光投影装置 | |
JP2006507718A (ja) | 空間像を立体的に生成するための光学的構成要素をシミュレートする方法 | |
KR101601212B1 (ko) | 슈도 홀로그램 기반의 3차원 전시 시스템 | |
CN204791811U (zh) | 全息展示台 | |
JP5428454B2 (ja) | 画像生成方法 | |
CN109326242B (zh) | 一种灰度调制方法及计算机可读存储介质 | |
JP2010213054A (ja) | 画像生成方法 | |
JP4925369B2 (ja) | 照明装置 | |
JP6373750B2 (ja) | 肌評価方法及び肌評価支援システム | |
Hiroi et al. | HySAR: Hybrid material rendering by an optical see-through head-mounted display with spatial augmented reality projection | |
CN110310375B (zh) | 全景图像中对象的编辑方法、系统及计算机可读存储介质 | |
Ward et al. | VRVision: A new tool for the display of 3-D images in behavioral research | |
Ferwerda et al. | Tangible images: Bridging the real and virtual worlds | |
US20230237610A1 (en) | Display non-uniformity correction | |
Wakita et al. | A Digital archiving for large 3D woven cultural artifacts exhibition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |