CN108933939A - 用于确定显示设备的特性的方法和设备 - Google Patents
用于确定显示设备的特性的方法和设备 Download PDFInfo
- Publication number
- CN108933939A CN108933939A CN201810499921.5A CN201810499921A CN108933939A CN 108933939 A CN108933939 A CN 108933939A CN 201810499921 A CN201810499921 A CN 201810499921A CN 108933939 A CN108933939 A CN 108933939A
- Authority
- CN
- China
- Prior art keywords
- image
- equipment
- display
- characteristic
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000012545 processing Methods 0.000 claims abstract description 65
- 230000009466 transformation Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000009877 rendering Methods 0.000 abstract description 33
- 230000006870 function Effects 0.000 description 40
- 238000012986 modification Methods 0.000 description 37
- 230000004048 modification Effects 0.000 description 37
- 230000001427 coherent effect Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/04—Diagnosis, testing or measuring for television systems or their details for receivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/514—Depth or shape recovery from specularities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30121—CRT, LCD or plasma display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Quality & Reliability (AREA)
- Architecture (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
在捕获设备捕获包括显示第二图像的显示设备的场景的第一图像的情况下,重要思想是将所捕获的第一图像和由显示设备显示的第二图像二者发送到处理设备,以用于相比较地处理第一和第二图像,以确定与显示设备相关联的特性。能够处理第一图像(包括所显示的第二图像)连同原始的第二图像有利地允许确定与显示设备相关联的各种特性,其在第一图像内改变所显示的第二图像,使其不同于初始的第二图像。与显示设备相关联的特性例如是在场景中的显示设备上发生并且干扰场景的捕获的镜面反射。在第二且非限制性示例中,显示设备的特性是显示设备的色彩再现函数,其使得所显示的第一图像内的所显示的第二图像不同于场景中的所显示的第二图像。
Description
技术领域
本公开涉及图像处理领域,例如在诸如例如平板、智能电话或头戴式显示器(HMD)之类的移动设备上消费的增强现实的背景下。
背景技术
增强现实应用正在变得流行,因为它们允许在消费各种内容的同时改善用户体验。增强现实的一个方面是真实场景与虚拟对象在视频中的合成,其表示一些挑战,因为虚拟对象需要看起来真实。例如,当用户使用设备(例如平板)从包含显示另一视频(例如广播视频)的显示设备(例如TV)的场景捕获视频时,关于所显示的广播视频,在所捕获的视频中合成虚拟对象表示一组未解决的挑战。实际上,在不考虑显示设备的任何特性的情况下,将这样的真实场景与和真实场景中显示的视频有关的虚拟对象合成将缺乏真实感,因为所插入的虚拟对象将在增强视频中看起来不真实。需要一些方法来确定显示包含在所捕获的视频中的视频的显示设备的特性,以在真实场景与相关虚拟对象的合成中考虑它们。
发明内容
在捕获设备捕获包括显示第二图像的显示设备的场景的第一图像的情况下,重要思想是将所捕获的第一图像和由显示设备显示的第二图像二者发送到处理设备,以用于相比较地处理第一和第二图像,以确定与显示设备相关联的特性。能够处理第一图像(包括所显示的第二图像)连同原始的第二图像有利地允许确定与显示设备相关联的各种特性,其在第一图像内改变所显示的第二图像,使其不同于初始的第二图像。与显示设备相关联的特性例如是在场景中的显示设备上发生并且干扰场景的捕获的镜面反射。在第二且非限制性示例中,显示设备的特性是显示设备的色彩再现函数(function),其使得所显示的第一图像内的所显示的第二图像不同于场景中的所显示的第二图像。
为了该目的,公开了一种用于确定显示设备的特性的方法。该方法包括:
-接收场景的第一图像,所述场景包括显示第二图像的显示设备;
-接收第二图像;
-响应于第一图像和第二图像的比较,确定显示设备的特性。
根据特别有利的变型,该方法还包括通过将第二图像与第一图像的区域匹配,获得几何变换。
根据另一特别有利的变型,该方法还包括在所述匹配之前通过检测第一图像中的显示设备,获得第一图像的所述区域。
根据另一特别有利的变型,第一图像和第二图像的比较包括基于所述几何变换比较第一图像的所述区域与第二图像。
根据另一特别有利的变型,显示设备的特性是显示设备上的镜面反射,镜面反射例如由第一图像的元素表示,该元素的色彩具有比第二图像中对应元素的色彩更大的色彩值或者与第二图像中对应元素的色彩不同的色调或不同的饱和度。
根据另一特别有利的变型,该方法还包括从第一图像去除所确定的镜面反射。
根据另一特别有利的变型,显示设备的特性是显示设备(12)的色彩再现函数,色彩再现函数是根据例如捕获场景的设备的色彩特性以及第一和第二图像的比较来确定的。
根据另一特别有利的变型,捕获场景的设备还显示第一图像,并且显示第一图像的设备根据所确定的色彩再现函数被校准。
根据另一特别有利的变型,捕获场景的设备还接收第二图像。
在第二方面中,还公开了一种用于确定显示设备的特性的捕获设备。捕获设备包括:
-用于捕获场景的第一图像的相机,所述场景包括显示第二图像的显示设备;
-用于接收第二图像的网络接口;
-处理部件,其被配置为响应于第一图像和第二图像的比较,确定显示设备的特性。
根据特别有利的变型,处理部件还被配置为通过将第二图像与第一图像的区域匹配,获得几何变换。
根据另一特别有利的变型,显示设备的特性是显示设备上的镜面反射和显示设备的色彩再现函数中的一个。
在第三方面中,还公开了一种用于确定显示设备的特性的捕获设备。捕获设备包括:
-用于捕获场景的第一图像的相机,所述场景包括显示第二图像的显示设备;
-用于接收第二图像的网络接口;
-处理器,被配置为响应于第一图像和第二图像的比较,确定显示设备的特性。
根据特别有利的变型,处理器还被配置为通过将第二图像与第一图像的区域匹配,获得几何变换。
根据另一特别有利的变型,显示设备的特性是显示设备上的镜面反射和显示设备的色彩再现函数中的一个。
在第四方面中,还公开了一种用于确定显示设备的特性的处理设备。处理设备包括至少一个网络接口,所述网络接口被配置为:
-接收场景的第一图像,所述场景包括显示第二图像的显示设备;
-接收第二图像;
处理设备还包括处理部件,所述处理部件被配置为响应于第一图像和第二图像的比较,确定显示设备的特性。
根据特别有利的变型,处理部件还被配置为通过将第二图像与第一图像的区域匹配,获得几何变换。
在第五方面中,还公开了一种用于确定显示设备的特性的处理设备。处理设备包括至少一个网络接口,所述网络接口被配置为:
-接收场景的第一图像,所述场景包括显示第二图像的显示设备;
-接收第二图像;
处理设备还包括处理器,所述处理器被配置为响应于第一图像和第二图像的比较,确定显示设备的特性。
根据特别有利的变型,处理器还被配置为通过将第二图像与第一图像的区域匹配,获得几何变换。
在第六方面中,还公开了一种用于确定显示设备的特性的计算机程序产品。计算机程序产品包括由处理器可执行的程序代码指令,以用于执行以其任何变型实现的方法。
在第七方面中,还公开了一种存储用于确定显示设备的特性的计算机可执行程序指令的计算机可读存储介质。计算机可读存储介质包括由至少一个处理器可执行的程序代码的指令,以执行以其任何变型实现的方法。
虽然没有明确描述,但是本实施例可以以任何组合或子组合来使用。例如,本原理不限于所描述的变型,并且可以使用变型和实施例的任何布置。此外,本原理不限于所描述的显示特性示例,并且与显示设备相关联的任何其他类型的特性都与所公开的原理相容。本原理还不限于所描述的图像匹配、设备检测、图像比较技术。
此外,针对方法描述的任何特性、变型或实施例都与包括用于处理所公开的方法的部件的设备、包括被配置为处理所公开的方法的处理器的设备、包括程序代码指令的计算机程序产品、以及存储程序指令的计算机可读存储介质相容。
附图说明
-图1A和图1B图示了根据本原理的由设备捕获的真实场景的第一图像的两个具体且非限制性示例,该场景包括显示第二图像的显示设备;
-图2描绘了根据本原理的特定且非限制性实施例的用于确定与显示设备相关联的特性的方法;
-图3表示根据特定且非限制性实施例的用于确定与显示设备相关联的特性的处理设备;
-图4表示根据特定且非限制性实施例的图3的处理设备的示例性架构。
具体实施方式
本原理适用于与场景的第一图像的处理和/或捕获有关的应用,其中场景包括显示第二图像的显示设备。一旦第二图像包括在第一图像中,各种效果可能改变第二图像。例如,在具有人工照明的场景(诸如室内环境)中并不罕见的是,存在多于一个的照明源,导致复杂的光交互。通常,与对象表面的光交互包括漫反射、镜面反射、阴影和投影。特别是,在显示设备(诸如例如电视或平板)的屏幕的光滑表面上,将发生镜面反射,其在图像正被显示设备显示时干扰观看和/或捕获显示设备。例如,镜面反射将导致人类视觉系统降低其灵敏度,并且屏幕表面上的图像中的细节对于用户而言不太可见。确定与显示设备相关联的镜面反射对于与包括显示设备的场景的图像的捕获有关的应用是有用的,因为镜面反射还可以被那些应用所利用。
在另一示例中,显示设备根据其设备特定色彩再现函数来显示色彩。在例如由捕获第一图像的设备(例如平板的情况下)还显示场景的第一图像(包括显示第二图像的显示设备)的情况下,捕获设备将根据可能与显示设备色彩再现函数不同的其自身的设备特定色彩再现函数来显示色彩。观看由场景中的显示设备显示的第二图像以及诸如由捕获设备显示的所捕获的第一图像的用户很可能注意到第二图像的两个显示之间的色彩显示的差异。原因在于,不同的显示器制造商使用不同的显示技术并应用不同的信号处理。确定与显示设备相关联的色彩再现函数对于与包括显示设备的场景的图像的捕获有关的应用是有用的,因为显示设备的色彩再现函数的知识还可以被那些应用所利用。
镜面反射和色彩再现函数是显示设备的示例性且非限制性特性,并且显示设备的任何其他特性或与显示设备相关联的任何其他特性都适用于本原理。
图1A和图1B图示了根据本原理的具体且非限制性示例的由设备11捕获的真实场景1的第一图像110的两个示例,该场景包括显示第二图像120的显示设备12。在两个说明性示例中,设备11是显示第一图像110的平板。
第一图像110通过例如利用设备11的后置相机10采集真实场景1来获得。包含在第一图像110中的真实场景1的视图例如取决于用虚线表示的相机10的视场(或焦点)。在第一示例(在图1A中表示)中,视场以在第一图像110中不存在其他元素的这样的方式,对由显示设备12显示的第二图像120限制真实场景的采集。在图1B中表示的第二示例中,第一图像110是标准视场图像(例如,65°、70°或90°),或者大视场图像(直至360°,例如110°、135°、180°、240°或360°)。图1B的真实场景1包括单个显示设备12(例如电视机)。作为由设备11捕获的场景1的一部分的显示设备12包括在第一图像110的区域121中。在另一示例(未示出)中,显示设备12被部分遮挡,并且显示设备12的可见部分包括在第一图像110的区域121中。在其他示例(未示出)中,真实场景包括多于一个显示设备和/或与投影仪和/或智能电话和/或平板相关联的显示屏幕。可选地(取决于场景和视场),真实场景1中还存在取决于真实场景的性质(例如客厅、卧室、餐厅,…)的一个或多个其他元件(图1B上未示出)。根据变型,利用未嵌入在设备11中的相机(例如网络摄像机或安全相机)来采集场景1的第一图像110。在这种情况下,经由通信链路将第一图像110传送到设备11(图1A和图1B中未示出)。
第一图像110可以是静止图像、包括第一图像序列的第一视频序列的图像、或者3D图像,例如光场。替选地或者另外地,第二图像120也可以是静止图像或者包括第二图像序列的第二视频序列的图像。例如,第二视频可以是由显示设备12从广播或宽带网络接收的广播视频。第二视频也可以从连接或嵌入到显示设备12的播放器本地播出。第二图像也可以是多组图像中的图像,例如立体图像对的左图像。为了清楚和简单起见,通过对第一和第二图像应用操作来描述本原理,但是考虑到第一图像和第二图像各自的第一和第二视频序列,本原理适用于第一视频序列的第一图像和第二视频序列的第二图像。考虑到3D成像,第一图像和第二图像各自的第一集合和第二集合,本原理适用于第一集合的第一图像和第二集合的第二图像。
在图1B的说明性示例中,在平板11上显示之前,将虚拟对象111(例如,图1B中的蝴蝶)插入第一图像110中。还将虚拟对象111插入到第一视频的其他第一图像(未示出),以用于创建与第二视频序列有关的特殊效果。例如且没有限制地,将虚拟蝴蝶111插入第一视频序列的第一图像中,以用于创建其飞出显示设备12的幻觉。在从设备11视点、在显示设备12上存在镜面反射的情况下,在虚拟蝴蝶的插入中有利地考虑镜面反射,以便增加视觉效果的真实性。考虑镜面反射例如包括从第一图像110去除镜面反射。在另一示例中,考虑镜面反射包括将适当的光效果应用于虚拟蝴蝶,这与显示设备12上的镜面反射相对应。
图2描绘了根据本原理的特定且非限制性实施例的用于确定与显示设备相关联的特性的方法。如上所述且没有限制地,与显示设备相关联的特性是显示设备的镜面反射或色彩再现函数。
在步骤S21中,由处理设备接收真实场景的第一图像110。该场景包括显示第二图像120的显示设备12。由设备11捕获该场景的第一图像110。
在步骤S22中,还由处理设备从网络接口接收在显示设备12上显示的第二图像120。在第一示例中,由处理设备从显示设备12接收第二图像120。在另一示例中,由处理设备从网络设备接收第二图像120,例如将第二图像传送到显示设备12和处理设备二者。
在有利变型中,处理设备是捕获场景的第一图像110的设备11。在另一变型中,处理设备例如经由网络接口从另一捕获设备接收第一图像。在该变型中,处理设备从一个或若干个网络接口接收第一图像110和第二图像120二者。
在步骤S27中,响应于第一和第二图像的比较来确定与显示设备12相关联的特性。该比较包括例如第一和第二图像之间的每像素比较。在另一示例中,该比较对应于对每个图像中的小块计算的局部特征的比较,因为这些特征可以更容忍配准误差(registrationerror)。在第一变型中,第一和第二图像的比较包括将第一和第二图像细分成矩形块,确定第一和第二图像的对应块的图像色彩值的平均值和标准偏差值,以及将它们进行比较。在第二变型中,第一和第二图像的比较包括识别第一和第二图像中具有低纹理的图像区域,以及通过相似的主色将第一和第二图像各自的区域相关联。根据第二变型,该比较包括比较第一和第二图像的相关区域的像素值。在又一变型中,在与第二图像的像素进行比较之前,在光度上补偿第一图像的像素。光度补偿的示例是在与第二图像的像素进行比较之前,将偏移应用于第一图像的像素的色彩值,使得第一图像的像素的色彩值的平均值与第二图像的色彩值的平均值相同。
在显示设备12的特性是显示设备上的镜面反射的情况下,镜面反射从捕获第一图像的设备的视点是可见的,镜面反射可以由色彩值大于第二图像中对应元素的色彩值的第一图像的元素来表示。该镜面反射也可以由色彩的色调和饱和度与第二图像中对应元素的色彩不同的第一图像的元素来表示。例如且没有限制地,元素为像素、子像素、块、区域或像素集。
确定与显示设备相关联的镜面反射包括选择第一图像的那些元素(即,例如色彩值大于第二图像中对应元素的色彩值的元素)。确定显示设备上的镜面反射是有利的,因为可以使用众所周知的修复处理来消除镜面反射。另一可能性是将第二图像的元素叠加在已识别镜面反射的第一图像的元素上。确定显示设备上的镜面反射还是有利的,因为它可以被与显示设备和/或第二图像有关的增强现实应用所考虑。例如,根据显示设备的屏幕的取向和所确定的镜面反射,可以确定照明的方向。根据该方向和虚拟对象的表面属性,可以有利地在虚拟对象的表面上创建镜面反射。
在显示设备12的特性是显示设备的色彩再现函数的情况下,根据第一和第二图像的比较来确定显示设备的色彩再现函数。在三色色彩再现的情况下,色彩由三个色彩值(也称为色彩坐标)来表示。例如,显示设备12上显示的第二图像的每个像素则与三个色彩坐标(R2,G2,B2)相关联。更准确地说,显示设备12的色彩再现函数例如定义为函数(X,Y,Z)=f12(R2,G2,B2),其描述将通过设备相关色彩坐标(R2,G2,B2)(与显示第二图像120的显示设备12有关)编码的色彩再现成通过设备无关色彩坐标(X,Y,Z)指定的色彩。捕获设备的色彩特性(作为捕获设备的制造商提供的参数)还定义为函数(R1,G1,B1)=g(X,Y,Z),其描述捕获以设备无关色彩坐标(X,Y,Z)指定的色彩,及其通过与捕获设备有关的设备相关色彩坐标(R2,G2,B2)的描述。由于第一图像110对应于由设备11(称为捕获设备)捕获的图像,所以以捕获设备相关色彩坐标(R1,G1,B1)存储第一图像110的色彩(例如存储在处理设备的存储器中)。由于第二图像120(由处理设备接收)对应于由显示设备12显示的图像,所以以显示设备相关色彩坐标(R2,G2,B2)存储第二图像的色彩(例如存储在处理设备的存储器中)。
确定显示设备的色彩再现函数f12()包括针对每个所捕获的色彩,计算其设备无关色彩坐标(X,Y,Z)=g-1(R1,G1,B1)(g-1是捕获设备色彩特性g的反函数)。因此,根据以下方程,根据捕获设备色彩特性g以及分别以捕获设备相关坐标和显示设备相关坐标的第一(R1,G1,B1)图像和第二(R2,G2,B2)图像的对应色彩的比较,获得显示设备12的色彩再现函数f12():
(X,Y,Z)=f12(R2,G2,B2),等同于g-1(R1,G1,B1)=f12(R2,G2,B2)。
可以以不同的方式从以上方程获得色彩再现函数f12()。在第一示例中,根据一对对应的色彩(R1,G1,B1)和(R2,G2,B2)导出一个方程,并且通过线性函数(X,Y,Z)=f12(R2,G2,B2)=(a R2,b G2,c B2)将f12()模型化。在该示例中,通过该一个方程获得色彩再现函数f12()的参数,得到a=X/R2和b=Y/G2和c=X/B2。如果更多方程可用,则可以用更多参数将f12()模型化为例如矩阵、多项式、指数函数或样条曲线。
在设备11显示第一图像110的情况下,确定显示设备12的色彩再现函数是有利的,因为其允许校准显示第一图像110的设备11,使得其具有与场景的显示设备12相同的色彩再现,直至设备的色彩再现的能力。设备11的色彩再现被认为是制造商提供的参数。在该有利变型中,(显示第一图像的)设备11的色彩再现被定义为函数(X,Y,Z)=f11(R1’,G1’,B1’),其描述将通过设备相关色彩坐标(R1’,G1’,B1’)编码的色彩再现成通过设备独立色彩坐标(X,Y,Z)指定的色彩。
在该有利变型中,具有色彩再现函数f11()的(显示第一图像的)设备11被校准,使得其根据等于f12()的色彩再现函数f11’()来表现,直至(显示第一图像的)设备的色彩再现的极限。因此,根据以下方程,将现有技术中众所周知的校准函数应用于设备相关色彩坐标(R2,G2,B2),得到经校准设备相关色彩坐标(R1’,G1’,B1’):
(R1’,G1’,B1’)=f11 -1(f12(R2,G2,B2))。
由设备11使用这些经校准色彩坐标来再现色彩。换句话说,根据色彩再现函数f11’()获得第一图像的经色彩变换图像,并且设备11显示经色彩变换图像。注意,这样的校准函数是可操作的,直至设备的色彩再现的极限。例如,如果色彩(X,Y,Z)=f12(R2,G2,B2)无法被设备再现,则需要用诸如色彩裁剪或色域映射之类的已知方法来代替f11 -1()。
也可以有多于一个与显示设备12相关联的特性。例如,如果显示设备12的两个特性是显示设备的色彩再现函数和显示设备上的镜面反射,则色彩再现函数可以用于校准第二图像,如上所述。然后,将经校准第二图像的像素与第一图像的像素进行比较,如上所述,以用于将第二图像的像素与第一图像的像素进行比较,以便识别镜面反射。此外,可以将经校准第二图像的元素叠加在第一图像上,如上所述,以用于将第二图像的元素叠加在第一图像上,以便消除镜面反射。
在可选步骤S24中,将第二图像120与第一图像110的区域匹配。在例如图1B中所示的所显示的第二图像121仅仅是第一图像110的一部分的情况下,第二图像120与第一图像110的匹配允许确定与第一图像内的所显示的第二图像相对应的第一图像110的区域121。将第二图像与第一图像匹配包括获得第一图像中的第一特征和第二图像中的第二特征。通过例如位置、大小、取向和色彩表征的第一和第二特征通过本领域技术人员已知的方法来获得,诸如例如由Lowe在题为“Distinctive image features from scale-invariant keypoints”并在2004年国际计算机视觉杂志中发表的论文中提出的SIFT(比例不变特征转移)方法。例如通过计算第二特征与第一特征集合中的每个第一特征之间的欧几里得距离,并且选择具有到第二特征的最短距离的第一特征作为将第二特征与第一特征匹配,来获得特征匹配。任何用于将第二图像与第一图像的区域匹配的技术都与所公开的原理相容。根据特征匹配,获得初始的特征对应性集合,每个特征对应性包括与第二图像的第二特征匹配的第一图像的第一特征。可选地,通过诸如最近邻距离比(NNDR)之类的已知方法来增强初始的特征对应性集合,诸如Mikolajczyk等人在2004年IEEE模式分析与机器智能学报中发表的题为“A performance evaluation of local descriptors”的文章。可以可选地通过使用RANSAC方法检测异常值来进一步增强特征对应性,如Fischler等人在1981年ACM通讯中发表的题为“Random sample consensus:A paradigm for model fitting withapplications to image analysis and automated cartography”的论文中描述的那样。通过放弃不精确的对应性和异常值,获得最终的特征对应性集合。
在任何以上可选变型中,与所显示的第二图像相对应的第一图像的区域是包含与第二图像的第二特征匹配的第一图像的第一特征的第一图像的部分。
在可选步骤S25中,基于特征匹配获得几何变换。实际上,每个对应性传递与第二图像中的位置x2,y2相对应的第一图像中的位置x1,y1。根据例如假设第一设备的显示器是平面的单应性(homography)H,从对应的位置计算几何变换,也称为几何变形。例如按照Ondrej Chun等人在2012年模式识别国际会议录(IPCR)中发表的“Homography estimationfrom correspondences of local elliptical features”中公开的方法来计算单应性。单应性将任何位置x1,y1变换到对应的位置x2,y2,反之亦然。除了单应变换之外的任何几何变换都与所公开的原理相容。
在所显示的第二图像121仅仅是第一图像110的一部分并且第一图像包括除了所显示的第二图像121之外的其他对象的情况下,有利地根据第二图像和第一图像的区域的比较来确定显示设备的特性,其中该比较包括将第二图像与第一图像的区域匹配,根据匹配获得几何变换,以及基于几何变换相比较地处理第一图像的区域与第二图像。例如,在前面的步骤确定的区域基于几何变换(例如如前所述的单应性)而变形,以及根据先前描述的任何变型,相比较地处理第一图像的变形区域与第二图像。几何变换用于在几何上补偿第一图像的区域,使得其在几何上对应于第二图像。更准确地说,以以下方式计算变形区域:第一图像的变形区域的每个位置x2i,y2i对应于第一图像中的位置x1i,y1i,其中0≤i<N并且N是第一图像的变形区域的像素数。对于所有0≤i<N,如果x1i,y1i是整数,则将位置x1i,y1i处的第一图像的色彩转移到位置x2i,y2i处的第一图像的变形区域中。如果x1i,y1i不都是整数,则确定最近邻近位置,并且在第一图像中的这些最近邻近位置处从色彩中内插色彩,并将内插色彩转移到位置x2i,y2i处的第一图像的变形区域中。在变型中,第二图像基于几何变换而变形,以在几何上补偿第二图像,使得其在几何上对应于第一图像的区域。在这种情况下,根据先前描述的任何变型,相比较地处理第一图像的区域与变形的第二图像。
在又一变型中,未创建变形图像。代替地,经由几何变换识别与第二图像的像素相对应的点x1i,y1i,并且经由双线性内插来计算它们的色彩值。然后使用例如逐像素(pel-by-pel)比较或局部特征计算,将第一图像的内插色彩值进一步与第二图像的对应色彩值进行比较。
在显示设备12的特性是显示设备上的镜面反射的情况下,根据第二图像与第一图像的变形区域的比较来确定镜面反射。在变型中,根据第一图像的区域与变形的第二图像的比较来确定镜面反射,如前所述。
在显示设备12的特性是显示设备的色彩再现的情况下,并且在设备11显示第一图像的情况下,根据先前描述的方程,根据分别以捕获设备相关坐标和显示设备相关坐标的第一(R1,G1,B1)图像的变形区域和第二(R2,G2,B2)图像的对应色彩的比较来确定色彩再现函数。
在设备11根据显示设备12的再现函数被校准的情况下,根据基于色彩再现函数f11’()的校准函数f11 -1(f12()),获得第一图像的经色彩变换图像或经校准图像,并且设备11显示经色彩变换图像。在第一变型中,将校准函数f11 -1(f12())应用于整个第一图像110,以用于获得经色彩变换图像。在第二变型中,仅将校准函数f11 -1(f12())应用于第一图像的区域,而不变换区域外的色彩,以用于获得经色彩变换图像。
在有利且可选实施例中,在匹配步骤之前,通过检测第一图像中的显示设备,获得与第一图像中所显示的第二图像相对应的第一图像的区域。在该可选实施例中,在第一图像中检测到显示设备,得到与第一图像中所显示的第二图像相对应的区域。在第一变型中,随着第一图像被捕获,显示设备显示白色第二图像或白色第二图像的序列。通过在第二图像内识别白色第二图像的轮廓,确定与所显示的第二图像相对应的区域的轮廓。然后获得四条线,其对应于第一图像的区域的界限。在第二变型中,独立于所显示的第二图像,使用学会检测显示设备的已知的对象辨识方法来检测显示设备。在第三变型中,在显示设备显示包括移动内容的第二视频序列并且从完全静态设备采集第一视频的情况下,通过识别第一视频序列的第一图像之间的主要差异来检测示出移动内容的显示设备。第一图像中与主要差异相对应的区域对应于第一图像的示出由显示设备显示的第二图像的区域。用于检测图像中的显示设备的任何其他技术都与所公开的原理相容。
在第一和第二视频序列被设备接收、第二视频序列被显示设备显示的情况下,执行两个视频序列之间的时间同步,以使第一视频序列的第一图像与第二视频序列的第二图像在可选步骤S24、S25和步骤S27之前同步。在第二视频序列是同一单个静止图像的重复的情况下,不需要时间同步。在第二视频序列是运动图像序列的情况下,通过例如在设备与显示设备之间交换同步信令数据来执行时间同步。在变型中,在可选匹配步骤S24之前执行两个视频序列之间的初步时间同步。在另一变型中,在可选匹配步骤S24之前不执行初步时间同步。在该情况下,将可选匹配步骤S24扩展到实现同步。例如,离开第二图像序列,针对每个第二图像,进行第二图像与第一图像的区域之间的特征匹配。通过选择允许特征的最佳匹配的第二图像来实现时间同步,使用已知的匹配准则(诸如例如像素之间的二次差的最小和)来评估特征匹配的质量。
在又一实施例中,与显示设备12相关联的特性是视频显示的延迟,例如由用户按下“暂停”然后“播放”所引起。根据该实施例,第一设备从网络接收作为第二图像序列的第二视频。通过在第一图像(的区域)内匹配特定的第二图像,确定显示设备12的视频显示的延迟。针对确定该特性,不需要获得几何变换。
图3描绘了用于确定与显示第二图像的显示设备相关联的特性的处理设备3。根据本原理的特定且非限制性实施例,处理设备3包括至少一个网络接口31,其被配置为接收场景的第一图像,第一图像由捕获设备捕获,场景包括显示第二图像的显示设备。例如,处理设备3通过第一网络从捕获设备接收第一图像。网络接口31还被配置为从第二网络接收第二图像。根据本原理的不同实施例,第一和第二网络是相同的网络或不同的网络。根据本原理的不同实施例,至少一个网络接口31属于包括以下的集合:
-WAN(广域网)接口,诸如2G/3G/4G蜂窝网络,WiMax接口;
-WLAN(无线局域网)接口,诸如蓝牙、WiFi,或者任何种类的无线网络接口;
-有线接口,诸如以太网、USB、火线,或者还实现处理设备3与至少一个设备之间的数据通信的任何种类的有线技术;
-WAN(广域网)接口,诸如2G/3G/4G蜂窝网络,WiMax接口。
根据不同的实施例,通过相同的网络接口(例如Wi-Fi)或者通过不同的网络接口(诸如例如用于第一图像的USB和用于第二图像的Wi-Fi)来接收第一和第二图像。更一般地,允许处理设备3接收第一和第二图像的任何网络接口都与所公开的原理相容。
根据本原理的特定且非限制性实施例,处理设备1包括可选相机30,其被配置为捕获场景的第一图像,该场景包括显示第二图像的显示设备。根据本原理的特定且非限制性实施例,相机30包括透镜,该透镜用于聚焦光并将其引导向半导体图像捕获设备,诸如例如CCD(电荷耦合器件)捕获器或CMOS(互补金属氧化物半导体)捕获器,其用数千或数百万个称为光敏单元的微型光敏二极管的矩阵来测量光。根据本原理的特定且非限制性实施例,相机30在处理设备3外部。根据特定且非限制性实施例,准备相机以拍摄多个图像,例如捕获左和右视图的立体相机,或者捕获子孔径图像并将其处理成多个视图的光场相机。
网络接口31和可选相机30链接到处理模块34,处理模块34被配置为响应于第一和第二图像的处理来确定与显示设备相关联的特性。根据具体实施例,处理模块34还可选地被配置为考虑显示设备的所确定的特性来处理第一图像,并且经由可选输出38将经处理的第一图像发送到显示部件。根据具体实施例,显示部件在设备外部,并且可选输出38将经处理的第一图像发送到外部显示部件。根据所公开原理的不同实施例,内部或外部的显示部件属于包括以下的集合:
-个人计算机屏幕;
-TV屏幕;
-平板屏幕;
-智能电话屏幕;
-可穿戴显示器;
-头戴式显示设备;
-智能眼镜。
更一般地,允许显示经处理的第一图像的任何显示部件都与所公开的原理相容。
根据具体实施例,处理模块34经由网络接口31将经处理的第一图像发送到外部设备,以用于各种目的,诸如例如用于远程存储、用于进一步的视频编辑或者用于借助于传递网络的进一步的网络传送。
图4表示根据特定且非限制性实施例的处理设备3的示例性架构,其中处理设备3被配置为确定与显示设备相关联的特性。处理设备3包括一个或多个处理器410以及内部存储器420(例如,RAM、ROM、EPROM),该处理器410例如是CPU、GPU和/或DSP(数字信号处理器的英文缩写)。处理设备3包括一个或若干个输入/输出接口430,其适于发送以显示输出信息和/或允许用户输入命令和/或数据(例如键盘、鼠标、触摸板、网络摄像机、显示器),和/或通过网络接口发送/接收数据;以及可以在处理设备3外部的电源440。
根据示例性且非限制性实施例,处理设备3还包括存储在存储器420中的计算机程序。计算机程序包括指令,该指令在由处理设备、特别是由处理器410执行时,使处理设备3执行参照图2描述的处理方法。根据变型,计算机程序在非临时性数字数据支撑上存储在处理设备3外部,例如存储在诸如SD卡、HDD、CD-ROM、DVD、只读和/或DVD驱动器和/或DVD读/写驱动器之类的外部储存介质上,这些都是本领域已知的。因此,处理设备3包括用于读取计算机程序的接口。此外,处理设备3可以通过对应的USB端口(未示出)访问一个或多个通用串行总线(USB)型储存设备(例如“存储棒”)。
根据示例性且非限制性实施例,处理设备3属于包括以下的集合:
-智能电话;
-平板;
-电子书阅读器;
-数码相机;
-平板计算机;
-膝上型计算机;
-透视显示设备;
-头戴式显示设备;
-台式计算机;
-服务器;
-网关;
-机顶盒。
Claims (15)
1.一种用于确定显示设备(12)的特性的方法,所述方法包括,在处理设备中:
-接收(S21)场景(1)的第一图像(110),所述场景(1)包括显示第二图像(120)的显示设备(12);
-从网络接收(S22)第二图像(120);
-响应于第一图像(110)和第二图像(120)的比较,确定(S27)显示设备(12)的特性。
2.根据权利要求1所述的方法,还包括通过将第二图像(120)与第一图像(110)的区域(121)匹配(S24),获得(S25)几何变换。
3.根据权利要求2所述的方法,还包括在所述匹配(S24)之前通过检测第一图像(110)中的显示设备(12),获得第一图像(110)的所述区域(121)。
4.根据权利要求2或3所述的方法,其中,第一图像(110)和第二图像(120)的比较包括基于所述几何变换比较第一图像(110)的所述区域(121)与第二图像(120)。
5.根据权利要求1所述的方法,其中处理设备(3,11)捕获所述场景。
6.根据权利要求1所述的方法,其中显示设备(12)的特性是显示设备(12)上的镜面反射。
7.根据权利要求6所述的方法,还包括从第一图像(110)去除所确定的镜面反射。
8.根据权利要求1所述的方法,其中显示设备(12)的特性是显示设备(12)的三色色彩再现函数,所述三色色彩再现函数是根据处理设备(3,11)的色彩特性以及第一图像(110)和第二图像(120)的比较来确定的。
9.根据权利要求8所述的方法,其中处理设备(3,11)显示第一图像(110),所述设备(11)是根据所确定的三色色彩再现函数被校准的。
10.一种用于确定显示设备(12)的特性的处理设备(3),所述处理设备(3)包括至少一个网络接口(31),所述网络接口(31)被配置为:
-接收场景(1)的第一图像(110),所述场景(1)包括显示第二图像(120)的显示设备(12);
-接收第二图像(120);
所述处理设备(3)还包括处理部件(34),所述处理部件(34)被配置为响应于第一图像(110)和第二图像(120)的比较,确定显示设备(12)的特性。
11.根据权利要求10所述的处理设备(3),其中所述处理部件还被配置为通过将第二图像(120)与第一图像(110)的区域(121)匹配,获得几何变换。
12.根据权利要求10所述的处理设备(3),其中显示设备(12)的特性是显示设备(12)上的镜面反射和显示设备(12)的三色色彩再现函数中的一个。
13.根据权利要求12所述的处理设备(3),其中所述处理部件还被配置为从第一图像(110)去除所确定的镜面反射。
14.根据权利要求10所述的处理设备(3,11),还包括被配置为捕获所述场景(1)的第一图像(110)的相机。
15.一种用于确定显示设备(12)的特性的计算机程序产品,所述计算机程序产品包括由处理器可执行的程序代码指令,以用于:
-接收(S21)由设备(11)捕获的场景(1)的第一图像(110),所述场景(1)包括显示第二图像(120)的显示设备(12);
-接收(S22)第二图像(120);
-响应于第一图像(110)和第二图像(120)的比较,确定(S27)显示设备(12)的特性。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17305600.3A EP3407296A1 (en) | 2017-05-23 | 2017-05-23 | Method and device for determining a characteristic of a display device |
EP17305600.3 | 2017-05-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108933939A true CN108933939A (zh) | 2018-12-04 |
CN108933939B CN108933939B (zh) | 2021-11-30 |
Family
ID=59061943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810499921.5A Active CN108933939B (zh) | 2017-05-23 | 2018-05-23 | 用于确定显示设备的特性的方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11138795B2 (zh) |
EP (2) | EP3407296A1 (zh) |
JP (1) | JP7297410B2 (zh) |
KR (1) | KR102489894B1 (zh) |
CN (1) | CN108933939B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022068711A (ja) * | 2020-10-22 | 2022-05-10 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9380297B1 (en) * | 2014-12-04 | 2016-06-28 | Spirent Communications, Inc. | Video streaming and video telephony uplink performance analysis system |
CN106373197A (zh) * | 2016-09-06 | 2017-02-01 | 广州视源电子科技股份有限公司 | 一种增强现实的方法及增强现实装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5854661A (en) | 1997-09-30 | 1998-12-29 | Lucent Technologies Inc. | System and method for subtracting reflection images from a display screen |
US7133083B2 (en) | 2001-12-07 | 2006-11-07 | University Of Kentucky Research Foundation | Dynamic shadow removal from front projection displays |
US7630002B2 (en) | 2007-01-05 | 2009-12-08 | Microsoft Corporation | Specular reflection reduction using multiple cameras |
JP2008076613A (ja) * | 2006-09-20 | 2008-04-03 | Fujifilm Corp | 光学フィルム選択装置及び画像表示装置並びに光学フィルム選択方法及び光学フィルム選択プログラム |
JP4270264B2 (ja) | 2006-11-01 | 2009-05-27 | セイコーエプソン株式会社 | 画像補正装置、プロジェクションシステム、画像補正方法、画像補正プログラム、および記録媒体 |
TWI457900B (zh) * | 2008-10-15 | 2014-10-21 | Princeton Technology Corp | 驅動電路回饋檢測方法 |
US8400468B2 (en) | 2009-08-27 | 2013-03-19 | Seiko Epson Corporation | Projector masks for calibrating projector-based display systems |
EP2357610B1 (en) | 2009-12-23 | 2012-09-12 | Thomson Licensing | Image display system comprising a viewing conditions sensing device |
US8212945B2 (en) * | 2010-04-01 | 2012-07-03 | Seiko Epson Corporation | Method and apparatus for calibrating a projector for image warping |
US8606004B2 (en) * | 2010-07-15 | 2013-12-10 | Mersive Technologies, Inc. | System and method for automatic color matching in a multi-display system using sensor feedback control |
US8531474B2 (en) * | 2011-11-11 | 2013-09-10 | Sharp Laboratories Of America, Inc. | Methods, systems and apparatus for jointly calibrating multiple displays in a display ensemble |
CN103167293B (zh) * | 2011-12-09 | 2015-07-22 | 夏普株式会社 | 显示系统 |
US10133342B2 (en) * | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
KR20150051437A (ko) * | 2013-11-04 | 2015-05-13 | 삼성디스플레이 주식회사 | 휘도 보정 시스템 및 방법 |
KR20150057431A (ko) * | 2013-11-19 | 2015-05-28 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
JP2015194567A (ja) * | 2014-03-31 | 2015-11-05 | 三菱電機株式会社 | 表示装置 |
KR102246270B1 (ko) * | 2014-05-09 | 2021-04-29 | 삼성전자주식회사 | 전자 장치 및 그 연동 방법 |
US11853635B2 (en) * | 2016-03-09 | 2023-12-26 | Samsung Electronics Co., Ltd. | Configuration and operation of display devices including content curation |
JP7142575B2 (ja) | 2016-04-22 | 2022-09-27 | インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ | 画像を合成するための方法及び装置 |
CN106506944B (zh) * | 2016-10-31 | 2020-02-21 | 易瓦特科技股份公司 | 用于无人机的图像跟踪方法和设备 |
-
2017
- 2017-05-23 EP EP17305600.3A patent/EP3407296A1/en not_active Withdrawn
-
2018
- 2018-05-17 EP EP18172802.3A patent/EP3407297B1/en active Active
- 2018-05-17 KR KR1020180056518A patent/KR102489894B1/ko active IP Right Grant
- 2018-05-18 JP JP2018095915A patent/JP7297410B2/ja active Active
- 2018-05-23 US US15/987,685 patent/US11138795B2/en active Active
- 2018-05-23 CN CN201810499921.5A patent/CN108933939B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9380297B1 (en) * | 2014-12-04 | 2016-06-28 | Spirent Communications, Inc. | Video streaming and video telephony uplink performance analysis system |
CN106373197A (zh) * | 2016-09-06 | 2017-02-01 | 广州视源电子科技股份有限公司 | 一种增强现实的方法及增强现实装置 |
Also Published As
Publication number | Publication date |
---|---|
US20180342104A1 (en) | 2018-11-29 |
EP3407297B1 (en) | 2022-02-09 |
EP3407297A1 (en) | 2018-11-28 |
KR20180128348A (ko) | 2018-12-03 |
JP7297410B2 (ja) | 2023-06-26 |
JP2018197857A (ja) | 2018-12-13 |
CN108933939B (zh) | 2021-11-30 |
KR102489894B1 (ko) | 2023-01-19 |
EP3407296A1 (en) | 2018-11-28 |
US11138795B2 (en) | 2021-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6669063B2 (ja) | 画像処理装置および方法 | |
Alexiou et al. | On the performance of metrics to predict quality in point cloud representations | |
RU2431938C2 (ru) | Эффективное кодирование множества видов | |
US7471292B2 (en) | Virtual view specification and synthesis in free viewpoint | |
US9973694B1 (en) | Image stitching to form a three dimensional panoramic image | |
JP6316910B2 (ja) | シーン基準のメタデータ捕捉のための基準カード | |
Martinez et al. | Kinect Unleashed: Getting Control over High Resolution Depth Maps. | |
WO2016002578A1 (ja) | 画像処理装置および方法 | |
JPH07296185A (ja) | 3次元画像表示装置 | |
Zilly et al. | Real-time generation of multi-view video plus depth content using mixed narrow and wide baseline | |
WO2013108285A1 (ja) | 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法 | |
CN103533326A (zh) | 用于立体视图对齐的系统和方法 | |
Wilburn | High-performance imaging using arrays of inexpensive cameras | |
KR20140074238A (ko) | 이미지들 간의 색상 전환 방법 및 장치 | |
CN108933939A (zh) | 用于确定显示设备的特性的方法和设备 | |
GB2585197A (en) | Method and system for obtaining depth data | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 | |
US20230056459A1 (en) | Image processing device, method of generating 3d model, learning method, and program | |
CN111033575A (zh) | 图像处理装置、显示装置、图像发送装置、图像处理方法、控制程序以及记录介质 | |
Setkov et al. | Evaluation of color descriptors for projector-camera systems | |
KR102561903B1 (ko) | 클라우드 서버를 이용한 ai 기반의 xr 콘텐츠 서비스 방법 | |
Jovanov et al. | Multiview image sequence enhancement | |
JP2001008231A (ja) | 3次元空間における物体の多視点画像伝送方法及びシステム | |
Hofman et al. | Webcam for Stereoscopic Video Conversation | |
Gurrieri et al. | A model for the omnidirectional acquisition and rendering of stereoscopic images for human viewing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190606 Address after: France Applicant after: Interactive Digital CE Patent Holding Company Address before: I Si Eli Murli Nor, France Applicant before: Thomson Licensing SA |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |