CN106030664A - 用于在电子显示器上叠加图像的透明度确定 - Google Patents
用于在电子显示器上叠加图像的透明度确定 Download PDFInfo
- Publication number
- CN106030664A CN106030664A CN201480075768.3A CN201480075768A CN106030664A CN 106030664 A CN106030664 A CN 106030664A CN 201480075768 A CN201480075768 A CN 201480075768A CN 106030664 A CN106030664 A CN 106030664A
- Authority
- CN
- China
- Prior art keywords
- image
- characteristic point
- overlapping region
- superimposed image
- base image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Abstract
根据在电子显示器上叠加两个图像的、由计算机实现的方法,并确定基础图像与叠加图像之间的重叠区域。确定基础图像的重叠区域中的特征点的数量,并且还确定叠加图像的重叠区域中的特征点的数量。将基础图像和叠加图像中的每个的重叠区域中的特征点的数量进行比较。基于该比较确定叠加图像的透明度值。在电子显示器上显示基础图像和叠加图像,使得叠加图像叠加在基础图像上,所述叠加图像的透明度基于所确定的透明度值。
Description
技术领域
本公开涉及叠加图像,并且更具体地涉及确定用于在基础图像的顶部叠加叠加图像时使用的透明度值。
背景技术
增强现实(AR)是指利用诸如声音、视频、图形或全球定位系统(GPS)数据的计算机生成的感官输入来补充真实世界环境的实时画面。AR应用正变得越来越流行。一些AR应用显示基础图像(例如,来自智能手机的直播摄像头馈送)并将基础图像与叠加图像叠加来为用户提供附加信息。一个这种应用是“街道博物馆(StreetMuseum)”智能手机应用,其允许伦敦的智能手机用户将其智能手机摄像头指向伦敦的给定部分的方向,在其智能手机的显示器上观看来自其摄像头的摄像头馈送,并将伦敦的历史图片叠加在摄像头馈送图像上。
一些不提供实时画面的非增强现实应用提供了类似特征。例如,网站“What WasThere”(www.whatwasthere.com)允许用户上传历史照片,以及观看叠加在来自GOOGLE“街景(street view)”的同一地理区域的近期图片顶部的照片。这些应用使用叠加图像的默认透明度值,该默认透明度值并未将叠加图像和基础图像的内容考虑在内。
发明内容
根据本公开的一方面,公开了一种在电子显示器上叠加两个图像的由计算机实现的方法。确定基础图像与叠加图像之间的重叠区域。确定基础图像的重叠区域中的特征点的数量,并也确定叠加图像的重叠区域中的特征点的数量。将基础图像和叠加图像中的每个的重叠区域中的特征点的数量进行比较。基于该比较,确定叠加图像的透明度值。在电子显示器上显示基础图像和叠加图像,使得叠加图像叠加在基础图像上,叠加图像的透明度基于所确定的透明度值。
根据本公开的另一方面,公开了一种可操作用于在电子显示器上叠加两个图像的计算装置。该计算装置包括电子显示器和一个或更多个处理电路。该一个或更多个处理电路被构造成确定基础图像与叠加图像之间的重叠区域、确定基础图像的重叠区域中的特征点的数量、以及确定叠加图像的重叠区域中的特征点的数量。该一个或更多个处理电路被构造成将基础图像和叠加图像中的每个的重叠区域中的特征点的数量进行比较,并且基于该比较来确定叠加图像的透明度值。在电子显示器上显示基础图像和叠加图像,使得叠加图像叠加在基础图像上,叠加图像的透明度基于所确定的透明度值。
可用于确定特征点的数量的一些示例算法包括:尺度不变特征变换(SIFT)算法、加速鲁棒特征(SURF)算法、快速视网膜关键点(FREAK)算法、以及二进制鲁棒不变的可扩展的关键点(BRISK)算法。
在一个或更多个实施方式中,透明度值基于基础图像的重叠区域中的特征点的数量与叠加图像中的重叠区域中的特征点的数量之比。随着比值增加,透明度值接近于最大允许透明度,并且随着比值减小,透明度值接近于最小允许透明度。
在一个或更多个实施方式中,从直播摄像头馈送获得基础图像,并且叠加图像包括要叠加在基础图像上的增强现实图像。
当然,本公开并不限于上述特征和优点。实际上,本领域技术人员根据阅读以下详细说明和观看附图将获知其它特征和优点。
附图说明
图1例示了包括电子显示器的示例移动计算装置。
图2例示了示例基础图像。
图3例示了示例叠加图像。
图4例示了在电子显示器上叠加两个图像的示例方法。
图5例示了在图2的图像中识别出的特征点的数量。
图6例示了在图3的图像中识别出的特征点的数量。
图7例示了叠加在图2的基础图像上的图3的叠加图像。
图8例示了图2-图3的图像的另一叠加。
图9例示了被构造成在电子显示器上叠加两个图像的示例计算装置。
具体实施方式
本公开描述了一种用于确定用于在基础图像的顶部叠加叠加图像时(例如,在增强现实应用中)使用的透明度值的方法和装置。基于基础图像中的特征点的数量和叠加图像中的特征点的数量来确定透明度值。例如,可以使用诸如尺度不变特征变换(SIFT)算法、加速鲁棒特征(SURF)算法、快速视网膜关键点(FREAK)算法、和/或二进制鲁棒不变的可扩展的关键点(BRISK)算法的已知算法来计算各图像中的特征点的数量。
现在参照图1,示出了移动计算装置10,其包括电子显示器12,在该电子显示器上示出了图像20。在一示例中,所显示的图像20来自于嵌入到计算装置10中的摄像头(例如,来自直播摄像头馈送的照片或图像)。图2示出了图1的图像20。如图2所示,图像的主要组成元素是道路22、树24、以及两个建筑物26、28。对于下面的讨论,假设图像20是“基础图像”,其上将会叠加有叠加图像。
图3例示了第一图像20中示出的同一场景的另一示例图像30,但是其示出了不同的组成元素。图像30中的主要组成元素是道路22、树24、以及另一棵树30。建筑物26、28均未在图像30中示出。对于下面的讨论,假设图3在不同于图像20的时段获得(例如,相隔数月或数年)。另外假设图3的图像30将被用作要叠加在图像20顶部上的“叠加图像”(例如,在增强现实应用中)。
考虑到这点,图4例示了示例在电子显示器(例如,移动计算装置10的显示器12)上叠加两个图像的、计算机实现的方法100。在基础图像20与叠加图像30之间确定重叠区域(块102)。在一示例中,基础图像20和叠加图像30二者的尺寸相同,并且从相同的有利位置获得,因此重叠区域可以是各图像20、30的整个区域。在其它实施方式中,块102包括图像20、30的对齐和/或重新调整图像20、30中任一个的尺寸,使得图像相对于彼此大小合适。在这样的实施方式中,重叠区域可以小于图像20、30中的任一个或二者。
确定基础图像20的重叠区域中的特征点的数量(块104),并且还确定叠加图像30的重叠区域中的特征点的数量(块106)。图5例示了在根据一示例的图2的图像20中识别出的特征点的数量。在图5中,图像20及其特征点32被示出为图像20'。同样,图6例示了在根据一示例的图3的图像30中识别出的特征点32的数量(示出为30')。在图5-图6中的每一个中,圆圈表示所识别出的特征点32。
在图5-图6的示例中,基础图像20被识别为具有24个特征点,并且叠加图像30被识别为具有12个特征点。可以使用本领域技术人员熟知的各种算法(诸如尺度不变特征变换(SIFT)算法、加速鲁棒特征(SURF)算法、快速视网膜关键点(FREAK)算法、或二进制鲁棒不变的可扩展的关键点(BRISK)算法)来确定基础图像和叠加图像中的特征点的数量。当然,这些仅是示例,并且应当理解的是,可以使用其他算法。因为使用这样的算法来识别特征点是本领域技术人员所熟知的,所以本文将不详细描述这些算法的实现。
再次参照图4,将基础图像20和叠加图像30中的每个的重叠区域中的特征点的数量进行比较(块108)。在上述示例中,这将包括将基础图像20的24个特征点与叠加图像30的12个特征点进行比较。基于该比较,确定叠加图像30的透明度值(块110)。然后,在电子显示器上显示基础图像20和叠加图像30(块112),使得叠加图像30以基于所确定的透明度值的叠加图像30的透明度叠加在基础图像20上。
在一示例中,根据下面的等式(1)来确定叠加图像的透明度值:
在该等式中,“Transparency_OI”是指叠加图像的透明度,“FP_BI”是指基础图像20的重叠区域中的特征点的数量,以及“FP_OI”是指叠加图像30的重叠区域中的特征点的数量。等式(1)假设20%是最小可允许的透明度值(其强调叠加图像30),并假设80%是最大可允许的透明度值(其强调基础图像20)。因此,在该等式中,透明度值被固定在20%和80%。
根据等式(1),随着基础图像20的重叠区域中的特征点的数量与叠加图像30的重叠区域中的特征点的数量之比增加,透明度值接近于最大允许透明度(80%)。并且,随着基础图像20的重叠区域中的特征点的数量与叠加图像30的重叠区域中的特征点的数量之比减小,透明度值接近于最小允许透明度(20%)。
假设100%将提供完全透明度(即,叠加图像30将完全不可见),而0%透明度将使得基础图像20的重叠区域完全不可见(即,当叠加时,叠加图像30将仅替代基础图像20的重叠区域)。基于此假设,使用等式(1)来确定透明度值(块110)包括如下步骤:在可允许的透明度值的范围(例如,20%-80%的范围)内确定透明度值,可允许的透明度值中的每一个都提供叠加图像的部分的、但不完全的透明度。
使用上述输入值,其中FP_BI=24并且FP_OI=12,等式(1)得出叠加图像30的透明度值为67%。这假设使用了标准舍入(例如,四舍五入)。因此,因为基础图像20相比叠加图像30具有更多的特征点,所以该叠加将强调基础图像20。在图7中示出了根据所确定的透明度值(67)的示例叠加,其中,基于透明度值67%显示了树30(其仅包括在叠加图像30中)。
在下面的等式(2)中示出了用于确定基础图像20的透明度值的示例等式:
Transparency_BI=1-Transparency_OI 等式(2)
在等式(2)中,“Transparency_BI”是指基础图像的透明度。这表示使用“Transparency_OI”的透明度值叠加叠加图像30的净效应(net effect)。
如另一示例,假设图像30相反用作基础图像,而图像20相反用作叠加图像。在此示例中,FP_BI=12并且FP_OI=24,其将得出叠加图像的透明度值为33%以及基础图像的相应透明度值为67%。在该替代示例中,因为叠加图像相比基础图像具有更多的特征点,所以该叠加将强调叠加图像。图8例示了这样的叠加的示例,其中,基于透明度值33%示出了建筑物26、28(在此情况下,其将仅存在于基础图像中)。
所识别出的特征点被视为给定图像的最有趣和最突出的特征。因此,使用等式(1)使得具有最多特征的图像成比例地变得更加可见。其后的基本逻辑在于用户会希望更多地强调具有更高特征点数的图像,并因此可以取得更加有趣的细节。
在一个或更多个实施方式中,所确定的透明度值用作默认透明度,使得在显示图像20、30(块112)之后,观看用户可以将默认透明度手动调节成他们发现可能更可取的程度。在这样的实施方式中,用户可跳过默认透明度来选择他们发现最可取的透明度。
如果基础图像20来自于直播摄像头馈送,则可能的是,可快速地(例如,每秒30帧“FPS”)记录并显示图像。如果情况如此,则在可以确定帧的透明度值之前可能需要一些处理时间(例如,或许需要1帧的延迟)。在这样的示例中,可以基于基础图像20的先前版本来执行确定基础图像20与叠加图像30之间的重叠区域(例如,使用帧1中的特征点来显示帧3图像)。这假设用户将保持其计算装置的摄像头相对不动。然后,可以(例如,在预定时间段内定期地)重新计算更新后的透明度值。
图9例示了可用作图1的计算移动计算装置10的示例计算装置200。该计算装置200被构造成在电子显示器204上叠加两个图像。计算装置200包括一个或更多个处理电路(示出为处理器202),其例如包括配置有适当的软件和/或硬件以执行上面所讨论的技术中的一种或更多种的一个或更多个微处理器、微控制器、专用集成电路(ASIC)等。具体地,处理器202被构造成确定基础图像20与叠加图像30之间的重叠区域、确定基础图像20的重叠区域中的特征点的数量、以及确定叠加图像30的重叠区域中的特征点的数量。处理器202被构造成将基础图像20和叠加图像30中的每个的重叠区域中的特征点的数量进行比较,并基于该比较来确定叠加图像30的透明度值。处理器202被进一步构造成在电子显示器204上显示基础图像20和叠加图像30,使得叠加图像30以基于所确定的透明度值的叠加图像30的透明度叠加在基础图像20上。
在图9的示例中,计算装置200还包括用于启动图像20、30的叠加的输入装置206(例如,一个或更多个按钮)。计算装置200还包括用于记录图像(例如,作为背景图像)的摄像头208,并且包括用于接收叠加图像的收发器(例如,经由诸如因特网的分组数据网络来接收增强现实图像)。计算装置200还包括用于存储图像20、30以及存储配置如上面所讨论的处理器202的指令(例如,配置处理器202以实现上述技术中的一种或更多种的计算机程序产品)的非暂时性计算机可读存储介质(示出为存储器212)。
虽然图1中所示出的计算装置是移动计算装置10(例如,智能手机或平板电脑),但是应当理解的是,这些是非限制性的示例,并且计算装置200可以替代地是例如台式或膝上型计算机。在这样的实施方式中,电子显示器204可以在计算装置200外部并且不包括在如图9所示的计算装置200中。
在一个或更多个实施方式中,基础图像20是从直播摄像头馈送获得的,并且叠加图像30包括要叠加在基础图像20上的增强现实图像。这可用于诸如上述的“街道博物馆(Street Museum)”智能手机应用的增强现实应用。然而,本文所讨论的技术不限于在增强现实中使用,并且可以用于非增强现实应用(例如,上述的网站“WhatWas There”)。
另外,应当理解的是,等式(1)和(2)以及透明度值的可允许范围(20%-80%)仅是非限制性的示例,并且应当理解的是,可以使用其它等式以及其它最大和最小允许的透明度值。还应当理解的是,上面所讨论的基础图像20和叠加图像30也是非限制性的示例。
因此,在不背离本公开的本质特征的情况下,当然可以按照除了本文具体阐述的方式之外的其它方式来实施本公开。本实施方式将被认为在所有方面都是示例性而非限制性的,并且所附权利要求书的意义和等效范围内的所有改变都旨在被包含在本文中。
Claims (16)
1.一种在电子显示器上叠加两个图像的由计算机实现的方法,其特征在于:
确定基础图像与叠加图像之间的重叠区域;
确定所述基础图像的所述重叠区域中的特征点的数量;
确定所述叠加图像的所述重叠区域中的特征点的数量;
将所述基础图像和所述叠加图像中的每个的所述重叠区域中的特征点的数量进行比较;
基于所述比较确定所述叠加图像的透明度值;并且
在电子显示器上显示所述基础图像和所述叠加图像,使得所述叠加图像叠加在所述基础图像上,所述叠加图像的透明度基于所确定的透明度值。
2.根据权利要求1所述的由计算机实现的方法,其中,确定所述透明度值包括:在可允许的透明度值的范围内确定透明度值,所述可允许的透明度值中的每一个都提供所述叠加图像的部分的、但不完全的透明度。
3.根据权利要求1所述的由计算机实现的方法,其中,使用尺度不变特征变换SIFT算法来执行确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量。
4.根据权利要求1所述的由计算机实现的方法,其中,使用加速鲁棒特征SURF算法来执行确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量。
5.根据权利要求1所述的由计算机实现的方法,其中,使用快速视网膜关键点FREAK算法来执行确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量。
6.根据权利要求1所述的由计算机实现的方法,其中,使用二进制鲁棒不变的可扩展的关键点BRISK算法来执行确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量。
7.根据权利要求1所述的由计算机实现的方法:
其中,所述基础图像是从直播摄像头馈送获得的;并且
其中,所述叠加图像包括要叠加在所述基础图像上的增强现实图像。
8.根据权利要求1所述的由计算机实现的方法:
其中,随着所述基础图像的所述重叠区域中的特征点的数量与所述叠加图像的所述重叠区域中的特征点的数量之比增加,所述透明度值接近于最大允许透明度;并且
其中,随着所述基础图像的所述重叠区域中的特征点的数量与所述叠加图像的所述重叠区域中的特征点的数量之比减小,所述透明度值接近于最小允许透明度。
9.一种能够操作以在电子显示器上叠加两个图像的计算装置,其特征在于:
电子显示器;以及
一个或更多个处理电路,所述一个或更多个处理电路被构造成:
确定基础图像与叠加图像之间的重叠区域;
确定所述基础图像的所述重叠区域中的特征点的数量;
确定所述叠加图像的所述重叠区域中的特征点的数量;
将所述基础图像和所述叠加图像中的每个的所述重叠区域中的特征点的数量进行比较;
基于所述比较确定所述叠加图像的透明度值;并且
在所述电子显示器上显示所述基础图像和所述叠加图像,使得所述叠加图像叠加在所述基础图像上,所述叠加图像的透明度基于所确定的透明度值。
10.根据权利要求9所述的计算装置,其中,为了确定所述透明度值,所述一个或更多个处理电路被构造成在可允许的透明度值的范围内确定透明度值,所述可允许的透明度值中的每一个都提供所述叠加图像的部分的、但不完全的透明度。
11.根据权利要求9所述的计算装置,其中,为了确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量,所述一个或更多个处理电路被构造成使用尺度不变特征变换SIFT算法。
12.根据权利要求9所述的计算装置,其中,为了确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量,所述一个或更多个处理电路被构造成使用加速鲁棒特征SURF算法。
13.根据权利要求9所述的计算装置,其中,为了确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量,所述一个或更多个处理电路被构造成使用快速视网膜关键点FREAK算法。
14.根据权利要求9所述的计算装置,其中,为了确定所述基础图像的所述重叠区域中的特征点的数量以及确定所述叠加图像的所述重叠区域中的特征点的数量,所述一个或更多个处理电路被构造成使用二进制鲁棒不变的可扩展的关键点BRISK算法。
15.根据权利要求9所述的由计算机实现的方法:
其中,所述计算装置包括摄像头,并且所述基础图像是从馈送的直播馈送获得;并且
其中,所述叠加图像包括要叠加在所述基础图像上的增强现实图像。
16.根据权利要求9所述的由计算机实现的方法:
其中,随着所述基础图像的所述重叠区域中的特征点的数量与所述叠加图像中的所述重叠区域中的特征点的数量之比增加,所述透明度值接近于最大允许透明度;并且
其中,随着所述基础图像的所述重叠区域中的特征点的数量与所述叠加图像的所述重叠区域中的特征点的数量之比减小,所述透明度值接近于最小允许透明度。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2014/059078 WO2015124962A1 (en) | 2014-02-18 | 2014-02-18 | Transparency determination for overlaying images on an electronic display |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106030664A true CN106030664A (zh) | 2016-10-12 |
CN106030664B CN106030664B (zh) | 2020-01-07 |
Family
ID=50239705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480075768.3A Active CN106030664B (zh) | 2014-02-18 | 2014-02-18 | 在电子显示器上叠加两个图像的方法和计算装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20150235630A1 (zh) |
EP (1) | EP3108455B1 (zh) |
CN (1) | CN106030664B (zh) |
WO (1) | WO2015124962A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491069A (zh) * | 2018-03-01 | 2018-09-04 | 湖南西冲智能家居有限公司 | 一种增强现实ar透明显示互动系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104967790B (zh) * | 2014-08-06 | 2018-09-11 | 腾讯科技(北京)有限公司 | 照片拍摄方法、装置及移动终端 |
EP3193327B1 (en) * | 2014-09-08 | 2021-08-04 | The University of Tokyo | Image processing device and image processing method |
JP6501501B2 (ja) * | 2014-11-12 | 2019-04-17 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム及びプログラム |
WO2016154121A1 (en) * | 2015-03-20 | 2016-09-29 | University Of Maryland | Systems, devices, and methods for generating a social street view |
WO2019133860A1 (en) * | 2017-12-29 | 2019-07-04 | Reginald Bowser | Systems and methods for generating and distributing content |
CN108898551B (zh) * | 2018-06-14 | 2020-07-31 | 北京微播视界科技有限公司 | 图像合并的方法和装置 |
US11528297B1 (en) | 2019-12-12 | 2022-12-13 | Zimperium, Inc. | Mobile device security application for malicious website detection based on representative image |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7064771B1 (en) * | 1999-04-28 | 2006-06-20 | Compaq Information Technologies Group, L.P. | Method and apparatus for compositing colors of images using pixel fragments with Z and Z gradient parameters |
US20080167551A1 (en) * | 2007-01-04 | 2008-07-10 | Michael Burns | Feature emphasis and contextual cutaways for image visualization |
CN103227848A (zh) * | 2011-11-22 | 2013-07-31 | 三星电子株式会社 | 用于针对便携式终端提供增强现实服务的设备和方法 |
CN103530594A (zh) * | 2013-11-05 | 2014-01-22 | 深圳市幻实科技有限公司 | 一种提供增强现实的方法、系统及终端 |
-
2014
- 2014-02-18 US US14/366,816 patent/US20150235630A1/en not_active Abandoned
- 2014-02-18 WO PCT/IB2014/059078 patent/WO2015124962A1/en active Application Filing
- 2014-02-18 CN CN201480075768.3A patent/CN106030664B/zh active Active
- 2014-02-18 EP EP14708953.6A patent/EP3108455B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7064771B1 (en) * | 1999-04-28 | 2006-06-20 | Compaq Information Technologies Group, L.P. | Method and apparatus for compositing colors of images using pixel fragments with Z and Z gradient parameters |
US20080167551A1 (en) * | 2007-01-04 | 2008-07-10 | Michael Burns | Feature emphasis and contextual cutaways for image visualization |
CN103227848A (zh) * | 2011-11-22 | 2013-07-31 | 三星电子株式会社 | 用于针对便携式终端提供增强现实服务的设备和方法 |
CN103530594A (zh) * | 2013-11-05 | 2014-01-22 | 深圳市幻实科技有限公司 | 一种提供增强现实的方法、系统及终端 |
Non-Patent Citations (4)
Title |
---|
DAVID VANONI 等: "ARtifact: Tablet-Based Augmented Reality for Interactive Analysis", 《2012 IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA 2012 IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA 2012 IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA》 * |
DOUG-OFF THE RECORD: "What was there", 《DOUG-OFF THE RECORD》 * |
SGRIEVE: "Setting Transparency Based on Pixel Values in Matplotlib", 《SETTING TRANSPARENCY BASED ON PIXEL VALUES IN MATPLOTLIB》 * |
赵安安 等: "面向移动平台的二进制特征的性能研究", 《计算机应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491069A (zh) * | 2018-03-01 | 2018-09-04 | 湖南西冲智能家居有限公司 | 一种增强现实ar透明显示互动系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3108455B1 (en) | 2017-12-20 |
US20150235630A1 (en) | 2015-08-20 |
EP3108455A1 (en) | 2016-12-28 |
WO2015124962A1 (en) | 2015-08-27 |
CN106030664B (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106030664A (zh) | 用于在电子显示器上叠加图像的透明度确定 | |
TWI619088B (zh) | 圖像資料處理系統和相關方法以及相關圖像融合方法 | |
CN108875523B (zh) | 人体关节点检测方法、装置、系统和存储介质 | |
CN104699842B (zh) | 图片展示方法和装置 | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
WO2019237745A1 (zh) | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 | |
US9756260B1 (en) | Synthetic camera lenses | |
CN108986197B (zh) | 3d骨架线构建方法及装置 | |
WO2014146561A1 (zh) | 缩略图生成方法及系统 | |
US20170195560A1 (en) | Method and apparatus for generating a panoramic view with regions of different dimensionality | |
US20160098863A1 (en) | Combining a digital image with a virtual entity | |
CN111866523B (zh) | 全景视频合成方法、装置、电子设备和计算机存储介质 | |
US9445073B2 (en) | Image processing methods and systems in accordance with depth information | |
WO2023169283A1 (zh) | 双目立体全景图像的生成方法、装置、设备、存储介质和产品 | |
EP3133557A1 (en) | Method, apparatus, and computer program product for personalized depth of field omnidirectional video | |
US9767580B2 (en) | Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images | |
CN108628914B (zh) | 移动装置及其操作方法、非挥发性计算机可读取记录媒体 | |
US20210289147A1 (en) | Images with virtual reality backgrounds | |
KR102261544B1 (ko) | 스트리밍 서버 및 이를 이용한 다시점 동영상에서의 객체 처리 방법 | |
TWI570664B (zh) | The expansion of real-world information processing methods, the expansion of real processing modules, Data integration method and data integration module | |
WO2017024954A1 (zh) | 图像显示方法及装置 | |
US10169916B2 (en) | Image processing device and image processing method | |
CN108132935B (zh) | 图像分类方法及图像展示方法 | |
US10013736B1 (en) | Image perspective transformation system | |
KR102259045B1 (ko) | Vr 이미지 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |