CN109561294B - 用于渲染图像的方法和设备 - Google Patents

用于渲染图像的方法和设备 Download PDF

Info

Publication number
CN109561294B
CN109561294B CN201810271710.6A CN201810271710A CN109561294B CN 109561294 B CN109561294 B CN 109561294B CN 201810271710 A CN201810271710 A CN 201810271710A CN 109561294 B CN109561294 B CN 109561294B
Authority
CN
China
Prior art keywords
image
display area
dimensional
dimensional display
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810271710.6A
Other languages
English (en)
Other versions
CN109561294A (zh
Inventor
姜柄敏
南东暻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109561294A publication Critical patent/CN109561294A/zh
Application granted granted Critical
Publication of CN109561294B publication Critical patent/CN109561294B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Instrument Panels (AREA)

Abstract

提供一种用于渲染图像的方法和设备。所述图像渲染设备可确定显示二维(2D)图像的2D显示区域和显示三维(3D)图像的3D显示区域中的哪个包括当前像素,当当前像素包括在2D显示区域中时,可在当前像素的位置执行2D渲染操作,并且当当前像素包括在3D显示区域中时,可在当前像素的位置执行3D渲染操作。

Description

用于渲染图像的方法和设备
本申请要求于2017年9月25日提交到韩国知识产权局的第10-2017-0123202号韩国专利申请的优先权,所述韩国专利申请的公开通过引用全部包含于此。
技术领域
与示例性实施例一致的方法和设备涉及一种用于渲染图像的方法和设备。
背景技术
仅当向观看者的双眼显示的各个图像不同时,观看者才可感知三维(3D)图像的立体效果。向用户的右眼和左眼呈现不同的图像的方案可包括,例如,立体方案和自动立体方案。在立体方案中,可通过使用偏振光分割、时分或者基色的波长被滤波的波长分割,来执行期望的图像的滤波。在自动立体方案中,可通过使用3D光学装置(诸如,视差屏障、双凸透镜或定向背光单元(BLU))使得图像对于空间的每个视点可见。
发明内容
一个或多个示例性实施例可至少解决以上问题和/或缺点以及以上没有描述的其他缺点。此外,示例性实施例不需要克服上述缺点,并且示例性实施例可不克服上述的任何问题。
根据示例性实施例的方面,提供一种渲染将被显示在显示装置上的图像的方法。所述方法包括:确定二维(2D)显示区域和三维(3D)显示区域中的哪个包括当前像素,2D显示区域显示2D图像,3D显示区域显示3D图像;当当前像素包括在2D显示区域中时,在当前像素的位置执行2D渲染操作;当当前像素包括在3D显示区域中时,在当前像素的位置执行3D渲染操作。
2D显示区域和3D显示区域中的每一个可包括在单个屏幕中。
2D显示区域可环绕3D显示区域。
所述方法还可包括:对多个像素中的每个像素执行2D渲染操作或3D渲染操作,并生成2D图像与3D图像组合的结果图像。
2D显示区域可显示文本和引导指示中的至少一个。
2D显示区域可显示文本和引导指示中的所述至少一个,以提供与车辆相关的操作信息。
3D显示区域可显示3D对象的图像。
3D显示区域可显示用于引导车辆的行驶路线的3D对象的图像。
可通过使用视差屏障和双凸透镜中的至少一个在3D显示区域中生成用于显示3D对象的图像的多个视域。
所述显示装置为平视显示器(HUD)装置。
一种非暂时性计算机可读存储介质可存储指令,其中,所述指令在被处理器执行所述指令时使得处理器执行所述方法。
根据示例性实施例的另一方面,提供一种图像渲染设备,包括:至少一个处理器;显示面板,包括显示2D图像的2D显示区域和显示3D图像的3D显示区域。所述处理器被配置为:对将要使用显示面板输出的多个像素中的每个像素执行2D渲染操作和3D渲染操作中的至少一个,并生成2D图像与3D图像组合的结果图像,显示面板被配置为显示结果图像。
根据示例性实施例的另一方面,提供一种渲染将被显示在显示装置的屏幕上的结果图像的方法,所述屏幕被划分成包括多个第一像素的2D显示区域和包括多个第二像素的3D显示区域,并且所述方法包括:针对所述多个第一像素中的每个第一像素,执行2D渲染操作;针对所述多个第二像素中的每个第二像素,跟踪观看者的右眼位置和左眼位置,并基于跟踪的右眼位置和跟踪的左眼位置中的每个来执行3D渲染操作;生成包括位于2D显示区域中的2D图像和位于3D显示区域中的3D图像的组合的结果图像,作为执行所有的2D渲染操作和执行所有的3D渲染操作的结果。
附图说明
通过参照附图描述特定示例性实施例,以上和/或其他方面将变得更清楚,其中:
图1是示出根据示例性实施例的应用到平视显示器(HUD)装置的图像渲染设备的操作的示图;
图2是示出根据示例性实施例的图像渲染方法的流程图;
图3是示出根据示例性实施例的包括二维(2D)显示区域和三维(3D)显示区域的屏幕的示例的示图;
图4是示出根据示例性实施例的图像渲染方法的示例的流程图;
图5是示出根据示例性实施例的图像渲染设备的配置的示图;
图6A是示出根据示例性实施例的基于像素的位置执行2D渲染操作或3D渲染操作的处理的示图;
图6B是示出根据示例性实施例的将2D显示区域与3D显示区域进行区分的方法的示图;
图7A、图7B和图7C是示出根据示例性实施例的布置2D显示区域和3D显示区域的结构的示例的示图;
图8A和图8B是示出根据示例性实施例的包括双凸透镜和/或视差屏障的显示面板的示例的示图。
具体实施方式
以下结构的描述或功能的描述是示例性的,仅用于描述示例性实施例,并且示例性实施例的范围不限于本说明书中提供的描述。本领域的普通技术人员可对其进行各种改变和修改。
虽然诸如“第一”或“第二”的术语用于解释各种组件,但是所述组件不受限于所述术语。这些术语应该仅用于将一个组件与另一个组件进行区分。例如,在根据本公开的构思的权利的范围内,“第一”组件可被称为“第二”组件,或者类似地,“第二”组件可被称为“第一”组件。
将理解,当组件被称为“连接到”另一组件时,所述组件可直接连接或结合到另一组件,或者可存在中间组件。
除非上下文明确地另有指示,否则如在此使用的单数形式也意图包括复数形式。还应理解,当在本说明书中使用术语“包括”和/或“包含”时,指明存在叙述的特征、整体、步骤、操作、元件、组件或它们的组合,但不排除存在或添加一个或多个其他特征、整体、步骤、操作、元件、组件和/或它们的组。
除非在此另外定义,否则在此使用的所有术语(包括技术术语或科学术语)具有与本领域普通技术人员通常理解的含义相同的含义。除非在此另外定义,否则在通用字典中定义的术语应被解释为具有与相关领域的上下文含义匹配的含义,并且不被解释为理想的或过于形式化的含义。
在下文中,将参照附图详细描述示例性实施例,并且附图中的相同的参考标号始终表示相同的元件。
图1是示出根据示例性实施例的应用到平视显示器(HUD)装置的图像渲染设备100的操作的示图。
图像渲染设备100可对图像进行渲染并可将渲染的图像提供给用户。例如,图像渲染设备100可执行二维(2D)渲染操作和三维(3D)渲染操作二者。图像渲染设备100可在单个屏幕上输出2D图像和3D图像二者,作为2D渲染操作和3D渲染操作的结果。图像渲染设备100可包括显示器,其中,显示器包括用于显示2D图像的2D显示区域和用于显示3D图像的3D显示区域二者,图像渲染设备100可使用2D显示区域输出2D图像,并且可使用3D显示区域输出3D图像。
图像渲染设备100可被应用于能够提供2D图像和3D图像二者的应用。在以上应用中,图像渲染设备100可提供2D图像与3D图像被混合和/或组合的图像内容。在一个示例中,参照图1,图像渲染设备100可用于在HUD装置上以箭头的形式将路线引导标志显示为3D图像,并以文本的形式将操作信息(例如,从当前位置到目的地的剩余距离和/或到达目的地的预计时间)显示为2D图像。在另一示例中,图像渲染设备100可用在图像系统中,其中,图像系统被配置为:混合并提供2D图像和3D图像,例如,以将图像内容提供为3D图像并将说明文字提供为2D图像。在另一示例中,图像渲染设备100可用在增强现实(AR)领域中。图像渲染设备100可将以3D进行显示可能更有效的内容输出为3D图像,并将信息的准确且易理解显示很重要的内容输出为2D图像。
参照图1,应用到HUD装置的图像渲染设备100可被安装在车辆150中,并且可向驾驶员140提供2D图像121与3D图像123被组合的结果图像120。可通过经由渲染将2D图像与3D图像进行合并来获得结果图像120,并且结果图像120可包括2D图像121和3D图像123。可以以各种形式中的任何形式使用各种方案中的任何方案来布置2D图像121和3D图像123。例如,如图1中所示,3D图像123可被2D图像121环绕,然而,这仅是示例,布置方案/形式不限于此。可以以各种形式中的任何形式布置2D图像121和3D图像123。
图像渲染设备100将内容(诸如,要求高分辨率和高操作速度的文本)输出为2D图像121。例如,车辆150的操作信息131可被显示为2D图像121。将操作信息131显示为2D文本可比将操作信息131显示为3D图像更合适。操作信息131可包括:例如,限速90km/h、当前速度92km/h、当前时间13:00、预期到达时间13:15和到目的地的剩余距离15km。
要求真实和立体效果的内容可被显示为3D图像123。例如,可通过匹配前方路况以3D向驾驶员140更有效地显示的路线引导标志133可被显示为3D图像123。从驾驶员140的视点,包括在3D图像123中的路线引导标志133可被3D地视为与道路匹配的图片形式的道路引导指示135,因此驾驶员140可感觉到使用3D形式的路线引导标志133的相对高的真实感。
在一个示例中,图像渲染设备100可跟踪驾驶员140的眼睛位置并可基于跟踪的眼睛位置来执行3D渲染操作,以便使得左视点图像和右视点图像被准确地显示在眼睛位置。如图1所示,用于视点跟踪的相机(未示出)可被安装在车辆的仪表板或后视镜上,并且可获取表示驾驶员140的双眼的图像。图像渲染设备100可从相机接收由相机获取的图像或移动图像,并且可使用特征点提取方案或者模板匹配方案从接收的图像检测驾驶员140的眼睛位置。图像渲染设备100可基于检测的眼睛位置,来确定为3D渲染图像的多个像素中的每个像素分配左视点图像的像素值还是右视点图像的像素值。例如,当包括在3D显示区域中的显示像素的光线方向(ray direction)更接近左眼而不是右眼时,左视点图像的像素值可被分配给该显示像素。当光线方向更接近右眼而不是左眼时,右视点图像的像素值可被分配给该显示像素。当对所有的显示像素执行以上处理时,可生成基于驾驶员140的眼睛位置的3D渲染图像。可由3D光学装置(例如,包括在3D显示区域中的双凸透镜和/或视差屏障)的结构特征来确定光线方向。
参照图1,应用于HUD装置的图像渲染设备100包括显示面板101和至少一个反射镜(例如,反射镜103和105)。图像渲染设备100可向驾驶员140提供结果图像120。显示面板101可将结果图像120输出到反射镜103,并且反射镜103可使得结果图像120经由反射镜105提供给驾驶员140。
图像渲染设备100可在车辆150的挡风玻璃111上显示操作信息,因此可向驾驶员140提供操作信息,而不需要驾驶员在驾驶期间移动眼睛。因此,图像渲染设备100可向驾驶员140提供更大的便利并降低事故风险。
显示面板101的屏幕可包括2D显示区域和3D显示区域二者。2D显示区域和3D显示区域可被布置在各种位置中的任何位置。例如,2D显示区域可环绕3D显示区域,或者2D显示区域可与3D显示区域相邻地位于3D显示区域的一个或多个侧(即,上侧、下侧、左侧或右侧)。然而,以上布置仅是示例,2D显示区域和3D显示区域的布置不限于此。
为了显示3D图像,3D显示区域可使用由驾驶员140的右眼感知的图像与由驾驶员140的左眼感知的图像之间的视点的差。3D显示区域可由立体3D显示器或者自动立体3D显示器来实现。在自动立体3D显示器中,可使用用于多个视点的隔离的3D光学装置。例如,3D显示区域可包括被配置为沿不同视点方向输出图像的3D光学装置(例如,双凸透镜和/或视差屏障)。
例如,3D显示区域可显示3D图像中的将被驾驶员140的左眼观看到的左视点图像,并且可显示将被驾驶员140的右眼观看到的右视点图像,使得驾驶员140可感觉到内容的立体效果。在这个示例中,由于左视点图像关于右视点图像不完全隔离,可发生降低3D图像质量的串扰现象(crosstalk phenomenon)。串扰现象可以是因为左视点图像和右视点图像彼此不是完全隔离而引起的左视点图像的一部分被显示到右眼或者右视点图像的一部分被显示到左眼的现象。当视点隔离没有被适当地执行时,可发生能够引起驾驶员140感到头晕的串扰现象。
当在显示为文本的内容中发生串扰现象时,不同于与实际驾驶道路匹配的并以箭头的形式显示的图片形式的路线引导标志,驾驶员140可感觉到很大的不便,这可导致事故风险增加。因此,更适合以2D而不是3D表示的内容(诸如,文本)可期望地以2D进行显示,而不是将整个显示区域形成为3D显示区域。
图像渲染设备100可通过2D渲染将信息的含义的传达很重要的内容(诸如,文本)提供为2D图像,因此可防止在文本信息被提供时发生串扰现象。因为与3D图像不同,同一2D图像被提供给左眼和右眼,所以更少可能地发生串扰现象。此外,因为以比3D渲染的操作速度更高的操作速度来执行2D渲染操作,所以经由2D渲染操作可更快地处理信息的含义的传达很重要的内容。
如上所述,图像渲染设备100可通过设置在包括2D显示区域和3D显示区域的面板上的显示区域,将真实性和立体效果很重要的内容提供为3D图像,并将信息的含义的传达和准确性很重要的内容提供为2D图像。因此,图像渲染设备100可在向驾驶员140提供3D图像的真实感的同时,在没有串扰现象(不发生串扰现象)的情况下准确并快速地提供文本信息。
虽然如图1所示,图像渲染设备100被应用于HUD,但是HUD仅是示例。因此,图像渲染设备100可被应用于其他显示装置。例如,图像渲染设备100可被应用于安装在车辆150的顶部(ceiling)的探照灯(projector)。此外,图像渲染设备100可被应用于能够显示2D图像和3D图像二者的任何显示装置或所有显示装置。
图2是示出根据示例性实施例的图像渲染方法的流程图。
参照图2,在操作201中,图像渲染设备可确定2D显示区域和3D显示区域中的哪个包括当前像素。2D显示区域可显示2D图像,3D显示区域可显示3D图像。2D显示区域和3D显示区域可包括在单个屏幕中。2D显示区域可位于环绕3D显示区域的位置。此外,与3D显示区域的大小对应的双凸透镜和/或视差屏障可位于3D显示区域中。显示面板可包括多个像素,并且图像渲染设备可在所述多个像素的每个像素的位置,顺序地或并行地执行渲染操作。
在操作202中,图像渲染设备可确定当前像素是否包括在2D显示区域中。
通过像素输出的图像可以是2D图像或3D图像,这可基于该像素是包括在2D显示区域中还是3D显示区域中来确定。当当前像素包括在2D显示区域中时,在操作203中,图像渲染设备可在当前像素的位置执行2D渲染操作。图像渲染设备可从2D输入图像搜索与当前像素对应的像素值,并可将该像素值分配给2D显示区域中的当前像素。例如,2D显示区域可显示文本和/或引导指示。
当当前像素包括在3D显示区域中时,在操作205中,图像渲染设备可在当前像素的位置执行3D渲染操作。图像渲染设备可基于左视点图像和右视点图像来确定将要分配给当前像素的像素值,并可将该像素值分配给3D显示区域中的当前像素。3D显示区域可显示3D对象的图像。例如,3D显示区域可显示用于显示与车辆相关的路线引导标志的3D对象的图像。图像渲染设备可使用3D光学装置(例如,双凸透镜和/或视差屏障)分开地提供左视点图像和右视点图像。可使用3D光学装置在3D显示区域中生成用于显示3D对象的图像的多个视域(viewing zone)。
当执行了操作203或操作205时,在操作207中,图像渲染设备可确定是否在所有的像素的位置已经执行了2D渲染或3D渲染。当还没有在所有的像素的位置执行2D渲染或3D渲染时,在操作209中,图像渲染设备可选择下一像素,并可在下一像素的位置执行操作201、操作202、操作203或操作205和操作207。
当对每个像素已经执行了2D渲染或3D渲染时,在操作211中,图像渲染设备可生成2D图像与3D图像被组合的结果图像,并可输出结果图像。
图3是示出根据示例性实施例的包括2D显示区域和3D显示区域的屏幕的示例的示图。
参照图3,显示装置的屏幕310可包括显示2D图像的2D显示区域311和显示3D图像的3D显示区域321。在屏幕310上显示的结果图像中,路线引导标志323可以以箭头的形式被显示在3D显示区域321中,并且操作信息313(例如,限速、当前时间、预计到达时间和到目的地的距离)可被显示在2D显示区域311中。图像渲染设备可使用2D显示区域311显示用于提供与车辆相关的操作信息的文本和/或引导指示,并且可使用3D显示区域321显示用于引导车辆的行驶路线的3D对象的图像。
图4是示出根据示例性实施例的图像渲染方法的示例的流程图。
参照图4,在操作401中,图像渲染设备可验证显示面板中的将被执行渲染操作的像素的位置。显示面板中的像素的位置可由2D坐标(例如,D(x,y))表示。
在操作403中,图像渲染设备可确定在D(x,y)的像素是否包括在显示3D图像的3D显示区域中。例如,当3D显示区域被假定为具有矩形形状时,3D显示区域的范围可由Oleft、Oright、Otop和Obottom来定义。在这个示例中,Oleft表示3D图像显示区域的左边界的x坐标,Oright表示3D图像显示区域的右边界的x坐标,Otop表示3D图像显示区域的上边界的y坐标,Obottom表示3D图像显示区域的下边界的y坐标。
图像渲染设备可确定像素的x坐标是否满足条件“x>Oleft且x<Oright”并且像素的y坐标满足条件“y<Otop且y>Obottom”。当确定所述条件满足时,像素可被确定为在3D显示区域中。当所述条件中的一个条件不满足时,像素可被确定为在显示2D图像的2D显示区域中。
当在操作403中像素被确定为包括在3D显示区域中时,在操作405中,图像渲染设备可在像素的位置执行3D渲染操作。图像渲染设备可基于多个视点图像执行3D渲染操作并可确定将被分配给像素的像素值。
当在操作403中像素被确定为包括在2D显示区域中时,在操作407中,图像渲染设备可在像素的位置执行2D渲染操作。图像渲染设备可从输入图像确定像素的像素值,并可将确定的像素值分配给像素。
图5是示出根据示例性实施例的图像渲染设备500的配置的示图。
参照图5,图像渲染设备500包括显示面板501、处理器503和存储器505。
显示面板501可显示由处理器503生成的结果图像。显示面板501可显示通过将2D图像与3D图像进行组合得到的图像作为结果图像。显示面板501可包括显示2D图像的2D显示区域和显示3D图像的3D显示区域。3D显示区域可包括3D光学装置,其中,3D光学装置被配置为通过基于多个视点划分结果图像来实现3D图像的立体效果。例如,3D光学装置可包括视差屏障和/或双凸透镜。
可以以各种形式中的任何形式,使用各种方案中的任何方案来布置显示面板501的2D显示区域和3D显示区域。例如,2D显示区域可环绕3D显示区域,或者可位于3D显示区域的一侧或两侧。
处理器503可控制图像渲染设备500,并可执行上面参照图1、图2、图3和图4描述的操作。例如,处理器503可执行图2的操作201至操作211以及图4的操作401至操作407。例如,处理器503可包括单处理器、多处理器、硬件加速器(HWA)、图形处理器(GPU)或者它们的组合。
处理器503可对将要使用显示面板501输出的多个像素中的每个像素执行2D渲染操作和3D渲染操作中的一个,并可生成2D图像与3D图像被组合的结果图像。为此,处理器503可确定哪些像素包括在2D显示区域并且哪些像素包括在3D显示区域中,并可基于确定结果在对应像素的位置执行2D渲染操作或3D渲染操作。当像素包括在2D显示区域中时,可在该像素的位置执行2D渲染操作。当像素包括在3D显示区域中时,可在该像素的位置执行3D渲染操作。
存储器505可存储视点图像(例如,立体图像的左视点图像和右视点图像)、2D图像、面板图像、用于处理器503的操作的指令、各种功能、等式和数据(诸如,操作结果)。此外,存储器505可将对应的数据发送到处理器503,或者可将存储在存储器505中的数据发送到处理器503。
图6A是示出根据示例性实施例的基于像素的位置执行2D渲染操作或3D渲染操作的处理的示图。
参照图6A,显示面板610可包括2D显示区域611和3D显示区域621,并且2D显示区域611和3D显示区域621中的每个显示区域可包括多个像素。3D显示区域621可以是包括3D光学装置的区域,并且当显示装置被制造时,3D显示区域621的位置可被确定。
如图6A所示,3D显示区域621可被2D显示区域611环绕。如上所述,当3D显示区域621被假定为具有矩形形状时,可基于Oleft、Oright、Otop和Obottom来定义3D显示区域621。3D显示区域621的位置可以是满足条件“Oleft<x<Oright”和“Obottom<y<Otop”的位置(x,y)。
图像渲染设备可基于像素是否包括在3D显示区域中,来确定在该像素的位置将要执行的渲染的类型。在一个示例中,图像渲染设备可从位于D(0,0)的像素,顺序地确定对应的像素是否位于3D显示区域621中。当对应的像素被确定为在3D显示区域621中时,图像渲染设备可基于多个视点图像在该像素的位置执行3D渲染操作。当像素被确定为在2D显示区域611中而不是3D显示区域621中时,图像渲染设备可在该像素的位置执行2D渲染操作。在另一个示例中,图像渲染设备可针对多个像素并行处理以上操作。
图6B是示出根据示例性实施例的将2D显示区域与3D显示区域进行区分的方法的示图。
参照图6B,图像渲染设备可输出用于将2D显示区域611和3D显示区域621进行区分的测试图像。测试图像可包括两个相互交叉的直线。所述直线可被清楚地显示在2D显示区域611中。然而,所述直线可不会被3D光学装置清楚地显示在3D显示区域621中。可基于所述直线不被清楚显示的范围,来估计3D显示区域621的位置和大小。例如,可基于未被清楚地显示的直线的多个部分的位置,来定义指明3D显示区域621的边界的Oleft、Oright、Otop和Obottom
图7A、图7B和图7C是示出根据示例性实施例的布置2D显示区域和3D显示区域的结构的示例的示图。
显示面板700可包括2D显示区域和3D显示区域二者,并且可如图7A、图7B和图7C所示以各种形式中的任何形式来布置2D显示区域和3D显示区域。图7A、图7B和图7C的布置形式仅是示例,布置方案不限于此。
如图7A所示,2D显示区域711可环绕3D显示区域713。如图7B所示,2D显示区域721可位于3D显示区域723的一侧。如图7C所示,显示面板700可包括多个2D显示区域(例如,2D显示区域731和733)。多个2D显示区域可位于3D显示区域的至少一侧,例如,2D显示区域731和733可位于3D显示区域735的一侧和另一侧(即,两侧)。
图8A和图8B是示出根据示例性实施例的包括双凸透镜和/或视差屏障的显示面板的示例的示图。
例如,图像渲染设备可基于自动立体3D显示方案来实现3D图像。图像渲染设备可使用3D光学装置(例如,视察屏障和/或双凸透镜)来使得不同的图像被显示给用户的左眼和右眼,以向用户提供立体效果。3D光学装置可位于显示面板的与3D显示区域对应的部分,或者位于显示面板的与3D显示区域对应的部分的上方。
图8A示出包括双凸透镜813的显示面板。参照图8A,在使用双凸透镜813的方案中,具有相对小的节距(pitch)的多个柱面透镜可被布置在显示面板的前面,并且左视点图像和右视点图像可彼此隔离。双凸透镜813可如图8A所示位于多个像素811的前面。多个像素811可被分类为与左视点图像对应的像素L和与右视点图像对应的像素R。多个视域(例如,视域821和视域823)可通过双凸透镜813被形成。视域821和视域823可以是这样的区域:在该区域中,基于视点方向彼此分离地观看到图像。
图8B示出包括视差屏障833的显示面板。参照图8B,在使用视差屏障833的方案中,用于限制光投射方向的屏障可位于显示面板的前面,并且左视点图像和右视点图像可彼此隔离。屏障可如图8B所示位于多个像素831的前面,或者位于多个像素831的后面。与双凸透镜类似,可通过视差屏障833形成多个视域(例如,视域841和视域843)。
可使用硬件组件、软件组件或它们的组合来实现在此描述的示例性实施例。可使用一个或多个通用或专用的计算机(诸如,处理器、控制器和算术逻辑单元、数字信号处理器、微型计算机、现场可编程阵列、可编程逻辑单元、微处理器或者能够以定义的方式响应并执行指令的任何其他装置)来实现处理装置。处理装置可运行操作系统(OS)以及在OS上运行的一个或多个软件应用。响应于软件的执行,处理装置还可访问、存储、操控、处理以及创建数据。为了简明的目的,处理装置的描述用作单数;然而,本领域的技术人员将理解,处理装置可包括多个处理元件以及多种类型的处理元件。例如,处理装置可包括多个处理器或者一个处理器和一个控制器。此外,不同的处理配置是可行的,诸如,并行处理器配置。
软件可包括计算机程序、代码段、指令或它们的一些组合,以独立地或共同地指示或配置处理装置按照期望进行操作。可以以机器、组件、物理或虚拟装备、计算机存储介质或装置中的任何类型、或者以能够将指令或数据提供给处理装置或者能够由处理装置解释的传播信号波,来永久地或暂时性地实现软件和数据。软件还可分布在联网的计算机系统上,使得软件以分布式的方式存储和执行。可由一个或多个非暂时性计算机可读记录介质存储软件和数据。
根据上述示例性实施例的方法可被记录在非暂时性计算机可读介质中,其中,非暂时性计算机可读介质中包括用于实现可由计算机执行的各种操作的程序指令。介质还可单独地包括程序指令、数据文件、数据结构等,或与程序指令结合地包括数据文件、数据结构等。记录在介质上的程序指令可以是为了示例性实施例的目的而专门设计和构造的程序指令,或者他们可具有公知的种类并且对计算机软件领域的技术人员是可用的。非暂时性计算机可读介质的示例包括:磁介质(诸如,硬盘、软盘和磁带)、光学介质(诸如,致密盘只读存储器(CD ROM)盘和数字多功能盘(DVD))、磁光介质(诸如,光盘)以及被专门配置为存储和执行程序指令的硬件装置(诸如,只读存储器(ROM)、随机存取存储器(RAM)、闪存等)。程序指令的示例包括机器代码(诸如,由编译器产生的代码)以及包含可由计算机使用解释器执行的高级代码的文件二者。描述的硬件装置可被配置为作为一个或多个软件模块以执行上述示例性实施例的操作,反之亦然。
尽管本公开包括示例性实施例,但是本领域的普通技术人员将清楚,在不脱离权利要求及其等同物的精神和范围的情况下,可对这些示例性实施例进行各种形式和细节上的改变。在此描述的示例性实施例仅在描述意义上被考虑,并且不是为了限制的目的。每个示例性实施例中的特征或方面的描述将被认为可适用于其他示例性实施例中的相似特征或方面。如果描述的技术以不同的顺序执行,和/或如果描述的系统、架构、装置或电路中的组件以不同的方式组合和/或由其他组件或它们的等同物代替或补充,则可获得适当的结果。因此,本公开的范围不是由具体实施方式限定,而是由权利要求及及其等同物限定,并且权利要求及其等同物的范围内的所有变化将被解释为包括在本公开中。

Claims (15)

1.一种渲染将被显示在包括显示面板的安装在车辆中的显示装置上的图像的方法,所述方法包括:
输出测试图像,其中,测试图像包括相互交叉的两条直线;
基于测试图像将二维显示区域和三维显示区域进行区分,以估计三维显示区域的位置和大小,其中,所述两条直线清楚地显示在二维显示区域中,并且不清楚地显示在三维显示区域中;
确定二维显示区域和三维显示区域中的哪个包括当前像素,二维显示区域显示二维图像并且不与三维光学装置对应,三维显示区域显示三维图像;
当当前像素包括在二维显示区域中时,在当前像素的位置执行二维渲染操作;
当当前像素包括在三维显示区域中时,基于跟踪观看者的右眼位置和左眼位置,在当前像素的位置执行三维渲染操作,
其中,二维显示区域显示用于提供与车辆相关的操作信息的文本和引导指示中的至少一个,以在车辆的挡风玻璃上向驾驶员提供与用于提供与车辆相关的操作信息的文本和引导指示中的至少一个对应的二维图像,
其中,三维显示区域显示用于引导车辆的行驶路线的三维对象的图像,以在车辆的挡风玻璃上向驾驶员提供与用于引导车辆的行驶路线的三维对象对应的三维图像,
其中,跟踪观看者的右眼位置和左眼位置的步骤包括:
接收由相机获取的图像;和
使用特征点提取方案或模板匹配方案从接收到的图像检测观看者的眼睛位置。
2.根据权利要求1所述的方法,其中,二维显示区域和三维显示区域中的每一个包括在单个屏幕中。
3.根据权利要求2所述的方法,其中,二维显示区域位于三维显示区域的至少一侧。
4.根据权利要求1所述的方法,还包括:
对将要使用所述显示装置输出的多个像素中的每个像素执行二维渲染操作或三维渲染操作,并生成二维图像与三维图像被组合的结果图像。
5.根据权利要求1所述的方法,其中,通过使用视差屏障和双凸透镜中的至少一个生成用于显示三维对象的图像的多个视域。
6.根据权利要求1所述的方法,其中,所述显示装置为平视显示器装置。
7.一种存储指令的非暂时性计算机可读存储介质,其中,所述指令在被处理器执行时使得处理器执行如权利要求1所述的方法。
8.一种安装在车辆中的图像渲染设备,包括:
至少一个处理器,被配置为在显示面板上输出测试图像,其中,测试图像包括相互交叉的两条直线,并且所述至少一个处理器还被配置为基于测试图像将二维显示区域和三维显示区域进行区分,以估计三维显示区域的位置和大小,其中,所述两条直线清楚地显示在二维显示区域中,并且不清楚地显示在三维显示区域中;
显示面板,包括显示二维图像的二维显示区域和显示三维图像的三维显示区域,
其中,所述至少一个处理器被配置为:对将要使用显示面板输出的多个像素中的每个像素执行二维渲染操作和基于观看者的右眼位置和左眼位置的跟踪操作的三维渲染操作中的至少一个,并生成二维图像与三维图像组合的结果图像,
显示面板被配置为显示所述结果图像,
其中,二维显示区域显示用于提供与车辆相关的操作信息的文本和引导指示中的至少一个,以在车辆的挡风玻璃上向驾驶员提供与用于提供与车辆相关的操作信息的文本和引导指示中的至少一个对应的二维图像,
其中,三维显示区域显示用于引导车辆的行驶路线的三维对象的图像,以在车辆的挡风玻璃上向驾驶员提供与用于引导车辆的行驶路线的三维对象对应的三维图像,
其中,观看者的右眼位置和左眼位置的跟踪操作包括:
接收由相机获取的图像;和
使用特征点提取方案或模板匹配方案从接收到的图像检测观看者的眼睛位置。
9.根据权利要求8所述的图像渲染设备,其中,所述至少一个处理器还被配置为:
确定二维显示区域和三维显示区域中的哪个包括当前像素;
当当前像素包括在二维显示区域中时,在当前像素的位置执行二维渲染操作;
当当前像素包括在三维显示区域中时,在当前像素的位置执行三维渲染操作。
10.根据权利要求8所述的图像渲染设备,其中,显示面板包括被配置为生成用于显示三维图像的多个视域的视差屏障和双凸透镜中的至少一个。
11.根据权利要求10所述的图像渲染设备,其中,视差屏障和双凸透镜中的至少一个位于显示面板的与三维显示区域对应的部分的上方。
12.根据权利要求8所述的图像渲染设备,其中,二维显示区域环绕三维显示区域。
13.根据权利要求8所述的图像渲染设备,其中,二维显示区域位于三维显示区域的一侧。
14.根据权利要求8所述的图像渲染设备,其中,
显示面板包括多个二维显示区域,
所述多个二维显示区域中的每个二维显示区域位于三维显示区域的至少一侧。
15.一种渲染将被显示在安装在车辆中的显示装置的显示面板上的结果图像的方法,所述显示面板被划分成包括多个第一像素的二维显示区域和包括多个第二像素的三维显示区域,并且所述方法包括:
输出测试图像,其中,测试图像包括相互交叉的两条直线;
基于测试图像将二维显示区域和三维显示区域进行区分,以估计三维显示区域的位置和大小,其中,所述两条直线清楚地显示在二维显示区域中,并且不清楚地显示在三维显示区域中;
针对所述多个第一像素中的每个第一像素,执行二维渲染操作;
针对所述多个第二像素中的每个第二像素,跟踪观看者的右眼位置和左眼位置,并基于跟踪的右眼位置和跟踪的左眼位置中的每个来执行三维渲染操作;
生成包括位于二维显示区域中的二维图像和位于三维显示区域中的三维图像的组合的结果图像,作为执行所有的二维渲染操作和执行所有的三维渲染操作的结果,
其中,二维显示区域显示用于提供与车辆相关的操作信息的文本和引导指示中的至少一个,以在车辆的挡风玻璃上向驾驶员提供与用于提供与车辆相关的操作信息的文本和引导指示中的至少一个对应的二维图像,
其中,三维显示区域显示用于引导车辆的行驶路线的三维对象的图像,以在车辆的挡风玻璃上向驾驶员提供与用于引导车辆的行驶路线的三维对象对应的三维图像,
其中,跟踪观看者的右眼位置和左眼位置的步骤包括:
接收由相机获取的图像;和
使用特征点提取方案或模板匹配方案从接收到的图像检测观看者的眼睛位置。
CN201810271710.6A 2017-09-25 2018-03-29 用于渲染图像的方法和设备 Active CN109561294B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170123202A KR102427854B1 (ko) 2017-09-25 2017-09-25 영상 렌더링 방법 및 장치
KR10-2017-0123202 2017-09-25

Publications (2)

Publication Number Publication Date
CN109561294A CN109561294A (zh) 2019-04-02
CN109561294B true CN109561294B (zh) 2023-09-01

Family

ID=62909334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810271710.6A Active CN109561294B (zh) 2017-09-25 2018-03-29 用于渲染图像的方法和设备

Country Status (5)

Country Link
US (1) US10497169B2 (zh)
EP (1) EP3461129B1 (zh)
JP (1) JP7290925B2 (zh)
KR (1) KR102427854B1 (zh)
CN (1) CN109561294B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3054899B1 (fr) * 2016-08-03 2018-08-17 Valeo Comfort And Driving Assistance Dispositif de generation d'images pour ecran et afficheur tete-haute
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
JP7100523B2 (ja) * 2018-07-27 2022-07-13 京セラ株式会社 表示装置、表示システムおよび移動体
KR102030288B1 (ko) * 2018-11-01 2019-11-29 가부시키가이샤 덴소 헤드업 디스플레이 시스템
KR102650332B1 (ko) 2018-12-12 2024-03-22 삼성전자주식회사 3차원 영상을 표시하는 장치 및 방법
JP7317517B2 (ja) * 2019-02-12 2023-07-31 株式会社ジャパンディスプレイ 表示装置
CN112584124A (zh) * 2019-09-30 2021-03-30 北京芯海视界三维科技有限公司 实现3d显示的方法及装置、3d显示终端
JP7358909B2 (ja) * 2019-10-28 2023-10-11 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
WO2021100917A1 (ko) * 2019-11-21 2021-05-27 엘지전자 주식회사 헤드업 디스플레이 장치
CN112929643B (zh) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3d显示设备、方法及终端
JP2023505181A (ja) * 2019-12-05 2023-02-08 スリーエム イノベイティブ プロパティズ カンパニー 光学システム及びヘッドアップディスプレイシステム
US11938817B2 (en) * 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status
WO2022230995A1 (ja) 2021-04-30 2022-11-03 日本精機株式会社 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
WO2024071537A1 (ko) * 2022-09-26 2024-04-04 엘지전자 주식회사 투사광학계를 이용한 큰 종횡비를 갖는 차량용 영상 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269022A (ja) * 2004-03-17 2005-09-29 Ricoh Co Ltd 符号化装置およびその方法、符号データ編集装置およびその方法、並びに、プログラムおよび記録媒体
CN102170579A (zh) * 2011-03-23 2011-08-31 深圳超多维光电子有限公司 一种图形图像处理系统、方法和芯片
CN102625114A (zh) * 2011-01-31 2012-08-01 三星电子株式会社 显示3d图像的方法和设备以及区分3d图像的设备和方法
CN103149768A (zh) * 2013-03-11 2013-06-12 华映视讯(吴江)有限公司 裸视立体显示装置及其显示方法
CN106604015A (zh) * 2016-12-20 2017-04-26 宇龙计算机通信科技(深圳)有限公司 一种图像处理方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122733A (ja) * 1991-10-28 1993-05-18 Nippon Hoso Kyokai <Nhk> 3次元画像表示装置
DE4309667A1 (de) 1993-03-26 1994-09-29 Univ Dresden Tech Optisches System zur zwei- und dreidimensionalen Darstellung von Information
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JP4367212B2 (ja) * 2004-04-15 2009-11-18 株式会社デンソー 虚像表示装置およびプログラム
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
DE102006030990A1 (de) * 2005-11-14 2007-05-16 Univ Muenster Wilhelms Verfahren und Anordnung zum monoskopischen Darstellen wenigstens eines Bereiches eines Bildes auf einer autostereoskopischen Anzeigevorrichtung
KR101314601B1 (ko) 2006-10-30 2013-10-04 엘지전자 주식회사 콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및 콘텐츠 표출 방법
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
JP5820276B2 (ja) 2009-02-17 2015-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d画像及びグラフィカル・データの結合
JP2010193340A (ja) * 2009-02-20 2010-09-02 Fujifilm Corp 表示装置および方法
JP2012010085A (ja) * 2010-06-24 2012-01-12 Sony Corp 立体表示装置及び立体表示装置の制御方法
JP2012186653A (ja) 2011-03-04 2012-09-27 Toshiba Corp 画像表示装置、方法およびプログラム
JP5883723B2 (ja) 2012-03-21 2016-03-15 株式会社ジオ技術研究所 3次元画像表示システム
KR101360061B1 (ko) 2012-12-05 2014-02-12 현대자동차 주식회사 증강 현실 제공 방법 및 그 장치
JP6266229B2 (ja) 2013-05-14 2018-01-24 東芝メディカルシステムズ株式会社 画像処理装置、方法、及びプログラム
KR102071693B1 (ko) 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
US9756319B2 (en) 2014-02-27 2017-09-05 Harman International Industries, Incorporated Virtual see-through instrument cluster with live video
JP6304628B2 (ja) * 2014-05-12 2018-04-04 パナソニックIpマネジメント株式会社 表示装置および表示方法
KR20160059783A (ko) 2014-11-19 2016-05-27 삼성전자주식회사 백라이트 유닛, 이를 포함하는 디스플레이 장치 및 백라이트 유닛 제조방법
GB2532954A (en) * 2014-12-02 2016-06-08 Ibm Display control system for an augmented reality display system
JP6485732B2 (ja) * 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269022A (ja) * 2004-03-17 2005-09-29 Ricoh Co Ltd 符号化装置およびその方法、符号データ編集装置およびその方法、並びに、プログラムおよび記録媒体
CN102625114A (zh) * 2011-01-31 2012-08-01 三星电子株式会社 显示3d图像的方法和设备以及区分3d图像的设备和方法
CN102170579A (zh) * 2011-03-23 2011-08-31 深圳超多维光电子有限公司 一种图形图像处理系统、方法和芯片
CN103149768A (zh) * 2013-03-11 2013-06-12 华映视讯(吴江)有限公司 裸视立体显示装置及其显示方法
CN106604015A (zh) * 2016-12-20 2017-04-26 宇龙计算机通信科技(深圳)有限公司 一种图像处理方法及装置

Also Published As

Publication number Publication date
CN109561294A (zh) 2019-04-02
KR20190034775A (ko) 2019-04-03
US20190096121A1 (en) 2019-03-28
EP3461129A1 (en) 2019-03-27
US10497169B2 (en) 2019-12-03
JP2019062532A (ja) 2019-04-18
JP7290925B2 (ja) 2023-06-14
KR102427854B1 (ko) 2022-08-01
EP3461129B1 (en) 2022-04-27

Similar Documents

Publication Publication Date Title
CN109561294B (zh) 用于渲染图像的方法和设备
US10573063B2 (en) Content visualizing device and method
KR101940971B1 (ko) 가속된 라이트 필드 디스플레이
KR102415502B1 (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
CN109309828B (zh) 图像处理方法和图像处理装置
US20190373249A1 (en) Stereoscopic display device and head-up display
US11457194B2 (en) Three-dimensional (3D) image rendering method and apparatus
US11711502B2 (en) Method of outputting three-dimensional image and electronic device performing the method
US20170060253A1 (en) Method and apparatus for processing three-dimensional (3d) object based on user interaction
KR20160009487A (ko) 3d 영상 디스플레이 장치 및 방법
CN107678162A (zh) 一种显示控制组件及其控制方法、平视显示系统、车辆
KR102240564B1 (ko) 영상 렌더링 장치 및 방법
US20220055480A1 (en) Method and apparatus for controlling head-up display based on eye tracking status
CN114077306A (zh) 实现内容可视化的装置和方法
US20220072957A1 (en) Method for Depicting a Virtual Element
KR20160025922A (ko) 영상 처리 방법 및 장치
KR20160067518A (ko) 영상 생성 방법 및 장치
EP3958043A1 (en) Three-dimensional display apparatus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant