CN114731383A - 显示终端设备 - Google Patents

显示终端设备 Download PDF

Info

Publication number
CN114731383A
CN114731383A CN201980102418.4A CN201980102418A CN114731383A CN 114731383 A CN114731383 A CN 114731383A CN 201980102418 A CN201980102418 A CN 201980102418A CN 114731383 A CN114731383 A CN 114731383A
Authority
CN
China
Prior art keywords
image
display
terminal device
display terminal
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980102418.4A
Other languages
English (en)
Inventor
德武健司
月冈正明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN114731383A publication Critical patent/CN114731383A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种显示终端设备,其中,CPU通过软件处理确定虚拟对象在真实空间中的布置位置,并输出指示第一图像和位置的信息,该第一图像是虚拟对象的图像;成像单元捕获第二图像,该第二图像是真实空间的图像;合成器基于所述位置通过硬件处理来组合第一图像和第二图像,从而生成合成图像;以及显示单元直接连接到合成器并显示合成图像。

Description

显示终端设备
技术领域
本公开涉及显示终端设备。
背景技术
显示终端设备已被开发用于使用增强现实(AR)技术实现服务。显示终端设备的示例包括头戴式显示器(HMD)。HMD包括例如光学透视(see-through)型HMD和视频透视型HMD。
在光学透视型HMD中,例如,使用半反射镜或透明导光板的虚拟图像光学系统被保持在用户的眼前。在虚拟图像光学系统内侧显示图像。因此,佩戴光学透视型HMD的用户即使在观看显示在虚拟图像光学系统内侧的图像时也可以观看用户周围的风景。从而,采用AR技术的光学透视型HMD能够根据光学透视型HMD的位置和姿势以各种模式(诸如文本、图标和动画等)在真实空间中存在的对象的光学图像上叠加虚拟对象(以下,可称为“虚拟对象”)的图像(以下,可称为“虚拟对象图像”)。
相反,视频透视型HMD由用户佩戴以覆盖用户的眼睛,并且视频透视型HMD的显示器被保持在用户的眼前。此外,视频透视型HMD包括用于捕获用户前面的风景图像的相机模块,并且由相机模块捕获的风景图像被显示在显示器上。因此,虽然佩戴视频透视型HMD的用户难以直接观看用户前面的风景,但用户可以利用显示器上的图像看到用户前面的风景。此外,采用AR技术的视频透视型HMD可以使用用户前面的风景的图像作为真实空间中的背景的图像(以下简称“背景图像”),以根据视频透视型HMD的位置和姿势将虚拟对象图像叠加在背景图像上。在下文中,通过将虚拟对象图像叠加在背景图像上获得的图像可以称为“合成图像”。
引用列表
专利文献
专利文献1:JP2018-517444A
专利文献2:JP2018-182511A
发明内容
技术问题
这里,在视频透视型HMD中使用的AR技术中,虚拟对象图像在背景图像上的叠加是通过软件处理来进行的,这相对需要时间,包括对背景图像的分析等。因此,在视频透视型HMD中,在已经捕获背景图像的时间点和显示包括背景图像的合成图像的时间点之间发生的延迟增加了。此外,背景图像会随着视频透视型HMD的移动而随时改变。
从而,当佩戴视频透视型HMD的用户的面部朝向改变时,显示器上背景图像的更新速度有时无法跟随用户面部朝向的变化速度。从而,例如,如图1所示,当佩戴视频透视型HMD的用户的面部朝向从朝向D1改变为朝向D2时,甚至在朝向D2的时间点,有时也在显示器上显示在朝向D1时所捕获的背景图像BI。因此,在用户的面部朝向到达朝向D2的时间点,显示器上显示的背景图像BI与用户前面的实际风景FV不同,从而增加了用户的违和感。
此外,在合成图像中包括的背景图像和虚拟对象图像中,虚拟对象图像被叠加在背景图像上,同时如上所述背景图像随着视频透视型HMD的移动而改变。因此,当视频透视型HMD移动时,用户难以识别在已经捕获背景图像的时间点与显示或更新要叠加在背景图像上的虚拟对象图像的时间点之间的延迟,而用户容易识别更新背景图像的延迟。即用户对虚拟对象图像的显示延迟不敏感,而对背景图像的更新延迟敏感。从而,背景图像的所增加的更新延迟增加了用户的违和感。
因此,本公开提出了能够减少佩戴诸如采用AR技术的视频透视型HMD的显示终端设备的用户的违和感的技术。
问题的解决方案
根据本公开,显示终端设备包括CPU、成像单元、合成器和显示器。CPU通过软件处理确定虚拟对象在真实空间中的布置位置,并输出第一图像和指示布置位置的信息,该第一图像是虚拟对象的图像。成像单元捕获第二图像,其是真实空间的图像。合成器基于布置位置通过硬件处理来组合第一图像和第二图像,从而生成合成图像。显示器直接连接到合成器并显示合成图像。
附图说明
图1图示了本公开的问题。
图2图示了根据本公开实施例的显示终端设备的配置示例。
图3图示了根据本公开实施例的显示终端设备中的处理过程的一个示例。
图4图示了根据本公开的实施例的图像合成处理。
图5图示了根据本公开的实施例的图像合成处理。
图6图示了本公开的技术的效果。
具体实施方式
下面将参照附图描述本公开的实施例。注意,在以下实施例中,相同的附图标记被附加到相同的部分或相同的处理以省略重复描述。
此外,将按照以下项目顺序描述本公开的技术。
<显示终端设备的配置>
<显示终端设备中的处理过程>
<图像合成处理>
<公开的技术的效果>
<显示终端设备的配置>
图2图示了根据本公开实施例的显示终端设备的配置示例。在图2中,显示终端设备1包括相机模块10、中央处理单元(CPU)20、显示器30、传感器模块40和存储器50。相机模块10包括成像单元11、存储器12、以及合成器13。显示终端设备1由显示终端设备1的用户佩戴以覆盖用户的眼睛。显示终端设备1的示例包括视频透视型HMD以及诸如智能手机和平板终端之类的智能设备。当显示终端设备1为智能设备时,该智能设备由该智能设备的用户佩戴,该智能设备带有用于该智能设备的头戴式仪器,以覆盖该用户的眼睛。
相机模块10包括线路L1、L2、L3和L4。成像单元11经由线路L1连接到CPU 20,同时经由线路L4连接到合成器13。存储器12经由线路L3连接到CPU 20。合成器13经由线路L2连接到显示器30。
成像单元11包括透镜单元和图像传感器。成像单元11捕获佩戴显示终端设备1的用户前面的风景的图像,使得用户的眼睛由显示终端设备1作为背景图像覆盖。成像单元11将所捕获的背景图像输出到合成器13和CPU 20。成像单元11以预定帧率捕获背景图像。成像单元11一方面经由线路L4将在同一时间点所捕获的相同背景图像输出到合成器13,另一方面经由线路L1将该相同背景图像输出到CPU20。也就是说,相机模块10包括线路L1,由相机模块10捕获的背景图像通过该线路L1从相机模块10输出到CPU 20。
传感器模块40检测显示终端设备1的加速度和角速度,以检测显示终端设备1的位置和姿势的变化,并将指示所检测的加速度和角速度的信息(在下文中,可以称为“传感器信息”)输出到CPU 20。传感器模块40的示例包括惯性测量单元(IMU)。
CPU 20以预定周期基于背景图像和传感器信息执行同步定位与建图(SLAM)。也就是说,CPU 20基于背景图像和传感器信息在SLAM中生成环境地图和姿态图。CPU 20利用环境地图识别显示终端设备1所存在的真实空间。CPU 20利用姿态图识别显示终端设备1在所识别的真实空间中的位置和姿势。此外,CPU 20基于生成的环境地图和姿态图确定虚拟对象在真实空间中的布置位置,即,虚拟对象图像在背景图像中的布置位置(以下,可称为“虚拟对象布置位置”)。CPU 20与虚拟对象图像相关联地向存储器12输出指示所确定的虚拟对象布置位置的信息(在下文中,可以称为“布置位置信息”)。CPU20经由线路L3将虚拟对象图像和布置位置信息输出到存储器12。
存储器50存储由CPU 20执行的应用和由CPU 20使用的数据。例如,存储器50存储关于虚拟对象的数据(例如,用于再现虚拟对象的形状和颜色的数据)。CPU 20通过使用存储在存储器50中的关于虚拟对象的数据来生成虚拟对象图像。
存储器12将从CPU 20以预定周期输入的虚拟对象图像和布置位置信息存储预定时间。
合成器13基于存储在存储器12中的虚拟对象图像以及多条布置位置信息中的最新的虚拟对象图像和布置位置信息,通过将虚拟对象图像叠加在背景图像上来生成合成图像。也就是说,合成器13通过将最新的虚拟对象图像叠加在从成像单元11输入的最新背景图像上由布置位置信息指示的位置处来生成合成图像。合成器13经由线路L2将生成的合成图像输出到显示器30。也就是说,相机模块10包括线路L2,由相机模块10生成的合成图像通过该线路L2从相机模块10输出到显示器30。
合成器13被实现为硬件,并且通过例如由有线逻辑创建的电子电路来实现。即,合成器13通过硬件处理,通过组合背景图像和虚拟对象图像来生成合成图像。此外,合成器13和显示器30经由线路L2通过硬件直接相互连接。
显示器30显示从合成器13输入的合成图像。这使得通过将虚拟对象图像叠加在背景图像上获得的合成图像被显示在佩戴显示终端设备1的用户的眼前。
这里,相机模块10和显示器30两者符合相同的接口标准,例如,移动工业处理器接口(MIPI)标准。当相机模块10和显示器30两者符合MIPI标准时,由成像单元11捕获的背景图像通过根据MIPI标准的相机串行接口(CSI)被串行传输到合成器13。由合成器13生成的合成图像通过根据MIPI标准的显示器串行接口(DSI)被串行传输到显示器30。
<显示终端设备中的处理过程>
图3图示了根据本公开实施例的显示终端设备中的处理过程的一个示例。
图3中的相机模块驱动器、传感器模块驱动器、SLAM应用和AR应用是存储在存储器50中并由CPU 20执行的软件。相比之下,相机模块10、传感器模块40和显示器30是硬件。图3中的相机模块驱动器是相机模块10的驱动器。图3中的传感器模块驱动器是传感器模块40的驱动器。
在图3中,在步骤S101中,相机模块10将背景图像输出到CPU20。在步骤S103中,输入到CPU 20的背景图像经由相机模块驱动器被传递给SLAM应用。
此外,与步骤S101中的处理并行地,在步骤S105中传感器模块40将传感器信息输出到CPU 20。在步骤S107中,输入到CPU 20的传感器信息经由传感器模块驱动器被传递给SLAM应用。
然后,在步骤S109中,SLAM应用基于背景图像和传感器信息执行SLAM,以在SLAM中生成环境地图和姿态图。
然后,在步骤S111中,SLAM应用将在步骤S109中生成的环境地图和姿态图传递给AR应用。
然后,在步骤S113中,AR应用基于环境地图和姿态图确定虚拟对象布置位置。
然后,在步骤S115中,AR应用将虚拟对象图像和布置位置信息输出到相机模块10。将输入到相机模块10的虚拟对象图像和布置位置信息相互关联,并且存储在存储器12中。
在步骤S117中,相机模块10基于存储在存储器12中的虚拟对象图像以及多条布置位置信息中的最新的虚拟对象图像和布置位置信息,通过将虚拟对象图像叠加在背景图像上来生成合成图像。
然后,在步骤S119中,相机模块10将在步骤S117中生成的合成图像输出到显示器30。
然后,在步骤S121中,显示器30显示在步骤S119中输入的合成图像。
<图像合成处理>
图4和图5示出了根据本公开实施例的图像合成处理。
如图4所示,合成器13通过针对在每帧的背景图像BI的水平方向(行方向)上的每一行将虚拟对象图像VI叠加在背景图像BI上来生成合成图像CI。
例如,成像单元11、合成器13和显示器30如图5所示基于垂直同步信号vsync和水平同步信号hsync操作。在图5中,“vsync+1”指示在垂直同步信号vsync0的后一个信号输入的垂直同步信号,并且“vsync-1”指示在垂直同步信号vsync0的前一个信号输入的垂直同步信号。此外,图5作为一个示例示出了输入五个水平同步信号hsync同时输入一个垂直同步信号vsync的情况。
在图5中,成像单元11根据水平同步信号hsync将针对背景图像BI的每一行的YUV数据(一行YUV)输出到合成器13。
合成器13将从成像单元11输入的YUV数据转换成RGB数据。此外,合成器13针对每一行根据水平同步信号hsync和布置位置信息,将虚拟对象图像VI的RGB数据(VI RGB)叠加在背景图像BI的RGB数据上。从而,在虚拟对象图像VI存在的行中,合成图像的RGB数据(合成RGB)从合成器13输出到显示器30并显示。在虚拟对象图像VI不存在(无图像)的行中,背景图像BI的RGB数据(一行RGB)从合成器13原样输出到显示器30并显示。
上面已经描述了本公开的技术的实施例。
注意,图2图示了显示终端设备1的配置。在该配置中,相机模块10包括存储器12和合成器13。然而,显示终端设备1也可以采用其中存储器12和合成器13之一或两者设置在相机模块10外部的配置。
<公开的技术的效果>
如上所述,根据本公开的显示终端设备(根据实施例的显示终端设备1)包括CPU(根据实施例的CPU 20)、成像单元(根据实施例的成像单元11)、合成器(根据实施例的合成器13)和显示器(根据实施例的显示器30)。CPU通过软件处理确定虚拟对象在真实空间中的布置位置(根据实施例的虚拟对象布置位置),并输出作为虚拟对象的图像的第一图像(根据实施例的虚拟对象图像)以及指示布置位置的信息(根据实施例的布置位置信息)。成像单元捕获第二图像(根据实施例的背景图像),其是真实空间的图像。合成器通过基于布置位置通过硬件处理组合第一图像和第二图像来生成合成图像。显示器直接连接到合成器,并显示合成图像。
例如,包括成像单元和合成器的相机模块包括第一线路(根据实施例的线路L1)和第二线路(根据实施例的线路L2)。第一图像通过第一线路从相机模块输出到CPU。合成图像通过第二线路从相机模块输出到显示器。
此外,例如,合成器针对第二图像的水平方向上的每一行组合第一图像和第二图像。
此外,例如,相机模块和显示器两者符合MIPI标准。
此外,例如,CPU通过基于第二图像执行SLAM来生成环境地图和姿态图,并且基于环境地图和姿态图来确定布置位置。
根据上述配置,由成像单元捕获的背景图像被输出到被直接连接到合成器的显示器,而不经过由CPU执行的软件处理,使得背景图像被成像单元捕获后立即被显示在显示器上。因此,可以减少在已经捕获背景图像的时间点与显示包括背景图像的合成图像的时间点之间发生的延迟。因此,当佩戴根据本公开的显示终端设备的用户的面部朝向改变时,显示器上的背景图像可以被更新以跟随用户面部朝向的改变。从而,例如,如图6所示,当佩戴根据本公开的显示终端设备的用户的面部朝向从朝向D1改变为朝向D2时,在用户的面部朝向达到朝向D2时所捕获的背景图像BI在朝向D2时被显示在显示器上。因此,在用户的面部朝向到达朝向D2的时间点,在显示器上显示的背景图像BI与用户面前的实际风景FV之间的差异减小到用户难以识别该差异的程度。从而,根据上述配置,可以减少佩戴显示终端设备的用户的违和感。
注意,说明书中阐述的效果仅仅是示例而非限制。可能会表现出其他效果。
此外,本公开的技术还可以采用如下配置。
(1)一种显示终端设备,包括:
CPU,通过软件处理确定虚拟对象在真实空间中的布置位置,并输出第一图像和指示所述布置位置的信息,所述第一图像是虚拟对象的图像;
捕获第二图像的成像单元,所述第二图像是真实空间的图像;
合成器,基于所述布置位置通过硬件处理来组合第一图像和第二图像,从而生成合成图像;和
直接连接到合成器并显示所述合成图像的显示器。
(2)根据(1)所述的显示终端设备,还包括
包括所述成像单元和所述合成器的相机模块,
其中,相机模块包括:第一线路,第一图像通过所述第一线路从相机模块输出到CPU;和第二线路,合成图像通过所述第二线路从相机模块输出到显示器。
(3)根据(1)或(2)所述的显示终端设备,
其中,合成器针对第二图像的水平方向上的每一行组合第一图像和第二图像。
(4)根据(2)所述的显示终端设备,
其中,相机模块和显示器两者符合MIPI标准。
(5)根据(1)至(4)中任一项所述的显示终端设备,
其中,CPU通过基于第二图像执行SLAM来生成环境地图和姿态图,并基于环境地图和姿态图确定所述布置位置。
附图标记列表
1显示终端设备
10相机模块
11成像单元
13合成器
20CPU
30显示器
40传感器模块

Claims (5)

1.一种显示终端设备,包括:
CPU,通过软件处理确定虚拟对象在真实空间中的布置位置,并输出第一图像和指示所述布置位置的信息,所述第一图像是虚拟对象的图像;
捕获第二图像的成像单元,所述第二图像是真实空间的图像;
合成器,基于所述布置位置通过硬件处理来组合第一图像和第二图像,从而生成合成图像;和
直接连接到合成器并显示所述合成图像的显示器。
2.根据权利要求1所述的显示终端设备,还包括
包括所述成像单元和所述合成器的相机模块,
其中,相机模块包括:第一线路,第一图像通过所述第一线路从相机模块输出到CPU;和第二线路,合成图像通过所述第二线路从相机模块输出到显示器。
3.根据权利要求1所述的显示终端设备,
其中,合成器针对第二图像的水平方向上的每一行组合第一图像和第二图像。
4.根据权利要求2所述的显示终端设备,
其中,相机模块和显示器两者符合MIPI标准。
5.根据权利要求1所述的显示终端设备,
其中,CPU通过基于第二图像执行SLAM来生成环境地图和姿态图,并基于环境地图和姿态图确定所述布置位置。
CN201980102418.4A 2019-11-28 2019-11-28 显示终端设备 Pending CN114731383A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/046514 WO2021106136A1 (ja) 2019-11-28 2019-11-28 表示端末装置

Publications (1)

Publication Number Publication Date
CN114731383A true CN114731383A (zh) 2022-07-08

Family

ID=76130407

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980102418.4A Pending CN114731383A (zh) 2019-11-28 2019-11-28 显示终端设备

Country Status (4)

Country Link
US (1) US20220414944A1 (zh)
JP (1) JPWO2021106136A1 (zh)
CN (1) CN114731383A (zh)
WO (1) WO2021106136A1 (zh)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240395B2 (ja) * 2004-10-01 2009-03-18 シャープ株式会社 画像合成装置、電子機器、画像合成方法、制御プログラムおよび可読記録媒体
US8941592B2 (en) * 2010-09-24 2015-01-27 Intel Corporation Techniques to control display activity
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6384856B2 (ja) * 2014-07-10 2018-09-05 Kddi株式会社 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法
US10484697B2 (en) * 2014-09-09 2019-11-19 Qualcomm Incorporated Simultaneous localization and mapping for video coding
JP6669959B2 (ja) * 2015-11-20 2020-03-18 富士通クライアントコンピューティング株式会社 画像処理装置、撮影装置、画像処理方法、画像処理プログラム
KR101785027B1 (ko) * 2016-01-14 2017-11-06 주식회사 라온텍 화면 왜곡 보정이 가능한 디스플레이 장치 및 이를 이용한 화면 왜곡 보정 방법
JP6757184B2 (ja) * 2016-03-24 2020-09-16 キヤノン株式会社 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP2018025942A (ja) * 2016-08-09 2018-02-15 キヤノン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US11488352B1 (en) * 2019-02-21 2022-11-01 Apple Inc. Modeling a geographical space for a computer-generated reality experience
US11788861B2 (en) * 2019-08-31 2023-10-17 Nvidia Corporation Map creation and localization for autonomous driving applications

Also Published As

Publication number Publication date
US20220414944A1 (en) 2022-12-29
WO2021106136A1 (ja) 2021-06-03
JPWO2021106136A1 (zh) 2021-06-03

Similar Documents

Publication Publication Date Title
CN110908503B (zh) 跟踪设备的位置的方法
EP3552081B1 (en) Display synchronized image warping
KR102298378B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
US8233011B2 (en) Head mounted display and control method therefor
CN111602082B (zh) 用于包括传感器集成电路的头戴式显示器的位置跟踪系统
US20170098330A1 (en) Method for controlling head mounted display, and program for controlling head mounted display
US10277814B2 (en) Display control method and system for executing the display control method
US11003408B2 (en) Image generating apparatus and image generating method
CN111095364A (zh) 信息处理装置、信息处理方法和程序
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
US20230156176A1 (en) Head mounted display apparatus
EP3038061A1 (en) Apparatus and method to display augmented reality data
JP2018087849A (ja) 画像処理装置、画像処理方法およびプログラム
EP2825933B1 (en) Electronic device for displaying content of an obscured area of a view
US20220004250A1 (en) Information processing apparatus, information processing method, and program
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
CN114731383A (zh) 显示终端设备
WO2019073925A1 (ja) 画像生成装置および画像生成方法
US10976817B2 (en) Method and device for eye tracking with content-embedded glints
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180055637A (ko) 전자 장치 및 그의 제어 방법
JP2020136856A (ja) 同期制御装置、同期制御方法、及びプログラム
US20240119643A1 (en) Image processing device, image processing method, and computer-readable storage medium
CN110709920B (zh) 图像处理设备及其控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination