CN113132714A - 电路装置、电子设备和移动体 - Google Patents

电路装置、电子设备和移动体 Download PDF

Info

Publication number
CN113132714A
CN113132714A CN202011594605.XA CN202011594605A CN113132714A CN 113132714 A CN113132714 A CN 113132714A CN 202011594605 A CN202011594605 A CN 202011594605A CN 113132714 A CN113132714 A CN 113132714A
Authority
CN
China
Prior art keywords
parameter
display
delay compensation
processing
warping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011594605.XA
Other languages
English (en)
Other versions
CN113132714B (zh
Inventor
W·曼弗雷德
谷川洋右
K·A·安纳德
河本哲夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020104224A external-priority patent/JP2021111317A/ja
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN113132714A publication Critical patent/CN113132714A/zh
Application granted granted Critical
Publication of CN113132714B publication Critical patent/CN113132714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供电路装置、电子设备和移动体,能够减小在平视显示器中由延迟引起的实际对象和虚拟对象的位置偏离。电路装置(160)包括接口(161)、参数运算部(140)和扭曲处理部(130)。渲染图像和追踪信息被输入到接口(161)。参数运算部(140)根据追踪信息运算用于对包括渲染图像的渲染处理延迟在内的延迟进行补偿的延迟补偿参数。扭曲处理部(130)基于延迟补偿参数进行对显示区域中的虚拟对象的位置进行补偿的延迟补偿处理。

Description

电路装置、电子设备和移动体
技术领域
本发明涉及电路装置、电子设备和移动体等。
背景技术
已知通过在透明屏幕等上显示图像,在用户的视野中重叠显示信息的平视显示器(headup display)。通过组合这样的平视显示器和AR技术,可以在平视显示器上显示虚拟对象,使得虚拟对象跟随前方车辆或道路等实际对象。AR是Augmented Reality(增强现实)的缩写。
在专利文献1所公开的技术中,通过图像处理来校正低频带的姿势变化,通过投射光学单元来校正高频带的姿势变化。通过用投射光学单元校正高频带的姿势变化,在产生车辆的姿势变化的情况下,修正投射图像的位置,使得虚像相对于实像重叠在正确的位置。
专利文献1:日本特开2019-98756号公报
在使用AR技术的平视显示器中,获取传感器输出,使用传感器输出渲染(rendering)虚拟对象,对渲染图像进行扭曲(warp)处理,并且在平视显示器上显示扭曲处理之后的图像。在这样的显示系统中,由于从用于渲染的传感器输出的采样时刻开始到显示在平视显示器上为止存在时间,所以在该期间产生的车辆等的运动没有反映在虚拟对象的显示位置上。因此,在渲染的虚拟对象和显示时的实际对象之间出现位置偏离,存在希望尽可能地减小由于这样的延迟导致的位置偏离的课题。
发明内容
本公开的一个方式提供一种电路装置,其执行平视显示器的显示控制,所述平视显示器在显示区域中显示与实际空间中的实际对象相对应的虚拟对象,所述电路装置包括:接口,其被输入追踪信息和包括所述虚拟对象的渲染图像,所述追踪信息是搭载有所述平视显示器的移动体的第1追踪信息、所述平视显示器的观看者的第2追踪信息和所述实际对象的第3追踪信息中的至少一个;参数运算部,其根据所述追踪信息运算出延迟补偿参数,所述延迟补偿参数用于补偿包括所述渲染图像的渲染处理延迟在内的延迟;以及扭曲处理部,其进行根据所述显示区域的弯曲对所述渲染图像进行坐标变换的扭曲处理,生成在所述显示区域中显示的显示图像,所述扭曲处理部在所述扭曲处理中进行根据所述延迟补偿参数对所述显示区域中的所述虚拟对象的位置进行补偿的延迟补偿处理。
此外,本公开的另一方式涉及包括上述电路装置的电子设备。
另外,本公开的又一方式涉及包括上述电路装置的移动体。
附图说明
图1是基于HUD的AR显示的例子。
图2是由俯仰位移或垂直位移引起的显示位置偏离的说明图。
图3是说明本实施方式的延迟补偿的图。
图4是现有技术中的显示系统的结构例。
图5是现有技术中的显示系统的处理流程。
图6是本实施方式的电路装置及包括电路装置的显示系统的第1结构例。
图7是追踪处理部的详细处理流程。
图8是第1结构例中的显示系统的处理流程。
图9是本实施方式的电路装置及包括电路装置的显示系统的第2结构例。
图10是第2结构例中的显示系统的处理流程。
图11是本实施方式的扭曲处理的说明图。
图12是表示移动体等的追踪信息与基于该追踪信息的延迟补偿的对应的图。
图13是实现补偿方法的延迟补偿参数的例子。
图14是说明根据追踪信息运算出延迟补偿参数的方法的图。
图15是电子设备的结构例。
图16是移动体的例子。
标号说明
10:前方车辆;11、12:实际对象;20、21:虚拟对象;30:汽车;32:移动体;34:屏幕;35:挡风玻璃;36:投射单元;40:显示区域;50:眼睛;52:观看者;110:追踪处理部;111:视觉惯性测程处理;112:惯性测程处理;113:预测处理;120:渲染图像生成部;130:扭曲处理部;140:参数运算部;145:存储部;150:处理装置;151:接口;160:HUD控制器;161:接口;206:汽车;208:控制装置;270:处理装置;300:电子设备;350:存储装置;360:操作装置;370:通信装置;400:平视显示器;410:显示器;500:传感器;510:渲染用传感器;520:延迟补偿用传感器。
具体实施方式
在下文中,将详细说明本公开的优选实施方式。另外,以下说明的本实施方式并不是对权利要求书所记载的内容进行不当限定,在本实施方式中说明的结构未必全部是必需构成要件。
1.第1结构例
图1是基于HUD的AR显示的例子。HUD是平视显示器的缩写,AR是增强现实的缩写。以下,主要说明在汽车30上搭载HUD的例子,但本实施方式的HUD也可以搭载在飞机、船舶或两轮车等各种移动体上。
图1表示驾驶员通过HUD观看的AR显示。驾驶员通过挡风玻璃观察前方车辆10、前方车辆10行驶的道路以及它们周围的风景。另外,驾驶员看到HUD投射到挡风玻璃的显示区域40内的虚像,该虚像被驾驶员看作为与实际空间重叠的虚拟对象20。显示区域40表示HUD能够投射虚像的范围,在该显示区域40内显示虚拟对象20。图1中的虚拟对象20是AR的显示对象,被显示成其显示位置追随前方车辆10或道路。即,HUD以从驾驶员看到的前方车辆10或道路与虚拟对象20的相对位置关系不变的方式显示虚拟对象20。
HUD的显示系统使用Lidar等传感器追踪前方车辆10等,根据该追踪结果渲染虚拟对象20,对该渲染图像进行扭曲处理后使HUD进行显示。此时,在从传感器采样的定时到将虚拟对象20显示在HUD上的定时之间,存在追踪处理、渲染处理、扭曲处理或者数据通信等引起的迟延。由这样的处理或通信等产生的迟延称为延迟(latency)。
延迟成为虚拟对象20与前方车辆10等的位置偏离的原因。即,由于显示系统渲染虚拟对象20时的前方车辆10等的位置与虚拟对象20实际显示在HUD上时的前方车辆10等的位置发生偏离,所以虚拟对象20与前方车辆10等偏离地显示。例如,在渲染处理中,即使预测了未来的显示定时的前方车辆10等的位置,也由于从该预测时刻到显示为止存在时间,而预测的前方车辆10等的位置和虚拟对象20实际显示在HUD上时的前方车辆10等的位置可能偏离。
在图2中,作为一例,表示由俯仰位移或垂直位移引起的显示位置偏离的说明图。xyz是固定于汽车30的坐标系。z方向是汽车的行进方向,x方向和y方向与z方向正交且相互正交。当y方向与垂直方向一致时,x方向为水平方向,y方向为垂直方向或上下方向。在成为y方向与铅垂方向不一致的汽车的姿势时,x方向和y方向与水平垂直不一致,但以下为了方便将x方向也称为水平方向,将y方向也称为垂直方向或上下方向。将图中所示的箭头方向作为正方向,在要明示方向的正负的情况下记载为+x方向、-x方向等。
图2的第1段的图示出虚拟对象21和实际对象11之间没有位置偏离的状态。实际对象11是存在于实际空间中并且作为AR显示的追踪目标的对象。例如,图1的前方车辆10等是实际对象。HUD的投射单元36将虚像投射到挡风玻璃35上,该虚像作为虚拟对象21被驾驶员的眼睛50看到。
图2的第2段的图示出了当挡风玻璃35和投射单元36在+y方向上偏移WSM时的虚拟对象21和实际对象11之间的位置偏离。垂直偏移WSM是由于汽车30的俯仰旋转或垂直偏移而产生的。俯仰旋转是以与x方向平行的轴为中心的旋转,垂直偏移是y方向上的平行移动。当HUD的显示系统对虚拟对象21进行渲染时,假设了第1段的图的状态,但由于到在HUD上显示为止存在时间,所以如果在该时间内产生垂直偏移WSM,则该垂直偏移WSM不反映在渲染图像中。因此,由于挡风玻璃35等的垂直偏移WSM,虚拟对象21的显示位置向+y方向偏移,虚拟对象21看起来相对于实际对象11向+y方向偏离。例如,在汽车30由于道路的凹凸而重复进行俯仰运动的情况下,虚拟对象21看起来相对于实际对象11上下摇动而偏离。
图2的第3段的图示出了当驾驶员的眼睛50向+y方向偏移DEM时的虚拟对象21和实际对象11之间的位置偏离。尽管挡风玻璃35不移动,但是眼睛50相对于挡风玻璃35向+y方向偏移,因此虚拟对象21的显示位置向-y方向偏移。因此,虚拟对象21看起来相对于实际对象11向-y方向偏离。
图2的第4段的图示出当实际对象11向-y方向偏移RJM时的虚拟对象21和实际对象11之间的位置偏离。由于挡风玻璃35和眼睛50不移动,所以虚拟对象21的显示位置不偏移,但是由于实际对象11向-y方向偏移,所以虚拟对象21看起来相对于实际对象11向+y方向偏离。
图3是说明本实施方式的延迟补偿的图。图3示出了驾驶员看到的实际对象11和虚拟对象21。在图3的左图中,从驾驶员的角度观察是实际对象11和虚拟对象21的显示位置相互一致的状态。如图3的中图所示,当驾驶员将头向左上移动的情况下,实际对象11向左上移动MV。由于虚拟对象21的显示位置不变,因此实际对象11和虚拟对象21偏离MV。如图3中的右图所示,在本实施例中,通过补偿由于延迟导致的偏移量MV,使实际对象11和虚拟对象21的显示位置一致。通过进行这种延迟补偿,当驾驶员将头部向左上移动时,从左图转移到右图的状态,可以避免中图那样的位置偏离状态。在本实施方式中,通过在尽可能接近显示定时的扭曲处理中进行延迟补偿,来尽可能减小由延迟引起的位置偏离。
为了考虑在HUD的显示系统中存在怎样的延迟,说明现有技术中的典型的显示系统和在该显示系统中发生的延迟。
图4是现有技术中的显示系统90的结构例。显示系统90包括传感器65、处理装置60、HUD控制器70和HUD 80。
传感器65是检测汽车、驾驶员或实际对象的位置、姿势或运动的传感器。
处理装置270包括传感器接口61、追踪处理部62和渲染图像生成部63。传感器接口61是接收传感器65的输出信号的接口电路。追踪处理部62包括CPU,并且基于传感器65的输出信号追踪汽车、驾驶员或实际对象的位置、姿势或运动。渲染图像生成部63包括GPU,并且基于汽车、驾驶员或实际对象的追踪信息渲染虚拟对象,使得虚拟对象跟随实际对象。HUD控制器70包括对渲染图像进行扭曲处理的扭曲处理部71。HUD 80包括显示扭曲处理后的图像的显示器81。显示器81是液晶显示装置等显示装置。当显示在显示器81上的图像被光学系统投射到挡风玻璃上时,渲染图像的虚拟对象被显示。
图5表示显示系统90的处理流程。这里,示出使用IMU和照相机作为传感器65的例子。IMU以与照相机的帧速率相比足够快的采样速率进行感测。tck、tck+1、tck+2表示照相机的曝光定时。即,由照相机获得的图像表示在定时tck等的实际对象的位置。图像信号处理是在照相机的曝光结束后进行的处理,包含读出来自图像传感器的信号和显影处理等。
追踪处理部62通过视觉惯性测程从图像信号处理后的图像追踪实际对象的位置。在这个阶段,检测到照相机的曝光定时tck的实际对象的位置。追踪处理部62根据视觉惯性测程结束后的定时tod的IMU的输出信号和视觉惯性测程的结果,利用惯性测程追踪实际对象的位置。通过该处理,补偿照相机的曝光定时tck到惯性测程的定时tod的延迟,检测出定时tod的实际对象的位置。
渲染图像生成部63在与通过惯性测程检测到的实际对象相对应的位置处渲染虚拟对象,并且将该渲染图像输出到扭曲处理部71。此时,产生从构成渲染图像生成部63的GPU向HUD控制器70的数据通信时间。扭曲处理部71进行对渲染图像的扭曲处理,扭曲处理后的图像被显示在HUD 80上。第1行~最终行是显示器81的水平扫描线,逐行扫描。因此,在1帧的图像显示中,需要对第1行~最终行进行扫描的时间,但在此将进行第1行的显示的定时作为代表而设为显示定时tdp。
显示在HUD 80上的虚拟对象对应于定时tod的实际对象的位置。因此,存在从定时tod到显示定时tdp为止的延迟,实际对象和虚拟对象之间可能由于该期间中的汽车、驾驶员或实际对象的运动而发生偏离。
如上所述,存在如下问题:由于显示使用在显示定时tdp之前检测到的追踪信息渲染的虚拟对象,因从检测到追踪信息的定时到显示定时tdp为止的延迟而产生显示位置偏离。
在上述专利文献1中,使姿势数据的测量时间比图像数据等的通信时间短,投射光学单元使用该姿势数据进行高频带下的校正,由此抑制因通信时间引起的实像和投射图像的位置偏离。但是,由于需要用于控制投射光学单元的数据处理时间以及构成部件的动作时间,所以由该时间产生的位置偏离依然存在。
图6表示本实施方式中的电路装置160及包括电路装置160的显示系统的第1结构例。图6所示的显示系统包括传感器500、处理装置150、电路装置160和HUD400,根据传感器500的输出信号,使HUD 400显示与实际对象对应的虚拟对象。
传感器500是检测移动体、观看者或实际对象的位置、姿势或运动的传感器。具体地,传感器500包括获取实际对象的二维信息或三维信息的第1传感器、检测移动体的运动的第2传感器和检测观看者的视点或视线方向的第3传感器中的至少一个。传感器500设置于移动体,例如包括Lidar、IMU、照相机、眼睛追踪传感器或头部追踪传感器等。在该例中,Lidar或照相机对应于第1传感器,IMU对应于第2传感器,眼睛追踪传感器或头部追踪传感器对应于第3传感器。Lidar是Light Detection and Ranging(光检测和测距)的缩写,是用于获取诸如z-map之类的三维信息的传感器。IMU是Inertial Measurement Unit(惯性测量单元)的简称,是检测一个轴或多个轴的运动的传感器。IMU例如由加速度传感器、陀螺仪传感器或它们的组合构成。照相机是拍摄作为二维信息的图像的传感器。眼睛追踪传感器是检测观看者的眼睛的位置、视线方向或这两者的传感器。头部追踪传感器是检测观看者的头部的位置、姿势或这两者的传感器。
移动体是载有HUD 400、观看者以及传感器500并在实际空间内移动的物体,例如是汽车、二轮车、飞机或者船舶等。观看者是观看由HUD 400投射的虚像的用户,是移动体的操纵者或搭乘者。实际对象是存在于实际空间中的物体。实际对象只要是在移动体、观看者或实际对象的位置或姿势发生变动时,从观看者看到的HUD显示区域内的实际对象的位置或姿势发生变动的物体即可。
传感器500包括:渲染用传感器510,其用于求出渲染用的追踪信息;以及延迟补偿用传感器520,其用于求出延迟补偿参数。渲染用传感器510例如包括Lidar、IMU和照相机。延迟补偿用传感器520例如包括IMU和头部追踪传感器。另外,渲染用传感器510和延迟补偿用传感器520所包含的传感器的种类不限于上述情况,只要是检测移动体、观看者或实际对象的位置、姿势或运动的传感器即可。延迟补偿用传感器520和渲染用传感器510是不同的传感器,即使在包含同种传感器的情况下,该同种传感器也分别设置在延迟补偿用传感器520和渲染用传感器510中。
处理装置150例如由SoC构成,包括接口151、追踪处理部110和渲染图像生成部120。SoC是System on Chip(片上系统)的简称。
接口151是用于将渲染用传感器510的输出信号输入到处理装置150的接口。接口151例如是接收渲染用传感器510的输出信号的接收电路。或者,接口151也可以是被输入渲染用传感器510的输出信号的端子。在该情况下,输入到端子的渲染用传感器510的输出信号被输入到构成追踪处理部110的处理器,该处理器对渲染用传感器510的输出信号进行接收处理。
追踪处理部110基于传感器500的输出信号追踪移动体、观看者或实际对象的位置、姿势或运动,并且输出其结果作为追踪信息。例如,追踪处理部110基于来自Lidar的二维测距信息或来自照相机的二维图像来追踪实际对象。另外,追踪处理部110根据来自IMU的加速度或角速度的信息,追踪汽车。另外,追踪处理部110根据来自眼睛追踪传感器的眼睛的位置或视线方向的信息,追踪驾驶员的眼睛。
追踪信息只要是表示移动体、观看者或实际对象的位置、姿势或运动的信息即可,可以是任何形式的信息。例如,追踪信息是表示实际空间中的位置的坐标、表示姿势的角度、表示平行移动的矢量或者表示旋转的角速度等。或者,追踪信息也可以是将上述实际空间中的坐标等换算成图像上的坐标、角度、矢量或角速度等而得的信息。追踪信息包括移动体的第1追踪信息、观看者的第2追踪信息和实际对象的第3追踪信息。但是,追踪信息只要包含第1~第3追踪信息中的至少一个即可,例如也可以省略观看者的第2追踪信息。
渲染图像生成部120基于移动体、观看者或者实际对象的追踪信息渲染虚拟对象,并且输出包括虚拟对象的渲染图像。具体地,渲染图像产生部120求出在HUD 400的显示区域中能够看到实际对象的位置,在与该实际对象的位置相对应的位置处渲染虚拟对象。渲染图像生成部120将由追踪处理部110取得的追踪信息与渲染图像一起输出到电路装置160。
追踪处理部110和渲染图像生成部120由CPU或GPU等处理器构成。CPU是CentralProcessing Unit(中央处理单元)的缩写。GPU是Graphical Processing Unit(图形处理单元)的缩写。追踪处理部110和渲染图像生成部120可以由一个处理器实现,也可以分别由单独的处理器实现。
电路装置160是所谓的HUD控制器,进行在HUD 400上显示的图像的畸变校正以及显示定时控制等。电路装置160例如由集成电路装置构成,包括接口161、扭曲处理部130、参数运算部140和存储部145。
接口161是用于将渲染图像和追踪信息输入到电路装置160的接口。具体地说,从处理装置150发送的渲染图像和追踪信息被输入到接口161。另外,延迟补偿用传感器520的输出信号作为追踪信息输入到接口161。接口161是接收例如渲染图像、追踪信息和延迟补偿用传感器520的输出信号的接收电路。或者,接口161也可以是接收渲染图像和追踪信息的接收电路以及被输入延迟补偿用传感器520的输出信号的端子。在该情况下,输入到端子的延迟补偿用传感器520的输出信号被输入到参数运算部140,参数运算部140对延迟补偿用传感器520的输出信号进行接收处理。
存储部145是RAM或非易失性存储器等半导体存储器,存储延迟补偿前的扭曲参数。RAM是Random Access Memory(随机存取存储器)的缩写。如上所述,扭曲参数是矩阵或表。扭曲参数可以是前向映射(forward map)参数或逆向映射(inverse map)参数。前向映射参数是将输入图像的各像素和与该各像素对应的移动目的地坐标对应起来的参数,或者是将输入图像的各像素和向与该各像素对应的移动目的地坐标移动的相对移动量对应起来的参数。逆向映射参数是使输出图像的各像素和与该各像素对应的参照源坐标对应起来的参数,或者使输出图像的各像素和相对于与该各像素对应的参照源坐标的相对移动量对应起来的参数。
参数运算部140根据从处理装置150与渲染图像一起发送的追踪信息和延迟补偿用传感器520的输出信号,求出延迟补偿参数。参数运算部140根据延迟补偿参数对从存储部145读出的扭曲参数进行校正,并输出校正后扭曲参数。这里使用的追踪信息是在用于渲染处理的追踪信息之后采样的信息。从使延迟为最小限度的观点出发,希望使用紧跟在参数运算之前或在尽量接近参数运算的定时取得的追踪信息。
延迟补偿参数是对渲染图像中的虚拟对象的位置和显示定时的虚拟对象的位置之差进行补偿的参数。延迟补偿参数表示图像数据上的偏移量或旋转角度。更具体地说,延迟补偿参数表示扭曲处理前的没有变形的图像的偏移量或旋转角度。
扭曲参数是扭曲处理中的坐标变换的参数,是使扭曲处理中的输入图像的坐标和输出图像的坐标对应起来的参数。扭曲参数例如是表示输入图像与输出图像之间的坐标变换的矩阵或表。
扭曲处理部130对渲染图像进行扭曲处理,使得渲染图像在投射到弯曲的屏幕上时成为没有变形的图像。具体而言,扭曲处理部130通过使用参数运算部140输出的校正后扭曲参数对渲染图像进行坐标变换,生成显示图像。该坐标变换是消除由屏幕的弯曲引起的图像畸变的坐标变换。显示图像是显示在HUD 400的显示面板上的图像,通过投射单元将显示在该显示面板上的显示图像投射到屏幕上,从而显示为没有畸变的虚像。
扭曲处理部130和参数运算部140由逻辑电路构成,例如由自动配置布线的门阵列或自动布线的标准单元阵列等构成。
HUD 400包括显示器410,将显示图像显示在显示器410上。显示器410是液晶显示装置等显示装置。HUD 400包含用于将虚像投射到屏幕上的未图示的光学系统,该光学系统通过将显示于显示面板的显示图像作为虚像投射到屏幕上,从而将虚拟对象重叠显示在实际空间。屏幕是移动体的窗玻璃等。或者,HUD 400也可以包含专用的屏幕,在该屏幕上投射虚像。
图7表示追踪处理部110的详细处理流程,图8表示第1结构例中的显示系统的处理流程。注意,图7所示的追踪处理是示例,追踪实际对象等的方法不限于此。另外,用于追踪处理的传感器也可以根据采用的方法来选择。
图8所示的传感器的基本动作与图5中说明的相同。但是,在图8中,IMU 1和照相机是渲染用传感器510,IMU 2是延迟补偿用传感器520。
追踪处理部110根据在定时tck由照相机拍摄的图像IMG(tck)和在定时tck由IMU1采样的移动体的运动信息MTI(tck),进行视觉惯性测程处理111,估计在定时tck的实际对象和移动体的位置及姿势Pr(tck)。
追踪处理部110根据位置及姿势Pr(tck)和在定时tnow1由IMU 1采样的移动体的动作信息MTI(tnow1),进行惯性测程处理112,估计定时tnow1的实际对象和移动体的位置及姿势Pc(tck,tnow1)。“tnow1”处于“tck”之后并且在惯性测程处理112开始之前。更优选地,tnow1处于视觉惯性测程处理111结束之后且惯性测程处理112开始之前。
追踪处理部110基于位置和姿势Pc(tck,tnow1)执行预测处理113,预测tnow1之后的定时tfuture的实际对象和运动体的位置和姿势Pp(tck,tnow1,tfuture)。在图8中,示出设tfuture=tdp、预测位置和姿势Pp(tck,tnow1,tdp)的例子。tdp是HUD的显示定时。例如,预测处理113基于按时间顺序获得的位置和姿势Pc的微分值来预测未来位置和姿势Pp。
渲染图像生成部120基于位置和姿势Pp(tck,tnow1,tdp)渲染虚拟对象,并且输出渲染图像。如果将该渲染图像直接显示于HUD 400,则与位置以及姿势Pp所示的实际对象的位置对应地显示虚拟对象。
这里,预测的位置和姿势Pp(tck,tnow1,tdp)是使用tck、tnow1的信息预测出的,不是基于tdp的实际的传感器输出的位置。即,当在tnow1和tdp之间产生的实际的运动与由预测处理113预测的运动不同时,在虚拟对象和实际对象之间可能产生由延迟引起的位置偏离。即,在图8的例子中成为补偿对象的延迟是基于tnow1和tdp之间的处理时间的延迟。另外,成为补偿对象的延迟不限于此。例如,当省略惯性测程和预测处理并且使用Pr(tck)执行渲染处理时,由tck和tdp之间的处理时间的引起的延迟成为补偿对象。
在本实施方式中,如下那样对上述延迟引起的位置偏离进行补偿。追踪处理部110根据在定时tck+1由照相机拍摄的图像IMG(tck+1)和在定时tck+1由IMU采样的移动体的运动信息MTI(tck+1)进行视觉惯性测程处理111,估计定时tck+1的实际对象和移动体的位置和姿势Pr(tck+1)。tck+1是tck的下一个照相机曝光定时。
渲染图像生成部120将位置和姿势Pp(tck,tnow1,tdp)以及位置和姿势Pr(tck+1)与基于位置和姿势Pp(tck,tnow1,tdp)渲染的渲染图像一起输出到电路装置160。
参数运算部140根据通过接口161输入的位置和姿势Pr(tck+1)和在定时tnow2由IMU 2采样的移动体的运动信息MTI'(tnow2),进行惯性测程处理,估计定时tnow2的实际对象和移动体的位置和姿势Pc'(tck+1,tnow2)。
参数运算部140基于位置和姿势Pc'(tck+1,tnow2)执行预测处理,预测tdp的实际对象和移动体的位置和姿势Pp'(tck+1,tnow2,tdp)。
参数运算部140根据位置和姿势Pp(tck,tnow1,tdp)和位置和姿势Pp'(tck+1,tnow2,tdp)求出延迟补偿参数。具体地,参数运算部140运算出延迟补偿参数,以消除由于位置和姿势Pp(tck,tnow1,tdp)与位置和姿势Pp'(tck+1,tnow2,tdp)之差引起的虚拟对象的位置偏离。参数运算部140使用延迟补偿参数来校正扭曲参数,并输出校正后扭曲参数。
扭曲处理部130使用校正后扭曲参数对渲染图像进行扭曲处理,生成显示图像。扭曲处理部130根据HUD 400的显示面板中的从第1行到最终行的扫描定时,依次进行从第1行到最终行的扭曲处理,将该扭曲处理后的各行的数据按照扫描定时依次输出到HUD 400。在图8中,将第1行的显示定时设为tdp,但tdp也可以是从第1行到显示最终行的帧期间中的任意定时。
根据本实施方式,在扭曲处理中,扭曲处理部130进行基于延迟补偿参数对显示区域中的虚拟对象的位置进行补偿的延迟补偿处理。
通过这种方式,基于延迟补偿参数来对由于tnow1和tdp之间的渲染处理等的延迟而产生的虚拟对象的位置偏离进行补偿。通过在紧接在显示之前执行的扭曲处理中执行延迟补偿,可以使残余的延迟最小化,从而实现虚拟对象对实际对象的跟随性高的AR显示。另外,在本实施方式中,不使用专利文献1那样的光学补偿机构,而是通过图像数据处理进行延迟补偿,因此能够不变更投射单元等的结构地实现延迟补偿。另外,由于在扭曲处理中作为一体地进行延迟补偿,所以能够实现准确的畸变校正和延迟补偿。
此外,在本实施方式中,基于第1定时处的追踪信息而生成的渲染图像和第1定时处的追踪信息被输入到接口161。参数运算部140根据处于第1定时之后且图像的显示定时tdp之前的第2定时处的追踪信息和第1定时处的追踪信息,运算出延迟补偿参数。在图8的例子中,tnow1相当于第1定时,tnow2相当于第2定时。
这样,由于第1定时和显示定时之间的延迟被缩短为第2定时和显示定时之间的延迟,所以可削减由延迟引起的位置偏离。使用图8的例子进行说明,在对扭曲参数进行校正的延迟补偿参数中反映了在tnow1之后的tnow2由IMU 2采样的运动信息。通过利用该延迟补偿参数校正虚拟对象的显示位置,tnow1和tdp之间的延迟被缩短到tnow2和tdp之间的延迟。由于扭曲处理是紧跟在HUD显示之前进行的处理,所以tnow2是接近tdp的定时,能够尽可能减小延迟,减小由延迟引起的虚拟对象的显示位置偏离。
另外,在本实施方式中,参数运算部140根据延迟补偿参数来校正与显示区域的弯曲对应的坐标变换的扭曲参数,从而输出校正后扭曲参数。扭曲处理部130通过使用校正后扭曲参数进行扭曲处理,从而进行延迟补偿处理。
这样,通过使用基于延迟补偿参数的校正后扭曲参数进行扭曲处理,能够在扭曲处理中进行延迟补偿。例如,也可以考虑与扭曲处理分开地进行延迟补偿的图像处理的结构,但处理负荷相应地增加了延迟补偿的图像处理的量,并且由于在延迟补偿后进行扭曲处理,因此会残留扭曲处理的延迟。在本实施方式中,通过使延迟补偿和扭曲处理成为一体,能够抑制处理负荷的增加,并且使延迟为最小限度。
另外,在本实施方式中,追踪信息是表示包含与移动体的行进方向垂直的第1轴位移及第2轴位移中的至少一个的位移的信息。行进方向与z方向对应,第1轴与x方向的轴对应,第2轴与y方向的轴对应。参数运算部140通过校正由上述位移产生的虚拟对象的位置误差而输出校正后扭曲参数。
在延迟补偿中,补偿在短期间内发生的位置或姿势的变化,作为在短期间内发生的位置或姿势的变化,认为移动体或观看者的晃动的影响大。在移动体或观看者晃动的情况下,可认为观看者通过显示区域看到的实际对象发生位移。根据本实施方式,由于校正了因与运动体的行进方向垂直的第1轴位移和第2轴位移而产生的虚拟对象的位置误差,所以可以补偿由于移动体或观看者的晃动而引起的显示位置偏离。
另外,在本实施方式中,与移动体的行进方向垂直的第1轴位移及第2轴位移中的移动体的上下方向的位移是第2轴位移。此时,追踪信息包含表示由移动体的俯仰位移引起的HUD 400或观看者的第2轴位移的信息。参数运算部140通过校正由上述第2轴位移产生的虚拟对象的位置误差而输出校正后扭曲参数。
作为上述的移动体的晃动,设想俯仰位移,移动体的俯仰位移使HUD的屏幕或观看者产生第2轴位移。该HUD的屏幕或观看者的第2轴位移使观看者通过显示区域观看的实际对象产生第2轴方向的偏移位移。根据本实施方式,校正由HUD的屏幕或观看者的第2轴位移产生的虚拟对象的位置误差,所以能够补偿由移动体的俯仰位移引起的显示位置偏离。
另外,在本实施方式中,在扭曲处理中,扭曲处理部130进行根据延迟补偿参数对显示区域中的虚拟对象的旋转和缩放中的至少一个进行补偿的延迟补偿处理。
这样,不仅可以进行偏移位移的延迟补偿,还可以进行旋转或缩放的延迟补偿。缩放是缩小或放大虚拟对象。根据本实施例,补偿了由于延迟而导致的虚拟对象的旋转误差、缩放误差或这两者。因此,可以实现具有更高的跟随性的AR显示。
另外,在本实施方式中,向接口161输入通过基于渲染用传感器510的输出信号的追踪处理而生成的渲染用追踪信息、基于渲染用追踪信息而生成的渲染图像、和作为与渲染用传感器510不同的延迟补偿用传感器520的输出信号的延迟补偿用追踪信息。参数运算部140根据渲染用追踪信息和延迟补偿用追踪信息运算出延迟补偿参数。在图8的示例中,Pp(tck,tnow1,tdp)对应于渲染用追踪信息。另外,参数运算部140根据作为延迟补偿用追踪信息的延迟补偿用传感器520的输出信号求出Pp'(tck+1,tnow2,tdp),根据Pp(tck,tnow1,tdp)和Pp'(tck+1,tnow2,tdp)运算出延迟补偿参数。
这样,由于参数运算部140可以在任意定时取得延迟补偿用传感器520的输出信号,所以可以取得尽可能接近显示定时tdp的定时的延迟补偿用传感器520的输出信号,来运算出延迟补偿参数。
2.第2结构例
图9表示本实施方式中的电路装置160及包括电路装置160的显示系统的第2结构例。另外,对已经说明的构成要素标注相同的附图标记,适当省略对该构成要素的说明。
在图9中,追踪处理部110将追踪信息输出到电路装置160,渲染图像生成部120将渲染图像输出到电路装置160。电路装置160的接口161接收来自渲染图像生成部120的渲染图像和来自追踪处理部110的追踪信息。
图10表示第2结构例中的显示系统的处理流程。另外,图10所示的处理流程是一例,例如追踪方法不限于图10。另外,用于追踪的传感器也可以根据所采用的追踪方法来选择。追踪处理部110预测位置以及姿势Pp(tck,tnow1,tdp)的处理、渲染图像生成部120生成渲染图像的处理、以及追踪处理部110求出位置以及姿势Pr(tck+1)的处理与第1结构例相同。
在第2结构例中,追踪处理部110根据位置和姿势Pr(tck+1)和在定时tnow2由IMU采样的移动体的运动信息MTI(tnow2)进行惯性测程处理112,估计定时tnow2的实际对象和移动体的位置和姿势Pc(tck+1,tnow2)。
追踪处理部110基于位置和姿势Pc(tck+1,tnow2)执行预测处理113,预测tdp的实际对象和运动体的位置和姿势Pp(tck+1,tnow2,tdp)。
参数运算部140根据位置和姿势Pp(tck,tnow1,tdp)和位置和姿势Pp(tck+1,tnow2,tdp)求出延迟补偿参数。具体地,参数运算部140运算出延迟补偿参数,以消除由于位置和姿势Pp(tck,tnow1,tdp)与位置和姿势Pp(tck+1,tnow2,tdp)之差引起的虚拟对象的位置偏离。参数运算部140使用延迟补偿参数来校正扭曲参数,并输出校正后扭曲参数。
扭曲处理部130使用校正后扭曲参数对渲染图像进行扭曲处理,生成显示图像。
3.扭曲处理
以下,以逆向扭曲为例详细说明扭曲处理。但是,扭曲处理既可以是前向扭曲也可以是逆向扭曲,扭曲处理部130既可以是前向扭曲引擎也可以是逆向扭曲引擎。前向扭曲是将对扭曲引擎输入的输入图像的各像素移动到输出图像中的任意位置的变换。前向扭曲引擎是指具有前向扭曲的功能的扭曲引擎。逆向扭曲是指从输入图像中的任意位置的像素求出逆向引擎的输出图像的各像素的变换。逆向扭曲引擎是具有逆向扭曲的功能的扭曲引擎。
图11是本实施方式的扭曲处理的说明图。输入图像是渲染图像。输出图像是显示在HUD的液晶显示面板等上的显示图像。(xsrc,ysrc)表示输入图像中的水平方向的位置和垂直方向的位置。(xdst,ydst)表示输出图像中的水平方向的位置和垂直方向的位置。
如果用g()表示使用了延迟补偿参数的扭曲参数的校正,则延迟补偿图像中的位置如下式(1)所示。
(xlat,ylat)=g(xsrc,ysrc)……(1)
若将基于与屏幕的弯曲对应的扭曲参数的畸变校正表示为f(),则输出图像中的位置如下式(2)所示。
(xdst,ydst)=f(xlat,ylat)……(2)
根据上式(1)(2),输入图像和输出图像之间的坐标变换如下式(3)所示。
(xdst,ydst)=f·g(xsrc,ysrc)……(3)
由于逆向扭曲使用上式(3)的逆变换,因此成为下式(4)那样。
(xsrc,ysrc)=g-1·f-1(xdst,ydst)……(4)
在本实施方式中,参数运算部140求出延迟补偿参数g-1,通过运算g-1·f-1来校正扭曲参数f-1,输出校正后扭曲参数g-1·f-1。扭曲处理部130通过使用校正后扭曲参数g-1·f-1进行上式(4)的扭曲处理,生成输出图像。
图12是表示移动体等的追踪信息与基于该追踪信息的延迟补偿的对应的图。这里,假设获得6轴运动信息作为追踪信息。
偏航位移Δα是以与作为垂直方向的y方向平行的轴为旋转轴的旋转位移。偏航位移Δα使观看者通过屏幕看到的实际对象产生水平偏移。水平偏移是水平方向即x方向的偏移。因此,延迟补偿的方法是水平偏移。
俯仰位移Δβ是以与作为水平方向的x方向平行的轴为旋转轴的旋转位移。俯仰位移Δβ导致观看者通过屏幕看到的实际对象产生垂直偏移。垂直偏移是垂直方向即y方向的偏移。因此,延迟补偿的方法为垂直偏移。
翻滚位移Δγ是以与移动体的前后方向即z方向平行的轴为旋转轴的旋转位移。翻滚位移Δγ使观看者通过屏幕看到的实际对象产生旋转。因此,延迟补偿的方法是旋转。
水平偏移Δx是x方向的偏移,使观看者通过屏幕看到的实际对象产生水平偏移。因此,延迟补偿的方法是水平偏移。
垂直偏移Δy是y方向的偏移,使观看者通过屏幕看到的实际对象产生垂直偏移。因此,延迟补偿的方法为垂直偏移。
前后偏移Δz是z方向的偏移,导致观看者通过屏幕看到的实际对象的缩小或放大。因此,延迟补偿的方法是缩小或放大。
图13表示实现上述补偿方法的延迟补偿参数的例子。图13所示的式的右边的矩阵与图11中说明的g-1对应。m13表示水平偏移,m23表示垂直偏移。m12表示水平偏斜。水平歪斜是使矩形变形为平行四边形的变换,但在此作为旋转的近似来使用。m11表示水平缩放,m22表示垂直缩放。m11和m22相当于缩小或放大。
例如,如果考虑仅发生垂直偏移的情况,则m11=m22=1,m12=m13=0。此时,图13的式成为下式(5)。
(xsrc,ysrc)=(xlat,ylat+m23)……(5)
在图11中,畸变校正的逆变换f-1()使(xdst,ydst)移动到(xlat,ylat)。上式(5)相当于使该移动量在垂直方向上偏移m23,通过该偏移来实现延迟补偿。
图14是说明根据追踪信息运算出延迟补偿参数的方法的图。
根据偏航、翻滚以及俯仰的旋转中心、观看者的头部、HUD屏幕以及实际对象的几何学位置关系,能够将移动体、观看者或者实际对象产生的位移换算为屏幕上的偏移量或者旋转角度。然后,能够根据该偏移量或旋转角度来决定图13的右边的矩阵。
在图14中,以图13中表示垂直偏移的m23为例,说明根据追踪信息求出延迟补偿参数的方法。这里,说明使用移动体32的俯仰位移Δβ和垂直偏移Δym以及观看者52的垂直偏移Δyp作为追踪信息的例子。
若将俯仰的旋转中心PTC与屏幕34的距离设为DCF,则移动体32的俯仰位移Δβ使屏幕34垂直偏移DCF×Δβ。此外,移动体32的垂直偏移Δym使屏幕34垂直偏移Δym。若对它们进行合计,则屏幕34的垂直偏移量为DCF×Δβ+Δym。假设观看者52的头部和实际对象12不移动,例如,当屏幕34上升+(DCF×Δβ+Δym)时,观看者看到的实际对象12在屏幕34上的位置看起来相对于屏幕34相对下降-(DCF×Δβ+Δym)。因此,此时的延迟补偿参数为m23=-(DCF×Δβ+Δym)。
设观看者52的头部与实际对象12之间的距离为DPT,屏幕34与实际对象12之间的距离为DFT。如果假设屏幕34和实际对象12不移动,则例如当观看者向上移动+Δyp时,从观看者52看到的实际对象12在屏幕34上的位置看起来相对于屏幕34向上移动+(DFT/DPT)×Δyp。如果假设实际对象12足够远,则可以近似为DFT/DPT=1,因此实际对象12的垂直偏移量为Δyp。因此,此时的延迟补偿参数为m23=Δyp。
根据本实施方式,电路装置160包括存储部145,存储部145将使显示图像中的坐标和表示该坐标的移动目的地的移动量对应起来的表存储为扭曲参数。参数运算部140根据延迟补偿参数使表的移动量偏移,将移动量偏移后的表作为补偿后扭曲参数输出。
在图11的例子中,f-1()作为表存储在存储部145中。在图13以及上式(5)所说明的例子中,使(xdst,ydst)移动到(xlat,ylat)的表的移动量例如是在垂直方向上移动m23。即,校正为使(xdst,ydst)移动到(xlat,ylat+m23)的表。或者,存储部145也可以将使显示图像中的坐标变换为移动目的地的坐标的变换式的参数作为扭曲参数进行存储。参数运算部140根据延迟补偿参数使移动目的地的坐标偏移,将移动目的地的坐标偏移后的变换式的参数作为补偿后扭曲参数输出。
变换式例如是多项式,该多项式的系数作为变换式的参数存储在存储部145中。在图11的例子中,表示f-1()的变换式的参数被存储在存储部145中。在图13以及上式(5)所说明的例子中,使(xdst,ydst)移动到(xlat,ylat)的变换式的移动量例如是在垂直方向上偏移m23。即,被校正为使(xdst,ydst)移动到(xlat,ylat+m23)的变换式。
4.电子设备、移动体
图15是包含本实施方式的电路装置160的电子设备300的结构例。电子设备300包括处理装置150、电路装置160、存储装置350、操作装置360、通信装置370、平视显示器400、传感器500。
处理器150将通过渲染虚拟对象而获得的渲染图像输出到电路装置160。此外,处理装置150也可以将存储装置350中存储的图像数据或通信装置370接收到的图像数据与虚拟对象合成后的渲染图像输出到电路装置160。电路装置160在对渲染图像进行扭曲处理的同时进行延迟补偿。另外,电路装置160进行显示定时控制等。平视显示器400基于从电路装置160传输的图像数据和由电路装置160进行的显示定时控制来驱动显示面板,在显示面板上显示图像。显示面板例如是液晶显示面板或EL显示面板等。平视显示器400通过投射光学单元将显示在显示面板上的图像投射到屏幕上。存储装置350例如是存储器、或硬盘驱动器或光盘驱动器等。操作装置360是用于用户操作电子设备300的装置,例如是按钮、或者触摸面板、或者键盘等。通信装置370例如是进行有线通信的装置或进行无线通信的装置。有线通信例如是LAN或USB等。无线通信例如是无线LAN或无线近距离通信等。
作为包含本实施方式的电路装置的电子设备,可以设想车载用的电子设备、工厂设备等的显示终端、搭载于机器人的显示装置或信息处理装置等各种设备。车载用的电子设备例如是仪表面板等。信息处理装置例如是PC等。
图16是包含本实施方式的电路装置160的移动体的例子。移动体包括控制装置208、平视显示器400和传感器500。控制装置208包括处理装置150、电路装置160。控制装置208是ECU(Electronic Control Unit:电子控制单元),在ECU中组装有处理装置150和电路装置160。此外,电路装置160可以组装到平视显示器400中。本实施方式的电路装置160例如可以组装在汽车、飞机、摩托车、自行车或船舶等各种移动体中。移动体例如是具备发动机或马达等驱动机构、方向盘或舵等转向机构以及各种电子设备并在地上、天空或海上移动的设备或装置。图16概略地表示作为移动体的具体例的汽车206。汽车206具有车体207和车轮209。上述ECU基于驾驶员的操作,通过控制发动机、制动器或转向等来控制汽车206的行驶。平视显示器400具有透明屏幕,该透明屏幕设置于驾驶席与挡风玻璃之间。或者,平视显示器也可以将挡风玻璃用作透明屏幕,向挡风玻璃上投射图像。平视显示器400也可以执行AR显示,并且用作例如汽车206的仪表面板。
以上说明的本实施方式的电路装置执行平视显示器的显示控制,该平视显示器在显示区域中显示与实际空间中的实际对象对应的虚拟对象。电路装置包括接口、参数运算部和扭曲处理部。接口接收追踪信息和包括虚拟对象的渲染图像,追踪信息是搭载有平视显示器的移动体的第1追踪信息、平视显示器的观看者的第2追踪信息和实际对象的第3追踪信息中的至少一个。参数运算部基于追踪信息运算出延迟补偿参数,该延迟补偿参数用于对包括渲染图像的渲染处理延迟在内的延迟进行补偿。扭曲处理部进行根据显示区域的弯曲对渲染图像进行坐标变换的扭曲处理,生成在显示区域中显示的显示图像。在扭曲处理中,扭曲处理部进行基于延迟补偿参数来补偿虚拟对象在显示区域中的位置的延迟补偿处理。
因此,根据延迟补偿参数来补偿由于包括渲染处理延迟在内的延迟而产生的虚拟对象的位置偏离。通过在紧接在显示之前进行的扭曲处理中执行延迟补偿,可以使残余延迟最小化,从而实现虚拟对象对实际对象的跟随性高的AR显示。
另外,在本实施方式中,也可以向接口输入根据第1定时处的追踪信息生成的渲染图像和第1定时处的追踪信息。参数运算部可以根据第1定时之后且显示图像的显示定时之前的第2定时处的追踪信息和第1定时处的追踪信息,运算出延迟补偿参数。
这样,由于第1定时和显示定时之间的延迟被缩短为比第1定时靠后的第2定时和显示定时之间的延迟,所以可削减由延迟引起的位置偏离。
另外,在本实施方式中,参数运算部可以根据延迟补偿参数来校正与显示区域的弯曲对应的坐标变换的扭曲参数,从而输出校正后扭曲参数。扭曲处理部也可以通过使用校正后扭曲参数进行扭曲处理来进行延迟补偿处理。
这样,通过使用基于延迟补偿参数的校正后扭曲参数进行扭曲处理,能够在扭曲处理中进行延迟补偿。另外,在本实施方式中,追踪信息也可以是表示包含与移动体的行进方向垂直的第1轴位移及第2轴位移中的至少一个的位移的信息。参数运算部可以通过校正由位移产生的虚拟对象的位置误差来输出校正后扭曲参数。
在延迟补偿中,补偿在短期间内发生的位置或姿势的变化,作为在短期间内发生的位置或姿势的变化,认为移动体或观看者的晃动的影响大。在移动体或观看者晃动的情况下,可认为观看者通过显示区域看到的实际对象产生偏移位移。根据本实施例,由于校正了因与移动体的行进方向垂直的第1轴位移和第2轴位移而产生的虚拟对象的位置误差,所以可以补偿由于移动体或观看者的晃动而引起的显示位置偏离。
另外,在本实施方式中,在与移动体的行进方向垂直的第1轴位移及第2轴位移中,移动体的上下方向的位移也可以是第2轴位移。在这种情况下,追踪信息可以是表示由移动体的俯仰位移引起的平视显示器或观看者的第2轴位移的信息。参数运算部可以通过校正由第2轴位移产生的虚拟对象的位置误差来输出校正后扭曲参数。
设想俯仰位移作为上述移动体的晃动,移动体的俯仰位移使平视显示器的屏幕或观看者产生第2轴位移。平视显示器的屏幕或观看者的第2轴位移引起观看者通过显示区域观看的实际对象在第2轴方向上的偏移位移。根据本实施例,由于校正了由平视显示器的屏幕或观看者的第2轴位移引起的虚拟对象的位置误差,因此可以补偿由移动体的俯仰位移引起的显示位置偏离。
另外,在本实施方式中,电路装置也可以包括存储部,该存储部将使显示图像中的坐标与表示坐标的移动目的地的移动量对应起来的表作为扭曲参数进行存储。参数运算部可以根据延迟补偿参数来使表的移动量偏移,并将移动量偏移动后的表作为校正后扭曲参数输出。
这样,根据延迟补偿参数使表的移动量偏移,根据该校正后的表进行扭曲处理,从而实现延迟补偿。
另外,在本实施方式中,电路装置也可以包括存储部,该存储部将使显示图像中的坐标变换为移动目的地的坐标的变换式的参数作为扭曲参数进行存储。参数运算部可以根据延迟补偿参数来使移动目的地的坐标偏移,并将移动目的地的坐标偏移后的变换式的参数作为校正后扭曲参数输出。
这样,变换式的移动目的地的坐标基于延迟补偿参数被偏移,通过该校正后的变换式进行扭曲处理,从而实现延迟补偿。
另外,在本实施方式中,在扭曲处理中,扭曲处理部可以进行根据延迟补偿参数对显示区域中的虚拟对象的旋转和缩放中的至少一个进行补偿的延迟补偿处理。
这样,不仅可以进行偏移位移的延迟补偿,还可以进行旋转或缩放的延迟补偿。缩放是缩小或放大虚拟对象。根据本实施例,补偿了由于延迟而导致的虚拟对象的旋转误差、缩放误差或这两者。因此,可以实现具有更高的跟随性的AR显示。
另外,在本实施方式中,也可以向接口输入通过基于渲染用传感器的输出信号的追踪处理而生成的渲染用追踪信息、基于渲染用追踪信息而生成的渲染图像、和作为与渲染用传感器不同的延迟补偿用传感器的输出信号的延迟补偿用追踪信息。参数运算部可以基于渲染用追踪信息和延迟补偿用追踪信息来运算出延迟补偿参数。
这样,由于参数运算部可在任意定时取得延迟补偿用传感器的输出信号,所以可取得尽可能接近显示定时的定时的延迟补偿用传感器的输出信号,并运算出延迟补偿参数。
另外,本实施方式的电子设备包括上述任一项所述的电路装置。
另外,本实施方式的移动体包括上述任一项所述的电路装置。
另外,如上所述对本实施方式进行了详细说明,但本领域技术人员能够容易地理解可进行实质上不脱离本公开的新事项及效果的多种变形。因此,本公开的范围包括所有这样的变形例。例如,在说明书或附图中,至少一次与更广义或同义的不同用语一起记载的用语,在说明书或附图的任何位置都能够置换为该不同的用语。此外,本实施方式和变形例的所有组合也包括在本公开的范围内。另外,传感器、平视显示器、处理装置、平视显示器控制器、显示系统、电子设备及移动体等的结构及动作等也不限于本实施方式中说明的结构及动作,可以进行各种变形实施。

Claims (11)

1.一种电路装置,其用于进行平视显示器的显示控制,所述平视显示器在显示区域中显示与实际空间中的实际对象相对应的虚拟对象,所述电路装置包括:
接口,其被输入追踪信息和包含所述虚拟对象的渲染图像,所述追踪信息是搭载有所述平视显示器的移动体的第1追踪信息、所述平视显示器的观看者的第2追踪信息和所述实际对象的第3追踪信息中的至少一个;
参数运算部,其根据所述追踪信息运算出延迟补偿参数,所述延迟补偿参数用于对包括所述渲染图像的渲染处理延迟在内的延迟进行补偿;以及
扭曲处理部,其进行根据所述显示区域的弯曲对所述渲染图像进行坐标变换的扭曲处理,生成在所述显示区域中显示的显示图像,
所述扭曲处理部在所述扭曲处理中进行根据所述延迟补偿参数对所述显示区域中的所述虚拟对象的位置进行补偿的延迟补偿处理。
2.根据权利要求1所述的电路装置,其特征在于,
所述接口被输入根据第1定时处的所述追踪信息生成的所述渲染图像和所述第1定时处的所述追踪信息,
所述参数运算部根据所述第1定时之后且所述显示图像的显示定时之前的第2定时处的所述追踪信息和所述第1定时处的所述追踪信息,运算出所述延迟补偿参数。
3.根据权利要求1或2所述的电路装置,其特征在于,
所述参数运算部根据所述延迟补偿参数来校正与所述显示区域的弯曲对应的所述坐标变换的扭曲参数,由此输出校正后扭曲参数,
所述扭曲处理部通过使用所述校正后扭曲参数进行所述扭曲处理,来进行所述延迟补偿处理。
4.根据权利要求3所述的电路装置,其特征在于,
所述追踪信息是表示位移的信息,所述位移包含与所述移动体的行进方向垂直的第1轴位移及第2轴位移中的至少一个,
所述参数运算部通过校正由所述位移产生的所述虚拟对象的位置误差,来输出所述校正后扭曲参数。
5.根据权利要求3所述的电路装置,其特征在于,
在与所述移动体的行进方向垂直的第1轴位移及第2轴位移中,在所述移动体的上下方向的位移是所述第2轴位移时,
所述追踪信息是表示由所述移动体的俯仰位移引起的所述平视显示器或所述观看者的所述第2轴位移的信息,
所述参数运算部通过校正由所述第2轴位移产生的所述虚拟对象的位置误差,来输出所述校正后扭曲参数。
6.根据权利要求3所述的电路装置,其特征在于,
所述电路装置包括存储部,该存储部将使所述显示图像中的坐标与表示所述坐标的移动目的地的移动量对应起来的表作为扭曲参数进行存储,
所述参数运算部根据所述延迟补偿参数使所述表的所述移动量偏移,将所述移动量偏移后的所述表作为所述校正后扭曲参数输出。
7.根据权利要求3所述的电路装置,其特征在于,
所述电路装置包括存储部,该存储部将变换式的参数作为扭曲参数进行存储,所述变换式用于将所述显示图像中的坐标变换为移动目的地的坐标,
所述参数运算部根据所述延迟补偿参数使所述移动目的地的坐标偏移,将所述移动目的地的坐标偏移后的所述变换式的参数作为所述校正后扭曲参数输出。
8.根据权利要求1所述的电路装置,其特征在于,
所述扭曲处理部在所述扭曲处理中进行根据所述延迟补偿参数对所述显示区域中的所述虚拟对象的旋转和缩放中的至少一个进行补偿的所述延迟补偿处理。
9.根据权利要求1所述的电路装置,其特征在于,
所述接口被输入通过基于渲染用传感器的输出信号的追踪处理而生成的渲染用追踪信息、基于所述渲染用追踪信息而生成的所述渲染图像、以及作为与所述渲染用传感器不同的延迟补偿用传感器的输出信号的延迟补偿用追踪信息,
所述参数运算部根据所述渲染用追踪信息和所述延迟补偿用追踪信息运算出所述延迟补偿参数。
10.一种电子设备,其特征在于,该电子设备包括权利要求1至9中的任一项所述的电路装置。
11.一种移动体,其特征在于,该移动体包括权利要求1至9中的任一项所述的电路装置。
CN202011594605.XA 2019-12-31 2020-12-29 电路装置、电子设备和移动体 Active CN113132714B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962955793P 2019-12-31 2019-12-31
US62/955,793 2019-12-31
JP2020104224A JP2021111317A (ja) 2019-12-31 2020-06-17 回路装置、電子機器及び移動体
JP2020-104224 2020-06-17

Publications (2)

Publication Number Publication Date
CN113132714A true CN113132714A (zh) 2021-07-16
CN113132714B CN113132714B (zh) 2023-09-08

Family

ID=74003777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011594605.XA Active CN113132714B (zh) 2019-12-31 2020-12-29 电路装置、电子设备和移动体

Country Status (3)

Country Link
US (1) US11443718B2 (zh)
EP (1) EP3848781B1 (zh)
CN (1) CN113132714B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210096449A (ko) * 2020-01-28 2021-08-05 삼성전자주식회사 Hud 시스템에서 영상을 재생하는 방법 및 그 hud 시스템
US20240096026A1 (en) * 2022-06-20 2024-03-21 Jan Bajana Low latency hand-tracking in augmented reality systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016000412A1 (de) * 2016-01-14 2016-07-21 Daimler Ag Verfahren zur latenzarmen Kompensation einer Eigenbewegung eines Fahrzeuges in einem Anzeigebereich eines Headup-Displays
CN106658170A (zh) * 2016-12-20 2017-05-10 福州瑞芯微电子股份有限公司 一种降低虚拟现实延迟的方法和装置
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
WO2018064287A1 (en) * 2016-09-28 2018-04-05 Ariadne's Thread (Usa), Inc. Predictive virtual reality display system with post rendering correction
US20180146189A1 (en) * 2015-05-27 2018-05-24 Lg Electronics Inc. Head mounted display and control method therefor

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4942407B2 (ja) 2006-07-05 2012-05-30 クラリオン株式会社 ナビゲーション装置
JP5161760B2 (ja) 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
JP5434116B2 (ja) 2009-02-12 2014-03-05 日産自動車株式会社 車載表示装置
JP5709675B2 (ja) 2011-07-07 2015-04-30 クラリオン株式会社 車両周囲画像撮像システム
US20130169679A1 (en) * 2011-12-30 2013-07-04 Automotive Research & Test Center Vehicle image display system and correction method thereof
JP2013237320A (ja) 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp 違和感軽減表示装置およびその表示制御方法
US10322672B2 (en) 2013-02-28 2019-06-18 Aisin Seiki Kabushiki Kaisha Vehicle control apparatus and program with rotational control of captured image data
JP6201690B2 (ja) 2013-11-28 2017-09-27 日本精機株式会社 車両情報投影システム
CN105682973B (zh) 2013-10-22 2018-06-19 日本精机株式会社 车辆信息投影系统和投影装置
EP2933707B1 (en) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Head mounted display presentation adjustment
JP6369106B2 (ja) 2014-04-16 2018-08-08 株式会社デンソー ヘッドアップディスプレイ装置
KR101631963B1 (ko) 2014-04-30 2016-06-20 엘지전자 주식회사 헤드 업 디스플레이 장치 및 이를 구비한 차량
JP6467838B2 (ja) * 2014-09-26 2019-02-13 アイシン精機株式会社 周辺監視装置、及び周辺監視システム
JP6458998B2 (ja) 2015-05-13 2019-01-30 日本精機株式会社 ヘッドアップディスプレイ
JP6443236B2 (ja) * 2015-06-16 2018-12-26 株式会社Jvcケンウッド 虚像提示システム、画像投射装置および虚像提示方法
JP6561616B2 (ja) 2015-06-19 2019-08-21 日本精機株式会社 車載ヘッドアップディスプレイ装置及び車載表示システム
KR101759945B1 (ko) 2015-08-05 2017-07-20 엘지전자 주식회사 디스플레이 장치
US9928769B2 (en) 2015-09-29 2018-03-27 Panasonic Intellectual Property Management Co., Ltd. Head-up display and vehicle equipped with head-up display
DE102016213687B4 (de) 2016-07-26 2019-02-07 Audi Ag Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug, Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung
US10049499B2 (en) 2016-08-29 2018-08-14 Toyota Jidosha Kabushiki Kaisha Method of ground adjustment for in-vehicle augmented reality systems
CN109643021B (zh) 2016-08-29 2024-05-07 麦克赛尔株式会社 平视显示装置
JP6756228B2 (ja) 2016-10-07 2020-09-16 株式会社デンソー 車載表示制御装置
GB2559759B (en) * 2017-02-16 2020-07-29 Jaguar Land Rover Ltd Apparatus and method for displaying information
JP6724886B2 (ja) 2017-11-28 2020-07-15 株式会社デンソー 虚像表示装置
JP6724885B2 (ja) 2017-11-28 2020-07-15 株式会社デンソー 虚像表示装置
JP2019153237A (ja) 2018-03-06 2019-09-12 パナソニックIpマネジメント株式会社 画像処理装置、画像表示システムおよび画像処理方法
JP7194906B2 (ja) 2018-03-30 2022-12-23 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
JP7026325B2 (ja) 2018-06-21 2022-02-28 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び移動体
JP7121909B2 (ja) 2018-12-27 2022-08-19 三菱マテリアル株式会社 表面被覆切削工具

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180146189A1 (en) * 2015-05-27 2018-05-24 Lg Electronics Inc. Head mounted display and control method therefor
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
DE102016000412A1 (de) * 2016-01-14 2016-07-21 Daimler Ag Verfahren zur latenzarmen Kompensation einer Eigenbewegung eines Fahrzeuges in einem Anzeigebereich eines Headup-Displays
WO2018064287A1 (en) * 2016-09-28 2018-04-05 Ariadne's Thread (Usa), Inc. Predictive virtual reality display system with post rendering correction
CN106658170A (zh) * 2016-12-20 2017-05-10 福州瑞芯微电子股份有限公司 一种降低虚拟现实延迟的方法和装置

Also Published As

Publication number Publication date
CN113132714B (zh) 2023-09-08
EP3848781B1 (en) 2023-05-10
US20210201853A1 (en) 2021-07-01
EP3848781A1 (en) 2021-07-14
US11443718B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
CN113129224B (zh) 显示系统、电子设备、移动体和显示方法
US10223835B2 (en) Augmented reality alignment system and method
CN111954902B (zh) 影像显示系统、影像显示方法、存储介质以及具备影像显示系统的移动体
CN105116546B (zh) 一种车载平视显示装置及显示方法
CN110308556B (zh) 图像形成、校正、显示系统或方法、移动体、非暂时性计算机可读介质
CN113132714B (zh) 电路装置、电子设备和移动体
US11112604B2 (en) Head-up display
JP2015087619A (ja) 車両情報投影システム及び投影装置
CN105472317B (zh) 周边监视装置及周边监视系统
US10412308B2 (en) Display controller and display control method
CN111800589A (zh) 图像处理方法、装置和系统,以及机器人
JP7480602B2 (ja) 表示システム、電子機器、移動体及び表示方法
US11983838B2 (en) Circuit apparatus, display system, and image processing method
JP2010187161A (ja) 車載カメラシステム及び画像処理方法
CN111861865B (zh) 电路装置、电子设备以及移动体
JP2021111317A (ja) 回路装置、電子機器及び移動体
US20210011299A1 (en) Position adjustment apparatus and projection system including the same
JP5047912B2 (ja) 車載用画像処理装置及びその画像処理方法
JP2022185224A (ja) 回路装置、表示システム及び電子機器
US20190306414A1 (en) Moving Object Imaging System and Moving Object Imaging Method
JP2008227807A (ja) 画像スタビライザ
US11982817B2 (en) Display system
KR20210137845A (ko) 드론 탑재형 프로젝터의 프로젝션 영상 안정화 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant