CN109863747A - 显示控制装置及显示控制方法 - Google Patents

显示控制装置及显示控制方法 Download PDF

Info

Publication number
CN109863747A
CN109863747A CN201680090332.0A CN201680090332A CN109863747A CN 109863747 A CN109863747 A CN 109863747A CN 201680090332 A CN201680090332 A CN 201680090332A CN 109863747 A CN109863747 A CN 109863747A
Authority
CN
China
Prior art keywords
display
binocular
depth distance
display object
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201680090332.0A
Other languages
English (en)
Inventor
太田脩平
竹里尚嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN109863747A publication Critical patent/CN109863747A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Abstract

本发明提供一种显示控制装置及显示控制方法,该显示控制装置(100)包括:设定与显示对象信息相对应的显示物的深度距离的深度距离设定部(22);根据所设定的深度距离来设定显示物的双眼视差值的双眼视差设定部(23);对双眼视差设定部(23)所设定的双眼视差值进行修正的双眼视差修正部(24);基于双眼视差值的修正量来变更显示物的显示方式的其它显示方式设定部(25);以及基于双眼视差设定部(23)所设定的双眼视差值或双眼视差修正部(24)修正后的双眼视差值中的任一个来将包含显示物的立体视觉用图像输出到显示装置的显示控制部(29),双眼视差修正部(24)所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且其它显示方式设定部(25)根据双眼视差值的修正量至少对显示物的大小进行变更。

Description

显示控制装置及显示控制方法
技术领域
本发明涉及移动体用的显示装置中所使用的显示控制装置及显示控制方法。
背景技术
以往,开发出了通过显示左眼用图像和右眼用图像来实现该图像的立体视觉的显示装置。下面,针对左眼用图像和右眼用图像,将用户通过立体视觉看到的像称为“立体像”。另外,将用户的眼部位置或与该眼部位置对应的位置到立体像的位置为止的距离称为“深度距离”。
在立体视觉用的显示装置中,若左眼用图像和右眼用图像之间的视差、即所谓的“双眼视差”过大,则左眼用图像和右眼用图像有时会分别被识别为不同的图像,从而导致用户无法看到立体像。这种情况下,将产生所谓的“重影”,存在会引起用户的视觉疲劳或不适感等的问题(参照非专利文献1)。针对这一问题,专利文献1、2中公开了防止双眼视差过大的技术。
专利文献1的立体影像变换装置100具备对拍摄左右影像时的拍摄条件即辐辏角变换信息进行提取的拍摄条件提取部111、以及对拍摄左右影像时的辐辏角进行变更的影像变换部112。影像变换部112包括:辐辏角校正值计算部,该辐辏角校正值计算部基于拍摄条件提取部111所提取出的辐辏角变换信息和用于显示左右影像的显示画面的显示尺寸信息,计算左右影像的最大视差量,并计算使计算出的最大视差量成为预先指定的最大视差量以下的辐辏角校正值;以及辐辏角变换处理部,该辐辏角变换处理部生成使拍摄左右影像时的辐辏角基于计算出的辐辏角校正值改变后而得到的影像。由此,在显示立体视觉用的影像时,能够以使吸引方向的视差量在规定视差以下的方式进行显示,而与画面尺寸无关(参照专利文献1的摘要、图1等)。
专利文献2的显示装置100包括:视差信息获取部12,该视差信息获取部12基于左眼用图像和右眼用图像,获取图像数据内的视差的最大值和最小值;深度信息获取部13,该深度信息获取部13基于所获取的视差的最大值和最小值的差分,获取图像数据的深度大小;缩放显示检测部14,该缩放显示检测部14基于图像数据之间的深度大小的变化,检测有无进行缩放显示;以及校正部16,该校正部16在检测出缩放显示且视差的最大值在阈值以上的情况下,对图像数据进行校正以减轻视听负担。由此,能够减轻包含了缩放显示的立体视觉影像带给观众的视觉识别负担(参照专利文献2的摘要、图2等)。
现有技术文献
专利文献
专利文献1:日本专利特开2012-85102号公报
专利文献2:日本专利特开2015-115676号公报
非专利文献
非专利文献1:3D联合协会《3DC安全指南》2011年11月31日发行
发明内容
发明所要解决的技术问题
在利用平视显示器(Head-Up Display,HUD)等移动体用的显示装置实现立体视觉的情况下,立体像的深度距离变得十分重要。例如,在移动体是车辆且设置有对该车辆的行驶路径进行引导的导航装置的情况下,在要对位于该车辆前方30米处的交叉路口等引导对象物进行引导的情况下,优选将与该引导对象物相对应的立体像的深度距离设定为约30米。另外,在要对位于前方10米处的第一引导对象物和位于前方50米处的第二引导对象物同时进行引导的情况下,优选将与第一引导对象物相对应的立体像的深度距离设定为约10米,并且将与第二引导对象物相对应的立体像的深度距离设定为约50米。
这里,左眼用图像和右眼用图像之间的双眼视差是人们用于识别深度距离的要素之一。因此,在为了抑制重影的产生而简单地修正了双眼视差(相当于专利文献1中的辐辏角变更或专利文献2中的视差校正)的情况下,存在如下问题:用户识别出的立体像的深度距离发生变化,从而无法实现适合于上述那样的移动体用的显示装置的立体视觉。
本发明是为了解决上述问题而完成的,其目的在于提供一种显示控制装置及显示控制方法,既能抑制重影的产生,又能实现适于移动体用的显示装置的立体视觉。
解决技术问题所采用的技术方案
本发明的显示控制装置用于移动体用的显示装置,包括:深度距离设定部,该深度距离设定部设定与显示对象信息相对应的显示物的深度距离;双眼视差设定部,该双眼视差设定部根据深度距离设定部所设定的深度距离来设定显示物的双眼视差值;双眼视差修正部,该双眼视差修正部对双眼视差设定部所设定的双眼视差值进行修正;其它显示方式设定部,该其它显示方式设定部基于双眼视差值的修正量来变更显示物的显示方式;以及显示控制部,该显示控制部基于由双眼视差设定部所设定的双眼视差值或经双眼视差修正部修正后的双眼视差值中的任一个来将包含显示物的立体视觉用图像输出到显示装置,双眼视差修正部所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,其它显示方式设定部根据双眼视差值的修正量,至少对显示物的大小进行变更。
本发明的显示控制方法用于移动体用的显示装置,包括:深度距离设定部设定与显示对象信息相对应的显示物的深度距离的步骤;双眼视差设定部根据深度距离设定部所设定的深度距离来设定显示物的双眼视差值的步骤;双眼视差修正部对双眼视差设定部所设定的双眼视差值进行修正的步骤;其它显示方式设定部基于双眼视差值的修正量来变更显示物的显示方式的步骤;以及显示控制部基于由双眼视差设定部所设定的双眼视差值或经双眼视差修正部修正后的双眼视差值中的任一个来将包含显示物的立体视觉用图像输出到显示装置的步骤,双眼视差修正部所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,其它显示方式设定部根据双眼视差值的修正量,至少对显示物的大小进行变更。
发明效果
根据本发明,由于采用上述结构,因此能够抑制重影的产生,并且能够提供适合于移动体用的显示装置的立体视觉用图像。
附图说明
图1是表示本发明实施方式1所涉及的显示控制装置的主要部分的功能框图。
图2A是表示本发明实施方式1所涉及的HUD的构造、深度距离的一个示例、以及成像距离的一个示例的说明图。
图2B是表示挡风玻璃型HUD的构造的说明图。
图2C是表示组合型HUD的构造的说明图。
图3是本发明实施方式1所涉及的特性图。
图4是表示用于生成本发明实施方式1所涉及的立体视觉用图像的假想三维空间的一个示例的说明图。
图5中,图5A是表示本发明实施方式1所涉及的立体视觉用图像的一个示例的说明图。图5B是表示本发明实施方式1所涉及的立体视觉用图像的其它示例的说明图。
图6中,图6A是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的一个示例的说明图。图6B是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。图6C是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。
图7中,图7A是表示本发明实施方式1所涉及的显示控制装置的主要部分的硬件结构图,图7B是表示本发明实施方式1所涉及的显示控制装置的主要部分的其它硬件结构图。
图8是表示本发明实施方式1所涉及的显示控制装置的动作的流程图。
图9是表示本发明实施方式1所涉及的显示控制装置的动作的说明图。
图10中,图10A是表示本发明实施方式1所涉及的包含比较用显示物的立体视觉用图像的一个示例的说明图。图10B是表示本发明实施方式1所涉及的包含比较用显示物的立体视觉用图像的其它示例的说明图。
图11是表示本发明实施方式1所涉及的其它显示控制装置的主要部分的功能框图。
图12是表示本发明实施方式1所涉及的其它显示控制装置的主要部分的功能框图。
图13是表示本发明实施方式1所涉及的其它显示控制装置的动作的流程图。
图14是表示本发明实施方式2所涉及的显示控制装置的主要部分的功能框图。
图15是表示本发明实施方式2所涉及的HUD的显示区域的一个示例的说明图。
图16是本发明实施方式2所涉及的特性图。
图17中,图17A是表示本发明实施方式2所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的一个示例的说明图。图17B是表示本发明实施方式2所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。
图18是表示本发明实施方式2所涉及的显示控制装置的动作的流程图。
图19是表示本发明实施方式2所涉及的其它显示控制装置的主要部分的功能框图。
图20是表示本发明实施方式2所涉及的其它显示控制装置的动作的流程图。
图21是表示俯视角度与显示装置的关系的说明图
图22是表示对实施方式1应用了实施方式3时的显示控制装置的主要部分的功能框图。
图23是表示对实施方式2应用了实施方式3时的显示控制装置的主要部分的功能框图。
具体实施方式
下面,为了更详细地说明本发明,根据附图对用于实施本发明的方式进行说明。
实施方式1
实施方式1中,首先根据左右眼的双眼视差值来调整立体像的深度距离。然而,当双眼视察值过大时,会产生重影,因此可通过双眼视差值来调整的深度距离的范围存在极限。该极限存在于用户看到的远处侧和近处侧双方。因此,实施方式1中,在超过了能通过双眼视差值来进行调整的深度距离的情况下,在双眼视差值的调整的基础上,还进一步变更立体像的大小。例如,在想要将立体像显示在远处侧的情况下,进行缩小显示。反之,在想要将立体像显示在近处侧的情况下,进行放大显示。这是利用了人们会将小物识别为位于远处而将大物识别为位于近处这一点。
由此,即使深度距离超出了极限,也能够使立体物看上去仿佛显示在所希望的深度距离的位置上。另外,并不需要在远处侧和近处侧双方都进行上述调整,也可以仅在其中一方进行调整。
而且,人们会将前方视野中位于上侧的物体识别为位于远处,并将位于下侧的物体识别为位于近处。实施方式1中,提出了如下方案:在上述改变大小的处理的基础上,也可以使相对于用户来说位于远处的物体向上侧移动并使位于近处侧的物体向下侧移动。
即,实施方式1中,对于能够用双眼视差值来调整的深度距离的范围,利用双眼视差值来进行调整。在超过了能用双眼视差值来进行调整的深度距离的情况下,采用如下技术构思:在双眼视差值的调整的基础上,进一步实施人们识别深度距离的其它处理。该其它处理可以是一种处理,也可以是几种处理的组合。另外,并不一定要对远处侧和近处侧双方都进行处理,也可以根据需要对其中任一方实施处理。
下面,使用附图进行详细说明。
图1是表示本发明实施方式1所涉及的显示控制装置的主要部分的功能框图。图2A是表示本发明实施方式1所涉及的HUD的构造、深度距离的一个示例、以及成像距离的一个示例的说明图。图2B是表示挡风玻璃型HUD的构造的说明图,图2C是表示组合型HUD的构造的说明图。图3是表示本发明实施方式1所涉及的第一特性线等的特性图。图4是表示用于生成本发明实施方式1所涉及的立体视觉用图像的假想三维空间的一个示例的说明图。图5A是表示本发明实施方式1所涉及的立体视觉用图像的一个示例的说明图。图5B是表示本发明实施方式1所涉及的立体视觉用图像的其它示例的说明图。图6A是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的一个示例的说明图。图6B是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。图6C是表示本发明实施方式1所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。图7A是表示本发明实施方式1所涉及的显示控制装置的主要部分的硬件结构图,图7B是表示本发明实施方式1所涉及的显示控制装置的主要部分的其它硬件结构图。图7B是表示本发明实施方式1所涉及的显示控制装置的主要部分的其它硬件结构图。参照图1~图7,对于实施方式1的显示控制装置100,以将其应用于由四轮汽车构成的车辆1的示例为中心来进行说明。
图1所示的车辆1中设置有HUD2。图2A示出HUD2的构造的一个示例。图2A中,HUD2具有显示器3、以及将显示器3上所显示的图像投影到半透镜4上的镜片5。HUD2大致分为使用前挡玻璃4A(挡风玻璃:window shield)作为半透镜4的挡风玻璃型(图2B)、以及使用设置于用户前方的组合器4B作为半透镜4的组合型(图2C)。显示器3例如由液晶显示器等构成的显示器、投影仪或激光仪等能够投影图像的显示设备构成。镜片5例如由一片以上的反射镜和投影用的半透镜等构成。这里,构成为至少一部分镜片具有角度调整装置5A,从而能对该镜片的角度进行调整。另外,图2A、图2B或图2C中,镜片5构成光学系统。
显示器3分别显示左眼用图像和右眼用图像,或者显示由左眼用图像和右眼用图像合成的图像(以下称为“合成图像”)。下面,将显示器3上所显示的这些图像统称为“立体视觉用图像”。即,HUD2在将立体视觉用图像重叠在透过车辆1的半透镜4看到的车外的风景上的状态下,来显示该立体视觉用图像。
摄像头11拍摄车辆1的车内情况。摄像头11将表示所拍摄到的图像的图像信息输出到显示控制装置100。
摄像头12拍摄车辆1的车外情况。摄像头12将表示所拍摄到的图像的图像信息输出到显示控制装置100。
GPS(全球定位系统)接收机13从未图示的GPS卫星接收GPS信号。GPS接收机13将GPS信号所示的坐标所对应的位置信息输出到显示控制装置100。
雷达传感器14由例如毫米波段的电波传感器、超声波传感器或激光传感器等构成。雷达传感器14检测位于车辆1外部的物体的方向和形状以及该物体与车辆1之间的距离等。雷达传感器14将表示上述检测结果的信息输出到显示控制装置100。
ECU(Electronic Control Unit:电子控制单元)15控制车辆1的各种动作。ECU15经由未图示的线束等与显示控制装置100相连接,可基于CAN(Controller Area Network:控制器局域网)标准与显示控制装置100自由通信。ECU15将与车辆1的各种动作相关的信息输出到显示控制装置100。
无线通信装置16由例如搭载于车辆1的专用的接收机和发送机、或者带入车辆1内的智能手机等移动通信终端构成。无线通信装置16从互联网等外部网络获取各种信息,并将这些信息输出到显示控制装置100。
导航装置17例如由搭载于车辆1的专用的车载信息设备、或者带入车辆1内的PND(Portable Navigation Device:移动导航设备)或智能手机等移动信息终端构成。导航装置17使用未图示的存储装置所存储的地图数据和从GPS接收机13获取到的位置信息等,对车辆1的行驶路径进行搜索。此外,导航装置17还对从搜索结果中选择的行驶路径进行引导。图1中,省略了GPS接收机13等与导航装置17之间的连接线的图示。导航装置17将与行驶路径的引导相关的各种信息输出到显示控制装置100。
HUD驱动控制装置18控制HUD2的光学系统所包含的镜片5的角度。另外,HUD驱动控制装置18可以通过对从摄像头11获取到的图像信息执行图像识别处理,从而检测出车辆1的上下方向、左右方向和前后方向上的用户的眼部或头部的位置,并根据该位置来控制镜片5的角度。图1中,省略了摄像头11与HUD驱动控制装置18之间的连接线的图示。
实施方式1中,由摄像头11、摄像头12、GPS接收机13、雷达传感器14、EUC15、无线通信装置16、导航装置17和HUD驱动控制装置18来构成信息源装置19。
显示对象设定部21在从信息源装置19获取的信息或使用从信息源装置19获取到的信息而生成的信息中,设定成为HUD2的显示对象的信息(以下称为“显示对象信息”)。
具体而言,例如,显示对象设定部21从导航装置17获取表示从车辆1的当前位置到下一个引导对象地点为止的距离的信息、表示到引导对象地点为止的行驶路径中的车辆1的左右转向地点的信息、表示下一个引导对象地点的名称的信息、以及表示车辆1的目的地的信息等。显示对象设定部21将所获取到的信息中的至少一部分设定为显示对象信息。
另外,例如,显示对象设定部21使用从摄像头11获取到的图像信息、从摄像头12获取到的图像信息、从GPS接收机13获取到的位置信息、从ECU15获取到的各种信息、以及从导航装置17获取到的各种信息等,来生成表示车辆1的行驶速度、转向角、当前位置和行进方向等的信息。显示对象设定部21将所生成的信息中的至少一部分设定为显示对象信息。
或者,例如,显示对象设定部21使用从摄像头12获取到的图像信息、从GPS接收机13获取到的位置信息、从ECU15获取到的各种信息、从导航装置17获取到的地图信息、从雷达传感器14获取到的检测结果的信息以及从无线通信装置16获取到的POI(Point ofInterest:兴趣点)信息等,来生成表示车辆1的周围有无其它车辆及其位置、车辆1的周围有无防护栏等设置物及其位置、正在行驶的道路的车道数量、正在行驶的道路的弯道曲率、正在行驶的道路的白线位置、正在行驶的道路附近所存在的设施等的信息。显示对象设定部21将所生成的信息中的至少一部分设定为显示对象信息。
除此以外,只要是从信息源装置19获取的信息或使用从信息源装置19获取的信息而生成的信息,则显示对象设定部21可以将任意的信息设定为显示对象信息。例如,显示对象设定部21可以将表示在车辆1前方行驶的其它车辆的行驶速度、车辆1与该其它车辆之间的车间距离、正在行驶的高速公路中的停车区及交叉路口等的信息设定为显示对象信息。
另外,显示对象设定部21还设定与显示对象信息对应的1个或多个假想的立体物或平面物(以下称为“显示物”)。
具体而言,例如,将表示引导对象的行驶路径中车辆1的左右转向地点的信息设定为显示对象信息。在这种情况下,显示对象设定部21将表示左右转方向的箭头状的立体物设定为显示物。
或者,例如,将表示车辆1前方有正在行驶的其它车辆突然靠近车辆1的信息设定为显示对象信息。在这种情况下,显示对象设定部21将由车辆1的用户进行观察时以重叠在该其它车辆所在的位置上的状态进行显示的警告用立体物设定为显示物。
或者,例如,将表示位于车辆1前方的设施的信息设定为显示对象信息。在这种情况下,显示对象设定部21将由车辆1的用户进行观察时以重叠在该设施所在的位置上的状态进行显示的强调用立体物设定为显示物。
或者,例如,将表示位于车辆1前方的目的地的信息设定为显示对象信息。在这种情况下,显示对象设定部21将由车辆1的用户进行观察时以重叠在该目的地所在的位置上的状态进行显示的强调用立体物设定为显示物。
除此以外,显示对象设定部21还可以根据显示对象信息的内容,将任意形状的立体物或平面物设定为显示物。
深度距离设定部22使用从信息源装置19获取的信息或由显示对象设定部21生成的信息,来设定立体像的深度距离。这里,深度距离是指从车辆1的用户眼部的位置或与该眼部位置对应的位置到与显示物对应的立体像的位置的距离。
此时,深度距离设定部22对从摄像头11获取的图像信息执行图像识别处理,来检测用户眼部的位置。深度距离设定部22基于所检测出的眼部的位置来设定深度距离。或者,深度距离设定部22基于与用户眼部的位置相对应的规定位置(例如,距离车辆1的驾驶座头枕前方20厘米的位置等)来设定深度距离。下面,将作为深度距离基准的位置简称为“基准位置”。即,基准位置可以基于实测的结果,也可以使用预先设定的任意位置。
具体而言,例如,显示对象设定部21将表示左右转方向的箭头状的立体物设定为显示物。在这种情况下,深度距离设定部22使用从GPS接收机13获取到的车辆1的位置信息和从导航装置17获取到的表示左右转向地点的位置的信息等,计算出从车辆1的当前位置到左右转向地点的位置的距离。深度距离设定部22将计算出的距离设定为该显示物的深度距离。
或者,例如,将以重叠于正在车辆1前方行驶的其它车辆所在的位置上的状态进行显示的警告用立体物设定为显示物。这种情况下,深度距离设定部22使用由表示雷达传感器14得出的检测结果的信息等,计算出车辆1与该其它车辆之间的距离。深度距离设定部22将计算出的距离设定为该显示物的深度距离。
或者,例如,将以重叠在位于车辆1前方的设施所在的位置上的状态进行显示的强调用立体物设定为显示物。这种情况下,深度距离设定部22使用从GPS接收机13获取到的位置信息和从无线通信装置16获取到的POI信息等,计算出车辆1与该设施之间的距离。深度距离设定部22将计算出的距离设定为该显示物的深度距离。
或者,例如,将以重叠在位于车辆1前方的目的地所在的位置上的状态进行显示的强调用立体物设定为显示物。在这种情况下,深度距离设定部22使用从GPS接收机13获取到的车辆1的位置信息和从导航装置17获取到的表示目的地的位置的信息等,计算出车辆1与目的地之间的距离。深度距离设定部22将计算出的距离设定为该显示物的深度距离。
在上述示例中,说明了将计算出的距离设定为深度距离的情况,但也可以将基于计算出的距离而得到的值设定为深度距离。
图2A所示的双箭头A1示出了从用户B的眼部位置到立体像C1的位置的深度距离的一个示例。此外,图2A所示的双箭头A2示出了从用户B的眼部位置到HUD2所投影的立体视觉用图像的虚像C2的距离的一个示例。下面,将从与深度距离相同的基准位置到HUD2所投影的立体视觉用图像的虚像的距离称为“成像距离”。
图2A的示例中,示出了深度距离A1被设定为大于成像距离A2的值的情况下的示例,但在有些情况下,深度距离A1也可以被设定为与成像距离A2相等的值或小于成像距离A2的值。在深度距离A1被设定为大于成像距离A2的值的情况下,可以通过立体视觉用图像来实现吸引方向、即对于用户来说看向远处侧的立体视觉。另一方面,在深度距离A1被设定为小于成像距离A2的值的情况下,可以通过立体视觉用图像来实现发散方向、即对于用户来说看向近处侧的立体视觉。
另外,在由显示对象设定部21设定了多个显示物的情况下,深度距离设定部22对每一个显示物都分别设定深度距离。
双眼视差设定部23根据深度距离设定部22所设定的深度距离,来设定显示物的双眼视差的值(以下称为“双眼视差值”)。具体而言,双眼视差设定部23基于表示双眼视差值相对于深度距离的特性线(以下称为“第一特性线”)来设定显示物的双眼视差值。第一特性线在图3中用I来表述,是基于人们对深度感的普遍认知特性而得到的。即,第一特性线呈现出对数函数状的特性,且深度距离与成像距离为相等的值时的双眼视差值为零值。
另外,在由显示对象设定部21设定了多个显示物的情况下,双眼视差设定部23对每一个显示物都分别设定双眼视差值。
双眼视差修正部24设定能通过双眼视差设定部23所设定的双眼视差值来进行调整的双眼视差值的范围(以下称为“基准范围”)。下面,将基准范围内的远处侧的上限值记为“远处侧视差上限值”,将基准范围内的近处侧的上限值记为“近处侧视差上限值”。
双眼视差修正部24在双眼视差设定部23所设定的双眼视差值为基准范围外的值的情况下,将该显示物的双眼视差值修正为基准范围内的值。下面,参照图3,对双眼视差修正部24所进行的修正方法的具体示例进行说明。
实施方式1中,双眼视差修正部24针对第一特性线设有远处侧视差上限值PMAX和近处侧视差上限值P-MAX,通过用这两个上限值对基于第一特性线计算出的双眼视差值进行限制,从而修正双眼视差值。图3中,I表示第一特性线,II表示用远处侧视差上限值和近处侧视差上限值双方进行了限制后得到的双眼视差值。此外,ΔP表示基准范围,PMAX表示远处侧视差上限值,P-MAX表示近处侧视差上限值。另外,D0表示第一特性线I中双眼视差值为零值时的深度距离,DMAX表示第一特性线中双眼视差值为与远处侧视差上限值PMAX相等的值时的深度距离,D-MAX表示第一特性线I中双眼视差值为与近处侧视差上限值P-MAX相等的值时的深度距离。
此外,图3中,ΔD1表示第一特性线I中双眼视差值为大于远处侧视差上限值PMAX的值时的深度距离的范围(以下称为“第一深度距离范围”)。ΔD2表示第一特性线I中双眼视差值为在负值侧大于近处侧视差上限值P-MAX的值时的深度距离的范围(以下称为“第二深度距离范围”)。第一特性线I为对数函数状,因此,第一深度距离范围ΔD1成为与远距离区域对应的深度距离范围,第二深度距离范围ΔD2成为与近距离区域对应的深度距离范围。
如图3所示,修正后的双眼视差值是相对于第一特性线I将第一深度距离范围ΔD1内的双眼视差值固定在与远处侧视差上限值PMAX相等的值、并且将第二深度距离范围ΔD2内的双眼视差值固定在与近处侧视差上限值P-MAX相等的值后而得到的。
即,双眼视差修正部24在深度距离设定部22所设定的深度距离在D-MAX~DMAX范围内时(双眼视差值处于基准范围ΔP的范围内时)不进行任何处理。另一方面,在深度距离设定部22所设定的深度距离是超过DMAX并在第一深度距离范围ΔD1内的值的情况下,双眼视差修正部24的修正使得该显示物的双眼视差值向着PMAX降低。如图3所示,此时的降低量ΔP1随着深度距离的变大而逐渐变大。
另外,在深度距离设定部22所设定的深度距离是超过D-MAX并在第二深度距离范围ΔD2内的值的情况下,双眼视差修正部24的修正使得该显示物的双眼视差值向着P-MAX降低。如图3所示,此时的降低量ΔP2随着深度距离的变小而逐渐变大。
这里,图3中用白点和黑点示意性地表述双眼视差值。白点和黑点表示右眼用图像和左眼用图像。深度距离D0时的双眼视差值为0,因此白点和黑点重合。若深度距离自此向着DMAX越来越远,则基于第一特性线,白点和黑点逐渐分离。然后,当深度距离超过DMAX使得白点和黑点进一步分离时,将超过远处侧视差上限值,因此也不再得到立体像。反之,在从深度距离D0逐渐接近D-MAX的情况下,白点和黑点的位置反转,基于第一特性线,白点和黑点逐渐分离。此时,近处侧也与远处侧的情况相同,当超过近处侧视差上限值时,也不再得到立体像。
双眼视差修正部24在修正了双眼视差值的情况下,将修正后的双眼视差值输出到图像生成部27。此外,双眼视差修正部24在没有修正双眼视差值的情况下,将双眼视差设定部23所设定的双眼视差值不经修正地输出到图像生成部27。
双眼视差修正部24在由显示对象设定部21设定了多个显示物的情况下,对每一个显示物分别判定是否需要修正,在需要进行修正的情况下,对每一个显示物分别修正双眼视差值。这种情况下,对于每一个显示物,双眼视差设定部23分别将修正后的双眼视差值或未经修正的双眼视差值输出到图像生成部27。
其它显示方式设定部25根据深度距离设定部22所设定的深度距离,在显示物的显示方式中设定与双眼视差不同的显示方式(以下称为“其它显示方式”)。其它显示方式包含例如HUD2的显示区域(即半透镜4内的至少一部分区域)中的显示物的大小和位置等。即,在上述双眼视差修正部24修正了双眼视差值的情况下直接显示了显示物之后,在所希望的深度距离处不再显示显示物。因此,其它显示方式设定部25通过改变作为会影响深度距离识别的要素的显示物的大小或位置,来表现出显示物仿佛就显示在所希望的深度距离处。要明确的是,本说明书中会影响深度距离识别的要素并不是主观造成的,而是基于深度感相关的人们的普遍认知特性而造成的。
具体而言,例如,其它显示方式设定部25在深度距离设定部22所设定的深度距离较大时,相比于深度距离较小时,使该显示物的大小变小。反之,在深度距离设定部22所设定的深度距离较小时,相比于深度距离较大时,使该显示物的大小变大。即,显示物的大小是人们用于识别与该显示物对应的立体像的深度距离的要素之一。显示物的大小是基于深度感相关的人们的普遍认知特性而设定的。
这里,显示物大小的变更与深度距离之间被设定为对数函数的关系。这在以下说明的显示物的高度方向的位置、显示物的颜色、显示物的阴影、显示物所包含的文字内容等中也是一样的。
以上由其它显示方式设定部25进行的变更与深度距离之间被设定为对数函数的关系并不意味着必须基于深度距离来决定变更量。其结果是,只要与深度距离之间被设定为对数函数的关系即可。例如,双眼视差值的降低量ΔP1与深度距离之间存在唯一的一种关系,因此,也可以基于ΔP1来决定其它显示方式设定部25的变更量。
此外,例如,其它显示方式设定部25在深度距离设定部22所设定的深度距离较大时,相比于深度距离较小时,将该显示物的高度方向位置设定在上方。反之,在深度距离设定部22所设定的深度距离较小时,相比于深度距离较大时,将该显示物的高度方向位置设定在下方。即,显示物的高度方向位置是人们用于识别与该显示物对应的立体像的深度距离的要素之一。显示物的高度方向位置是基于深度感相关的人们的普遍认知特性而设定的。
除此以外,其它显示方式设定部25也可以设定显示物的大小和位置以外的其它显示方式。例如,其它显示方式设定部25也可以设定显示物的颜色、显示物的阴影、显示物所包含的文本内容等。
例如,其它显示方式设定部25在深度距离设定部22所设定的深度距离较大时,相比于深度距离较小时,将该显示物的颜色设定得较浅。反之,在深度距离设定部22所设定的深度距离较小时,相比于深度距离较大时,将该显示物的颜色设定得较深。即,显示物的颜色是人们用于识别与该显示物对应的立体像的深度距离的要素之一。显示物的颜色是基于深度感相关的人们的普遍认知特性而设定的。
另外,其它显示方式设定部25在深度距离设定部22所设定的深度距离较大时,相比于深度距离较小时,将该显示物的阴影设定得较小。反之,在深度距离设定部22所设定的深度距离较小时,相比于深度距离较大时,将该显示物的阴影设定得较大。即,显示物的阴影大小是人们用于识别与该显示物对应的立体像的深度距离的要素之一。显示物的阴影大小是基于深度感相关的人们的普遍认知特性而设定的。
另外,在显示对象设定部21设定了多个显示物的情况下,其它显示方式设定部25对每一个显示物都分别设定其它显示方式。
深度距离设定部22、双眼视差设定部23、双眼视差修正部24和其它显示方式设定部25构成显示方式设定部26。
图像生成部27基于从双眼视差修正部24输入的双眼视差值(即双眼视差设定部23所设定的双眼视差值或双眼视差修正部24修正后的双眼视差值),并基于其它显示方式设定部25所设定的其它显示方式,生成包含显示物的立体视觉用图像。下面,参照图4和图5,对立体视觉用图像的生成方法的具体示例进行说明。
图像生成部27具有3D图形引擎,如图4所示那样设定假想三维空间S。图像生成部27在三维空间S内配置与显示物对应的假想三维模型M、与车辆1的用户的左眼对应的假想摄像头CL、与车辆1的用户的右眼对应的假想摄像头CR。图像生成部27将摄像头CL拍摄包含三维模型M的区域而得到的图像作为左眼用图像,并且将摄像头CR拍摄包含三维模型M的区域而得到的图像作为右眼用图像。
图像生成部27如图5A所示那样将左眼用图像IL和右眼用图像IR分别设为立体视觉用图像。或者,图像生成部27还如图5B所示那样将左眼用图像IL和右眼用图像IR的合成图像IC设为立体视觉用图像。这些图像均包含与三维模型对应的显示物O。
另外,在显示对象设定部21设定了多个显示物的情况下,图像生成部27生成包含所述多个显示物的立体视觉用图像。图4和图5中示出了双视点的立体视觉用图像的示例,但图像生成部27也可以生成三视点以上的多视点的立体视觉用图像。
这里,参照图6,对显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系进行说明。
如图6A所示,对于显示物O,在深度距离设定部22所设定的深度距离为D-MAX~DMAX之间的值的情况下,双眼视差设定部23所设定的双眼视差值为图3所示的基准范围ΔP内的值。这种情况下,不需要双眼视差修正部24进行的修正。图像生成部27将假想三维空间中由摄像头CL拍摄包含与显示物O对应的三维模型的区域而得到的图像设为左眼用图像,将由摄像头CR拍摄包含该三维模型的区域而得到的图像设为右眼用图像,并将左眼用图像和右眼用图像的合成图像IC设为立体视觉用图像。合成图像IC中包含显示物O。
另一方面,如图6B所示,对于显示物O,在深度距离设定部22所设定的深度距离为大于DMAX的值的情况下,双眼视差设定部23所设定的双眼视差值为大于图3所示的远处侧视差上限值PMAX的值。假设在图6B所示的状态下生成了立体视觉用图像的情况下,合成图像IC中的双眼视差变大,有可能产生重影。
因此,双眼视差修正部24使显示物O的双眼视差值降低到基准范围ΔP内的值,例如与图3所示的远处侧视差上限值PMAX相等的值。在图6C所示的状态下生成的合成图像IC的双眼视差变得小于图6B所示的合成图像IC的双眼视差。由此,能够防止重影的发生。然而,如图6C所示,由于与修正后的双眼视差值相对应的显示物O的深度距离是与DMAX相等的值,因此立体像显示在深度距离DMAX处,从而显示在所希望的深度距离的更近处侧。因此,图6C中,相比于图6B的显示物O,显示物的大小变小。此外,希望将图6C所示的显示物O的高度方向位置设定在上方。
图像输出部28将图像生成部27所生成的立体视觉用图像输出到HUD2。HUD2将从图像输出部28输入的立体视觉用图像显示在显示器3上。
由图像输出部27和图像输出部28构成显示控制部29。由显示对象设定部21、显示方式设定部26和显示控制部29构成显示控制装置100的主要部分。
图7A表示显示控制装置100的主要部分的硬件结构一个示例。如图7A所示,显示控制装置100由通用的计算机构成,具有存储器41及处理器42。存储器41中存储有用于使该计算机作为图1所示的显示对象设定部21、显示方式设定部26以及显示控制部29发挥作用的程序。处理器42通过读取并执行存储于存储器41的程序,从而实现图1所示的显示对象设定部21、显示方式设定部26以及显示控制部29的功能。
存储器41例如由RAM(Random Access Memory:随机存取存储器)、ROM(Read OnlyMemory:只读存储器)、闪存、EPROM(Erasable Programmable Read Only Memory:可擦编程只读存储器)或EEPROM(Electrically Erasable Programmable Read-Only Memory:电可擦编程只读存储器)等半导体存储器、HDD(Hard Disk Drive:硬盘驱动器)等磁盘、光盘或光磁盘构成。处理器42例如由CPU(Central Processing Unit:中央处理单元)、GPU(Graphics Processing Unit:图形处理单元)、DSP(Digital Signal Processor:数字信号处理器)、微控制器或微处理器等来构成。
图7B表示显示控制装置100的主要部分的硬件结构的其它示例。如图7B所示,显示控制装置100也可以由专用的处理电路43来构成。处理电路43例如是ASIC(ApplicationSpecific Integrated Circuit:专用集成电路)、FPGA(Field Programmable Gate Array:现场可编程门阵列)、系统LSI(Large Scale Integration:大规模集成电路)或它们的组合。
另外,可以通过处理电路43来分别实现图1所示的显示对象设定部21、显示方式设定部26以及显示控制部29的各个部分的功能,也可以将各个部分的功能汇总由处理电路43来实现。此外,也可以利用图7A所示的存储器41及处理器42来实现图1所示的显示对象设定部21、显示方式设定部26以及显示控制部29中的部分功能,并利用图7B所示的处理电路43来实现其余的功能。
接下来,参照图8的流程图,对显示控制装置100的动作进行说明。显示控制装置100在对显示控制装置100内的各种设定等进行初始化之后,开始步骤ST1的处理。
首先,在步骤ST1中,显示对象设定部21从信息源装置19获取各种信息。
接着,在步骤ST2中,显示对象设定部21从步骤ST1所获取的信息、或使用步骤ST1所获取的信息而生成的信息中设定显示对象信息。此外,显示对象设定部21还设定与显示对象信息对应的1个或多个显示物。
接着,在步骤ST3中,深度距离设定部22设定在步骤ST2中所设定的显示物的深度距离。另外,在步骤ST2中设定了多个显示物的情况下,深度距离设定部22对每一个显示物都分别设定深度距离。
然后,在步骤ST4中,双眼视差设定部23根据在步骤ST3中所设定的深度距离来设定显示物的双眼视差值。即,双眼视差设定部23基于图3所示的对数函数状的第一特性线I来设定显示物的双眼视差值。另外,在步骤ST2中设定了多个显示物的情况下,双眼视差设定部23对每一个显示物都分别设定双眼视差值。
接着,在步骤ST5中,双眼视差修正部24设定基准范围ΔP。接着,在步骤ST6中,双眼视差修正部24判定步骤ST4中所设定的双眼视差值是否是步骤ST5中所设定的基准范围ΔP内的值。
在双眼视差值是基准范围ΔP外的值的情况下(步骤ST6“否”),有可能产生重影,因此在步骤ST7中,双眼误差修正部24将该显示物的双眼视差值修正为基准范围ΔP内的值。具体而言,例如,双眼视差修正部24基于图3所示的远处侧视差上限值或近处侧视差上限值来修正该显示物的双眼视差值。即,在步骤ST4中所设定的双眼视差值是大于远处侧视差上限值PMAX的值的情况下,双眼视差修正部24将该显示物的双眼视差值修正为与远处侧视差上限值PMAX相等的值。另外,在步骤ST4中所设定的双眼视差值是在负值侧大于近处侧视差上限值P-MAX的值的情况下,双眼视差修正部24将该显示物的双眼视差值修正为与近处侧视差上限值P-MAX相等的值。步骤ST8中,双眼视差修正部24将步骤ST7中修正后的双眼视差值输出到图像生成部27。
另一方面,在双眼视差值为基准范围ΔP内的值的情况下(步骤ST6“是”),不会产生重影,因此在步骤ST9中,双眼视差修正部24将步骤ST4中所设定的双眼视差值不经修正地输出到图像生成部27。
另外,在步骤ST2中设定了多个显示物的情况下,双眼视差设定部23对每一个显示物都分别判定是否需要修正(步骤ST6)。对于每一个显示物,双眼视差设定部23分别将修正后的双眼视差值或未经修正的双眼视差值输出到图像生成部27(步骤ST8或步骤ST9)。
然后,在步骤ST10中,其它显示方式设定部25根据在步骤ST3中所设定的深度距离来设定显示物的其它显示方式。即,根据所设定的深度距离,对会影响显示物的深度距离识别的至少一个要素、例如显示物的大小进行设定。这里,会影响深度距离识别的要素例如可举出显示物的大小、高度方向的位置、颜色或阴影等。在双眼视差值是基准范围ΔP内的值的情况下(步骤ST6“是”),也可以不变更显示物的其它显示方式。另外,在步骤ST2中设定了多个显示物的情况下,其它显示方式设定部25对每一个显示物都分别设定其它显示方式。
接着,在步骤ST11中,图像生成部27基于步骤ST8或ST9中从双眼视差修正部24输入的双眼视差值(即步骤ST4中所设定的双眼视差值或步骤ST7中经修正后的双眼视差值),并基于步骤ST10中所设定的其它显示方式,来生成包含显示物的立体视觉用图像。另外,在步骤ST2中设定了多个显示物的情况下,图像生成部27生成包含该多个显示物的立体视觉用图像。
然后,在步骤ST12中,图像输出部28将步骤ST11中所生成的立体视觉用图像输出到HUD2。通过步骤ST12的处理,HUD2将从图像输出部28输入的立体视觉用图像显示在显示器3上。
步骤ST12之后,显示控制装置100判定立体视觉用图像的显示是否结束。具体而言,例如在通过输入到未图示的操作输入装置的操作而将显示控制装置100的功能关闭的情况、车辆1的发动机关闭的情况、或者不再需要与立体视觉用图像所包含的所有显示物相对应的显示对象信息的引导的情况下,显示控制装置100判定为立体视觉用图像的显示结束,从而结束处理。除此以外的情况下,显示控制装置100判定为继续显示立体视觉用图像,并再次开始步骤ST1的处理。
接下来,基于图8的流程图和图9的说明图,对显示控制装置100的动作的具体示例进行说明。
步骤ST2中,显示对象设定部21将表示引导对象的行驶路径中车辆1的左右转向地点的信息设定为显示对象信息。另外,显示对象设定部21将表示该地点的左右转方向的箭头状的立体物设定为显示物。
步骤ST3中,深度距离设定部22使用从GPS接收机13获取到的位置信息和从导航装置17获取到的表示左右转向地点的位置的信息等,计算出从车辆1的当前位置到左右转向地点的位置的距离为30米。深度距离设定部22将该显示物的深度距离设定为30米的值。
步骤ST4中,双眼视差设定部23将第一特性线I中深度距离为30米时的双眼视差值设定为该显示物的双眼视差值。
步骤ST5中,双眼视差修正部24设定基准范围ΔP。此时,例如,远处侧视差上限值PMAX设定为与第一特性线I中深度距离为15米(DMAX)时的双眼视差值相等的值。
在步骤ST6中,双眼视差修正部24判定步骤ST4中所设定的双眼视差值是否是基准范围ΔP内的值。此时,双眼视差修正部24判定为步骤ST4中所设定的双眼视差值(第一特性线I中深度距离为30米时的双眼视差值)是大于视差上限值PMAX(第一特性线I中深度距离为15米时的双眼视差值)的值、即基准范围ΔP外的值(步骤ST6“否”)。
步骤ST7中,双眼视差修正部24基于远处侧视差上限值,将该显示物的双眼视差值修正为与远处侧视差上限值PMAX相等的值。步骤ST8中,双眼视差修正部24将步骤ST7中修正后的双眼视差值输出到图像生成部7。
步骤ST10中,其它显示方式设定部25根据步骤ST3中所设定的深度距离(30米),将该显示物的大小设定得较小,并将其高度方向的位置设定在上方。除此以外,其它显示方式设定部25设定该显示物的颜色和阴影等。
步骤ST11中,图像生成部27基于步骤ST7中经修正后的双眼视差值,并基于步骤ST10中所设定的其它显示方式,来生成包含显示物的立体视觉用图像。步骤ST12中,图像输出部28将步骤ST11中所生成的立体视觉用图像输出到HUD2。
以上说明了显示物的深度距离相比于DMAX处于更远处侧时的情况。与之相反,当显示物的深度距离相比于1.5米(D-MAX)处于更近处侧时,将双眼视差值修正为近处侧双眼视差值P-MAX。而且,其它显示方式设定部25根据步骤ST3中所设定的深度距离(1米),将该显示物的大小设定得较大,并将其高度方向的位置设定在下方。除此以外,其它显示方式设定部25设定该显示物的颜色和阴影等。
另外,当显示物的深度距离为10米且双眼视差值在基准范围ΔP的范围内时,双眼视差修正部24直接输出双眼视差设定部23所设定的双眼视差值,同时其它显示方式设定部25不改变显示物的其它显示方式,不对显示物添加额外的显示方式。
接着,对显示控制装置100的效果进行说明。首先,在根据深度距离而设定的显示物的双眼视差值为基准范围ΔP外的值的情况下,显示控制装置100将该显示物的双眼视差值修正为基准范围ΔP内的值。由此,与专利文献1、2的技术同样地,能够抑制重影的产生。其结果是,能够防止重影妨碍车辆1的驾驶。
这里,在人们对于深度感的认知中,双眼视差通常在深度距离的值较小的区域、即近距离区域~中距离区域内较为重要。另一方面,在深度距离的值较大的区域、即远距离区域内,双眼视差的重要性较低,而大小和高度方向的位置等变得重要。也就是说,当深度距离设定在比DMAX更远处侧时,相比于调整双眼视差值,调整显示物的大小或高度方向的位置更有效果。
与此相对,显示控制装置100的双眼视差值的修正是在与远距离区域对应的第一深度距离范围ΔD1内使双眼视差值降低,此时的降低量ΔP1随着深度距离的变大而逐渐变大。由此,既能如上所述那样抑制重影的产生,又能降低双眼视差值的修正对于用户深度感的认知所造成的影响。
另外,显示控制装置100修正显示物的双眼视差值,并根据深度距离设定显示物的大小或高度方向的位置等其它显示方式。由此,如上所述,即使为了抑制重影的产生而对双眼视差值设置极限,也能降低双眼视差值的修正对于用户深度感的认知造成的影响。例如,对于与车辆1前方30米处的交叉路口等引导对象物相关的显示物,通过双眼视差值的修正,既能防止重影的产生,又能使用户看到至立体像为止的深度距离为约30米。其结果是,能够实现适于HUD2等车载用显示装置的立体视觉。
另外,在设定了多个显示物的情况下,显示控制装置100对每一个显示物分别设定深度距离,对每一个显示物分别设定双眼视差值,根据需要对每一个显示物分别修正双眼视差值,并生成包含这多个显示物的立体视觉用图像。由此,例如,在车辆1前方10米处的与第一引导对象物相关的显示物和车辆1前方30米处的与第二引导对象物相关的显示物同时显示的情况下,可以使用户看到至与第一引导对象物相对应的立体像为止的深度距离为约10米,还能使用户看到至与第二引导对象物相对应的立体像为止的深度距离为约30米。其结果是,能够实现适于HUD2等车载用显示装置的立体视觉。
作为实施方式1的变形例,图像生成部27可以生成不仅包含由显示方式设定部26设定了双眼视差值和其它显示方式的显示物,还包含成为该显示物的比较对象的其它立体物或平面物(以下称为“比较用显示物”)的立体视觉用图像。这里,比较用显示物表现出显示物的深度距离。作为比较用显示物的示例,考虑如下示例:越远则密度越密集地呈现深度距离、通过改变阴影大小来呈现深度距离、或者将用户看到的位于远处侧的显示物与位于近前侧的显示物重叠以使一部分看不到(即,成为位于近前侧的显示物的阴影)等。比较用显示物例如由其它显示方式设定部25生成,并输出到图像生成部27。
图10中示出包含比较用显示物的立体视觉用图像的一个示例。图10A示出了包含箭头状显示物O、由网格状的迹线构成的比较用显示物OC1在内的立体视觉用图像。图10B示出了包含箭头状显示物O、沿着引导对象的行驶路径的圆点线状的比较用显示物OC2在内的立体视觉用图像。如图10所示,通过恰当地设定显示物O和比较用显示物OC1、OC2的位置关系,从而能够进一步减小因双眼视差值的修正对用户深度感的认知所带来的影响。即,能够抑制用户看到的立体像的深度距离偏离深度距离设定部22所设定的深度距离。
另外,如上所述,基准范围ΔP也可以设定为不包含近处侧视差上限值P-MAX但包含视差上限值PMAX以下的所有值的范围。即,双眼视差修正部24在发散方向的立体视觉下可以不进行利用P-MAX来限制双眼视差值的修正,而仅在吸引方向的立体视觉下进行用PMAX来限制双眼视差值的修正。
另外,作为实施方式1的其它变形例,图1中示出了显示控制装置100设置在车辆1内的示例,但显示控制装置100也可以设置在车辆1外。图11中示出了这种情况下的功能框图的一个示例。如图11所示,显示控制装置100设置在车辆1外的服务器6中。显示控制装置100使用设置在服务器6中通信装置31,与设置于车辆1的无线通信装置16自由地进行通信。
无线通信装置16将从摄像头11、摄像头12、GPS接收机13、雷达传感器14、ECU15、导航装置17和HUD驱动控制装置18获取到的各种信息发送到通信装置31。通信装置31将从无线通信装置16接收到的信息和从互联网等外部网络获取到的信息输出至显示控制装置100。显示控制装置100使用从通信装置31输入的信息,来执行上述各处理。另外,图11中,省略了摄像头11、摄像头12、GPS接收机13、雷达传感器14、ECU15、导航装置17和HUD驱动控制装置18各自与无线通信装置16之间的连接线的图示。
图像输出部28将图像生成部27所生成的立体视觉用图像输出到通信装置31。通信装置31将该立体视觉用图像发送至无线通信装置16。无线通信装置16将接收到的立体视觉用图像输出到HUD2。
此外,也可以是如下情况:显示控制装置100中的一部分功能模块设置于车辆1,且其它功能模块设置于服务器6。具体而言,例如可以将显示对象设定部21和显示方式设定部26设置于服务器6,而将显示控制部29设置于车辆1。这种情况下,通过由无线通信装置16和通信装置31适当地收发各种信息,从而可以实现显示控制装置100的上述各处理。
除此以外,显示控制装置100的各功能模块只要是搭载于车辆1、带入车辆1或与车辆1自由地通信的计算机或处理电路,就可以由任意的计算机或处理电路来实现。例如,可以是如下情况:显示控制装置100的一部分或全部功能模块设置在由PND或智能手机等构成的无线通信装置16内。
另外,车辆1也可以具有安装于车辆1的用户头部的头戴显示器(Head MountedDisplay,HMD)来代替HUD2。这种情况下,HMD显示与用户看到的风景相对应的图像,并且以重叠在该风景的图像上的状态来显示立体视觉用图像。
此外,显示控制装置100还可以应用于不同于车辆1的移动体。例如,显示控制装置100可以设置于行人所持的移动通信终端,并在该行人头部所佩戴的HMD上显示立体视觉用图像。
除此以外,显示控制装置100还可以应用于包含摩托车、自行车、铁路车辆、飞机、轮船等在内的任意移动体。另外,作为显示控制装置100的控制对象的显示装置只要能以重叠在从移动体看到的风景或与该风景对应的图像上的状态来显示立体视觉用图像即可,并不限于HUD或HMD。
另外,在设定显示物的双眼视差值时,显示方式设定部26可以通过一个阶段的处理来设定双眼视差值,以代替通过先基于第一特性线I设定双眼视差值、再基于远处侧视差上限值或近处侧视差上限值中的至少任一方来修正双眼视差值这样的两个阶段的处理来设定双眼视差值。这相当于双眼视差设定部的功能和双眼视差修正部的功能一体化的情况。图12中示出这种情况下的功能框图,图13中示出其流程图。
在深度距离设定部22设定深度距离(步骤ST3)之后,在步骤S13中,双眼视差设定部30设定与图3所示的基准范围ΔP相同的基准范围。接着,在步骤ST14中,双眼视差设定部30设定利用远处侧视差上限值或近处侧视差上限值中的至少任意一方对图3所示的第一特性线进行了限制后的双眼视差值。这可以通过对深度距离规定了双眼视差值的映射等来进行设定。然后,在步骤ST15,双眼视差设定部30基于映射来设定显示物的双眼视差值。通过这样使用映射来决定深度距离,从而能够以一个阶段的处理来设定双眼视差值。该映射构成双眼视差设定部和双眼视差修正部。
然后,在步骤ST10中,其它显示方式设定部25基于所设定的双眼视差值,设定显示物的其它显示方式。
然后,在步骤ST11中,图像生成部27基于步骤ST15中所设定的双眼视差值,并基于步骤ST10中所设定的其它显示方式,来生成包含显示物的立体视觉用图像。
如上所述,实施方式1的显示控制装置100是移动体用的显示装置中所使用的显示控制装置100,包括:深度距离设定部22,该深度距离设定部22设定与显示对象信息相对应的显示物的深度距离;双眼视差设定部23,该双眼视差设定部23根据深度距离设定部22所设定的深度距离来设定显示物的双眼视差值;双眼视差修正部24,该双眼视差修正部24对双眼视差设定部23所设定的双眼视差值进行修正;其它显示方式设定部25,该其它显示方式设定部25基于双眼视差值的修正量来变更显示物的显示方式;以及显示控制部29,该显示控制部29基于由双眼视差设定部23所设定的双眼视差值或经双眼视差修正部24修正后的双眼视差值中的任一个来将包含显示物的立体视觉用图像输出到显示装置2,双眼视差修正部24所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,其它显示方式设定部25根据双眼视差值的修正量,至少对显示物的大小进行变更。因此,显示控制装置100既能抑制重影的产生,又能生成适于移动体用的显示装置的立体视觉用图像。
另外,立体视觉用图像包含多个显示物的情况下,深度距离设定部22对每一个显示物分别设定深度距离,双眼视差设定部23对每一个显示物分别设定双眼视差值,双眼视差修正部24对每一个显示物分别修正双眼视差值,其它显示方式设定部25根据每一个显示物的双眼视差值的修正量至少分别对显示物的大小进行变更。由此,即使有多个显示物,也能够独立地生成立体视觉用图像。
另外,双眼视差修正部24以深度距离越远则双眼视差值的降低量ΔP1越大的方式进行修正,且其它显示方式设定部25在修正量ΔP1较大时,相比于该修正量ΔP1较小时,使显示物的大小变得更小。由此,能够提供在第一深度距离范围ΔD1内既抑制重影的产生又能使显示物的立体像显示在所希望的深度距离的立体视觉用图像。
另外,其它显示方式设定部25在双眼视差值的修正量ΔP1较大时,相比于该修正量ΔP1较小时,使显示物相对于前方风景位于更上侧,或使显示物的颜色更浅。由此,能够提供在第一深度距离范围ΔD1内使显示物的立体像显示在所希望的深度距离的立体视觉用图像。
另外,双眼视差修正部24以深度距离越靠近处侧则双眼视差值的降低量越大的方式进行修正,且其它显示方式设定部25在修正量ΔP2较大时,相比于该修正量ΔP2较小时,使显示物的大小变得更大。由此,能够提供在第二深度距离范围ΔD2内既抑制重影的产生又能使显示物的立体像显示在所希望的深度距离的立体视觉用图像。
另外,其它显示方式设定部25在双眼视差值的修正量ΔP2较大时,相比于该修正量ΔP2较小时,使显示物相对于前方风景位于更下侧,或使显示物的颜色更深。由此,能够提供在第二深度距离范围ΔD2内既抑制重影的产生又能使显示物的立体像显示在所希望的深度距离的立体视觉用图像。
另外,其它显示方式设定部25还生成与显示物一并显示且表现出显示物的深度距离的比较用显示物。由此,能够提供对显示物的深度距离进行比较来识别得出的立体视觉用图像。
另外,比较用显示物由3D影像构成,其表现出密度、阴影、重合中的至少一项。即,比较用显示物基于双眼视差值而3D化。即,例如将在近处侧较为稀疏而在远处侧较为密集的比较用显示物、包含在近处侧变大而在远处侧变小的阴影的比较用显示物、或者在具有多个显示物的情况下用近处侧的显示物遮挡远处侧的显示物或者使远处侧的显示物的重叠部分缺失一部分等而形成的比较用显示物组合起来进行显示。由此,能够提供对显示物的深度距离进行比较来识别得出的立体视觉用图像。
另外,双眼视差设定部23基于离双眼视差值为0的位置(D0)越远则双眼视差值越大的第一特性线I来计算显示物的双眼视差值,并且双眼视差修正部24至少在第一特性线I的远处侧设置上限PMAX来修正双眼视差值。由此,能够抑制在第一深度距离ΔD1处产生重影。
另外,双眼视差修正部24在第一特性线I的近处侧设置上限P-MAX来修正双眼视差值。由此,能够抑制在第二深度距离ΔD2处产生重影。
另外,显示控制部29将立体视觉用图像输出到显示装置,以使其重叠在从移动体看到的风景上。由此,能够提供适于移动体用的显示装置的立体视觉用图像。
另外,移动体为车辆1,显示装置由搭载于车辆1的平视显示器2、或车辆的用户头部所佩戴的头戴显示器构成。显示控制装置100能够提供适于车载用显示装置的立体视觉用图像。
另外,移动体为行人,显示装置由行人头部所佩戴的头戴显示器构成。显示控制装置100能够提供适于行人用显示装置的立体视觉用图像。
另外,实施方式1的显示控制方法是移动体用的显示装置所使用的显示控制方法,包括:深度距离设定部22设定与显示对象信息相对应的显示物的深度距离的步骤;双眼视差设定部23根据深度距离设定部22所设定的深度距离来设定显示物的双眼视差值的步骤;双眼视差修正部24对双眼视差设定部23所设定的双眼视差值进行修正的步骤;其它显示方式设定部25基于双眼视差值的修正量来变更显示物的显示方式的步骤;以及显示控制部29基于双眼视差设定部23所设定的双眼视差值或双眼视差修正部24修正后的双眼视差值中的任一个来将包含显示物的立体视觉用图像输出到显示装置的步骤,双眼视差修正部24所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,其它显示方式设定部25根据双眼视差值的修正量,至少对显示物的大小进行变更。因此,能够生成既抑制重影的产生又适于移动体用的显示装置的立体视觉用图像。
实施方式2
实施方式1中,对如下示例进行了说明,即:用远处侧视差上限值或近处侧视差上限值中的至少任一方来限制基于第一特性线而得到的双眼视差值。
与此相对,在实施方式2中,如图16所示,基于深度距离越远则双眼视差值越接近远处侧视差上限值PMAX的第二特性线,来得到双眼视差值。另外,实施方式2中,还对设定HUD显示区域的情况进行说明。另外,设定HUD显示区域也可以在实施方式1中进行。反之,虽然实施方式2中说明了设定HUD显示区域的情况,但在实施方式2中也可以不设定HUD显示区域。
图14是表示本发明实施方式2所涉及的显示控制装置的主要部分的功能框图。图15是表示本发明实施方式2所涉及的HUD的显示区域的一个示例的说明图。图16是本发明实施方式2所涉及的特性图。图17A是表示本发明实施方式2所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的一个示例的说明图。图17B是表示本发明实施方式2所涉及的显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系的其它示例的说明图。参照图14~图17,对实施方式2的显示控制装置100a进行说明。
图14中,对于与图1所示的实施方式1的功能框图相同的模块,标注相同的标号并省略说明。另外,显示控制装置100a的主要部分的硬件结构与实施方式1中参照图7所说明的硬件结构相同,因此省略其图示和说明。另外,图像生成部27a生成立体视觉用图像的方法与实施方式1中参照图4和图5所说明的方法相同,因此省略其图示和说明。
双眼视差修正部24a设定不会产生重影的双眼视差值的基准范围ΔP。图像生成部27a具有未图示的显示区域设定部,设定由HUD2显示立体视觉用图像的范围即矩形D。图15中示出从车辆1的驾驶座透过前挡玻璃4A观察前方的状态的一个示例。这里,以图2B的挡风玻璃型为例进行说明。图中,单点划线所标示的矩形D表示前挡玻璃4A中由HUD2显示立体视觉用图像的区域(以下称为“显示区域”)的一个示例。如实施方式1中所说明的那样,显示物的深度距离越大,则HUD2的显示区域中该显示物的高度方向位置设定得越上方。另外,显示物的深度距离越小,则HUD2的显示区域中该显示物的高度方向位置设定得越下方。因此,在图15的示例中,矩形D的上边部所对应的深度距离相当于最大深度距离,矩形D的下边部所对应的深度距离相当于最小深度距离。图15中,最大深度距离设定为50米。这里,当想要将显示物显示在最大深度距离50米的位置上时,需要考虑显示物的大小而在高度方向上侧留出空间。因此,图15中,考虑到将显示物显示在最大深度距离50米的位置上的情况,矩形D的上边部设定为深度距离70米。这意味着相当于最大深度距离。矩形D的下边部也基于同样的想法,考虑到要给最小深度距离1.5米留出空间,将其设定为与最小深度距离相当的1米。
这里,设定显示立体视觉用图像的区域(矩形D)的理由可以举出使作为光学系统的镜片5或光路的占据空间的小型化。另外,在HUD2是图2C的组合型的情况下,还存在超出组合器4B的显示范围而无法显示立体视觉用图像的限制。
另外,HUD2的显示区域可以根据车辆1的尺寸、HUD2的尺寸和性能、用户眼部的位置等而不同。图像生成部27a也可以从信息源装置19获取表示这些内容的信息,并使用该信息来设定显示区域。
双眼视差修正部24a根据最大深度距离,设定与实施方式1中所说明的第一特性线I不同的特性线II(以下称为“第二特性线”)。双眼视差修正部24a使用第二特性线对双眼视差设定部23所设定的双眼视差值进行修正。下面,参照图16,对第二特性线II的设定方法及双眼视差值的修正方法的具体示例进行说明。
图16中,I表示第一特性线,II表示第二特性线。ΔP表示基准范围,PMAX表示远处侧视差上限值,P-MAX表示近处侧视差上限值。D0表示第一特性线I中双眼视差值为0时的深度距离,DMAX’表示最大深度距离,表示实质上成为远处侧视差上限值的深度距离。D0’表示第二特性线II中双眼视差值为零值时的深度距离。图16的示例中,将D0’设定为与D0相等的值。
如图16所示,第二特性线II是最大深度距离DMAX’处的双眼视差值成为与视差上限值PMAX实质上相等的值的对数函数状的特性线。即,第二特性线II呈现出双眼视差值随着深度距离变大而逐渐增大的特性。另外,在大于D0的深度距离范围内,第二特性线II所示的双眼视差值为小于第一特性线I所示的双眼视差值的值。下面,将第二特性线II所示的双眼视差值为小于第一特性线I所示的双眼视差值的值时的深度距离范围称为“第三深度距离范围”。在第三深度距离范围ΔD3内,第二特性线II所示的双眼视差值与第一特性线I所示的双眼视差值的差分值随着深度距离的变大而逐渐变大。
即,基于第二特性线II的双眼视差值的修正使得双眼视差值在第三深度距离范围ΔD3内降低。此时的降低量ΔP3随着深度距离的变大而逐渐变大。
另外,图像生成部27a将显示区域(矩形D)的范围外的显示物设定为不显示。图像生成部27a在将显示物设定为不显示的情况下,将该显示物从立体视觉用图像中排除。
另外,在显示对象设定部21设定了多个显示物的情况下,双眼视差修正部24a对每一个显示物都分别修正双眼视差值。另外,在这种情况下,图像生成部27a对每一个显示物分别判定是否将该显示物设为不显示。
这里,参照图17,对显示物的深度距离、该显示物的双眼视差值、包含该显示物的立体视觉用图像之间的对应关系进行说明。图17A示出了如下状态,即:针对显示物O,由深度距离设定部22所设定的深度距离是D0与DMAX’之间的值。图17A中还示出了假设在该状态下由图像生成部27生成了立体视觉用图像的情况下的合成图像IC。与此相对,在图17B中示出了与双眼视差修正部24a修正后的双眼视差值相对应的显示物O的深度距离。此外,图17B示出了在上述状态下由图像生成部27所生成的合成图像IC。
即,如图17所示,双眼视差修正部24a的修正是使双眼视差值降低的修正。此时,基于图16所示的第二特性线II,修正前的双眼视差值越大,则修正所带来的降低量ΔP3越大。
由深度距离设定部22、双眼视差设定部23、双眼视差修正部24a和其它显示方式设定部25a构成显示方式设定部26。由显示对象设定部21、显示方式设定部26和显示控制部29构成显示控制装置100a的主要部分。
接下来,参照图18的流程图,对显示控制装置100a的动作进行说明。显示控制装置100a在对显示控制装置100a内的各种设定等进行了初始化之后,开始步骤ST21的处理。
首先,显示对象设定部21执行步骤ST21、ST22的处理,然后,深度距离设定部22执行步骤ST23的处理,接着,双眼视差设定部23执行步骤ST24的处理。步骤ST21~ST24的处理内容与图8所示的步骤ST1~ST4相同,因此省略说明。
接着,在步骤ST25中,双眼视差修正部24a设定与远处侧视差上限值PMAX相当的最大深度距离DMAX’。此时,图像生成部27a内的显示区域设定部设定显示区域(矩形D)。显示区域(矩形D)也可以使用从信息源装置19获取到的信息或由显示对象设定部21生成的信息,根据车辆1的尺寸、HUD2的尺寸和性能、用户眼部的位置、显示对象信息的内容等来进行设定。这里,显示区域(矩形D)的上边部的深度距离大于最大深度距离DMAX’。另外,显示区域(矩形D)的下边部的深度距离可以小于最小深度距离D-MAX’,或者其深度距离也可以等于最小深度距离D-MAX’。
接着,在步骤ST26中,双眼视差修正部24a设定基准范围ΔP,并设定与最大深度距离DMAX’和基准范围ΔP相对应的第二特性线II。双眼视差修正部24a基于第二特性线II,修正步骤ST24中所设定的双眼视差值。
然后,在步骤ST27中,图像生成部27a判定步骤ST25中的显示区域(矩形D)内是否有显示物。在显示区域(矩形D)的范围内有显示物的情况下(步骤ST27“是”),图像生成部27a将显示物设定为进行显示。另外,在步骤ST28中,图像生成部27a使用由双眼视差修正部24a在步骤ST26中进行了修正后的双眼视差值。
另一方面,在显示区域(矩形D)的范围外有显示物的情况下,在步骤ST29中,图像生成部27a将该显示物设定为不显示。
然后,其它显示方式设定部25a执行步骤ST30的处理。根据第二特性线II得到的双眼视差值被设定为深度距离越大,则其降低量ΔP3越大。因而,降低量ΔP3越大,则其它显示方式设定部25a使显示物的大小变得越小。另外,降低量ΔP3越大,则显示物的位置越向高度方向的上方移动。实施上述情况中的至少一种。即,实施方式2与实施方式1的不同点在于,即使是没有达到远处侧视差上限值的深度距离,也根据降低量ΔP3来改变显示物的大小或高度方向位置。
然后,图像生成部27a执行步骤ST31的处理。这里,图像生成部27a在显示区域内有显示物的情况下,基于从双眼视差修正部24a接收到的双眼视差值或修正后的双眼视差值、以及从其它显示方式设定部25a接收到的显示物的显示方式,生成立体视觉用图像。图像输出部28在步骤ST32中将显示区域内的显示物的立体视觉用图像输出到HUD2。其中,当在步骤ST29中将显示物设定为不显示的情况下,在步骤ST31中,图像生成部27a将该显示物从立体视觉用图像中排除。
接下来,基于上述流程图,对显示控制装置100a的动作的具体示例进行说明。
步骤ST22中,显示对象设定部21例如将表示引导对象的行驶路径中的车辆1的左右转向地点的信息设定为显示对象信息。另外,显示对象设定部21将表示该地点的左右转方向的箭头状的立体物设定为显示物。
步骤ST23中,深度距离设定部22使用从GPS接收机13获取到的位置信息和从导航装置17获取到的表示左右转向地点的位置的信息等,计算出从车辆1的当前位置到左右转向地点的位置为止的距离为10米。深度距离设定部22将该显示物的深度距离设定为10米的值。
步骤ST24中,双眼视差设定部23将第一特性线I中深度距离为10米时的双眼视差值设定为该显示物的双眼视差值。
在步骤ST25中,双眼视差修正部24a设定与远处侧视差上限值PMAX相当的最大深度距离DMAX’。此时,图像生成部27a内的显示区域设定部设定显示区域(矩形D)。显示区域(矩形D)也可以使用从信息源装置19获取到的信息或由显示对象设定部21生成的信息,根据车辆1的尺寸、HUD2的尺寸和性能、用户眼部的位置、显示对象信息的内容等来进行设定。这里,双眼视差修正部24a将最大深度距离DMAX’设定为例如50米。此外,图像生成部27a内的显示区域设定部例如将显示区域(矩形D)的上边部设定为70米,将下边部设定为1米。
步骤ST26中,双眼视差修正部24a设定第二特性线II。例如,第二特性线II是深度距离50米(DMAX’)时的双眼视差值为远处侧视差上限值PMAX、深度距离3米(D0’)时的双眼视差值为零、深度距离1.5米(D-MAX’)时的双眼视差值为近处侧视差上限值P-MAX的对数函数状的曲线。如图16的示例所示,与第一特性线I相比,第二特性线II中,第三深度距离范围ΔD3中双眼视差值缓慢降低了ΔP3。
在步骤ST27中,图像生成部27a判定步骤ST25中的显示区域(矩形D)内是否有显示物。本示例中,相对于步骤ST23中所设定的显示物的深度距离为10米的情况,显示区域(矩形D)中能显示的最大深度距离为50米,且最小深度距离为1.5米。即,显示物能够显示在显示区域(矩形D)的范围内(步骤ST27“是”)。步骤ST28中,图像生成部27a采用步骤ST26中的修正后的双眼视差值。
步骤ST30中,其它显示方式设定部25a根据步骤ST23中设定的深度距离(10米),来设定该显示物的大小和高度方向位置。如图16所示,与第一特性线I相比,第三深度距离范围ΔD3的双眼视差值在第二特性线II中被设定得更小。即,根据第二特性线II,在比所希望的深度距离即10米更靠近处侧显示立体像。因此,其它显示方式设定部25a以使显示物的大小变小且使高度方向位置向上方移动从而在10米的深度距离出现显示物的方式对立体视觉用图像进行修正。除此以外,其它显示方式设定部25a设定该显示物的颜色和阴影等。
步骤ST31中,图像生成部27a基于步骤ST26中修正后的双眼视差值,并基于步骤ST30中设定的其它显示方式,生成包含显示物的立体视觉用图像。在步骤ST32中,图像输出部28将步骤ST31中生成的立体视觉用图像输出到HUD2。
接着,对显示控制装置100a的效果进行说明。首先,显示控制装置100a根据最大深度距离DMAX’设定第二特性线II,并基于该第二特性线II修正双眼视差值。即,在第三深度距离范围ΔD3的几乎整个范围内都慢慢地对双眼视差值进行修正,因此,与超过远处侧视差上限值PMAX后进行修正的实施方式1相比,能够向用户提供不协调感更小的立体视觉用图像。
尤其是在有多个显示物的情况下,相对于实施方式1的显示控制装置100,显示控制装置100a能够减轻用户所体会到的不协调感。
例如,显示对象设定部21设定第一显示物和第二显示物,深度距离设定部22将第一显示物的深度距离设定为14米,并且将第二显示物的深度距离设定为30米,将第一特性线I中深度距离为15米时的双眼视差值设定为视差上限值PMAX。这里,根据实施方式1,对第一显示物不进行任何修正,对第二显示物除了进行双眼视差值的修正外,还进行大小和高度方向位置等的修正。由此,在未经修正的第一显示物和修正后的第二显示物同时显示的情况下,可能会让用户感受到不协调感。
与此相对,在基于图16所示的第二特性线II的修正中,通过第三深度距离范围ΔD3的设定,对第一显示物和第二显示物这两个显示物都进行双眼视差值的修正,还分别调整大小或高度方向位置。由此,减少了其中一个显示物未经修正而另一个显示物被修正这样的状况,因此能够向用户提供不容易感受到不协调感的立体视觉用图像。
另外,第三深度距离范围ΔD3并不限于图16所示的大于D0的深度距离范围。即,在第一特性线I和第二特性线II为实质相同的曲线的区域内用第二特性线来进行修正并没有意义。因此,在设定第二特性线II时,将第一特性线I和第二特性II实质上有差异的深度距离范围设为第三深度距离范围ΔD3。
另外,显示方式设定部26也可以具有图1所示的双眼视差修正部24和图14所示的双眼视差修正部24a这两部分。同样地,显示方式设定部26也可以具有图1所示的其它显示方式设定部25和图14所示的其它显示方式设定部25a这两部分。在显示对象设定部21设定了多个显示物的情况下,也可以根据与各显示物相对应的显示对象信息的内容或各显示物之间的对应关系等,对每一个显示物分别由双眼视差修正部24和双眼视差修正部24a中的任一方来执行双眼视差值的修正。对于其它显示方式设定部25、25a也相同。
除此以外,显示控制装置100a可以采用与实施方式1中所说明的内容相同的各种变形例。例如,图像生成部27a也可以生成包含比较用显示物的立体视觉用图像。另外,显示控制装置100a的各功能模块只要是搭载于车辆1、带入车辆1或与车辆1自由地通信的计算机或处理电路,就可以由任意的计算机或处理电路来实现。另外,显示控制装置100a也可以应用于不同于车辆1的移动体,也可以用于不同于HUD2的显示装置。
另外,在设定显示物的双眼视差值时,显示方式设定部26可以通过基于第二特性线II设定双眼视差值(步骤ST34)这样的一个阶段的处理来设定双眼视差值,以代替通过先基于第一特性线I设定双眼视差值(步骤ST24)、再基于第二特性线II修正双眼视差值(步骤ST26)这样的两个阶段的处理来设定双眼视差值。即,双眼视差设定部的功能和双眼视差修正部的功能也可以合并成一个来构成。图19中示出这种情况下的功能框图,图20中示出其流程图。
在深度距离设定部22设定深度距离(步骤ST23)之后,在步骤S33中,双眼视差设定部30a设定与远处侧视差上限值PMAX相当的最大深度距离DMAX’。此外,图像生成部27a内的显示区域设定部设定显示区域(矩形D)。接着,在步骤ST34中,双眼视差设定部30a根据最大深度距离DMAX’,设定图16所示的第二特性线II。双眼视差设定部30a基于第二特性线II设定显示物的双眼视差值。即,双眼视差设定部30a构成双眼视差设定部和双眼视差修正部。
然后,在步骤ST35中,图像生成部27a判定显示物是否能显示在步骤ST33中设定的显示区域(矩形D)内。在显示物能够显示在显示区域(矩形D)内的情况下(步骤ST35“是”),在步骤ST36中,图像生成部27a采用步骤ST34中所设定的双眼视差值。
另一方面,在所设定的显示区域(矩形D)外有显示物的情况下(步骤ST35“否”),在步骤ST37中,图像生成部27a将该显示物设定为不显示。
然后,其它显示方式设定部25a执行步骤ST30的处理,图像生成部27a执行步骤ST31的处理,图像输出部28执行步骤ST32的处理。其中,当在步骤ST37中将显示物设定为不显示的情况下,在步骤ST31中,图像生成部27a将该显示物从立体视觉用图像中排除。
如上所述,实施方式2的显示控制装置100a是在移动体用的显示装置中所使用的显示控制装置100a,双眼视差设定部23基于离双眼视差值为0的位置(D0)越远则双眼视差值越大的第一特性线I来计算显示物的双眼视差值,并且双眼视差修正部24a基于随着深度距离变远而向着远处侧视差上限值PMAX变大的第二特性线II来修正双眼视差值。由此,能够向用户提供不易产生不协调感的立体视觉用图像。另外,双眼视差设定部和双眼视差修正部可以由双眼视差设定部30a来构成。
另外,显示控制部29具备显示区域设定部,该显示区域设定部设定将比双眼视差值的远处侧所设的上限PMAX所对应的深度距离DMAX’还要远的区域包含在内来进行显示的显示区域(矩形D),当显示物的显示位置脱离了显示区域(矩形D)时,将该显示物设为不显示。由此,能够将显示物显示在恰当的显示区域中。
实施方式3
上述实施方式1和实施方式2中,以用户的俯视角度保持预先设定的基准俯视角度不变为前提来进行了说明。实施方式3中考虑用户的俯视角度变化的情况,根据用户的俯视角度来调整光学系统和调整显示方式,从而使显示物看起来就像在与从基准俯视角度看时相同的位置。另外,实施方式3可以适用于实施方式1或实施方式2。
图21是表示俯视角度与显示装置的关系的说明图这里,俯视角度是指用户相对于水平方向0度俯视显示装置的角度θ。俯视角度变化的主要原因在于用户眼睛的高度和投影用的半透镜4上投影的立体视觉用图像的位置关系。眼睛的高度随着用户的姿势或者每个用户的坐高而变化。立体视觉用图像的位置随着角度调整装置5A的角度而变化。图21示出了根据用户眼睛的高度和立体视觉用图像的位置关系来决定虚像C1的俯视角度的情况。
下面,利用附图进行详细说明。
图22是表示对实施方式1应用了实施方式3时的显示控制装置100b的主要部分的功能框图。俯视角度运算部61获取用户眼睛高度的信息和投影在半透镜4上的立体视觉用图像的位置的信息,来计算用户的俯视角度。用户眼睛高度的信息可以考虑基于从摄像头11得到的用户的图像来求出等。用户眼睛的高度和立体视觉用图像的位置可以通过由信息源装置19进行计算而得到,也可以基于从信息源装置19得到的信息由俯视角度运算部61来进行计算。
俯视角度运算部61运算得到的俯视角度被提供给俯视角度调整指示部62。俯视角度调整指示部62具有例如基准俯视角度,基于该基准俯视角度与俯视角度运算部61运算得到的俯视角度的差异,来指示光学系统的调整、并指示其它显示方式设定部25进行显示方式的调整。这里,光学系统是指例如镜片5的角度。另外,显示方式的调整是指由其它显示方式设定部25进行的对显示于显示器3的立体视觉用图像中的显示物的形状、位置和大小等显示方式的调整。这里,显示方式的调整是指即使俯视角度发生变化也保持以基准俯视角度进行观察时的显示方式。
由图像生成部27、图像输出部28、俯视角度运算部61和俯视角度调整指示部62构成显示控制部29。由显示对象设定部21、显示方式设定部26和显示控制部29构成显示控制装置100b的主要部分。
首先,作为光学系统,对调整镜片5的角度的情况进行说明。
俯视角度调整指示部62从信息源装置19获取镜片5的角度信息,并调整镜片5的角度以使用户的俯视角度与基准俯视角度一致。为了调整镜片5的角度,俯视角度调整指示部62向HUD驱动控制装置18输出调整镜片5的角度的指示信号。HUD驱动控制装置18根据该指示信号驱动角度调整装置5A,以将镜片5调整至所希望的角度。
由此,即使用户的眼睛高度发生变化,也能够保持基准俯视角度。而且,通过保持基准俯视角度,从而即使用户的眼睛位置发生变化,也能将显示物显示在与基准俯视角度相同的位置上。
接着,作为显示方式的调整,对调整显示器3的立体视觉用图像中的显示物的形状、位置和大小等的情况进行说明。
俯视角度调整指示部62基于基准俯视角度与俯视角度运算部61运算得到的俯视角度的差异,运算出显示物要向哪个方向偏离多少来进行显示、及其偏离量。另外,该偏离量受用户眼睛的位置和镜片5的角度的影响。因此,俯视角度调整指示部62从信息源装置19获取用户眼睛的位置和镜片5的角度并用于运算。上述偏离量被提供给其它显示方式设定部25。每当其它显示方式设定部25设定显示物的显示方式时,将偏离量考虑在内来调整显示物的形状、位置、大小等显示方式。
由此,即使用户眼睛的高度发生变化,也能够将显示物显示在与基准俯视角度相同的位置。
另外,以上对具备镜片5的角度调整和显示器3的图像处理双方的示例进行了图示说明,但也不一定要双方都具备,也可以采用其中任一方。
图23是表示对实施方式2应用了实施方式3时显示控制装置100c的主要部分的功能框图。图23的显示控制装置100c在俯视角度发生变化时,也进行使显示物看起来像与从基准俯视角度看到时相同的方式进行显示,基本上与图22的显示控制装置100b相同。
即,由图像生成部27a、图像输出部28、俯视角度运算部61和俯视角度调整指示部62构成显示控制部29。由显示对象设定部21、显示方式设定部26和显示控制部29构成显示控制装置100c的主要部分。
这里,实施方式2中,也可以由图像生成部27a内的显示区域设定部来设定显示区域(矩形D)。在用户的俯视角度发生变化的情况下,不仅显示物的位置发生变化,显示区域(矩形D)也发生变化。
例如,在用户眼睛的高度较高的情况下,俯视角度变大。这种情况下,变成用户看到的显示区域(矩形D)被设定在高度方向的下方的状态。另一方面,在用户眼睛的高度较低的情况下,俯视角度变小。这种情况下,变成用户看到的显示区域(矩形D)被设定在高度方向的上方的状态。
具体而言,图15中说明了显示区域(矩形D)的上边部被设定为70米的情况。这里,在用户眼睛的高度较高的情况下,俯视角度变大。这种情况下,变成用户看到的显示区域(矩形D)被设定在高度方向的下方的状态。即,显示区域(矩形D)变成例如上边部被设定为60米的状态。因此,为了改变镜片5的角度,俯视角度调整指示部62指示HUD驱动控制装置18调整角度。
即,利用HUD驱动控制装置18调整镜片5的角度,以使与用户看到的前挡玻璃4A的位置相对的显示区域(矩形D)的位置不变。例如,HUD驱动控制装置18基于俯视角度调整指示部62的指示信号,在俯视角度大于基准值时,也调整镜片5的角度,以使显示区域(矩形D)的上边部变为70米。
由此,即使用户的俯视角度发生变化,与前挡玻璃4A相对的显示区域(矩形D)的上边部的相对位置也不变化。
另外,若是对应于因用户换人而导致眼睛高度发生变化的情况,则实施方式3的调整可以在乘车时实施。另外,若对应于因用户的姿势变化导致眼睛的高度发生变化的情况,则例如可以用摄像头11监视用户并在姿势发生了变化时实施。
另外,在上述实施方式2、实施方式3中,举例说明了矩形D作为显示区域,但只要是指定区域的形状即可,并不限于矩形。例如,也可以是仅指定上边部和下边部的带状。或者,也可以仅指定上边部而不指定下边部。
如上所述,实施方式3的显示控制装置100b、100c是在移动体用的显示装置中所使用的显示控制装置100b、100c,具备计算移动体的用户的俯视角度θ的俯视角度运算部61,显示控制部29基于基准俯视角度和运算得到的俯视角度的差异,来调整光学系统或显示物的显示方式。由此,即使用户的俯视角度发生变化,也能够将显示物显示在与基准俯视角度时相同的位置上。
另外,显示控制部29调整显示物的显示方式,以使得从运算得到的俯视角度看到的显示物看起来像是在与从基准俯视角度看到的显示物相同的位置上。由此,即使用户的俯视角度发生变化,也能够将显示物显示在与基准俯视角度时相同的位置上。
另外,显示控制部29具备显示区域设定部,该显示区域设定部设定将比双眼视差值的远处侧所设的上限PMAX所对应的深度距离DMAX’还要远的区域包含在内来进行显示的显示区域(矩形D),该显示控制部29调整光学系统,以使得从运算得到的俯视角度看到的显示区域的上边部和从基准俯视角度看到的显示区域的上边部一致。由此,即使俯视角度发生变化,也能够将显示物显示在用户看到的显示区域内。
另外,显示控制部29输出用于调整光学系统的角度的指示信号,以使得从运算得到的俯视角度看到的显示区域与从基准俯视角度看到的显示区域成为相同区域。由此,即使俯视角度发生变化,用户看到的显示区域也不变化。
另外,本申请发明可以在其发明的范围内对各实施方式进行自由组合,或对各实施方式的任意构成要素进行变形、或省略各实施方式中的任意的构成要素。
工业上的实用性
本发明的显示控制装置和显示控制方法能够用于在移动体中显示立体视觉图像的HUD或HMD等的控制。
标号说明
1车辆;2HUD;3显示器;4半透镜;4A前挡玻璃;4B组合器;5镜片;5A角度调整装置;6服务器;7图像生成部;11摄像头;12摄像头;13GPS接收机;14雷达传感器;15ECU;16无线通信装置;17导航装置;18HUD驱动控制装置;19信息源装置;21显示对象设定部;22深度距离设定部;23双眼视差设定部;24、24a双眼视差修正部;25、25a其它显示方式设定部;26显示方式设定部;27、27a图像生成部;28图像输出部;29显示控制部;30、30a双眼视差设定部;31通信装置;41存储器;42处理器;43处理电路;61俯视角度运算部;62俯视角度调整指示部;100、100a、100b、100c显示控制装置。

Claims (21)

1.一种显示控制装置,使用于移动体用的显示装置,其特征在于,包括:
深度距离设定部,该深度距离设定部设定与显示对象信息相对应的显示物的深度距离;
双眼视差设定部,该双眼视差设定部根据所述深度距离设定部所设定的深度距离来设定所述显示物的双眼视差值;
双眼视差修正部,该双眼视差修正部对所述双眼视差设定部所设定的双眼视差值进行修正;
其它显示方式设定部,该其它显示方式设定部基于所述双眼视差值的修正量来变更所述显示物的显示方式;以及
显示控制部,该显示控制部基于由所述双眼视差设定部所设定的双眼视差值和经所述双眼视差修正部修正后的双眼视差值中的任一个,将包含所述显示物的立体视觉用图像输出到所述显示装置,
所述双眼视差修正部所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,所述其它显示方式设定部根据双眼视差值的修正量,至少对所述显示物的大小进行变更。
2.如权利要求1所述的显示控制装置,其特征在于,
所述立体视觉用图像包含多个所述显示物,
所述深度距离设定部对每一个所述显示物分别设定深度距离,
所述双眼视差设定部对每一个所述显示物分别设定双眼视差值,
所述双眼视差修正部对每一个所述显示物分别修正双眼视差值,
所述其它显示方式设定部根据每一个所述显示物的双眼视差值的修正量,至少分别对所述显示物的大小进行变更。
3.如权利要求1所述的显示控制装置,其特征在于,
所述双眼视差修正部进行修正,以使得所述深度距离越靠远处则双眼视差值的降低量越大,
并且,所述其它显示方式设定部在所述修正量较大时,相比于该修正量较小时,使所述显示物的大小变得更小。
4.如权利要求3所述的显示控制装置,其特征在于,
所述其它显示方式设定部在所述双眼视差值的修正量较大时,相比于该修正量较小时,使所述显示物相对于前方风景位于更上侧,或者使所述显示物的颜色更浅。
5.如权利要求1所述的显示控制装置,其特征在于,
所述双眼视差修正部进行修正,以使得所述深度距离越靠近处侧则双眼视差值的降低量越大,
并且,所述其它显示方式设定部在所述修正量较大时,相比于该修正量较小时,使所述显示物的大小变得更大。
6.如权利要求5所述的显示控制装置,其特征在于,
所述其它显示方式设定部在所述双眼视差值的修正量较大时,相比于该修正量较小时,使所述显示物相对于前方风景位于更下侧,或者使所述显示物的颜色更深。
7.如权利要求1所述的显示控制装置,其特征在于,
所述其它显示方式设定部生成比较用显示物,该比较用显示物与所述显示物一并显示,表现出所述显示物的深度距离。
8.如权利要求7所述的显示控制装置,其特征在于,
所述比较用显示物表现出密度、阴影及重合中的至少一种。
9.如权利要求1所述的显示控制装置,其特征在于,
所述双眼视差设定部基于离双眼视差值为零的位置越远则双眼视差值越大的第一特性线,来计算所述显示物的双眼视差值,
并且,所述双眼视差修正部至少在所述第一特性线的远处侧设置上限来修正双眼视差值。
10.如权利要求9所述的显示控制装置,其特征在于,
所述双眼视差修正部在所述第一特性线的近处侧设置上限来修正双眼视差值。
11.如权利要求1所述的显示控制装置,其特征在于,
所述双眼视差设定部基于离双眼视差值为零的位置越远则双眼视差值越大的第一特性线,来计算所述显示物的双眼视差值,
并且,所述双眼视差修正部基于随着所述深度距离变远而向远处侧的视差上限值变大的第二特性线来修正双眼视差值。
12.如权利要求11所述的显示控制装置,其特征在于,
所述双眼视差修正部至少在所述第一特性线的近处侧设置上限来修正双眼视差值。
13.如权利要求1所述的显示控制装置,其特征在于,
所述显示控制部具备显示区域设定部,该显示区域设定部设定将比与双眼视差值的远处侧所设置的上限相对应的所述深度距离更远的区域包含在内来进行显示的显示区域,
当所述显示物的显示位置脱离所述显示区域时,设为不显示。
14.如权利要求1所述的显示控制装置,其特征在于,
具备俯视角度运算部,该俯视角度运算部运算所述移动体的用户的俯视角度,
所述显示控制部基于基准俯视角度和运算得到的所述俯视角度的差异,调整光学系统或所述显示物的显示方式。
15.如权利要求14所述的显示控制装置,其特征在于,
所述显示控制部调整所述显示物的显示方式,以使从运算得到的所述俯视角度看到的显示物看起来位于与从所述基准俯视角度看到的显示物相同的位置。
16.如权利要求14所述的显示控制装置,其特征在于,
所述显示控制部具备显示区域设定部,该显示区域设定部设定将比与双眼视差值的远处侧所设置的上限相对应的所述深度距离更远的区域包含在内来进行显示的显示区域,
所述显示控制部调整所述光学系统,以使从运算得到的所述俯视角度看到的显示区域的上边部与从所述基准俯视角度看到的显示区域的上边部一致。
17.如权利要求16所述的显示控制装置,其特征在于,
所述显示控制部输出调整所述光学系统的角度的指示信号,以使从运算得到的所述俯视角度看到的显示区域与从所述基准俯视角度看到的显示区域为相同的区域。
18.如权利要求1所述的显示控制装置,其特征在于,
所述显示控制部将所述立体视觉用图像输出到所述显示装置,以重叠在从所述移动体看到的风景上。
19.如权利要求18所述的显示控制装置,其特征在于,
所述移动体是车辆,
所述显示装置由搭载于所述车辆的平视显示器或所述车辆的用户头部所佩戴的头戴显示器构成。
20.如权利要求18所述的显示控制装置,其特征在于,
所述移动体是行人,
所述显示装置由所述行人的头部所佩戴的头戴显示器构成。
21.一种显示控制方法,使用于移动体用的显示装置,其特征在于,包括:
深度距离设定部设定与显示对象信息相对应的显示物的深度距离的步骤;
双眼视差设定部根据所述深度距离设定部所设定的深度距离来设定所述显示物的双眼视差值的步骤;
双眼视差修正部对所述双眼视差设定部所设定的双眼视差值进行修正的步骤;
其它显示方式设定部基于所述双眼视差值的修正量来变更所述显示物的显示方式的步骤;以及
显示控制部基于由所述双眼视差设定部所设定的双眼视差值和经所述双眼视差修正部修正后的双眼视差值中的任一个,将包含所述显示物的立体视觉用图像输出到所述显示装置的步骤,
所述双眼视差修正部所进行的修正至少在一部分深度距离范围内使双眼视差值降低,并且,所述其它显示方式设定部根据双眼视差值的修正量,至少对所述显示物的大小进行变更。
CN201680090332.0A 2016-10-28 2016-10-28 显示控制装置及显示控制方法 Withdrawn CN109863747A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/082069 WO2018078798A1 (ja) 2016-10-28 2016-10-28 表示制御装置及び表示制御方法

Publications (1)

Publication Number Publication Date
CN109863747A true CN109863747A (zh) 2019-06-07

Family

ID=62023234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680090332.0A Withdrawn CN109863747A (zh) 2016-10-28 2016-10-28 显示控制装置及显示控制方法

Country Status (5)

Country Link
US (1) US20190241070A1 (zh)
JP (1) JP6494877B2 (zh)
CN (1) CN109863747A (zh)
DE (1) DE112016007208T5 (zh)
WO (1) WO2018078798A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112484743A (zh) * 2020-12-03 2021-03-12 安徽中科新萝智慧城市信息科技有限公司 车载hud融合实景导航显示方法及其系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017064797A1 (ja) * 2015-10-15 2017-04-20 日立マクセル株式会社 情報表示装置
JP2017211694A (ja) * 2016-05-23 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102397089B1 (ko) * 2017-07-28 2022-05-12 삼성전자주식회사 이미지 처리 방법 및 이미지 처리 장치
KR102468729B1 (ko) * 2017-09-29 2022-11-21 삼성전자주식회사 전자 장치 및 전자 장치의 객체 센싱 방법
CN109737983B (zh) * 2019-01-25 2022-02-22 北京百度网讯科技有限公司 用于生成行驶路径的方法和装置
EP4057049A4 (en) * 2019-11-05 2023-11-15 Kyocera Corporation HEAD-UP DISPLAY, HEAD-UP DISPLAY SYSTEM, AND MOVING BODY
US11037359B1 (en) * 2020-06-24 2021-06-15 Microsoft Technology Licensing, Llc Real-time rendering stylized passthrough images
US11953697B1 (en) * 2023-05-05 2024-04-09 Ford Global Technologies, Llc Position tracking sensor in a head up display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102474644A (zh) * 2010-06-07 2012-05-23 索尼公司 立体图像显示系统、视差转换装置、视差转换方法以及程序
CN102821290A (zh) * 2011-06-06 2012-12-12 索尼公司 图像处理设备、图像处理方法以及程序
WO2014034464A1 (ja) * 2012-08-31 2014-03-06 ソニー株式会社 データ処理装置、データ処理方法、送信装置および受信装置
US20150213648A1 (en) * 2014-01-29 2015-07-30 Ricoh Co., Ltd Depth-Disparity Calibration of a Binocular Optical Augmented Reality System

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62173336A (ja) * 1986-01-23 1987-07-30 Yazaki Corp 車載用ヘツドアツプデイスプレイ装置
JP3717534B2 (ja) * 1994-05-12 2005-11-16 オリンパス株式会社 映像表示装置
JP4476719B2 (ja) * 2004-07-02 2010-06-09 よこはまティーエルオー株式会社 ナビゲーションシステム
JP2010143520A (ja) * 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法
JP4956658B2 (ja) 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
JP5861293B2 (ja) * 2011-07-20 2016-02-16 日産自動車株式会社 車輌用映像表示装置
JP2015115676A (ja) 2013-12-10 2015-06-22 船井電機株式会社 表示装置、画像出力装置
JP6304628B2 (ja) * 2014-05-12 2018-04-04 パナソニックIpマネジメント株式会社 表示装置および表示方法
JP2016097921A (ja) * 2014-11-26 2016-05-30 マツダ株式会社 車両用運転支援表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102474644A (zh) * 2010-06-07 2012-05-23 索尼公司 立体图像显示系统、视差转换装置、视差转换方法以及程序
CN102821290A (zh) * 2011-06-06 2012-12-12 索尼公司 图像处理设备、图像处理方法以及程序
WO2014034464A1 (ja) * 2012-08-31 2014-03-06 ソニー株式会社 データ処理装置、データ処理方法、送信装置および受信装置
US20150213648A1 (en) * 2014-01-29 2015-07-30 Ricoh Co., Ltd Depth-Disparity Calibration of a Binocular Optical Augmented Reality System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112484743A (zh) * 2020-12-03 2021-03-12 安徽中科新萝智慧城市信息科技有限公司 车载hud融合实景导航显示方法及其系统
CN112484743B (zh) * 2020-12-03 2022-09-20 安徽中科新萝智慧城市信息科技有限公司 车载hud融合实景导航显示方法及其系统

Also Published As

Publication number Publication date
US20190241070A1 (en) 2019-08-08
JP6494877B2 (ja) 2019-04-03
WO2018078798A1 (ja) 2018-05-03
JPWO2018078798A1 (ja) 2019-01-24
DE112016007208T5 (de) 2019-06-06

Similar Documents

Publication Publication Date Title
CN109863747A (zh) 显示控制装置及显示控制方法
WO2021197189A1 (zh) 基于增强现实的信息显示方法、系统、装置及投影设备
US11241960B2 (en) Head up display apparatus and display control method thereof
US20200173803A1 (en) Vision augmented navigation
EP3136964B1 (en) Improved registration for vehicular augmented reality using auto-harmonization
CN107554425B (zh) 一种增强现实车载平视显示器ar-hud
US8994558B2 (en) Automotive augmented reality head-up display apparatus and method
US6956503B2 (en) Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
CN110001400A (zh) 车辆用显示装置
US10796415B2 (en) Image processing device, display device, navigation system, and image processing method
JP2014201197A (ja) ヘッドアップディスプレイ装置
US20130265331A1 (en) Virtual Reality Telescopic Observation System of Intelligent Electronic Device and Method Thereof
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
KR20130059650A (ko) 헤드업 디스플레이의 컨텐츠 초점 제어 장치 및 방법
JP2022034511A (ja) コンテンツを可視化する装置及び方法
KR20120066472A (ko) 전방 물체를 이용한 증강 현실 출력 장치 및 방법
US20220013046A1 (en) Virtual image display system, image display method, head-up display, and moving vehicle
JP2008037118A (ja) 車両用表示装置
KR101637298B1 (ko) 증강 현실을 이용한 차량용 헤드 업 디스플레이 장치
US12039898B2 (en) Image display system
US20230015904A1 (en) System and method for providing visual assistance to an individual suffering from motion sickness
CN117173252A (zh) Ar-hud驾驶员眼盒标定方法、系统、设备及介质
CN118451490A (zh) 显示方法、装置及系统
WO2019142364A1 (ja) 表示制御装置、表示制御システム及び表示制御方法
JP2024518254A (ja) 運転支援方法及びシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20190607