CN107181939A - 基于摄像头的裸眼三维成像方法及系统 - Google Patents

基于摄像头的裸眼三维成像方法及系统 Download PDF

Info

Publication number
CN107181939A
CN107181939A CN201710324852.XA CN201710324852A CN107181939A CN 107181939 A CN107181939 A CN 107181939A CN 201710324852 A CN201710324852 A CN 201710324852A CN 107181939 A CN107181939 A CN 107181939A
Authority
CN
China
Prior art keywords
user
camera
image
coordinate
space coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710324852.XA
Other languages
English (en)
Inventor
廖治文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710324852.XA priority Critical patent/CN107181939A/zh
Publication of CN107181939A publication Critical patent/CN107181939A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及裸眼三维显示技术领域,具体涉及基于摄像头的裸眼三维成像方法及系统。本发明提供的一种基于摄像头的裸眼三维成像方法,包括:根据图像采集装置实时输出数据得到用户的空间坐标;根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;所述3D引擎根据所述相机参数调整旋转显示的三维对象。本发明提供的基于摄像头的裸眼三维成像方法及系统,通过软件算法及简单的硬件即可逼真显示立体影像,用户无需佩戴任何3D眼镜等设备,即可实现裸眼3D,降低了裸眼3D技术的成本,拓宽了裸眼三维成像技术的应用范围,使得裸眼3D显示技术真正进入到消费领域。

Description

基于摄像头的裸眼三维成像方法及系统
技术领域
本发明涉及裸眼三维显示技术领域,具体涉及基于摄像头的裸眼三维成像方法及系统。
背景技术
目前,比较成熟的三维立体显示技术共可以分为分光立体眼镜、自动分光立体显示、全息显示技术三大类。
其中的前两类应该都是大家很熟悉的技术了,它们都采用了视差的方式来给人以3D显示的感觉:分别为左眼和右眼显示稍有差别的图像,从而欺骗大脑,令观察者产生3D的感觉。由于人为制造视差的方式所构造的3D景象并不自然,它加重了观察者的脑力负担,因此看久了会令人头痛。这两类技术的实现依附于特殊的显示设备,比如,传统的多视角三维显示时基于几何光学原理实现的,其显示设备需要制成柱透镜阵列;另外,用户还需要佩戴特殊的设备,如3D眼镜,才能观体验到3D效果。
而全息术则利用的并不是数字化的手段,而是光波的干涉和衍射,它一般只能生成静态的三维光学场景,并且对观察角度还有要求,所以就目前而言,它对于人机交互应用而言还并不适合。
虽然,国内外均有不少三维显示技术及成熟的产品,但由于图像分辨率、视觉疲劳、成本昂贵、体积庞大等诸多问题的限制,裸眼3D显示一直未能真正进入消费领域。
发明内容
针对现有技术中的缺陷,本发明提供的基于摄像头的裸眼三维成像方法及系统,无需昂贵的显示设备,通过软件算法和简单的硬件即可实现裸眼3D显示,降低了裸眼三维成像技术的成本。
第一方面,本发明提供的一种基于摄像头的裸眼三维成像方法,包括:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;
所述3D引擎根据所述相机参数调整旋转显示的三维对象。
本发明提供的基于摄像头的裸眼三维成像方法,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3D眼镜等设备,能够实现裸眼3D,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3D,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3D显示技术真正进入到消费领域。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:接收第一摄像头采集的第一图像、第二摄像头采集的第二图像;根据双目立体视觉定位技术分析所述第一图像和所述第二图像,得到用户的空间坐标。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:根据Kinect设备输出的数据得到用户的空间坐标。
优选地,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:
根据图像采集装置输出的第一帧图像定位用户的双眼,并计算初始双眼距离;
根据所述图像采集装置实时输出的图像定位用户的双眼,并计算实时双眼距离;
根据所述初始双眼距离和实时双眼距离得到z轴坐标;
根据所述图像采集装置的视场角、双眼在实时输出图像中的位置、z轴坐标得到x轴坐标和y轴坐标。
优选地,所述空间坐标为用户的头部坐标或双眼坐标。
第二方面,本发明提供的一种基于摄像头的裸眼三维成像系统,包括:图像采集装置、处理器、存储器、显示设备;
所述图像采集装置与所述处理器连接,所述显示设备与所述处理器连接,所述处理器与所述存储器连接,所述图像采集装置与所述显示设备的位置相对固定;
所述图像采集装置用于采集用户的图像;
所述存储器中存储有可在所述处理器上运行的程序,所述处理器执行所述程序时实现以下步骤:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;
所述3D引擎根据所述相机参数调整旋转显示的三维对象。
本发明提供的基于摄像头的裸眼三维成像系统,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3D眼镜等设备,能够实现裸眼3D,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3D,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3D显示技术真正进入到消费领域。
优选地,所述图像采集装置为Kinect设备。
优选地,所述图像采集装置包括第一摄像头和第二摄像头。
优选地,所述图像采集装置为摄像头。
优选地,所述显示设备为透明显示设备。
附图说明
图1为本发明实施例所提供的基于摄像头的裸眼三维成像方法的流程图;
图2为三维对象根据用户移动而发生旋转的示意图;
图3为图像采集装置与人所在平面间的空间位置关系;
图4为本发明实施例所提供的基于摄像头的裸眼三维成像系统的结构示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本实施例提供了一种基于摄像头的裸眼三维成像方法,包括:
步骤S1,根据图像采集装置实时输出数据得到用户的空间坐标。
其中,空间坐标为以图像采集装置为标定点的三维坐标,空间坐标描述了用户与图像采集装置之间的位置关系。
步骤S2,根据空间坐标以及预设的坐标变换模型,得到新的相机参数,坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系。
其中,3D引擎是将现实中的物质抽象为多边形或者各种曲线等表现形式,在计算机中进行相关计算并输出最终图像的算法实现的集合。
其中,相机参数与具体采用的3D引擎类型有关。本实施例中的相机参数是指用于调整通过3D引擎绘制的三维对象的显示角度的参数。相机参数包括三维坐标、视线方向等数据。
其中,坐标变换模型是通过空间几何关系将用户的空间坐标与3D引擎的相机参数关联起来。这种空间几何关系是本领域技术人员通过普通的立体几何知识就可以确定的,在此不再赘述。坐标变换模型需考虑系统中图像采集装置的布设位置,不同的布设位置使坐标变换模型千差万别,且具体的坐标变换模型不是本发明要保护的发明点,在此不做过多限定。
步骤S3,3D引擎根据相机参数调整旋转显示的三维对象。
例如,当用户在观看显示的三维对象时会不时的走动,这时图像采集装置采集到用户移动后的图像,通过图像定位用户移动后的空间坐标,根据移动后的空间坐标调整3D引擎显示的三维对象。比如,如图2所示,用户向左移动,三维对象就相应的逆时针旋转一定角度。通过上述基于摄像头的裸眼三维成像方法,可以根据用户的空间位置实时调整三维对象显示的角度、位置,使用户移动过程中看到旋转运动的三维对象,利用人眼的视觉误差形成三维成像的效果。
本实施例提供的基于摄像头的裸眼三维成像方法,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3D眼镜等设备,能够实现裸眼3D,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3D,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3D显示技术真正进入到消费领域。
其中,图像采集装置可以采用单摄像头、双摄像头或Kinect设备实现。
当图像采集装置为双摄像头时,步骤S1的具体实现方式包括:接收第一摄像头采集的第一图像、第二摄像头采集的第二图像;根据双目立体视觉定位技术分析第一图像和第二图像,得到用户的空间坐标。双目立体视觉定位技术为现有技术,具体计算方法在此不再赘述。
当图像采集装置为Kinect设备时,步骤S1的具体实现方式包括:根据Kinect设备输出的数据得到用户的空间坐标。Kinect设备包括摄像头和测距装置,可以采集拍摄范围内的图像以及图像中每个位置对应的深度数据。具体地,定位用户在图像中的位置坐标,根据深度数据和位置坐标利用几何知识就可以计算得到用户的空间坐标,具体计算方法在此不再赘述。
当图像采集装置为单摄像头时,步骤S1的具体实现方式包括:
步骤S101,根据图像采集装置输出的第一帧图像定位用户的双眼,并计算初始双眼距离。
其中,图像中的人眼定位方法采用现有技术实现,在此不再赘述。
步骤S102,根据图像采集装置实时输出的图像定位用户的双眼,并计算实时双眼距离。
步骤S103,根据初始双眼距离和实时双眼距离得到z轴坐标。
其中,z轴坐标表示的是人眼到用于显示三维对象的显示设备的垂直距离。假设采集第一帧图像时,初始双眼距离为L0,人眼到显示设备的垂直距离为Z0,设人眼移动后的实时双眼距离为L,则人眼移动后得到的z轴坐标为z=L0Z0/L。
步骤S104,根据图像采集装置的视场角、双眼在实时输出图像中的位置、z轴坐标得到x轴坐标和y轴坐标。
其中,如图3所示,设图像采集装置的视场角为α,图像的宽为A,则此时图像的比例尺为(2ztanα)/A,比例尺指图像中单位距离对应的真实空间中的距离。根据双眼在实时输出图像中的位置,结合比例尺可以得到x轴坐标和y轴坐标。
为了提高显示三维显示效果的逼真度,上述任一方法实施例中的空间坐标优选为用户的头部坐标或双眼坐标。
本实施例提供的方法可以在任何平面显示器上使用,包括但不限于LCD显示器、OLED显示器、CRT显示器、LED显示器、LED阵列。本实施例提供的方法还可以在任意终端、任意软件平台中使用。
本实施例还可以挂载手势识别代码,识别出手部坐标,并且进行手势操作。
基于与上述基于摄像头的裸眼三维成像方法相同的发明构思,本实施例还提供了一种基于摄像头的裸眼三维成像系统,如图4所示,包括:图像采集装置、处理器、存储器、显示设备。
其中,图像采集装置与处理器连接,显示设备与处理器连接,处理器与存储器连接,图像采集装置与显示设备的位置相对固定。
其中,图像采集装置用于采集用户的图像。
其中,存储器中存储有可在处理器上运行的程序,处理器执行程序时实现以下步骤:
步骤S1,根据图像采集装置实时输出数据得到用户的空间坐标;
步骤S2,根据空间坐标以及预设的坐标变换模型,得到新的相机参数,坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;
步骤S3,3D引擎根据相机参数调整旋转显示的三维对象。
本实施例提供的基于摄像头的裸眼三维成像系统,通过软件算法即可逼真显示立体影像,使用户直观地观察到三维物体的细节,能够通过自身移动看到三维物体的不同角度;用户无需佩戴任何3D眼镜等设备,能够实现裸眼3D,提高了用户的体验度;通过普通的显示设备就可以实现裸眼3D,降低了成本、技术门槛,拓宽了裸眼三维成像技术的应用范围,使得裸眼3D显示技术真正进入到消费领域。
其中,图像采集装置为摄像头。
其中,图像采集装置优选为双摄像头的结构,包括第一摄像头和第二摄像头,第一摄像头和第二摄像头并排设置,且拍第一摄像头和第二摄像头同步采集图像,通过双目立体视觉定位技术即可得到用户的空间坐标。
其中,图像采集装置优选为Kinect设备。Kinect设备包括摄像头和测距装置,可以采集拍摄范围内的图像以及图像中每个位置对应的深度数据。
其中,显示设备为平面显示器,包括但不限于LCD显示器、OLED显示器、CRT显示器、LED显示器、LED阵列。为了增强三维显示的逼真度,提高观看效果,显示设备优选为透明显示屏。
其中,处理器和存储器可以为任意终端、服务器、PC主机中的处理器和存储器。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.一种基于摄像头的裸眼三维成像方法,其特征在于,包括:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;
所述3D引擎根据所述相机参数调整旋转显示的三维对象。
2.根据权利要求1所述的方法,其特征在于,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:
接收第一摄像头采集的第一图像、第二摄像头采集的第二图像;
根据双目立体视觉定位技术分析所述第一图像和所述第二图像,得到用户的空间坐标。
3.根据权利要求1所述的方法,其特征在于,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:
根据Kinect设备输出的数据得到用户的空间坐标。
4.根据权利要求1所述的方法,其特征在于,所述根据图像采集装置实时输出数据得到用户的空间坐标,包括:
根据图像采集装置输出的第一帧图像定位用户的双眼,并计算初始双眼距离;
根据所述图像采集装置实时输出的图像定位用户的双眼,并计算实时双眼距离;
根据所述初始双眼距离和实时双眼距离得到z轴坐标;
根据所述图像采集装置的视场角、双眼在实时输出图像中的位置、z轴坐标得到x轴坐标和y轴坐标。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述空间坐标为用户的头部坐标或双眼坐标。
6.一种基于摄像头的裸眼三维成像系统,其特征在于,包括:图像采集装置、处理器、存储器、显示设备;
所述图像采集装置与所述处理器连接,所述显示设备与所述处理器连接,所述处理器与所述存储器连接,所述图像采集装置与所述显示设备的位置相对固定;
所述图像采集装置用于采集用户的图像;
所述存储器中存储有可在所述处理器上运行的程序,所述处理器执行所述程序时实现以下步骤:
根据图像采集装置实时输出数据得到用户的空间坐标;
根据所述空间坐标以及预设的坐标变换模型,得到新的相机参数,所述坐标变换模型为用户的空间坐标与3D引擎的相机参数间的映射关系;
所述3D引擎根据所述相机参数调整旋转显示的三维对象。
7.根据权利要求6所述的系统,其特征在于,所述图像采集装置为Kinect设备。
8.根据权利要求6所述的系统,其特征在于,所述图像采集装置包括第一摄像头和第二摄像头。
9.根据权利要求6所述的系统,其特征在于,所述图像采集装置为摄像头。
10.根据权利要求6至9中任一项所述的系统,其特征在于,所述显示设备为透明显示设备。
CN201710324852.XA 2017-05-10 2017-05-10 基于摄像头的裸眼三维成像方法及系统 Pending CN107181939A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710324852.XA CN107181939A (zh) 2017-05-10 2017-05-10 基于摄像头的裸眼三维成像方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710324852.XA CN107181939A (zh) 2017-05-10 2017-05-10 基于摄像头的裸眼三维成像方法及系统

Publications (1)

Publication Number Publication Date
CN107181939A true CN107181939A (zh) 2017-09-19

Family

ID=59832491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710324852.XA Pending CN107181939A (zh) 2017-05-10 2017-05-10 基于摄像头的裸眼三维成像方法及系统

Country Status (1)

Country Link
CN (1) CN107181939A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053388A (zh) * 2017-12-27 2018-05-18 北京灵犀微光科技有限公司 双目近眼显示的图像融合方法和装置
CN108269232A (zh) * 2018-02-24 2018-07-10 夏云飞 一种裸眼3d图片的转化方法及裸眼3d全景图片的转换方法
CN108391117A (zh) * 2018-02-01 2018-08-10 周金润 一种基于视点定位、单视角立体画的手机裸眼3d显示技术
CN111935229A (zh) * 2020-07-10 2020-11-13 北京云迹科技有限公司 智能货柜推送方法、装置和电子设备
CN114040135A (zh) * 2021-11-05 2022-02-11 中国铁塔股份有限公司盐城市分公司 一种基于主动发光型显示技术的裸眼三维显示装置
CN114359396A (zh) * 2022-03-18 2022-04-15 成都工业学院 一种立体图像获取及显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103119628A (zh) * 2010-08-04 2013-05-22 苹果公司 利用运动特性的显示器上三维用户界面效果
CN103402106A (zh) * 2013-07-25 2013-11-20 青岛海信电器股份有限公司 三维图像显示方法及装置
CN103440677A (zh) * 2013-07-30 2013-12-11 四川大学 一种基于Kinect体感设备的多视点自由立体交互系统
CN104915994A (zh) * 2015-07-06 2015-09-16 上海玮舟微电子科技有限公司 一种三维数据的3d视图绘制方法及系统
CN105007480A (zh) * 2015-07-06 2015-10-28 上海玮舟微电子科技有限公司 一种三维数据的裸眼3d显示方法及系统
CN105869160A (zh) * 2016-03-28 2016-08-17 武汉理工大学 利用Kinect实现三维建模和全息显示的方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103119628A (zh) * 2010-08-04 2013-05-22 苹果公司 利用运动特性的显示器上三维用户界面效果
CN103402106A (zh) * 2013-07-25 2013-11-20 青岛海信电器股份有限公司 三维图像显示方法及装置
CN103440677A (zh) * 2013-07-30 2013-12-11 四川大学 一种基于Kinect体感设备的多视点自由立体交互系统
CN104915994A (zh) * 2015-07-06 2015-09-16 上海玮舟微电子科技有限公司 一种三维数据的3d视图绘制方法及系统
CN105007480A (zh) * 2015-07-06 2015-10-28 上海玮舟微电子科技有限公司 一种三维数据的裸眼3d显示方法及系统
CN105869160A (zh) * 2016-03-28 2016-08-17 武汉理工大学 利用Kinect实现三维建模和全息显示的方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053388A (zh) * 2017-12-27 2018-05-18 北京灵犀微光科技有限公司 双目近眼显示的图像融合方法和装置
CN108391117A (zh) * 2018-02-01 2018-08-10 周金润 一种基于视点定位、单视角立体画的手机裸眼3d显示技术
CN108269232A (zh) * 2018-02-24 2018-07-10 夏云飞 一种裸眼3d图片的转化方法及裸眼3d全景图片的转换方法
CN111935229A (zh) * 2020-07-10 2020-11-13 北京云迹科技有限公司 智能货柜推送方法、装置和电子设备
CN114040135A (zh) * 2021-11-05 2022-02-11 中国铁塔股份有限公司盐城市分公司 一种基于主动发光型显示技术的裸眼三维显示装置
CN114040135B (zh) * 2021-11-05 2022-09-27 中国铁塔股份有限公司盐城市分公司 一种基于主动发光型显示技术的裸眼三维显示装置
CN114359396A (zh) * 2022-03-18 2022-04-15 成都工业学院 一种立体图像获取及显示方法
CN114359396B (zh) * 2022-03-18 2022-05-17 成都工业学院 一种立体图像获取及显示方法

Similar Documents

Publication Publication Date Title
CN107181939A (zh) 基于摄像头的裸眼三维成像方法及系统
JP7094266B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
CN108830939B (zh) 一种基于混合现实的场景漫游体验方法及体验系统
US9407904B2 (en) Method for creating 3D virtual reality from 2D images
CA2956508C (en) Method and system for reconstructing obstructed face portions for virtual reality environment
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
CN104778694B (zh) 一种面向多投影拼接显示的参数化自动几何校正方法
KR100294925B1 (ko) 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법
US9020203B2 (en) System and method for managing spatiotemporal uncertainty
KR20190089957A (ko) 부정합 검출 시스템, 복합 현실 시스템, 프로그램 및 부정합 검출 방법
CN106681512A (zh) 一种虚拟现实设备及对应显示方法
CN102075776B (zh) 一种立体显示的控制方法及装置
CN106951074A (zh) 一种实现虚拟触摸校准的方法以及系统
US9918066B2 (en) Methods and systems for producing a magnified 3D image
JP2011164781A (ja) 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
CN110488981A (zh) 基于云渲染的手机端vr场景交互式显示方法
CN109493409A (zh) 基于左右眼空间复用的虚拟三维场景立体画面绘制方法
US20210314542A1 (en) Image processing method and apparatus for stereoscopic images of nearby object in binocular camera system of parallel axis type
CN102510503B (zh) 一种立体显示方法及立体显示设备
CN113366825B (zh) 用于生成表示场景的图像信号的装置和方法
CN106604016A (zh) 立体视频采集系统
CN102780900B (zh) 一种多人多视角立体显示器影像显示方法
JPH03296176A (ja) 高速画像生成表示方法
CN104717488B (zh) 显示设备和显示方法
CN110209274A (zh) 一种虚拟现实设备及虚拟现实图像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170919