CN103609104A - 用于立体效应调整的交互式用户接口 - Google Patents
用于立体效应调整的交互式用户接口 Download PDFInfo
- Publication number
- CN103609104A CN103609104A CN201280029734.1A CN201280029734A CN103609104A CN 103609104 A CN103609104 A CN 103609104A CN 201280029734 A CN201280029734 A CN 201280029734A CN 103609104 A CN103609104 A CN 103609104A
- Authority
- CN
- China
- Prior art keywords
- user
- images
- display
- parameter
- preference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Abstract
本发明实施例涵盖确定用户对于描绘立体效应的偏好的系统、设备和方法。确切地说,所述实施例中的某些实施例涵盖接收用户输入同时显示立体视频序列。可基于所述输入确定所述用户的偏好。可接着将这些偏好应用于未来立体描绘。
Description
优先权主张
本申请案主张卡琳·阿塔纳索夫(Kalin Atanassov)、塞吉·戈马(Sergiu Goma)、约瑟夫·张(Joseph Cheung)和维卡斯·拉马羌德拉(Vikas Ramachandra)在2011年8月25日申请的题为“用于立体效应调整的交互式用户接口(INTERACTIVE USER INTERFACE FORSTEREOSCOPIC EFFECT ADJUSTMENT)”的第13/218,379号美国专利申请案的优先权,所述美国专利申请案为由卡琳·阿塔纳索夫(Kalin Atanassov)、塞吉·戈马(SergiuGoma)、约瑟夫·张(Joseph Cheung)和维卡斯·拉马羌德拉(Vikas Ramachandra)在2011年5月23日申请的题为“用于立体效应调整的交互式用户接口(INTERACTIVE USERINTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT)”的同在申请中的且共同转让的第61/489,224号美国临时专利申请案的非临时申请案,也主张所述美国临时专利申请案的优先权,所述两个申请案以引用的方式并入本文中。
技术领域
本发明实施例涉及立体效应的校准,且明确地说,涉及用于确定关于立体效应的用户偏好的方法、设备和系统。
背景技术
立体观测包括人脑基于如从左眼和右眼看到的物体的相对位移解译物体的深度所借以的过程。可通过从第一和第二横向偏移观察位置拍摄场景的第一和第二图像且分别将所述图像呈现给左眼和右眼中的每一者来人工地诱发立体效应。通过随时间俘获一连串立体图像,可将图像对连续地呈现给眼睛以形成“三维影片”。
因为立体效应依赖于用户来将左图像与右图像集成为单个图像,所以用户特定质量可影响体验。确切地说,将需要通过用户的大脑使左图像和右图像中的物体之间的视差与特定深度相关。虽然立体投影仪和显示器在使用之前定期地进行校准,但用于针对给定立体描绘基于某些因素快速地确定特定用户的偏好的有效率且准确的装置仍缺乏。
发明内容
某些实施例涵盖一种在电子装置上实施的用于确定用于立体效应的参数的方法。所述方法可包括:将包括物体的立体效应的多个图像显示给用户,所述物体是在多个三维位置处通过所述多个图像来描绘;从所述用户接收关于优选的三维位置的偏好指示;以及基于所述偏好指示确定用于额外图像的立体描绘的参数。
在某些实施例中,所述多个位置中的至少两者可在x、y和z方向上相对于彼此移位。在一些实施例中,所述多个位置包括具有正深度位置的位置。在一些实施例中,所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。在一些实施例中,所述多个图像描绘所述物体在显示器的平面中的移动。在一些实施例中,可至少基于显示器的场景几何形状动态地产生所述多个图像。在一些实施例中,可至少基于所述用户距显示器的距离动态地产生所述多个图像。在一些实施例中,所述方法进一步包括将所述参数存储到存储器。在一些实施例中,所述方法进一步包括基于所述参数确定用于所述物体的深度的最大范围。在一些实施例中,所述电子装置包括移动电话。在一些实施例中,所述参数为所述偏好指示。
某些实施例涵盖一种包括指令的计算机可读媒体,所述指令在经执行时致使处理器执行各种步骤。所述步骤可包含:将包括物体的立体效应的多个图像显示给用户,所述物体是在多个位置处通过所述多个图像来描绘;从所述用户接收关于优选的三维位置的偏好指示;以及基于所述偏好指示确定用于额外图像的立体描绘的参数。
在一些实施例中,所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。在一些实施例中,所述多个位置包括具有正深度位置的位置。在一些实施例中,所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。在一些实施例中,所述多个图像描绘所述物体在显示器的平面中的移动。
某些实施例涵盖一种电子立体视觉系统,其包括:显示器;第一模块,其经配置以显示包括物体的立体效应的多个图像,所述物体是在多个位置处通过所述多个图像来描绘;输入,其经配置以从用户接收关于优选的三维位置的偏好指示;以及存储器,其经配置以存储与所述偏好指示相关联的参数,其中所述参数用以根据所述用户的所述偏好指示显示额外图像。
在某些实施例中,所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。在一些实施例中,所述多个位置包括具有正深度位置的位置。在一些实施例中,所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。在一些实施例中,所述多个图像描绘所述物体在所述显示器的平面中的移动。在一些实施例中,所述多个图像是至少基于所述显示器的场景几何形状动态地产生。在一些实施例中,所述多个图像是至少基于所述用户距所述显示器的距离动态地产生。在一些实施例中,电子装置包括移动电话。在一些实施例中,所述参数为所述偏好指示。
某些实施例涵盖一种在电子装置中的立体视觉系统,所述系统包括:用于将包括物体的立体效应的多个图像显示给用户的装置,所述物体是在多个位置处通过所述多个图像来描绘;用于从所述用户接收关于优选的三维位置的偏好指示的装置;以及用于基于所述偏好指示确定用于额外图像的立体描绘的参数的装置。
在一些实施例中,所述显示装置包括显示器,所述描绘装置包括多个图像,所述用于接收偏好指示的装置包括输入,且所述用于确定立体参数的装置包括经配置以存储优选范围的软件模块。在一些实施例中,所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。
附图说明
下文将结合随附图式描述所揭示的方面,提供所述随附图式以说明且并非限制所揭示的方面,其中相似命名表示相似元件。
图1描绘用于显示图像的立体描绘的可能的显示装置。
图2A和2B描绘有助于产生立体效应的各种因素。
图3A和3B描绘有助于关于用户相对于显示器的位置产生立体效应的各种因素。
图4描绘相对于显示器的某些物体运动模式,如可能出现在所揭示实施例中的某些实施例中。
图5描绘所揭示实施例中的某些实施例中的关于可能的物体运动模式的某些用户偏好。
图6A到6D描绘用于立体效应中的深度的用户优选范围中的某些优选范围。
图7为描绘供所述实施例中的某些实施例使用的偏好确定算法的特定实施例的流程图。
具体实施方式
实施例涉及用于校准立体显示系统以使得立体视频数据向用户的呈现被感知为对于用户的眼睛来说舒适的系统。因为不同用户可能对于其如何感知立体视频具有不同的容限,所以本文中所描述的系统和方法允许用户修改某些立体显示参数以使得观察视频对于用户来说为舒适的。在一个实施例中,用户可在用户正观察立体视频时实时地修改立体视频参数。接着使用这些修改以更舒适的格式将立体视频显示给用户。
本发明实施例涵盖确定关于立体图像的显示的用户偏好的系统、设备和方法。确切地说,在一个实施例中将立体视频序列呈现给用户。系统接受来自用户的校准输入,其中用户输入可能不需要用户拥有对3D技术的广泛了解。举例来说,用户可在正观察的视频序列中选择“较少”或“较多”三维效应。系统将输入所述信息且通过变更呈现给用户的左眼和右眼图像的角度或横向视差减少或增加在视频序列内呈现的三维效应。
所属领域的技术人员将认识到,这些实施例可以硬件、软件、固件或其任何组合来实施。立体显示器可见于广泛范围的电子装置上,所述电子装置包含移动无线通信装置、个人数字助理(PDA)、膝上型计算机、桌上型计算机、电视机、数字相机、数字记录装置等等。
图1描绘经配置以显示场景的立体描绘的一个可能的显示装置105。显示装置105可包括显示器102、观察屏幕,或用于向用户显示、描绘场景中的在z方向上处于多个深度处的多个物体104的其它装置。在一些装置中,场景可包括一对图像:用于用户的左眼的第一图像,和用于用户的右眼的第二图像。在此实例中,所述两个图像可同时在显示器102上呈现,但可能以不同偏光从显示器102发射。佩戴偏光透镜的用户可接着感知到其左眼中的第一图像和其右眼中的第二图像(所述透镜经对应地线性偏光、经圆偏光等)。将容易地认识到用于将单独图像递送到右眼和左眼中的每一者的多个其它方法。举例来说,装置105可包括两个横向分离的显示器102。通过将装置105握持为接近用户的面部,可分别将每一横向偏移图像呈现给用户的眼睛中的每一者。快门透镜和类似技术也可为足够的。本发明实施例可至少供提供立体描绘的任何系统使用,而不管产生所述描绘的特定方法如何。
附接到显示装置105或在远程操作的输入103可用以将用户输入提供到显示装置105。在一些实施例中,输入103可包括附接到显示装置105或集成到显示装置105的外壳中的输入控制。在其它实施例中,输入103可包括无线遥控器,例如供电视机使用的无线遥控器等。输入103可经配置以接收来自用户的按键或按钮按压或运动手势,或为用于接收偏好指示的任何其它装置。在一些实施例中,输入103上经指明用于其它目的(例如,用于选择频道、调整音量或键入命令等)的按钮103a可经改变用途以接收关于校准程序的输入。在一些实施例中,可提供特别地经设计用于接收校准输入的按钮103b。在手势敏感输入103c中,系统可认识到在如与校准有关的校准程序期间的触摸屏上的某些手势(经由手指、触控笔等)。所述输入可用以控制校准程序,以及指示优选参数。举例来说,在一些实施例中,在校准期间压下频道选择按钮或作出手指运动可变更多个物体104的运动。压下“键入”按键或“缩入”或“弹出”选择按键可用以识别优选最大范围参数。输入103也可包括“观察输入”,例如相机或监视响应于特定校准刺激的用户的行为(例如,用户的眼睛的特性等)的其它装置等。
尽管描绘为在装置105外部,但数据库存储器106可包括用于存储数据的装置,例如存储用户的偏好的在装置105内部或外部的存储器等。在一些实施例中,数据库106可包括装置105的内部存储器的一部分。在一些实施例中,数据库106可包括在装置105外部的中心服务器系统。多个显示装置可存取所述服务器系统以使得在一个装置上确定的偏好可用于另一装置。
如所提及,当描绘立体场景时,装置105可在于方向x、y、z中的任一者上移动时将物体104呈现给用户。z方向上的移动可经由立体效应来实现。图2A描绘相对于用户来说在负的所感知的z位置203a处(即,在显示器102后面)的物体。此描绘可通过在第一图像中在第一位置202a中呈现物体且在第二图像中在第二位置202b处呈现物体来实现。当用户的左眼201a感知到第一图像且用户的右眼201b感知到第二图像时,用户的大脑可将所述图像集成从而感知到在所感知位置203a处的物体。在显示器周围可能存在“安全区域”带,在所述带中,发生无眼睛疲劳的融合。此带可至少部分地基于下文所描述的因素响应于用户相对于显示器102的距离Dv而改变。在一些系统中,可预先使用两个单独的真实物理相机俘获图像。在一些系统中,可通过使用“虚拟相机”确定场景的适当图像的软件动态地产生图像。虚拟相机可包括在合成产生的环境或场景中的观察点。
相反地,如图2B中所展示,当位置202b和202a在每一图像中颠倒时,用户的大脑可将所述图像集成从而感知到如在所感知位置203b处的物体。以此方式,物体可出现在相对于显示器的平面102的正或负z方向位置中。
不同用户的大脑可以不同的舒适度来集成图2A和2B的图像之间的物体视差。用户舒适地感知到立体效应的能力不仅可取决于位置202a和202b的横向视差,而且可取决于与所述位置相关联的角度视差。横向视差是指位置202a和202b中的每一者之间的在x方向上的偏移。通常,将不存在在y方向上的偏移,但此情形可能在一些显示系统中发生。角度视差是指在于所感知位置201a、201b中的每一者处感知到物体时发生的每一眼睛的旋转。参看图2A和2B的实例,线205a和205b是指在于图2A中的所感知位置203a处观察物体时的眼睛201a、201b中的每一者的中心线(中心线是指如由眼睛观察的场景的中心)。当眼睛改为在图2B中的位置203b处观察所感知物体时,眼睛朝向彼此旋转,直到其中心线接近206a和206b为止。在中心线205a、206a和205b、206b之间分别产生角度差异θ1和θ2。这些角度差异θ1和θ2包括由在特定所感知位置处的对物体的感知产生的角度视差。在一些情况下,用户的舒适可取决于横向视差与角度视差两者。一些用户可能更多地受角度视差影响且一些用户可能更多地受横向视差影响。一个用户可接受的视差可能对于另一用户来说为不舒适的或甚至痛苦的。通过修改显示器102的输出以便不在用户的舒适区外呈现视差,可减轻或完全避免用户的不舒适。
不幸的是,在一些情况下,与其它因素隔离地来将用户的横向视差和角度视差偏好编目录可能不足以避免用户的不舒适。横向视差和角度视差可彼此有关,且在用户感知到立体效应时,整体地与其它因素相互有关。举例来说,参看图3A和3B,用户相对于显示器102的位置可同样影响用户的偏好。从远位置(大Dv,图3A)和近位置(小Dv,图3B)观察显示器102的用户可体验不同程度的不舒适,即使在两种情况下存在相同的横向视差也如此。不舒适可改为与角度视差相关,这是由于用户距显示器102的距离将影响角度视差,甚至在横向视差保持恒定时也如此。如所说明,对应于在用户观察显示器201时具有负205a、205b和正206a、206b深度的物体的感知的中心线随Dv而变化。显示器102的屏幕尺寸也可影响用户可接受的角度视差的范围。在距屏幕固定距离处,较大屏幕尺寸将呈现较大视野。这种情形类似于放大效应(可容许的像素视差可能较小)。相反,对于相同视野,对于到屏幕的较小距离,用户将很可能偏好较少弹出。因此,即使用户对于图3A和3B的两个位置体验相同的横向视差,但由于角度视差,当距屏幕102较远时,用户也可能偏好z方向范围303a,且当靠近显示器102时,用户也可能偏好范围303b。此外,如通过范围303a和303b所说明,用户偏好可能并不关于显示屏幕102对称。举例来说,一些用户更容许负深度(与正深度相比而言),且一些用户更容许正深度(与负深度相比而言)。
本发明实施例中的某些实施例涵盖将交互式立体视频序列显示给用户以及从用户接收输入以确定用户对立体效应的优选范围。交互式视频序列可尤其经配置以确定在距显示器102给定距离处的用户的横向视差和角度视差偏好。在一些实施例中,用户可提前指定其距显示器102的距离。在其它实施例中,可使用装置105上的测距仪或类似传感器来确定距离。在某些实施例中,视频序列可包括出现在显示器的平面前面和后面(即,在z方向上在正位置和负位置中)的移动物体。当用户感知到物体的运动时,用户可指示其感觉舒适或不舒适的正深度和负深度。可将这些选择转译成适当的3D深度配置参数从而发送到3D处理算法。在一些实施例中,描绘多个深度的单个图像可足够用于确定用户的偏好。在一些实施例中,可基于例如以下各者等因素动态地产生视频:用户的先前偏好、从装置104上的其它传感器得到的例如用户位置数据的数据,以及来自其它立体装置(例如,先前经校准但拥有不同屏幕几何形状的装置等)的用户偏好。在一些实施例中,可基于由用户指定的屏幕几何形状产生视频序列。在一些实施例中,可自动地确定屏幕几何形状。
参看图4,在某些实施例中,视频序列可包括在一个或一个以上物体401a、401b沿着模式402a、402b移动时描绘所述一个或一个以上物体401a、401b的图像。在一些实施例中,某些物体401a可位于负z位置处(在屏幕后面,或在“缩入”位置处),且其它物体401b可位于正z位置处(在屏幕前面,或在“弹出”位置处)。物体401a、401b可沿着模式402a、402b移动。尽管在图4中描绘为排他地在x-y平面中行进,但在一些实施例中,所述模式也可使得物体在z方向上行进。在一些实施例中,可显示在不同z位置处的多个物体,且每一物体可在x-y平面中移动。x-y平面内的移动可允许用户感知到关于显示器102的屏幕几何形状的立体效应。在一些实施例中,此运动可用以确定“安全区域”带,在所述带中,用户可无疲劳地融合图像。在一些实施例中,用户有可能使用输入103控制物体的移动。用户可使物体在x、y和z平面中的每一者中平移且在所述位置中的某些位置处使用输入103指示其偏好。举例来说,用户可作出手指手势或压下频道或音量选择按键以移动物体401b。当移动物体时,用户可指示其对深度移动的容限(即,不同速率和视差值的效应)。
图5描绘在某些实施例中的在z方向上的物体401a和401b的运动。用户可提供分别用于正深度和负深度的选择范围502a、502b。如所提及,在一些实施例中,用户有可能经由输入103指导物体401a、401b的运动。因此,用户可指导物体沿着各种模式402a、402b且可指示其关于某些位置处的立体效应的舒适。在一些实施例中,装置105可确定用户在显示序列之前提供输入的位置。在一些实施例中,用户可确定提供输入的位置。
图6A到6D描绘用于四个不同用户的用户优选范围中的某些优选范围。在图6A中,用户仅偏好少量正深度,同时偏好较大负深度。因此,用户可能已表达出在所述位置处对图6A中所展示的物体401a和401b的赞同的指示。在图6B中,用户偏好实质正深度与负深度两者。可能已在所指示的物体位置处类似地指定适当偏好指示。在图6C中,用户偏好轻微量的正深度与负深度两者。在图6D中,用户仅偏好负深度,而无正深度。
图7为描绘供所述实施例中的某些实施例使用的偏好确定算法的流程图。过程700通过以下操作开始:在框701中,显示在多个“缩入”或负z位置处的物体的例如视频序列等中的一个或一个以上图像。过程700可接着在决策框702处确定用户是否已指示对于缩入范围的偏好。可认识到接收偏好指示的多种方式,例如,等待源自输入装置103的中断。可响应于用户压下按键或作出手势而产生所述中断。或者,系统可经由传感器监视用户且通过观察用户在整个视频序列中的反应来确定用户的偏好。如上文所论述,可指示对于x-y平面中的多个位置的偏好。在接收到用户对于“缩入”或负z位置的偏好之后,过程700可接着在框703处存储所述偏好以供未来参考。系统可接着在框704处确定对于“弹出”或正z方向的偏好。此外,一旦用户在框705处指示偏好,便可在框706处存储“弹出”偏好。可容易地设想上述内容的变化,其中用户也指示优选的x和y范围,例如,可包括“安全区域”带等。可将偏好存储到数据库106。
所述领域的技术人员将认识到,一旦确定最大缩入和弹出范围,便可存储众多对应值从而代替实际范围。因此,在一些实施例中,所存储的偏好或参数可包括优选的缩入和弹出范围的值(即,最大缩入值和最大弹出值)。然而,在其它实施例中,可改为存储在每一图像中出现的物体的对应视差范围。在一些实施例中,可存储用以产生对应于用户的优选范围的图像的虚拟相机的位置和定向。在此情况下,可在动态地产生后续场景时使用所存储的偏好。如所提及,在一些实施例中,数据库106可为其它显示装置提供对用户的偏好的存取,以使得用户不必在使用时重新校准每一系统。所属领域的技术人员将容易地认识到经配置以存储用户优选范围的软件模块、使优选范围与影响立体图像的显示的一个或一个以上变量相关联的表格查找、参考这类查找表的软件以及用于基于偏好指示确定参数的其它装置。因此,在一些情况下,确定装置可简单地将用户指示的范围识别为待存储的参数。或者,确定装置可识别对应于所述范围的用于显示器变量的值,例如视差等。可接着存储最大视差值,而不是用户定义的范围。
所述实施例中的某些实施例(例如,图7的实施例等)提供用户与校准系统之间的快速反馈。用户可选择或指示缩入和弹出参数且立即感知到其选择和指示对显示的效应。在显示器描绘例如三维视频等一系列图框的情况下,系统可在整个校准过程中使物体速度和轨迹变化。在一些实施例中,可在用户指示不同选择时动态地调整校准视频。系统可包括试探法以基于用户的先前偏好指示中的一者或全部确定应如何修改视频。
将认识到,确定负和正深度偏好的次序可为任意的且在一些实施例中,可同时发生。视频序列可(例如)同时显示在已知包括用户偏好的极值的x、y和z方向上的多个位置处的成对物体。通过选择对,用户可用单个选择来指示正深度偏好和负深度偏好两者。在一些情况下,可能有必要仅显示单个立体图像。
一旦系统已确定用户的偏好,便可存储所述偏好以供在后续显示中使用。或者,一些实施例涵盖改为将偏好转换成一个或一个以上显示参数以供存储。举例来说,用户偏好可用以确定在显示期间用于正深度和负深度的最大比例因子。存储比例因子或另一表示可能比存储深度范围更有效。也可在将额外数据(例如,表示用户相对于显示器102的位置的数据)存储在数据库106中之前将额外数据转换成适当参数。
结合本文中所揭示的实施方案描述的各种说明性逻辑块、模块和电路可用以下各者来实施或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件,或其经设计以执行本文中所描述的功能的任何组合。通用处理器可为微处理器,但在替代例中,处理器可为任何常规的处理器、控制器、微控制器或状态机。处理器还可实施为计算装置的组合,例如,DSP与微处理器的组合、多个微处理器的组合、一个或一个以上微处理器与DSP核心的联合,或任何其它此配置。
结合本文中所揭示的实施方案所描述的方法或过程的步骤可直接体现在硬件中,在由处理器执行的软件模块中,或在两者的组合中。软件模块可驻存在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可装卸式磁盘、CD-ROM或所属领域中已知的任何其它形式的非暂时性存储媒体中。示范性计算机可读存储媒体耦合到处理器,使得处理器可从计算机可读存储媒体读取信息,及将信息写入到计算机可读存储媒体。在替代例中,存储媒体可与处理器成一体式。处理器及存储媒体可驻留于ASIC中。ASIC可驻留于用户终端、相机或其它装置中。在替代例中,处理器和存储媒体可作为离散组件驻留于用户终端、相机或其它装置中。
本文中包含供参考且辅助定位各个章节的标题。这些标题无意限制关于其所描述的概念的范围。这些概念可具有贯穿整个说明书的适用性。
提供所揭示实施方案的前述描述以使得任何所属领域的技术人员能够制造或使用本发明。所属领域的技术人员将容易显而易见对这些实施方案的各种修改,且本文中所定义的一般原理可在不偏离本发明的精神或范围的情况下应用于其它实施方案。因此,本发明无意限于本文中所展示的实施方案,而应符合与本文中所揭示的原理及新颖特征一致的最广范围。
Claims (28)
1.一种在电子装置上实施的用于确定用于立体效应的参数的方法,所述方法包括:
将包括物体的立体效应的多个图像显示给用户,所述物体是在多个三维位置处通过所述多个图像来描绘;
从所述用户接收关于优选的三维位置的偏好指示;以及
基于所述偏好指示确定用于额外图像的立体描绘的参数。
2.根据权利要求1所述的方法,其中所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。
3.根据权利要求1所述的方法,其中所述多个位置包括具有正深度位置的位置。
4.根据权利要求3所述的方法,其中所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。
5.根据权利要求1所述的方法,其中所述多个图像描绘所述物体在显示器的平面中的移动。
6.根据权利要求1所述的方法,其中所述多个图像是至少基于显示器的屏幕几何形状动态地产生。
7.根据权利要求1所述的方法,其中所述多个图像是至少基于所述用户距显示器的距离动态地产生。
8.根据权利要求1所述的方法,其进一步包括将所述参数存储到存储器。
9.根据权利要求8所述的方法,其进一步包括基于所述参数确定用于所述物体的深度的最大范围。
10.根据权利要求1所述的方法,其中所述电子装置包括移动电话。
11.根据权利要求l所述的方法,其中所述参数为所述偏好指示。
12.一种包括指令的计算机可读媒体,所述指令在经执行时致使处理器执行以下步骤:
将包括物体的立体效应的多个图像显示给用户,所述物体是在多个位置处通过所述多个图像来描绘;
从所述用户接收关于优选的三维位置的偏好指示;以及
基于所述偏好指示确定用于额外图像的立体描绘的参数。
13.根据权利要求12所述的计算机可读媒体,其中所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。
14.根据权利要求12所述的计算机可读媒体,其中所述多个位置包括具有正深度位置的位置。
15.根据权利要求14所述的计算机可读媒体,其中所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。
16.根据权利要求12所述的计算机可读媒体,其中所述多个图像描绘所述物体在显示器的平面中的移动。
17.一种电子立体视觉系统,其包括:
显示器;
第一模块,其经配置以显示包括物体的立体效应的多个图像,所述物体是在多个位置处通过所述多个图像来描绘;
输入,其经配置以从用户接收关于优选的三维位置的偏好指示;以及
存储器,其经配置以存储与所述偏好指示相关联的参数,其中所述参数用以根据所述用户的所述偏好指示显示额外图像。
18.根据权利要求17所述的立体视觉系统,其中所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。
19.根据权利要求17所述的立体视觉系统,其中所述多个位置包括具有正深度位置的位置。
20.根据权利要求19所述的立体视觉系统,其中所述多个图像进一步包括第二物体的立体效应,所述第二物体是在第二多个位置处通过所述多个图像来描绘,所述第二多个位置包括具有负深度位置的位置。
21.根据权利要求17所述的立体视觉系统,其中所述多个图像描绘所述物体在所述显示器的平面中的移动。
22.根据权利要求17所述的立体视觉系统,其中所述多个图像是至少基于所述显示器的屏幕几何形状动态地产生。
23.根据权利要求17所述的立体视觉系统,其中所述多个图像是至少基于所述用户距所述显示器的距离动态地产生。
24.根据权利要求17所述的立体视觉系统,其中电子装置包括移动电话。
25.根据权利要求17所述的立体视觉系统,其中所述参数为所述偏好指示。
26.一种在电子装置中的立体视觉系统,所述系统包括:
用于将包括物体的立体效应的多个图像显示给用户的装置,所述物体是在多个位置处通过所述多个图像来描绘;
用于从所述用户接收关于优选的三维位置的偏好指示的装置;以及
用于基于所述偏好指示确定用于额外图像的立体描绘的参数的装置。
27.根据权利要求26所述的立体视觉系统,其中所述显示装置包括显示器,所述描绘装置包括多个图像,所述用于接收偏好指示的装置包括输入,且所述用于确定立体参数的装置包括经配置以存储优选范围的软件模块。
28.根据权利要求26所述的立体视觉系统,其中所述多个位置中的至少两者在x、y和z方向上相对于彼此移位。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161489224P | 2011-05-23 | 2011-05-23 | |
US61/489,224 | 2011-05-23 | ||
US13/218,379 | 2011-08-25 | ||
US13/218,379 US20120300034A1 (en) | 2011-05-23 | 2011-08-25 | Interactive user interface for stereoscopic effect adjustment |
PCT/US2012/038411 WO2012162096A1 (en) | 2011-05-23 | 2012-05-17 | Interactive user interface for stereoscopic effect adjustment |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103609104A true CN103609104A (zh) | 2014-02-26 |
Family
ID=46197697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280029734.1A Pending CN103609104A (zh) | 2011-05-23 | 2012-05-17 | 用于立体效应调整的交互式用户接口 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20120300034A1 (zh) |
EP (1) | EP2716052A1 (zh) |
JP (2) | JP6223964B2 (zh) |
KR (1) | KR20140047620A (zh) |
CN (1) | CN103609104A (zh) |
WO (1) | WO2012162096A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111491154A (zh) * | 2019-01-25 | 2020-08-04 | 比特安尼梅特有限公司 | 基于一个或多个单视场帧的检测和测距 |
US11595634B2 (en) | 2019-01-25 | 2023-02-28 | Bitanimate, Inc. | Detection and ranging based on a single monoscopic frame |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140126877A1 (en) * | 2012-11-05 | 2014-05-08 | Richard P. Crawford | Controlling Audio Visual Content Based on Biofeedback |
US10057558B2 (en) * | 2015-09-04 | 2018-08-21 | Kabushiki Kaisha Toshiba | Electronic apparatus and method for stereoscopic display |
US10567729B2 (en) * | 2017-08-11 | 2020-02-18 | Bitanimate, Inc. | User interface for adjustment of stereoscopic image parameters |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1643939A (zh) * | 2002-03-27 | 2005-07-20 | 三洋电机株式会社 | 立体图像处理方法及装置 |
US20060203085A1 (en) * | 2002-11-28 | 2006-09-14 | Seijiro Tomita | There dimensional image signal producing circuit and three-dimensional image display apparatus |
US20070047040A1 (en) * | 2005-08-31 | 2007-03-01 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling depth of three-dimensional image |
US20080231691A1 (en) * | 2007-03-23 | 2008-09-25 | Honeywell International, Inc. | User-adjustable three-dimensional display system and method |
EP2242262A2 (en) * | 2009-04-15 | 2010-10-20 | Sony Corporation | Data structure, recording medium, playback apparatus and method, and program |
WO2010151044A2 (ko) * | 2009-06-23 | 2010-12-29 | 엘지전자 주식회사 | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 |
WO2011024710A1 (ja) * | 2009-08-31 | 2011-03-03 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3347385B2 (ja) * | 1992-03-27 | 2002-11-20 | オリンパス光学工業株式会社 | 内視鏡画像処理装置 |
DE69434685T2 (de) * | 1993-08-04 | 2006-09-14 | Canon K.K. | Bildverarbeitungsverfahren und -gerät |
US5574836A (en) * | 1996-01-22 | 1996-11-12 | Broemmelsiek; Raymond M. | Interactive display apparatus and method with viewer position compensation |
JP3397602B2 (ja) * | 1996-11-11 | 2003-04-21 | 富士通株式会社 | 画像表示装置及び方法 |
US20020163482A1 (en) * | 1998-04-20 | 2002-11-07 | Alan Sullivan | Multi-planar volumetric display system including optical elements made from liquid crystal having polymer stabilized cholesteric textures |
JP2001326947A (ja) * | 2000-05-12 | 2001-11-22 | Sony Corp | 立体画像表示装置 |
JP2003284093A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
AU2002355019A1 (en) * | 2002-11-20 | 2004-06-15 | Seijiro Tomita | Light source device for image display device |
JP4283785B2 (ja) * | 2005-05-10 | 2009-06-24 | 株式会社マーキュリーシステム | 立体視画像生成装置およびプログラム |
US20080273081A1 (en) * | 2007-03-13 | 2008-11-06 | Lenny Lipton | Business system for two and three dimensional snapshots |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
JP4657331B2 (ja) * | 2008-08-27 | 2011-03-23 | 富士フイルム株式会社 | 3次元表示時における指示位置設定装置および方法並びにプログラム |
PL2332340T3 (pl) * | 2008-10-10 | 2016-05-31 | Koninklijke Philips Nv | Sposób przetwarzania informacji o paralaksie zawartej w sygnale |
US20100225734A1 (en) * | 2009-03-03 | 2010-09-09 | Horizon Semiconductors Ltd. | Stereoscopic three-dimensional interactive system and method |
US20100225576A1 (en) * | 2009-03-03 | 2010-09-09 | Horizon Semiconductors Ltd. | Three-dimensional interactive system and method |
JP5563250B2 (ja) * | 2009-06-30 | 2014-07-30 | 株式会社ジャパンディスプレイ | 立体画像表示装置 |
JP2011035592A (ja) * | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | 表示制御プログラムおよび情報処理システム |
US20110107216A1 (en) * | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
WO2011056803A2 (en) * | 2009-11-06 | 2011-05-12 | Sony Corporation Of America | Stereoscopic overlay offset creation and editing |
KR20110136414A (ko) * | 2010-06-15 | 2011-12-21 | 삼성전자주식회사 | 영상처리장치 및 그 제어방법 |
US9035939B2 (en) * | 2010-10-04 | 2015-05-19 | Qualcomm Incorporated | 3D video control system to adjust 3D video rendering based on user preferences |
US9041774B2 (en) * | 2011-01-07 | 2015-05-26 | Sony Computer Entertainment America, LLC | Dynamic adjustment of predetermined three-dimensional video settings based on scene content |
US20120188226A1 (en) * | 2011-01-21 | 2012-07-26 | Bu Lin-Kai | Method and system for displaying stereoscopic images |
-
2011
- 2011-08-25 US US13/218,379 patent/US20120300034A1/en not_active Abandoned
-
2012
- 2012-05-17 KR KR1020137034026A patent/KR20140047620A/ko not_active Application Discontinuation
- 2012-05-17 JP JP2014512890A patent/JP6223964B2/ja not_active Expired - Fee Related
- 2012-05-17 WO PCT/US2012/038411 patent/WO2012162096A1/en active Application Filing
- 2012-05-17 CN CN201280029734.1A patent/CN103609104A/zh active Pending
- 2012-05-17 EP EP12724803.7A patent/EP2716052A1/en not_active Ceased
-
2016
- 2016-06-02 JP JP2016111116A patent/JP2016192773A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1643939A (zh) * | 2002-03-27 | 2005-07-20 | 三洋电机株式会社 | 立体图像处理方法及装置 |
US20060203085A1 (en) * | 2002-11-28 | 2006-09-14 | Seijiro Tomita | There dimensional image signal producing circuit and three-dimensional image display apparatus |
US20070047040A1 (en) * | 2005-08-31 | 2007-03-01 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling depth of three-dimensional image |
US20080231691A1 (en) * | 2007-03-23 | 2008-09-25 | Honeywell International, Inc. | User-adjustable three-dimensional display system and method |
EP2242262A2 (en) * | 2009-04-15 | 2010-10-20 | Sony Corporation | Data structure, recording medium, playback apparatus and method, and program |
WO2010151044A2 (ko) * | 2009-06-23 | 2010-12-29 | 엘지전자 주식회사 | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 |
WO2011024710A1 (ja) * | 2009-08-31 | 2011-03-03 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111491154A (zh) * | 2019-01-25 | 2020-08-04 | 比特安尼梅特有限公司 | 基于一个或多个单视场帧的检测和测距 |
US11595634B2 (en) | 2019-01-25 | 2023-02-28 | Bitanimate, Inc. | Detection and ranging based on a single monoscopic frame |
Also Published As
Publication number | Publication date |
---|---|
WO2012162096A1 (en) | 2012-11-29 |
JP2014517619A (ja) | 2014-07-17 |
JP2016192773A (ja) | 2016-11-10 |
KR20140047620A (ko) | 2014-04-22 |
EP2716052A1 (en) | 2014-04-09 |
JP6223964B2 (ja) | 2017-11-01 |
US20120300034A1 (en) | 2012-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103595987B (zh) | 立体图像显示装置、图像处理装置及图像处理方法 | |
CN102939764B (zh) | 图像处理器、图像显示装置和图像拍摄装置 | |
TWI523488B (zh) | 處理包含在信號中的視差資訊之方法 | |
US20140055578A1 (en) | Apparatus for adjusting displayed picture, display apparatus and display method | |
US9049435B2 (en) | Image providing apparatus and image providing method based on user's location | |
JP5546633B2 (ja) | 立体画像再生装置、立体画像再生システム及び立体画像再生方法 | |
US20160249043A1 (en) | Three dimensional (3d) glasses, 3d display system and 3d display method | |
US9571824B2 (en) | Stereoscopic image display device and displaying method thereof | |
WO2012088628A1 (en) | Method and apparatus for providing mono-vision in multi-view system | |
JP2016192773A (ja) | 立体視効果の調整用の対話型ユーザインターフェース | |
JP2012044308A (ja) | 3d画像出力装置及び3d画像表示装置 | |
US20110096154A1 (en) | Display apparatus, image displaying method, 3d spectacle and driving method thereof | |
US20120188226A1 (en) | Method and system for displaying stereoscopic images | |
JP2013128181A (ja) | 表示装置、表示方法および表示プログラム | |
KR101805710B1 (ko) | 축간격 조정부를 갖는 입체영상 촬영장치 및 이를 이용한 입체영상의 깊이감 조절 방법 | |
JP2012080294A (ja) | 電子機器、映像処理方法、及びプログラム | |
EP2587814A1 (en) | Depth adaptation for multi-view system | |
CN103270760A (zh) | 在立体变焦过程中用于视差调节的方法和系统 | |
JP2011176822A (ja) | 画像処理装置、立体表示装置及び画像処理方法 | |
CN101895780B (zh) | 立体显示方法和立体显示装置 | |
JP2010199739A (ja) | 立体表示制御装置、立体表示システムおよび立体表示制御方法 | |
JP2014053782A (ja) | 立体画像データ処理装置、および、立体画像データ処理方法 | |
JP2012169822A (ja) | 画像処理方法及び画像処理装置 | |
US9547933B2 (en) | Display apparatus and display method thereof | |
KR101634439B1 (ko) | 비디오 스트림을 사이드 바이 사이드 형태로 디스플레이에 표시하는 방법 및 그 방법으로 비디오 스트림을 디스플레이에 표시하는 휴대용 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140226 |