CN105593789B - 显示装置及其控制方法 - Google Patents
显示装置及其控制方法 Download PDFInfo
- Publication number
- CN105593789B CN105593789B CN201480053686.9A CN201480053686A CN105593789B CN 105593789 B CN105593789 B CN 105593789B CN 201480053686 A CN201480053686 A CN 201480053686A CN 105593789 B CN105593789 B CN 105593789B
- Authority
- CN
- China
- Prior art keywords
- depth
- objects
- touch
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
所公开的是一种显示装置,该显示装置包括:显示单元,该显示单元显示具有不同深度的至少3D对象;触摸传感器单元,该触摸传感器单元感测在显示单元上的触摸输入;触觉反馈单元,该触觉反馈单元产生与3D对象对应的触觉反馈;以及处理器,该处理器控制这些单元。处理器启用触觉反馈功能。如果触摸输入被感测到,则处理器确定作为所感测到的触摸输入的位置的第一触摸位置是否在具有第一深度的第一3D对象的第一显示区域内。如果第一触摸位置在第一显示区域内,则处理器调节第一深度以使3D对象的第一表面与显示单元的表面重合,并且产生与3D对象对应的第一触觉反馈。
Description
技术领域
本公开涉及一种显示装置,并且更具体地涉及一种显示3D对象并且提供与被显示的3D对象相对应的触觉反馈的显示装置。
背景技术
三维(3D)显示技术的发展和触摸灵敏显示技术使用户能够经由对显示装置的表面的触摸输入来控制3D对象。显示装置可以在感测到触摸输入的区域中产生关于与触摸输入对应的3D对象的触觉反馈。这可以允许用户经由触觉感知触摸区域的纹理。
发明内容
技术问题
然而,在前述的显示装置中,3D对象被显示的区域和与3D对象对应的触觉反馈被产生的区域可能彼此不重合。这可能引起用户不自然地感知触觉反馈。
问题的解决方案
因此,本公开针对显示装置及其控制方法,其在实质上避免由于现有技术的限制和缺点造成的一个或者多个问题。
本公开的目的是提供一种提供现实的触觉反馈的显示装置及其控制方法。更加具体地,本公开的目的是提供可以调节3D对象的深度使得相应的3D对象的表面与显示单元的表面重合的显示装置。
本公开的附加的优点、目的和特征将在随后的描述中部分地阐述,并且对于本领域的技术人员在检查下文时将部分地变得显而易见,或者可以从本公开的实践中学习。本公开的目的和其它优点可以通过在撰写的描述及其权利要求以及附图中具体指出的结构来实现和获得。
为了实现这些目的和其它的优点并且根据本公开的用途,如在此具体化和广泛地描述的,根据一个实施例的显示装置包括:显示单元,该显示单元被配置为显示具有不同深度的至少一个3D对象;触摸传感器单元,该触摸传感器单元被配置为感测在显示单元上的触摸输入;触觉反馈单元,该触觉反馈单元被配置为产生与3D对象对应的触觉反馈;以及处理器,该处理器被配置为控制显示单元、触摸传感器单元以及触觉反馈单元,其中处理器进一步被配置为启用触觉反馈功能,如果触摸输入被感测到,则确定触摸输入的第一触摸位置是否在具有第一深度的第一3D对象的第一显示区域内,其中第一显示区域是在第一3D对象的XY平面中的显示区域,如果第一触摸位置在第一显示区域内,则处理器被配置为调节第一深度以使第一3D对象的第一表面与显示单元的表面重合并且产生与第一3D对象对应的第一触觉反馈。
此外,根据另一实施例的显示装置的控制方法包括:显示具有不同深度的至少一个3D对象;启用触觉反馈功能;感测在显示单元上的触摸输入;确定触摸输入的第一触摸位置是否在具有第一深度的第一3D对象的第一显示区域内,其中第一显示区域是在第一3D对象的XY平面中的显示区域,并且如果第一触摸位置在第一显示区域内,则调节第一深度以使第一3D对象的第一表面与显示单元的表面重合;以及产生与第一3D对象对应的第一触觉反馈。
要理解的是,本公开的前述总体描述和下面的详细描述两者都是示例性的和解释性的并且旨在提供如所主张的本公开的进一步解释。
有利效果
从上面的描述中显然的是,根据实施例,显示装置可以调节用于提供触觉反馈的3D对象的深度以使3D对象的表面与显示单元的表面重合,从而给用户提供真实生动的触觉反馈。
此外,显示装置可以基于触摸输入的触摸位置来调节用于提供触觉反馈的3D对象的深度以使3D对象的表面与显示单元的表面重合,从而给用户提供触觉反馈。
此外,显示装置可以通过用于提供触觉反馈的3D对象的深度的调节来同时地调节另一3D对象的深度。
另外,当必要时显示装置可以启用触觉功能,从而实现功耗的减少。
附图说明
附图被包括以提供对本公开的进一步的理解并且被并入和构成本申请的部分,附图示出本公开的一个或多个实施例并且与描述一起用于解释本公开的原理。在附图中:
图1是示出根据实施例的显示装置的框图;
图2a和图2b是示出根据实施例的、显示3D对象的显示装置的视图;
图3a和图3b是示出感测显示单元上的触摸输入的显示装置的视图;
图4a至图4c是示出根据一个实施例的、检测感测到的触摸输入的移动的显示装置的视图;
图5a至图5d是示出根据另一实施例的、检测感测到的触摸输入的移动的显示装置的视图;
图6a和图6b是示出根据实施例的、结束触摸输入的感测的显示装置的视图;
图7是示出根据一个实施例的显示装置的控制方法的流程图;并且
图8是示出根据另一实施例的显示装置的控制方法的流程图。
具体实施方式
在下文中,将会参考附图和附图的描述详细地描述实施例,但是本公开的范围不限于实施例或者不受到实施例的限制。
虽然尽可能在考虑根据实施例获得的功能的同时从当前广泛使用的通用术语选择以下描述中使用的术语,但是这些术语可以基于本领域的技术人员的意图、习惯、新技术的出现等由其它术语替代。而且,在特定情况下,可以使用由申请人任意选择的术语。在这种情况下,这些术语的含义可以在公开的相应描述部分中描述。因此,应当注意,本文使用的术语应基于其实际含义和本说明书的全部内容来解释,而不是简单地基于该术语的名称来解释。
在本公开中,显示装置可以指的是被配置成显示3维(3D)图像的装置。在实施例中,显示装置可以包括3D电视、3D显示器、或者可以显示3D图像的智能装置(例如智能电话、智能板、或者智能表)。在此,3D图像指的是给用户提供立体感/透视图的图像。
前述的显示装置可以使用双目视差显示3D图像。更加具体地,基于人类经由由于两个眼睛之间的距离(约6.5cm)的双目视差获得透视图的事实,显示装置给每个眼睛提供不同的图像,即,通过左眼看到的左眼图像和通过右眼看到的右眼图像,从而允许经由双目视差立体地看到图像。
在如上所述的显示装置中,3D图像显示方法被分类成眼镜方法和非眼镜方法。眼镜方法可以包括立体(anaglyphic)3D、偏振3D以及交替帧顺序方法。非眼镜方法可以包括视差屏障、柱状透镜(lenticular lens)、以及全息方法。
图1是示出根据实施例的显示装置的框图。
参考图1,显示装置100可以包括显示单元110、触摸传感器单元120、触觉反馈单元130以及处理器140。
显示单元110可以显示3D图像。显示单元110可以通过显示用于左眼的左眼图像和用于右眼的右眼图像两者来显示3D图像。在这样的情况下,左眼图像和右眼图像具有双目视差。在下文中将会参考图2对此进行详细描述。
在一个实施例中,显示单元110可以包括发光二极管(LED)器件、有机发光二极管(OLED)器件、液晶显示器(LCD)装置、电子墨水显示器、以及柔性显示器中的至少一个,并且可以显示3D图像。在另一实施例中,显示单元110可以包括触摸敏感显示器,并且可以感测在显示单元110上的触摸输入。在进一步实施例中,显示单元110可以包括触觉显示器,并且可以将触觉反馈提供给用户。
触摸传感器单元120可以感测在显示单元110上的触摸输入。在一个实施例中,传感器单元120可以使用压力灵敏传感器或者电容触摸传感器感测在显示单元110上的触摸输入。另外,触摸传感器单元120可以将关于感测到的触摸输入的触摸信息传送到处理器140。如上所述的显示单元110和触摸传感器单元120可以被集成到根据实施例的触摸灵敏的显示单元中。
触觉反馈单元130可以生成与3D对象对应的触觉反馈。在一个实施例中,触觉反馈单元130可以使用微振动致动器或者超声振动致动器对于用户的手指传送触觉反馈。在这样的情况下,触觉反馈单元130可以控制振动频率和振动幅度,并且因此可以调节被传送到用户的手指的触觉反馈的强度。
在另一实施例中,触觉反馈单元130可以通过生成微安培数(amperage)电流来向用户提供触觉反馈。在这样的情况下,触觉反馈单元130可以控制可允许用户感知不同的触觉感觉的电流的强度和生成时段。
在进一步实施例中,触觉反馈单元130可以使用超声共振产生触觉反馈。在这样的情况下,触觉反馈单元130可以产生超声波多次,并且在用户的手指处引起超声波的共振以向用户提供触觉反馈。触觉反馈单元130可以调节共振频率的大小和共振的产生时段以生成不同的触觉反馈。如上所述的显示单元110和触觉反馈单元120可以被集成到根据实施例的触觉显示单元中。
处理器140可以执行各种应用并且处理装置的内部数据。另外,处理器140可以控制装置的前述的各个单元以及单元之间的数据的传送/接收。在下文中将会参考附图详细地描述处理器140。
在作为根据实施例的显示装置的框图的图1中,单独地示出的块在逻辑上区分装置的元件。因此,基于装置设计,上述装置的元件可以作为单个芯片或者多个芯片被安装。
图2a和图2b是示出根据实施例的、显示3D对象的显示装置的视图。
图2a是示出显示3D对象的显示装置的立体视图。
参考图2a,显示装置可以经由显示单元显示3D对象。在这样的情况下,显示装置可以显示具有不同深度的至少一个3D对象。例如,如在图2a中示例性地示出的,显示装置可以显示具有第一深度的第一3D对象11和具有第二深度的第二3D对象12。
在一个实施例中,显示装置可以经由显示单元同步和显示具有双目视差的左眼图像和右眼图像,从而显示提供立体感/透视图的3D对象。在一个示例中,显示装置可以经由显示单元同步和显示具有负双目视差的左眼图像和右眼图像,从而显示具有基于显示单元的表面在显示单元的前方突出的深度的3D对象。在另一示例中,显示装置可以同步和显示具有正双目视差的左眼图像和右眼图像,从而显示具有基于显示单元的表面在显示单元的后方凹进的深度的3D对象。在下面的描述中,在显示单元的前方突出的深度被称为负深度,在显示单元的后方凹进的深度被称为正深度,并且显示单元的表面的深度被称为零深度。
显示装置可以通过调节要被显示的左眼图像和右眼图像的双目视差的大小来调节3D图像的深度。在一个示例中,如果左眼图像和右眼图像的双目视差的大小被设定为大的值,则显示装置可以生成具有大的深度的3D对象,即,看起来被显示在显示单元的前方或者后方的空间中的远位置处的3D对象。
图2b的左部分是示出显示3D对象的显示装置的前视图。
参考图2b的左部分,将会理解的是,第一3D对象11和第二3D对象12具有不同的深度并且第二3D对象12的第二深度大于第一3D对象11的第一深度。这当用于第二3D对象12的产生的左眼图像和右眼图像的双目视差的大小被设定为大于用于第一3D对象11的产生的左眼图像和右眼图像的双目视差的大小时可以实现。
图2b的右部分是示出显示3D对象的显示装置的虚拟俯视图。
更加具体地,在提供立体感/透射图的虚拟3D对象被显示在现实中看到3D对象的位置处的假定下,图2b的右部示出从顶部观察到的显示装置。
参考图2b的右部分,将会理解的是,第一3D对象11和第二3D对象12两者都具有正深度。这当用于第二3D对象12的产生的左眼图像和右眼图像的双目视差和用于第一3D对象11的产生的左眼图像和右眼图像的双目视差两者被设定为正双目视差时实现。
参考图2a和图2b的如上所述的3D对象的产生和3D对象的深度的调节可以被同等地应用于下面的描述。
图3a和图3b是示出在显示单元上感测触摸输入的显示装置的视图。
在下文中,将会基于处理器的操作详细地描述在显示单元上的触摸输入的感测。
图3a示出当多个3D对象被显示时感测在显示单元上的触摸输入的显示装置,并且图3b示出当单个3D对象被显示时感测在显示单元上的触摸输入的显示装置。
参考图3a和图3b,处理器可以显示具有不同深度的至少一个3D对象。在一个示例中,如在图3a中所示例性地示出的,处理器可以显示具有第一深度的第一3D对象11和具有与第一深度不同的第二深度的第二3D对象12。在另一示例中,如在图3b中所示例性地示出的,处理器可以仅显示具有第一深度的第一3D对象。
在一个实施例中,处理器可以接收包含图像数据和深度信息的数字信号,经由接收到的数字信号的解码生成图像,将所生成的图像划分成具有特定的双目视差的左眼图像和右眼图像,并且同步和显示左眼图像和右眼图像,从而显示具有特定的深度的3D对象。在此,数字信号可以进一步包含触觉信息。
另外,处理器可以启用触觉反馈功能。处理器可以将控制信号传送到触觉反馈单元以启用触觉反馈功能。在一个示例中,处理器可以在接收包含触觉信息的数字信号时启用触觉反馈功能。在另一示例中,处理器可以在显示从包含触觉信息的数字信号产生的3D对象时启用触觉反馈功能。这样,当必要时处理器可以选择性地启用触觉反馈功能,这可以减少显示装置的待机功率。
另外,处理器可以感测显示单元上的触摸输入20,并且确定第一触摸位置是否在第一3D对象11的第一显示区域内。
在此,第一触摸位置指的是从其开始感测在显示单元上的触摸输入20的位置。在一个示例中,第一触摸位置可以是从其开始感测显示单元上的触摸输入20的触摸坐标。在另一示例中,第一触摸位置可以是从其开始感测在显示单元上的触摸输入20的触摸区域。在此,第一显示区域指的是在第一3D对象11的XY平面中的显示区域。在这样的情况下,XY平面指的是与显示单元平面的方位大体上相等的平面。例如,XY平面可以是与显示单元平面大致平行的平面。在一个实施例中,第一显示区域可以是与第一3D对象11对应的显示单元的特定区域,并且可以不同于其中在现实中显示具有用于第一3D对象11的产生的双目视差的左眼图像和右眼图像的显示单元的显示区域。例如,第一显示区域可以是通过与第一3D对象11的前侧区域的(x,y)坐标相等的(x,y)坐标限定的显示单元的特定区域。在这样的情况下,第一显示区域可以是显示表面、触摸表面、或者触觉表面的区域。
在一个实施例中,处理器可以将从其开始感测触摸输入20的触摸坐标识别为第一触摸位置,并且确定第一显示区域是否包括与被识别为第一触摸位置的触摸坐标相同的(x,y)坐标,从而确定第一触摸位置是否在第一3D对象11的第一显示区域内。例如,如果第一显示区域包括与被识别为第一触摸位置的触摸坐标相同的坐标(x,y),则处理器可以确定第一触摸位置是在第一3D对象的第一显示区域内。在另一实施例中,处理器可以将从其开始感测触摸输入20的触摸区域识别为第一触摸位置,并且确定第一显示区域是否基本上包括被识别为第一触摸位置的触摸区域,从而确定第一触摸位置是否处于第一3D对象11的第一显示区域内。例如,如果第一显示区域基本上包括被识别为第一触摸位置的触摸区域,则处理器可以确定第一触摸位置在第一3D对象的第一显示区域内。另外,处理器可以采用各种其它的方法以确定第一触摸位置是否在第一3D对象11的第一显示区域内。
如果第一触摸位置在第一显示区域内,则处理器可以调节第一3D对象11的第一深度以使第一3D对象11的第一表面与显示单元的表面重合。另外,处理器可以调节第一3D对象11的第一深度以使第一3D对象11的第一表面与显示单元的触摸表面、显示表面、或者触觉表面中的任何一个重合。在这样的情况下,重合可以指的是不仅精确的重合,而且大致的重合。在此,第一表面可以是在第一3D对象11的XY平面中的至少一个表面。另外,第一表面可以是面向显示单元的正向的第一3D对象11的至少一个表面。
在一个实施例中,如果第一表面具有可变的深度,则处理器可以调节在与第一触摸位置对应的第一表面中的第一位置的深度以与显示单元的表面的深度一致,从而调节第一深度以使第一表面与显示单元的表面基本上重合。在此,第一表面的深度变化意指第一表面不是具有单个深度的平面。例如,处理器可以将在具有与被识别为第一触摸位置的触摸坐标相同的(x,y)坐标的第一表面中的第一位置的深度调节成作为显示单元的表面的深度的零深度,从而调节第一深度以使第一表面与显示单元的表面大体上重合。在另一实施例中,处理器可以将在与被识别为第一触摸位置的触摸区域相对应的第一表面中的第一位置的深度调节成作为显示单元的表面的深度的零深度,从而调节第一深度以使第一表面与显示单元的表面大体上重合。另外,处理器可以采用各种其它的方法以调节第一深度以使第一表面与显示单元的表面大体上重合。
另外,如果第一表面具有可变深度,则处理器可以调节第一表面的最小的深度以致与显示单元的深度一致,从而调节第一深度以使第一表面与显示单元的表面大体上重合。
如果第一表面具有恒定的深度,则处理器可以调节第一表面的深度以致与显示单元的表面的深度一致,从而调节第一深度以使第一表面与显示单元的表面大体上重合。
如上所述,如果第一3D对象的第一深度被调节,则处理器可以和第一深度一起地调节至少一个3D对象的深度。例如,如在图3a中示例性地示出的,处理器可以通过与第一3D对象11的第一深度的调节宽度相同的宽度来调节第二3D对象12的第二深度。因此,能够保持在深度调节之前和之后显示的第一3D对象11和第二3D对象12之间的恒定距离,这可以在第一3D对象11和第二3D对象12之间给用户提供恒定的透视图。
如果第一触摸位置在第一显示区域内,则处理器可以生成与第一3D对象11对应的第一触觉反馈。处理器可以使用被包含在用于第一3D对象11的产生的数字信号中的触觉信息经由触觉反馈单元生成第一触觉反馈。处理器可以在第一触摸位置处、或者在与第一触摸位置对应的第一显示区域中产生第一触觉反馈。
在这样的情况下,处理器可以使用触觉反馈单元生成与第一3D对象11对应的第一触觉反馈。在一个实施例中,触觉反馈单元可以使用超声振动生成与第一3D对象11对应的第一触觉反馈,并且通过改变超声振动的频率和幅度中的至少一个来控制第一触觉反馈。在另一实施例中,触觉反馈单元可以经由微安培数电流的产生来生成与第一3D对象11对应的第一触觉反馈,并且通过改变微安培数电流的强度和产生时段中的至少一个来控制第一触觉反馈。
在下文中,将会参考图4a至图5d描述与其中处理器检测感测到的触摸输入的移动的情况有关的各种实施例。
图4a至图4c是示出根据一个实施例的、检测感测到的触摸输入的移动的显示装置的视图,并且图5a至图5d是示出根据另一实施例的、检测感测到的触摸输入的移动的显示装置的视图。
如参考图3a和图3b在上面所描述的,当感测到在显示单元上的触摸输入时,处理器可以确定第一触摸位置是否在第一3D对象11的第一显示区域内。另外,如果第一触摸位置在第一3D对象11的第一显示区域内,则处理器可以调节第一深度以使第一3D对象11的第一表面与显示单元的表面重合,并且可以产生与第一3D对象11对应的第一触觉反馈。
另外,处理器可以检测感测到的触摸输入的移动。在一个实施例中,处理器可以基于由触摸传感器单元提供的触摸信息来检测感测到的触摸输入的移动。更加具体地,处理器可以基于由触摸传感器单元提供的信息来检测感测到的触摸输入是否从第一触摸位置移动到第二触摸位置同时保持与显示单元接触。
如果触摸输入移动同时保持与显示单元接触,则处理器可以确定第二触摸位置是否在第一3D对象11的第一显示区域内或者是否在第二3D对象12的第二显示区域内。
在此,第二触摸位置指的是感测到的触摸输入移动到的同时保持与显示单元接触的位置。在一个示例中,第二触摸位置可以是感测到的触摸输入移动到的触摸坐标。在另一示例中,第二触摸位置可以是感测到的触摸输入移动到的触摸区域。在此,第一显示区域等于图3a和图3b的上面的描述,并且因此将会省略其详细描述。在此,第二显示区域指的是在第二3D对象12的XY平面中的显示区域。在这样的情况下,XY平面指的是大体上等于显示单元平面的方位的平面。例如,XY平面可以是与显示单元平面大体上平行的平面。在一个实施例中,第二显示区域可以是与第二3D对象12对应的显示单元的特定区域,并且可以不同于其中在现实中显示具有用于第二3D对象12的产生的双目视差的左眼图像和右眼图像的显示单元的显示区域。例如,第二显示区域可以是通过等于第二3D对象12的前侧区域的(x,y)坐标的(x,y)坐标限定的显示单元的特定区域。在这样的情况下,第二显示区域可以是显示表面、触摸表面、或者触觉表面的区域。
在这样的情况下,经由与确定第一触摸位置是否在参考图3a和图3b如上面描述的第一3D对象11的第一显示区域内的方法相同的方法,处理器可以确定第二触摸位置是否在第一3D对象11的第一显示区域内或者是否在第二3D对象12的第二显示区域内。
图4a至图4c示出与其中第二触摸位置在第一3D对象11的第一显示区域内的情况有关的实施例。即,图4a至图4c示出与其中触摸输入的触摸位置在相同的3D对象内移动的情况有关的实施例。在这样的情况下,第一3D对象11的第一表面的深度在图4a至图4c之间变化。
参考图4a至图4c,如果第二触摸位置在第一3D对象11的第一显示区域内,则处理器可以保持所产生的第一触觉反馈。即,如在图4a至图4c中所示例性地示出的,处理器可以在不需要产生被改变的触觉反馈的情况下保持所产生的触觉反馈,因为触摸输入的触摸位置在相同的3D对象内移动。
然后,处理器可以基于第二触摸位置来调节第一3D对象11的第一深度和/或第二3D对象12的第二深度。
如在图4a中所示例性地示出的,如果第二触摸位置在第一3D对象11的第一显示区域内并且第一3D对象11的第一表面具有可变的深度,则处理器可以调节第一3D对象11的第一深度。在这样的情况下,处理器可以调节第一3D对象11的第一深度以使与第二触摸位置对应的第一表面的点的深度与显示单元的表面的深度一致。在这样的情况下,处理器可以经由图3a和图3b的上述方法调节第一3D对象11的第一深度。
如在图4b中所示例性地示出的,如果第二触摸位置在第一3D对象11的第一显示区域内并且第一3D对象11的第一表面具有可变的深度,则处理器可以调节第二3D对象12的第二深度以及第一3D对象11的第一深度。在这样的情况下,处理器可以通过与第一深度的调节宽度相同的宽度并且在与第一3D对象11的第一深度的调节方向相同的方向中调节第二3D对象12的第二深度。在这样的情况下,处理器可以经由图3a和图3b的上述方法调节第二3D对象12的第二深度。因此,能够保持在深度调节之前和之后显示的第一3D对象11和第二3D对象12之间的恒定的距离,这可以在第一3D对象11和第二3D对象12之间给用户提供恒定的透视图。
如在图4c中示例性地示出的,如果第二触摸位置在第一3D对象11的第一显示区域内并且第一3D对象11的第一表面的深度具有可变的深度,则处理器可以保持第一3D对象11的第一深度和第二3D对象的第二深度。即,如果在产生相同的触觉反馈的3D对象内检测到触摸输入的移动,则处理器不可以调节3D对象的深度。另外,即使当第二触摸位置在第一3D对象11的第一显示区域内并且第一3D对象11的第一表面具有恒定的深度时,处理器也可以保持第一3D对象11的第一深度和第二3D对象的第二深度。
图5a至图5d示出与其中第二触摸位置在第二3D对象12的第二显示区域内的情况有关的实施例。即,图5a至图5d示出与其中触摸输入的触摸位置移动到另一3D对象的情况有关的实施例。在这样的情况下,图5a至图5c示出其中第一触觉反馈和第二触觉反馈彼此不同的情况,并且图5d示出其中第一触觉反馈和第二触觉反馈彼此相等的情况。在图5a至图5d中,可以基于斜线的方向来区分第一触觉反馈和第二触觉反馈是否彼此相等。
参考图5a至图5c,如果第二触摸位置在第二3D对象12的第二显示区域内,则处理器可以产生与第二3D对象12对应的第二触觉反馈。
另外,处理器可以基于第二触摸位置来调节第一3D对象11的第一深度和/或第二3D对象12的第二深度。
如在图5a中所示例性地示出的,如果第二触摸位置位于第二显示区域内并且第一触觉反馈和第二触觉反馈彼此不同,则处理器可以调节第二3D对象12的第二深度以使第二3D对象12的第二表面与显示单元的表面重合。在这样的情况下,处理器可以经由图3a和图3b的上述方法来调节第二3D对象12的第二深度。
如在图5b中示例性地示出的,如果第二触摸位置位于第二显示区域内并且第一触觉反馈和第二触觉反馈彼此不同,则处理器可以调节第一3D对象11的第一深度以及第二3D对象12的第二深度。在这样的情况下,处理器可以通过与第二深度的调节宽度相同的宽度并且在与第二3D对象12的第二深度的调节方向相同的方向中调节第一3D对象11的第一深度。在这样的情况下,处理器可以经由图3a和图3b的上述方法来调节第二3D对象12的第二深度。因此,能够保持在深度调节之前和之后显示的第一3D对象11和第二3D对象12之间的恒定的距离d1,这可以在第一3D对象11和第二3D对象12之间给用户提供恒定的透视图。
如在图5c中示例性地示出的,如果第二触摸位置在第二显示区域并且第一触觉反馈和第二触觉反馈彼此不同,则处理器可以调节第一3D对象11的第一深度以及第二3D对象12的第二深度。在这样的情况下,处理器可以调节与第二3D对象12的第二深度的调节宽度成比例的第一3D对象11的第一深度。即,处理器可以通过从第二3D对象12的第二深度的调节宽度减小或者增加了预定的比率的宽度调节第一3D对象11的第一深度。在这样的情况下,经由图3a和图3b的上述方法,处理器可以调节第一3D对象11的第一深度。因此,当在深度调节之前显示的第一3D对象11和第二3D对象12之间的距离d1不同于在深度调节之后显示的第一3D对象11和第二3D对象12之间的距离d2时,能够根据深度调节在第一3D对象11和第二3D对象12之间给用户提供被改变的距离感。
如在图5d中示例性地示出的,如果第二触摸位置在第二显示区域内并且第一触觉反馈和第二触觉反馈彼此相等,则处理器可以保持第一3D对象11的第一深度和第二3D对象12的第二深度。
在下文中,将会描述与其中触摸输入的感测结束的情况有关的各种实施例。
图6a和图6b是示出根据实施例的、结束触摸输入的感测的显示装置的视图。
处理器可以识别在显示单元上的触摸输入的感测的结束。更加具体地,处理器可以基于由触摸传感器单元提供的信息来识别在显示单元上的触摸输入的感测的结束。在一个实施例中,处理器可以在预定的时间或者更长的时间内通过感测触摸输入的存在来识别触摸输入的感测的结束。
参考图6a,如果触摸输入的感测的结束被识别,则处理器可以将第一3D对象11的第一深度和第二3D对象12的第二深度重新调节为默认深度。即,如果触摸输入的感测的结束被识别,则处理器可以将第一3D对象11的第一深度重新调节为第一默认深度并且将第二3D对象12的第二深度重新调节为第二默认深度。在这样的情况下,处理器可以经由图3a至图5d的上述方法分别重新调节第一3D对象11的第一深度和第二3D对象12的第二深度。另外,如果触摸输入的感测的结束被识别,则处理器可以将第一3D对象11的第一深度和第二3D对象12的第二深度中的任何一个重新调节为默认深度。例如,如果触摸输入的感测的结束被识别,则处理器可以仅将当触摸输入的感测结束时提供触觉反馈的3D对象的深度重新调节为默认深度。在这样的情况下,处理器可以经由图3a至图5d的上述方法重新调节第一3D对象11的第一深度和第二3D对象12的第二深度。另外,如果调节第一深度和/或第二深度到默认深度,则处理器可以提供示出将第一深度和/或第二深度重新调节为默认深度的过程的视觉效果。例如,处理器可以在视觉上示出第一3D对象11和第二3D对象12的移动,从而提供示出将第一深度和/或第二深度重新调节为默认深度的过程的视觉效果。
参考图6b,如果触摸输入的感测的结束被识别,则处理器可以将第一3D对象11的第一深度或第二3D对象12的第二深度保持在当触摸输入的感测结束时获取的深度。
图7是示出根据一个实施例的显示装置的控制方法的流程图。
参考图7,显示装置可以显示具有不同深度的至少一个3D对象(S710)。在一个示例中,显示装置可以显示具有第一深度的第一3D对象、和具有与第一深度不同的第二深度的第二3D对象。在另一示例中,显示装置可以仅显示具有第一深度的第一3D对象。
在一个实施例中,显示装置可以接收包含图像数据和深度信息的数字信号,经由接收到的数字信号的解码生成图像,将所生成的图像划分成具有特定的双目视差的左眼图像和右眼图像,并且同步和显示左眼图像和右眼图像,从而显示具有特定深度的3D对象。在此,数字信号可以进一步包含触觉信息。
接下来,显示装置可以启用触觉反馈功能(S720)。在一个示例中,显示装置可以在接收包含触觉信息的数字信号时启用触觉反馈功能。在另一示例中,显示装置可以在显示从包含触觉信息的数字信号产生的3D对象时启用触觉反馈功能。这样,当必要时显示装置可以选择性地启用触觉反馈功能,这可以减少显示装置的待机功率。
接下来,显示装置可以感测在显示单元上的触摸输入(S730)。在一个实施例中,显示单元可以使用触觉传感器单元来感测在显示单元上的触摸输入。
接下来,显示装置可以确定第一触摸位置是否在第一3D对象的第一显示区域内(S740)。在此,第一触摸位置指的是从其开始感测在显示单元上的触摸输入的位置。在一个示例中,第一触摸位置可以是从其开始感测在显示单元上的触摸输入的触摸坐标。在此,第一显示区域指的是在第一3D对象的XY平面中的显示区域。在这样的情况下,XY平面指的是与显示单元平面的方位大体上相等的平面。参考图3a和图3b在上面已经描述了第一触摸位置和第一显示区域,并且因此在下文中将会省略其详细描述。
在一个实施例中,显示装置可以将从其开始感测触摸输入的点的触摸坐标识别为第一触摸位置,并且确定第一显示区域是否包括与对应的触摸坐标相同的(x,y)坐标,从而判断第一触摸位置是否在第一显示区域内。经由图3a和图3b的上述方法,显示装置确定第一触摸位置是否在第一显示区域内,并且因此在下文中将会省略其详细描述。
接下来,如果第一触摸位置是第一显示区域内,则显示装置可以调节第一3D对象的第一深度以使第一3D对象的第一表面与显示单元的表面重合,并且可以生成与第一3D对象对应的第一触觉反馈(S750)。在此,第一表面可以是在第一3D对象的XY平面中的至少一个表面。另外,第一表面可以是面向显示单元的正向的第一3D对象的至少一个表面。参考图3a和图3b在上面已经描述了第一表面,并且因此在下文中将会省略第一表面的详细描述。
在一个实施例中,如果第一表面具有可变的深度,则显示装置可以调节在与第一触摸位置对应的第一表面中的位置的深度以与显示单元的表面的深度一致,从而调节第一深度以使第一表面与显示单元的表面大体上重合。在另一实施例中,如果第一表面具有恒定的深度,则显示装置可以调节第一表面的深度以致与显示单元的表面的深度一致,从而调节第一深度以使第一表面与显示单元的表面大体上重合。经由图3a和图3b的上述方法,显示装置可以调节第一深度以使第一3D对象的第一表面与显示单元的表面重合并且显示第一3D对象,并且因此在下文中将会省略其详细描述。
另外,显示装置可以使用触觉反馈单元生成与第一3D对象对应的第一触觉反馈。在这样的情况下,处理器可以在第一触摸位置处或者在与第一触摸位置对应的第一显示区域中生成第一触觉反馈。
在一个实施例中,触觉反馈单元可以使用超声振动生成与第一3D对象对应的第一触觉反馈,并且通过改变超声振动的频率和幅度中的至少一个来控制第一触觉反馈。在另一实施例中,触觉反馈单元可以经由微安培数电流的产生来生成与第一3D对象对应的第一触觉反馈,并且通过改变微安培数电流的强度和产生时段中的至少一个来控制第一触觉反馈。显示装置经由图3a和图3b的上述方法以产生与第一3D对象对应的第一触觉反馈,并且因此在下文中将会省略其详细描述。
图8是示出根据另一实施例的显示装置的控制方法的流程图。
参考图8,显示装置可以检测触摸输入的移动(S810)。在一个实施例中,显示装置可以基于由触摸传感器单元提供的触摸信息来检测感测到的触摸输入的移动。更加具体地,显示装置可以基于由触摸传感器单元提供的信息来检测感测到的触摸输入是否移动同时保持与显示单元接触。
接下来,如果触摸输入移动同时保持与显示单元接触,则显示装置可以确定第二触摸位置是否在第一3D对象的第一显示区域内、或者是否在第二3D对象的第二显示区域内(S820)。在此,第二触摸位置指的是感测到的触摸输入移动到的同时保持与显示单元接触的位置。在此,第二显示区域指的是在第二3D对象的XY平面中的显示区域。在这样的情况下,XY平面指的是与显示单元平面的方位大体上相等的平面。参考图3a至图5d在上面已经描述了第二触摸位置和第二显示区域,并且因此在下文中将会省略其详细描述。另外,经由图3a和图3b的上述方法,显示装置确定第二触摸位置是否在第一显示区域内、或者是否在第二显示区域内,并且因此在下文中将会省略其详细描述。
接下来,如果第二触摸位置在第一显示区域内,则显示装置可以保持所产生的第一触觉反馈(S830)。
接下来,如果第二触摸位置在第二显示区域内,则显示装置可以调节第二3D对象的第二深度以使第二3D对象的第二表面与显示单元的表面重合,并且可以产生与第二3D对象对应的第二触觉反馈(S840)。在这样的情况下,显示装置可以经由图3a和图3b的上述方法来调节第二3D对象的第二深度,并且因此在下文中将会省略其详细描述。另外,显示装置可以经由图3a和图3b的上述方法来产生与第二3D对象对应的第二触觉反馈,并且因此在下文中将会省略其详细描述。
虽然为了方便起见各个附图已经被单独地描述,但在各个附图中描述的实施例可以被组合以实现新的实施例。此外,根据本领域的技术人员的需要来设计在其中记录执行以上描述的实施例的程序的计算机可读的记录介质处于本公开的范围之内。
另外,显示装置及其控制方法不限于上述实施例的配置和方法,并且所有或者一些实施例可以选择性地组合以实现各种修改。
显而易见的是,虽然上面已经示出和描述了优选的实施例,但本公开不局限于以上描述的特定实施例,并且在不背离所附的权利要求的主旨的情况下,能够由本领域的技术人员作出各种修改和变型。因此意图是,修改和变型不应该被理解为与本公开的技术精神或者预期无关。
此外,本公开描述装置发明和方法发明两者,并且两者发明的描述都可以根据需要被互补地应用。
发明模式
已经以执行本发明的最佳模式描述了各种实施例。
对本领域的技术人员显而易见的是,在没有背离本发明的精神或者范围的情况下,能够在本发明中作出各种修改和变型。因此意图是,只要本发明的修改和变型在所附的权利要求和它们的等效物的范围内,本发明就覆盖它们。
工业适用性
如上所述,本发明整体或部分地适用于电子设备。
Claims (19)
1.一种显示装置,包括:
显示单元,所述显示单元被配置为显示具有不同深度的至少一个3D对象;
触摸传感器单元,所述触摸传感器单元被配置为感测在所述显示单元上的触摸输入;
触觉反馈单元,所述触觉反馈单元被配置为产生与所述3D对象对应的触觉反馈;以及
处理器,所述处理器被配置为控制所述显示单元、所述触摸传感器单元以及所述触觉反馈单元,
其中,所述处理器进一步被配置为:
启用触觉反馈功能,
如果所述触摸输入被感测到,则确定所述触摸输入的第一触摸位置是否在具有第一深度的第一3D对象的第一显示区域内,其中,所述第一显示区域是所述第一3D对象的XY平面中的显示区域,
如果所述第一触摸位置在所述第一显示区域内,则调节所述第一深度以使所述第一3D对象的第一表面与所述显示单元的表面重合并且产生与所述第一3D对象对应的第一触觉反馈,
如果所述触摸输入从所述第一触摸位置移动到第二触摸位置同时保持与所述显示单元接触,则所述处理器进一步被配置为确定所述第二触摸位置是否在所述第一3D对象的第一显示区域内、或者是否在具有第二深度的第二3D对象的第二显示区域内,并且
其中,所述第二深度不同于所述第一深度,并且所述第二显示区域是在所述第二3D对象的XY平面中的显示区域。
2.根据权利要求1所述的显示装置,其中,所述第一3D对象的第一表面是在所述第一3D对象的XY平面中的至少一个表面。
3.根据权利要求1所述的显示装置,其中,所述第一3D对象的第一表面是在所述显示单元的正向中的至少一个表面。
4.根据权利要求1所述的显示装置,其中,如果所述第一表面具有恒定的深度,则所述处理器进一步被配置为调节所述第一深度以使所述第一表面的深度与所述显示单元的表面的深度一致。
5.根据权利要求1所述的显示装置,其中,如果所述第一表面具有可变深度,则所述处理器进一步被配置为调节所述第一深度以使与所述第一触摸位置对应的所述第一表面中的第一位置的深度与所述显示单元的表面的深度一致。
6.根据权利要求1所述的显示装置,其中,如果所述第一3D对象的第一深度被调节,则所述处理器进一步被配置为与所述第一深度一起地调节所述至少一个3D对象的深度。
7.根据权利要求1所述的显示装置,其中,如果所述第二触摸位置在所述第一显示区域内,则所述处理器进一步被配置为保持所产生的第一触觉反馈。
8.根据权利要求1所述的显示装置,其中,如果所述第二触摸位置在所述第二显示区域内,则所述处理器进一步被配置为调节所述第二深度以使所述第二3D对象的第二表面与所述显示单元的表面重合并且产生与所述第二3D对象对应的第二触觉反馈。
9.根据权利要求8所述的显示装置,其中,所述第二3D对象的第二表面是在所述第二3D对象的XY平面中的表面。
10.根据权利要求8所述的显示装置,其中,如果所述第二3D对象的第二深度被调节,则所述处理器进一步被配置为与所述第二深度一起地调节所述第一3D对象的第一深度。
11.根据权利要求10所述的显示装置,其中,如果所述第一3D对象的第一深度与所述第二深度一起被调节,则所述处理器进一步被配置为与所述第二深度的调节值成比例调节所述第一深度。
12.根据权利要求1所述的显示装置,其中,如果所述触摸输入的感测结束被识别,则所述处理器进一步被配置为将所述第一深度重新调节成第一默认深度。
13.根据权利要求8所述的显示装置,其中,如果所述触摸输入的感测的结束被识别,则所述处理器进一步被配置为将所述第一深度调节成第一默认深度并且将所述第二深度调节成第二默认深度。
14.根据权利要求12或者13所述的显示装置,其中,在预定的时间或者更长的时间内通过感测所述触摸输入的缺乏来识别所述触摸输入的感测的结束。
15.根据权利要求1或者8所述的显示装置,其中,如果所述触摸输入的感测的结束被识别,则所述处理器进一步被配置为保持当所述触摸输入的感测结束时获取的深度。
16.根据权利要求1所述的显示装置,其中,所述触觉反馈单元被配置为使用超声振动产生所述触觉反馈,并且通过改变所述超声振动的频率和幅度中的至少一个来控制所述触觉反馈。
17.根据权利要求1所述的显示装置,其中,所述触觉反馈单元被配置为经由微安培数电流的产生而产生所述触觉反馈,并且通过改变所述微安培数电流的强度和产生时段中的至少一个来控制所述触觉反馈。
18.一种显示装置的控制方法,所述方法包括:
显示具有不同深度的至少一个3D对象;
启用触觉反馈功能;
感测在显示单元上的触摸输入;
确定所述触摸输入的第一触摸位置是否在具有第一深度的第一3D对象的第一显示区域内,
其中,所述第一显示区域是在所述第一3D对象的XY平面中的显示区域,
如果所述第一触摸位置在所述第一显示区域内,则调节所述第一深度以使所述第一3D对象的第一表面与所述显示单元的表面重合并且产生与所述第一3D对象对应的第一触觉反馈;以及
如果所述触摸输入从所述第一触摸位置移动到第二触摸位置同时保持与所述显示单元接触,则确定所述第二触摸位置是否在所述第一3D对象的第一显示区域内、或者是否在具有第二深度的第二3D对象的第二显示区域内,并且
其中,所述第二深度不同于所述第一深度,并且所述第二显示区域是在所述第二3D对象的XY平面中的显示区域。
19.根据权利要求18所述的控制方法,进一步包括:
如果所述第二触摸位置在所述第一显示区域内,则保持所产生的第一触觉反馈;以及
如果所述第二触摸位置在所述第二显示区域内,则调节所述第二深度以使所述第二3D对象的第二表面与所述显示单元的表面重合从而显示所述第二3D对象并且产生与所述第二3D对象对应的第二触觉反馈。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0116200 | 2013-09-30 | ||
KR1020130116200A KR102201733B1 (ko) | 2013-09-30 | 2013-09-30 | 디스플레이 디바이스 및 그 제어 방법 |
US14/164,924 US9563275B2 (en) | 2013-09-30 | 2014-01-27 | Display device and control method thereof |
US14/164,924 | 2014-01-27 | ||
PCT/KR2014/001365 WO2015046684A1 (en) | 2013-09-30 | 2014-02-20 | Display device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105593789A CN105593789A (zh) | 2016-05-18 |
CN105593789B true CN105593789B (zh) | 2018-10-12 |
Family
ID=52739639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480053686.9A Expired - Fee Related CN105593789B (zh) | 2013-09-30 | 2014-02-20 | 显示装置及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9563275B2 (zh) |
EP (1) | EP3053007A4 (zh) |
KR (1) | KR102201733B1 (zh) |
CN (1) | CN105593789B (zh) |
WO (1) | WO2015046684A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102223281B1 (ko) * | 2014-07-23 | 2021-03-05 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
EP3002666A1 (en) * | 2014-10-02 | 2016-04-06 | Huawei Technologies Co., Ltd. | Interaction method for user interfaces |
JP2017211694A (ja) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10671167B2 (en) * | 2016-09-01 | 2020-06-02 | Apple Inc. | Electronic device including sensed location based driving of haptic actuators and related methods |
KR102591807B1 (ko) * | 2016-11-21 | 2023-10-23 | 한국전자통신연구원 | 촉감자극을 생성하는 방법 및 장치 |
KR102263593B1 (ko) | 2017-02-08 | 2021-06-10 | 현대자동차주식회사 | 차량, 및 그 제어방법 |
CN106843502B (zh) * | 2017-03-10 | 2019-10-18 | 京东方科技集团股份有限公司 | 一种三维显示的触控互动系统及方法 |
WO2019138867A1 (ja) * | 2018-01-09 | 2019-07-18 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
CN109782950B (zh) * | 2019-01-04 | 2022-05-17 | Oppo(重庆)智能科技有限公司 | 触摸电极控制方法、装置、存储介质及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102387247A (zh) * | 2010-09-01 | 2012-03-21 | Lg电子株式会社 | 移动终端以及用于控制其三维显示的方法 |
CN102469333A (zh) * | 2010-11-11 | 2012-05-23 | 索尼公司 | 信息处理设备、立体显示方法和程序 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8094129B2 (en) * | 2006-11-27 | 2012-01-10 | Microsoft Corporation | Touch sensing using shadow and reflective modes |
US20080303795A1 (en) * | 2007-06-08 | 2008-12-11 | Lowles Robert J | Haptic display for a handheld electronic device |
US8141282B2 (en) | 2008-01-16 | 2012-03-27 | Esselte Corporation | Filing device with retractable tabs |
KR101553842B1 (ko) * | 2009-04-21 | 2015-09-17 | 엘지전자 주식회사 | 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법 |
US20110249022A1 (en) * | 2010-04-08 | 2011-10-13 | Rajesh Poornachandran | Techniques for managing power use |
KR20120000663A (ko) * | 2010-06-28 | 2012-01-04 | 주식회사 팬택 | 3d 객체 처리 장치 |
KR101763263B1 (ko) * | 2010-12-24 | 2017-07-31 | 삼성전자주식회사 | 3d 디스플레이 단말 장치 및 그 조작 방법 |
KR101852428B1 (ko) | 2011-03-09 | 2018-04-26 | 엘지전자 주식회사 | 이동 단말기 및 그의 3d객체 제어방법 |
JP5960796B2 (ja) * | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
JP2013097593A (ja) * | 2011-11-01 | 2013-05-20 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
KR101899458B1 (ko) | 2012-01-11 | 2018-09-18 | 삼성전자주식회사 | 3d 디스플레이 장치 및 그 방법 |
TWI444851B (zh) * | 2012-04-18 | 2014-07-11 | Au Optronics Corp | 三度空間互動系統及三度空間互動方法 |
KR20140063272A (ko) * | 2012-11-16 | 2014-05-27 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
-
2013
- 2013-09-30 KR KR1020130116200A patent/KR102201733B1/ko active IP Right Grant
-
2014
- 2014-01-27 US US14/164,924 patent/US9563275B2/en active Active
- 2014-02-20 EP EP14848099.9A patent/EP3053007A4/en not_active Ceased
- 2014-02-20 WO PCT/KR2014/001365 patent/WO2015046684A1/en active Application Filing
- 2014-02-20 CN CN201480053686.9A patent/CN105593789B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102387247A (zh) * | 2010-09-01 | 2012-03-21 | Lg电子株式会社 | 移动终端以及用于控制其三维显示的方法 |
CN102469333A (zh) * | 2010-11-11 | 2012-05-23 | 索尼公司 | 信息处理设备、立体显示方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
US20150091818A1 (en) | 2015-04-02 |
CN105593789A (zh) | 2016-05-18 |
WO2015046684A1 (en) | 2015-04-02 |
EP3053007A4 (en) | 2017-05-10 |
EP3053007A1 (en) | 2016-08-10 |
US9563275B2 (en) | 2017-02-07 |
KR102201733B1 (ko) | 2021-01-12 |
KR20150037027A (ko) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105593789B (zh) | 显示装置及其控制方法 | |
JP5357238B2 (ja) | 携帯端末機及びその動作制御方法 | |
JP5830987B2 (ja) | 表示制御装置、表示制御方法およびコンピュータプログラム | |
US8866739B2 (en) | Display device, image display system, and image display method | |
KR102691894B1 (ko) | 헤드 마운티드 디스플레이 장치 및 이의 제어방법 | |
US20160291327A1 (en) | Glass-type image display device and method for controlling same | |
US20120242793A1 (en) | Display device and method of controlling the same | |
US9470894B2 (en) | Head mounted display and method of controlling the same | |
EP2509323A2 (en) | Mobile terminal and image depth control method thereof | |
KR101873759B1 (ko) | 영상 표시 장치 및 그 제어방법 | |
KR102070281B1 (ko) | 두부 장착형 디스플레이 장치 및 이의 제어방법 | |
JP2010154533A (ja) | 立体画像表示装置及びその制御方法 | |
WO2007100204A1 (en) | Stereovision-based virtual reality device | |
US20160249043A1 (en) | Three dimensional (3d) glasses, 3d display system and 3d display method | |
CN106067833B (zh) | 移动终端及其控制方法 | |
US20120069000A1 (en) | Mobile terminal and method for controlling operation of the mobile terminal | |
KR20140146889A (ko) | 전자장치 및 전자장치의 동작방법 | |
WO2014034653A1 (ja) | 電子機器、その制御方法及びプログラム | |
US20150084878A1 (en) | Display device generating tactile feedback and method of controlling the same | |
US20140293024A1 (en) | Foldable display and method and apparatus for controlling the same | |
US9727144B2 (en) | 3D interaction apparatus, display device including the same, and method of driving the same | |
US10506290B2 (en) | Image information projection device and projection device control method | |
US10334233B2 (en) | Portable device that controls photography mode, and control method therefor | |
KR101633336B1 (ko) | 이동 단말기 및 그 제어방법 | |
CN103270760B (zh) | 在立体变焦过程中用于视差调节的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181012 |