CN103376917B - 感测3d对象的设备和方法 - Google Patents
感测3d对象的设备和方法 Download PDFInfo
- Publication number
- CN103376917B CN103376917B CN201310127495.XA CN201310127495A CN103376917B CN 103376917 B CN103376917 B CN 103376917B CN 201310127495 A CN201310127495 A CN 201310127495A CN 103376917 B CN103376917 B CN 103376917B
- Authority
- CN
- China
- Prior art keywords
- close
- msub
- touch
- objects
- mrow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Abstract
提供了一种用于感测3D对象的设备和方法。所述设备包括:显示单元,包括布置了至少一个3D对象的立体空间上的相对于接近触摸的灵敏度高于阈值的第一感测空间和相对于接近触摸的灵敏度低于阈值的第二感测空间;以及控制器,用于如果在第二感测空间上产生了接近触摸,则沿预定方向移动预定3D对象,如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标,并执行与所述3D对象对应的功能。
Description
技术领域
本发明总体涉及一种用于感测三维(3D)对象的设备和方法,更具体地讲,涉及一种能够提供对被显示为立体空间上的立体用户界面(UI)的3D对象的精确感测的用于感测3D对象的设备和方法。
背景技术
随着用于便携式终端的三维(3D)显示器的发展,用户界面被立体地显示为虚拟立体空间上的3D对象。用于显示与虚拟立体空间上的3D对象的交互的技术包括使用触摸传感器的第一方案和使用空间上的接近触摸或输入的第二方案。
使用触摸传感器的第一方案立体地显示用户界面(UI),并使用基于触摸的二维(2D)坐标输入方案。使用空间上的接近触摸/输入的第二方案可获得3D空间坐标。在使用空间上的接近触摸/输入的第二方案中,该空间上的输入坐标与3D对象的空间坐标相关联,以与3D空间上的3D对象进行交互。
当使用触摸传感器时,在与在显示单元的前表面之前显示的3D对象的交互中,输入对象(诸如手等)必须穿过3D对象,从而引起视觉不适。为了避免这样的现象,将3D对象显示在显示单元的后表面上。在此情况下,立体效果降级,并且3D对象配置会受到一些限制。
图1是用于描述根据现有技术的以与诸如手等的对象重叠的方式显示在虚拟立体空间上显示的3D对象的状态的示图。
参照图1,以与诸如手等的对象重叠地显示在虚拟立体空间上显示的3D对象。将显示为立体UI的3D对象显示在显示单元的前表面上的虚拟空间A和显示单元的后表面上的虚拟空间B上。当用户触摸显示单元来选择相应3D对象时,用户的手穿过3D对象,从而以重叠的方式显示3D对象和用户的手。
当使用空间上的接近触摸/输入时,检测3D空间坐标以与3D对象进行交互,从而不发生前述问题,但是由于检测方法和技术上的限制,感测分辨率随显示单元与用户之间的距离的增加而减小。例如,在距显示单元的前表面1cm的高度处,可以以99%的精确性区分并选择5×3个图标;在3cm的高度处,精确性降至80%,从而为了维持99%的相同精确性,仅可显示3×2个图标。
图2A和图2B是用于描述根据现有技术的根据接近传感器与手之间的距离的误差范围的示图。
参照图2A,对于显示单元与用户之间的短距离,可被精确识别和检测的区域较小,从而可显示许多3D对象。在图2B中,对于显示单元与用户之间的长距离,可被精确识别和检测的区域较大,从而与图2A相比,可显示较少的3D对象。
图3A和图3B是用于描述针对接近传感器与手之间的距离的感测精确性的示图。
图3A示出根据显示单元与用户之间的距离Z可显示的3D对象的数量,图3B示出根据显示单元与用户之间的距离Z的感测精确性。
发明内容
本发明的各个方面在于至少解决上面提到的问题和/或缺点并至少提供下面描述的优点。因此,本发明的一方面在于提供一种用于检测3D对象的设备和方法,其中,可提供相对于被显示为虚拟立体空间上的立体UI的3D对象的灵敏度的精确性。
本发明的一方面在于提供一种用于感测3D对象的设备和方法,其中,不以与产生接近触摸的对象(诸如用户的手或笔)重叠的方式显示被显示为立体空间上的立体UI的3D对象。
本发明的另一方面在于提供一种用于感测3D对象的设备和方法,其中,引导在立体空间上的具有相对于3D对象的低灵敏度的空间(或低灵敏度空间)中产生的接近触摸向具有相对于3D对象的高灵敏度的空间(或高灵敏度空间)移动。
根据本发明的一方面,提供一种用于检测3D对象的设备。所述设备包括:显示单元,包括布置了至少一个3D对象的立体空间上的相对于接近触摸的灵敏度高于阈值的第一感测空间和相对于接近触摸的灵敏度低于阈值的第二感测空间;控制器,用于如果在第二感测空间上产生了接近触摸,则沿预定方向移动预定3D对象,如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标,并用于执行与所述3D对象对应的功能。
根据本发明的另一方面,提供一种用于感测三维(3D)对象的方法。所述方法包括:如果在布置了至少一个3D对象的立体空间上的相对于接近触摸的灵敏度低于阈值的第二感测空间上产生了接近触摸,则沿预定方向移动预定3D对象;如果在第二感测空间上产生的接近触摸被移动并在相对于接近触摸的灵敏度高于阈值的第一感测空间上被产生,则检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标;以及执行与所述3D对象对应的功能。
附图说明
通过下面结合附图进行的详细描述,本发明的示例性实施例的以上和其它特点和优点将更加清楚,其中:
图1是用于描述以与诸如手等的对象重叠的方式显示在虚拟立体空间上显示的3D对象的状态的示图;
图2A和图2B是用于描述根据接近传感器与手之间的距离可感测的误差范围的示图;
图3A和图3B是用于描述针对接近传感器与手之间的距离的感测精确性的示图;
图4是根据本发明的示例性实施例的终端的框图;
图5是根据本发明的第一示例性实施例的感测3D对象的处理的流程图;
图6A和图6B是用于描述图5的示图;
图7是示出根据本发明的第二示例性实施例的感测3D对象的处理的流程图;
图8A至图8D是用于描述图7的示图;
图9A和图9B是示出根据本发明的第三示例性实施例的感测3D对象的处理的流程图;
图10A至图10D是用于描述图9A和图9B的示图;
图11A和图11B是用于描述根据本发明的示例性实施例的用于检测3D对象的坐标的接近触摸的运动量的示图;
图12是示出根据本发明的第四示例性实施例的感测3D对象的处理的流程图;
图13A和13B是用于描述图12的示图。
贯穿附图,应注意,相同的标号用于描绘相同或相似的元件、特点和结构。
具体实施方式
提供以下参照附图的描述以帮助全面理解由权利要求及其等同物限定的本发明的示例性实施例。以下描述包括各种特定细节以帮助理解,但是这些细节应被视为仅是示例性的。因此,本领域的普通技术人员将认识到,在不脱离本发明的范围和精神的情况下,可对在此描述的实施例进行各种改变和修改。另外,为了清楚和简明,可省略公知功能和构造的描述。
在以下描述和权利要求中使用的术语和词语不限于书面含义,而仅被发明人用来使本发明得到清楚和一致的理解。因此,对本领域的技术人员而言应当清楚的是,提供以下对本发明的示例性实施例的描述仅为了说明目的,而不是为了限制由权利要求及其等同物限定的本发明的目的。
应理解,单数形式包括复数指示物,除非上下文另外明确地指示。因此,例如,参考“组件表面”包括参考一个或多个这样的表面。
根据本发明的示例性实施例的终端可包括便携式终端和固定终端。便携式终端可以是可容易携带的移动电子装置,诸如视频电话、蜂窝电话、智能电话、国际移动电信(IMT)-2000终端、宽带码分多址(WCDMA)终端、通用移动电信服务(UMTS)终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、数字多媒体广播(DMB)终端、电子书(E-book)、便携式计算机(例如,笔记本、平板等)、数字相机等。固定终端可以是桌面个人计算机(PC)。
在本发明的实施例中,接近触摸表示在不产生对显示单元的直接触摸的情况下由于接近显示单元而允许显示单元上的定位被识别的动作,接触触摸表示在显示单元上实际触摸的动作。
图4是根据本发明的示例性实施例的终端的框图。
参照图4,射频(RF)单元123执行终端的无线电通信功能。RF单元123包括用于对发送信号的频率进行上变换并放大发送信号的RF发送器以及用于对接收信号进行低噪声放大并对接收信号的频率进行下变换的RF接收器。数据处理器120包括用于对发送信号进行编码和调制的发送器以及用于对接收信号进行解调和解码的接收器。即,数据处理器120可包括调制解调器和编解码器。在此,编解码器包括用于处理包数据的数据编解码器以及用于处理音频信号(诸如语音)的音频编解码器。音频处理器125再现从数据处理器120的音频编解码器输出的接收音频信号,或者将从麦克风产生的发送音频信号发送到数据处理器120的音频编解码器。
键输入单元127包括用于输入数字和字符信息的键以及用于设置各种功能的功能键。
存储器130包括程序存储器和数据存储器。程序存储器存储用于控制终端的总体操作的程序。根据本发明的实施例,存储器130可存储用于当在显示至少一个3D对象区域的虚拟立体空间的第二感测空间上产生的接近触摸移动并随后在第一感测空间上被产生或者作为对显示单元160的接触触摸被产生时控制3D对象的检测的程序、以及用于根据在第二感测空间上产生的接近触摸的移动速度和方向来控制3D对象的移动和显示的程序。数据存储器临时存储在程序的执行期间产生的数据。
根据本发明的实施例,存储器130包括用于存储具有不同3D深度并可在虚拟立体空间上被显示为立体用户界面(UI)的至少一个3D对象的3D对象存储单元135。
存储在3D对象存储单元135中的3D对象是包括关于用于与用户交互的3D坐标系统的位置、形状和尺寸的对象数据,包括针对各种动作(诸如用户的执行、移动、拖动、放下等)的反应和动作。
控制器110用于控制终端的整体操作。
根据本发明的实施例,当在第二感测空间上发生接近触摸时,控制器110沿预定方向移动预定3D对象,当在第二感测空间上产生的接近触摸被移动并在显示单元160的第一感测空间上被产生时,控制器110检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标,并执行与该3D对象对应的功能。
根据本发明的示例性实施例,用于显示至少一个3D对象的虚拟立体空间包括与显示单元160的Z轴方向对应的前虚拟空间和与显示单元160的-Z轴方向对应的后虚拟空间。
显示单元160的前虚拟空间包括:第一感测空间,包括沿布置了至少一个接近传感器的显示单元160的Z轴方向的预定空间;以及第二感测空间,包括从第一感测空间的最大Z值的沿Z轴方向的预定空间。
第一感测空间是相对于接近触摸的灵敏度大于阈值的高灵敏度空间,第二感测空间是相对于接近触摸的灵敏度小于阈值的低灵敏度空间。可根据接近传感器单元的类型和特性来设置第一感测空间和第二感测空间。
因此,控制器110仅感测在第一感测空间上产生的接近触摸,从而精确地检测由用户选择的3D对象。
根据本发明的实施例,在虚拟立体空间上,控制器110分别在显示单元160的包括第一感测空间和第二感测空间的前虚拟空间以及显示单元160的后虚拟空间上布置具有不同3D深度的至少一个3D对象,并分别在前虚拟空间和后虚拟空间上显示它们。
根据本发明的第一示例性实施例,当在立体空间上显示具有不同深度的所述至少一个3D对象期间在第二感测空间上产生接近触摸时,控制器110沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象。当在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生时,控制器110停止移动所述至少一个3D对象,并检测所述至少一个3D对象中的与接近触摸对应的一个3D对象的坐标。
在此情况下,当在第二感测空间上产生接近触摸时,控制器110检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向。当在第一感测空间上产生接近触摸时,控制器110检测接近触摸的X、Y和Z坐标,以检测与接近触摸对应的3D对象的坐标。
为了允许在第一感测空间上产生接近触摸的用户的手或笔遇到所述至少一个3D对象中的与接近触摸对应的3D对象,根据本发明的示例性实施例,控制器110通过使用以下参照图11A和图11B描述的等式1来调整在第二感测空间上移动的所述至少一个3D对象的移动量。
根据本发明的第二示例性实施例,当在第二感测空间上产生接近触摸时,控制器110从布置在立体空间上的所述至少一个3D对象中选择候选3D对象,并沿产生接近触摸的移动方向移动并显示所有3D对象。
控制器110可将存在于产生接近触摸的位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象,或者将值小于接近触摸的产生位置的X、Y和Z坐标中的Z值的所有3D对象选择为候选3D对象。
在本发明的第二示例性实施例中,将通过使用存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象被选择为候选3D对象的示例来进行描述。
随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的坐标的精确性增加。因此,随着产生接近触摸的位置与第一感测空间之间的距离减小,控制器110使用于检测候选3D对象的预定范围变窄,从而减少3D候选对象的数量。
为了允许在第一感测空间上产生接近触摸的用户的手或笔遇到候选3D对象中的与接近触摸对应的一个3D对象,控制器110通过使用等式1调整候选3D对象的移动量。
根据本发明的第三实施例,当在第二感测空间上产生接近触摸时,控制器110从布置在立体空间上的所述至少一个3D对象中选择候选3D对象。
控制器110可将存在于产生接近触摸的位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象,或者将值小于接近触摸的产生位置的X、Y和Z坐标中的Z值的所有3D对象选择为候选3D对象。
在本发明的第三示例性实施例中,将通过使用存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象被选择为候选3D对象的示例来进行描述。
当布置在显示单元的后立体空间上的3D对象存在于选择的候选3D对象中时,控制器110沿与产生接近触摸的移动方向相反的方向移动并显示候选3D对象。
当沿与产生接近触摸的移动方向相反的方向移动并显示候选3D对象时,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的产生位置的坐标的精确性得到提高。随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,控制器110使用于检测候选3D对象的预定范围变窄,从而减少候选3D对象的数量。当沿与产生接近触摸的移动方向相反的方向移动并显示候选3D对象时,控制器110可增加在最初选择的候选3D对象中的值大于接近触摸的X、Y和Z坐标中的Z值的3D对象的透明性,或者可不显示3D对象,从而避免3D对象与产生接近触摸的用户的手或笔重叠。
为了允许在第一感测空间上产生接近触摸的用户的手或笔遇到候选3D对象中的与接近触摸对应的一个3D对象,控制器110通过使用等式1调整候选3D对象的移动量。
根据本发明的第四示例性实施例,当在显示单元的前立体空间上产生接近触摸时,控制器110沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象。当在第二感测空间上产生的接近触摸作为显示单元160上的接触触摸被移动并被产生时,控制器110停止移动所述至少一个3D对象,并检测所述至少一个3D对象中的与接触触摸对应的一个3D对象的坐标。
当在显示单元160的前立体空间上产生接近触摸时,控制器110检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向。当在显示单元160上产生接触触摸时,控制器110检测接触触摸的X、Y和Z坐标,以检测与接触触摸对应的3D对象的坐标。空间输入感测单元170可以是能够接收用户输入作为从几厘米的短范围至几米的长范围的3D空间坐标的任何装置。
主动装置可以是用于使用复杂介质(诸如红外或超声波、电场、磁场等)的发射器和接收器识别相对于手(或相似对象,诸如笔等)的距离和位置的装置。被动装置可以是用于通过使用相机模块140进行图像处理或通过检测磁场/电场的变化来识别相对于手的距离和位置的装置。
空间输入感测单元170还可被实现为能够仅测量产生了接触触摸的显示单元160与显示单元160的Z轴之间的距离的传感器的组合。
将使用作为空间输入感测单元170的至少一个接近传感器175被布置在显示单元160内或者被布置在接近显示单元160的示例来描述本发明的示例性实施例。
接近传感器175表示通过使用电磁场或红外线的力在不进行机械触摸的情况下检测接近预定检测表面的对象或检测附近对象的存在或不存在的接近传感器。接近传感器175可包括发射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡型接近传感器、电容型接近传感器、磁类型接近传感器、红外接近传感器等。
根据本发明的示例性实施例,空间输入感测单元170提取与在包括第一感测空间和第二感测空间的虚拟立体空间上产生的接近触摸对应的空间坐标,并将提取的空间坐标发送到控制器110,因此确定产生了接近触摸的感测空间。
空间坐标计算和转换单元180将3D对象的空间坐标与由空间输入感测单元170提取的坐标统一。3D对象的空间坐标和由空间输入感测单元170提取的坐标可具有不同的单位,并可根据显示单元160的尺寸以及显示单元160与用户之间的距离而变化。尽管是相同的3D对象,但是其实际显示的尺寸可随着显示单元160的尺寸而改变,从而不仅在单位方面转换空间坐标,而且通过反映环境条件来计算和统一空间坐标。
3D对象格式器185调整3D对象图像适合于显示单元160的装置,以在显示单元160上显示3D对象。
显示单元160在屏幕上显示从图像处理器150输出的图像信号并显示从控制器110输出的用户数据。在此,显示单元160可以是液晶显示器(LCD),在此情况下,显示单元160可包括LCD控制器、能够存储图像数据的存储器、LCD元件等。当LCD以触摸屏实现时,其还可用作输入单元,在此情况下,诸如键输入单元127的键可被显示在显示单元160上。
根据本发明的示例性实施例,显示单元160是能够显示3D图形和3D对象图像的3D显示单元,并且可以是如非眼镜系统的视差屏障型、柱状透镜型、全息型等或者如眼镜系统的时分型、偏振型等。
相机模块140捕获图像,并可包括用于将捕获的图像的光学信号转换为电信号的相机传感器以及用于将由相机传感器捕获的图像的模拟图像信号转换为数字数据的信号处理器。在此,假设相机传感器是电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器,并且信号处理器可被实现为数字信号处理器(DSP)。另外,相机传感器和信号处理器可被实现为单个片或被分离地实现。
图像处理器150执行图像信号处理(ISP)以在显示单元160上显示从相机模块140输出的图像信号。ISP执行诸如伽马校正、插值、颜色空间转换、图像效果、图像缩放、自动白平衡(AWB)、自动曝光(AE)和自动聚焦(AF)的功能。因此,图像处理器150以帧为单位处理从相机模块140输出的图像信号,并输出适应于显示单元160的特征和尺寸的帧图像数据。图像处理器150包括图像编解码器,并以预设方式对显示在显示单元160上的帧图像数据进行压缩,或者将压缩的帧图像数据恢复为原始帧图像数据。在此,图像编解码器可以是联合图像专家组(JPEG)编解码器、运动图像专家组4(MPEG4)编解码器或者小波编解码器。假设图像处理器150具有同屏显示(OSD)功能。图像处理器150可在控制器110的控制下根据显示图像尺寸来输出OSD数据。
将参照图5至图12更加详细地描述上述终端中的3D对象感测操作。
图5是根据本发明的第一实施例的感测3D对象的处理的流程图,图6A和图6B是用于描述图5的示图。下文中,将还参照图4详细地描述本发明的示例性实施例。
参照图5,如果在显示单元160的立体空间上具有不同3D深度的至少一个3D对象被显示为立体UI的步骤501中在第二感测空间上产生了接近触摸,则控制器110感测产生的接近触摸,并在步骤502确定产生了接近触摸的感测空间。
如果控制器110通过空间输入感测单元170确定所产生的接近触摸是在立体空间上的显示单元160的前立体空间的第二感测空间上产生的,则控制器110感测在第二感测空间上的接近触摸的产生,并在步骤502确定接近触摸是否被移动。
如果在第二感测空间上的接近触摸通过用户的手或笔被移动和产生,则控制器110在步骤503感测移动,并在步骤504根据接近触摸的移动速度和移动方向(-Z轴)移动并显示在虚拟立体空间上显示的所有3D对象。虽然在本发明的当前实施例中所有3D对象被移动,但是仅显示在第二感测空间上的3D对象可被移动和显示。
由于第二感测空间具有关于第二感测空间的低感测精确性,因此即使产生了接近触摸,控制器110也不检测3D对象。然而,控制器110可引导在第二感测空间上产生的接近触摸向第一感测空间移动,同时根据接近触摸的移动速度和移动方向移动在立体空间上显示的所有3D对象。因此,在第二感测空间上,为了感测接近触摸到第一感测空间的移动,控制器110可仅检测作为产生了接近触摸的位置的坐标的Z值。
如果当控制器110在步骤504根据接近触摸的移动速度和移动方向(-Z轴)移动并显示在立体空间上显示的所有3D对象时,在立体空间上显示单元160的前立体空间的第一感测空间上感测到接近触摸,则控制器110在步骤505感测第一感测空间上的接近触摸,并在步骤506检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标。控制器110在步骤507执行与通过第一感测空间上的接近触摸选择的3D对象对应的功能。
由于第一感测空间具有高感测精确性,因此如果在第一感测空间上产生接近触摸,则控制器110检测作为接近触摸的产生位置的坐标的X、Y和Z坐标,以检测与接近触摸对应的3D对象的坐标。
将使用作为示例的图6A和图6B描述图5中示出的处理。如图6A中所示,当具有不同3D深度的多个3D对象a1至a4位于包括前立体空间A和后立体空间B的立体空间上时,如果在前虚拟空间A的第二感测空间A-2上产生了接近触摸,则控制器110不检测与在低感测精确性的第二感测空间A-2上产生的接近触摸对应的3D对象。其后,用户执行沿-Z轴方向推动期望的特定3D对象的动作以选择所述特定3D对象,从而控制器110根据接近触摸的移动速度沿-Z轴方向移动并显示在立体空间上显示的所有3D对象a1至a4。
通过上述动作,如图6B中所示,如果在第一感测空间A-1上产生了由用户做出的接近触摸,则控制器110检测与在高感测精确性的第一感测空间A-1上的接近触摸对应的3D对象的坐标。
也就是说,随着用户的手或笔接近显示单元160,3D对象朝显示单元160移动,并且在高感测精确性的第一感测空间A-1上产生接近触摸时,感测触摸并检测相应3D对象的坐标。
当感测到在第一感测空间A-1上的接近触摸的产生时,还可产生触觉反馈(hapticfeedback)(诸如视觉反馈或触觉反馈(tactile feedback))。
另外,根据接近触摸的移动速度沿-Z轴方向移动并显示在虚拟立体空间上显示的所有3D对象a1至a4,从而当用户选择3D对象时避免用户的手和3D对象以重叠的方式显示。
图7是示出根据本发明的第二示例性实施例的感测3D对象的处理的流程图,图8A至图8D是用于描述图7的示图。下文中,将一起参照图4详细地描述本发明的实施例。
参照图7,如果在显示单元160的立体空间上具有不同3D深度的至少一个3D对象被显示为立体UI的步骤701中在第二感测空间上产生了接近触摸,则在步骤702,控制器110感测触摸的产生并确定产生了接近触摸的感测空间。
如果控制器110通过空间输入感测单元170确定所产生的接近触摸是在立体空间上显示单元160的前立体空间的第二感测空间上产生的,则控制器110在步骤702感测在第二感测空间上的触摸的产生,并在步骤703将所述至少一个3D对象中的存在于产生接近触摸的位置的坐标周围预定范围内的3D对象选择为候选3D对象。
控制器110可将存在于产生接近触摸的位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象,或者将值小于接近触摸的产生位置的X、Y和Z坐标中的Z值的所有3D对象选择为候选3D对象。
将假设存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象被选择为候选3D对象来对本发明的示例性实施例做出描述。
在步骤703,在选择候选3D对象之后,控制器110确定是否在被移动的同时产生了第二感测空间上的接近触摸。
如果在通过用户的手或笔被移动的同时产生了第二感测空间上的接近触摸,则控制器110在步骤704感测第二感测空间上的接近触摸,并在步骤705根据接近触摸的移动速度和移动方向(-Z轴)移动并显示所有3D对象。
随着在第二感测空间上被移动的同时产生的接近触摸接近高感测精确性的第一感测空间,感测接近触摸的位置的X、Y和Z坐标的精确性增加,从而用于检测候选3D对象的预定范围减小。
随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间被产生,控制器110在步骤706使用于检测候选3D对象的预定范围变窄,从而减少候选3D对象的数量。候选3D对象的数量根据在第二感测空间上由用户的手或笔产生的接近触摸的位置与第一感测空间之间的距离而改变,从而随着接近触摸接近第一感测空间,感测精确性增加,因此减少了选择的候选3D对象的数量。
由于第二感测空间具有低感测精确性,因此即使产生了接近触摸,控制器110也不检测第二感测空间上的3D对象。然而,控制器110可引导在第二感测空间上产生的接近触摸向第一感测空间移动,同时根据接近触摸的移动速度和移动方向移动在立体空间上显示的所有3D对象。
当在步骤706根据接近触摸的移动速度和移动方向(-Z轴)移动并显示所有3D对象时,如果在立体空间上显示单元160的前立体空间的第一感测空间上感测到接近触摸,则控制器110在步骤707感测第一感测空间上的接近触摸,并在步骤708检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标。在步骤708,控制器110检测数量减少的候选3D对象中的与在第一感测空间上产生的接近触摸对应的一个3D对象的坐标,直到在第一感测空间上产生接近触摸为止。控制器110在步骤709执行与通过第一感测空间上的接近触摸选择的3D对象对应的功能。
以下参照图8A至图8D描述图7中示出的处理。当具有不同3D深度的多个3D对象b1至b6位于包括前立体空间A和后立体空间B的立体空间上时,如果如图8B中所示在显示单元160的前虚拟空间A的第二感测空间A-2上产生了接近触摸,则控制器110选择候选3D对象b1、b2和b3,而不检测与在低感测精确性的第二感测空间A-2上产生的接近触摸对应的3D对象。候选3D对象b1、b2和b3是存在于在第二感测空间A-2上产生的接近触摸的位置的坐标周围预定范围内的3D对象。
当在图8B中在第二感测空间上产生的接近触摸是在被移动至第一感测空间的同时被产生时,如图8C中所示沿接近触摸的移动方向移动所有对象b1至b6,并且随着接近触摸接近第一感测空间,即,随着感测精确性增加,选择的3D对象(例如,b2和b3)的数量减少。其后,当如图8D中所示在第二感测空间上产生的接近触摸在第一感测空间上产生时,控制器110检测候选3D对象b2和b3之间的与接近触摸对应的一个3D对象b3的坐标,并执行相应功能。当感测到第一感测空间A-1上的接近触摸的产生时,还可产生触觉反馈(诸如视觉反馈或触觉反馈)。
在本发明的第二示例性实施例中,直到在低灵敏度的第二感测空间上产生的接近触摸被移动并在高灵敏度的第一感测空间上被产生为止,沿接近触摸的移动方向移动所有3D对象,在所有3D对象的移动期间检测到的候选3D对象的数量减少,并且当在第一感测空间上产生接近触摸时,检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
然而,直到在第二感测空间上产生的接近触摸在第一感测空间上产生为止,可沿接近触摸的移动方向移动所有3D对象中的候选3D对象,候选3D对象的数量可在候选3D对象的移动期间减少,并且当在第一感测空间上产生接近触摸时,可检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
图9A和图9B是示出根据本发明的第三实施例的感测3D对象的处理的流程图,图10A至图10D是用于描述图9A和图9B的示图。下文中,将一起参照图4详细地描述本发明的示例性实施例。
参照图9A和图9B,如果在显示单元160的立体空间上具有不同3D深度的至少一个3D对象被显示为立体UI的步骤901中在第二感测空间上产生了接近触摸,则控制器110感测触摸的产生,并在步骤902确定产生了接近触摸的感测空间。
如果控制器110通过空间输入感测单元170确定所产生的接近触摸是在立体空间上显示单元160的前立体空间的第二感测空间上产生的,则控制器110在步骤902感测第二感测空间上的接近触摸的产生,并在步骤903将所述至少一个3D对象中的存在于产生了接近触摸的位置的坐标周围预定范围内的3D对象选择为候选3D对象。
选择的候选3D对象的数量根据在第二感测空间上由用户的手或笔产生的接近触摸的位置与第一感测空间之间的距离而改变,并且选择的候选3D对象用于引导由用户的手或笔产生的接近触摸,从而在第二感测空间上产生的接近触摸被移动至第一感测空间。
根据本发明的示例性实施例,控制器110可检测存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象来作为候选3D对象,或者将值小于接近触摸的产生位置的坐标的Z值的所有3D对象选择为候选3D对象。
在步骤903选择候选3D对象之后,控制器110确定布置在显示单元160的后立体空间上的3D对象是否存在于候选3D对象中。
如果候选3D对象包括布置在显示单元160的后立体空间上的3D对象,则在步骤904,控制器110感测布置在后立体空间上的3D对象,并确定是否在被移动的同时产生了第二感测空间上的接近触摸。
如果在通过用户的手或笔被移动的同时产生了第二感测空间上的接近触摸,则控制器110在步骤905感测接近触摸,并在步骤906根据接近触摸的移动速度但是沿与接近触摸的移动方向(-Z轴)相反的方向(Z轴)方向移动并显示候选3D对象。
随着在第二感测空间上被移动的同时产生的接近触摸接近高感测精确性的第一感测空间,感测接近触摸的位置的X、Y和Z坐标的精确性增加,从而用于检测候选3D对象的预定范围减小。
因此,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间被产生,控制器110在步骤907使用于检测候选3D对象的预定范围变窄,因此减少了沿与接近触摸的移动方向相反的方向移动的候选3D对象的数量,并显示那些候选3D对象。
当沿与接近触摸的移动方向相反的方向移动的候选3D对象的数量减少并且候选3D对象被显示时,控制器110在步骤908确定具有比接近触摸的位置的X、Y和Z坐标中的Z值更大的值的3D对象是否存在于最初选择的候选3D对象中。
如果存在这样的3D对象,则控制器110在步骤908感测具有更大对象的3D对象,并在步骤909增加具有比接近触摸的位置的X、Y和Z坐标中的Z值更大的值的3D对象的透明度,或者不显示所述3D对象。通过步骤909,可避免3D对象与产生接近触摸的用户的手或笔重叠。
如果检测到与接近触摸对应的一个3D对象或者接近触摸的产生被终止,则透明度增加或未被显示的3D对象可恢复其原始透明度或可再次被显示。
为此,由于第二感测空间具有低感测精确性,因此即使产生了接近触摸,控制器110也不检测第二感测空间上的3D对象。然而,控制器110可引导在第二感测空间上产生的接近触摸向第一感测空间移动,同时沿与接近触摸的移动方向相反的方向移动候选3D对象。
当在减少候选3D对象的数量的同时沿与接近触摸的移动方向(-Z轴)相反的方向(Z轴)移动并显示候选3D对象时,如果在立体空间上显示单元160的前立体空间的第一感测空间上感测到接近触摸,则控制器110在步骤910感测第一感测空间上的接近触摸,并在步骤911检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标。在步骤911,控制器110检测在候选3D对象的数量减少的同时移动的候选3D对象中的与在第一感测空间上产生的接近触摸对应的一个3D对象的坐标,直到在第一感测空间上产生接近触摸为止。控制器110在步骤912执行与通过第一感测空间上的接近触摸选择的3D对象对应的功能。
将参照图10A至图10D描述图9A和图9B中示出的处理。当具有不同3D深度的多个3D对象c1至c6位于包括前立体空间A和后立体空间B的立体空间上时,如果如图10B中所示通过用户的手或笔在显示单元160的前虚拟空间A的第二感测空间A-2上产生了接近触摸,则控制器110选择候选3D对象c2、c5和c6,而不检测与在低感测精确性的第二感测空间A-2上产生的接近触摸对应的3D对象。控制器110确定选择的候选3D对象c2、c5和c6包括布置在显示单元160的后立体空间B上的候选3D对象(例如,c5和c6)。
因此,如果第二感测空间上的接近触摸在被移动至第一感测空间A-1的同时被产生,则控制器110如图10C中所示沿与接近触摸的移动方向(-Z轴)相反的方向(Z轴)移动候选3D对象,并且随着接近触摸接近第一感测空间A-1,感测精确性增加,候选3D对象(例如,c5和c6)的数量减少。
因此,随着第二感测空间A-2上的接近触摸接近第一感测空间A-1,显示在后立体空间B上的候选3D对象c5和c6在朝显示单元160移动的同时被显示。
当候选3D对象沿与接近触摸的移动方向相反的方向被移动时,控制器110确定最初选择的候选3D对象c2、c5和c6是否包括具有比接近触摸的产生位置的坐标中的Z值更大的值的3D对象(例如,c2)。如果存在这样的3D对象c2,则控制器110增加这样的3D对象c2的透明度,或者不显示3D对象c2,从而避免3D对象c2与产生接近触摸的用户的手或笔重叠。
随后,如图10D中所示,如果在第二感测空间上产生的接近触摸在第一感测空间上被产生,则控制器110检测候选3D对象c5和c6中的与接近触摸对应的一个3D对象c5的坐标,并执行相应功能。当感测到第一感测空间A-1上的接近触摸的产生时,还可产生触觉反馈(诸如视觉反馈或触觉反馈)。
图11A和图11B是用于描述根据本发明的示例性实施例的用于检测3D对象的坐标的接近触摸的移动量的示图。
当在显示单元中的低灵敏度的第二感测空间上产生的接近触摸被移动至高灵敏度的第一感测空间时,预定3D对象(布置在立体空间上的至少3D对象或候选3D对象)也被移动。当接近触摸在第一感测空间上被产生时,在第一感测空间上产生接近触摸的用户的手或笔遇到候选3D对象之一,从而候选3D对象中的与接近触摸对应的3D对象的坐标被检测。
为此,为了允许在第一感测空间上产生接近触摸的用户的手或笔遇到预定3D对象中的与接近触摸对应的一个3D对象,可使用等式1调整预定3D对象的移动量,以下将参照图11A和图11B对等式1进行描述:
其中,Z2指示第二感测空间的最大Z值,Z1指示第一感测空间的最大Z值,Zu指示在不存在接近触摸的情况下的3D对象d的位置,Z指示由用户的手或笔产生的接近触摸的位置,Z′u指示根据接近触摸的产生位置的3D对象d的位置,Z0指示3D对象d遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
根据等式1,接近触摸的移动量被调整,使得如果Z大于Z2,则Z′u=Zu,并且如果Z等于Z0,则Z′u=Z0=Z。
图12是示出根据本发明的第四示例性实施例的感测3D对象的处理的流程图,图13A和图13B是用于描述图12的示图。下文中,将一起参照图4详细地描述本发明的实施例。
参照图12,如果在显示单元160的立体空间上具有不同3D深度的至少一个3D对象被显示为立体UI的步骤1201中在显示单元160的前立体空间上产生了接近触摸,则控制器110感测触摸的产生,并在步骤1202确定产生了接近触摸的感测空间。
如果接近触摸是在通过用户的手或笔在显示单元160的前立体空间上被移动的同时被产生的,则控制器110在步骤1203感测接近触摸的产生,并在步骤1204根据接近触摸的移动速度和移动方向(-Z轴)移动并显示在立体空间上显示的所有3D对象。尽管在本发明的第四示例性实施例中所有3D对象被移动,但是仅显示在显示单元160的前立体空间上的3D对象可被移动和显示也是可行的。
在显示单元160的前立体空间上,即使产生了接近触摸,控制器110也不检测3D对象。然而,控制器110可引导在显示单元160的前立体空间上产生的接近触摸接触显示单元160,同时根据接近触摸的移动速度和移动方向移动显示在立体空间上的所有3D对象。因此,为了在显示单元160的前立体空间上感测接近触摸到显示单元160的移动,控制器110可仅检测接近触摸的产生位置的坐标的Z值。
如果当在步骤1204显示在立体空间上的所有3D对象根据接近触摸的移动速度和移动方向(-Z轴)被移动和显示时在显示单元160上产生了接触触摸,则控制器110在步骤1205感测接触触摸,并在步骤1206检测与在显示单元160上产生的接触触摸对应的3D对象的X、Y和Z坐标。控制器110在步骤1207执行与通过显示单元160上的接触触摸选择的3D对象对应的功能。
将参照图13A和图13B描述图12中示出的处理。当具有不同3D深度的多个3D对象e1至e4位于包括前立体空间A和后立体空间B的立体空间上时,如果如图13A中所示在显示单元160的前虚拟空间A上产生了接近触摸,则控制器110不检测与在前立体空间A上产生的接近触摸对应的3D对象。随后,用户执行沿-Z轴方向推动期望的特定3D对象的动作以选择所述特定3D对象,从而控制器110根据接近触摸的移动速度沿-Z轴方向移动并显示在立体空间上显示的所有3D对象e1至e4。
通过上述动作,如图13B中所示,如果在显示单元160上产生了由用户做出的接触触摸,则控制器110检测与在显示单元160上产生的接近触摸对应的3D对象的坐标。
也就是说,随着用户的手或笔接近显示单元160,3D对象朝显示单元160移动,并且在显示单元160上产生接触触摸时,感测所述触摸并检测相应3D对象的坐标。当感测到第一感测空间A-1上的接近触摸的产生时,还可产生触觉反馈(诸如视觉反馈或触觉反馈)。
另外,显示在虚拟立体空间上的所有3D对象e1至e4根据接近触摸的移动速度沿-Z轴方向被移动和显示,从而避免当用户选择3D对象时用户的手和3D对象以重叠的方式被显示。
从上述描述显然的是,通过提供根据本发明的示例性实施例的感测3D对象的设备和方法,可提高在立体空间上被显示为立体UI的3D对象的灵敏度,并可显示3D对象,而不与诸如手的对象重叠。
另外,引导在立体空间上的3D对象的低灵敏度空间中产生的接近触摸向相对于3D对象的高灵敏度的空间移动。
此外,可通过消除手与3D对象之间的视觉不真实性来实现自然界面,并可通过UI的方法解决相对于接近触摸的性能上的限制来提供高可靠性用户体验。
本发明的示例性实施例可被实现为可由计算机在非暂时性计算机可读记录介质上读取的代码。计算机可读记录介质包括存储可由计算机系统读取的数据的所有种类的记录装置。非暂时性计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘、光学数据存储装置以及诸如通过互联网传输的载波。计算机可读记录介质还可分布于联网的计算机系统中,从而计算机可读代码以分布方式被存储和执行。
尽管已经在此参照特定优选实施例示出和描述了本发明的特定示例性实施例,但是本领域的技术人员将理解,在不脱离由权利要求及其等同物限定的本发明的精神和范围的情况下,可在此进行形式和细节上的各种改变。
Claims (32)
1.一种用于感测三维(3D)对象的设备,所述设备包括:
显示单元,包括布置了至少一个3D对象的立体空间上的相对于接近触摸的灵敏度高于阈值的第一感测空间和相对于接近触摸的灵敏度低于阈值的第二感测空间;
控制器,用于如果在第二感测空间上产生了接近触摸,则沿预定方向移动预定3D对象,如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标,并用于执行与所述3D对象对应的功能。
2.如权利要求1所述的设备,其中,立体空间包括与显示单元的Z轴方向对应的前立体空间和与显示单元的-Z轴方向对应的后立体空间,
其中,显示单元的前立体空间包括第一感测空间和第二感测空间,第一感测空间包括从布置了至少一个接近传感器的显示单元的Z轴方向上的预定空间,第二感测空间包括从第一感测空间的最大Z值的Z轴方向上的预定空间。
3.如权利要求1所述的设备,其中,如果在第二感测空间上产生了接近触摸,则控制器沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则控制器停止移动所述至少一个3D对象,并检测所述至少一个3D对象中的与接近触摸对应的一个3D对象的坐标。
4.如权利要求1所述的设备,其中,如果在第二感测空间上产生了接近触摸,则控制器检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向,以及
如果在第一感测空间上产生了接近触摸,则控制器检测接近触摸的X、Y和Z坐标,以检测与接近触摸对应的一个3D对象的坐标。
5.如权利要求3所述的设备,其中,为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到所述至少一个3D对象中的与接近触摸对应的一个3D对象,控制器通过使用下面的等式调整在第二感测空间上移动的所述至少一个3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
6.如权利要求1所述的设备,其中,如果在第二感测空间上产生了接近触摸,则控制器从布置在立体空间上的所述至少一个3D对象中选择候选3D对象,
控制器沿产生接近触摸的移动方向移动并显示所有3D对象,
随着接近触摸的产生位置与第一感测空间之间的距离减小,控制器减少候选3D对象的数量,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则控制器检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
7.如权利要求6所述的设备,其中,控制器将存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象。
8.如权利要求6所述的设备,其中,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的坐标的精确性增加,从而控制器使用于检测候选3D对象的预定范围变窄,因此减少候选3D对象的数量。
9.如权利要求6所述的设备,其中,为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到候选3D对象中的与接近触摸对应的一个3D对象,控制器通过使用下面的等式调整候选3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
10.如权利要求1所述的设备,其中,如果在第二感测空间上产生了接近触摸,则控制器从布置在立体空间上的所述至少一个3D对象中选择候选3D对象,
如果布置在显示单元的后立体空间上的3D对象存在于选择的候选3D对象中,则控制器沿与产生接近触摸的移动方向相反的方向移动并显示候选3D对象,
随着接近触摸的产生位置与第一感测空间之间的距离减小,控制器减少候选3D对象的数量,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则控制器检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
11.如权利要求10所述的设备,其中,控制器将存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象。
12.如权利要求10所述的设备,其中,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的坐标的精确性增加,从而控制器使用于检测候选3D对象的预定范围变窄,因此减少候选3D对象的数量。
13.如权利要求10所述的设备,其中,如果候选3D对象沿与产生接近触摸的移动方向相反的方向被移动和显示,则控制器增加在最初选择的候选3D对象中的具有比接近触摸的X、Y和Z坐标中的Z值更大的Z值的3D对象的透明度,或者不显示这样的3D对象。
14.如权利要求10所述的设备,其中,为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到候选3D对象中的与接近触摸对应的一个3D对象,控制器通过使用下面的等式调整候选3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
2
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
15.如权利要求1所述的设备,其中,如果在显示单元的前立体空间上产生了接近触摸,则控制器沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象,以及
如果在第二感测空间上产生的接近触摸被移动并作为显示单元上的接触触摸被产生,则控制器停止移动所述至少一个3D对象,并检测所述至少一个3D对象中的与接触触摸对应的一个3D对象的坐标。
16.如权利要求15所述的设备,其中,如果在显示单元的前立体空间上产生了接近触摸,则控制器检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向,以及
如果在显示单元上产生了接触触摸,则控制器检测接触触摸的X、Y和Z坐标,以检测与接触触摸对应的一个3D对象的坐标。
17.一种用于感测三维(3D)对象的方法,所述方法包括:
如果在布置了至少一个3D对象的立体空间上的相对于接近触摸的灵敏度低于阈值的第二感测空间上产生了接近触摸,则沿预定方向移动预定3D对象;
如果在第二感测空间上产生的接近触摸被移动并在相对于接近触摸的灵敏度高于阈值的第一感测空间上被产生,则检测与在第一感测空间上产生的接近触摸对应的3D对象的坐标;以及
执行与所述3D对象对应的功能。
18.如权利要求17所述的方法,其中,立体空间包括与显示单元的Z轴方向对应的前立体空间和与显示单元的-Z轴方向对应的后立体空间,
其中,显示单元的前立体空间包括第一感测空间和第二感测空间,第一感测空间包括从布置了至少一个接近传感器的显示单元的Z轴方向上的预定空间,第二感测空间包括从第一感测空间的最大Z值的Z轴方向上的预定空间。
19.如权利要求17所述的方法,还包括:
如果在第二感测空间上产生了接近触摸,则沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则停止所述至少一个3D对象的移动,并检测所述至少一个3D对象中的与接近触摸对应的一个3D对象的坐标。
20.如权利要求19所述的方法,还包括:
如果在第二感测空间上产生了接近触摸,则检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向,以及
如果在第一感测空间上产生了接近触摸,则检测接近触摸的X、Y和Z坐标,以检测与接近触摸对应的一个3D对象的坐标。
21.如权利要求19所述的方法,还包括:为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到所述至少一个3D对象中的与接近触摸对应的一个3D对象,通过使用下面的等式调整在第二感测空间上移动的所述至少一个3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
22.如权利要求17所述的方法,还包括:
如果在第二感测空间上产生了接近触摸,则从布置在立体空间上的所述至少一个3D对象中选择候选3D对象,
沿产生接近触摸的移动方向移动并显示所有3D对象,
随着接近触摸的产生位置与第一感测空间之间的距离减小,减少候选3D对象的数量,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
23.如权利要求22所述的方法,还包括:将存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象。
24.如权利要求22所述的方法,其中,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的坐标的精确性增加,从而使用于检测候选3D对象的预定范围变窄,并减少候选3D对象的数量。
25.如权利要求22所述的方法,还包括:为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到候选3D对象中的与接近触摸对应的一个3D对象,通过使用下面的等式调整候选3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
26.如权利要求18所述的方法,还包括:
如果在第二感测空间上产生了接近触摸,则从布置在立体空间上的所述至少一个3D对象中选择候选3D对象,
如果布置在显示单元的后立体空间上的3D对象存在于选择的候选3D对象中,则沿与产生接近触摸的移动方向相反的方向移动并显示候选3D对象,
随着接近触摸的产生位置与第一感测空间之间的距离减小,减少候选3D对象的数量,以及
如果在第二感测空间上产生的接近触摸被移动并在第一感测空间上被产生,则检测候选3D对象中的与接近触摸对应的一个3D对象的坐标。
27.如权利要求26所述的方法,还包括:将存在于接近触摸的产生位置的X、Y和Z坐标周围预定范围内的3D对象选择为候选3D对象。
28.如权利要求26所述的方法,其中,随着在第二感测空间上产生的接近触摸被移动并接近第一感测空间,接近触摸的坐标的精确性增加,从而使用于检测候选3D对象的预定范围变窄,并减少候选3D对象的数量。
29.如权利要求26所述的方法,还包括:
当候选3D对象沿与产生接近触摸的移动方向相反的方向被移动和显示时,确定具有比接近触摸的X、Y和Z坐标中的Z值更大的Z值的3D对象是否存在于最初选择的候选3D对象中;以及
如果最初选择的候选3D对象包括所述3D对象,则增加具有比接近触摸的X、Y和Z坐标中的Z值更大的Z值的3D对象的透明度,或者不显示所述3D对象。
30.如权利要求26所述的方法,还包括:为了允许产生接近触摸的用户的手或笔在第一感测空间上遇到候选3D对象中的与接近触摸对应的一个3D对象,通过使用下面的等式调整候选3D对象的移动量:
<mrow>
<msubsup>
<mi>Z</mi>
<mi>u</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>></mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Z</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
<mo><</mo>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
<mtd>
<mrow>
<mi>Z</mi>
<mo>&le;</mo>
<msub>
<mi>Z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,Z2指示第二感测空间的最大值,Zu指示在不存在接近触摸的情况下的3D对象的位置,Z指示由用户的手或笔产生的接近触摸的位置,Zu'指示根据接近触摸的产生位置的3D对象的位置,Z0指示3D对象遇到在第一感测空间上产生接近触摸的用户的手或笔的位置。
31.如权利要求18所述的方法,还包括:
如果在显示单元的前立体空间上产生了接近触摸,则沿产生接近触摸的移动方向移动并显示布置在立体空间上的所述至少一个3D对象,以及
如果在第二感测空间上产生的接近触摸被移动并作为显示单元上的接触触摸被产生,则停止所述至少一个3D对象的移动,并检测所述至少一个3D对象中的与接触触摸对应的一个3D对象的坐标。
32.如权利要求31所述的方法,还包括:
如果在显示单元的前立体空间上产生了接近触摸,则检测接近触摸的X、Y和Z坐标中的Z值,以检测接近触摸的移动方向,以及
如果在显示单元上产生了接触触摸,则检测接触触摸的X、Y和Z坐标,以检测与接触触摸对应的一个3D对象的坐标。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120038011 | 2012-04-12 | ||
KR10-2012-0038011 | 2012-04-12 | ||
KR1020130007566A KR20130116167A (ko) | 2012-04-12 | 2013-01-23 | 3차원객체 감지 장치 및 방법 |
KR10-2013-0007566 | 2013-01-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103376917A CN103376917A (zh) | 2013-10-30 |
CN103376917B true CN103376917B (zh) | 2017-09-12 |
Family
ID=48190087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310127495.XA Expired - Fee Related CN103376917B (zh) | 2012-04-12 | 2013-04-12 | 感测3d对象的设备和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9229556B2 (zh) |
EP (1) | EP2650771A3 (zh) |
CN (1) | CN103376917B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011121375A1 (en) * | 2010-03-31 | 2011-10-06 | Nokia Corporation | Apparatuses, methods and computer programs for a virtual stylus |
KR102201732B1 (ko) * | 2013-09-26 | 2021-01-12 | 엘지전자 주식회사 | 디지털 디바이스 및 그 제어 방법 |
US20150244747A1 (en) * | 2014-02-26 | 2015-08-27 | United Video Properties, Inc. | Methods and systems for sharing holographic content |
US10771508B2 (en) | 2016-01-19 | 2020-09-08 | Nadejda Sarmova | Systems and methods for establishing a virtual shared experience for media playback |
KR102203186B1 (ko) * | 2016-10-27 | 2021-01-15 | 서크 코퍼레이션 | 근접 감지 기능을 갖춘 입력 장치의 손가락 추적 |
US10928888B2 (en) * | 2016-11-14 | 2021-02-23 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102203701A (zh) * | 2008-10-27 | 2011-09-28 | 维里逊专利及许可公司 | 接近界面设备、系统和方法 |
CN102402282A (zh) * | 2010-09-07 | 2012-04-04 | 索尼公司 | 信息处理装置、信息处理方法和计算机程序 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US8219936B2 (en) | 2007-08-30 | 2012-07-10 | Lg Electronics Inc. | User interface for a mobile device using a user's gesture in the proximity of an electronic device |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US8373669B2 (en) | 2009-07-21 | 2013-02-12 | Cisco Technology, Inc. | Gradual proximity touch screen |
KR101227949B1 (ko) | 2009-09-09 | 2013-01-31 | 유인오 | 입체 터치 감지 장치 및 그 방법 |
US9104275B2 (en) | 2009-10-20 | 2015-08-11 | Lg Electronics Inc. | Mobile terminal to display an object on a perceived 3D space |
KR20110054256A (ko) | 2009-11-17 | 2011-05-25 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US10146426B2 (en) * | 2010-11-09 | 2018-12-04 | Nokia Technologies Oy | Apparatus and method for user input for controlling displayed information |
JP5649169B2 (ja) * | 2010-11-22 | 2015-01-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム |
KR101748668B1 (ko) * | 2011-04-14 | 2017-06-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 입체영상 제어방법 |
KR101853057B1 (ko) * | 2011-04-29 | 2018-04-27 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
-
2013
- 2013-04-11 US US13/860,807 patent/US9229556B2/en not_active Expired - Fee Related
- 2013-04-12 CN CN201310127495.XA patent/CN103376917B/zh not_active Expired - Fee Related
- 2013-04-12 EP EP13163627.6A patent/EP2650771A3/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102203701A (zh) * | 2008-10-27 | 2011-09-28 | 维里逊专利及许可公司 | 接近界面设备、系统和方法 |
CN102402282A (zh) * | 2010-09-07 | 2012-04-04 | 索尼公司 | 信息处理装置、信息处理方法和计算机程序 |
Also Published As
Publication number | Publication date |
---|---|
US20130271407A1 (en) | 2013-10-17 |
CN103376917A (zh) | 2013-10-30 |
EP2650771A2 (en) | 2013-10-16 |
US9229556B2 (en) | 2016-01-05 |
EP2650771A3 (en) | 2017-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103376917B (zh) | 感测3d对象的设备和方法 | |
CN105429662B (zh) | 戒指型移动终端 | |
AU2014284843B2 (en) | Method for switching digitizer mode | |
CN110333758B (zh) | 用于控制多个对象的显示的方法及其移动终端 | |
US20170090693A1 (en) | Mobile terminal and method of controlling the same | |
EP2753065B1 (en) | Method and apparatus for laying out image using image recognition | |
EP2720126A1 (en) | Method and apparatus for generating task recommendation icon in a mobile device | |
KR101561763B1 (ko) | 터치 스크린을 구비한 전자 장비용 정보 처리 방법 및 장비 | |
KR20170016215A (ko) | 이동단말기 및 그 제어방법 | |
AU2014221602A1 (en) | Apparatus and method for providing haptic feedback to input unit | |
KR20140079012A (ko) | 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법 | |
CN103201714A (zh) | 力感测触摸屏 | |
US9448638B2 (en) | Mobile devices for transmitting and receiving data using gesture | |
US10019219B2 (en) | Display device for displaying multiple screens and method for controlling the same | |
CN102216893A (zh) | 在不使用光标的情况下移动屏上对象的触摸屏设备、方法和图形用户界面 | |
KR20140126129A (ko) | 잠금 및 해제를 제어하는 장치 및 방법 | |
KR20140070150A (ko) | 호버링 입력 효과를 제공하는 전자 장치 및 그 제어 방법 | |
KR20150025635A (ko) | 스크린을 제어하는 전자 장치 및 방법 | |
KR20140082460A (ko) | 복수의 단말들간의 메시지 싱크 방법, 기계로 읽을 수 있는 저장 매체 및 서버 | |
US10739877B2 (en) | Mobile terminal and method for controlling same | |
KR20140136349A (ko) | 대화 기록 장치 및 그 방법 | |
KR102255087B1 (ko) | 객체를 디스플레이하는 전자 장치 및 방법 | |
CN107661102B (zh) | 电子装置及其控制方法 | |
KR20150007862A (ko) | 데이터 제공을 제어하는 휴대 단말 및 방법 | |
WO2013172829A1 (en) | Portable electronic device and method of controlling same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170912 Termination date: 20210412 |
|
CF01 | Termination of patent right due to non-payment of annual fee |