CN102681656A - 提供立体人机界面的电子互动装置以及方法 - Google Patents

提供立体人机界面的电子互动装置以及方法 Download PDF

Info

Publication number
CN102681656A
CN102681656A CN2011104376119A CN201110437611A CN102681656A CN 102681656 A CN102681656 A CN 102681656A CN 2011104376119 A CN2011104376119 A CN 2011104376119A CN 201110437611 A CN201110437611 A CN 201110437611A CN 102681656 A CN102681656 A CN 102681656A
Authority
CN
China
Prior art keywords
mentioned
length
time
distance
decision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011104376119A
Other languages
English (en)
Other versions
CN102681656B (zh
Inventor
胡岳伟
陈正哲
邱挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xueshan Technology Co ltd
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Priority to CN201510230826.1A priority Critical patent/CN105022498B/zh
Publication of CN102681656A publication Critical patent/CN102681656A/zh
Application granted granted Critical
Publication of CN102681656B publication Critical patent/CN102681656B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种提供立体人机界面的电子互动装置及方法。电子互动装置中的处理单元用以决定从对象于第一时间的所在位置到由两个数字摄影模块所形成的平面间的第一长度,以及决定从对象于第二时间的所在位置到平面之间的第二长度。另外,处理单元更用以决定从对象于第三时间的所在位置到平面之间的第三长度,以及根据第一长度、第二长度、以及第三长度决定对象于第三时间对应至立体空间内的深度。特别是,立体空间为显示于显示屏幕,第三时间晚于第一时间与第二时间,第三长度长于第一长度且短于第二长度。本发明提供的提供立体人机界面的电子互动装置以及方法,能够简便且灵活地适用不同用户的手势特性。

Description

提供立体人机界面的电子互动装置以及方法
技术领域
本发明有关于人机界面(Man-Machine Interface,MMI)领域的技术,且特别为有关于一种装置与方法,能够以手势校正(gesture calibration)的方式提供适用不同用户的立体(three-dimensional,3D)人机界面。
背景技术
随着全球所趋,越来越多的电子装置,诸如:计算机、移动电话、多媒体播放装置、游戏设备等,都使用了显示屏幕作为人机界面。人机界面可为显示于显示屏幕上的图形界面,让用户透过特定的耦接硬件组件(例如:数字键组(keypad)、键盘、或鼠标等等)与电子装置进行互动。或者,可进一步整合传感器于显示屏幕中或显示屏幕上,用以检测显示屏幕上的对象接触点,让用户可用笔尖、触控笔(styluses)、或手指去触击或接近显示屏幕,达到与电子装置互动的效果。
然而,上述使用耦接硬件组件或触碰传感器的人机界面都只能提供平面式(意即二维的(2D))的操作界面。此人机界面的设计具有一缺点,乃其在功能面限制了用户与电子装置进行的互动,例如:在平面上仅能容纳有限数量的图示(icon)或用户界面(UI)控件目。由于目前的趋势显示有越来越多的应用涉及立体式的操作方式,因此亟需提供一种立体人机界面,能够简便且灵活地适用不同用户的手势特性。
发明内容
有鉴于此,本发明提供一种提供立体人机界面的电子互动装置以及方法。
本发明的一实施例提供了一种电子互动装置,用以提供立体人机界面。该行动通讯装置包括处理单元,决定从对象于第一时间的所在位置到由两个数字摄影模块所形成的平面之间的第一长度,决定从上述对象于第二时间的所在位置到上述平面之间的第二长度,决定从上述对象于第三时间的所在位置到上述平面之间的第三长度,以及根据上述第一长度、上述第二长度以及上述第三长度决定上述对象于上述第三时间对应至立体空间内的深度,其中上述立体空间为显示于显示屏幕,上述第三时间晚于上述第一时间与上述第二时间,上述第三长度长于上述第一长度且短于上述第二长度。
本发明的另一实施例提供了一种提供立体人机界面之方法,包括以下步骤:决定从对象于第一时间的所在位置到由两个数字摄影模块所形成的平面之间的第一长度;决定从上述对象于第二时间的所在位置到上述平面之间的第二长度;决定从上述对象于第三时间的所在位置到上述平面之间的第三长度,其中上述第三时间晚于上述第一时间与上述第二时间,上述第三长度长于上述第一长度且短于上述第二长度;以及根据上述第一长度、上述第二长度、以及上述第三长度决定上述对象于上述第三时间对应至立体空间内的深度。
关于本发明其他附加的特征与优点,所属领域技术人员,在不脱离本发明的精神和范围内,当可根据本案实施方法中所揭露的电子互动装置以及提供立体人机界面的方法,做些许的更动与润饰而得到。本发明提供的提供立体人机界面的电子互动装置以及方法,能够简便且灵活地适用不同用户的手势特性。
附图说明
图1为根据本发明一实施例所述的电子互动装置的示意图。
图2为根据本发明一实施例所述的电子互动装置10的范例正面视图。
图3为显示根据图2的一用户手势校正的范例示意图。
图4为一范例图显示由数字摄影机12、13所分别撷取的影像中同一对象的相隔位差。
图5为根据本发明一实施例所述的一立体深度计算方法的范例示意图。
图6为根据本发明一实施例所述提供立体人机界面的方法流程图。
具体实施方式
在说明书及权利要求当中使用了某些词汇来指称特定的组件。所属领域中技术人员应可理解,硬件制造商可能会用不同的名词来称呼同一个组件。本说明书及权利要求并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。在通篇说明书及权利要求当中所提及的“包括”、“包含”为开放式的用语,故应解释成“包含但不限定于”以及“包含但不限定于”。以外,“耦接”一词在此为包含任何直接及间接的电性连接手段。因此,若文中描述一第一装置耦接于一第二装置,则代表该第一装置可直接电性连接于该第二装置,或透过其他装置或连接手段间接地电性连接至该第二装置。文中所用术语“大致”以及“实质”是指在可接受的误差范围内,所属领域的技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。举例而言,“实质对齐”是指在不影响结果正确性时,技术人员能够接受的与“完全对齐”有一定误差的放置方式。
本章节所叙述的是实施本发明的最佳方式,目的在于说明本发明的精神而非用以限定本发明的保护范围,本发明范围由权利要求所限定。应理解下列实施例可经由软件、硬件、韧体、或上述任意组合来实现。
图1为根据本发明一实施例所述的电子互动装置的示意图。电子互动装置10装备有显示屏幕11以及两个数字摄影机12、13,并由显示屏幕11以及数字摄影机12、13组成部份的立体人机界面以供用户与电子互动装置10进行互动。明确来说,立体人机界面可包括显示于显示屏幕11上的屏幕选单(screen menus)、图标(icon)、文字讯息(message)、对象(object)等等,而数字摄影机12、13用以撷取用户手势的影像。数字摄影机12或13可包括摄影镜头、影像感应芯片、前端信号处理器、影像信号处理器、以及帧(frame)缓存器(frame buffer)等组件,共同运作以撷取位于其前方对象的影像。数字摄影机12或13透过摄影镜头以红光、绿光、蓝光的色彩强度(intensity)记录彩色的影像,再把彩色影像以可变电荷的型式储存于诸如互补金属氧化半导体(Complementary Metal-OxideSemiconductor,CMOS)或电荷耦合器(Charge-Coupled Device,CCD)等等的影像感应芯片中。实质为模拟的可变电荷进一步经由前端信号处理器转换为数字信号,影像信号处理器再根据该数字信号产生原始的贝尔数组(Bayer pattern)影像。贝尔数组中的每个像素(pixel)包括了相关于单一色彩元素(例如:绿色、蓝色、红色)的信息。影像信号处理器中所具备的一色彩插值(interpolation)单元会对贝尔数组影像进行插值,以取得完整的彩色影像,即RGB位图(bitmap)影像。RGB位图影像可记录手或笔等任意对象的影像。RGB位图影像中的每个像素包括了相关于三色元素(绿色、蓝色、红色)的信息。RGB位图影像还可再经由影像信号处理器中所具备的一伽玛调整(gamma correction)单元进行校正以产生一已调整的RGB位图影像,已调整的RGB位图影像可经由影像信号处理器中所具备的一RGB-YCbCr转换单元转换为一YCbCr位图影像。之后,再把RGB位图影像或YCbCr位图影像储存在帧缓存器以供后续分析处理。需注意的是,在某些实施例,为了提升效能分析以及减少储存空间,可仅储存RGB位图影像或YCbCr位图影像中的红色(R)元素或亮度(Y)元素。电子互动装置10中的处理单元14可为一般用途处理器(general-purpose processor)、微控制单元(Micro-Control Unit,MCU)或其它逻辑组件,通过加载并执行储存单元15(可为内存、硬盘、或其它储存组件)中的程序代码,以提供立体人机界面的功能。电子互动装置10可为一移动电话、电视、桌面计算机(desktop computer)或工作站的屏幕、笔记本电脑(laptop)、便携式媒体播放器(Portable Media Player,PMP)、便携式游戏机(gaming console)、全球定位系统(Global Positioning System,GPS)的导航装置等等。
进一步说明,显示屏幕11用以显示由人机界面控制模块(未绘示)所产生的一虚拟(virtual)立体空间的视觉呈现。设置数字摄影机12、13的位置形成一平面,且根据数字摄影机12、13所撷取到的用户手势的影像,可决定从用户手势到该平面的距离。之后,可再将该距离对应至上述虚拟立体空间中的一特定位置。然而,不同用户可能有不同的手势特征,举例来说,不同用户的手势移动范围可能并不相同,因为身高较高的用户其手臂长度通常比身高较矮的用户长。为了可以根据不同用户手势的特征提供适合的立体人机界面,首先,需要由人机界面控制模块(未绘示)执行一校正过程。人机界面控制模块(未绘示)可为一韧体或软件模块、或韧体/软件的综合模块,该人机界面控制模块(未绘示)由处理单元14控制并与数字摄影机12、13协同运作。图2为根据本发明一实施例所述的电子互动装置10的范例正面视图。如图2所示,显示屏幕11显示了一个虚拟立体房间,该虚拟立体房间里放置有收音机、电视、书架等对象,且数字摄影机12、13所形成的平面与显示屏幕11的平面一致(conform to)。为了让用户的手势特征能够顺利适用于该虚拟立体房间,必须先决定用户惯用的手势深度与该虚拟立体房间的总深度之间的对应关系。图3为显示根据图2的一用户手势校正的范例示意图。首先,在校正过程进行中的时间t1,处理单元14可设定显示屏幕11弹出一提示,以提示用户将其手虚拟地指到该虚拟立体房间内最远程的对象,然后处理单元14决定用户的手与显示屏幕11的平面之间的长度Lfar,举例来说,显示屏幕11可显示一箭头指向该虚拟立体房间内最后面的书架以提示用户将手虚拟地触碰该书架。需注意的是,上述虚拟的指到或触碰行为并不需要真的接触到或接近显示屏幕11。接着,在校正过程进行中的时间t2,处理单元14可设定显示屏幕11弹出一提示,以提示用户将其手虚拟地指到该虚拟立体房间内最近端的对象,然后处理单元14决定用户的手与显示屏幕11的平面之间的长度Lnear,举例来说,显示屏幕11可显示一箭头指向该虚拟立体房间内地板上的收音机以提示用户将手虚拟地触碰该收音机。据此,便可决定长度Lfar与Lnear的差为用户手势的惯用深度。应可理解的是,用户可进一步戴上红、蓝、绿、或其它颜色的指套以增加上述惯用手势深度的计算精准度。或者,用户亦可使用光笔来进行上述校正过程。
完成校正过程之后,在立体人机界面的正常作业程序(regular manipulation)中,处理单元14再根据长度Lfar与Lnear决定用户的手随意摆放的位置与显示屏幕11的平面之间的长度Lcurrent。然后把长度Lfar、Lnear、Lcurrent带入公式(1)以计算出用户的手的目前位置对应到虚拟立体房间内的深度:
L near - L current L near - L far × T - - - ( 1 )
,其中T代表上述立体空间的总深度。
在决定长度Lfar、Lnear、Lcurrent的过程中,数字摄影机12、13需撷取位于显示屏幕11前方的影像。由于数字摄影机12、13设置于相距D的两个位置上,所以在数字摄影机12、13所撷取到的两个影像中的同一对象(例如:手、手指、或光笔等等)可能位于不同的位置。如图4所示,透过重迭两个影像,可决定同一对象的相隔位差d。因此,长度Lfar、Lnear、或Lcurrent可根据距离D与相隔位差d而决定。在一实施例,长度Lfar、Lnear、或Lcurrent的决定步骤可使用立体深度计算(stereo depth calculation)方法建立一三角形并参考距离D与相隔位差d以决定出该对象与显示屏幕11的平面之间的长度。图5为根据本发明一实施例所述的一立体深度计算方法的范例示意图。立体深度计算方法所建立的三角形由三个节点n1~n3所构成,其中节点n1、n2对应至数字摄影机12、13。当数字摄影机12、13撷取位于节点n3上的标的(subject)时,该标的在两影像中位于实质相同的位置。需注意的是,节点n3与显示屏幕11的平面为相距一固定的距离H,且距离H预先于电子互动装置10的制造与组装过程中所设定或已知。决定了距离H、距离D、以及相隔位差d之后,可依公式(2)使用归一化互相关(normalized cross correlation)技术决定对象与显示屏幕11的平面之间的长度:
( 1 - d D ) × H - - - ( 2 )
在另一实施例,可透过储存“距离显示屏幕11的平面的多个预定长度Lp”与”一标的在数字摄影机12、13所分别撷取的影像中的多个相隔位差dc”之间的对应关系的查找表(lookup table)来决定长度Lfar、Lnear、或Lcurrent。其中”距离显示屏幕11的平面的多个预定长度Lp”与”一标的在数字摄影机12、13所分别撷取的影像中的多个相隔位差dc”之间的对应关是在电子互动装置10制造与组装过程中所预定。在此提供表1作为查找表的一范例如下:
    预定长度Lp(像素)     对应的相隔位差dc(像素)
    50     10
    60     12
    80     14
    ...     ...
表1.
明确来说,处理单元14先决定数字摄影机12、13在时间t1、t2、或t3所撷取的影像中一对象的相隔位差,然后在查找表中搜寻该相隔位差的对应项目(match),最后根据找到的对应项目决定长度Lfar、Lnear、或Lcurrent。如果在查找表中找不到该相隔位差的对应项目,则处理单元14找出查找表中最接近该相隔位差的前后相隔位差d’与d”,并找出相隔位差d’与d”对应的预定长度L’与L”,然后依公式(3)使用等比例相关(equal proportional correlation)技术计算出上述对象与显示屏幕11的平面之间的长度:
( d - d ′ d ′ ′ - d ′ ) × ( L ′ ′ - L ′ ) + L ′ - - - ( 3 )
举例来说,如果一对象在数字摄影机12、13于一特定时间所撷取的影像中的相隔位差为11像素,则对象与显示屏幕11的平面之间的长度经计算后为
Figure BDA0000124037610000072
像素。应可理解上述查找表中所储存的数值虽然以”像素”为单位,但亦可使用其它量测单位为基准,例如:英吋(inch)、分米(centimeter)、或厘米(milimeter)等等,且本发明不在此限。
在又一实施例,本发明亦提出另一替代方案,一并运用立体深度计算方法以及查找表来决定长度Lfar、Lnear、或Lcurrent。处理单元14先决定数字摄影机12、13在时间t1、t2、或t3所撷取的影像中一对象的相隔位差d,然后在查找表中搜寻该相隔位差d的对应项目,以取得长度Lfar、Lnear、或Lcurrent。如果在查找表中找不到该相隔位差d的对应项目,处理单元14不使用等比例相关技术,而使用立体深度计算方法来决定长度Lfar、Lnear、或Lcurrent。明确来说,首先,处理单元14找出查找表中最接近该相隔位差d的相隔位差d’,然后回到图5,根据相隔位差d’与其所对应的预定长度L’去重建一三角形,其中介于节点n3与显示屏幕11的平面之间的距离H为使用以下公式(4)计算得到:
H = D d ′ × L ′ - - - ( 4 )
接着,处理单元14再把重新计算得到的距离H与相隔位差d带入公式(2)计算出该对象到显示屏幕11的平面之间的长度。
图6为根据本发明一实施例所述提供立体人机界面的方法流程图。本发明的提供立体人机界面的方法可适用于装备有两个数字摄影机的任意电子互动装置,例如:移动电话、电视、桌面计算机或工作站、笔记本电脑、便携式媒体播放器、便携式游戏机、全球定位系统的导航装置等等。以电子互动装置10为例进行说明,当电子互动装置10开机时,会执行一连串的初始化程序,包括:启动(boot up)操作系统、初始化立体人机界面、启动嵌入或耦接的功能模块(如:显示屏幕11与数字摄影机12、13)等等。执行完初始化程序后,可再接着让人机界面模块运行起来。在执行选定应用程序(application)或微型应用程序(widget)之前,会由显示屏幕11把人机界面模块所提供的虚拟立体空间显示出来,以供本发明的提供立体人机界面的方法使用。首先,在提供立体人机界面的方法中,先执行一校正过程,由处理单元14决定从一对象于第一时间的所在位置到由数字摄影机12、13所形成的一平面之间的第一长度(步骤S610),然后决定从该对象于第二时间的所在位置到上述平面之间的第二长度(步骤S620)。明确来说,上述第一长度、第二长度可代表用户手势的一校准深度,意即分别对应至该立体虚空间中的最近端与最远程,以取得用户手势的目前位置与该立体虚空间中的深度之间的对应关系。另外,在决定第一长度、第二长度之前,处理单元14可先在该立体虚空间中提供第一提示与第二提示,用以指示该立体虚空间中位于最远程与最近端的对象,例如通知用户将上述对象依序放置于上述立体空间中的上述最远程与上述最近端。接着,在正常作业程序中,处理单元14再决定从该对象于第三时间的所在位置到上述平面之间的第三长度,其中上述第三时间晚于上述第一时间与第二时间,上述第三长度长于第一长度且短于上述第二长度(步骤S630)。
在步骤S610到S630的第一长度、第二长度、以及第三长度的决定中,数字摄影机12、13需要在第一时间、第二时间、以及第三时间分别撷取显示屏幕11的平面前方的影像,以分别决定数字摄影机12、13在第一时间、第二时间、以及第三时间所撷取的影像中同一对象的相隔位差。在一实施例,可使用如图5所示的立体深度计算方法计算出第一长度、第二长度以及第三长度其中任何一者。在另一实施例,可使用查找表并根据相隔位差去找出第一长度、第二长度以及第三长度其中任何一者,其中该查找表储存了“距离显示屏幕11的平面的多个预定长度”以及“对象在数字摄影机12、13所分别撷取的影像中的多个相隔位差”。或者,亦可如上述公式(4)一般,合并使用立体深度计算方法与查找表去计算出第一长度、第二长度、以及第三长度其中任何一者。
最后,根据计算出的第一长度、第二长度、以及第三长度,处理单元14计算该对象于第三时间对应至该立体空间内的一深度(步骤S640)。明确来说,该深度的计算可以根据公式(1)。同样地,处理单元14亦可先在该立体虚空间中提供第三提示,用以指示该深度、或在该立体虚空间中位于该深度的对象,让用户知道他/她目前指到的位置或对象。
以上所述仅为本发明的较佳实施例,举凡熟悉本案的人士援依本发明的精神所做的等效变化与修饰,皆应涵盖于所附的权利要求内。因此上述实施例并非用以限定本发明的范围,本发明的保护范围当视权利要求所界定者为准。

Claims (20)

1.一种电子互动装置,用以提供立体人机界面,包括:
处理单元,决定从对象于第一时间的所在位置到由两个数字摄影模块所形成的平面之间的第一长度,决定从上述对象于第二时间的所在位置到上述平面之间的第二长度,决定从上述对象于第三时间的所在位置到上述平面之间的第三长度,以及根据上述第一长度、上述第二长度以及上述第三长度决定上述对象于上述第三时间对应至立体空间内的深度,
其中上述立体空间为显示于一显示屏幕,上述第三时间晚于上述第一时间与上述第二时间,上述第三长度长于上述第一长度且短于上述第二长度。
2.如权利要求1所述的电子互动装置,其特征在于,上述数字摄影模块放置在相距第一距离的位置,上述处理单元更透过上述数字摄影模块分别在上述第一时间、上述第二时间、以及上述第三时间撷取上述对象的两个影像。
3.如权利要求2所述的电子互动装置,其特征在于,在上述第一时间、上述第二时间、或上述第三时间所撷取之两个影像中的影像中的上述对象与另一影像中的上述对象相距的第二距离,上述处理单元更根据上述第一距离以及上述第二距离决定上述第二距离所对应的上述第一长度、上述第二长度、或上述第三长度。
4.如权利要求3所述的电子互动装置,其特征在于,上述处理单元根据以下公式决定上述第一长度、上述第二长度、或上述第三长度:
( 1 - d D ) × H ,
其中D代表上述第一距离,d代表上述第二距离,H代表离上述平面的固定距离,且若一标的在与上述平面相距H的位置被上述两个数字摄影模块分别撷取影像,则该标的在所撷取的两影像中位于实质相同的位置。
5.如权利要求2所述的电子互动装置,其特征在于,上述处理单元根据预定查找表决定上述第一长度、上述第二长度、或上述第三长度,上述预定查找表用以储存以下两类数值的对应关系:
距离上述平面的多个预定距离;以及
标的在上述两个数字摄影模块所分别撷取的影像中的多个相隔位差。
6.如权利要求5所述的电子互动装置,其特征在于,上述处理单元更于上述预定查找表中搜寻上述第二距离的对应项目,以取得上述第一长度、上述第二长度、或上述第三长度。
7.如权利要求1所述的电子互动装置,其特征在于,上述第一长度与上述第二长度分别对应至上述立体空间中的最远程与最近端。
8.如权利要求7所述的电子互动装置,其特征在于,上述处理单元更使上述显示屏幕在上述立体空间中显示第一提示与第二提示,以通知用户将上述对象依序放置于上述立体空间中的上述最远程与上述最近端。
9.如权利要求1所述的电子互动装置,其特征在于,上述处理单元根据以下公式决定上述立体空间内的深度:
L near - L current L near - L far × T ,
其中Lfar代表上述第一长度,Lnear代表上述第二长度,Lcurrent代表上述第三长度,T代表上述立体空间的总深度。
10.如权利要求1所述的电子互动装置,其特征在于,上述第一时间与上述第二时间存在一校正过程执行时,上述第三时间存在正常作业程序执行时。
11.一种提供立体人机界面的方法,包括:
决定从对象于第一时间的所在位置到由两个数字摄影模块所形成的平面之间的第一长度;
决定从上述对象于第二时间的所在位置到上述平面之间的第二长度;
决定从上述对象于第三时间的所在位置到上述平面之间的第三长度,其中上述第三时间晚于上述第一时间与上述第二时间,上述第三长度长于上述第一长度且短于上述第二长度;以及
根据上述第一长度、上述第二长度、以及上述第三长度决定上述对象于上述第三时间对应至立体空间内的深度。
12.如权利要求11所述的提供立体人机界面的方法,其特征在于,上述数字摄影模块放置在相距第一距离的位置,上述第一长度、上述第二长度、以及上述第三长度的决定为各自包括:透过上述数字摄影模块分别在上述第一时间、上述第二时间、或上述第三时间撷取上述对象的两个影像。
13.如权利要求12所述的提供立体人机界面的方法,其特征在于,上述对象在上述第一时间、上述第二时间、或上述第三时间所撷取的两个影像中相距第二距离,上述第一长度、上述第二长度、以及上述第三长度的决定为各自包括:根据上述第一距离以及上述第二距离决定上述第二距离所对应的上述第一长度、上述第二长度、或上述第三长度。
14.如权利要求10所述的提供立体人机界面的方法,其特征在于,上述第一长度、上述第二长度、或上述第三长度的决定更包括根据以下公式决定上述第一长度、上述第二长度、或上述第三长度:
( 1 - d D ) × H ,
其中D代表上述第一距离,d代表上述第二距离,H代表离上述平面的固定距离,且若标的在与上述平面相距H的位置被上述数字摄影模块分别撷取影像,则该标的在撷取的两影像中位于实质相同的位置。
15.如权利要求12所述的提供立体人机界面的方法,其特征在于,上述第一长度、上述第二长度、或上述第三长度的决定更包括根据预定查找表决定上述第一长度、上述第二长度、或上述第三长度,上述预定查找表为用以储存以下两类数值的对应关系:
距离上述平面的多个预定距离;以及
一标的在上述数字摄影模块所分别撷取的影像中的多个相隔位差。
16.如权利要求15所述的提供立体人机界面的方法,其特征在于,上述第一长度、上述第二长度、或上述第三长度的决定更包括:于上述预定查找表中搜寻上述第二距离的对应项目,以取得上述第一长度、上述第二长度、或上述第三长度。
17.如权利要求11所述的提供立体人机界面的方法,其特征在于,上述第一长度与上述第二长度为分别对应至上述立体空间中的最远程与最近端。
18.如权利要求17所述的提供立体人机界面的方法,其特征在于,上述第一长度的决定更包括在上述立体空间中显示第一提示,以通知用户将上述对象放置于上述立体空间中的上述最远程,上述第二长度的决定更包括在上述立体空间中显示一第二提示,以通知用户将上述对象放置于上述立体空间中的上述最近端。
19.如权利要求11所述的提供立体人机界面的方法,其特征在于,上述深度的决定更包括根据以下公式决定位于上述立体空间内的上述深度:
L near - L current L near - L far × T ,
其中Lfar代表上述第一长度,Lnear代表上述第二长度,Lcurrent代表上述第三长度,T代表上述立体空间的总深度。
20.如权利要求11所述的提供立体人机界面的方法,其特征在于,上述第一时间与上述第二时间为存在校正过程执行时,上述第三时间为存在正常作业程序执行时。
CN201110437611.9A 2011-01-17 2011-12-23 提供立体人机界面的电子互动装置以及方法 Expired - Fee Related CN102681656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510230826.1A CN105022498B (zh) 2011-01-17 2011-12-23 电子装置及其方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/007,791 2011-01-17
US13/007,791 US8670023B2 (en) 2011-01-17 2011-01-17 Apparatuses and methods for providing a 3D man-machine interface (MMI)

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201510230826.1A Division CN105022498B (zh) 2011-01-17 2011-12-23 电子装置及其方法

Publications (2)

Publication Number Publication Date
CN102681656A true CN102681656A (zh) 2012-09-19
CN102681656B CN102681656B (zh) 2015-06-10

Family

ID=46490488

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510230826.1A Expired - Fee Related CN105022498B (zh) 2011-01-17 2011-12-23 电子装置及其方法
CN201110437611.9A Expired - Fee Related CN102681656B (zh) 2011-01-17 2011-12-23 提供立体人机界面的电子互动装置以及方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510230826.1A Expired - Fee Related CN105022498B (zh) 2011-01-17 2011-12-23 电子装置及其方法

Country Status (3)

Country Link
US (2) US8670023B2 (zh)
CN (2) CN105022498B (zh)
TW (1) TWI436238B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107707808A (zh) * 2016-08-09 2018-02-16 英业达科技有限公司 摄影系统及摄影方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983685B2 (en) * 2011-01-17 2018-05-29 Mediatek Inc. Electronic apparatuses and methods for providing a man-machine interface (MMI)
US8670023B2 (en) * 2011-01-17 2014-03-11 Mediatek Inc. Apparatuses and methods for providing a 3D man-machine interface (MMI)
US20120223935A1 (en) * 2011-03-01 2012-09-06 Nokia Corporation Methods and apparatuses for facilitating interaction with a three-dimensional user interface
US20130187890A1 (en) * 2012-01-20 2013-07-25 Mun Ki PAEG User interface apparatus and method for 3d space-touch using multiple imaging sensors
US20130201095A1 (en) * 2012-02-07 2013-08-08 Microsoft Corporation Presentation techniques
KR102051418B1 (ko) * 2012-09-28 2019-12-03 삼성전자주식회사 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
DE102013208762A1 (de) * 2013-05-13 2014-11-13 Siemens Aktiengesellschaft Intuitive Gestensteuerung
DE102013211566A1 (de) * 2013-06-19 2014-12-24 Siemens Aktiengesellschaft Einstellungsverfahren und entsprechende Vorrichtung für eine kontaktlose Steuerung durch eine Bedienperson
JP6709022B2 (ja) * 2015-03-13 2020-06-10 シャープ株式会社 タッチ検出装置
TWI632533B (zh) 2018-01-11 2018-08-11 和碩聯合科技股份有限公司 學習輔助系統
US10970922B2 (en) * 2018-09-28 2021-04-06 Apple Inc. Generating a 3D model of a fingertip for visual touch detection
CN110083272B (zh) * 2019-05-06 2023-07-07 深圳市康冠商用科技有限公司 一种红外触摸框的触摸定位方法及相关装置
CN112057858B (zh) * 2020-09-11 2022-04-08 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及存储介质
US11334178B1 (en) * 2021-08-06 2022-05-17 Kinoo, Inc. Systems and methods for bimanual control of virtual objects

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4375674A (en) * 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
CN1260652A (zh) * 1998-12-02 2000-07-19 北方电讯网络有限公司 用于限制cdma信号动态范围的方法
CN1432969A (zh) * 2001-11-27 2003-07-30 三星电子株式会社 基于深度图像表示三维物体的装置和方法
TW561423B (en) * 2000-07-24 2003-11-11 Jestertek Inc Video-based image control system
US20080198159A1 (en) * 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
CN101281422A (zh) * 2007-04-02 2008-10-08 原相科技股份有限公司 以对象为基础三维信息产生装置与方法及使用的互动系统
CN101650624A (zh) * 2008-08-13 2010-02-17 英属维京群岛速位互动股份有限公司 图形化使用者界面的操控装置

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006881B1 (en) * 1991-12-23 2006-02-28 Steven Hoffberg Media recording device with remote graphic user interface
IL105881A (en) * 1993-06-02 1995-10-31 Israel State A lightweight head for a gamma camera and a gamma camera assembly that includes it
EP0650301B1 (en) * 1993-10-26 2000-05-31 Matsushita Electric Industrial Co., Ltd. Three-dimensional picture image display apparatus
CN1480903A (zh) * 1996-08-29 2004-03-10 ������������ʽ���� 特征信息赋予、物体抽取和立体模型生成方法及其装置
US6121969A (en) * 1997-07-29 2000-09-19 The Regents Of The University Of California Visual navigation in perceptual databases
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP4305971B2 (ja) * 1998-06-30 2009-07-29 ソニー株式会社 情報処理装置および方法、並びに記録媒体
JP2000182074A (ja) * 1998-12-16 2000-06-30 Konami Co Ltd 放射光線表示方法、画像表示装置、記録媒体
US7683926B2 (en) * 1999-02-25 2010-03-23 Visionsense Ltd. Optical device
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
KR100484146B1 (ko) * 2002-07-06 2005-04-18 삼성전자주식회사 혼합 검정 처리 방법 및 그 드라이버
JP3973525B2 (ja) * 2002-09-24 2007-09-12 シャープ株式会社 2d(2次元)及び3d(3次元)表示機能を備える電子機器
EP1627294A2 (en) * 2003-05-01 2006-02-22 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body
US7444595B2 (en) * 2003-08-13 2008-10-28 National Instruments Corporation Graphical programming system and method for creating and managing a scene graph
EP1538536A1 (en) * 2003-12-05 2005-06-08 Sony International (Europe) GmbH Visualization and control techniques for multimedia digital content
US7751694B2 (en) * 2004-02-13 2010-07-06 Angstrom, Inc. Three-dimensional endoscope imaging and display system
US7742232B2 (en) * 2004-04-12 2010-06-22 Angstrom, Inc. Three-dimensional imaging system
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
US8027531B2 (en) * 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
DE602004011676T2 (de) * 2004-12-02 2009-01-22 Sony Ericsson Mobile Communications Ab Tragbares Kommunikationsgerät mit einer dreidimensionalen Anzeigevorrichtung
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US20070153117A1 (en) * 2005-12-30 2007-07-05 Yen-Yu Lin Apparatus and method for adjusting display-related setting of an electronic device
US7787691B2 (en) * 2006-04-11 2010-08-31 Telefonaktiebolaget Lm Ericsson (Publ) High quality image processing
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
KR100820639B1 (ko) * 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP5615552B2 (ja) * 2006-11-21 2014-10-29 コーニンクレッカ フィリップス エヌ ヴェ 画像の深度マップの生成
JP5201846B2 (ja) * 2007-02-16 2013-06-05 キヤノン株式会社 インクジェット記録装置および該装置の制御方法
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US8300086B2 (en) * 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
KR101420681B1 (ko) * 2008-02-01 2014-07-17 한국과학기술원 비디오 영상의 깊이 지도 생성 방법 및 장치
KR100991804B1 (ko) * 2008-06-10 2010-11-04 유한회사 마스터이미지쓰리디아시아 이동 기기용 입체영상생성칩 및 이를 이용한입체영상표시방법
US8300089B2 (en) * 2008-08-14 2012-10-30 Reald Inc. Stereoscopic depth mapping
US9251621B2 (en) * 2008-08-14 2016-02-02 Reald Inc. Point reposition depth mapping
EP2340534B1 (en) * 2008-10-03 2013-07-24 RealD Inc. Optimal depth mapping
US8665259B2 (en) * 2009-04-16 2014-03-04 Autodesk, Inc. Multiscale three-dimensional navigation
US8520020B2 (en) * 2009-12-14 2013-08-27 Canon Kabushiki Kaisha Stereoscopic color management
TWI491243B (zh) * 2009-12-21 2015-07-01 Chunghwa Picture Tubes Ltd 影像處理方法
EP2553555A1 (en) * 2010-03-31 2013-02-06 Nokia Corp. Apparatuses, methods and computer programs for a virtual stylus
US20110267264A1 (en) * 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US20110304618A1 (en) * 2010-06-14 2011-12-15 Qualcomm Incorporated Calculating disparity for three-dimensional images
US20120105574A1 (en) * 2010-10-28 2012-05-03 Henry Harlyn Baker Panoramic stereoscopic camera
US8670023B2 (en) * 2011-01-17 2014-03-11 Mediatek Inc. Apparatuses and methods for providing a 3D man-machine interface (MMI)
FR2988962A1 (fr) * 2012-03-29 2013-10-04 France Telecom Procede et dispositif de creation d'images
CN105027190B (zh) * 2013-01-03 2019-06-21 美达视野股份有限公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4375674A (en) * 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
CN1260652A (zh) * 1998-12-02 2000-07-19 北方电讯网络有限公司 用于限制cdma信号动态范围的方法
US6278702B1 (en) * 1998-12-02 2001-08-21 Nortel Networks Limited Method for limiting the dynamic range of a CDMA signal
TW561423B (en) * 2000-07-24 2003-11-11 Jestertek Inc Video-based image control system
CN1432969A (zh) * 2001-11-27 2003-07-30 三星电子株式会社 基于深度图像表示三维物体的装置和方法
US20080198159A1 (en) * 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
CN101281422A (zh) * 2007-04-02 2008-10-08 原相科技股份有限公司 以对象为基础三维信息产生装置与方法及使用的互动系统
CN101650624A (zh) * 2008-08-13 2010-02-17 英属维京群岛速位互动股份有限公司 图形化使用者界面的操控装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107707808A (zh) * 2016-08-09 2018-02-16 英业达科技有限公司 摄影系统及摄影方法

Also Published As

Publication number Publication date
TW201232330A (en) 2012-08-01
US8670023B2 (en) 2014-03-11
CN105022498A (zh) 2015-11-04
TWI436238B (zh) 2014-05-01
CN105022498B (zh) 2018-06-19
CN102681656B (zh) 2015-06-10
US9632626B2 (en) 2017-04-25
US20140125587A1 (en) 2014-05-08
US20120182396A1 (en) 2012-07-19

Similar Documents

Publication Publication Date Title
CN102681656B (zh) 提供立体人机界面的电子互动装置以及方法
KR102129374B1 (ko) 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
CN102902131B (zh) 触摸型便携式终端
US9912853B2 (en) Switching between cameras of an electronic device
US11158057B2 (en) Device, method, and graphical user interface for processing document
US20140355830A1 (en) Method and apparatus for protecting eyesight
US9607394B2 (en) Information processing method and electronic device
US20140062863A1 (en) Method and apparatus for setting electronic blackboard system
US20190318169A1 (en) Method for Generating Video Thumbnail on Electronic Device, and Electronic Device
US8456491B2 (en) System to highlight differences in thumbnail images, mobile phone including system, and method
US20160196284A1 (en) Mobile terminal and method for searching for image
CN103106388B (zh) 图像识别方法和系统
CN102214303A (zh) 信息处理设备、信息处理方法及程序
CN105827963A (zh) 一种拍照过程中场景变化检测方法及移动终端
US20110037731A1 (en) Electronic device and operating method thereof
CN103543825A (zh) 摄像机光标系统
CN106469310A (zh) 图片中字符提取方法及装置
CN103873769A (zh) 图像搜寻系统及方法
CN103543824A (zh) 手势输入系统及方法
US9983685B2 (en) Electronic apparatuses and methods for providing a man-machine interface (MMI)
CN112529770A (zh) 图像处理方法、装置、电子设备和可读存储介质
KR102081659B1 (ko) 시각 효과 적용을 위한 촬영 방법 및 장치
KR102160954B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
CN103294328B (zh) 数字相机的用户界面

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220209

Address after: ottawa

Patentee after: Xueshan Technology Co.,Ltd.

Address before: China Taiwan Hsinchu Science Park Hsinchu city Dusing a road No.

Patentee before: MEDIATEK Inc.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150610

CF01 Termination of patent right due to non-payment of annual fee