CN102428431A - 包括显示器的便携式电子设备及控制此类设备的方法 - Google Patents

包括显示器的便携式电子设备及控制此类设备的方法 Download PDF

Info

Publication number
CN102428431A
CN102428431A CN200980159375XA CN200980159375A CN102428431A CN 102428431 A CN102428431 A CN 102428431A CN 200980159375X A CN200980159375X A CN 200980159375XA CN 200980159375 A CN200980159375 A CN 200980159375A CN 102428431 A CN102428431 A CN 102428431A
Authority
CN
China
Prior art keywords
display
user
equipment
customer location
confirm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200980159375XA
Other languages
English (en)
Other versions
CN102428431B (zh
Inventor
布·拉尔森
马库斯·安德烈亚松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Mobile Communications AB
Original Assignee
Sony Ericsson Mobile Communications AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications AB filed Critical Sony Ericsson Mobile Communications AB
Publication of CN102428431A publication Critical patent/CN102428431A/zh
Application granted granted Critical
Publication of CN102428431B publication Critical patent/CN102428431B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • G09G2330/022Power management, e.g. power saving in absence of operation, e.g. no data being entered during a predetermined time
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Image Processing (AREA)

Abstract

一种便携式电子设备(10),其包括显示器(12)、用户位置估计单元(12)和显示器移动估计单元(14)。用户位置估计单元(14)用于估计相对于显示器(12)的用户位置。显示器移动估计单元(16)用于估计显示器移动。所述设备(10)被配置为至少在第一时刻估计(s10)在此被称作初始用户位置的用户位置;至少在所述第一时刻之后的时间间隔期间,估计(s22)所述显示器移动,并基于所述显示器移动和所述初始用户位置控制(s28)显示内容。本发明还涉及一种用于控制此类设备(10)的方法并涉及用于该方法的计算机程序。

Description

包括显示器的便携式电子设备及控制此类设备的方法
技术领域
本发明涉及一种包括显示器的便携式电子设备以及控制此类设备的方法。本发明还涉及一种包括指令的计算机程序,当在计算机上执行该计算机程序时使计算机执行上述方法。所述显示器可尤其用于赋予用户三维视觉效果,但不限于此。另外,便携式电子设备可尤其是移动电话,但不限于此。
背景技术
便携式电子设备用于多种应用,例如用于提供用户与基站之间的无线通信。随着此类设备的显示器上需要提供越来越多的信息,有益的是赋予注视显示器的用户显示的内容具有三维的印象。
欧洲专利申请EP 1 667 471 A1涉及一种便携式通信装置,其包括用于向用户提供具有三维效果的图像的显示单元。EP 1 667 471 A1的一个特定实施例涉及使用加速度计来感测便携式通信装置的移动。
理想的是提供便携式电子设备、控制此类设备的方法以及计算机程序,以根据计算资源使用率和电池电力使用率改善将赋予用户的视觉效果的效率,优选不降低视觉效果的精确度。
发明内容
为了达到或者至少部分地达到上述目的,独立权利要求中限定了根据本发明的一种便携式电子设备、方法和计算机程序。从属权利要求中限定了有利的实施例。
在一个实施例中,所述便携式电子设备包括显示器、用户位置估计单元和显示器移动估计单元。用户位置估计单元被配置为估计用户相对于显示器的位置,该位置这里被称作用户位置。显示器移动估计单元被配置为估计显示器的移动,该移动这里被称作显示器移动。所述设备被配置为利用用户位置估计单元在第一时刻估计用户位置,该用户位置这里被称作初始用户位置。所述设备还被配置为在第一时刻之后的时间间隔期间,利用显示器移动估计单元估计显示器移动,并基于显示器移动和初始用户位置控制显示内容。
这使得在以消耗尽可能少的计算资源和/或电池电力为目标的同时,能够基于显示器移动和相对于显示器的用户位置有效控制显示内容。在对显示内容的控制包括在显示器上产生三维视觉效果时尤其提供了这些优点。然而,本发明不限于这样的显示内容控制。基于初始用户位置和显示器移动的其他显示控制行为也在本发明的范围内。
这里,估计相对于显示器的用户位置应被广义地解释如下。在一个实施例中,估计相对于显示器的用户位置表示估计用户相对于附接到显示器的基准物理框架(即,坐标系或轴系)的位置。如果显示器无法相对于设备移动,即,由于显示器例如被一体地形成在设备内,附接到设备的基准物理框架和附接到显示器的基准物理框架是相同的。因此在此实施例中,用户位置可存在于在三维笛卡尔坐标系中用户(尤其是用户面部)相对于显示器的位置中。在不脱离本发明的情况下,用户位置还可以以其他类型的三维坐标系表达。其他三维坐标系包括例如柱坐标系和球坐标系。
在另一实施例中,估计相对于显示器的用户位置表示估计用户(尤其是用户面部)相对于垂直于显示器的轴线的角位置,而无需估计用户和显示器之间的距离。因此在此实施例中,可通过指示用户(尤其是用户面部)相对于显示器的位置的两个角度来表达用户位置。
在另一实施例中,估计相对于显示器的用户位置表示估计用户和显示器之间的距离,而无需估计用户相对于垂直于显示器的轴线的角位置。在此实施例中,用户(尤其是用户面部)距显示器有多远被用作控制显示内容的用户位置。
在一个实施例中,估计相对于显示器的用户位置表示估计用户面部在设备的相机所拍摄的图像上的位置。换言之,在此实施例中,用户位置是用户面部在拍摄的图像内(即,在与设备的相机所拍摄的图像关联的二维坐标系内)的位置。
这里,估计显示器的移动表示估计显示器相对于设备和用户公共的基准物理框架的运动状态。在此公共基准物理框架中,显示器和用户均可移动。用户持握或者用户不持握包括显示器的设备。电子设备是便携的,因为它可由用户持握和携带(尤其是用用户的手)。
在第一时刻估计的用户位置为初始用户位置,其用于校准用户和便携式电子设备的相对位置和取向。然后,通过在第一时刻之后的时间间隔期间估计显示器移动,在所述时间间隔期间更新设备和用户的相对位置和取向。这通常很起作用,因为用户的位置和取向通常基本上是不变的,或者至少在所述时间间隔期间,用户相比于设备及其显示器移动得少很多。
估计显示器移动比估计相对于显示器的用户位置通常消耗更少的计算资源和电池电力。因此,估计初始用户位置并在第一时刻之后的时间间隔期间使用该初始用户位置作为基础来控制显示内容通常使得设备有效地使用其计算资源和/或电池电力。
例如,通过知道显示器和用户相对于彼此的相对位置和取向并通过在时间间隔期间更新所述相对位置和取向,可在显示器上有效且精确地生成三维效果。即,例如,如果用户将设备(包括显示器)相对于沿其手臂的轴线向左旋转,显示内容可被修改为如同显示器上显示的对象也已向左旋转了一样。因此,由于可通过使用单个显示器赋予更多信息,本发明提供了改善的用户界面控制。
第一时刻可基于满足的条件来确定。该条件可取决于显示内容,其中例如确定在显示内容中,生成三维效果或其他视觉效果对于改善用户界面赋予信息的效率而言将是有利的。该条件可以另选地取决于或还可取决于设备操作,其中例如当设备上的特定键被按下时,当设备被打开时,或者当设备接到来电时等等,激活用户位置估计单元。另外,该条件可以另选地取决于或还可取决于检测到用户面部相对于设备处于特定位置。即,用户位置估计单元可以在某一时段内使用,以及可在一确定用户面部相对于设备处于特定位置时使用,进行这一确定的时刻被确定为是第一时刻。
第一时刻之后的时间间隔的开始和结束也可基于满足的条件来确定。另选地,时间间隔的开始和结束可基于存储在便携式设备中的参数来预先确定。
在一个实施例中,所述设备为移动电话、音频播放器、包括显示器的相机、导航装置、电子书装置、计算机、手持式计算机、个人数字助理、游戏机和手持式游戏机中的至少一种。
在一个实施例中,所述设备被配置为在第一时刻之后的时间间隔期间不估计用户位置。
在一个实施例中,所述设备还被配置为在第一时刻之后的第二时刻估计用户位置,这里被称作新的初始用户位置。在此实施例中所述设备还被配置为在第二时刻之后的时间间隔期间,估计显示器移动,并基于显示器移动和新的初始用户位置控制显示内容。
这能够在第一时刻之后重新估计用户位置,以便获得用户和显示器相对于彼此的相对位置和取向。在一个实施例中,用户位置被定期地重新估计。即,本实施例暗含了定期重复估计初始用户位置的步骤、以及之后的估计显示器移动以及基于显示器移动和初始用户位置控制显示内容的步骤。这能够补偿渲染误差,如果用户显著移动或者如果用户头部显著移动,则将另外地引入渲染误差。这还能够补偿可能由显示器移动估计单元引入的测量误差所引起的漂移。具体地讲,如果显示内容的控制包括在显示器上产生三维视觉效果,则定期重复用户位置的获取能够不断地适应显示内容,而不会增大误差漂移。
在一个实施例中,第一时刻和第二时刻之间的时间差介于一秒至十秒之间。
在一个实施例中,所述设备还被配置为使得在第二时刻之后的时间间隔期间,不估计用户位置。
在一个实施例中,所述设备使得基于初始用户位置和显示器移动控制显示内容包括基于初始用户位置和显示器移动在显示器上产生三维效果。
在此实施例的子实施例中,所述设备还被配置为,在估计初始用户位置之前,确定在显示器的前面是否存在用户,并且如果确定不存在用户,则将所述设备切换至非三维模式,在所述非三维效果模式下在显示器上不产生三维效果。在此子实施例中,如果确定不存在用户,则无三维效果生成,从而节省了分配用于产生三维效果的计算资源。
在一个实施例中,所述设备还被配置为在估计用户位置之前,确定在显示器的前面是否存在多个用户,并且如果存在,则选择所述多个用户中的一个用于估计用户位置的步骤。
在一个实施例中,所述设备使得选择所述用户之一的步骤基于下面的至少一种进行:确定最靠近显示器的用户面部;确定从显示器看时最大的用户面部;确定最靠近源自显示器中心的垂线的用户面部;确定最靠近所述设备的相机的视场中心的用户面部;以及确定所述多个用户中的一个的面部记录在所述设备中。
当选择所述多个用户中的一个是基于确定所述多个用户中的一个的面部记录在所述设备中而进行时,可向其面部已记录在所述设备中的用户有效提供适合于他或她的面部相对于显示器所在的方向上的基于显示器的用户交互特性。因此,可向此类用户提供有利的用户交互能力,以通过显示器恰当地控制设备并从设备接收信息。
在一个实施例中,所述设备还包括相机,并且用户位置估计单元被配置为使用相机的输出。
在一个实施例中,所述相机被配置为从显示器前面的环境拍摄图像。在一个实施例中,用户位置估计单元被配置为使用包括在所述设备中的一个以上相机的输出。
在一个实施例中,上述相机配备有多点自动聚焦装置,并且用户位置估计单元被配置为通过估计最短焦距为对用户位置的估计来使用相机的输出。
在一个实施例中,所述设备使得用户位置估计单元被配置为通过估计用户面部相对于显示器的位置来估计用户位置。
在一个实施例中,所述设备使得显示器移动估计单元包括陀螺测试仪、一个或多个加速度计以及电子罗盘中的至少一种。例如可使用三轴加速度计。
在一个实施例中,所述方法用于控制包括显示器的便携式电子设备。所述方法包括以下步骤:在第一时刻,估计用户相对于显示器的位置,该位置此处称作初始用户位置;至少在所述第一时刻之后的时间间隔期间,估计显示器的移动,该移动此处称作显示器移动,并基于所述显示器移动和所述初始用户位置控制显示内容。
本发明还涉及一种配置有指令的计算机程序,当该计算机程序在计算机上或如上所述的便携式电子设备上执行时,使得所述计算机或便携式电子设备分别执行如上所述的方法。本发明还涉及存储此类计算机程序的任何计算机可读介质。
附图说明
现在将结合附图描述本发明的实施例,附图中:
图1示意性地示出本发明一个实施例中的便携式电子设备;
图2a至图2c示意性地示出当本发明一个实施例中的设备的显示器向左移动时,可能的三维效果的产生;
图3示意性地示出本发明一个实施例中的便携式电子设备及其一些组成单元;
图4a至图4c是示出被配置为由本发明一个实施例中的设备(例如,由图3所示的设备)执行的步骤的流程图;
图5是示出被配置为由本发明一个实施例中的设备执行的步骤的流程图,其中估计新的初始用户位置;
图6是示出被配置为由本发明一个实施例中的设备执行的步骤的流程图,包括确定在显示器前面是否存在用户的步骤;
图7示意性地示出被配置为在本发明一个实施例中执行的步骤,其中定期确定在显示器前面是否存在用户;以及
图8是示出被配置为由本发明一个实施例中的设备执行的步骤的流程图,包括用户选择/确定优先步骤。
具体实施方式
现在将结合具体实施例描述本发明。需要指出的是,这些具体实施例用于使技术人员更好地理解,而非意在以任何方式限制本发明的范围,本发明的范围由所附权利要求限定。
图1示意性地示出本发明一个实施例中的设备10。设备10包括显示器12。显示器12可为任何类型的显示器,例如具有或不具有触摸屏能力的液晶显示器(LCD)。设备10还可包括一个以上显示器12。
尽管图1中示出设备10带有天线,但是设备10并非必须设置有无线通信装置。在一个实施例中,设备10设置有无线通信装置。在另一实施例中,设备10没有设置无线通信装置。
图2a至图2c示出在本发明一个实施例中的设备10的显示器12上可产生的示例性三维效果。这些图2a至图2c部分地对应于EP 1 667 471 A1的图3a至图3c。当显示器12依次从图2a到图2c倾斜时,开始出现新的图标13b,新的图标13b表示图标13a的阴影。这给予用户立体感效应。
显示器12上可生成的三维视觉效果并不限于阴影外观。在一个实施例(未示出)中,基于要显示的关于场景的信息,并且基于与要显示的场景的不同点相关联的已知深度信息,根据初始用户位置和显示器移动产生三维效果,并且也许会基于估计的、显示器12和用户相对于彼此的瞬时相对位置和取向。
基于初始用户位置和显示器移动控制显示内容不限于在显示器12上产生三维效果。可在显示器12上产生其他类型的视觉效果。
图3示意性地示出本发明一个实施例中的设备10及其一些组成元件。
除了包括显示器12(图3中未示出),设备10还包括用户位置估计单元14,其被配置为估计相对于显示器12的用户位置。特别地,用户位置估计单元14可被配置为估计用户面部相对于显示器12的位置。设备10还包括显示器移动估计单元16,其被配置为估计显示器12的移动。设备10被配置为估计第一时刻的用户位置(被称作初始用户位置)。设备10还被配置为在第一时刻之后的时间间隔期间,估计显示器移动,并基于用户位置估计单元14所估计的初始用户位置以及显示器移动估计单元16所估计的显示器移动来控制显示内容。
尽管图3未示出,但是设备10中可设置有控制单元以基于初始用户位置和显示器移动来控制显示内容。该控制单元可集成在设备10的其他控制功能元件内。
使用用户位置估计单元14在第一时刻获得用户位置的估计,然后在第一时刻之后的时间间隔期间使用显示器移动估计单元16跟踪设备10的移动,这样能够跟踪用户和显示器12相对于彼此的相对位置和取向。跟踪处理继而能够根据用户和显示器12相对于彼此的瞬时估计的相对位置和取向来控制显示内容。另外,非持久地运行用户位置估计单元14能够节省计算资源和电池电力。
用户位置估计单元14和显示器移动估计单元16的组合使用能够协同地组合这两个单元的优点。显示器移动估计单元16(可包括陀螺测试仪)通常提供良好的空间分辨率、宽的工作角(360°)、低计算资源利用系数、低电流消耗以及对环境噪声(变化的光条件等)的抗性。
如果单独使用显示器移动估计单元16(可包括陀螺测试仪),则相对于显示器12的用户位置,即,用户界面“零位”将不得不在某一点被及时锁定。例如,这可在用户的视场被确定为垂直于显示器12时进行。否则,当用户移动设备10及其显示器时,用户界面将无法准确考虑用户和显示器12之间的相对位置和取向。单独使用陀螺测试仪还将使得无法检测用户相对于显示器12的位置,从而将无法检测在保持设备10静止的同时的用户移动。
用户位置估计单元14可包括图像拍摄单元(如相机)以及用于检测拍摄的图像上的面部的单元或者可使用这些单元的输出,用户位置估计单元14的特性通常提供有限的操作角,并且通常需要大量计算资源(以连续检测用户的面部,并确定用户的面部位置)。它还消耗更多的电池电力。
用户位置估计单元14和显示器移动估计单元16的组合提高了使用所估计的用户和显示器12相对于彼此的相对位置来控制显示内容的精度和效率。
图4a是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图。首先,在步骤s10,在时间t=t0估计用户位置。该估计的用户位置构成初始用户位置。然后,在步骤s20,在t=t1和t=t2之间的时间间隔期间(其中t0≤t1<t2),估计显示器移动(步骤s22),并基于在时间t=t0估计的初始用户位置以及当前估计的显示器移动来控制显示内容(步骤s28)。
图4b是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图。图4b是图4a所示并参照图4a所描述的步骤的第一种可能的实现方式。在步骤s10中于时间t=t0估计了用户位置以形成初始用户位置之后,在步骤s12基于初始用户位置控制显示内容。在这一阶段显示内容的状态被称作初始显示状态。
接下来,在t1和t2之间的间隔时间期间(其中t0≤t1<t2),在步骤s22估计了显示器移动之后,基于初始显示状态和估计的显示器移动更新显示状态(步骤s24)。因此,通过基于更新的显示状态控制显示内容的步骤来实现基于显示器移动和初始用户位置控制显示内容的步骤s28。由于更新的显示状态是基于初始显示状态和显示器移动的(参见步骤s24),并且由于初始显示状态是基于初始用户位置的(参见步骤s12),所以得出更新的显示状态是基于显示器移动和初始用户位置的,与图4a所示的步骤s28一致。
图4c是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图。图4c示出图4a所示并参照图4a所描述的步骤的另一种可能的实现方式。在估计了初始用户位置(步骤s10)之后,并且在估计了显示器移动(步骤s22)之后,执行基于初始用户位置和显示器移动更新用户位置的步骤s26。这涉及从初始用户位置开始,结合在t1和t2之间的时间间隔期间的显示器移动,以形成更新的估计的用户位置,该更新的估计的用户位置估计用户相对于显示器12的当前位置。
之后,在步骤s28,基于更新的用户位置控制显示内容。由于更新的用户位置是在步骤s26中基于初始用户位置和显示器移动计算出的,所以图4c的步骤s28构成实现图4a所示的步骤s28的一种方式。
图5是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图。与参照图4a描述的实施例相比,图5中增加了步骤s30和s40。在步骤s20之后,在时间t=t3(其中t3>t0),估计用户位置(步骤s30)。该步骤生成新的初始用户位置。然后,在步骤s40,在从t=t4至t=t5(其中t3≤t4<t5)的时间间隔期间,估计显示器移动,并基于新的初始用户位置和当前估计的显示器移动来控制显示内容。
估计新的初始用户位置的处理可定期(即,按照有规律的间隔)执行,以重设控制显示内容所使用的用户位置。
估计新的初始用户位置的处理也可重复,而无需遵循时间上的有规律的模式。即,可基于与经历一段时间的确定方式不同的条件,或者至少不仅仅基于这样的确定方式,确定何时通过估计新的初始用户位置(利用用户位置估计单元14)重新校准该处理。在一个实施例中,可生成对基于显示器移动执行的控制的准确性的度量。如果这样的准确性度量降到阈值以下,则开始重新校准,由此结束第一时刻之后的时间间隔并排定新的第一时刻(该新的第一时刻也可称为第二时刻或校准时刻)。在这种情况下,其间发生基于显示器移动和初始用户位置对显示内容的控制的时间间隔的持续时间在操作中可变化。
图6是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图。在步骤s10中估计用户位置之前(尤其如参照图4a所描述的),执行步骤s50。在步骤s50,确定在显示器12的前面是否存在用户。如果是,则执行步骤s10和s20。否则,即,如果在步骤s50中确定显示器12的前面不存在用户,则不基于初始用户位置和显示器移动控制设备10的显示内容。
在基于初始用户位置和显示器移动控制显示内容包括基于初始用户位置和显示器移动产生三维效果的实施例中,如果在步骤s50中确定在显示器12的前面不存在用户,则设备10进入非三维模式,其中不向要显示的图像增加三维效果(步骤s60,“无3D模式”)。换言之,如果面部不可见,则可为用户位置估计单元14提供输入的相机可关闭,以节省电池电力,并且可运行二维用户界面,以节省计算资源。二维模式可对应于就像用户的视角恒定地垂直于显示器12时渲染的三维用户界面。
图7是示出本发明一个实施例中的设备10或方法中所执行的步骤流程图的。首先,在开始处理(标记“开始”的方框)之后,在步骤s50中检测(即,确定)用户是否面向显示器12。步骤s50可包括打开设备10的相机,并基于从相机获得的一个或更多个图像使用面部检测方法,以便确定用户面部是否可见。
如果用户面部可见,则在步骤s10估计用户位置。这可以包括利用面部检测方法计算面部的位置。这还可包括之后在该阶段直接关闭可能不再需要的相机(除非还用于另一目的)。这节省了电池电力。然后,可根据计算的面部位置产生三维用户界面效果。之后,可基于估计的显示器移动继续生成三维效果(步骤s20)。可利用陀螺测试仪估计显示器移动。
然而,如果在步骤s50中没有检测到用户,即,如果在相机所拍摄的图像中没有面部可见或者可被检测到,则相机可关闭,可使用二维用户界面模式(步骤s60,“无3D模式”)。
可按照定期的间隔检查相机所拍摄的图像中是否可见面部。在图7中通过步骤s70和s50示出了这一按照定期的间隔确定相机前面是否可见面部的步骤。然而,应该理解,步骤s70(标记“等待”)并不表示等待时间间隔而不做任何事。其表示与当前执行的步骤s20或s60并行,在自最近执行步骤s50已经过时间间隔之后执行检测用户的存在的步骤s50。
按照定期的间隔检查面部是否可见的优点如下。首先,这能够补偿渲染误差,如果用户显著移动其头部,则将另外地引入所述渲染误差。这还能够补偿由用户位置估计单元14(可包括陀螺测试仪)中的测量误差引起的漂移。另外,如果设备10在非三维模式下操作(步骤s60),则按照定期的间隔检查显示器12的前面是否可见面部能够确定设备10是否可从非三维模式切换至可产生三维效果的三维模式。
如上所述,可使用面部检测方法来确定用户的面部是否可见,并且如果是,则确定其位置。面部检测方法的非限制性例子包括K.C.Yow和R.Cipolla的“EnhancingHuman Face Detection Using Motion and Active Contours”(Proc.Third Asian Conf.Computer Vision,第515-522页,1998)(基于面部特征的方法);A.Rajagopalan、K.Kumar、J.Karlekar、R.Manivasakan、M.Patil、U.Desai、P.Poonacha和S.Chaudhuri的“Finding Faces in Photographs”(Proc.Sixth IEEE Int′1 Conf.Computer Vision,第640-645页,1998)(基于隐马尔科夫模型的方法);以及E.Osuna、R.Freund和F.Girosi的“Training Support Vector Machines:An Application to Face Detection”(Proc.IEEEConf.Computer Vision and Pattern Recognition,第130-136页,1997)(基于支持向量机的方法)中所公开的那些方法。
图8是示出本发明一个实施例中的设备10或方法中所执行的步骤的流程图,其与参照图7所描述的设备10和方法的不同之处在于,执行确定在显示器12的前面是否存在一个以上用户的步骤。即,如果在步骤s51,确定在显示器12的前面存在一个以上用户,则执行用户选择步骤s80。
步骤s80可如下实现。如果检测到一个以上面部,则设备10利用相机和面部检测识别方法确定哪一面部应优先用于控制三维用户界面的渲染。例如,优先的确定可基于面部大小。即,最大的面部最有可能是最靠近设备10的面部,因此也最有可能属于实际使用设备10的用户。优先的确定也可基于哪一用户出现在最靠近相机视场中心的位置,其有可能是使用设备10的用户。在视场中检测到的不同用户之间进行区分的另一方式可以是执行面部识别处理。即,设备10的拥有者的面部可为已知的,因此可被识别。另一方法还登记设备10的客人用户并确定客人用户的优先次序。
如果选择的方法之一或它们的组合失败,则设备操作回到利用二维、非三维模式,如上所述(如从步骤s80到步骤s60的箭头所示)。否则,如果成功选择了一个用户面部,则执行用户位置估计处理(如从步骤s80到步骤s10的箭头所示)。
如上所述,可使用面部识别方法来在视场中所检测到的不同用户之间进行区分。面部识别方法的非限制性例子包括M.Turk和A.Pentland的“Eigenfaces forRecognition”(J.Cognitive Neuroscience,第3卷,第1册,第71-86页,1991)(基于本征脸的方法);P.Viola、M.J.Jones的“Robust Real-Time Face Detection”(InternationalJournal of Computer Vision,第57卷,第2册,2004年5月,第137-154页)(基于Boosting的方法);以及K.Etemad、R.Chellappa的“Discriminant Analysis for Recognition ofHuman Face Images”(Journal of the Optical Society of America A,第14卷,第8册,1997年8月,第1724-1733页)(基于线性判别分析的方法)中所公开的那些方法。
如上所述,在一个实施例中,在第一时刻之后的时间间隔期间,用户位置估计单元14被关闭或去激活。这减小了设备10控制显示器12上的显示内容所使用的计算资源和电池电力。换言之,可以以时间方式限制用户位置估计单元14及其可能使用的相机的使用。
考虑到减少设备10内计算资源和电池电力的使用的相同目的,作为另外一种选择,可以以空间或质量方式来限制用户位置估计单元14及其可能使用的相机的使用。现在将更详细地对此进行说明。
在一个实施例中(图中未示出),设备10被配置为在s10利用用户位置估计单元14估计第一时刻的用户位置,然后,在第一时刻之后的时间间隔期间,设备10还被配置为估计用户位置,但是此时用户位置估计单元14以所谓的空间受限模式操作。在该空间受限模式下,用户位置估计单元14消耗较少的计算资源和/或较少的电力资源。用户位置估计单元14通过拍摄并处理集中于用户面部的有限视场的画面来在空间受限模式下操作。所使用的有限视场可基于在第一时刻估计的、并通过基于估计的显示器移动计算的运动向量校正的用户面部的位置来识别。
因此,可处理空间受限画面输入,以获得关于用户位置的信息,该信息继而可结合显示器移动和初始用户位置用于控制(步骤s28)显示内容。与单独地、持久地、完全激活地(即,非空间受限地)使用用户位置估计单元14的情况相比,这还实现了这样的技术效果:基于估计的显示器和用户的相对于彼此的位置有效产生显示效果,同时减少这样做所需的计算资源和/或电池电力。
在第一时刻之后的时间间隔期间,显示器移动估计单元16结合在空间受限模式下操作的用户位置估计单元14的上述可选的使用(这与单独使用用户位置估计单元14相比可减少计算资源和/或电池电力的使用)在一个实施例中与下列特征相组合。即,如果在空间受限模式下在拍摄的画面中没有找到面部,则可提供下列后退机制。如果在预测的区域(即,有限视场)内没有找到面部,则可拍摄并分析全帧(即,全视场),从而结束第一时刻之后的时间间隔,并构成本发明含义内的新的第一时刻。
在另一实施例中(图中未示出),通过在第一时刻之后的时间间隔期间,但是以所谓的质量上受限方式操作用户位置估计单元14,来实现相同的技术效果。即,在此模式下,用户位置估计单元14被配置为以质量上较低的用户面部分辨率拍摄画面,但是其与显示器移动和初始估计的用户位置结合可用于控制显示内容(步骤s28)。
如已经提及的,在一个实施例中,显示器移动估计单元包括陀螺测试仪、一个或更多个加速度计和电子罗盘中的至少一种。技术人员例如(非限制性例子)根据“从http://en.wikipedia.org/w/index.php?title=Accelerometer&oldid=290674932于2009年5月18日13:32在Wikipedia,The Free Encyclopedia中检索到的Accelerometer(2009年5月18日)”中的“Consumer Electronics”部分,将能够识别用于在本发明该实施例中使用的适合的加速度计,尤其是就微机电系统(MEMS)类型而言。一些示例性加速度计也由例如美国马萨诸塞州诺伍德的Analog Devices,Inc.制造(例如参见品牌“iMEMS Accelerometers”)。一些示例性陀螺测试仪也由例如Analog Devices制造(例如参见品牌“iMEMS Gyroscopes”)。
技术人员例如(非限制性例子)根据“从http://en.wikipedia.org/w/index.php?title=Compass&oldid=290609843于2009年5月18日13:53在Wikipedia(2009年5月18日),The Free Encyclopedia中检索到的Compass”中的“Solid State Compass”部分,将能够识别用于在本发明该实施例中使用的合适的电子罗盘。一些示例性电子罗盘也由例如美国新泽西州莫里森镇的Honeywell Inc.制造(参见例如Honeywell HMR3100型号,用于得到航向输出的两轴电子罗盘)。
根据本发明的物理实体(包括设备10)可包括或存储有计算机程序,该计算机程序包含指令,以使得当该计算机程序在物理实体上被执行时,执行根据本发明实施例的步骤和过程。本发明还涉及用于执行根据本发明的方法的这样的计算机程序,并涉及存储有用于执行根据本发明的方法的计算机程序的任何计算机可读介质。
本文中在使用术语“用户位置估计单元”、“显示器移动估计单元”和“控制单元”时,对这些单元如何分布以及这些单元如何集合没有限制。即,上述用户位置估计单元、显示器移动估计单元和控制单元的组成元件可分布于实现想要的功能的不同软件或硬件组件或装置中。多个分立元件也可以集合在一起,以提供想要的功能。
设备10的上述单元中的任一个可以硬件、软件、现场可编程门阵列(FPGA)、专用集成电路(ASICs)、固件等实现。
在本发明的进一步的实施例中,上述和/或权利要求中的用户位置估计单元、显示器移动估计单元和控制单元中的任一个分别被用户位置估计装置、显示器移动估计装置和控制装置代替,或者分别被用户位置估计器、显示器移动估计器和控制器代替,以执行用户位置估计单元、显示器移动估计单元和控制单元的功能。
在本发明的进一步的实施例中,上述步骤中的任一个可利用计算机可读指令实现,例如,以任何类型的计算机语言的计算机可理解的程序、方法等的形式,和/或以固件、集成电路等上的嵌入式软件的形式。
尽管基于详细例子描述了本发明,但是这些详细例子仅是为了使技术人员能够更好的理解,而非意在限制本发明的范围。更确切地,本发明的范围由所附权利要求限定。

Claims (21)

1.一种便携式电子设备(10),其包括:
显示器(12);
用户位置估计单元(14),其用于估计用户相对于所述显示器(12)的位置,所述位置此处被称作用户位置;以及
显示器移动估计单元(16),其用于估计显示器(12)的移动,所述移动此处被称作显示器移动;并且
其中所述设备(10)被配置为
利用所述用户位置估计单元(14)在第一时刻估计(s10)用户位置,该用户位置此处被称作初始用户位置;
在所述第一时刻之后的时间间隔期间,利用所述显示器移动估计单元(16)估计(s22)所述显示器移动,并基于所述显示器移动和所述初始用户位置控制(s28)显示内容。
2.根据权利要求1所述的设备(10),其中,基于所述显示器移动和所述初始用户位置控制(s28)显示内容包括:基于所述显示器移动和所述初始用户位置在所述显示器(12)上产生三维效果。
3.根据权利要求2所述的设备(10),所述设备(10)还被配置为,在估计(s10)所述用户位置之前,
确定(s50)在所述显示器(12)的前面是否存在用户,
如果确定不存在用户,则将所述设备(10)切换(s60)至非三维效果模式,在所述非三维效果模式下在所述显示器(12)上不产生三维效果。
4.根据前述权利要求中任一项所述的设备(10),所述设备(10)还被配置为,在估计(s10)所述用户位置之前,
确定(s51)在所述显示器(12)的前面是否存在多个用户,
如果存在,则选择(s80)所述多个用户中的一个用于估计(s10)所述用户位置的步骤。
5.根据权利要求4所述的设备(10),其中,选择(s80)所述多个用户中的一个是基于下面的至少一种进行的:
确定最靠近所述显示器(12)的用户面部;
确定从所述显示器(12)看时最大的用户面部;
确定最靠近源自所述显示器(12)中心的垂线的用户面部;
确定最靠近所述设备(10)的相机的视场中心的用户面部;以及
确定所述多个用户中的一个的面部记录在所述设备(10)中。
6.根据前述权利要求中任一项所述的设备(10),所述设备(10)还包括相机,其中所述用户位置估计单元(14)被配置为使用相机输出。
7.根据权利要求6所述的设备(10),其中,所述相机配备有多点自动聚焦装置,并且所述用户位置估计单元(14)被配置为通过确定最短焦距为对用户位置的估计来使用所述相机输出。
8.根据权利要求6所述的设备(10),其中,所述用户位置估计单元(14)被配置为通过估计用户面部相对于所述显示器(12)的位置来估计(s10)所述用户位置。
9.根据前述权利要求中任一项所述的设备(10),其中,所述显示器移动估计单元(16)包括陀螺测试仪、一个或更多个加速度计以及电子罗盘中的至少一种。
10.根据前述权利要求中任一项所述的设备(10),所述设备(10)还被配置为定期重复估计(s10)所述初始用户位置的步骤、以及之后的估计(s22)所述显示器移动以及基于所述显示器移动和所述初始用户位置控制(s28)显示内容的步骤。
11.一种控制包括显示器(12)的便携式电子设备(10)的方法,所述方法包括以下步骤:
在第一时刻,估计(s10)用户相对于所述显示器(12)的位置,所述位置此处被称作初始用户位置;
在所述第一时刻之后的时间间隔期间,估计(s22)所述显示器(12)的移动,所述移动此处被称作显示器移动,以及
基于所述显示器移动和所述初始用户位置控制(s28)显示内容。
12.根据权利要求11所述的方法,其中,基于所述显示器移动和所述初始用户位置控制(s28)显示内容包括:基于所述显示器移动和所述初始用户位置在所述显示器(12)上产生三维效果。
13.根据权利要求12所述的方法,在估计(s10)所述初始用户位置之前,所述方法还包括下列步骤:
确定(s50)在所述显示器(12)的前面是否存在用户,
如果确定不存在用户,则将所述设备(10)切换(s60)至非三维效果模式,在所述非三维效果模式下在所述显示器(12)上不产生三维效果。
14.根据权利要求11至13中任一项所述的方法,在估计(s10)所述初始用户位置之前,所述方法还包括下列步骤:
确定(s51)在所述显示器(12)的前面是否存在多个用户,
如果存在,则选择(s80)所述多个用户中的一个用于估计(s10)所述初始用户位置的步骤。
15.根据权利要求14所述的方法,其中,选择(s80)所述多个用户中的一个是基于下面的至少一种进行的:
确定最靠近所述显示器(12)的用户面部;
确定从所述显示器(12)看时最大的用户面部;
确定最靠近源自所述显示器(12)中心的垂线的用户面部;
确定最靠近所述设备(10)的相机的视场中心的用户面部;以及
确定所述多个用户中的一个的面部记录在所述设备(10)中。
16.根据权利要求11至15中任一项所述的方法,其中,估计(s10)所述初始用户位置使用相机的输出。
17.根据权利要求16所述的方法,其中,估计(s10)所述初始用户位置通过确定最短焦距为对初始用户位置的估计来使用相机的输出。
18.根据权利要求16所述的方法,其中,估计(s10)所述初始用户位置通过估计用户面部相对于所述显示器(12)的位置来使用相机的输出。
19.根据权利要求11至18中任一项所述的方法,其中,估计(s22)所述显示器移动使用陀螺测试仪、一个或更多个加速度计以及电子罗盘中的至少一种。
20.根据权利要求11至19中任一项所述的方法,所述方法包括定期重复估计(s10)所述初始用户位置的步骤、以及之后的估计(s22)所述显示器移动以及基于所述显示器移动和所述初始用户位置控制(s28)显示内容的步骤。
21.一种含有指令的计算机程序,当所述计算机程序在计算机上执行时,使得所述计算机执行根据权利要求11至20中任一项所述的方法。
CN200980159375XA 2009-05-20 2009-11-04 包括显示器的便携式电子设备及控制此类设备的方法 Expired - Fee Related CN102428431B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/469,199 US8179449B2 (en) 2009-05-20 2009-05-20 Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
US12/469,199 2009-05-20
PCT/EP2009/064607 WO2010133259A1 (en) 2009-05-20 2009-11-04 Portable electronic apparatus including a display and method for controlling such an apparatus

Publications (2)

Publication Number Publication Date
CN102428431A true CN102428431A (zh) 2012-04-25
CN102428431B CN102428431B (zh) 2013-11-20

Family

ID=41649926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200980159375XA Expired - Fee Related CN102428431B (zh) 2009-05-20 2009-11-04 包括显示器的便携式电子设备及控制此类设备的方法

Country Status (6)

Country Link
US (1) US8179449B2 (zh)
EP (1) EP2433207A1 (zh)
JP (1) JP5498573B2 (zh)
KR (1) KR20120058454A (zh)
CN (1) CN102428431B (zh)
WO (1) WO2010133259A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394396A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 一种利用伸缩元件实现图像视觉深度显示的装置及方法
CN106970782A (zh) * 2016-01-14 2017-07-21 阿里巴巴集团控股有限公司 卡片式视图控件的交互处理方法及其装置

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110052998A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 디바이스에서 사용자 인터페이스 제공 방법 및 장치
US8957919B2 (en) * 2010-04-05 2015-02-17 Lg Electronics Inc. Mobile terminal and method for displaying image of mobile terminal
US9411413B2 (en) * 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
KR101705119B1 (ko) * 2010-09-15 2017-02-10 삼성전자 주식회사 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기
US20120098931A1 (en) * 2010-10-26 2012-04-26 Sony Corporation 3d motion picture adaption system
JP5742187B2 (ja) * 2010-11-26 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20120064756A (ko) * 2010-12-10 2012-06-20 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
US9118612B2 (en) 2010-12-15 2015-08-25 Microsoft Technology Licensing, Llc Meeting-specific state indicators
US9383888B2 (en) 2010-12-15 2016-07-05 Microsoft Technology Licensing, Llc Optimized joint document review
US9864612B2 (en) * 2010-12-23 2018-01-09 Microsoft Technology Licensing, Llc Techniques to customize a user interface for different displays
JP5703873B2 (ja) 2011-03-17 2015-04-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120284668A1 (en) * 2011-05-06 2012-11-08 Htc Corporation Systems and methods for interface management
KR101249901B1 (ko) * 2011-06-22 2013-04-09 엘지전자 주식회사 이동통신 단말기 및 그 동작방법
JPWO2013046596A1 (ja) * 2011-09-26 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 携帯型情報処理端末
CN103959228A (zh) 2011-09-30 2014-07-30 英特尔公司 在计算设备处促进视频图像的增强观看视角的机构
KR101880968B1 (ko) * 2011-10-27 2018-08-20 삼성전자주식회사 터치스크린 휴대 기기에서 사용자 인터페이스 개체를 배치하는 방법 및 장치
KR101887058B1 (ko) * 2011-11-11 2018-08-09 엘지전자 주식회사 입체영상 처리 장치 및 입체영상 처리 장치의 전력 제어 방법
JP6032856B2 (ja) 2011-12-23 2016-11-30 トムソン ライセンシングThomson Licensing 電力消費マネジメントを備えたコンピュータ装置及びコンピュータ装置の電力消費を管理する方法
CN104054335A (zh) 2012-01-17 2014-09-17 索尼爱立信移动通讯有限公司 便携式电子设备和控制自动立体显示器的方法
US9378581B2 (en) * 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
KR101690261B1 (ko) * 2012-04-02 2016-12-27 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US10592064B2 (en) 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
US20150082145A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US10067634B2 (en) 2013-09-17 2018-09-04 Amazon Technologies, Inc. Approaches for three-dimensional object display
JP6496172B2 (ja) * 2015-03-31 2019-04-03 大和ハウス工業株式会社 映像表示システム及び映像表示方法
EP3283994A4 (en) * 2015-04-17 2018-12-19 Tulip Interfaces Inc. Monitoring tool usage
US11989398B2 (en) * 2021-10-22 2024-05-21 Ebay Inc. Digital content view control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
EP0874303A1 (en) * 1997-04-25 1998-10-28 Texas Instruments France Video display system for displaying a virtual threedimensinal image
US20030051179A1 (en) * 2001-09-13 2003-03-13 Tsirkel Aaron M. Method and apparatus for power management of displays
US20030080937A1 (en) * 2001-10-30 2003-05-01 Light John J. Displaying a virtual three-dimensional (3D) scene
CN1845612A (zh) * 2005-04-08 2006-10-11 三星电子株式会社 使用混合位置跟踪系统的三维显示装置和方法
CN101065976A (zh) * 2004-12-02 2007-10-31 索尼爱立信移动通讯有限公司 带有三维显示器的便携式通信装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (ja) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法
US7239293B2 (en) * 1998-01-21 2007-07-03 New York University Autostereoscopic display
GB0007863D0 (en) * 2000-03-31 2000-05-17 Koninkl Philips Electronics Nv Hand-held electronic device having a display
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7016705B2 (en) 2002-04-17 2006-03-21 Microsoft Corporation Reducing power consumption in a networked battery-operated device using sensors
US8300043B2 (en) 2004-06-24 2012-10-30 Sony Ericsson Mobile Communications AG Proximity assisted 3D rendering
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
JP2006323255A (ja) * 2005-05-20 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 表示装置
WO2007013833A1 (en) * 2005-09-15 2007-02-01 Oleg Stanilasvovich Rurin Method and system for visualising virtual three-dimensional objects
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
TW201021546A (en) * 2008-11-19 2010-06-01 Wistron Corp Interactive 3D image display method and related 3D display apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
EP0874303A1 (en) * 1997-04-25 1998-10-28 Texas Instruments France Video display system for displaying a virtual threedimensinal image
US20030051179A1 (en) * 2001-09-13 2003-03-13 Tsirkel Aaron M. Method and apparatus for power management of displays
US20030080937A1 (en) * 2001-10-30 2003-05-01 Light John J. Displaying a virtual three-dimensional (3D) scene
CN101065976A (zh) * 2004-12-02 2007-10-31 索尼爱立信移动通讯有限公司 带有三维显示器的便携式通信装置
CN1845612A (zh) * 2005-04-08 2006-10-11 三星电子株式会社 使用混合位置跟踪系统的三维显示装置和方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394396A (zh) * 2014-09-30 2015-03-04 深圳市亿思达科技集团有限公司 一种利用伸缩元件实现图像视觉深度显示的装置及方法
CN106970782A (zh) * 2016-01-14 2017-07-21 阿里巴巴集团控股有限公司 卡片式视图控件的交互处理方法及其装置

Also Published As

Publication number Publication date
CN102428431B (zh) 2013-11-20
US20100295958A1 (en) 2010-11-25
JP2012527666A (ja) 2012-11-08
EP2433207A1 (en) 2012-03-28
JP5498573B2 (ja) 2014-05-21
KR20120058454A (ko) 2012-06-07
WO2010133259A1 (en) 2010-11-25
US8179449B2 (en) 2012-05-15

Similar Documents

Publication Publication Date Title
CN102428431B (zh) 包括显示器的便携式电子设备及控制此类设备的方法
US8350896B2 (en) Terminal apparatus, display control method, and display control program
US11044402B1 (en) Power management for optical position tracking devices
EP3241093B1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
US8310537B2 (en) Detecting ego-motion on a mobile device displaying three-dimensional content
TWI544447B (zh) 擴增實境的方法及系統
US9033516B2 (en) Determining motion of projection device
US9978147B2 (en) System and method for calibration of a depth camera system
US20150310619A1 (en) Single-Camera Distance Ranging Method and System
CN108038726B (zh) 物品展示方法及装置
KR20170130602A (ko) 증강 현실 및/또는 가상 현실에서의 터치 스크린 호버 검출
KR20140053235A (ko) 레이저 깊이 지도 레인지를 확대하는 방법
CN105247447A (zh) 眼睛跟踪校准系统及方法
CN110035218B (zh) 一种图像处理方法、图像处理装置及拍照设备
KR20160070780A (ko) 재포커싱가능 이미지들
US9914056B2 (en) Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
JP5766479B2 (ja) 電子機器、制御方法および制御プログラム
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
JP2020087277A (ja) 動画合成装置、動画合成方法及び動画合成プログラム
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
CN109618055A (zh) 一种位置共享方法及移动终端
JP7300436B2 (ja) 情報処理装置、システム、情報処理方法および情報処理プログラム
CN103902182A (zh) 拍摄装置控制方法、装置及终端
CN115812189A (zh) 用于视觉惯性里程计系统的动态传感器选择
CN112738404A (zh) 电子设备的控制方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20131120

Termination date: 20161104