CN102375717A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN102375717A
CN102375717A CN2011102347889A CN201110234788A CN102375717A CN 102375717 A CN102375717 A CN 102375717A CN 2011102347889 A CN2011102347889 A CN 2011102347889A CN 201110234788 A CN201110234788 A CN 201110234788A CN 102375717 A CN102375717 A CN 102375717A
Authority
CN
China
Prior art keywords
content
projection surface
image
messaging device
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011102347889A
Other languages
English (en)
Inventor
宫下健
笠原俊一
山野郁男
山本一幸
水沼宏之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102375717A publication Critical patent/CN102375717A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/54Details of telephonic subscriber devices including functional features of a projector or beamer module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明涉及信息处理装置、信息处理方法和程序。该装置和方法提供了用于处理信息的逻辑。在一个实现方案中,信息处理设备包括壳体和显示单元,该显示单元被配置为向用户显示第一内容的至少一部分。投影单元被配置为将第二内容的至少一部分投影到投影表面上。检测单元被配置为检测投影表面和壳体的一部分之间的位移,壳体被配置为支承显示单元、投影单元和检测单元。检测单元被进一步配置为确定位移是否落在阈值距离内。投影单元被进一步配置为,当位移落在阈值距离内时,将内容的第二部分投影到投影表面上。

Description

信息处理装置、信息处理方法和程序
相关申请的交叉引用
本申请基于在2010年8月16日提交的日本专利申请JP 2010-181759并且要求其优先权,该专利申请的整体内容通过引用合并于此
技术领域
所公开的示例性实施例涉及信息处理装置、信息处理方法和程序。
背景技术
在显示装置中提供了信息处理装置。该显示装置具有显示单元,并且显示各种图像。此外,出于显示装置放大并且显示图像的观点,已知投影仪,其将图像投影并且显示在投影表面上(参见日本专利申请公开第2009-64375号)。日本专利申请公开第2009-64375号的投影仪基于从个人计算机输出的视频信号,使键盘视频图像重叠在个人计算机的监视器视频图像上,并且将视频图像投影在地板表面上。
发明内容
顺便提及,一些显示装置具有显示单元和投影仪。然而,这些显示装置旨在用于在显示单元上显示图像或者将图像投影在投影表面上来显示。因此,未考虑一起使用显示单元上显示的图像和投影在投影表面上的图像,并且存在未有效地利用显示单元和投影单元的问题。
考虑到前文所述,期望提供新型的和改进的信息处理装置、信息处理方法和程序,其能够改进利用将显示在显示单元上的图像和将投影在投影表面上的图像的便利性。
根据示例性实施例,一种信息处理设备包括壳体和显示单元,该显示单元被配置为向用户显示第一内容的至少一部分。投影单元被配置为将第二内容的至少一部分投影到投影表面上。检测单元被配置为检测投影表面和壳体的一部分之间的位移,壳体被配置为支承显示单元、投影单元和检测单元。检测单元被进一步配置为确定位移是否落在阈值距离内。投影单元被进一步配置为,当位移落在阈值距离内时,将内容的第二部分投影到投影表面上。
根据另一示例性实施例,一种用于处理信息的计算机实现的方法包括检测投影表面和信息处理设备的壳体的一部分之间的位移。该方法确定位移是否落在阈值距离内。将第一内容的至少一部分显示给用户。当位移落在阈值距离内时,将第二内容的至少一部分投影到投影表面上。
根据又一示例性实施例,一种非暂时的、计算机可读存储介质存储程序,该程序在被处理器执行时使处理器执行用于处理信息的方法。该方法包括检测投影表面和信息处理设备的壳体的一部分之间的位移。该方法确定位移是否落在阈值距离内。将第一内容的至少一部分显示给用户。当位移落在阈值距离内时,将第二内容的至少一部分投影到投影表面上。
如上文所述,根据所公开的示例性实施例,可以改进利用将显示在显示单元上的图像和将投影在投影表面上的图像的便利性。
附图说明
图1是示出移动终端10的主要部件的配置的框图;
图2是示出移动终端10的外观的透视图;
图3是用于说明当网页显示在显示单元16上时将投影在投影表面S上的投影图像的视图;
图4是用于说明当文本显示区域显示在显示单元16上时将投影在投影表面S上的投影图像的视图;
图5是用于说明图像P1和投影图像P2的显示处理的第一示例性实施例的流程图;
图6是用于说明接触传感器24检测桌子的接触的视图;
图7是用于说明其中投影仪18逐渐放大投影区域并且将其投影在投影表面S上的模式的视图;
图8是用于说明图像P1和投影图像P2的显示处理的第二示例性实施例的流程图;
图9是用于说明图像P1和投影图像P2如何结合触摸面板22上的拖拽操作而滚动的视图;
图10是用于说明图像P1和投影图像P2如何结合投影图像P2上的手指的移动操作而滚动的视图;
图11是用于说明显示单元16的显示屏幕上的图标I如何结合拖拽操作移动到投影表面S的视图;
图12是用于说明当显示单元16的显示屏幕和投影表面被视为连续显示区域时的集成坐标空间的示意图;
图13是说明检测移动终端10接近投影表面S的方法的示意图;以及
图14是示出检测移动终端10的接触的其他示例性实施例的视图。
具体实施方式
在下文中,将参照附图详细描述本公开的优选示例性实施例。注意,在说明书和附图中,具有基本上相同的功能和结构的结构元件标有相同的附图标记,并且省略了这些结构元件的重复解释。
根据本公开的一个实施例,提供了一种信息处理设备,其包括:壳体;显示单元,被配置为向用户显示第一内容的至少一部分;投影单元,被配置为将第二内容的至少一部分投影到投影表面上;以及检测单元,被配置为检测投影表面和壳体的一部分之间的位移,壳体被配置为支承显示单元、投影单元和检测单元;以及确定位移是否落在阈值距离内,其中投影单元被进一步配置为,当位移落在阈值距离内时,将内容的第二部分投影到投影表面上。
根据本公开的另一实施例,提供了一种用于处理信息的计算机实现的方法,包括:检测投影表面和信息处理设备的壳体的一部分之间的位移;以及确定位移是否落在阈值距离内,将第一内容的至少一部分显示给用户;以及当位移落在阈值距离内时,将第二内容的至少一部分投影到投影表面上。
将以如下所示的顺序提供描述
1.信息处理装置的配置
2.投影仪18对投影图像进行投影
3.将投影在投影表面S上的投影图像的模式
4.图像P1和投影图像P2的滚动显示
5.图像P1和投影图像P2的显示处理的第一示例性实施例
6.图像P1和投影图像P2的显示处理的第二示例性实施例
7.图像P1和投影图像P2的滚动显示的示例
8.其他示例性实施例
1.信息处理装置的配置
在本示例性实施例中,诸如移动电话或PDA(个人数字助理)的移动终端将被解释为信息处理装置的示例。
首先,将使用图1和2解释移动终端10的配置。图1是示出移动终端10的主要部件的配置的框图。图2是示出移动终端10的外观的透视图。此外,图2示出了移动终端10的投影仪18如何将投影图像投影在桌子(未示出)上。
移动终端10具有例如浏览网站(万维网)的功能。如图1中所示,该移动终端10具有控制单元30、存储器14、显示单元16、作为投影单元的示例的投影仪18、相机20、触摸面板22、作为接触检测单元的示例的接触传感器24、以及通信单元28。
控制单元30控制整体移动终端10,并且执行关于显示单元16、投影仪18等的预定控制。存储器14存储控制单元30中使用的信息(例如,由控制单元30执行的程序信息)。
显示单元16是例如液晶显示器或者有机EL(电致发光)显示器,并且在显示屏幕上显示例如各种图像。例如,显示单元16在浏览网站时显示网页的图像。此外,显示单元16设置在移动终端10的前表面10b中,并且显示单元16的显示屏幕的尺寸比前表面10b的面积小得多。
如图2中所示,投影仪18将投影图像(第二图像)投影在投影表面S上。投影仪18具有光源和诸如透镜的光学系统,并且发射光束并且将图像或文本(视频图像)投影在投影表面上。与显示单元16相似,投影仪18也设置在移动终端10的前表面10b中,并且在上下方向上位于显示单元16的上方。此外,投影仪18被配置为在上下方向上倾斜向下对投影图像进行投影。
此外,根据本示例性实施例的投影仪18将投影图像投影在移动终端10的底表面10a所接触的接触表面(投影表面S)上。如图2中所示,投影仪18对投影图像进行投影,使得投影图像与移动终端10的底表面10a相邻。此外,下文将解释投影仪18对投影图像进行投影的细节。
相机20用来获取图像。相机20具有透镜和诸如CCD或CMOS的成像元件。根据本示例性实施例的相机20具有检测用户的手指在投影表面S上投影的投影图像上的移动的功能。为了实现该功能,与投影仪18相似,相机20也设置在移动终端10的前表面10b中,并且在上下方向上位于显示单元16上方。这样,相机20被配置为在上下方向上在斜下部中获取图像。此外,在本示例性实施例中,相机20被设置为在水平方向上紧邻投影仪18。
触摸面板22重叠在显示单元16上并且设置在显示单元16中。该触摸面板22允许检测用户在显示单元16上显示的图像上的轻叩操作或拖拽操作。这里,可以采用所谓的静电方法和压敏方法中的一个,作为触摸面板22的检测方法。此外,轻叩操作意味着关于触摸面板22的触摸控制,并且拖拽操作意味着使接触触摸面板22的手指移动的操作。
接触传感器24设置在移动终端10的底表面10a中并且检测移动终端10与投影表面S接触。可以使用诸如机械系统的各种系统的传感器,只要接触传感器24能够检测接触表面。
通信单元28具有天线,并且通过例如基站来执行与网络的无线通信以连接到外部服务器等。
此外,尽管在上文中投影仪18和相机20在上下方向上位于显示单元16上方,但是它们不限于此。例如,投影仪18和相机20也可以在水平方向上位于显示单元16的横向侧面。此外,投影仪18和相机20可以设置在分别不同的位置。
2.投影仪18对投影图像进行投影
如图2中所示,投影仪18将投影图像投影在移动终端10的底表面10a所接触的接触表面(投影表面S)上。此外,投影表面S上的虚线指示投影仪18的投影区域。
在本示例性实施例中,由显示单元16显示图像以及由投影仪18将图像投影在投影表面上两者均被执行。此外,在显示单元16上显示的图像和由投影仪18投影的投影图像形成了一系列仿佛连续的图像。这里,投影图像与显示单元16上显示的图像相关。结果,显示区域仿佛扩大,从而用户可以识别宽的显示屏幕上的相关图像(连续图像)。
控制单元30控制显示单元16的图像显示以及投影仪18的图像投影以显示这些连续图像。就是说,当移动终端10接触投影表面S时,控制单元30控制显示单元16和投影仪18以使要显示的图像显示在显示单元16上并且使要投影的投影图像显示在投影表面S上,作为一系列连续图像。
更具体地,当借助于接触传感器24检测到在显示单元16显示图像的同时移动终端10的底表面10a与接触表面(投影表面S)接触时,控制单元30使投影仪18将投影图像投影在投影表面S上。此外,下文将描述这些连续图像的显示处理。
此外,如下文将说明的,为了显示连续图像,控制单元30控制投影仪18逐渐扩大要投影的投影图像的显示面积。
3.将投影在投影表面S上的投影图像的模式
将使用图3和4说明将投影在投影表面S上的投影图像的模式。图3是用于说明当网页显示在显示单元16上时将投影在投影表面S上的投影图像的视图。此外,为了易于说明,在图3中,在移动终端10下方示出了投影图像。
在图3中,显示单元16的显示目标的网页的图像的尺寸大于显示单元16的显示屏幕的尺寸。因此,显示单元16仅显示作为网页的一部分的图像P1。随后,网页的未显示在显示单元16上的图像由投影仪18投影在投影表面S上,作为投影图像P2。更具体地,接续显示单元16上显示的图像P1的网页的图像P2(就是说,与显示单元16上显示的图像P1相关的图像P2)被投影在投影表面S上。此外,在图3中,图像P1对应于第一图像,并且投影图像P2对应于第二图像。
这里,如根据图2和3所清楚的,投影表面S上的投影图像P2的位置与移动终端10的底表面10a相邻。此外,如上文所述,显示单元16的显示屏幕基本上被设置在移动终端10的前表面10b的整体区域上面。因此,显示单元16上显示的图像P1和投影表面S上的投影图像P2之间的不连续是小的,从而用户可以将图像P1和投影图像P2识别为连续的图像。
如上文所述,显示单元16上显示的图像P1和投影表面S上投影的投影图像P2形成了网页的一系列连续图像。通过观看显示单元16上显示的图像和投影表面S上投影的图像P2,用户可以以大的屏幕尺寸浏览网页。因此,不需要例如切换显示屏幕的操作,从而改进了移动终端10的便利性。
图4是用于说明当文本显示区域显示在显示单元16上时将投影在投影表面S上的投影图像的视图。此外,为了易于说明,图4在移动终端10下方示出了投影图像。
在图4中,当示出文本显示区域的图像P1显示在显示单元16中时,示出用于在文本显示区域中输入文本的虚拟键盘的图像P2被投影在移动终端10的底表面10a所接触的投影表面S上。通过检测该虚拟键盘的图像P2上的触摸控制,移动终端10显示与在文本显示区域上进行触摸控制的按键相关联的文本。因此,当观看显示单元16上显示的屏幕时,用户可以通过在投影图像P2上执行触摸控制而容易地在文本显示区域上输入文本。
此外,投影表面S上投影的投影图像P2不限于图3和4中示出的图像,并且任何投影图像是可能的,只要这些图像与将显示在显示单元16上的图像相关。
4.图像P1和投影图像P2的滚动显示
如上文所述,控制单元30控制显示单元16和投影仪18以显示图像P1和投影图像P2的一系列连续图像。此外,在本示例性实施例中,为了执行所显示的连续图像的滚动显示,控制单元30也控制显示单元16和投影仪18。
当在图像P1被显示在显示单元16上并且投影图像P2被投影在投影表面S的状态下检测触摸面板22上的拖拽操作或者用户手指在投影图像P2上的移动时,控制单元30执行图像P1和投影图像P2的滚动显示。在该滚动显示时,使要显示在显示单元16上的图像P1滚动,并且同时,也使要投影在投影表面S上的投影图像P2滚动。
更具体地,当在显示连续图像的同时检测到用户在触摸面板22上的拖拽操作时,控制单元30根据拖拽操作的拖拽量同时使图像P1和投影图像P2滚动。此外,当在显示连续图像的同时相机20检测到用户手指的移动时,控制单元30根据手指的移动量使图像P1和投影图像P2滚动。此外,下文将描述图像P1和投影图像P2的滚动显示的示例。
5.图像P1和投影图像P2的显示处理的第一示例性实施例
将使用图5描述图像P1和投影图像P2的显示处理的第一示例性实施例。图5是用于说明图像P1和投影图像P2的显示处理的第一示例性实施例的流程图。
第一示例性实施例涉及当在显示单元16上显示如图3中所示的网页作为图像P1时的显示处理。此外,根据第一示例性实施例的显示处理开始于如下状态,其中网页(图像P1)显示在显示单元16上并且投影仪18未执行投影。这里,尽管将网页说明为示例,但是本公开不限于此。
首先,借助于接触传感器24,控制单元30判定移动终端10的底表面10a是否接触另一物体(这里,桌子T作为示例)(步骤S2)。这里,将使用图6说明接触传感器24如何检测桌子T。
图6是用于说明接触传感器24检测桌子T的接触的视图。此外,为了易于说明,在图6中,图像P1未显示在显示单元16上。在其中移动终端10基本上相对于桌子T竖直的状态下,当底表面10a接触桌子T时,设置在移动终端10的底表面10a中的接触传感器24检测接触。因此,当移动终端10相对于桌子T倾斜时,接触传感器24未检测到桌子T。
回到图5中示出的流程图,将继续显示处理的说明。当控制单元30通过接触传感器24判定底表面10a未接触桌子T时(步骤S2:否),就是说,当移动终端10远离桌子T时,投影仪18不会将投影图像P2投影在投影表面S上。就是说,显示单元16单独地显示网页。
与此相反,当借助于接触传感器24判定底表面10a接触桌子T时(步骤S2:是),控制单元30随后判定用户手指是否在触摸面板22上的竖直方向上执行拖拽操作(步骤S4)。用户执行该拖拽操作以便于扩大网页的显示区域。
此外,当控制单元30判定在触摸面板22上未执行拖拽操作时(步骤S4:否),则投影仪18不会将投影图像P2投影在投影表面S上。就是说,显示单元16单独地显示网页。
与此相反,当判定执行拖拽操作时(步骤S4:是),控制单元30使投影仪18开始将投影图像P2投影在桌子T通过其接触底表面10a的接触表面(就是说,投影表面S)上(步骤S6)。投影仪18开始将投影图像P2投影在投影表面S上,使得投影图像P2与底表面10a相邻。
这里,投影图像P2是网页的未显示在显示单元16上的图像。显示单元16上的图像P1和投影表面S上的投影图像P2是形成一个网页的图像(一系列连续图像)。
同时,在本示例性实施例中,投影仪18不会立即投影图3中示出的投影图像P2。如图7中所示,投影仪18对投影图像进行投影,使得投影区域随时间的消逝而扩大。
图7是用于说明其中投影仪18逐渐扩大投影区域并且将其投影在投影表面S上的模式的视图。在图7中,投影图像P2的投影区域分三个阶段扩大。就是说,投影仪18首先将投影图像P2a投影在投影表面S上,使得投影图像P2a从底表面10a弹出。进一步地,在使其中仅使投影图像P2a投影的状态维持特定时间之后,投影仪18将投影图像P2b投影在投影表面S上。此外,在使其中仅使投影图像P2b投影的状态维持特定时间之后,投影仪18将投影图像P2c投影在投影表面S上。该投影图像P2c具有能够投影的最大尺寸(尺寸与图3中示出的图像相同)。
因而,通过在投影表面S上逐渐扩大投影图像P2的投影区域,用户可以容易地识别形成连续图像的一部分的图像显示在投影表面S上。
回到图5中所示的流程图,将继续使图7中示出的三个投影图像P2a至P2c投影的显示处理的说明。首先,控制单元30控制投影仪18,使得投影图像P2a(预定尺寸的图像)在其中图像P1显示在显示单元16上的状态下从移动终端10的底表面10a延伸(步骤S8)。
接着,控制单元30判定投影在投影表面S上的图像是否是最大尺寸的投影图像P2c(步骤S10)。这里,使投影图像P2a投影(步骤S10:否),并且因此控制单元30再次执行步骤S8并且使投影图像P2b投影。此外,为了使投影图像P2a扩大到投影图像P2b,维持图像的投影状态。因而,控制单元30重复步骤S8和步骤S10的处理直至使最大尺寸的投影图像投影。
此外,当使投影图像P2c投影时(步骤S10:是),控制单元30结束处理。根据该显示处理,通过在显示单元16显示图像P1的同时从投影仪18将与图像P1相关的投影图像P2投影在投影表面S上,形成了一个大的显示区域。因此,较之用户观看在显示屏幕和投影表面S中的一个上显示的图像的情况,用户可以以大的屏幕尺寸浏览网页,从而不需要诸如切换显示屏幕的复杂操作并且改进了移动终端10的便利性。
此外,通过执行以上显示处理,显示单元16的显示屏幕和投影表面S被布置为相邻,从而显示屏幕和投影表面S可以被处置为一个显示区域。因此,在显示屏幕和投影表面S上分别形成网页的图像P1和P2可以被显示为一系列连续图像。结果,较之用户观看在显示屏幕和投影表面S中的一个上显示的图像的情况,用户可以识别宽范围中的图像,从而改进了用户的便利性。
过去,具有显示单元16和投影仪18的装置仅使用显示单元16和投影仪18中的一个来显示图像,并且不存在如本示例性实施例中的将显示屏幕和投影表面S处置为一个显示区域的技术概念。因此,根据该显示处理,通过一起利用显示屏幕和投影表面S,可以实现具有相对过去的显示系统的改进的便利性的显示系统。
此外,尽管上文已描述了:在接触传感器24检测到底表面10a的接触之后,当在触摸面板22上执行拖拽操作时,在扩大投影区域的同时使投影图像投影,但是本公开不限于此。例如,当检测到底表面10a的接触时,投影区域可以扩大而与是否执行拖拽操作无关。此外,根据拖拽操作的方向,投影区域可以变为用户期望的投影区域。用这种方法,可以将投影图像投影在具有最优投影区域的投影表面S上。
6.图像P1和投影图像P2的显示处理的第二示例性实施例
将使用图8描述图像P1和投影图像P2的显示处理的第二示例性实施例。图8是用于说明图像P1和投影图像P2的显示处理的第二示例性实施例的流程图。
第二示例性实施例涉及当在显示单元16上显示如图4中所示的文本显示区域作为图像P1时的显示处理。此外,根据第二示例性实施例的显示处理开始于如下状态,其中文本显示区域(图像P1)显示在显示单元16上并且投影仪18未执行投影。
首先,在其中文本显示区域显示在显示单元16上的状态下,控制单元30判定用户是否在文本显示区域上执行轻叩操作(步骤S22)。进一步地,当判定未执行轻叩操作时(步骤S22:否),控制单元30结束该处理,不会将图像P2投影在投影表面S上。
与此相反,当控制单元30判定执行了轻叩操作时(步骤S22:是),则接触传感器24随后判定移动终端10的底表面10a是否接触另一物体(例如,桌子T)(步骤S24)。
进一步地,当控制单元30判定底表面10a未接触桌子T时(步骤S24:否),将键盘(未示出)显示在显示单元16上(步骤S28)。就是说,显示单元16显示文本显示区域和键盘两者。因此,通过触摸显示单元16的键盘,可以在文本显示区域中输入文本。此外,在该情况下,显示单元16的文本显示区域的尺寸与显示键盘成反比地变小。
与此相反,当判定底表面10a接触桌子T时(步骤S24:是),控制单元30使投影仪18将示出图4中所示的虚拟键盘的图像P2投影在投影表面S上,而不改变显示单元16的文本显示区域的尺寸(步骤S26)。这里,与第一示例性实施例相似,图像P2被投影为与底表面10a相邻。
根据该第二示例性实施例的显示处理,当文本显示区域显示在显示单元16上时,通过将示出虚拟键盘的图像P2投影在投影表面S上,用户可以通过对虚拟键盘的图像P2执行触摸控制而在文本显示区域中输入文本。因此,较之在显示屏幕中存在文本显示区域和键盘区域的情况,可以更大地显示文本显示区域,从而改进移动终端10的便利性。
此外,尽管在第一示例性实施例中在逐渐扩大投影区域的同时使图像P2的投影区域投影,但是在第二示例性实施例中立即使图像P2投影在投影表面S上。用这种方法,可以在维持宽的文本显示区域的同时快速地输入文本。
7.图像P1和投影图像P2的滚动显示的示例
将通过具体示例说明在其中图像P1显示在显示单元16上并且投影图像P2投影在投影表面S上的状态下的图像P1和投影图像P2的滚动显示。
图9是用于说明图像P1和投影图像P2如何结合触摸面板22上的拖拽操作而滚动的视图。图9的左图示出了图像滚动之前的状态,并且右图示出了图像滚动之后的状态。此外,箭头的方向D1指示拖拽方向。
如图9中所示,在其中手指F触摸触摸面板22的状态下,通过在方向D1上拖拽,显示单元16的图像P1和投影表面S的投影图像P2在方向D1上移动。用这种方法,在滚动之前作为投影图像P2显示的图像的一部分被显示在显示单元16上。如上文所述,通过在触摸面板22上执行拖拽操作,不仅显示单元16的图像P1移动,而且投影图像P2也移动。结果,可以容易地通过简单的操作使两个图像P1和P2滚动。
图10是用于说明图像P1和投影图像P2如何结合投影图像P2上的手指的移动操作而滚动的视图。图10的左图示出了图像滚动之前的状态,并且右图示出了图像滚动之后的状态。此外,箭头的方向D1指示了手指F的移动方向。
相机20检测手指F的移动。就是说,相机20对应于移动检测单元的示例。此外,如图10中所示,当用户手指F在方向D1上在投影图像P2上移动时,显示单元16上的图像P1和投影表面S上的投影图像P2在方向D1上移动。用这种方法,在滚动之前作为投影图像P2显示的图像的一部分被显示在显示单元16上。因而,通过使手指在投影图像P2上移动,不仅投影图像P2移动,而且显示单元16的图像P1也移动。结果,可以容易地通过简单的操作使两个图像P1和P2滚动。
图11是用于说明显示单元16的显示屏幕上的图标I如何结合拖拽操作移动到投影表面S的视图。此外,箭头的方向D2指示拖拽方向。
如图11中所示,在其中手指F在显示单元16的显示屏幕上触摸图标I的状态下,通过在方向D2上连续地拖拽图标I,图标I移动到投影表面S并且被显示为投影图像的一部分。此外,如图11中间所示,当在图标I移动时图标I跨过显示屏幕和投影表面S两者时,图标I分离地显示在显示屏幕和投影表面S上。如上文所述,显示屏幕上的图标结合从显示屏幕到投影表面S的一系列触摸操作以及手指的移动操作而移动到投影表面S。如上文所述,可以通过简单的操作执行具有分别不同的表面的显示屏幕和投影表面S之间的图标的拖拽操作。
这里,将使用图12说明当显示单元16的显示屏幕和投影表面S被显示为连续显示区域时的实现连续触摸操作的方法。图12是用于说明当显示单元16的显示屏幕和投影表面被视为连续显示区域时的集成坐标空间的示意图。
图12(a)示出了显示单元16的显示屏幕E的坐标区域。显示屏幕E在宽度方向上的坐标是0至WL,并且高度方向上的坐标是0至HL。此外,显示屏幕E的左上端是原点。图12(b)示出了投影表面S的坐标区域。投影表面S在宽度方向上的坐标是0至WP,并且高度方向上的坐标是0至HP。此外,投影表面S的左上端是原点。图12(c)示出了集成显示屏幕E和投影表面S的集成坐标空间。
将说明在图12(c)中所示的集成空间坐标中计算触摸位置的方法。将根据如下三个常数求得集成空间坐标中的集成坐标(X,Y):SL、H1和SP。首先,将如如下表达式(即表达式1至表达式3)中的那样确定三个常数。
SL=W/WL                                    (1)
H1=HL/SL                                   (2)
SP=W/WP                                    (3)
这里,W是随机的正的固定值(集成坐标空间的最大X坐标)。
随后,显示屏幕E上的集成坐标(X,Y)将由如下表达式(即表达式4和5)表示。
X=XL*SL                                   (4)
Y=YL*SL                                   (5)
此外,投影表面S上的集成坐标(X,Y)将由如下表达式(即表达式6和7)表示。
X=XP*SP                                   (6)
Y=YP*SP+H1                                (7)
8.其他示例性实施例
本领域的技术人员应当理解,在所附权利要求或其等同物的范围内,可以根据设计要求和其他因素进行各种修改、组合、子组合和变更。
尽管在以上示例性实施例中,当检测到移动终端10接触桌子T时,投影图像P2投影在投影表面S上,但是本公开不限于这些示例。例如,当检测到移动终端10接近桌子T时,投影图像P2可以投影在投影表面S上。
图13是说明检测移动终端10接近投影表面S的方法的示意图。根据该方法,在识别图像的标记M投影在投影表面S上之后,相机20获取所投影的标记M的图像。此外,可以基于由对应于读取单元的相机20获取其图像的标记M的位置来判定移动终端10是否接近桌子T。
例如,如图13(a)中所示当移动终端10接近投影表面S时,如图13(b)所示其图像被相机20获取的标记M的位置与相机20的图像获取区域W的上侧接近。与此相反,如图13(c)中所示当移动终端10远离投影表面S时,如图13(d)所示其图像被获取的标记M的位置远离图像获取区域W的上侧。根据该方法,不需要接触传感器24,从而可以简化装置。此外,图13(b)和13(d)中的投影图像P2的形状是不同的,这是因为,尽管在图13(b)中相机20和投影仪18的光轴基本上匹配,但是在图13(d)中相机20和投影仪18的光轴失准。
此外,尽管在以上示例性实施例中,设置在移动终端10的底表面10a中的接触传感器24检测移动终端10接触桌子T,但是本公开不限于这些示例。例如,如图14中所示,可以基于可旋转地设置在移动终端10中的支承轴32的旋转角度来检测接触。尽管当携带移动终端10时该支承轴32收纳在移动终端10中,但是当移动终端10被设置在桌子T等上时,支承轴32旋转。因此,当移动终端10设置在桌子上时,通过设置支承轴32的旋转轴,可以检测支承轴32的旋转角度并且检测移动终端10的接触。此外,图14是示出检测移动终端10的接触的其他示例性实施例的视图。
此外,尽管当移动终端10的底表面10a未接触或接近桌子T时,与显示单元16上显示的图像P1相关的投影图像P2仍可以投影在投影表面S上。例如,当在显示图像P1时执行摇动移动终端10的操作时,可以使投影图像P2投影。此外,当接收到电子邮件时,电子邮件的内容可以作为投影图像P2投影在投影表面S上。
此外,尽管在以上示例性实施例中,由相机20检测手指在投影图像P2上的移动,但是本公开不限于这些示例。例如,当投影仪18采用激光扫描系统时,可以检测手指相对于激光的反射。
此外,尽管在以上示例性实施例中,移动终端10已被说明为信息处理装置的示例,但是本公开不限于这些示例。例如,诸如数字相框的固定在例如桌子上使用的装置是可能的。
本公开包含与在2010年8月16日提交日本专利局的日本在先专利申请JP 2010-181759的主题内容相关的主题内容,其整体内容通过引用合并于此。

Claims (20)

1.一种信息处理设备,包括:
壳体;
显示单元,被配置为向用户显示第一内容的至少一部分;
投影单元,被配置为将第二内容的至少一部分投影到投影表面上;以及
检测单元,被配置为:
检测所述投影表面和所述壳体的一部分之间的位移,所述壳体被配置为支承所述显示单元、所述投影单元和所述检测单元;以及
确定所述位移是否落在阈值距离内,
其中所述投影单元被进一步配置为,当所述位移落在所述阈值距离内时,将内容的第二部分投影到所述投影表面上。
2.根据权利要求1所述的信息处理设备,其中所述第一内容和所述第二内容与电子文档相关联。
3.根据权利要求1所述的信息处理设备,进一步包括控制单元,其被配置为生成第一指令以向用户显示所述第一内容部分,以及生成第二指令以将所述第二内容部分投影到所述投影表面上,所述控制单元至少与所述检测单元通信。
4.根据权利要求3所述的信息处理设备,进一步包括传感器单元,其被配置为生成指示用户的操作工具和所述传感器单元的表面之间的接触的信号,所述传感器单元与所述控制单元通信。
5.根据权利要求4所述的信息处理设备,其中所述操作工具包括人类肢体。
6.根据权利要求4所述的信息处理设备,其中所述控制单元被进一步配置为:
从所述传感器单元接收所述信号;以及
至少基于所述信号,识别与所述接触相关联的第一接触位置。
7.根据权利要求6所述的信息处理设备,其中所述控制单元被进一步配置为识别所述第一接触位置的移动。
8.根据权利要求7所述的信息处理设备,其中所述控制单元被进一步配置为:
至少基于所述第一接触位置的所述移动,选择第三和第四内容;以及
生成第三指令以向用户显示所述第三内容的至少一部分,以及生成第四指令以将所述第四内容的至少一部分投影到所述投影表面上。
9.根据权利要求8所述的信息处理设备,其中:
所述第三内容部分包括所述第一内容部分或所述第二内容部分中的至少一个的子集;以及
所述第四内容部分包括所述第一内容部分或所述第二内容部分中的至少一个的子集。
10.根据权利要求8所述的信息处理设备,其中所述控制单元被进一步配置为:
确定与所述第一接触位置的所述移动相关联的方向;以及
基于所述第一接触位置的所述移动和所述方向选择所述第三和第四内容部分。
11.根据权利要求3所述的信息处理设备,其中所述检测单元被进一步配置为:
检测用户的操作工具和所述投影表面之间的接触;以及
识别与所检测到的接触相关联的第二位置。
12.根据权利要求11所述的信息处理设备,其中所述控制单元被进一步配置为识别所述第二接触位置的移动。
13.根据权利要求14所述的信息处理设备,其中所述控制单元被进一步配置为:
至少基于所述第二接触位置的所述移动,选择第三和第四内容;以及
生成第三指令以向用户显示所述第三内容的至少一部分,以及生成第四指令以将所述第四内容的至少一部分投影到所述投影表面上。
14.根据权利要求13所述的信息处理设备,其中所述控制单元被进一步配置为:
确定与所述第二接触位置的所述移动相关联的方向;以及
基于所述第二接触位置的所述移动和所述方向选择所述第三和第四内容部分。
15.根据权利要求11所述的信息处理设备,其中所述控制单元被进一步配置为:
基于检测到的第二接触位置,修改所述第一内容部分的子集;以及
生成第三指令以向用户显示经修改的子集。
16.根据权利要求15所述的信息处理设备,其中所述控制单元被进一步配置为:
生成与所述第二接触位置对应的文本数据;以及
将所述文本数据添加到所述第一内容部分以生成所述经修改的子集。
17.根据权利要求11所述的信息处理设备,其中:
所述第一内容与可执行应用程序的接口对应;以及
所述控制单元被进一步配置为执行与所述第二接触位置对应的可执行应用程序的功能。
18.根据权利要求1所述的信息处理设备,其中:
所述检测单元被进一步配置为确定所述壳体的所述部分是否与所述投影表面接触;以及
所述投影单元被进一步配置为,当所述壳体的所述部分与所述投影表面接触时,将内容的第二部分投影在所述投影表面上。
19.一种用于处理信息的计算机实现的方法,包括:
检测投影表面和信息处理设备的壳体的一部分之间的位移;以及
确定所述位移是否落在阈值距离内,
将第一内容的至少一部分显示给用户;以及
当所述位移落在所述阈值距离内时,将第二内容的至少一部分投影到投影表面上。
20.一种存储程序的非暂时的、计算机可读存储介质,所述程序在被处理器执行时使处理器执行用于处理信息的方法,其包括:
检测投影表面和信息处理设备的壳体的一部分之间的位移;以及
确定所述位移是否落在阈值距离内,
将第一内容的至少一部分显示给用户;以及
当所述位移落在所述阈值距离内时,将第二内容的至少一部分投影到投影表面上。
CN2011102347889A 2010-08-16 2011-08-09 信息处理装置、信息处理方法和程序 Pending CN102375717A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010181759A JP5601083B2 (ja) 2010-08-16 2010-08-16 情報処理装置、情報処理方法及びプログラム
JP2010-181759 2010-08-16

Publications (1)

Publication Number Publication Date
CN102375717A true CN102375717A (zh) 2012-03-14

Family

ID=44533934

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2011202949130U Expired - Fee Related CN202649977U (zh) 2010-08-16 2011-08-09 信息处理设备
CN2011102347889A Pending CN102375717A (zh) 2010-08-16 2011-08-09 信息处理装置、信息处理方法和程序

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN2011202949130U Expired - Fee Related CN202649977U (zh) 2010-08-16 2011-08-09 信息处理设备

Country Status (7)

Country Link
US (2) US9218027B2 (zh)
EP (1) EP2420914A2 (zh)
JP (1) JP5601083B2 (zh)
KR (1) KR20120016585A (zh)
CN (2) CN202649977U (zh)
RU (1) RU2011133446A (zh)
TW (1) TW201229646A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102866779A (zh) * 2012-09-04 2013-01-09 尹国鑫 虚拟追踪键盘
WO2014015456A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
WO2014015454A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
CN104423542A (zh) * 2013-08-26 2015-03-18 联想(北京)有限公司 一种电子设备
CN104516699A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种图像显示方法及电子设备
CN104657028A (zh) * 2013-11-18 2015-05-27 联想(北京)有限公司 信息处理方法及电子设备
CN104811639A (zh) * 2015-04-28 2015-07-29 联想(北京)有限公司 信息处理方法及电子设备
CN105426139A (zh) * 2014-09-23 2016-03-23 联想(北京)有限公司 一种信息处理方法及电子设备
WO2017005100A1 (zh) * 2015-07-03 2017-01-12 广东欧珀移动通信有限公司 移动终端
CN107667526A (zh) * 2015-04-22 2018-02-06 三星电子株式会社 电子设备及方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5601083B2 (ja) * 2010-08-16 2014-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20140057087A (ko) * 2012-11-02 2014-05-12 삼성전자주식회사 디바이스에 표시된 영상과 관련된 영상을 제공하는 시스템 및 방법
USD750111S1 (en) * 2012-12-14 2016-02-23 Facebook, Inc. Display panel of a programmed computer system with a graphical user interface
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
JP2014191460A (ja) * 2013-03-26 2014-10-06 Fujifilm Corp 携帯型画像表示端末及びその作動方法
WO2015002566A1 (ru) * 2013-07-04 2015-01-08 Sherbakov Andrei Yuryevich Устройство интерфейса с компьютерной системой ("виртуальный планшет")
US9877080B2 (en) * 2013-09-27 2018-01-23 Samsung Electronics Co., Ltd. Display apparatus and method for controlling thereof
JP6119570B2 (ja) * 2013-11-19 2017-04-26 ソニー株式会社 表示装置、表示方法およびプログラム
DE102014012516A1 (de) * 2014-01-20 2015-07-23 Beijing Lenovo Software Ltd. Informationsverarbeitungsverfahren und elektrische Vorrichtung
US10133355B2 (en) 2014-03-21 2018-11-20 Dell Products L.P. Interactive projected information handling system support input and output devices
US9965038B2 (en) * 2014-03-21 2018-05-08 Dell Products L.P. Context adaptable projected information handling system input environment
US9304599B2 (en) 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
WO2015175967A1 (en) * 2014-05-16 2015-11-19 Lumo Play, Inc. Systems and methods for mobile communication device interactive projection effect
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
CN105320258B (zh) * 2014-08-05 2019-01-01 深圳Tcl新技术有限公司 虚拟键盘系统及其键入方法
US10129510B2 (en) * 2016-02-18 2018-11-13 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention
JP6986699B2 (ja) * 2017-07-04 2021-12-22 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、移動体、表示制御方法及びプログラム
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
JP6522719B2 (ja) * 2017-11-28 2019-05-29 シャープ株式会社 画像表示方法
US11132090B2 (en) * 2017-12-04 2021-09-28 Hewlett-Packard Development Company, L.P. Peripheral display devices
US20190369555A1 (en) * 2018-06-04 2019-12-05 International Business Machines Corporation Holographic user interface for mobile menu item selection
CN115867883A (zh) * 2020-07-10 2023-03-28 瑞典爱立信有限公司 用于接收用户输入的方法和装置
US12079394B2 (en) * 2020-10-14 2024-09-03 Aksor Interactive contactless ordering terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040260916A1 (en) * 2001-10-31 2004-12-23 Hirotaka Ueda Edition apparatus, edition method, edition program and computer-readable recording medium containing edition program
US20060209020A1 (en) * 2005-03-18 2006-09-21 Asustek Computer Inc. Mobile phone with a virtual keyboard
US20100161839A1 (en) * 2007-04-26 2010-06-24 Eurotech Spa Electronic processing apparatus and configuration method
CN101795376A (zh) * 2009-01-30 2010-08-04 Lg电子株式会社 具有投影功能的便携式终端
CN202649977U (zh) * 2010-08-16 2013-01-02 索尼公司 信息处理设备

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185354A (ja) * 1997-09-04 1999-03-30 Internatl Business Mach Corp <Ibm> キーボード組込み型座標指示装置、キーボード・ユニット、及び情報処理機器
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US20030132921A1 (en) * 1999-11-04 2003-07-17 Torunoglu Ilhami Hasan Portable sensory input device
AU2002362085A1 (en) * 2001-12-07 2003-07-09 Canesta Inc. User interface for electronic devices
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
JP4047822B2 (ja) * 2004-02-27 2008-02-13 ソフトバンクモバイル株式会社 電子機器
JP4961662B2 (ja) * 2004-09-21 2012-06-27 株式会社ニコン プロジェクタ装置、携帯電話、カメラ
JP2007096992A (ja) * 2005-09-29 2007-04-12 Kyocera Corp 携帯端末
US20070229650A1 (en) * 2006-03-30 2007-10-04 Nokia Corporation Mobile communications terminal and method therefor
US20100247223A1 (en) * 2006-12-22 2010-09-30 Ribi Hans O Stylus-substrate system for direct imaging, drawing, and recording
JP2008298819A (ja) * 2007-05-29 2008-12-11 Nikon Corp 携帯電子機器、カメラおよび携帯電話機
US8023996B2 (en) * 2007-09-07 2011-09-20 Sony Ericsson Mobile Communications Ab Cellular terminals and other electronic devices and methods that adjust projected video images to compensate for color, brightness, and/or pattern of a display surface
JP2009064375A (ja) 2007-09-10 2009-03-26 Sanyo Electric Co Ltd 投写型映像表示装置
JP2009141489A (ja) * 2007-12-04 2009-06-25 Toshiba Corp 電子機器
JP2009164761A (ja) * 2007-12-28 2009-07-23 Toshiba Corp 携帯端末
CN101581951B (zh) * 2008-05-14 2011-11-09 富准精密工业(深圳)有限公司 电脑
US8863038B2 (en) * 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel electronic device
US8860632B2 (en) * 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
KR101588660B1 (ko) * 2008-09-30 2016-01-28 삼성전자주식회사 영상 이동이 가능한 디스플레이 장치 및 그 방법
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US20100197364A1 (en) * 2009-02-05 2010-08-05 Jenching Lee Apparatus controllable by mobile phone for power management
JP5439834B2 (ja) 2009-02-09 2014-03-12 株式会社ニコン 撮影装置
EP2228711A3 (en) * 2009-03-12 2014-06-04 Lg Electronics Inc. Mobile terminal and method for providing user interface thereof
US9152314B2 (en) * 2009-11-30 2015-10-06 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN102812424B (zh) * 2010-03-24 2016-03-16 内奥诺德公司 用于基于光的触摸屏的透镜系统
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US20120034953A1 (en) * 2010-08-06 2012-02-09 Kyocera Corporation Wireless handset having combined multiple displays
US8449118B2 (en) * 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Device-adjacent ambiently displayed image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040260916A1 (en) * 2001-10-31 2004-12-23 Hirotaka Ueda Edition apparatus, edition method, edition program and computer-readable recording medium containing edition program
US20060209020A1 (en) * 2005-03-18 2006-09-21 Asustek Computer Inc. Mobile phone with a virtual keyboard
US20100161839A1 (en) * 2007-04-26 2010-06-24 Eurotech Spa Electronic processing apparatus and configuration method
CN101795376A (zh) * 2009-01-30 2010-08-04 Lg电子株式会社 具有投影功能的便携式终端
CN202649977U (zh) * 2010-08-16 2013-01-02 索尼公司 信息处理设备

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014015456A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
WO2014015454A1 (zh) * 2012-07-23 2014-01-30 神画科技(深圳)有限公司 一种投影手机
CN102866779A (zh) * 2012-09-04 2013-01-09 尹国鑫 虚拟追踪键盘
CN104423542B (zh) * 2013-08-26 2017-11-03 联想(北京)有限公司 一种电子设备
CN104423542A (zh) * 2013-08-26 2015-03-18 联想(北京)有限公司 一种电子设备
CN104516699A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种图像显示方法及电子设备
CN104657028A (zh) * 2013-11-18 2015-05-27 联想(北京)有限公司 信息处理方法及电子设备
CN105426139A (zh) * 2014-09-23 2016-03-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN105426139B (zh) * 2014-09-23 2018-08-10 联想(北京)有限公司 一种信息处理方法及电子设备
CN107667526A (zh) * 2015-04-22 2018-02-06 三星电子株式会社 电子设备及方法
US10250857B2 (en) 2015-04-22 2019-04-02 Samsung Electronics Co., Ltd. Electronic device and method
CN107667526B (zh) * 2015-04-22 2022-04-26 三星电子株式会社 电子设备及方法
CN104811639A (zh) * 2015-04-28 2015-07-29 联想(北京)有限公司 信息处理方法及电子设备
CN104811639B (zh) * 2015-04-28 2019-04-26 联想(北京)有限公司 信息处理方法及电子设备
WO2017005100A1 (zh) * 2015-07-03 2017-01-12 广东欧珀移动通信有限公司 移动终端

Also Published As

Publication number Publication date
EP2420914A2 (en) 2012-02-22
JP5601083B2 (ja) 2014-10-08
TW201229646A (en) 2012-07-16
CN202649977U (zh) 2013-01-02
JP2012043060A (ja) 2012-03-01
US9218027B2 (en) 2015-12-22
KR20120016585A (ko) 2012-02-24
US11188125B2 (en) 2021-11-30
RU2011133446A (ru) 2013-02-20
US20120038542A1 (en) 2012-02-16
US20160062407A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
CN202649977U (zh) 信息处理设备
TWI469006B (zh) 觸控面板系統及電子機器
US10387014B2 (en) Mobile terminal for controlling icons displayed on touch screen and method therefor
US8866700B2 (en) Mobile electronic device
US20150042592A1 (en) Mobile terminal device and display control method thereof
US20150035781A1 (en) Electronic device
EP2068235A2 (en) Input device, display device, input method, display method, and program
US9772757B2 (en) Enlarging image based on proximity of a pointing object to a display screen
CN102985896A (zh) 用于与投影用户接口交互的方法和系统
US20120313869A1 (en) Information processing terminal and method, program, and recording medium
CN101398739A (zh) 一种基于触摸屏的页面浏览方法、装置及其移动通信终端
CN108563389B (zh) 显示设备及其用户界面显示方法
US20140173532A1 (en) Display control apparatus, display control method, and storage medium
JPWO2013046596A1 (ja) 携帯型情報処理端末
KR20140070745A (ko) 디스플레이 장치 및 이의 구동 방법
US20070216762A1 (en) Video Device
US10091367B2 (en) Information processing device, image forming apparatus and information processing method
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
JP5675486B2 (ja) 入力装置及び電子機器
US20060139325A1 (en) Handheld devices with intuitive page control
US20160110037A1 (en) Electronic apparatus, storage medium, and method for operating electronic apparatus
JP2015032261A (ja) 表示装置および制御方法
JP6155893B2 (ja) 画像処理装置、及びプログラム
CN112764623B (zh) 内容编辑方法及装置
CN111340586B (zh) 一种信息展示方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120314