CN102740031B - 投影装置、投影方法和投影程序 - Google Patents

投影装置、投影方法和投影程序 Download PDF

Info

Publication number
CN102740031B
CN102740031B CN201210079745.2A CN201210079745A CN102740031B CN 102740031 B CN102740031 B CN 102740031B CN 201210079745 A CN201210079745 A CN 201210079745A CN 102740031 B CN102740031 B CN 102740031B
Authority
CN
China
Prior art keywords
image
equipment
target
hands
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210079745.2A
Other languages
English (en)
Other versions
CN102740031A (zh
Inventor
水沼宏之
山野郁男
笠原俊
笠原俊一
宫下健
山本幸
山本一幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102740031A publication Critical patent/CN102740031A/zh
Application granted granted Critical
Publication of CN102740031B publication Critical patent/CN102740031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)

Abstract

根据示例性实施例,提供一种信息处理设备。所述设备被用于处理投影向目标的第一图像。所述设备包括处理单元,用于检测对象存在于投影仪单元和目标之间,其中当对象存在于投影仪单元和目标之间时,所述设备确定对象的区域并基于对象的区域生成修改的第一图像用于投影向目标。

Description

投影装置、投影方法和投影程序
对于相关申请的交叉引用
本申请要求2011年03月30日于日本专利局提交的日本专利申请No.JP2011-075998的优先权,其内容在此结合,作为参考。
技术领域
本公开涉及适合于应用到例如将图像投影到诸如屏幕或墙壁的投影目标构件的投影仪的投影装置、投影方法和投影程序。
背景技术
投影仪在相关领域中被广泛地已知作为一种将图像投影到诸如屏幕或墙壁的投影目标构件的投影装置(例如,参见JP-A-2005-338379(专利文献1))。尽管单独需要投影目标构件,但因为投影仪能够利用小的物体实现大屏幕,所以它被用在各种领域。
发明内容
例如,假设如下情况:用户将手放到屏幕的投影表面上用于指向由投影仪投影到屏幕上的图像的任意位置,由投影仪投影到屏幕上的图像的部分被投影到手上。
此时,因为手是粗糙表面,很难看到投影到手上的图像部分(例如,投影到手指上的图像部分)。另一方面,很难区分所述图像和手,因为图像被投影到屏幕和手上且没有分界线。
如上所述,在相关领域的投影仪中存在如下问题:当在投影仪和屏幕的投影表面之间存在诸如手的物体时,关于将要投影的图像和物体的可视性降低。
考虑到上文所述,希望提供一种即使当在投影单元和投影目标构件之间存在物体时也能够获得优良可视性的投影装置、投影方法和投影程序。
因此,提供了本公开的实施例。根据说明性的实施例,提供一种信息处理设备。该设备用于处理投影向目标的第一图像。该设备包括用于检测对象存在于在投影仪单元和目标之间的处理单元,其中当对象存在于投影仪单元和目标之间时,该设备确定该对象的区域并基于对象的区域生成修改的第一图像用于投影向所述目标。
根据本公开的实施例,当主图像在存在于投影单元和投影目标构件之间的物体上时,能够防止主图像被显示,并且在主图像能够容易地与存在于投影单元和投影目标构件之间的物体相互区分的情形下将主图像投影到投影目标构件上。因此,即使当在投影单元和投影目标构件之间存在物体时,所述投影装置、所述投影方法和所述投影程序能够获得良好的可视性。
附图说明
图1是作为实施例的概要显示投影装置的功能结构的方框图;
图2是显示图像投影系统的结构的概略图;
图3是显示投影仪装置的结构的方框图;
图4是显示桌面屏幕的结构的概略图;
图5A和图5B是用于说明当手存在于投影表面时桌面屏幕的投影的概略图;
图6是显示字处理器屏幕的结构的概略图;
图7是用于说明关于字处理器屏幕的操作输入示例(1)的概略图;
图8是用于说明关于字处理器屏幕的操作输入示例(2)的概略图;
图9是用于说明字符显示中的控制的概略图;
图10是显示画图屏幕的结构的概略图;
图11是用于说明关于画图屏幕的操作输入示例(1)的概略图;
图12是用于说明关于画图屏幕的操作输入示例(2)的概略图;
图13是显示网络浏览器屏幕的结构的概略图;
图14是用于说明关于网络浏览器屏幕的操作输入示例(1)的概略图;
图15是用于说明关于网络浏览器屏幕的操作输入示例(2)的概略图;
图16是用于说明关于网络浏览器屏幕的操作输入示例(3)的概略图;
图17是用于说明关于网络浏览器屏幕的操作输入示例(4)的概略图;
图18是显示投影处理例程的流程图;
图19是用于说明根据第二实施例的操作输入示例(1)的概略图;
图20是用于说明根据第二实施例的操作输入示例(2)的概略图;
图21是用于说明根据改进示例的操作输入示例(1)的概略图;
图22是用于说明根据改进示例的操作输入示例(2)的概略图;以及
图23是用于说明根据改进示例的操作输入示例(3)的概略图。
具体实施方式
在下文中,将说明用于执行本公开的方式(在下文中,被称为实施例)。将按照如下顺序进行说明。
1.实施例的概要
2.第一实施例
3.第二实施例
4.改进示例
<1.实施例的概要>
首先,将说明实施例的概要。顺便地,在说明了概要之后,将进行作为实施例的特定示例的第一实施例、第二实施例和改进示例。
在图1中,1表示投影装置。投影装置1配备有将主图像投影到诸如屏幕的投影目标构件的投影单元2。投影装置1还配备有检测存在于投影单元2和投影目标构件之间的物体的物体检测单元3。投影装置1进一步配备有对主图像进行处理以便主图像实际上不被投影到由物体检测单元3检测的物体上的图像处理单元4以及控制投影单元2的控制单元5。
根据上述结构,投影装置1防止主图像实际上被显示在存在于投影单元2和投影目标构件之间的物体上,从而在主图像能够被容易地与存在于投影单元2和投影目标构件之间的物体区分的情形下将主图像投影在投影目标构件上。
具体地,图像处理单元4执行例如从主图像切割将要投影到被检测物体上的部分的处理,以便主图像实际上不被投影到由物体检测单元3检测的物体上。然后,控制单元5控制投影单元2将通过切割将要投影到物体上的部分而获得的主图像投影到投影目标构件上。
同样优选地,图像处理单元4执行如下处理:用比其他部分更浅的颜色涂染将要投影到被检测物体上的主图像的部分,使得主图像实际上不被投影 到由物体检测单元3检测的物体上。此时,控制单元5控制投影单元将其中将要投影到物体上的部分被用比其他部分更浅的颜色涂染的主图像投影到投影目标构件上。
物体检测单元3例如通过比较通过映像投影目标构件获得的图像和将要投影到投影目标构件上的图像,检测存在于投影单元2和投影目标构件之间的物体。
进一步优选地,物体检测单元3例如通过分析通过映像投影目标构件获得的图像,检测存在于投影单元2和投影目标构件之间的物体。
进一步优选地,控制单元5控制投影单元2将不同于主图像的次要图像投影到由物体检测单元3检测的物体上。
进一步优选地,物体检测单元3检测用户的手作为存在于投影单元2和投影目标构件之间的物体。控制单元5能够进一步控制投影单元以将次要图像投影到由物体检测单元3检测的手的背部上。
进一步优选地,物体检测单元3检测存在于投影单元2和投影目标构件之间的用户的手的移动,并且控制单元5根据物体检测单元3检测的手的移动执行各种处理。
具体地,控制单元5控制投影单元2例如将给定屏幕的图像作为主图像投影到投影目标构件上。当操作安排在给定屏幕上的对象的手移动被物体检测单元3检测到时,控制单元5执行与对象的操作相对应的处理。
同样优选地,当操作安排在给定屏幕的对象的手移动被物体检测单元3检测到时,控制单元5控制投影单元将与对象的操作相对应的图像投影到手的背部作为次要图像。
进一步优选地,当由一个手操作投影到另一个手的背部的次要图像的手移动被物体检测单元3检测到时,控制单元5执行与次要像素的操作相对应的处理。
进一步优选地,控制单元5控制投影单元2将给定屏幕的图像投影到投影目标构件作为主图像,并且当选择安排在给定屏幕上的对象的手移动被物体检测单元3检测到且由一个手对选择对象的另一个手执行给定手势操作的手移动被进一步检测到时,对对象执行与手势操作相对应的处理。
在下文中将详细说明具有上述结构的投影装置1的具体示例。
<2.第一实施例>
[2-1.图像投影系统的结构]
接着,将说明实施例的具体示例。首先,将参考图2说明图像投影系统100的结构。图像投影系统100包括作为上述投影装置1的具体示例的投影仪装置101以及作为投影目标构件的具体示例的屏幕102。
图像投影系统100的投影仪装置101包括具有个人计算机结构的主体103以及通过电缆连接到主体103并由主体103控制的投影仪单元104。
在图像投影系统100中,例如,平面屏幕102放置在桌面上并且投影仪装置101的投影仪单元104设置在屏幕102之上,其具有面朝下的投影仪单元104的投影透镜104A。桌面等能够被用作屏幕102。
在图像投影系统100中,从设置在屏幕102上方的投影单元104的投影透镜104A将图像投影到向下放置的屏幕102的投影表面102A上,从而在屏幕102上显示图像。
投影仪装置101的投影仪单元104还配备有在投影透镜104A附近、与投影透镜104A面朝相同方向的成像透镜104B。投影仪装置101经由成像透镜104B成像屏幕102的投影表面102A。
投影仪装置101取得从投影透镜104A投影到屏幕102的投影表面102A上的图像与通过经由成像透镜104B成像屏幕102的投影表面102A而获得的投影表面102A的图像之间的差异。
当在屏幕102的投影表面102A上存在不同于屏幕102的物体(例如,用户的手指)时,投影仪装置101能够通过基于所述差异区分来自投影表面102A的物体来检测物体。
当投影仪装置101以这种方式检测物体时,投影仪装置101进一步对将要投影的图像执行图像处理,以便投影到屏幕102上的图像的部分实际上不被投影到物体上。随后将详细描述图像处理。
[2-2.投影仪装置的结构]
接着,将参考图3详细说明投影仪装置101的结构。投影仪装置101包括如上所述的主体103和投影仪单元104。
主体103配备有CPU 110、非易失性存储器111、RAM 112、图像处理单元113、外部连接I/F 114、和网络I/F 115。另一方面,投影仪单元104包括具有投影透镜104A的投影单元116、液晶面板和灯(两者都未显示)、具有成像透镜104B和成像装置(未示出)的成像单元117以及外部连接I/F 118。
主体103的外部连接I/F 114以及投影仪单元104的外部连接I/F 118通过给定电缆连接。
主体103经由网络I/F 115连接到外部网络(例如,因特网)NT。
在投影仪装置101中,主体103的CPU 110将在非易失性存储器111中存储的各种程序装载到RAM 112并执行所述程序以控制整体装置。
实际上,CPU 110控制各个单元以便投影OS(操作系统)的桌面屏幕的图像。
具体地,图像处理单元113在CPU 110的控制下生成将要作为桌面屏幕的图像的图像信号。图像信号经由主体103的外部连接I/F 114和投影仪单元104的外部连接I/F 118从图像处理单元113发送到投影仪单元104的投影单元116。
投影单元116基于图像信号生成图像(即,桌面屏幕的图像)并通过投影透镜104A在放大图像之后将图像投影到屏幕102上。
结果,如图4所示的桌面屏幕200被显示在屏幕102上。
此时,投影仪单元104的成像单元117在CPU 110的控制下成像屏幕102的投影表面102A。成像单元117获得投影表面102A的图像作为成像结果并将所述图像转换成图像信号。图像信号经由投影仪单元104的外部连接I/F 118和主体103的外部连接I/F 114从成像单元117发送到主体103的图像处理单元113。
图像处理单元113取得发送的图像信号(即,通过成像投影表面102A获得的图像信号)和投影到投影表面102A的图像信号之间的差异并将结果发送到CPU 110。
CPU 110基于比较结果确定在屏幕102的投影表面102A上是否存在不同于屏幕102的物体,并当确定存在物体时检测存在于投影表面102A上的物体的区域。
实际上,假设用户实际上将手放在屏幕102的投影表面102A上。此时,CPU 110能够基于投影到投影表面102A上的图像和通过成像投影表面102A而获得的图像之间的差异来检测手的区域。
CPU 110还控制成像单元117以便测量成像单元117与手之间的距离以及成像单元117与投影表面102A之间的距离。
具体地,成像单元117包括能够测量到物体的距离的距离测量传感器, 并且通过距离测量传感器测量到手的距离以及到投影表面102A的距离。
CPU 110通过取得已经由成像单元117测量的从成像单元117到手的距离以及从成像单元117到投影表面102A的距离之间的差值来计算从投影表面102A到手的距离。
CPU 110还能够通过以有规律的时间间隔检测手的区域以及计算从投影表面102A到手的距离来三维检测投影表面102A上手的移动,并且还能够检测诸如触摸、轻敲、拖拽、闪烁等的手势操作。
很难以高准确度测量从投影表面102A到手的距离,因此在这种情况下当从投影表面102A到手的距离低于给定值时CPU 110确定所述手触摸到投影表面102A。
当以上述方式检测到物体(在这种情况下为手)时,CPU 110控制图像处理单元113以便生成通过从投影的桌面屏幕200的图像切割投影到手上的部分而获得的图像Pi1,如图5A所示。
具体地,图像处理单元113提取手的轮廓并从投影的桌面屏幕200的图像切割手的轮廓内的部分的图像。
然后,CPU 110通过投影单元116将以这种方式生成的图像(即,通过切割显示在手上的部分而获得的桌面屏幕200的图像)Pi1投影到屏幕102。
然后,桌面屏幕200的图像以没有什么被显示在手上的状况下被显示在屏幕102的投影表面102A上,如图5B所示。
如上所述,投影仪装置101被配置成当在投影表面102A上存在手时不将桌面屏幕200的图像投影到手上。
因此,在可以容易地将图像与手区分开的状况下,投影仪装置101能够防止在观看具有粗糙表面的手上投影的桌面屏幕200的图像的部分方面的困难,以及能够投影桌面屏幕200的图像。
根据上述,投影仪装置101能够提供给用户似乎手是放在桌面屏幕200上的感觉。
此外,投影仪装置101能够关于桌面屏幕200执行各种操作输入,就象是用户触摸投影的桌面屏幕200的感觉一样。
这里,与各种操作对应的多个图标200A被安排在桌面屏幕200上,如图4所示。
假设在桌面屏幕200被投影的状况下用户用手指在投影表面102A上执 行触摸所期望图标200A的手势操作。这时,CPU 110根据检测的手的移动确认手势已被执行。
然后,CPU 110接收手势操作作为触发与图标200A相对应的应用的操作,并通过从非易失性存储器111读出应用的程序并执行程序来触发应用。
这里,图像处理单元113在CPU 110的控制下生成将作为应用屏幕的图像的图像信号。图像信号经由主体103的外部连接I/F 114和投影仪单元104的外部连接I/F 118从图像处理单元113发送到投影仪单元104的投影单元116。
投影单元116基于图像信号(即,应用屏幕的图像)生成图像并通过投影透镜104A在放大图像之后将图像投影到屏幕102。
结果,应用屏幕被显示在屏幕102上。
在投影仪装置101中,关于应用屏幕也能够执行各种操作输入,就象以与桌面屏幕200相同的方式直接触摸屏幕的感觉。
通过每个应用下面将说明关于应用屏幕的操作输入。
在这种情况下,假设字处理软件包、画图软件包以及网络浏览器被安装在投影仪装置101中作为应用。
顺便地,在实施例的概要中说明的投影装置1的投影单元2对应于上述投影仪装置101的投影单元116。投影装置1的物体检测单元3对应于投影仪装置101的成像单元117和CPU 110。投影装置1的图像处理单元4对应于投影仪装置101的图像处理单元113。此外,投影装置1的控制单元5对应于投影仪装置101的CPU 110。
[2-3.关于应用屏幕的操作输入]
[2-3-1.字处理器屏幕中的操作输入]
首先,将说明关于字处理软件的应用屏幕(也称作字处理器屏幕)的操作输入。
当触发字处理软件时,投影仪装置101将如图6所示的字处理器屏幕201的图像投影到屏幕102的投影表面102A。
字处理器屏幕201包括其中显示输入的字符的文本显示区域201A以及其中显示具有多个键图像kp的软键盘Sk的键盘显示区域201B。
而且在投影这种字处理器屏幕201的情况下,投影仪装置101被配置为不将字处理器屏幕201的图像投影到存在于投影表面102A的手上。
因此,投影仪装置101能够提供给用户如下感觉:当用户将手放在投影表面102A上时好像将手放在字处理器屏幕201上。
在字处理器屏幕201中,通过利用在键盘显示区域201B上显示的软键盘Sk执行字符输入。
实际上,假设用户利用右手的食指的指尖执行触摸与字符“F”相对应的键图像kp(F)的手势操作,用于在投影表面102A上输入字符“F”,如图7所示。而且在这种情况下,字处理器屏幕201没有显示在手上。因此,用户看到屏幕就像键图像kp(F)的部分被触摸的指尖遮住一样。
此时,投影仪装置101的CPU 110根据检测的手的区域的形状指定右手食指指尖的位置。然后,CPU 110基于各个键图像kp的位置和排列,识别键图像kp(F)已经被右手食指触摸。
这里,CPU 110控制图像处理单元113和投影单元116来将由食指触摸的键图像kp(F)显示在存在于投影表面102A上的手表面上相对平坦部分的手背上。
具体地,图像处理单元113通过将键图像kp(F)和通过切割手轮廓内的部分获得的字处理器屏幕201的图像进行结合而生成合成图像,从而键图像kp(F)位于手轮廓内手背部的部分。合成图像被投影单元116投影到屏幕102上。
图像处理单元113基于手区域的形状(即,手的轮廓),估计作为手区域内部的手背部的部分。
结果,字处理器屏幕201被显示在存在于投影表面102A上的手的外部,并且键图像kp(F)被显示在存在于投影表面102A上的手的背部。
因此,投影仪装置101能够提供给用户就像直接触摸键图像kp一样的感觉,以及允许用户容易地识别当前触摸了哪个键图像kp(即,哪个键图像kp被指尖遮住)。
然后,当显示在一个手背部的部分上的键图像kp(F)被另一个手的指尖触摸时,投影仪装置101固定将要输入的字符。
实际上,假设在用户由右手触摸软键盘Sk的键图像kp(F)的同时,用户利用左手食指指尖触摸显示在右手背部上的键图像kp(F),如图8所示。
此时,投影仪装置101的CPU 110根据手区域的形状指定右手背部的位置以及左手食指指尖的位置。然后,CPU 110基于这些位置识别显示在右手 背部上的键图像kp(F)已经被左手触摸。
这里,CPU 110把将要输入的字符固定为与键图像kp(F)相对应的字符“F”,并且控制图像处理单元113和投影单元116在字处理器屏幕201中的文本显示区域201A内部显示字符“F”。
结果,字符“F”被显示在投影到投影表面102A上的字处理器屏幕201中的文本显示区域201A内部,如图9所示。
因此,投影仪装置101能够以像触摸板一样的操作感觉来输入字符并且不会错误。
如上所述,投影仪装置101在触发字处理软件的时候能够以就像是直接触摸投影到屏幕102上的字处理器屏幕201的软键盘Sk的操作感觉来确实地输入字符。
[2-3-2.画图屏幕中的操作输入]
接着,将说明关于画图软件的应用屏幕(也称作画图屏幕)的操作输入。
当触发画图软件时投影仪装置101将如图10所示的画图屏幕202的图像投影到屏幕102的投影表面102A上。
画图屏幕202包括其中能够自由地画线的画布区域202A以及用于指定线的颜色的调色板202B。调色板202B包括与各种颜色相对应的多个颜料盒Cb。
而且,在投影画图屏幕202的情况下,投影仪装置101被配置成不将画图屏幕202的图像投影到放在投影表面102A上的手上。
在画图屏幕202中,在从调色板202B选择了线的颜色之后,通过在画布区域202A内部执行拖拽来画线。
实际上,假设用户在投影表面102A上用右手食指的指尖来执行触摸调色板202B中与红色对应的颜料盒Cb(R)的手势操作用于例如选择红色,如图11所示。
此时,投影仪装置101的CPU 110根据检测的手区域的形状来指定右手食指指尖的位置。然后,CPU 110基于各个颜料盒Cb的位置和排列来识别右手食指已经触摸了颜料盒Cb(R)。
这里,CPU 110确定线的颜色为红色以及控制图像处理单元113和投影单元116在存在于投影表面102A上的手的背部上显示由食指触摸的颜料盒Cb(R)。
具体地,图像处理单元113通过将颜料盒Cb(R)与通过切割手轮廓内部的部分而获得的画图屏幕202的图像结合来生成合成图像,从而颜料盒Cb(R)位于手轮廓内部的手的背部部分。然后,合成图像通过投影单元116投影到屏幕102上。
结果,画图屏幕202的图像被显示在存在于投影表面102A上的手外部以及颜料盒Cb(R)被显示在存在于投影表面102A上的手的背部。
因此,投影仪装置101能够提供给用户就像直接触摸颜料盒Cb一样的感觉并且允许用户容易地识别当前选择了哪种颜色。
CPU 110连续地检测存在于投影表面102A上的手的区域,从而例如当手在投影表面102A上移动时在手的背部连续显示颜料盒Cb(R)。
另外,能够通过在画图屏幕202中再次触摸另一种颜色的颜料盒Cb来改变将要选择的颜色。
在此之后,假设用户在投影表面102A上通过其上显示了颜料盒Cb(R)的右手食指指尖,执行在画布区域202A中执行拖拽的手势操作,如图12所示。
此时,投影仪装置101的CPU 110根据检测的手的区域的形状指定右手食指指尖的位置。然后,CPU 110基于所述位置识别通过右手食指指尖在画布区域202A中执行了拖曳。
这里,CPU 110控制图像处理单元113和投影单元116在画布区域202A中沿着拖曳轨迹利用当前选择的颜色画线。
结果,在投影表面102A上投影的画图屏幕202的画布区域202A中沿着拖曳轨迹利用当前选择的颜色画线。
如上所述,在触发画图软件的时候,投影仪装置101能够以就像在投影到屏幕102上的画图屏幕202的画布区域202A中直接执行拖曳一样的操作感觉来绘图。
[2-3-3.网络浏览器屏幕中的操作输入]
接着,将说明关于网络浏览器的应用屏幕(也称作网络浏览器屏幕)的操作输入。
当触发网络浏览器时,投影仪装置101将如图13所示的网络浏览器屏幕203的图像投影到屏幕102的投影表面102A上。
网络浏览器屏幕203包括其中安排了各种菜单、按钮、地址输入栏、搜 索字输入栏等的工具条203A,以及其中显示网络页面的页面图像的页面显示区域203B。
而且在投影网络浏览器屏幕203的情况下,投影仪装置101被配置成不将网络浏览器屏幕203的图像投影到放在投影表面102A上的手上。
在网络浏览器中,通过触摸工具条203A中的各种菜单和按钮来执行与各种菜单和按钮的每个相对应的处理。
实际上,假设用户在投影表面102A上通过右手食指的指尖来执行例如触摸工具条203A中的主页按钮的手势操作,用于浏览主页页面中设置的网络页面。
此时,基于检测的手的区域和移动,投影仪装置101的CPU 110识别主页页面按钮已经被右手食指指尖触摸。
这里,CPU 110通过网络I/F 115访问主页中设置的网络页面的地址以接收网络页面的页面数据。
然后,基于网络浏览器屏幕203的页面显示区域203B中的页面数据,CPU 110控制图像处理单元113和投影仪单元116来显示页面图像。
结果,主页的页面图像被显示在网络浏览器屏幕203的页面显示区域203B中。
这里,假设用户在投影表面102A上通过右手食指指尖,执行触摸在页面显示区域203B中显示的页面图像中的超链接HL的手势操作,如图12所示。
此时,投影仪装置101的CPU 110基于检测的手的区域和移动,识别页面图像中的超链接HL已经被右手食指的指尖触摸。
然后,CPU 110通过网络I/F 115访问由超链接HL显示的链路目的地并从链路目的地接收页面数据。
然后,CPU 110控制图像处理单元113和投影单元116基于页面数据缩小页面图像的大小(也称作链路目的地页面图像)以便在手的背部的大小内并将页面图像投影到触摸超链接HL的手的背部上。
结果,已经被缩小的链路目的地页面图像(也称作缩小的链路目的地页面图像)Sp被显示在触摸超链接HL的手的背部。
因此,在将页面显示区域203B的显示内容切换到链路目的地页面图像之前,投影仪装置101允许用户检查哪个页面是链路目的地网络页面。
然后,当显示在一只手的背部的缩小的链路目的地页面图像Sp被另一只手的指尖触摸时,投影仪装置101被配置成将页面显示区域203B的显示内容切换到链路目的地页面图像。
具体地,假设在通过右手触摸超链接HL的同时,用户将左手食指的指尖放在右手的背部以便通过左手食指的指尖触摸右手背部上显示的缩小的链路目的地页面图像Sp。
此时,投影仪装置101的CPU 110基于检测的手的区域和移动识别显示在右手背部上的缩小的链路目的地页面图像Sp已经被左手触摸。
然后,CPU 110控制图像处理单元113和投影单元116在页面显示区域203B中显示链路目的地页面图像。结果,链路目的地页面图像被显示在页面显示区域203B中。
如上所述,在网络浏览器屏幕203中,在用户被允许检查哪个页面是链路目的地网络页面之后,可能在页面显示区域203B中显示网络页面。
因此,投影仪装置101能够允许用户更肯定地浏览期望的网络页面。
此外,在网络浏览器屏幕203中,通过在显示于页面显示区域203B上的页面图像中的文本上执行拖曳能够复制期望的文本部分。
实际上,假设用户在投影表面102A上通过右手食指的指尖执行在页面图像中的期望的文本部分上执行拖曳的手势操作,如图15所示。
此时,投影仪装置101的CPU 110基于检测的手的区域和移动识别期望的文本部分已经被右手食指的指尖拖曳。
然后,CPU 110控制图像处理单元113和投影单元116显示一框Fr,该框Fr指示包围在页面图像上的拖曳的期望部分的复制范围。结果,框Fr被显示在页面图像上。
而且此时,CPU 110控制图像处理单元113和投影单元116将框Fr包围的部分文本投影到执行拖曳的右手背部。结果,框Fr所包围的部分的文本被显示在右手的背部。
因此,在提供给用户就像直接在文本上执行拖曳一样的感觉的同时,投影仪装置101能够允许用户通过所述拖曳而容易地识别当前测试的哪部分的文本是复制范围。
在那之后,用户从投影表面102A通过放开执行拖曳的指尖确定拖曳已经被完成。
此时,CPU 110基于检测的手的移动识别拖曳已经被完成。
然后,CPU 110确定此时显示在手的背部上的部分(即,由框Fr包围的部分)作为将要复制的部分,并且将这个部分的测试复制在剪切板上。以这种方式复制文本的期望部分。
这里,CPU 110控制图像处理单元113和投影单元116即使在期望的文本部分已经被复制在剪切板上之后,在手的背部上连续显示期望的部分直到随后描述的粘贴操作被执行。
因此,投影仪装置101能够允许用户容易地识别当前什么信息被复制在剪切板上。
另一方面,在网络浏览器屏幕203中,显示在页面显示区域203B中的页面图像中的期望画面被触摸给定时间段从而复制画面。
实际上,假设用户在投影表面102A上通过右手食指的指尖,执行连续触摸页面图像中的期望画面Pi给定时间段的手势操作,如图16所示。
此时,投影仪装置101的CPU 110基于检测的手的区域和移动,识别画面Pi已经由右手食指指尖触摸了给定时间段。
然后,CPU 110控制图像处理单元113和投影单元116将画面Pi投影到触摸画面Pi的右手的背部。结果,画面Pi被显示在触摸画面Pi的右手的背部。
CPU 110还将画面Pi复制到剪切板上。以这种方式复制期望画面Pi。
这里,CPU 110控制图像处理单元113和投影单元116即使在期望画面Pi被复制在剪切板上之后,在右手的背部连续显示画面Pi直到随后描述的粘贴操作被执行。
因此,投影仪装置101能够以就像直接触摸图像一样的感觉来复制图像,并且进一步允许用户容易地识别当前在剪切板上复制的画面。
另外,在网络浏览器屏幕203中,显示在一只手的背部上的信息(即,复制在剪切板上的文本或画面)被另一只手拖曳到该只手的指尖,从而将所述信息粘贴到该只手指尖指向的位置。
实际上,假设在文本被显示在右手的背部上的状态下,用户通过右手食指指尖指在工具条203A中的搜索关键字输入栏,如图17所示。此外,假设用户通过左手食指的指尖将显示在右手的背部上的文本拖曳到右手食指的指尖。
此时,投影仪装置101的CPU 110基于检测的手的区域和移动,识别显示在右手的背部上的文本已经被左手食指的指尖拖曳到右手食指的指尖,从而将所述信息粘贴到该只手的指尖所指向的位置。
然后,CPU 110控制图像处理单元113和投影单元116在由右手食指指尖指向的搜索关键字输入栏中显示在右手的背部上显示的文本(即,复制在剪切板上的文本)。结果,复制在剪切板上的文本被显示在搜索关键字输入栏中上。因此,复制在剪切板上的信息被粘贴。
以上述方式,投影仪装置101通过直观操作能够将复制在剪切板上的信息粘贴在期望位置。
[2-4.处理例程]
接着,通过利用图18所示的流程图将说明当将图像投影到屏幕102的投影表面102A上时由投影仪装置101执行的处理的例程(也称作投影处理例程)的概要。
如图18所示的投影处理例程RT是由投影仪装置101的CPU 110根据在非易失性存储器111中存储的程序而执行的处理的例程。
例如,当开启投影仪装置101的电源时,CPU 110开始投影处理例程RT并进行到步骤SP1。在步骤SP1中,CPU 110控制图像处理单元113和投影单元116在屏幕102的投影表面102A上投影将要在投影表面102A上显示的各种类型屏幕的图像(也称作主图像),并进行到下一个步骤SP2。
在步骤SP2,CPU 110将从投影单元116投影到投影表面102A上的主图像与由成像单元117通过成像投影表面102A而获得的图像,从而确定诸如手的物体是否存在于成像单元117的视觉范围内(即,在投影表面102A上)。
当在步骤SP2获得否定的结果时,这意味着在投影表面102A上不存在物体。此时,CPU 110实际上继续将主图像投影到投影表面102A上并回到步骤SP1。
另一方面,当在步骤SP2获得肯定的结果时,这意味着诸如手的物体存在于投影表面102A上。此时,CPU 110进行到步骤SP3。
在步骤SP3,CPU 110检测物体的区域并进行到步骤SP4。CPU 110将通过切割检测的物体区域内的部分而获得的主图像投影到投影表面102A,从而主图像被显示在检测的物体区域外部,并进行到下一个步骤SP5。
在步骤SP5,CPU 110确定与主图像不同的图像(也称作次要图像)是 否投影在检测的物体区域内。
当在步骤SP5获得否定结果时,CPU 110再次回到步骤SP1。
另一方面,当在步骤SP5获得肯定结果时,这意味着CPU 110确定例如,当包括在软键盘Sk中的键图像kp被手触摸时,键图像kp被投影到手的背部。此时,CPU 110进行到步骤SP6。
在步骤SP6中,CPU 110从成像单元117获得从投影仪单元104到物体之间的距离以及从投影仪单元104到投影表面102A的距离,并控制投影单元116以便基于这些距离聚焦在手和投影表面102A之间的位置。
因此,投影仪装置101以高图像质量将图像投影到与投影仪单元104具有不同距离的手和投影表面102A两者上。
在那之后,CPU 110进行到下一个步骤SP7,并将通过将主图像和次要图像结合而获得的图像投影到投影表面102A,从而次要图像被显示在检测的物体的区域内的平坦部分(例如,手的背部),然后再次回到步骤SP1。
投影仪装置101根据投影处理例程RT将图像投影到屏幕102的投影表面102A上。
[2-5.第一实施例的操作和效果]
在上述结构中,投影仪装置101通过将诸如投影到屏幕102的投影表面102A上的桌面屏幕200的图像(主图像)与通过成像屏幕102的投影表面102A而获得的图像进行比较,确定用户的手是否存在于投影表面102A上。
这里,当确定用户的手存在时,投影仪装置101将通过切割投影在手的区域内部的部分而获得的主图像投影到投影表面102A,以便主图像不被投影到手上。
结果,主图像被显示在除了手的区域之外的屏幕102的投影表面102A上。
因此,在能够容易地将图像与手区分的状况下,投影仪装置101能够防止在观看将要投影到具有粗糙表面的手的区域内部的主图像部分中存在的困难,以及能够将主图像投影到屏幕102上。
此外,如果必要,投影仪装置101将不同于主图像的图像(次要图像)投影到手的背部是存在于投影表面102A上的手的区域内部相对平坦部分。
如上所述,在通过利用手的背部部分作为不同于屏幕102的投影表面102A的显示区域而清楚地分离的情况下,投影仪装置101也允许用户同时观 看主图像和次要图像。
根据上述结构,投影仪装置101防止主图像被显示在存在于投影表面102A上的手上,并且能够将主图像投影到投影表面102A上,以便能够容易地从存在于投影表面102A上的手区分图像。因此,即使当在投影表面102A上存在手时,投影仪装置101也能够获得良好的可视性。
<3.第二实施例>
接着,将说明第二实施例。在第二实施例中,当触摸安排在桌面屏幕200上的图标200A时,图标200A的上下文菜单被显示在触摸图标200A的手的背部。
上下文菜单也被称作选项菜单快捷菜单等,其中关于图标可执行的处理的名字以诸如“复制”、“删除”、“应用的触发”等的列表被显示,并且能够选择和执行期望的处理。
当根据第二实施例的图像投影系统的结构与第一实施例的相同时,参考第一实施例。因此,这里将仅说明关于桌面屏幕200的操作输入。
首先,假设其上与多个应用相对应的多个图标200A被安排的桌面屏幕200以与第一实施例相同的方式被投影到屏幕102的投影表面102A。
这里,假设用户在投影表面102A上通过右手食指的指尖执行触摸期望图标200A的手势操作,如图19所示。而且,在这种情况下,桌面屏幕200以与第一实施例相同的方式不显示在手上。
此时,CPU 110基于检测的手的区域的形状来指定右手食指的指尖的位置。然后,CPU 110基于各个图标200A的位置和排列识别任意图标200A已经被右手食指触摸。
这里,CPU 110控制图像处理单元113和投影单元116将触摸的图标200A的上下文菜单Cm的图像投影到触摸图标200A的右手的背部。
具体地,图像处理单元113通过将上下文菜单Cm的图像与通过切割手轮廓内部的部分而获得的桌面屏幕200的图像进行结合而生成合成图像,从而上下文菜单Cm的图像被定位在手的背部部分。然后,合成图像通过投影单元116投影到屏幕102。
结果,桌面屏幕200的图像被显示在存在于投影表面102A上的手的外部,并且上下文菜单Cm的图像被显示在存在于投影表面102A上的手的背部。
上下文菜单Cm包括具有多行的列表,其中关于触摸的图标200A可执行 的处理的名字(“复制”、“删除”、“应用的触发”等)被显示在各个行的中心作为项Cmi。
当显示在手的背部的上下文菜单Cm的多行之一被另一只手的指尖触摸时,投影仪装置101被配置成执行与触摸行的项Cmi相对应的处理,如图20所示。
具体地,假设用户在通过右手触摸图标200A的同时,通过左手食指的指尖触摸显示于右手的背部上的上下文菜单Cm的多行之一。
此时,投影仪装置101的CPU 110基于检测的手的区域的形状和移动,识别显示于右手的背部上的上下文菜单Cm的多行之一已经被左手触摸。然后,CPU 110执行与触摸行的项Cmi相对应的处理。
如上所述,在通过使用手的背部部分作为与屏幕102的投影表面102A不同的显示区域(即用于显示上下文菜单Cm的显示区域)而清楚地进行分离的状况下,投影仪装置101允许用户同时观看桌面屏幕200和上下文菜单Cm。
<4.改进示例>
[4-1.改进示例1]
在上述第一实施例中,当显示在网络浏览器屏幕203的页面显示区域203B上的画面被连续触摸给定时间段时,图像被复制到剪切板。
这并不限于以上描述,并且还优选地在通过右手指尖触摸图像的同时,根据通过左手指尖在右手的背部画字母“C”的手势操作的执行将画面复制在剪切板上,如图21所示。
实际上,假设用户在通过右手食指的指尖触摸显示在页面显示区域203B上的期望图像的同时,执行通过左手食指的指尖在右手的背部画字母“C”的手势操作。
此时,投影仪装置101的CPU 110基于检测的手的区域的形状和移动,识别字母“C”已经通过左手食指的指尖被画在触摸画面的右手的背部。
然后,CPU 110控制图像处理单元113和投影单元116在触摸画面的右手的背部上显示画面。结果,画面被显示在触摸画面的右手的背部。
利用上述处理,CPU 110还将画面复制在剪切板上。因此,期望图像被复制。
还优选地,例如,在通过一只手触摸安排在桌面屏幕200上的图标200A 的同时,根据通过另一只手在该只手的背部画字母“C”的手势操作的执行,除了画面之外图标200A被复制。
尽管与复制相对应的操作是在手的背部画字母“C”的手势操作,只要是与复制相关的操作也可以使用其他各种操作。
[4-2.改进示例2]
在上述第二实施例中,当触摸图标200A时,其中项Cmi被显示在各个行中心的上下文菜单Cm被投影到触摸图标200A的手的背部。
这里,还优选地,根据右手和左手的哪只手触摸图标200A,被显示在上下文菜单Cm中各个行的项Cmi被显示在从用户看右边对齐的位置或者左边对齐的位置。
具体地,CPU 110基于手的形状和检测的区域,指定右手和左手的哪只手触摸图标200A。然后,当触摸图标200A的手是右手时,CPU 110将其中项Cmi以右边对齐的位置被显示在各个行的上下文菜单Cm投影到右手的背部,如图22所示。
因此,当通过左手指尖,上下文菜单Cm中多行之一被投影到右手的背部时,投影仪装置101能够防止难于观看将要与指尖重叠的项Cmi的问题。
另一方面,当触摸图标200A的手是左手时,投影仪装置101的CPU 110将其中项Cmi以左边对齐的位置被显示在各个行的上下文菜单Cm投影到左手的背部。
因此,当通过右手指尖,上下文菜单Cm中多行之一被投影到左手的背部时,投影仪装置101能够防止难于观看将要与指尖重叠的项Cmi的问题。
[4-3.改进示例3]
此外,在第二实施例中,当排列在桌面屏幕200中的图标200A被触摸时,图标200A的上下文菜单Cm被投影到触摸图标200A的手的背部。
这并不限于上述示例,并且例如,当如图23所示触摸图标200A时,图标200A能够被投影到触摸图标200A的手的背部。此时,不仅图标200A而且图标200A的名字被投影到手的背部。
实际上,图标200A的名字恰好被显示在桌面屏幕200中各个图标200A之下。根据桌面屏幕200的布局,规定能够被显示作为名字的字符数。
因此,当图标200A的名字的字符数超出能够被显示的字符数时,名字将以超出范围的字符被省略的状况来显示。
因此,当图标200A及其名字被显示在通常与分配给每个图标200A及其名字的区域相比更大的区域的手的背部时,整个名字被显示。
根据如上,能够允许用户容易地检查期望图标200A的完整的名字。
还优选地,当图标被一只手触摸时,显示在另一只手的背部的图标200A触发与图标200A相对应的应用。
能够以与第一和第二实施例相同的方式在投影仪装置101的CPU 110的控制下执行图标200A及其名字在手的背部的显示以及应用的触发。
[4-4.改进示例4]
此外,在第二实施例中,当触摸图标200A时,其中关于图标200A可执行的处理的名字被显示在列表中的上下文菜单Cm被投影到触摸图标200A的手的背部。
它并不限于上述示例,并且还优选地,当触摸图标200A时,在触摸图标200A的手的背部上显示与图标200A相关的其他各种类型的补充信息。
例如,假设与显示再现音乐片段的顺序的播放列表相对应的图标被排列在桌面屏幕200。这里,当触摸图标时,CPU 110将与图标相对应的播放列表投影到触摸图标的手的背部。
然后,当投影到手的背部上的播放列表中写下的音乐片段的名字之一被另一个手的指尖触摸时,CPU 110例如从非易失性存储器111读出与该音乐片段的名字相对应的音乐数据,并再现该音乐数据。例如通过未示出的输出终端,输出作为再现的结果获得的音频。
[4-5.改进示例5]
此外,当诸如手的物体存在于投影表面102A上时,在上述第一和第二实施例中,诸如桌面屏幕200或字处理器屏幕201的主图像被投影到物体的区域上。
它并不限于上述示例,并且还优选地,主图像以比在物体的区域的外部的颜色更浅的颜色被投影在物体的区域的内部。
根据上述,能够提供给用户一种就像半透明的物体被放在屏幕上一样的感觉。
它并不限于上述示例,并且还优选地,例如以与在物体的区域的外部相比更低的分辨率将主图像投影到物体的区域的内部。
如上所述,已经被处理使得与物体的区域的外部相比不那么明显的主图 像被投影到物体的区域的内部。
[4-6.改进示例6]
此外,在上述第一和第二实施例中,存在于投影表面102A上的手被检测并且次要图像被投影到手上。
它不限于上述,并且例如优选地,由塑料等制成的板被放在投影表面102A并且诸如小配件的次要图像被投影到其上。
而且在这种情况下,投影仪装置101的CPU 110能够以在手的情况中的相同的方式检测所述板。
[4-7.改进示例7]
此外,在上述第一和第二实施例中,关于排列在应用屏幕的各种对象(图标、软键盘、调色板、超链接等)通过各种触摸操作而执行操作输入。它不限于这些操作并且能够通过如触摸操作的不同操作执行各种类型的操作输入。
具体地,例如,当用户的指尖被连续地放置在排列于桌面屏幕200上的期望图标200A上给定时间段时,CPU 110能够识别已经执行了选择和确定图标200A的操作。
此外,例如,当用户的指尖在字处理器屏幕201的软键盘Sk的任意键画面kp上移动时,CPU 110能够将键画面kp投影到放置在键画面kp上的手的背部。
根据如上,不计算手和屏幕102的投影表面102A之间的距离就能够实现关于应用屏幕的操作输入,结果,能够降低CPU 110的处理量。
[4-8.改进示例8]
此外,在上述实施例中,通过将屏幕102的投影表面102A上投影的图像以及通过成像投影表面102A而获得的图像进行比较,确定在投影表面102A上是否存在诸如手的物体并且检测存在物体的区域。
它不限于上述,还优选地,通过其他各种方法确定在投影平面102A上是否存在诸如手的物体并且检测存在物体的区域。
例如,还优选地利用现有的图像分析技术,通过分析成像投影表面102A而获得的图像,确定在投影表面102A上是否存在诸如手的物体并且检测存在物体的区域。
应该注意,现有的图像分析技术可以用于检测投影在投影表面102A上 的图像内的物体。即,实施例不限于检测放置在投影仪单元104和投影表面102A之间的物体或对象,而是包括检测投影在投影表面102A上的图像内的物体或对象。因此,在描述的实施例的每个中,物体或对象可以是在投影仪和表面之间的物体或对象,或者可以是投影在投影表面102A上的图像内的物体或对象。
此外,实施例不限于通过投影仪形成的图像。即,在描述的实施例的每个中,现有的图像分析技术可以被用于检测图像内的对象,而不管图像是否由投影仪形成。因此,实施例不限于检测放置在投影仪单元和投影表面之间的物体或对象,或检测通过投影仪生成的图像内的物体或对象,而是,包括检测除了通过投影仪生成的图像之外的图像内的物体或对象。因此,在描述的实施例的每个中,物体或对象可以是投影仪和投影表面之间的物体或对象,可以是通过投影仪生成的图像内的物体或对象,或者可以是除了通过投影仪生成的图像之外的图像内的物体或对象。
例如,除了任何投影仪之外,为了检测图像中的对象以及在检测对象上添加次要图像的目的,可以使用图3的部件110-115。更具体地,图像可以经由网络I/F 115从网络源接收或者从连接到外部连接I/F 114的另一个源接收,两个源例如是视频存储器、计算机、照相机、或视频显示装置。然后,接收的图像可以通过图像处理单元113和/或CPU 110进行分析。图像处理单元和/或CPU可以应用现有的图像分析技术来检测接收的图像内的对象。一旦检测到对象,图像处理单元和/或CPU可以生成将要添加到检测的对象上的次要图像。在一个这种实施例中,通过修改接收的图像,来添加次要图像,以生成用添加的次要图像描述接收图像的新图像。
还优选地,通过提供用于测量面对投影仪单元104的投影表面102A的表面上一列中的距离的多个红外传感器,基于多个红外传感器的检测的结果,确定在投影表面102A上是否存在诸如手的物体,以及检测存在的物体的区域。
当使用排列在阵列中的红外传感器时,投影仪单元104和手之间的距离以及投影仪单元104和投影表面102A之间的距离能够被检测,此外,基于这些距离以及手的平均厚度,能够计算手和投影表面102A之间的距离。
通过使用排列在阵列中的红外传感器,还可能更精确地检测手的背部(其是在手的表面上相对平坦的部分)。
手的背部的检测也不限于上述方法,并且能够使用其他各种方法。
此外,优选地,通过分析通过利用提供在与投影仪单元104的投影表面102A相对应的表面上的、包括两个摄像机的立体摄像机成像投影表面102A而获得的图像,确定在投影表面102A上是否存在诸如手的物体以及检测存在的物体的形状。
当使用上述立体摄像机时,投影仪单元104和手之间的距离以及投影仪单元104和投影表面102A之间的距离能够被检测,并且此外,基于这些距离和手的平均厚度能够计算手和投影表面102A之间的距离。
[4-9.改进示例9]
此外,在上述第一和第二实施例中,本公开被应用于其中主体103和投影仪单元104通过电缆连接的分离型投影仪装置101。
它不限于上述,并且还优选地,本公开被应用于其中主体103的功能被包括在投影仪单元104中的集成型投影仪装置101。
此外,在上述第一和第二实施例中,本公开被应用于其中屏幕102被放在桌面并且图像从屏幕102之上被投影到屏幕102的投影仪装置101。
它不限于此,并且还优选地,例如,本公开被应用于其中屏幕102被设置在墙上并且图像从屏幕102的前面投影到屏幕102的投影仪装置101。
在这种情况下,投影仪装置101的CPU 110检测在屏幕102的投影表面102A之前是否存在物体。
本公开能够被应用于其他各种类型的投影仪装置,并不限于上述类型的投影仪装置。
此外,在上述第一和第二实施例中,主图像和次要图像的两个图像通过一个投影单元116被投影。
它不限于上述,并且还优选地,例如提供两个投影单元,并且主图像通过一个投影单元投影,而次要图像通过另一个投影单元投影。
[4-10.另外实施例10]
此外,在上述第一和第二实施例中,作为投影装置的投影仪装置101配备有作为投影单元的投影单元116、作为物体检测单元的成像单元117、作为图像处理单元的图像处理单元113、以及作为物体检测单元和控制单元的CPU110。
本公开不限于上述示例,并且还优选地,投影仪装置101的各个功能单 元(投影单元、物体检测单元、图像处理单元和控制单元)通过其他各种结构来实现,只要这些单元具有相同的功能。
[4-11.另外实施例11]
此外,在上述第一和第二实施例中,用于执行各种处理的程序被写入主体103的非易失性存储器111中。
它不限于此,并且优选地,主体103配备有用于诸如光盘和存储卡的存储媒体的驱动器,并且CPU 110通过该驱动器从存储媒体读出程序并执行该程序。还优选地,CPU 110将从存储媒体读出的程序装载在非易失性存储器111中。此外,CPU 110能够通过网络I/F 115从网络上的设备下载程序并将该程序安装在非易失性存储器111中。
[4-12.另外实施例12]
此外,本公开不限于上述第一和第二实施例以及改进示例。即,本公开能够应用于其中第一和第二实施例的部分或全部以及改进示例被任意组合的形式或者其中它们的部分被选取的形式。
本公开能够被广泛用于将图像投影到屏幕上的投影仪等。
本领域技术人员应该理解,根据迄今为止的设计要求以及其他因素可以进行各种改进、组合、子组合以及变更,只要它们都在所附权利要求或其等同物的范围内。
例如,本技术能够采用如下结构。
(1)投影装置包括:
将主图像投影到投影目标构件的投影单元;
检测存在于投影单元和投影目标构件之间的物体的物体检测单元;
对主图像执行处理使得主图像实际上不投影到由物体检测单元检测的物体上的图像处理单元;以及
控制投影单元的控制单元。
(2)根据(1)的投影装置,
其中图像处理单元执行切割将要投影到由物体检测单元检测的物体上的部分的处理;和
控制单元控制投影单元将通过切割将要投影到物体上的部分而获得的主图像投影到投影目标构件。
(3)根据(1)的投影装置,
其中图像处理单元执行用比其他部分浅的颜色对将要投影到由物体检测单元检测的物体上的主图像的部分进行涂染的处理,和
控制单元控制投影单元将其中利用比物体的其他部分浅的颜色对将要投影到物体上的部分进行涂染的主图像投影到投影目标构件。
(4)根据(2)的投影装置,
其中物体检测单元通过将通过成像投影目标构件获得的图像与投影到投影目标构件的主图像进行比较,检测存在于投影单元和投影目标构件之间的物体。
(5)根据(2)的投影装置,
其中物体检测单元通过分析通过成像图像成像构件而获得的图像,检测存在于投影单元和投影目标构件之间的物体。
(6)根据(4)的投影装置,
其中控制单元控制投影单元将不同于主图像的次要图像投影到由物体检测单元检测的物体。
(7)根据(6)的投影装置,
其中物体检测单元检测用户的手作为存在于投影单元和投影目标构件之间的物体。
(8)根据(7)的投影装置,
其中控制单元控制投影单元将次要图像投影到由物体检测单元检测的手的背部。
(9)根据(8)的投影装置,
其中物体检测单元检测存在于投影单元和投影构件物体之间的用户的手的移动,和
控制单元根据由物体检测单元检测的手的移动执行各种处理。
(10)根据(9)的投影装置,
其中控制单元控制投影单元将给定屏幕的图像投影到投影目标构件作为主图像,并当操作排列在给定屏幕上的对象的手的移动被物体检测单元检测到时,执行与对象的操作相对应的处理。
(11)根据(10)的投影装置,
其中当操作排列在给定屏幕上的对象的手的移动被物体检测单元检测到时,控制单元控制投影单元将与对象的操作相对应的图像投影到手的背部作 为次要图像。
(12)根据(11)的投影装置,
其中当由另一只手操作投影到手的背部的次要图像的手的移动被物体检测单元检测到时,控制单元执行与次要图像的操作相对应的处理。
(13)根据(9)的投影装置,
其中控制单元控制投影单元将给定屏幕的图像投影到投影目标构件作为主图像,以及
当选择排列在给定屏幕上的对象的手的移动被检测到并且关于选择对象的手执行给定手势操作的另一只手的移动被进一步检测到时,控制单元执行与关于对象的手势操作相对应的处理。
(14)一种投影方法,包括:
通过控制单元控制投影单元将主图像投影到投影目标构件上;
通过物体检测单元检测存在于投影单元和投影目标构件之间的物体;以及
通过物体检测单元对主图像执行处理使得主图像实际上不被投影到在检测过程中检测的物体上。
(15)一种用于允许投影装置执行如下过程的投影程序:
通过控制单元控制投影单元将主图像投影到投影目标构件上;
通过物体检测单元检测存在于投影单元和投影目标构件之间的物体;以及
通过物体检测单元对主图像执行处理使得主图像实际上不被投影到在检测过程中检测的物体上。

Claims (19)

1.一种用于处理投影向目标的第一图像的信息处理设备,该设备包括:
处理单元,用于检测对象存在于投影仪单元和目标之间;
其中当对象存在于投影仪单元和目标之间时,所述设备确定对象的区域并基于对象的区域生成修改的第一图像用于投影向目标,以使得修改的第一图像包括在所述对象的区域内的第一图像区域、以及在所述对象的区域外的第二图像区域,并且所述第一图像区域至少部分地没有所述第二图像区域那么明显。
2.如权利要求1所述的设备,其中在第一图像被投影向目标之后,所述设备获取与所述目标相对应的目标区域的图像。
3.如权利要求2所述的设备,其中当对象存在于投影仪单元和目标之间时,所述设备通过计算第一图像和目标区域的图像之间的差别来确定对象的区域。
4.如权利要求2所述的设备,其中所述设备通过将图像分析技术应用于目标区域的图像来检测对象存在于投影仪单元和目标之间。
5.如权利要求1所述的设备,其中所述设备通过利用红外检测来检测对象存在于投影仪单元和目标之间。
6.如权利要求1所述的设备,其中所述设备通过利用立体摄像机来检测对象存在于投影仪单元和目标之间。
7.如权利要求1所述的设备,其中所述设备可操作以检测存在于投影仪单元和目标之间的对象的移动或未移动,并且通过检测对象的移动或未移动来确定第一图像的指定部分。
8.如权利要求7所述的设备,其中指定部分包括被显示作为第一图像的部分的文本。
9.如权利要求7所述的设备,其中所述设备可操作以在修改的第一图像中包括指定部分的指示。
10.如权利要求7所述的设备,其中指定部分包括被显示作为第一图像的部分的期望图像。
11.如权利要求1所述的设备,其中当对象存在于投影仪单元和目标之间时,所述设备生成代表包含在第一图像和修改的第一图像之间的差别中的信息的至少部分的次要图像并且所述次要图像被投影到对象上。
12.如权利要求11所述的设备,其中次要图像被投影作为修改的第一图像的部分。
13.如权利要求11所述的设备,其中所述设备可操作以检测通过另外对象对次要图像的触摸。
14.如权利要求1所述的设备,其中当对象存在于投影仪单元和目标之间时,所述设备可操作以检测由对象指定的第一图像的部分,获取与指定的部分相关的次要图像,并将次要图像投影到对象上。
15.如权利要求14所述的设备,其中次要图像被投影作为修改的第一图像的部分。
16.如权利要求14所述的设备,其中所述设备可操作以检测通过另外对象对次要图像的触摸。
17.如权利要求1所述的设备,其中当对象存在于投影仪单元和目标之间时,所述设备获得投影仪单元和对象之间的距离,并且至少基于所述距离控制投影仪单元的焦距。
18.如权利要求1所述的设备,其中所述设备可操作以检测通过对象对目标的触摸。
19.一种信息处理方法,包括:
通过利用投影仪单元存储将要投影向目标的第一图像;
在第一图像已经被投影向目标之后,获取与目标相对应的目标区域的图像;
检测对象存在于投影仪单元和目标之间;以及
当对象存在于投影仪单元和目标之间时,确定目标区域的图像中对象的区域,并基于对象的区域生成修改的第一图像用于投影向目标,以使得修改的第一图像包括在所述对象的区域内的第一图像区域、以及在所述对象的区域外的第二图像区域,并且所述第一图像区域至少部分地没有所述第二图像区域那么明显。
CN201210079745.2A 2011-03-30 2012-03-23 投影装置、投影方法和投影程序 Active CN102740031B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011075998A JP2012208439A (ja) 2011-03-30 2011-03-30 投影装置、投影方法及び投影プログラム
JP2011-075998 2011-03-30

Publications (2)

Publication Number Publication Date
CN102740031A CN102740031A (zh) 2012-10-17
CN102740031B true CN102740031B (zh) 2016-12-14

Family

ID=46965679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210079745.2A Active CN102740031B (zh) 2011-03-30 2012-03-23 投影装置、投影方法和投影程序

Country Status (3)

Country Link
US (7) US9223443B2 (zh)
JP (1) JP2012208439A (zh)
CN (1) CN102740031B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208439A (ja) 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム
JP2013190671A (ja) * 2012-03-14 2013-09-26 Ricoh Co Ltd 画像投影装置、明暗処理方法及びプログラム
WO2014061310A1 (ja) * 2012-10-16 2014-04-24 日本電気株式会社 表示物制御システム、表示物制御方法及びプログラム
JP5751637B2 (ja) * 2012-11-07 2015-07-22 Necプラットフォームズ株式会社 兼用グラフィックユーザインターフェース装置、兼用方法及び兼用プログラム
JP6201379B2 (ja) * 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
JP6044426B2 (ja) * 2013-04-02 2016-12-14 富士通株式会社 情報操作表示システム、表示プログラム及び表示方法
DE102013007261A1 (de) 2013-04-26 2014-10-30 Volkswagen Aktiengesellschaft Bedienvorrichtung zur Bedienung eines Gerätes, insbesondere zur Bedienung einer Funktion eines Kraftfahrzeuges
DE102013208625A1 (de) * 2013-05-10 2014-11-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiapertur-projektionsdisplay und einzelbilderzeuger für ein solches
US9160993B1 (en) * 2013-07-18 2015-10-13 Amazon Technologies, Inc. Using projection for visual recognition
USD747344S1 (en) 2013-08-02 2016-01-12 Apple Inc. Display screen with graphical user interface
CN104698827A (zh) * 2013-12-08 2015-06-10 崔允太 一种智能手表用屏幕
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
JP6099023B2 (ja) * 2014-05-29 2017-03-22 パナソニックIpマネジメント株式会社 プロジェクタシステム
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
CN105204752B (zh) * 2014-06-04 2018-08-03 北京大学深圳研究生院 投影式阅读中实现交互的方法和系统
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
JP6625801B2 (ja) 2015-02-27 2019-12-25 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
USD775185S1 (en) * 2015-03-06 2016-12-27 Apple Inc. Display screen or portion thereof with graphical user interface
JP6198990B2 (ja) * 2015-04-01 2017-09-20 三菱電機株式会社 作業指示システム
CN108140358A (zh) * 2015-09-29 2018-06-08 富士胶片株式会社 附带距离图像获取装置的投影装置以及投影方法
USD790575S1 (en) 2016-06-12 2017-06-27 Apple Inc. Display screen or portion thereof with graphical user interface
USD803888S1 (en) * 2016-08-09 2017-11-28 Xerox Corporation Printer machine user interface screen with icon
USD888723S1 (en) * 2017-03-27 2020-06-30 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
JP2019040003A (ja) * 2017-08-24 2019-03-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP2019060963A (ja) * 2017-09-25 2019-04-18 ソニー株式会社 表示処理装置、表示処理方法及びプログラム
US11194464B1 (en) 2017-11-30 2021-12-07 Amazon Technologies, Inc. Display control using objects
JPWO2019176594A1 (ja) * 2018-03-16 2021-02-04 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
USD877174S1 (en) 2018-06-03 2020-03-03 Apple Inc. Electronic device with graphical user interface
JP6822445B2 (ja) * 2018-07-02 2021-01-27 カシオ計算機株式会社 投影装置、投影方法及びプログラム
CN112019825A (zh) * 2020-08-13 2020-12-01 广景视睿科技(深圳)有限公司 一种投影方法和投影设备
KR102373961B1 (ko) * 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법
US11847256B2 (en) * 2022-03-04 2023-12-19 Humane, Inc. Presenting and aligning laser projected virtual interfaces

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201000620Y (zh) * 2006-10-16 2008-01-02 北京威亚视讯科技有限公司 一种基于投影的触摸检测系统
CN101571776A (zh) * 2008-04-21 2009-11-04 株式会社理光 具有投影仪模块的电子装置
CN101667061A (zh) * 2009-09-08 2010-03-10 广东工业大学 一种交互式投影的检测系统及其检测方法
CN101685342A (zh) * 2008-09-26 2010-03-31 联想(北京)有限公司 一种动态虚拟键盘的实现方法及装置
CN101796474A (zh) * 2007-09-04 2010-08-04 佳能株式会社 图像投影设备及其控制方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US6984039B2 (en) * 2003-12-01 2006-01-10 Eastman Kodak Company Laser projector having silhouette blanking for objects in the output light path
WO2005069114A1 (ja) * 2004-01-15 2005-07-28 Vodafone K.K. 移動体通信端末
JP2005338379A (ja) 2004-05-26 2005-12-08 Sony Corp プロジェクタ
WO2006070708A1 (ja) * 2004-12-28 2006-07-06 Brother Kogyo Kabushiki Kaisha プロジェクタ
JP4872482B2 (ja) * 2006-06-23 2012-02-08 富士ゼロックス株式会社 遠隔支援装置、遠隔支援システム及び遠隔支援方法
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
US20090295712A1 (en) * 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
CN101650520A (zh) * 2008-08-15 2010-02-17 索尼爱立信移动通讯有限公司 移动电话的可视激光触摸板和方法
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8290208B2 (en) * 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
JP2010244484A (ja) * 2009-04-10 2010-10-28 Funai Electric Co Ltd 画像表示装置、画像表示方法および画像表示プログラム
JP5347673B2 (ja) * 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8896578B2 (en) * 2010-05-03 2014-11-25 Lg Electronics Inc. Mobile terminal and method of controlling the same
US8890803B2 (en) * 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
JP5439347B2 (ja) * 2010-12-06 2014-03-12 日立コンシューマエレクトロニクス株式会社 操作制御装置
JP2012208439A (ja) * 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201000620Y (zh) * 2006-10-16 2008-01-02 北京威亚视讯科技有限公司 一种基于投影的触摸检测系统
CN101796474A (zh) * 2007-09-04 2010-08-04 佳能株式会社 图像投影设备及其控制方法
CN101571776A (zh) * 2008-04-21 2009-11-04 株式会社理光 具有投影仪模块的电子装置
CN101685342A (zh) * 2008-09-26 2010-03-31 联想(北京)有限公司 一种动态虚拟键盘的实现方法及装置
CN101667061A (zh) * 2009-09-08 2010-03-10 广东工业大学 一种交互式投影的检测系统及其检测方法

Also Published As

Publication number Publication date
US20240012521A1 (en) 2024-01-11
US10459578B2 (en) 2019-10-29
US20210064182A1 (en) 2021-03-04
US20160070420A1 (en) 2016-03-10
US10860145B2 (en) 2020-12-08
CN102740031A (zh) 2012-10-17
US20170285876A1 (en) 2017-10-05
US11797131B2 (en) 2023-10-24
US20200019278A1 (en) 2020-01-16
US9727173B2 (en) 2017-08-08
US10120505B2 (en) 2018-11-06
US20190034034A1 (en) 2019-01-31
US9223443B2 (en) 2015-12-29
JP2012208439A (ja) 2012-10-25
US20120256824A1 (en) 2012-10-11

Similar Documents

Publication Publication Date Title
CN102740031B (zh) 投影装置、投影方法和投影程序
US20220230603A1 (en) Adaptable user interface with dual screen device
US9524040B2 (en) Image editing apparatus and method for selecting area of interest
EP1349053B1 (en) Method and system for overloading loop selection
CN103649898B (zh) 用于基于上下文的菜单的启动器
US7974494B2 (en) Image control from composed composite image using HID signal conversion to source image coordinates
CN104679137A (zh) 电子设备,电子设备的外壳和电子设备中执行功能的方法
CN102779006B (zh) 基于触摸屏的对象转移方法及触摸屏智能设备
CN107734373A (zh) 弹幕发送方法及装置、存储介质、电子设备
US20130290884A1 (en) Computer-readable non-transitory storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing control method
KR20150094967A (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
CN114779977A (zh) 界面显示方法、装置、电子设备及存储介质
US10908764B2 (en) Inter-context coordination to facilitate synchronized presentation of image content
US12135864B2 (en) Screen capture method and apparatus, and electronic device
US20150015501A1 (en) Information display apparatus
WO2023241563A1 (zh) 数据处理方法和电子设备
CN104679389A (zh) 界面显示方法和装置
CN112765500A (zh) 信息搜索方法及装置
WO2023093661A1 (zh) 界面控制方法、装置、电子设备及存储介质
CN114679546B (zh) 一种显示方法及其装置、电子设备和可读存储介质
CN110989873B (zh) 一种用于模拟触摸屏的光学成像系统
KR20150100332A (ko) 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
US11561649B2 (en) Operation judgment method for interactive touch system
CN110716678B (zh) 一种显示画面的局部删除方法及处理系统、显示设备
US11847313B2 (en) Electronic device having touchpad with operating functions selected based on gesture command and touch method thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant