CN114374827B - 显示方法和显示装置 - Google Patents

显示方法和显示装置 Download PDF

Info

Publication number
CN114374827B
CN114374827B CN202111191759.9A CN202111191759A CN114374827B CN 114374827 B CN114374827 B CN 114374827B CN 202111191759 A CN202111191759 A CN 202111191759A CN 114374827 B CN114374827 B CN 114374827B
Authority
CN
China
Prior art keywords
image
area
handwriting input
region
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111191759.9A
Other languages
English (en)
Other versions
CN114374827A (zh
Inventor
横山壱星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN114374827A publication Critical patent/CN114374827A/zh
Application granted granted Critical
Publication of CN114374827B publication Critical patent/CN114374827B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1645Details related to the display arrangement, including those related to the mounting of the display in the housing the display being suitable to be used in combination with an external overhead projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

显示方法和显示装置。提高手写输入的操作性。显示方法包含以下步骤:受理对显示面的第1手写输入;决定包含进行了第1手写输入的显示面的位置的第1区域;在所述第1区域中显示与第1手写输入对应的第1图像;在显示面的第2区域中显示以规定的放大倍率对第1图像进行放大后的第2图像;在第2区域中受理第2手写输入;以及在与进行了第2手写输入的第2区域的位置对应的所述第1区域的位置,以按照规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与第2手写输入对应的图像作为第1图像的一部分。

Description

显示方法和显示装置
技术领域
本发明涉及显示方法和显示装置。
背景技术
公开了在信息处理装置等中受理手写输入的各种技术。
例如,专利文献1记载的信息处理装置在正在执行描绘输入模式的状态下检测到方向不同的多个滑动操作的情况下,不执行描绘处理而生成通过多个滑动操作中的一个滑动操作指定的描绘的副本。此外,根据第2滑动操作的移动量对被显示的副本进行放大。
专利文献1:日本特开2020-61179号公报
但是,在专利文献1记载的信息处理装置中,需要用于对被描绘的图像进行复制和放大的滑动操作,因此,存在提高操作性的余地。
发明内容
本应用例的一个方式的显示方法包含以下步骤:受理对显示面的第1手写输入;决定包含所述显示面的进行了所述第1手写输入的位置的第1区域;在所述第1区域中显示与所述第1手写输入对应的第1图像;在所述显示面的第2区域中显示以规定的放大倍率对所述第1图像进行放大后的第2图像;在所述第2区域中受理第2手写输入;以及在与所述第2区域的进行了所述第2手写输入的位置对应的所述第1区域的位置,以按照所述规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与所述第2手写输入对应的图像作为所述第1图像的一部分。
本应用例的另一个方式的显示装置具有:显示部,其在显示面中显示图像;检测部,其检测对所述显示面的手写输入的位置;以及控制部,其根据所述检测部的检测结果对所述显示面中显示的图像进行控制,所述控制部执行以下处理:根据所述检测部的检测结果,受理对所述显示面的第1手写输入;决定包含所述显示面的进行了所述第1手写输入的位置的第1区域;在所述第1区域中显示与所述第1手写输入对应的第1图像;在所述显示面的第2区域中显示以规定的放大倍率对所述第1图像进行放大后的第2图像;根据所述检测部的检测结果,在所述第2区域中受理第2手写输入;以及在与所述第2区域的进行了所述第2手写输入的位置对应的所述第1区域的位置,以按照所述规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与所述第2手写输入对应的图像作为所述第1图像的一部分。
附图说明
图1是示出本实施方式的显示系统的一例的立体图。
图2是示出显示系统的结构的一例的主视图。
图3是示出显示系统的结构的一例的侧视图。
图4是示出本实施方式的投影仪的结构的一例的图。
图5是示出控制部的处理的第1具体例的图。
图6是示出控制部的处理的第2具体例的图。
图7是示出控制部的处理的第3具体例的图。
图8是示出控制部的处理的第4具体例的图。
图9是示出控制部的处理的一例的流程图。
标号说明
80:指示体;100:投影仪(显示装置);200:投射部(显示部);210:光源部;220:光调制部;230:投射光学系统;300:摄像部;310:摄像头;410:检测光射出部;411:第1射出部;412:第2射出部;500:投射图像生成部;510:投射图像存储器;511:第1投射图像存储器;512:第2投射图像存储器;600:位置检测部(检测部);700:控制部;710:处理器;720:存储器;900:显示系统;910:支承部件;920:屏幕板;AR1:第1区域;AR2:第2区域;AR21:显示区域;AR22:空白区域;DA:检测区域;IDL、IDL1:检测光;LC1、LC2:光轴;LH1、LH2、LHS:高度;LW1、LW2、LWS:宽度;MA11、MA21、MA12、MA22、MH1、MH2:距离;PL1:第1框图像(第1区域图像);PL2:第2框图像(第2区域图像);PM:摄像图像;PS:投射图像;PT1:第1图像;PT2:第2图像;PT3:第3图像;PT4:第4图像;RDL:反射检测光;SC:屏幕(显示面);SC1:左侧区域;SC2:右侧区域;TX:文本图像;TX11~TX13:第1文本图像;TX14~TX16:第4文本图像;TX21~TX23:第2文本图像;TX24~TX26:第3文本图像;θ1、θ2:角。
具体实施方式
下面,参照附图对实施方式进行说明。
首先,参照图1~图3对本实施方式的显示系统900的结构进行说明。图1是示出本实施方式的显示系统900的一例的立体图。图2是示出显示系统900的结构的一例的主视图,图3是示出显示系统900的结构的一例的侧视图。
图1示出彼此正交的X轴、Y轴和Z轴。Y轴与铅垂方向平行,X轴和Z轴分别与水平方向平行。在图1~图3中,屏幕SC与Y轴平行。在朝向屏幕SC站立时,X轴表示左右方向,Z轴表示前后方向。X轴的正方向表示右方向,Y轴的正方向表示上方向,Z轴的正方向表示前方向。
如图1所示,显示系统900具有投影仪100,在与投影仪100对应的位置配置有屏幕板920。屏幕板920的前面被用作屏幕SC。本实施方式的屏幕SC为具有与X轴平行的长边和与Y轴平行的短边的矩形。投影仪100通过支承部件910相对于屏幕板920固定于前方向且上方向。
另外,在图1中,沿着铅垂方向配置屏幕SC,但是,也可以沿着水平方向配置屏幕SC。此外,在本实施方式中,例示投影仪100向平面的屏幕SC进行投射的情况,但是,投射对象不限于屏幕SC,也可以是建筑物的壁面等平面,也可以是曲面或凹凸面。
投影仪100向屏幕SC投射图像光,由此,在屏幕SC上形成投射图像PS。投射图像PS表示由投影仪100向屏幕SC投射的图像。在投影仪100的通常的使用状态下,投射图像PS以收敛于屏幕SC的内侧的方式被投射。
屏幕SC是“显示面”的一例。
投射图像PS例如是根据投影仪100生成的图像数据而投射的图像。在本实施方式中,投影仪100根据基于指示体80的手写输入来生成图像数据。
在本实施方式中,投射图像PS例如包含手写的文本图像TX和框图像PL。参照图5和图6说明文本图像TX和框图像PL。
此外,在显示系统900中,在屏幕SC中,能够通过指示体80进行位置指示操作,投影仪100检测由指示体80指示的指示位置。指示体80是笔或用户的手指等。
在本实施方式中,对指示体80是用户的手指的情况进行说明。
投影仪100具有投射光学系统230、包含摄像头310的摄像部300、以及检测光射出部410。投射光学系统230将投射图像PS投射到屏幕SC。摄像头310对投射图像PS进行摄像,输出摄像图像PM。摄像头310的视场角即摄像范围是屏幕SC中至少包含投射图像PS的范围。投射光学系统230的投射镜头、摄像头310的摄像镜头配置于投影仪100的下面。
如图3所示,检测光射出部410射出检测光IDL,以检测指示体80的指示位置。检测光射出部410固定于支承部件910或屏幕板920,配置于屏幕SC的上部。
检测光射出部410向覆盖屏幕SC的方向射出检测指示体80的末端部的检测光IDL。具体而言,检测光射出部410沿着屏幕SC呈面状射出检测光IDL。检测光射出部410射出的检测光IDL例如使用近红外光。
检测光射出部410具有第1射出部411、第2射出部412、以及分别对第1射出部411和第2射出部412的射出方向进行调整的调整机构420。
如图2所示,第1射出部411沿着屏幕SC的右半面射出检测光IDL,第2射出部412沿着屏幕SC的左半面射出检测光IDL。第1射出部411和第2射出部412分别例如具有LED(LightEmitting Diode)等光源、以及使光源发出的检测光沿着屏幕SC扩散而作为检测光IDL射出的光学元件。
第1射出部411在角θ1的范围内将光轴设为光轴LC1射出面状的检测光IDL,第2射出部412在角θ2的范围内将光轴设为光轴LC2射出面状的检测光IDL。角θ1和角θ2分别大于90度。此外,在图2中,为了方便起见,分开记载了第1射出部411和第2射出部412,但是,第1射出部411和第2射出部412被配置成彼此靠近。
其结果,检测光射出部410在从屏幕SC的上部向下大约180度的范围内出射光,该光形成沿着屏幕SC的光的层。
如图3所示,对检测光IDL的光轴LC1进行调整,以使屏幕SC的表面和光的层不接触、并且接近。为了使投影仪100高精度地检测由指示体80指示的指示位置,操作面即屏幕SC的表面与检测光IDL的光的层的距离越短越好。另一方面,当屏幕SC的表面与检测光IDL的光的层的距离变短时,产生由于屏幕SC的表面的凹凸或障碍物而引起的误检测。屏幕SC的表面与光的层的距离例如被调整在1mm~10mm的范围内。
检测光射出部410射出检测光IDL的区域是屏幕SC中与投射图像PS对应的区域,优选是包含投射图像PS的区域。
调整了检测光IDL的投影仪100在检测基于指示体80的操作的通常模式中,从摄像头310的摄像图像PM中检测由检测光射出部410射出的检测光IDL被指示体80反射后的反射光即反射检测光RDL作为亮点。该情况下,在射出检测光IDL、且包含在摄像头310的视场角内的区域中,能够检测指示体80的操作。换言之,检测光射出部410射出检测光IDL的区域中的、包含在摄像头310的视场角内的区域是能够检测指示体80的操作的区域。图2所示的检测区域DA是能够检测指示体80的操作的区域。
检测区域DA在屏幕SC中包含投射图像PS。
摄像头310至少具有接收包含检测光射出部410发出的检测光IDL的波长的波长区域的光并进行摄像的第1摄像功能。优选摄像头310还具有接收包含可见光在内的光并进行摄像的第2摄像功能,构成为能够对这2个摄像功能进行切换。
例如,优选摄像头310具有未图示的近红外滤光器切换机构,该近红外滤光器切换机构能够将遮断可见光而仅使近红外光通过的近红外滤光器配置于透镜的前方,或者使该近红外滤光器从透镜的前方后退。
投影仪100检测指示体80的指示操作,确定指示位置,进行与指示位置对应的动作。例如,投影仪100在对应于指示体80的操作而描绘字符、图形或线条等并作为投射图像PS进行投射的白板模式下进行动作。
在本实施方式中,说明投影仪100在白板模式下进行动作的情况。
另外,投影仪100还能够在白板模式以外的其他模式下进行动作,例如,能够执行根据从个人计算机等未图示的图像源输入的图像数据投射投射图像PS的动作模式。
图4是示出本实施方式的投影仪100的结构的一例的图。
如图4所示,投影仪100具有包含参照图1~图3说明的投射光学系统230的投射部200、包含参照图1~图3说明的摄像头310的摄像部300、参照图1~图3说明的检测光射出部410、位置检测部600、投射图像生成部500和控制部700。
投影仪100对应于“显示装置”的一例。
投射部200将由投射图像生成部500处理后的图像投射到屏幕SC。投射部200具有光源部210、光调制部220和投射光学系统230。
投射部200对应于“显示部”的一例。
光源部210用于显示图像,具有LED或激光光源等固体光源、以及荧光体元件等荧光体光源中的至少任意一方。
此外,光源部210也可以具有将光源发出的光引导至光调制部220的反射器和辅助反射器。进而,光源部210也可以具有用于提高投射光的光学特性的透镜组、偏振板、以及使光源发出的光的光量在通往光调制部220的路径上减少的调光元件等。
光调制部220例如具有与R、G、B的三原色对应的3枚省略图示的液晶面板。R表示红色,G表示绿色,B表示蓝色。即,光调制部220具有与R色光对应的液晶面板、与G色光对应的液晶面板、与B色光对应的液晶面板。
光源部210发出的光被分离成RGB的3色的色光,分别入射到对应的液晶面板。3枚液晶面板分别是透过型的液晶面板,对要透过的光进行调制而生成图像光。通过各液晶面板而被调制后的图像光由十字分色棱镜等合成光学系统进行合成,向投射光学系统230射出。
在本实施方式中,说明了光调制部220具有透过型的液晶面板作为光调制元件的情况,但不限于此。光调制元件也可以是反射型的液晶面板,还可以是数字微镜器件(Digital Micromirror Device)。
投射光学系统230具有使从光调制部220入射的图像光在屏幕SC上成像的透镜或反射镜等。
此外,投射光学系统230也可以具有使向屏幕SC投射的图像放大或缩小的变焦机构、进行对焦调整的对焦调整机构等。
摄像部300具有摄像头310。摄像头310接收包含参照图3说明的检测光IDL的波长的波长区域的光并进行摄像。摄像头310接收检测光射出部410发出的检测光IDL在指示体80反射后的反射光即反射检测光RDL并进行摄像。因此,能够根据摄像头310的摄像图像PM检测反射检测光RDL。
另外,优选摄像头310在使用包含近红外光的光进行摄像的功能的基础上,还具有使用包含可见光的光进行摄像的功能。该情况下,利用摄像头310对投射到屏幕SC上的投射图像PS进行摄像,投射图像生成部500能够利用该图像执行梯形畸变校正、色校正等。
位置检测部600根据摄像头310的摄像图像PM检测反射检测光RDL。位置检测部600针对检测到的光的像确定摄像图像PM中的位置,检测指示体80的位置。
摄像头310、或摄像头310和位置检测部600对应于“检测部”的一例。
投射图像生成部500具有存储与投射图像PS对应的图像数据的投射图像存储器510。投射图像存储器510是以帧单位存储投射部200投射的图像的所谓帧存储器。
投射图像存储器510具有第1投射图像存储器511和第2投射图像存储器512。
第1投射图像存储器511根据位置检测部600的检测结果存储与手写输入对应的第1图像PT1。
第2投射图像存储器512存储与投射部200投射的投射图像PS对应的图像数据。投射图像PS包含第1图像PT1、第2图像PT2、第1框图像PL1和第2框图像PL2。
关于第1图像PT1、第2图像PT2、第1框图像PL1和第2框图像PL2,与以下所示的控制部700的说明一起进行说明,参照图5进一步进行说明。
投射图像生成部500按照来自控制部700的指示,根据位置检测部600的检测结果将图像数据写入到投射图像存储器510。
此外,投射图像生成部500按照来自控制部700的指示,将表示第2投射图像存储器512的图像的图像信号输出到光调制部220,使投射部200投射投射图像PS。
进而,投射图像生成部500执行针对投射图像PS的图像处理。例如,投射图像生成部500执行对投射图像PS的梯形畸变等进行校正的几何校正处理、对投射图像PS进行放大或缩小的数字变焦处理、对投射图像PS的色调等进行校正的色校正处理等。
控制部700具有处理器710和存储器720。
处理器710具有CPU(Central Processing Unit)、MPU(Micro-Processing Unit)等。
处理器710可以由单一处理器构成,也可以构成为多个处理器作为处理器710发挥功能。处理器710执行控制程序,对投影仪100的各部进行控制。在本实施方式中,位置检测部600和投射图像生成部500作为控制部700的一部分实现。
存储器720是非易失性地存储处理器710执行的程序和数据的存储装置。存储器720由磁存储装置、闪存ROM(Read Only Memory)等半导体存储元件、或其他种类的非易失性存储装置构成。此外,存储器720也可以包含构成处理器710的工作区的RAM(RandomAccess Memory)。存储器720存储由控制部700处理的数据、处理器710执行的控制程序。
控制程序由处理器710执行。控制部700的处理器710执行存储器720中存储的控制程序,由此,进行投影仪100的各部的控制。
下面,对控制部700的处理进行说明。此外,参照图5~图9说明控制部700的处理的具体例。
控制部700根据位置检测部600的检测结果,受理对屏幕SC的第1手写输入。第1手写输入是通过用户的手指等指示体80输入的手写的字符、图形、线条等。
此外,控制部700决定包含与第1手写输入对应的屏幕SC的位置的第1区域AR1。
此外,控制部700在第1区域AR1中显示与第1手写输入对应的第1图像PT1。
在本实施方式中,控制部700例如通过执行以下的处理,在第1区域AR1中显示第1图像PT1。
首先,控制部700受理第1手写输入。具体而言,根据位置检测部600检测到的进行了第1手写输入的位置而生成第1图像PT1。然后,控制部700通过投射图像生成部500将第1图像PT1分别写入第1投射图像存储器511和第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第1图像PT1对应的图像信号输出到光调制部220,通过投射部200投射第1图像PT1。这样,控制部700在屏幕SC中显示第1图像PT1。
此外,控制部700在屏幕SC的第2区域AR2中显示以规定的放大倍率对第1图像PT1进行放大后的第2图像PT2。规定的放大倍率例如是2倍。
在本实施方式中,控制部700例如通过执行以下的处理,在第2区域AR2中显示第2图像PT2。
首先,控制部700生成以规定的放大倍率对第1图像PT1进行放大后的第2图像PT2。然后,控制部700通过投射图像生成部500将第2图像PT2写入第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第2图像PT2对应的图像信号输出到光调制部220,使投射部200投射第2图像PT2。这样,控制部700在屏幕SC中显示第2图像PT2。
此外,控制部700根据位置检测部600的检测结果,受理对屏幕SC的第2手写输入。第2手写输入是通过用户的手指等指示体80输入到第2区域AR2的手写的字符、图形、线条等。
此外,控制部700根据与第2手写输入对应的图像对第2图像PT2进行更新。
控制部700例如通过执行以下的处理,根据与第2手写输入对应的图像,对第2图像PT2进行更新。
首先,控制部700根据位置检测部600的检测结果生成与第2手写输入对应的第3图像PT3。然后,控制部700通过投射图像生成部500将第3图像PT3写入第2投射图像存储器512中进行了第2手写输入的第2区域AR2的位置。另外,第3图像PT3作为第2图像PT2的一部分写入第2投射图像存储器512中。这样,根据与第2手写输入对应的图像对第2图像PT2进行更新。
此外,控制部700在与第2区域AR2的进行了第2手写输入的位置对应的第1区域AR1的位置,以按照规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与第2手写输入对应的图像作为第1图像PT1的一部分。即,根据与第2手写输入对应的图像对第1图像PT1进行更新。
在本实施方式中,控制部700例如通过执行以下的处理,根据与第2手写输入对应的图像,对第1图像PT1进行更新。
首先,控制部700根据位置检测部600的检测结果,生成与第2手写输入对应的第3图像PT3。然后,控制部700生成以规定的放大倍率的倒数的缩小倍率对第3图像PT3进行缩小后的大小的第4图像PT4。接着,控制部700通过投射图像生成部500将第4图像PT4写入第1投射图像存储器511和第2投射图像存储器512各自的与第2区域AR2的进行了第2手写输入的位置对应的第1区域AR1的位置。另外,第4图像PT4作为第1图像PT1的一部分分别写入第1投射图像存储器511和第2投射图像存储器512。这样,根据与第2手写输入对应的图像,对第1图像PT1进行更新。
此外,控制部700在第2区域AR2中显示第2图像PT2的期间内,受理对第1区域AR1的第1手写输入。然后,根据受理的第1手写输入对第1图像PT1进行更新,在第1区域AR1中显示更新后的第1图像PT1。
在本实施方式中,控制部700例如通过执行以下的处理,在第1区域AR1中显示更新后的第1图像PT1。
首先,控制部700根据位置检测部600检测到的第1手写输入对第1图像PT1进行更新。然后,控制部700通过投射图像生成部500将第1图像PT1分别写入第1投射图像存储器511和第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第1图像PT1对应的图像信号输出到光调制部220,使投射部200投射第1图像PT1。这样,控制部700在屏幕SC中显示更新后的第1图像PT1。
此外,控制部700在屏幕SC中显示表示第1区域AR1的外缘的第1框图像PL1和表示第2区域AR2的外缘的第2框图像PL2。
第1框图像PL1对应于“第1区域图像”的一例。第2框图像PL2对应于“第2区域图像”的一例。
在本实施方式中,控制部700例如通过执行以下的处理,在屏幕SC中显示第1框图像PL1和第2框图像PL2。
首先,控制部700决定包含与第1手写输入对应的屏幕SC的位置的第1区域AR1。第1区域AR1的大小例如是预先设定的大小。第1区域AR1的大小也可以由用户设定。接着,控制部700决定屏幕SC中的第2区域AR2。控制部700例如在第2区域AR2不与第1区域AR1重叠的位置决定第2区域AR2。
接着,控制部700生成第1框图像PL1和第2框图像PL2。然后,控制部700通过投射图像生成部500将生成的第1框图像PL1和第2框图像PL2写入第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第1框图像PL1以及第2框图像PL2对应的图像信号输出到光调制部220,使投射部200投射第1框图像PL1和第2框图像PL2。这样,控制部700在屏幕SC中显示第1框图像PL1和第2框图像PL2。
这样,在第1投射图像存储器511中,根据第1手写输入和第2手写输入而写入第1图像PT1。此外,在第2投射图像存储器512中写入第1图像PT1、第2图像PT2、第1框图像PL1和第2框图像PL2。
此外,写入第2投射图像存储器512的第1图像PT1、第2图像PT2、第1框图像PL1和第2框图像PL2通过投射图像生成部500输出到光调制部220,通过投射部200投射到屏幕SC。
接着,参照图5~图8对控制部700的处理的具体例进行说明。
图5是示出控制部700的处理的第1具体例的图。
在图5中,首先,对控制部700受理第1手写输入并显示与第1手写输入对应的第1图像PT1和第1框图像PL1的处理进行说明。
控制部700受理第1手写输入并决定第1区域AR1。第1区域AR1包含第1手写输入的位置。在图5中,第1区域AR1例如配置于屏幕SC的左侧区域SC1的左上部,即沿着屏幕SC的长边配置于一侧。第1区域AR1是宽度LW1、高度LH1的矩形状的区域。
控制部700根据位置检测部600检测到的第1手写输入的位置生成第1图像PT1。在图5中,作为第1图像PT1,生成表示字母“A”的第1文本图像TX11。
控制部700在屏幕SC的第1区域AR1中显示第1文本图像TX11。在本实施方式中,控制部700例如通过执行以下的处理,在屏幕SC中显示第1文本图像TX11。
首先,控制部700通过投射图像生成部500将第1文本图像TX11分别写入第1投射图像存储器511和第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第1文本图像TX11对应的图像信号输出到光调制部220,通过投射部200投射第1文本图像TX11。这样,控制部700在屏幕SC中显示第1文本图像TX11。
控制部700在屏幕SC的第1区域AR1中显示第1框图像PL1。在本实施方式中,控制部700例如通过执行上述的处理,在屏幕SC中显示第1框图像PL1。
这样,在屏幕SC中显示第1框图像PL1,因此,用户能够容易地看到受理第1手写输入的第1区域AR1。因此,用户能够容易地在第1区域AR1中进行第1手写输入。另外,也可以是不显示第1框图像PL1的形式。
接着,对控制部700显示第2图像PT2和第2框图像PL2的处理进行说明。
控制部700在受理了第1手写输入的情况下,在第2区域AR2不与第1区域AR1重叠的位置决定第2区域AR2。第2区域AR2例如配置于屏幕SC的右侧区域SC2的中央部。即,第2区域AR2沿着屏幕SC的长边配置于另一侧。第2区域AR2是宽度LW2、高度LH2的矩形状的区域。宽度LW2例如是第1区域AR1的宽度LW1的2倍,高度LH2例如是第1区域AR1的高度LH1的2倍。2倍对应于“规定的放大倍率”的一例。另外,控制部700以受理了第1手写输入为契机而决定第2区域AR2。因此,即使用户未进行用于对第1图像PT1进行放大的操作,也显示第2区域AR2。
第2区域AR2包含显示区域AR21和空白区域AR22。显示区域AR21表示显示第2图像PT2的区域。空白区域AR22表示第2区域AR2中的除了显示区域AR21以外的区域。
控制部700以空白区域AR22的面积大于显示区域AR21的面积的方式决定第2区域AR2。
控制部700在屏幕SC中显示第2框图像PL2。在本实施方式中,控制部700例如通过执行上述的处理,在屏幕SC中显示第2框图像PL2。
这样,在屏幕SC中显示第2框图像PL2,因此,用户能够容易地看到受理第2手写输入的第2区域AR2。因此,用户能够容易地在第2区域AR2中进行第2手写输入。另外,也可以是不显示第2框图像PL2的形式。
控制部700在屏幕SC中显示第2图像PT2。在本实施方式中,控制部700例如通过执行以下的处理,在屏幕SC中显示第2图像PT2。
控制部700生成将第1图像PT1放大成2倍而得到的第2图像PT2。然后,控制部700通过投射图像生成部500将第2图像PT2写入第2投射图像存储器512。接着,控制部700通过投射图像生成部500将第2投射图像存储器512的与第2图像PT2对应的图像信号输出到光调制部220,使投射部200投射第2图像PT2。这样,控制部700在屏幕SC中显示第2图像PT2。
在以上的说明中,为了简便,说明了如下情况:控制部700在受理了第1手写输入的情况下,决定第2区域AR2并显示第2图像PT2,但是,进而,在第1手写输入满足特定的条件的情况下,也可以决定第2区域AR2并显示第2图像PT2。
控制部700例如在第1手写输入包含针对屏幕SC的规定面积的范围的规定次数以上的接触动作的情况下,也可以在第2区域AR2中显示第2图像PT2。接触动作表示指示体80相对于屏幕SC从非接触状态变化成接触状态的动作。规定面积例如是9cm2,规定次数例如是5次。在进行第1手写输入的面积大于规定面积的情况下、或者接触动作的次数小于规定次数的情况下,控制部700不显示第2图像PT2。
非接触状态表示与图3所示的检测光IDL1相比指示体80更远离屏幕SC的状态。接触状态表示与图3所示的检测光IDL1相比指示体80更接近屏幕SC的状态。指示体80处于非接触状态还是处于接触状态通过位置检测部600来检测。
该情况下,在第1手写输入对应于复杂的字符、图形、线条等时,在第2区域AR2中显示第2图像PT2。例如,在手写输入复杂的字符的情况下,用户很难在狭小的区域输入较小的字符。
因此,用户在面积比第1区域AR1大的第2区域AR2输入第2手写输入来代替在第1区域AR1中输入第1手写输入,由此,在第1区域AR1中输入复杂的字符等。因此,用户能够容易地在第1区域AR1中输入复杂的字符、图形、线条等。
另一方面,在较大区域进行手写输入的情况下、或者输入内容简单的情况下,当显示第2图像PT2时,用户可能反而感觉到麻烦。在不满足条件的情况下不显示第2图像PT2,由此,能够进一步提高使用便利性。
图6是示出控制部700的处理的第2具体例的图。
在图6中,控制部700根据输入到第2区域AR2的第2手写输入,在屏幕SC中显示构成第2图像PT2的一部分的第3图像PT3和构成第1图像PT1的一部分的第4图像PT4。
在第1区域AR1中显示第1文本图像TX11、第1文本图像TX12和第1文本图像TX13、以及第4文本图像TX14、第4文本图像TX15和第4文本图像TX16。
第1文本图像TX11~第1文本图像TX13对应于根据第1手写输入而生成的第1图像PT1的一例。第4文本图像TX14~第4文本图像TX16对应于根据第2手写输入而生成的第4图像PT4的一例。第4图像PT4构成第1图像PT1的一部分。即,第1图像PT1包含第1文本图像TX11~第1文本图像TX13和第4文本图像TX14~第4文本图像TX16。
第1文本图像TX12和第1文本图像TX13与参照图5说明的第1文本图像TX11同样地显示在屏幕SC中。
在第2区域AR2中显示第2文本图像TX21、第2文本图像TX22和第2文本图像TX23、以及第3文本图像TX24、第3文本图像TX25和第3文本图像TX26。
第2文本图像TX22以及第2文本图像TX23与参照图5说明的第2文本图像TX21同样地显示在屏幕SC中。
第2文本图像TX21~第2文本图像TX23对应于根据第1手写输入而生成的第2图像PT2的一例。第3文本图像TX24~第3文本图像TX26对应于根据第2手写输入而生成的第3图像PT3的一例。第3图像PT3构成第2图像PT2的一部分。即,第2图像PT2包含第2文本图像TX21~第2文本图像TX23以及第3文本图像TX24~第3文本图像TX26。
首先,对控制部700在屏幕SC中显示第3文本图像TX24~第3文本图像TX26的处理的一例进行说明。
控制部700根据位置检测部600的检测结果,生成与第2手写输入对应的第3文本图像TX24~第3文本图像TX26。然后,控制部700通过投射图像生成部500将第3文本图像TX24~第3文本图像TX26写入第2投射图像存储器512中进行了第2手写输入的第2区域AR2的位置。另外,第3文本图像TX24~第3文本图像TX26作为第2图像PT2的一部分写入第2投射图像存储器512。这样,根据与第2手写输入对应的图像对第2图像PT2进行更新。
此外,第3文本图像TX24~第3文本图像TX26与第2图像PT2同样地显示在屏幕SC中。具体而言,控制部700通过投射图像生成部500将第2投射图像存储器512的与第3文本图像TX24~第3文本图像TX26对应的图像信号输出到光调制部220,使投射部200投射第3文本图像TX24~第3文本图像TX26。这样,控制部700在屏幕SC中显示第3文本图像TX24~第3文本图像TX26。
接着,对控制部700在屏幕SC中显示第4文本图像TX14~第4文本图像TX16的处理的一例进行说明。
控制部700生成以规定的放大倍率的倒数的缩小倍率(这里为1/2倍)分别对第3文本图像TX24~第3文本图像TX26进行缩小后的大小的第4文本图像TX14~第4文本图像TX16。接着,控制部700通过投射图像生成部500将第4文本图像TX14~第4文本图像TX16写入第1投射图像存储器511和第2投射图像存储器512各自的与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置。另外,第4文本图像TX14~第4文本图像TX16作为第1图像PT1的一部分分别写入第1投射图像存储器511和第2投射图像存储器512。这样,根据与第2手写输入对应的图像对第1图像PT1进行更新。
此外,第4文本图像TX14~第4文本图像TX16与第1图像PT1同样地显示在屏幕SC中。具体而言,控制部700通过投射图像生成部500将第2投射图像存储器512的与第4文本图像TX14~第4文本图像TX16对应的图像信号输出到光调制部220,使投射部200投射第4文本图像TX14~第4文本图像TX16。这样,控制部700在屏幕SC中显示第4文本图像TX14~第4文本图像TX16。
接着,参照图7和图8对第1手写输入的位置移动的情况下的第1区域AR1和第2区域AR2的位置的调整方法进行说明。
另外,在图7和图8中,为了简便,对控制部700以使指示体80的位置成为第1区域AR1的中央位置的方式决定第1区域AR1的情况进行说明。
图7是示出控制部700的处理的第3具体例的图。
如图7的上段图所示,说明如下情况:从屏幕SC的中央开始手写输入,进行书写的结果,指示体80的位置向右侧移动距离MH1。
该情况下,控制部700在开始手写输入的时点,根据指示体80的位置,如图7的上段图所示,以屏幕SC的中央为中心决定第1区域AR1的位置。第2区域AR2显示在不与第1区域AR1重叠的位置。例如,在图7的上段图中,是第1区域AR1的右侧。位置检测部600反复检测指示体80的位置,控制部700根据位置检测部600的检测结果,如图7的下段图所示,使第1区域AR1向右侧移动距离MA11,使第2区域AR2向右侧移动距离MA21。
距离MA11和距离MA21例如与距离MH1一致。
在成为图7的下段图所示的状态时,第1区域AR1的右端与第2区域AR2的左端接触,第2区域AR2的右端位于屏幕SC的右端。因此,很难使第1区域AR1进一步向右侧移动。
图8是示出控制部700的处理的第4具体例的图。图8示出从图7的下段图所示的状态起使第1区域AR1进一步向右侧移动的方法的一例。
图8的上段图所示的第1区域AR1以及第2区域AR2的位置与图7的下段图所示的第1区域AR1以及第2区域AR2的位置相同。如图8的上段图所示,对指示体80的位置向右侧移动距离MH2的情况进行说明。
该情况下,如图8的下段图所示,控制部700使第1区域AR1向右侧移动距离MA12,以使第2区域AR2的左端位于屏幕SC的左端的方式使第2区域AR2移动距离MA22。
距离MA12例如与距离MH2一致。
在成为图8的下段图的状态时,第2区域AR2的左端位于屏幕SC的左端。第1区域AR1的左端位于从第2区域AR2的右端分开例如距离MA12的位置。
这样,伴随着第1区域AR1的移动来移动第2区域AR2,由此,能够在不与第1区域AR1重叠的位置决定第2区域AR2。
此外,如图8的下段图所示,在第2区域AR2从屏幕SC的右端向屏幕SC的左端移动的情况下,可能在配置有第2区域AR2的位置已经记载有字符或图形等。这种情况下,为了能够利用第2区域AR2,控制部700将第2区域AR2与配置有第2区域AR2的位置所记载的字符或图形等重叠地配置。换言之,控制部700将第2区域AR2配置于配置有第2区域AR2的位置所记载的字符或图形等的上层。
此外,如图8的下段图所示,第1区域AR1的宽度LW1、第2区域AR2的宽度LW2和屏幕SC的宽度LWS满足以下的式(1)。
LW1+2×LW2≤LWS (1)
在本实施方式中,宽度LW2是宽度LW1的2倍,因此,根据式(1),以下的式(2)成立。
5×LW1≤LWS (2)
根据式(2),第1区域AR1的宽度LW1需要设定成屏幕SC的宽度LWS的1/5以下。另外,高度LHS表示屏幕SC的高度。
例如,在宽度LW2是宽度LW1的MG倍的情况下,根据式(1),以下的式(3)成立。
(1+2×MG)×LW1≤LWS (3)
控制部700也可以根据式(3)决定宽度LW1、宽度LW2以及屏幕SC中的第1区域AR1和第2区域AR2的位置。另外,宽度LWS和高度LWH能够根据由摄像部300得到的图像来计算。
图9是示出控制部700的处理的一例的流程图。
如图9所示,首先,在步骤S101中,控制部700受理第1手写输入。
接着,在步骤S103中,控制部700决定包含与第1手写输入对应的屏幕SC的位置的第1区域AR1。然后,控制部700生成表示第1区域AR1的外缘的第1框图像PL1,在屏幕SC中显示第1框图像PL1。
接着,在步骤S105中,控制部700生成与第1手写输入对应的第1图像PT1。
接着,在步骤S107中,控制部700在第1区域AR1中显示第1图像PT1。
接着,在步骤S109中,控制部700判定是否显示第2区域AR2。控制部700例如根据第1手写输入是否满足特定的条件,判定是否显示第2区域AR2。特定的条件例如是第1手写输入包含针对屏幕SC的规定面积的范围的规定次数以上的接触动作。
在控制部700判定为不显示第2区域AR2的情况下(步骤S109:否),处理返回步骤S101。在控制部700判定为显示第2区域AR2的情况下(步骤S109:是),处理进入步骤S111。
然后,在步骤S111中,控制部700在不与第1区域AR1重叠的位置决定第2区域AR2。此外,在由于第1手写输入移动而使第1区域AR1移动的情况下,控制部700在不与第1区域AR1重叠的位置移动第2区域AR2。然后,控制部700生成表示第2区域AR2的外缘的第2框图像PL2,在屏幕SC中显示第2框图像PL2。
接着,在步骤S113中,控制部700生成以规定的放大倍率(例如2倍)对第1图像PT1进行放大后的第2图像PT2,在屏幕SC的第2区域AR2中显示第2图像PT2。
接着,在步骤S115中,控制部700判定是否在第2区域AR2中受理了第2手写输入。
在控制部700判定为未在第2区域AR2中受理第2手写输入的情况下(步骤S115:否),处理进入步骤S123。在控制部700判定为在第2区域AR2中受理了第2手写输入的情况下(步骤S115:是),处理进入步骤S117。
然后,在步骤S117中,控制部700根据第2手写输入对第1图像PT1进行更新。即,控制部700在与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置,以按照规定的放大倍率的倒数的缩小倍率(例如1/2倍)进行缩小后的大小,生成与第2手写输入对应的图像作为第1图像PT1的一部分。这样,根据与第2手写输入对应的图像对第1图像PT1进行更新。
接着,在步骤S119中,控制部700对第1图像PT1的显示进行更新。换言之,控制部700在屏幕SC的第1区域AR1中显示更新后的第1图像PT1。
接着,在步骤S121中,控制部700以规定的放大倍率(例如2倍)对更新后的第1图像PT1进行放大,由此,对第2图像PT2进行更新。然后,控制部700在屏幕SC的第2区域AR2中显示更新后的第2图像PT2。然后,处理返回步骤S115。
在步骤S115为“否”的情况下,在步骤S123中,控制部700判定是否受理了针对第1区域AR1的第1手写输入。
在控制部700判定为受理了第1手写输入的情况下(步骤S123:是),处理返回步骤S103。在控制部700判定为未受理第1手写输入的情况下(步骤S123:否),处理进入步骤S125。
然后,在步骤S125中,控制部700判定是否从在步骤S123中判定为未受理第1手写输入和第2手写输入起经过了规定时间。规定时间例如是5分钟。
在控制部700判定为未经过规定时间的情况下(步骤S125:否),处理返回步骤S115。在控制部700判定为经过了规定时间的情况下(步骤S125:是),处理结束。
如参照图9说明的那样,通过在第2区域AR2进行第2手写输入,能够对第1区域AR1的第1图像PT1进行更新。因此,能够提高用户的便利性。
例如,在第1区域AR1中显示表示复杂的字符、图形、线条等的第1图像PT1的情况下,能够如下所述显示第1图像PT1。即,用户代替在第1区域AR1进行第1手写输入,在面积比第1区域AR1大的第2区域AR2以第1手写输入的规定的放大倍率(例如2倍)的大小进行第2手写输入,由此,能够在第1区域AR1中显示第1图像PT1。
如以上参照图1~图9说明的那样,本实施方式的显示方法包含以下步骤:受理对屏幕SC的第1手写输入;决定包含进行了第1手写输入的屏幕SC的位置的第1区域AR1;在第1区域AR1中显示与第1手写输入对应的第1图像PT1;在屏幕SC的第2区域AR2中显示以规定的放大倍率对第1图像PT1进行放大后的第2图像PT2;在第2区域AR2中受理第2手写输入;以及在与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置,以按照规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与第2手写输入对应的图像作为第1图像PT1的一部分。
即,在受理了第2手写输入时,在与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置,以按照规定的放大倍率(例如2倍)的倒数的缩小倍率(例如1/2倍)进行缩小后的大小,显示与第2手写输入对应的图像作为第1图像PT1的一部分。由此,通过针对第2区域AR2的第2手写输入,能够输入复杂的字符、图形、线条等作为第1图像PT1。因此,能够提高用户的手写输入的操作性。
此外,本实施方式的显示方法还包含以下步骤:在屏幕SC的不与第1区域AR1重叠的位置决定第2区域AR2。
由此,第2区域AR2不与第1区域AR1重叠,因此,用户能够一边进行针对第2区域AR2的第2手写输入,一边确认第1区域AR1的显示内容。因此,能够提高用户的手写输入的操作性。
此外,在本实施方式的显示方法中,屏幕SC为具有长边和短边的矩形,在所述决定第1区域AR1的步骤中,将第1区域AR1沿着屏幕SC的长边配置于一侧,在所述决定第2区域AR2的步骤中,将第2区域AR2沿着屏幕SC的长边配置于另一侧。
由此,第1区域AR1和第2区域AR2沿着屏幕SC的长边配置。因此,与沿着短边配置第1区域AR1和第2区域AR2的情况相比,容易配置第2区域AR2。其结果,能够提高用户的手写输入的操作性。
此外,在对第1区域AR1执行第1手写输入的情况下,在第2区域AR2中显示以规定的放大倍率对第1图像PT1进行放大后的第2图像PT2。因此,例如,在屏幕SC的长边为左右方向的情况下,在教室中,在教师对第1区域AR1执行第1手写输入的情况下,学生能够不被教师的身体妨碍地容易地看到第2区域AR2中显示的第2图像PT2。
此外,在本实施方式的显示方法中,第2区域AR2包含显示第2图像PT2的显示区域AR21和除了显示区域AR21以外的区域即空白区域AR22,空白区域AR22的面积大于显示区域AR21的面积。
由此,空白区域AR22的面积大于显示区域AR21的面积,因此,能够容易地执行针对第2区域AR2的第2手写输入。因此,能够提高用户的手写输入的操作性。
此外,在本实施方式的显示方法中,所述受理第1手写输入的步骤包含以下步骤:在第2区域AR2中显示第2图像PT2的期间内,受理对第1区域AR1的第1手写输入。
即,用户也可以进行针对第2区域AR2的第2手写输入和针对第1区域AR1的第1手写输入的某一方。因此,能够提高用户的手写输入的操作性。
此外,在本实施方式的显示方法中,在第2区域AR2中显示第2图像PT2的步骤包含以下步骤:在第1手写输入包含针对屏幕SC的规定面积的范围的规定次数以上的接触动作的情况下,在第2区域AR2中显示第2图像PT2。
由此,作为第1手写输入,例如在输入复杂的字符、图形、线条等时,显示第2区域AR2。因此,能够在适当的时刻显示第2区域AR2。
此外,本实施方式的显示方法还包含以下步骤:根据屏幕SC中的进行了第1手写输入的屏幕SC的位置,使屏幕SC中的第2区域AR2的位置移动。
因此,在第1手写输入的位置移动的情况下,也能够在第2区域AR2不与第1区域AR1重叠的位置决定第2区域AR2。
此外,本实施方式的显示方法还包含以下步骤:在屏幕SC中显示表示第1区域AR1的外缘的第1框图像PL1;以及在屏幕SC中显示表示第2区域AR2的外缘的第2框图像PL2。
由此,用户能够通过第1框图像PL1和第2框图像PL2,容易地识别第1区域AR1和第2区域AR2。因此,用户能够容易地执行针对第1区域AR1的第1手写输入和针对第2区域AR2的第2手写输入。其结果,能够提高用户的手写输入的操作性。
本实施方式的投影仪100具有:投射部200,其在屏幕SC中显示图像;位置检测部600,其检测针对屏幕SC的手写输入的位置;以及控制部700,其根据位置检测部600的检测结果对屏幕SC中显示的图像进行控制,控制部700执行以下步骤:根据位置检测部600的检测结果,受理对屏幕SC的第1手写输入;决定包含进行了第1手写输入的屏幕SC的位置的第1区域AR1;在第1区域AR1中显示与第1手写输入对应的第1图像PT1;在屏幕SC的第2区域AR2中显示以规定的放大倍率对第1图像PT1进行放大后的第2图像PT2;根据位置检测部600的检测结果,在第2区域AR2中受理第2手写输入;以及在与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置,以按照规定的放大倍率的倒数的缩小倍率进行缩小后的大小,显示与第2手写输入对应的图像作为第1图像PT1的一部分。
即,在受理了第2手写输入时,在与进行了第2手写输入的第2区域AR2的位置对应的第1区域AR1的位置,以按照规定的放大倍率(例如2倍)的倒数的缩小倍率(例如1/2倍)进行缩小后的大小,显示与第2手写输入对应的图像像作为第1图像PT1的一部分。由此,通过针对第2区域AR2的第2手写输入,能够输入复杂的字符、图形、线条等作为第1图像PT1。因此,能够提高用户的手写输入的操作性。
上述本实施方式是优选实施方式。但不限于上述实施方式,能够在不脱离主旨的范围内进行各种变形实施。
在本实施方式中,说明了规定的放大倍率是2倍的情况,但是,规定的放大倍率大于1即可。例如,规定的放大倍率也可以是1.1倍,还可以是1.5倍。此外,规定的放大倍率也可以大于2倍。例如,规定的放大倍率也可以是3倍,还可以是5倍。为了容易地针对第2区域AR2进行复杂的字符、图形、线条等的第2手写输入,优选规定的放大倍率是1.5倍~3倍。
此外,在本实施方式中,在进行了第1手写输入的情况下、或第1手写输入包含针对屏幕SC的规定面积的范围的规定次数以上的接触动作的情况下,控制部700判定为显示第2区域AR2,但是不限于此。例如,在第1手写输入是字符输入的情况下,控制部700也可以判定为显示第2区域AR2。
此外,在本实施方式中,说明了如下情况:根据进行了第1手写输入的位置决定第1区域AR1,根据第1区域AR1决定第2区域AR2,但是不限于此。例如,也可以根据第2手写输入的位置决定第2区域AR2。该情况下,能够更适当地决定第2区域AR2的位置。
此外,图4所示的各功能部示出功能性结构,具体的安装形式没有特别限制。即,不需要必须安装与各功能部单独对应的硬件,当然可以构成为一个处理器执行程序而实现多个功能部的功能。此外,上述实施方式中通过软件实现的功能的一部分也可以通过硬件实现,或者,通过硬件实现的功能的一部分也可以通过软件实现。除此之外,投影仪100的其他各部的具体的细节结构也能够在不脱离主旨的范围内任意变更。
此外,图9所示的流程图的处理单位是为了容易理解控制部700的处理而根据主要处理内容进行分割得到的。不受图9的流程图所示的处理单位的分割的方式或名称限制,还能够根据处理内容分割成更多的处理单位,还能够以一个处理单位包含更多的处理的方式进行分割。此外,上述流程图的处理顺序也不限于图示的例子。
此外,投影仪100的显示方法能够通过使投影仪100具有的处理器710执行与投影仪100的显示方法对应的控制程序来实现。此外,该控制程序还能够预先记录在以计算机可读取的方式记录的记录介质中。作为记录介质,能够使用磁记录介质、光学记录介质或半导体存储设备。具体而言,可举出软盘、HDD(Hard Disk Drive)、CD-ROM(Compact Disk ReadOnly Memory)、DVD(Digital Versatile Disc)、Blu-ray(注册商标)Disc、光磁盘、闪存、卡型记录介质等移动型或固定式的记录介质。此外,记录介质也可以是投影仪100具有的内部存储装置即RAM、ROM、HDD等非易失性存储装置。此外,还能够将与投影仪100的显示方法对应的控制程序存储在服务器装置等中,从服务器装置向投影仪100下载控制程序,由此,实现投影仪100的显示方法。
此外,在本实施方式中,以投影仪100为例进行了说明,但是,显示装置也可以是具有用于显示图像的光源和显示面板、以及触摸传感器的触摸面板显示器。

Claims (8)

1.一种显示方法,包含以下步骤:
受理对显示面的第1手写输入;
决定包含所述显示面的进行了所述第1手写输入的位置的第1区域;
在所述第1区域中显示与所述第1手写输入对应的第1图像;
复制所述第1图像;
在所述显示面的第2区域中显示以规定的放大倍率对所述复制的所述第1图像进行放大后的第2图像,所述第2图像除了大小以外与所述第1图像相同;
在所述第2区域中受理第2手写输入;
将与所述第2手写输入对应的第3图像显示于所述第2区域;
复制所述第3图像;
在与所述第2区域的进行了所述第2手写输入的位置对应的所述第1区域的位置,显示以所述规定的放大倍率的倒数的缩小倍率对所述复制的所述第3图像进行缩小后的第4图像,作为所述第1图像的一部分,所述第4图像除了大小以外与所述第3图像相同;以及
所述第1区域是具有受理所述第1手写输入的第1部分和显示所述第4图像的第2部分的连续的区域,所述第2区域是具有显示所述第2图像的第3部分和受理所述第2手写输入的第4部分的连续的区域,在所述显示面的不与所述第1区域重叠的位置决定所述第2区域。
2.根据权利要求1所述的显示方法,其中,
所述显示面为具有长边和短边的矩形,
在决定所述第1区域的步骤中,将所述第1区域沿着所述显示面的所述长边配置于一侧,
在决定所述第2区域的步骤中,将所述第2区域沿着所述显示面的所述长边配置于另一侧。
3.根据权利要求1或2所述的显示方法,其中,
所述第2区域包含显示所述第2图像的显示区域和空白区域,该空白区域是除了所述显示区域以外的区域,
所述空白区域的面积大于所述显示区域的面积。
4.根据权利要求1或2所述的显示方法,其中,
受理所述第1手写输入的步骤包含以下步骤:
在所述第2区域中显示所述第2图像的期间内,受理对所述第1区域的所述第1手写输入。
5.根据权利要求1或2所述的显示方法,其中,
在所述第2区域中显示所述第2图像的步骤包含以下步骤:
在所述第1手写输入包含对所述显示面的规定面积的范围的规定次数以上的接触动作的情况下,在所述第2区域中显示所述第2图像。
6.根据权利要求1或2所述的显示方法,其中,
所述显示方法还包含以下步骤:
根据所述显示面中的进行了所述第1手写输入的所述显示面的位置,使所述显示面中的所述第2区域的位置移动。
7.根据权利要求1或2所述的显示方法,其中,
所述显示方法还包含以下步骤:
在所述显示面中显示表示所述第1区域的外缘的第1区域图像;以及
在所述显示面中显示表示所述第2区域的外缘的第2区域图像。
8.一种显示装置,其具有:
显示部,其在显示面中显示图像;
检测部,其检测对所述显示面的手写输入的位置;以及
控制部,其根据所述检测部的检测结果对所述显示面中显示的图像进行控制,
所述控制部执行以下处理:
根据所述检测部的检测结果,受理对所述显示面的第1手写输入;
决定包含所述显示面的进行了所述第1手写输入的位置的第1区域;
在所述第1区域中显示与所述第1手写输入对应的第1图像;
复制所述第1图像;
在所述显示面的第2区域中显示以规定的放大倍率对所述复制的所述第1图像进行放大后的第2图像,所述第2图像除了大小以外与所述第1图像相同;
根据所述检测部的检测结果,在所述第2区域中受理第2手写输入;
将与所述第2手写输入对应的第3图像显示于所述第2区域;
复制所述第3图像;
在与所述第2区域的进行了所述第2手写输入的位置对应的所述第1区域的位置,显示以所述规定的放大倍率的倒数的缩小倍率对所述复制的所述第3图像进行缩小后的第4图像,作为所述第1图像的一部分,所述第4图像除了大小以外与所述第3图像相同;以及
所述第1区域是具有受理所述第1手写输入的第1部分和显示所述第4图像的第2部分的连续的区域,所述第2区域是具有显示所述第2图像的第3部分和受理所述第2手写输入的第4部分的连续的区域,在所述显示面的不与所述第1区域重叠的位置决定所述第2区域。
CN202111191759.9A 2020-10-15 2021-10-13 显示方法和显示装置 Active CN114374827B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020174003A JP2022065419A (ja) 2020-10-15 2020-10-15 表示方法、及び表示装置
JP2020-174003 2020-10-15

Publications (2)

Publication Number Publication Date
CN114374827A CN114374827A (zh) 2022-04-19
CN114374827B true CN114374827B (zh) 2023-12-01

Family

ID=81138466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111191759.9A Active CN114374827B (zh) 2020-10-15 2021-10-13 显示方法和显示装置

Country Status (3)

Country Link
US (1) US11550431B2 (zh)
JP (1) JP2022065419A (zh)
CN (1) CN114374827B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023023791A (ja) * 2021-08-06 2023-02-16 セイコーエプソン株式会社 表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022901A (ja) * 2012-07-18 2014-02-03 Sharp Corp 表示入力装置および表示入力方法
CN105808134A (zh) * 2015-01-21 2016-07-27 联想(新加坡)私人有限公司 在显示器上呈现手写输入的表示的装置、方法及设备
CN109656435A (zh) * 2017-09-29 2019-04-19 夏普株式会社 显示控制装置及记录介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3120085B2 (ja) * 1991-11-21 2000-12-25 株式会社セガ 電子装置及び情報担体
JP3579061B2 (ja) * 1992-08-31 2004-10-20 株式会社東芝 表示装置
JPH0877176A (ja) * 1994-09-07 1996-03-22 Hitachi Ltd 外国語翻訳装置
US5838302A (en) * 1995-02-24 1998-11-17 Casio Computer Co., Ltd. Data inputting devices for inputting typed and handwritten data in a mixed manner
JPH0926769A (ja) * 1995-07-10 1997-01-28 Hitachi Ltd 画像表示装置
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US9715252B2 (en) * 2011-08-24 2017-07-25 Z124 Unified desktop docking behavior for window stickiness
JP2003271294A (ja) 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
US7002560B2 (en) * 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
JP4683970B2 (ja) * 2005-03-24 2011-05-18 任天堂株式会社 タッチ入力プログラムおよびタッチ入力装置
US7750893B2 (en) * 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
KR20070034767A (ko) * 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
JP5360058B2 (ja) * 2008-06-30 2013-12-04 日本電気株式会社 情報処理装置、表示制御方法、及びプログラム
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9851747B2 (en) * 2010-05-21 2017-12-26 Peter G. Winsky Electronic book reader with closely juxtaposed display screens
JP5661547B2 (ja) * 2011-04-26 2015-01-28 京セラ株式会社 携帯端末装置およびプログラム
US20120318077A1 (en) * 2011-06-15 2012-12-20 Paca Roy Ergonomically enhanced System and Method for Handwriting
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US20150212647A1 (en) * 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102083918B1 (ko) * 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
JP5458161B1 (ja) * 2012-10-23 2014-04-02 株式会社東芝 電子機器および方法
KR102162836B1 (ko) * 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
US20150098653A1 (en) * 2013-10-07 2015-04-09 Kabushiki Kaisha Toshiba Method, electronic device and storage medium
US9411508B2 (en) * 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
JPWO2015107692A1 (ja) * 2014-01-20 2017-03-23 株式会社東芝 手書きのための電子機器および方法
KR102332468B1 (ko) * 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
JP6451446B2 (ja) * 2015-03-27 2019-01-16 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2016186678A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
JP5993072B1 (ja) 2015-08-27 2016-09-14 レノボ・シンガポール・プライベート・リミテッド 電子機器のユーザ・インターフェース、入力の処理方法および電子機器
US10514844B2 (en) * 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
US10503396B2 (en) * 2017-06-02 2019-12-10 Apple Inc. Device, method, and graphical user interface for simulating and interacting with handwritten text
US11157047B2 (en) * 2018-11-15 2021-10-26 Dell Products, L.P. Multi-form factor information handling system (IHS) with touch continuity across displays
JP2020123118A (ja) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020123115A (ja) * 2019-01-30 2020-08-13 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020160808A (ja) * 2019-03-27 2020-10-01 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020160807A (ja) * 2019-03-27 2020-10-01 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2020061179A (ja) 2019-12-27 2020-04-16 シャープ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7443819B2 (ja) * 2020-02-27 2024-03-06 セイコーエプソン株式会社 画像表示装置、画像表示方法、および画像表示プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022901A (ja) * 2012-07-18 2014-02-03 Sharp Corp 表示入力装置および表示入力方法
CN105808134A (zh) * 2015-01-21 2016-07-27 联想(新加坡)私人有限公司 在显示器上呈现手写输入的表示的装置、方法及设备
CN109656435A (zh) * 2017-09-29 2019-04-19 夏普株式会社 显示控制装置及记录介质

Also Published As

Publication number Publication date
JP2022065419A (ja) 2022-04-27
CN114374827A (zh) 2022-04-19
US11550431B2 (en) 2023-01-10
US20220121317A1 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
US8297757B2 (en) Projector and projector control method
US9521276B2 (en) Portable projection capture device
JP4838694B2 (ja) 電子的手書入力装置
US20140139668A1 (en) Projection capture system and method
CN104660946B (zh) 投影机及其控制方法
JP3733915B2 (ja) プロジェクタ
JP2008077087A (ja) 画像制御システム、画像制御方法、及びプログラム
JP5185586B2 (ja) 電子黒板
CN104658462B (zh) 投影机以及投影机的控制方法
CN111629190A (zh) 投影系统以及投影方法
CN114374827B (zh) 显示方法和显示装置
JP4590858B2 (ja) 書き込み可能プロジェクタおよび光ポインタ
JP2017129767A (ja) 反射体、光出射装置の調整方法、及び検出システム
US11902717B2 (en) Projection method and projector
KR101550606B1 (ko) 차량용 곡면 디스플레이 장치
JP5550111B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2008242100A (ja) 光学装置の製造装置、位置調整方法、位置調整プログラム、および記録媒体
JP7310649B2 (ja) 位置検出装置の制御方法、位置検出装置、及びプロジェクター
US20240231543A1 (en) Projection system, interactive projection method and projector
CN106993146A (zh) 控制方法、控制装置、投影机
EP4401402A1 (en) Projection system, interactive projection method and projector
JP2008249871A (ja) 広角プロジェクタ
JP2008242099A (ja) 光学装置の製造装置、位置調整方法、位置調整プログラム、および記録媒体
JP2009157307A (ja) プロジェクタ
JP2023179887A (ja) 投射画像の補正方法、プロジェクター、プロジェクションシステム、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant