CN104246683B - 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质 - Google Patents

在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质 Download PDF

Info

Publication number
CN104246683B
CN104246683B CN201380018937.5A CN201380018937A CN104246683B CN 104246683 B CN104246683 B CN 104246683B CN 201380018937 A CN201380018937 A CN 201380018937A CN 104246683 B CN104246683 B CN 104246683B
Authority
CN
China
Prior art keywords
input
user
display
transparent display
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201380018937.5A
Other languages
English (en)
Other versions
CN104246683A (zh
Inventor
尹国
尹一国
李昌秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2013/002907 external-priority patent/WO2013151400A1/en
Publication of CN104246683A publication Critical patent/CN104246683A/zh
Application granted granted Critical
Publication of CN104246683B publication Critical patent/CN104246683B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供了一种由包括显示器的装置执行的对象控制方法、装置及其计算机可读记录介质。所述对象控制方法包括:将至少一个对象显示在显示器上;通过显示器的输入界面来接收输入,其中,所述输入界面包括第一输入界面和第二输入界面中的至少一个;响应于接收到所述输入,如果输入界面是第一输入界面并且装置的预定输入界面是第一输入界面,则执行与所述预定输入界面相关联的第一功能,如果输入界面是第二输入界面并且所述预定输入界面是第二输入界面,则执行与所述预定输入界面相关联的第二功能。

Description

在包括透明显示器的装置中执行的对象控制方法、装置及其 计算机可读记录介质
技术领域
与示例性实施例一致的设备和方法涉及一种包括透明显示器的装置,更具体地,涉及一种包括透明显示器的装置中的对象控制方法、装置及其计算机可读记录介质。
背景技术
近年来,已开发了包括透明显示器的下一代显示装置。透明显示器具有使观看者能够看穿显示器并观看显示器后面的对象的透明度。
包括透明显示器的装置可以是执行操作的任何装置,其中,所述操作包括识别信息、处理信息和传递信息。也可通过使用透明电子元件来执行所述操作。
发明内容
技术问题
透明显示器的可用性已产生了一种对新颖且创新的与包括透明显示器的装置交互并扩大包括透明显示器的装置上的用户界面的功能性的方法的需求。
技术方案
一个或更多个示例性实施例提供一种基于输入(诸如,在包括透明显示器的装置的正面、背面和两面上的触摸)的对象控制方法、所述装置及其计算机可读记录介质。
一个或更多个示例性实施例还提供一种根据对象的状态或包括透明显示器的装置中的显示器的状态的引导显示方法、所述装置及其计算机可读记录介质。
一个或更多个示例性实施例还提供一种使用针对在包括透明显示器的装置中的每一个对象设置的触摸界面的对象控制方法、所述装置及其计算机可读记录介质。
有益效果
根据以上实施例,可在包括显示器的装置中,使用针对每一个对象设置的触摸界面来控制对象。
附图说明
通过参照附图对示例性实施例进行详细地描述,以上和/或其它方面将变得更清楚,其中:
图1是示出根据示例性实施例的对象和设置对象的用户输入界面的示图;
图2A是根据示例性实施例的包括透明显示器的装置的框图;
图2B是图2A的透明显示器的详细结构的剖视图;
图3是根据示例性实施例的由包括透明显示器的装置执行的对象控制方法的流程图;
图4到图20示出在图3的对象控制方法期间显示的屏幕的示例;
图21是根据另一示例性实施例的由包括透明显示器的装置执行的对象控制方法的流程图;
图22A和图22B示出在使用图21的对象控制方法改变用户输入界面期间显示的屏幕的示例;
图23是根据另一示例性实施例的在包括透明显示器的装置上的引导显示的显示方法的流程图;
图24示出显示引导的屏幕的示例;
图25是根据示例性实施例的包括透明显示器的装置的框图;
图26是示出根据示例性实施例的包括透明显示器的装置的存储单元中存储的软件的示图。
最佳实施方式
根据示例性实施例的一方面,提供了一种由包括显示器的装置执行的对象控制方法,所述方法包括:将至少一个对象显示在显示器上;通过显示器的输入界面来接收输入,其中,所述输入界面包括第一输入界面和第二输入界面中的至少一个;响应于接收到所述输入,执行以下操作:如果(i)输入界面是第一输入界面,(ii)所述装置的预定输入界面是第一输入界面,则执行与所述预定输入界面相关联的第一功能,如果(i)输入界面是第二输入界面,(ii)所述预定输入界面是第二输入界面,则执行与所述预定输入界面相关联的第二功能。
执行的步骤还可包括:如果(i)输入界面是第一输入界面和第二输入界面两者,(ii)所述预定输入界面是第一输入界面和第二输入界面两者,则执行与所述预定输入界面相关联的第三功能。
所述显示器可以是透明显示器。
第一输入界面可以是透明显示器的正表面和透明显示器的背表面中的一个,第二输入界面可以是透明显示器的正表面和透明显示器的背表面中的另一个。
所述输入可与所述至少一个对象相应,所述预定输入界面可与所述至少一个对象相应,并且所述预定输入界面可根据所述至少一个对象的显示环境和所述至少一个对象的操作中的至少一个被设置。所述显示环境可以是显示在显示器上的有效应用。
所述至少一个对象可包括第一对象和显示在第一对象的前表面上的第二对象,第二功能可包括改变第二对象的显示状态。
所述至少一个对象可包括显示在第一层上的第一窗口,其中,第一窗口与在第一层下面的第二层上显示的第二窗口部分重叠,第二功能可包括移动第二窗口。
所述至少一个对象可包括显示在第一层上的第一窗口,其中,第一窗口与在第一层下面的第二层上显示的第二窗口部分重叠,第二功能可包括将第二窗口显示在第一窗口上面。
所述输入可包括触摸大于第二输入界面的预定区域的区域,第二功能可包括将显示器的透明度设置为最大值。如果没有维持输入超过预定时间段,则第二功能还可包括返回到触摸第二输入界面之前的屏幕,其中,所述输入是触摸大于第二输入界面的所述预定区域的输入。
所述方法还可包括:响应于针对所述至少一个对象的输入界面编辑请求,显示编辑窗口,其中,编辑窗口包括关于针对所述至少一个对象的所述预定输入界面的信息;根据输入到编辑窗口的用户的输入,更新关于针对所述至少一个对象的所述预定输入界面的信息。
所述至少一个对象可包括第一对象和第二对象,其中,所述输入可包括针对通过第一输入界面接收到的第一对象的第一输入和针对通过第二输入界面接收到的第二对象的第二输入,第一功能可包括在控制第二对象的同时,根据通过第一输入界面接收到的第一输入来控制第一对象,第二功能可包括在控制第一对象的同时,根据通过第二输入界面接收到的第二输入来控制第二对象。
所述输入可包括针对所述至少一个对象的手势,所述手势可包括通过预定输入界面沿一个方向移动超过预定长度,第一功能可包括通过沿与手势相应的方向旋转所述至少一个对象来将所述预定输入界面改变为第二输入界面,第二功能可包括通过沿与手势相应的方向旋转所述至少一个对象来将所述预定输入界面改变为第一输入界面。
第二功能可包括基于所述至少一个对象的状态或显示器的状态来变化地显示与所述输入相应的引导。
第二功能可包括显示与所述输入的位置相应的引导。
所述方法可被实现在包括用于执行所述方法的指令的非暂时性计算机可读介质上。
根据另一示例性实施例的一方面,提供了一种执行对象控制方法的装置,所述装置包括:显示器,显示至少一个对象;输入界面,通过第一输入界面和第二输入界面中的至少一个接收输入;存储器,存储预定输入界面;处理器,响应于接收到所述输入,执行以下操作:如果(i)输入界面是第一输入界面,(ii)所述预定输入界面是第一输入界面,则执行与所述预定输入界面相关联的第一功能,如果(i)输入界面是第二输入界面,(ii)所述预定输入界面是第二输入界面,则执行与所述预定输入界面相关联的第二功能。
如果(i)输入界面是第一输入界面和第二输入界面两者,(ii)所述预定输入界面是第一输入界面和第二输入界面两者,则处理器还可执行与所述预定输入界面相关联的第三功能。
所述显示器可包括透明显示器。
第一输入界面可以是透明显示器的正表面和透明显示器的背表面中的一个,第二输入界面可以是透明显示器的正表面和透明显示器的背表面中的另一个。
第二功能可包括基于所述至少一个对象的状态或显示器的状态来变化地显示与所述输入相应的引导。
第二功能可包括显示与所述输入的位置相应的引导。
所述输入可包括触摸大于第二输入界面的预定区域的区域,第二功能可包括将显示器的透明度设置为最大值。此外,如果没有维持输入超过预定时间段,则第二功能还可包括返回到触摸第二输入界面之前的屏幕,其中,所述输入是触摸大于第二输入界面的所述预定区域的输入。
所述输入可与所述至少一个对象相应,所述预定输入界面还可与所述至少一个对象相应,并且所述预定输入界面可根据所述至少一个对象的显示环境和所述至少一个对象的操作中的至少一个被确定。
所述至少一个对象可包括第一对象和第二对象,第二功能可包括改变显示在第一对象的正表面上的第二对象的显示状态。
所述至少一个对象可包括显示在第一层上的第一窗口,其中,第一窗口与在第一层下面的第二层上显示的第二窗口部分重叠,第二功能可包括移动第二窗口。
所述至少一个对象可包括显示在第一层上的第一窗口,其中,第一窗口与在第一层下面的第二层上显示的第二窗口部分重叠,第二功能可包括从第一层下面的第二层移出第二窗口,并将第二窗口显示在第一窗口上面。
响应于针对所述至少一个对象的输入界面编辑请求,处理器可执行以下操作:显示编辑窗口,其中,编辑窗口包括关于针对所述至少一个对象的所述预定输入界面的信息;根据输入到编辑窗口的用户的输入,更新关于针对所述至少一个对象的所述预定输入界面的信息。
具体实施方式
示例性实施例允许有各种改变和很多修改。具体的示例性实施例将在附图中被示出,并在书面描述中被描述。然而,示例性实施例并不意图限制本发明构思或权利要求,将清楚的是:不脱离本发明构思的精神和技术范围内的全部改变、等同物和替代物包含在示例性实施例中。在示例性实施例的描述中,当现有技术的特定详细的解释被认为会不必要地模糊本发明构思的实质时,省略对现有技术的特定详细的解释。
在此使用诸如“第一”和“第二”的术语来描述各种构成元件,但所述构成元件并不限于这些术语。这些术语仅用于将一个构成元件与另一个构成元件区分的目的。
在此使用的术语中的一些术语是在与示例性实施例相关的技术领域中广泛使用的通用术语。然而,在此使用的术语中的一些术语被创建以反映本领域技术人员的发明、先例或新技术。也可由申请人任意地选择在此使用的术语中的一些术语。由此,应基于在此使用的特定术语的唯一含义并鉴于本发明构思的整体背景来理解这些术语。
如在此使用的,除非上下文清楚地另有所指,否则单数形式也意图包括复数形式。还将理解:当在本申请文件中使用术语“包括”时,指定存在声明的特征、整数、步骤、操作、元件、组件和/或上述项的组合,但不排除存在或附加一个或更多个其它特征、整数、步骤、操作、元件、组件和/或上述项的组合。此外,术语“和/或”包括相关联的列出项中的一个或更多个的任意组合和全部组合。附图中相同的标号表示相同的元件,因此在此将不重复对它们的描述。
在整个描述中,术语“对象”可被用于指示根据用户的意图可通过用户输入被选择并控制的所有的显示组件或显示的信息。对象可包括但不限于此:例如,第一图像、包括在第一图像中的第二图像、背景图像、图标、文件夹图标、包括在文件夹图标中的图标、文本、弹出窗口、应用执行窗口、包括在应用执行窗口中的内容、列表、包括在列表中的项、内容等。
可通过经由针对对象设置的用户输入界面(诸如,触摸输入侧)的用户输入(诸如触摸输入)来显示对象。例如,可根据在包括透明显示器的装置中被执行的功能隐藏对象,根据用户输入激活该对象,并显示该对象。
现在将参照附图详细地描述示例性实施例。
图1是示出根据示例性实施例的对象和针对每一个对象设置的用户输入界面的示图。
参照图1,当显示了列表时,滚动框、项目框、包括在项目框中的图标等是对象。用户可通过使用用户输入界面来输入对象的命令。图1示出对象之间的分层关系的示例。滚动框是最高层的对象,图标是最低层的对象。换言之,图1示出了这样的示例性实施例:在滚动框对象的子层中包括多个项目框对象,在每一个项目框对象的子层中包括图标对象。
如图1中所示,可预先设置每一个对象的用户输入界面。当产生了用于操作每一个对象的程序时,设置每一个对象的用户输入界面。也可根据针对较高层的对象设置的用户输入界面来设置较低层的对象的用户输入界面。
例如,在当产生了包括每一个对象的程序时没有设置图1的图标的用户输入界面的情况下,因为项目框是图标的父层并且图标是项目框的子层,所以图标的用户输入单元可被设置为针对项目框设置的用户输入界面。当显示图标时,可以执行图标的用户输入界面的设置。在当产生了包括每一个对象的程序时没有设置项目框和图标的用户输入界面的情况下,因为项目框和图标是滚动框的子层,所以可根据滚动框的预设用户输入界面来设置图标和项目框的用户输入界面。在这种情况下,当显示项目框和图标时,可根据滚动框的用户界面来设置项目框和图标的用户输入界面。
在如图1中所示设置了每一个对象的用户输入界面的情况下,滚动框根据通过背面输入界面输入的用户的输入来进行操作,item_box_1根据通过正面输入界面输入的用户的输入来进行操作,图标根据通过正面输入界面和/或背面输入界面输入的用户的输入来进行操作,文本根据通过正面输入界面输入的用户的输入来进行操作。
因此,在如图1中所示设置了每一个对象的用户输入界面的情况下,不会发生由于项目框或图标位于滚动暂停的位置所以错误地选择了项目框或图标的操作错误,这是由于滚动框通过将输入输入到背面输入界面而被操作,项目框仅可接收通过正面用户界面的输入,图标仅可接收通过正面用户界面和背面输入界面两者的输入。
此外,可基于显示对象的环境和对象的操作中的至少一个来确定针对图1中的对象设置的用户输入界面,但示例性实施例不限于此。
例如,可针对具有窄用户输入区域(或触摸区域)的对象来设置用户容易控制的正面输入界面,可针对具有宽用户输入区域的对象来设置用户相对不容易控制的背面输入界面。针对执行用户频繁使用的操作的对象,可设置用户容易控制的正面输入界面,针对用户没有频繁使用的对象,可设置用户相对不容易控制的背面输入界面。
在可根据用户输入界面将对象设置为执行多个操作的情况下,可将双面输入界面(即正面输入界面和背面输入界面)设置为对象的用户输入界面。可根据通过正面输入界面、背面输入界面和双面输入界面的用户输入来执行基于对象的执行操作。图1的对象可被称作微件(widget)。正面输入界面、背面输入界面和双面输入界面可被分别称作正面模式、背面模式和双面模式。
在整个申请文件中提到的输入界面或输入模式可以是透明显示器的触摸表面。因此,正面输入界面或正面输入模式可以是透明显示器的前触摸表面。背面输入界面或背面输入模式可以是透明显示器的后触摸表面。
在整个申请文件中提到的用户的输入可以是根据用户的手势提供的输入信息。可根据用户的输入的位置、方向、速度、触摸点数等来确定用户手势。也就是说,当输入设备基于触摸屏时,用户的手势可包括但不限于此:例如,轻击、触摸并保持、双击、拖动、平移、轻弹、拖放、扫动等。
可使用用户的手指或触摸工具(例如,手写笔)来形成触摸屏上的用户的手势。也可从相机或其它手势检测装置来接收用户的手势。在这种情况下,用户的手势可包括在空间中执行的手势,其中,所述手势基于通过使用相机捕捉的图像被确定。基于用户的运动的空间中执行的手势可通过装置的移动(例如,摇晃等)被确定。
当输入设备包括物理按钮、刻度盘、滑动开关、操纵杆、点击式转盘等中的至少一个时,用户的输入可以根据用户针对输入设备的物理控制。当输入设备是基于音频输入的设备时,用户的输入可以根据用户基于自然语言(或口语)的语音识别。
图2A是根据示例性实施例的包括透明显示器201的装置200的框图。包括图2的透明显示器201的装置200可以是但是不限于此:例如,智能电话、笔记本、平板、平板个人计算机(PC)、平板手机、移动装置、手持型装置或手持型PC、个人数字助理(PDA)等。透明显示器201也可被应用到各种领域,诸如,高附加值玻璃、用作功能性的车辆部件的玻璃、车辆仪表板、导航仪、安全电子装置、太阳能电池、游戏机、玩具、展示窗口、智能窗口等。
参照图2A,装置200包括透明显示器201、用户输入单元205、感测单元206、相机207、音频输入单元208、音频信号处理单元209、音频输出单元210、存储单元(存储器)211、通信单元212、端口213、供电单元214和处理器215。包括透明显示器201的装置200的结构不限于图2中所示出的结构。
透明显示器201可被称作触摸屏。透明显示器201包括:显示单元202,显示对象;正面输入单元(例如,正面输入界面)203,安装在显示单元202的前表面中,并接收基于触摸的用户的输入;背面输入单元(例如,背面输入界面)204,安装在显示单元202的后表面中,并且也接收基于触摸的用户的输入。正面输入界面和背面输入界面也可接收基于图像传感器、红外线传感器、接近传感器等的其它形式的用户的输入。
显示单元202输出包括由装置200处理后的对象的信息。信息可包括除对象之外的信息。除对象之外的信息可以被显示,并且该信息可被设置为无法通过用户的输入来选择该信息。
显示单元202可被配置为透明装置,并可通过调整透明装置的透光率或通过调整每一个像素的红绿蓝(RGB)值来调整透明度。显示单元202可具有有机发光二级管(OLED)和液晶显示器(LCD)彼此结合的结构。OLED可被布置为与正面输入单元203相邻。LCD可被布置为与背面输入单元204相邻。在显示单元202具有上述结构的情况下,显示单元202可正常地维持如同玻璃的透明状态,当供电时,显示单元202可被设置为处于不透明状态使得LCD阻挡光线。
响应于如下操作,显示单元202显示屏幕:通过正面输入单元203和/或背面输入单元204输入的用户的手势或触摸图案、通过用户输入单元205输入的用户的输入、通过感测单元206输入的用户的输入、通过相机207输入的用户的输入或通过音频输入单元208输入的用户的输入。显示在显示单元202上的屏幕包括用户界面(UI)或图形UI(GUI)。
显示单元202可被实施为以下显示器中的一个或更多个但不限于此:LCD、薄膜晶体管液晶显示器(TFT-LCD)、OLED、柔性显示器、3D显示器或有源矩阵OLED(AMOLED)、立体显示器、全息显示器等。根据装置200的实施方式,透明显示器201的数量可以是两个或更多个。
正面输入单元203和背面输入单元204包括用于接收基于触摸的用户的输入的触摸传感器。可选地,可存在多于两个的触摸传感器或用于接收用户的输入的其它类型的传感器。传感器可被用于根据分开输入到每一个输入界面的用户输入或同时输入到多个用户界面的用户输入的组合来提供执行不同的功能的无限制数量的输入界面。
根据示例性实施例,用于感测对正面输入单元203和背面输入单元204的触摸的传感器包括用于在正面输入单元203和背面输入单元204中检测用户的手势或图案的传感器。当在正面输入单元203和/或背面输入单元204中感测到拖动、轻弹、轻击、触摸并保持、双击、扫动等中的一个或更多个时,用于感测触摸的传感器可产生感测信号。触觉传感器可被用作用于检测正面输入单元203和背面输入单元204的触摸的传感器的示例。触觉传感器可感测各种类型的信息,诸如,触摸表面的粗糙度、触摸对象的硬度、触摸点的温度等。
正面输入单元203和背面输入单元204可被配置为减压输入单元(电阻式)或静止输入单元(电容式)。正面输入单元203和背面输入单元204中的用户输入识别可使用坐标信息。可将与发生触摸的位置相应的x轴坐标和y轴坐标识别为用户的输入。
可根据基于用户的手势的用户的请求或用户的选择发生用户的输入。可以各种方式(例如,根据触摸频率、触摸图案、触摸区域和触摸强度的各种组合)来确定用户的手势。可通过用户的手指或触摸工具(诸如,手写笔)来输入用户的输入。用户的手指或触摸工具可被称作外部输入设备。
正面输入单元203和背面输入单元204的触摸指示指示器触摸触摸面板的情况。触摸输入可包括多点触摸或多个触摸点。正面输入单元203和背面输入单元204的接近触摸指示指示器没有真正地触摸正面输入单元203或背面输入单元204但被确定为在正面输入单元203和背面输入单元204的预定距离内的情况。
指示器是用于触摸或接近触摸正面输入单元203和背面输入单元204的特定部分的工具。手写笔或用户的手指可被用作指示器。
可以以各种形式(诸如,透明LCD、透明薄膜电致发光(TFEL)面板、透明OLED、投影显示器等)来实现透明显示器201。现在将描述透明显示器201的结构的不同实施例。
透明LCD是在去除当前使用的LCD设备的背光单元的同时通过使用一对起偏振片、光学薄膜、透明薄膜晶体管(TFT)、透明电极等来实现的透明显示设备。
透明TFEL面板是包括透明电极、无机磷光体和绝缘薄膜的交流电无机TFEL(AC-TFEL)显示设备。AC-TFEL显示设备是通过使用在无机磷光体中加速的电极来激发磷光体而发光的显示器。在透明显示器201被实现为透明TFEL面板的情况下,处理器215可通过调整将被透射到适当位置的电子来确定信息显示位置。无机磷光体和绝缘薄膜具有透明特性,因此可以实现非常透明的显示器。
透明OLED是使用自发光OLED的透明显示设备。由于有机发光层是透明的,所以如果电极都被用作透明电极,则透明OLED可被实现为透明显示设备。OLED通过将从有机发光层的两边注入电子和空穴并在有机发光层将电子和空穴结合来发光。透明OLED设备使用这样的原理来在期望的位置注入电子和空穴并显示信息。
图2B是被实现为透明OLED的透明显示器140-1的详细结构的剖视图。
参照图2B,透明显示器140-1包括透明基板140-1、透明晶体管层142-1、第一透明电极143-1、透明有机发光层144-1、第二透明电极145-1和连接电极146-1。
透明基板141-1可使用具有透明属性的如同塑料或玻璃的聚合物材料。可根据将使用透明显示设备100的环境来确定透明基板141-1的材料。例如,有利地轻且柔性的聚合物材料可被移动显示设备使用,玻璃可被用作存储的展示窗口或通用窗口。透明晶体管层142-1是包括通过用透明材料(诸如,透明氧化锌、透明氧化钛等)替代给出的TFT不透明硅而产生的晶体管的层。透明晶体管层142-1可包括源极、栅极、漏极和各种双电极薄膜147-1和148-1以及将漏极和第一透明电极143-1电连接的连接电极146-1。虽然在图2B中透明晶体管层142-1包括单个透明晶体管(该晶体管包括源极、栅极和漏极),但是透明晶体管层142-1还可包括均匀地分布在显示表面的整个区域中的多个透明晶体管。处理器215可将控制信号施加到包括在透明晶体管层142-1中的每一个晶体管的栅极以驱动相应的透明晶体管并显示信息。
第一透明电极143-1和第二透明电极145-1被布置在相对于透明有机发光层144-1的相反方向上。第一透明电极143-1、透明有机发光层144-1和第二透明电极145-1形成透明OLED。
根据驱动显示器的方法,透明OLED可被分类为无源矩阵OLED(PMOLED)和有源矩阵OLED(AMOLED)。PMOLED具有像素被形成在第一透明电极143-1和第二透明电极145-1彼此交叉的部分的结构,而AMOLED具有具有用于彼此每个像素的TFT的结构。图2B示出AMOLED。
第一透明电极143-1和第二透明电极145-1中的每一个包括多个线电极。线电极彼此垂直地排列。如果第一透明电极143-1的线电极沿水平方向排列,则第二透明电极145-1的线电极沿垂直方向排列。由此,在第一透明电极143-1和第二透明电极145-1之间形成了多个交叉区域。如图2B中所示,透明晶体管被连接到交叉区域中的每一个。
处理器215使用透明晶体管以形成每一个交叉区域的电势。在通过将电子和空穴注入到来自每一个电极的透明有机发光层144-1并将它们彼此结合来产生电势的交叉区域中发光。在没有产生电势的交叉区域中不发光,由此,背景实际上是透明的。
铟锡氧化物(ITO)可被用作第一透明电极143-1和第二透明电极145-1。可选地,可使用新材料(诸如,石墨烯)。石墨烯是具有由碳原子形成的蜂窝状的平面结构的物质,并具有透明属性。此外,透明有机发光层144-1可由各种材料形成。
除了透明LCD之外,上述透明显示器201可被实现为投影显示器、透明TFEL面板和透明OLED。投影显示器将图像投射在如同平视显示器(HUD)的透明屏幕上并显示图像。
用户输入单元205产生用于控制装置200的操作的输入数据(或控制数据)和用户输入。用户输入单元205可包括键盘、圆顶开关(dome switch)、触摸板、鼠标、滚轮、滚轮开关(jog switch)、硬件按钮等。
感测单元206感测装置200的当前状态(诸如,装置200的位置、是否发生用户的触摸、装置200的方位、装置200的加速度或减速度等),并产生用于控制装置200的操作的感测信号。
感测单元206包括除用于感测正面输入单元203和背面输入单元204的触摸的传感器之外的传感器。例如,感测单元206可包括接近传感器。接近传感器是用于通过在不需要真实的物理触摸的情况下使用电磁场力或红外线来检测外部对象是否接近预定检测表面(例如,正面输入界面、背面输入界面等)或检测外部对象是否存在于检测表面附近的传感器。外部对象是位于装置200的外面的对象。接近传感器的示例包括透明光电传感器、直接反射光电传感器、镜面反射光电传感器、高频振荡光电传感器、电容光电传感器、磁光电传感器、红外光电传感器等。
相机207处理在电话会议模式下或拍摄模式下从图像传感器获得的图像帧(诸如,静止图像或运动图像)。经处理后的图像帧可被显示在显示单元202上。由相机207处理后的图像帧可被存储在存储单元211中或可通过通信单元212或端口213发送到外部装置。
相机207也可被配置为根据与通过背面输入单元204的拖动相应的用户的手势来沿向左方向或沿向右方向移动镜头的拍摄角度。相机207的数量根据装置200的结构可以是两个或更多个。相机207可被用作识别用户的空间手势的输入设备。
音频输入单元208在呼叫模式、记录模式或语音识别模式等下接收外部声音信号的输入。音频输入单元208可被配置为例如麦克风。音频输入单元208可以被配置为包括去除在接收外部声音信号的输入的处理期间发生的噪声的各种噪声去除算法。
通过使用音频输入单元208输入的声音信号可以是用于控制显示在根据示例性实施例的透明显示器201上的对象的用户的语音输入。也就是说,通过使用音频输入单元208输入的声音信号可包括基于用户的自然语言或口语的基于语音识别的用户输入信息。通过使用音频输入单元208输入的声音信号可被存储在存储单元211中或可通过通信单元212或端口213发送到外部装置。
音频信号处理单元209在音频输入单元208与处理器215之间和音频输出单元210与处理器215之间提供接口。例如,音频信号处理单元209将从音频输入单元208接收到的声音信号转换为可由处理器215处理的音频数据,并将音频数据发送到处理器215。音频信号处理单元209也可将从处理器215发送的音频数据转换为电声音信号,并将电声音信号发送到音频输出单元210。
音频输出单元210在呼叫模式或音频产生模式下输出从音频信号处理单元209接收到的声音信号或音频信号。音频输出单元210可被配置为扬声器。音频输入单元208和音频输出单元210可被整体地配置为头戴式耳机。
透明显示器201、用户输入单元205、感测单元206、相机207和音频输入单元208可根据在装置200与用户之间的用户界面的功能而被称作输入设备或输入/输出设备。例如,在装置200与用户之间的用户界面的功能包括触摸屏功能、声音识别功能和空间手势识别功能的情况下,用户输入单元205、感测单元206、相机207和音频输入单元208可被称作输入设备,透明显示器201可被称作输入/输出设备。
存储单元211存储被配置为由处理器215执行的至少一个程序和资源。至少一个程序包括执行根据示例性实施例的对象控制方法和引导显示方法的程序、装置200的操作系统程序和执行在装置200中设置的应用和装置200的各种功能(例如,通信功能和显示功能)所需的程序。资源包括执行上述程序所需的信息、用于控制在示例性实施例中提到的对象的用户界面屏幕信息和与用户的输入相应的对象控制功能信息。用于控制对象的用户界面屏幕信息可包括例如,针对每一个对象的输入界面的编辑窗口。资源还包括关于针对每一个对象设置的预定输入界面的信息。
存储在存储单元211中执行对象控制方法或引导显示方法的程序可被配置为被包括在包括对象的应用程序中。执行引导显示方法的程序可被配置为独立于应用程序的程序。也就是说,当装置200的操作模式被设置为执行引导显示方法时,执行引导显示方法的程序可被执行,或者不考虑执行的应用,当装置200通电时,所述程序被默认执行。
根据在下文中描述的各种示例性实施例,可在执行任意应用之后执行程序,并且如果完成了任意应用的执行,则可以不执行所述程序。例如,执行控制包括在电话簿应用中的对象的方法的程序或执行引导显示方法的程序可作为电话簿应用的一部分被执行,并且如果完成了电话簿应用的执行,则可终止执行控制包括在电话簿应用中的对象的方法的程序或执行引导显示方法的程序的操作。可选地,可执行引导显示方法而不管电话簿应用是否被执行。
存储单元211可被配置为单独包括存储用于执行装置200的各种功能所需的至少一个程序和装置200的操作系统程序的存储单元和存储根据各种示例性实施例执行对象控制方法或引导显示方法的一个或更多个程序的存储单元。
存储单元211可包括高速随机存取存储器、磁盘存储设备、非易失性存储器(诸如,闪存)或另一非易失性半导体存储器。因此,存储单元211可被称作存储器。
通信单元212可被配置为通过无线网络(诸如,无线互联网、无线内部网、无线电话网络、无线局域网(LAN)、Wi-Fi网络、Wi-Fi直连(WFD)网络、3G网络、4G长期演进(LTE)网络、蓝牙网络、红外数据协会(IrDA)网络、射频识别(RFID)网络、超宽带(UWB)网络、Zigbee网络或近场通信(NFC)网络)与外部电子装置(未示出)和服务器(未示出)发送并接收数据。
通信单元212可包括以下模块中的至少一个但不限于此:广播接收模块、移动通信模块、无线互联网模块、有线互联网模块、短距离通信模块和位置信息模块。
广播接收模块通过广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可包括卫星信道和地面信道。移动通信模块通过移动通信网络将无线信号发送到基站、外部电子装置(未示出)和服务器(未示出)中的至少一个,并且通过移动通信网络从基站、外部电子装置和服务器中的至少一个接收无线信号。无线信号可包括根据语音呼叫信号、会议电话呼叫或文本/多媒体消息的发送/接收的各种类型的数据。无线互联网模块是通过无线互联网连接进行通信的模块。有线互联网模块是用于有线互联网连接的模块。
短距离通信模块是用于短距离通信的模块。短距离通信技术可使用蓝牙、RFID、IrDA、UWB、Zigbee、WFD、NFC等。位置信息模块是用于确认或获得装置200的位置的模块。位置信息模块的示例是全球定位系统(GPS)模块。GPS模块从多个人造卫星接收位置信息。位置信息可包括坐标信息,其中,坐标信息包括纬度和经度。
端口可通过使用即插即用接口(诸如,通用串行总线(USB)端口(未示出)),将数据发送到外部装置(未示出)并从外部装置接收数据。即插即用接口是如果外部装置被插入装置200则自动起作用的模块。
供电单元214向装置200的各种元件供电。供电单元214包括一个或更多个电源(诸如,电池和交流(AC)电源)。装置20可不包括供电单元214,但可包括可被连接到外部供电单元(未示出)的连接单元(未示出)。
处理器215可包括控制装置200的通用操作的一个或更多个处理器。例如,处理器215可根据装置200的功能被划分为多个处理器。
处理器215通常可控制透明显示器201、用户输入单元205、感测单元206、相机207、音频输入单元208、音频信号处理单元209、音频输出单元210、存储单元211、通信单元212和端口213。因此,处理器215可被称作控制器、微处理器、数字信号处理器等。处理器215也可提供通过与输入设备相应的透明显示器201、用户输入单元205、感测单元206、相机207和音频输入单元208输入的用户的输入信息和基于透明显示器201的用户界面。
处理器215可执行与根据示例性实施例的对象控制方法或引导显示方法相关的至少一个程序。处理器215可通过从存储单元211读取程序或经由通信单元212从外部设备(诸如,应用提供服务器(未示出)或市场服务器(未示出))下载程序来执行程序。如上所述,与对象控制方法相关的程序可被包括在针对每一个应用的程序中。
处理器215可包括在装置200的各种功能模块和处理器215之间进行接口连接的接口功能单元。与根据示例性实施例的对象控制方法或引导显示方法相关的处理器215的操作可如图3、图21和图23的流程图所示被执行,这稍后将进行描述。
图3是根据示例性实施例的由装置200执行的对象控制方法的流程图。可由图2的处理器215执行图3的对象控制方法。
处理器215根据装置200的应用的执行或操作来显示至少一个对象(操作S301)。
处理器215针对显示的至少一个对象通过正面输入单元203和背面输入单元204中的至少一个接收用户的输入(操作S302)。
处理器215针对显示的至少一个对象来确定接收到的用户输入是否输入到预定输入界面(操作S303)。根据示例性实施例,处理器215检测是否通过正面输入界面、背面输入界面以及正面输入界面和背面输入界面两者接收到用户输入。处理器215随后将对象的预定输入界面和从用户输入检测到的输入界面进行比较。
如参照图1所述,预定输入界面可针对每一个对象被预先确定,或当对象根据较高层(或父层)的对象的预定输入界面被显示时,预定输入界面可被设置。当显示对象时,可映射针对显示的对象的预定输入界面。
处理器215基于操作S303的确定的结果来控制对象(操作S304)。根据示例性实施例,处理器215可基于对象的预定输入界面与从用户输入检测到的输入界面的比较结果,执行相应于与检测到的输入界面相匹配的预定输入界面的功能。
图4示出图3的对象控制处理的示例屏幕。参照图4,当屏幕410被显示在透明显示器201上时,随着与文件夹图标404相应的背面输入单元204的触摸位置被按压比检测透明显示器201的触摸所需的时间更长的预定时间段(即,触摸并保持手势),屏幕410被改变为屏幕420。也就是说,屏幕410的文件夹图标404被改变为沿正面输入单元203的方向展开的屏幕420的文件夹图标404’。如果放开正被按压的触摸位置,则具有展开的文件夹图标404’的屏幕420返回到屏幕410。图4的屏幕410和屏幕420示出:当在图3的操作S301中显示了多个对象402到410时,在操作S304中,根据针对第一对象401的用户的输入411来改变显示在第一对象401(窗口)的正面上的第二对象(文件夹图标404)的显示状态,其中,第一对象401的预定输入界面是背面输入单元204。
在这点上,如果针对与第二对象相应的文件夹图标404的预定输入界面是正面输入单元203,则用户可基于通过正面输入单元203的用户输入来控制包括在展开的文件夹图标404’中的图标的执行。
图5示出图3的对象控制处理的另一示例屏幕。此屏幕示例示出如下情况:通过触摸与在窗口501(第一对象)上的文件夹图标404(在图5中示出的404)相应的背面输入单元204的触摸位置并随后沿方向502拖动触摸位置,来将文件夹图标404移动到屏幕520的位置,其中,窗口501的预定输入界面是背面输入单元204。因此,当移动文件夹图标404时,由于用户的手从透明显示器201的背面来执行手势,所以文件夹图标404、相邻文件夹图标407和整个窗口501不再由于用户的手而被遮挡。此外,屏幕520上的图标可以由于文件夹图标404的移动而自动地重新排列。
如参照图4所述,图5的屏幕510和屏幕520示出:根据针对第一对象501的用户的输入来改变显示在第一对象501的正面上的第二对象404的显示状态,其中,第一对象501的预定输入界面是背面输入单元204。
图6示出图3的对象控制处理的屏幕的另一示例。当在窗口401上触摸了与图标402相应的背面输入单元204的触摸位置时,在屏幕620上显示指示触摸时间或触摸强度(例如,触摸压力)的进度条601,其中,窗口401的预定输入界面是背面输入单元204。随着触摸时间持续或触摸强度增加,屏幕620改变为屏幕630,并且屏幕630改变为屏幕640。如屏幕640中所示,当进度条610完全充满时,如屏幕650中所示可删除图标402。
如参照图4所述,图6的屏幕610到屏幕650示出根据针对第一对象401的用户的输入来改变(删除)显示在第一对象401的正面上的第二对象402的显示状态。也就是说,根据通过背面输入单元204的输入来删除第二对象402,其中,针对第二对象402,背面输入单元204被设为预定输入界面。
图7示出图3的对象控制处理的另一示例屏幕。
图7的屏幕710和屏幕720示出窗口711从较低层到较高层的移动。根据通过背面输入单元204输入的用户的输入,当多个窗口711和窗口712彼此重叠时,将窗口712移动到较低层。因此,通过在屏幕720上的窗口711的较低层上显示窗口712而将窗口712隐藏。
较低层的窗口711的预定输入界面是正面输入单元203,并且较低层的窗口711的背景层(未示出)的预定输入界面是背面输入单元204,通过针对背景层(未示出)的背面输入单元204的用户的手势,可移动较低层的窗口711,并将较低层的窗口711显示在较高层上。
图7的屏幕730和屏幕740示出根据通过背面输入单元204输入的用户的输入而从透明状态到不透明状态的改变。也就是说,当显示屏幕730,并且背面输入单元204是第一对象731的预定输入界面时,通过经由背面输入单元204执行从上端到下端的拖动手势作为用户输入将屏幕740的上端从透明状态改变为不透明状态。
图7的屏幕730和屏幕740示出根据针对第一对象731的用户的输入来改变显示单元202的状态,其中,针对第一对象731,背面输入单元204是预定输入界面。
图8示出图3的对象控制处理的另一示例屏幕。
图8示出:显示了彼此重叠的多个对象,并且背面对象802的预定输入界面是背面输入单元204,正面对象803的预定输入界面是正面输入单元203。
因此,如屏幕820中所示,通过触摸与背面对象802相应的背面输入单元204的触摸位置并沿方向805拖动触摸位置来移动屏幕810的背面对象802。
如屏幕830中所示,通过触摸与正面对象803相应的正面输入单元203的触摸位置并沿方向831拖动触摸位置来移动屏幕810的正面对象803。
正面输入单元203被设置为针对背面对象802和正面对象803的预定输入界面,并且可根据针对背面输入单元204的用户的输入来移动背面对象802,其中,背面输入单元204是针对背景对象801的预定输入界面。在这种情况下,如参照图4所述,图8的屏幕810和屏幕820示出:根据针对第一对象801的用户的输入来改变显示在第一对象(即,背景对象801)的正面上的第二对象(即,背面对象802)的显示状态,其中,针对第一对象,背面输入单元204是预定输入界面。
图9示出图3的对象控制处理的另一示例屏幕。
图9示出装置的锁定屏幕的示例。也就是说,当根据针对正面输入单元203的用户的输入和根据针对背面输入单元204的用户的输入来对屏幕解锁时,可显示不同的主屏幕(或菜单屏幕)。
屏幕910和屏幕920根据针对正面输入单元203的用户的输入被解锁。屏幕930和屏幕940根据针对背面输入单元204的用户的输入被解锁。
图9可适用于正面解锁用户和背面解锁用户彼此不同的时候。
正面输入单元203和背面输入单元204是对象911(用于执行解锁功能的屏幕)的预定用户输入界面,响应于通过正面输入单元203输入的用户输入,屏幕910和屏幕920执行针对对象911预先确定的第一功能,响应于通过背面输入单元204输入的用户输入,屏幕930和屏幕940执行针对对象91预先确定的第二功能。
图10示出图3的对象控制处理的另一示例屏幕。在图10中,通过正面输入单元203选择了文本1001,使得如屏幕1020中所示,背面输入单元204被划分为三个区域1021、1022、1023以设置选择的文本1001的类型、大小和颜色。文本类型、文本大小、文本颜色被反映到选择的文本1001上,并被显示在屏幕1020上,其中,文本类型、文本大小、文本颜色可通过执行基于在区域1021、1022和1023中的每一个区域上的背面触摸的手势(诸如,滚动手势)而被选择。
如参照图10所述,图10的屏幕1010和屏幕1020示出:正面输入单元203和背面输入单元204是对象1001的预定用户输入界面,响应于通过屏幕1010的正面输入单元203输入的用户的输入来执行针对对象1001的第一功能(例如,如以上提到的划分为三个区域的功能),响应于通过屏幕1020的背面输入单元204输入的用户的输入来执行针对对象1001的第二功能(例如,文本类型设置、文本大小设置和文本颜色设置)。
图11示出图3的对象控制处理的另一示例屏幕。
参照图11,使用相机207拍摄了图片对象1101,通过针对屏幕1110的对象1101的正面输入单元203执行放大手势1102来将屏幕1110扩大到屏幕1111,通过针对屏幕1120的正面输入单元203执行缩小手势1103来将屏幕1110减小到屏幕1121。
此外,通过触摸对象1101的背面输入单元204的触摸位置并沿方向1104拖动触摸位置来调整相机207的镜头的拍摄角度,因此屏幕1100改变为屏幕1130。通过触摸对象1101的背面输入单元204的触摸位置并沿方向1105拖动触摸位置来调整相机207的镜头的拍摄角度,因此屏幕1100改变为屏幕1140。
如参照图11所述,图11的屏幕1100到屏幕1140示出:正面输入单元203和背面输入单元204是对象1101的预定用户输入界面,响应于通过正面输入单元203输入的用户的输入来执行针对对象1101预先设置的第一功能(放大或缩小),响应于通过背面输入单元204输入的用户输入来执行针对对象1101预先设置的第二功能(拍摄屏幕改变或拍摄区域改变)。
图11可应用到全景功能。可通过输入到背面输入单元204的用于在图片对象1101中捕捉全景图的手势来改变相机镜头的角度。此外,可通过经由使用输入到背面输入单元204的手势来移动全景照片或照片的视角,观看全景照片。
图12示出图3的对象控制处理的另一示例屏幕。图12示出与系统音量控制功能(诸如,铃声的控制)和当装置200播放媒体内容时的音量控制功能相关的屏幕。
当通过用户输入单元205请求音量控制时,在显示了屏幕1200的情况下,通过针对正面输入单元203的用户的输入来执行系统音量控制(屏幕1210),并通过针对背面输入单元204的用户的输入来执行媒体音量控制1221(即,正重现的媒体文件的音量)(屏幕1220)。
如参照图9所述,图12的屏幕1200到屏幕1220示出:正面输入单元203和背面输入单元204是对象1201的预定用户输入界面,响应于通过正面输入单元203输入的用户的输入来执行针对对象1201预先设置的第一功能(系统音量控制功能),响应于通过背面输入单元204输入的用户的输入来执行针对对象1201预先设置的第二功能(媒体音量控制功能)。如果检测到通过正面输入单元203输入的用户输入,则将系统音量控制的消息显示在显示单元202上,如果检测到通过背面输入单元204输入的用户的输入,则将媒体音量控制的消息1221显示在显示单元202上。
图13示出图3的对象控制处理的另一示例屏幕。图13的屏幕1300、1310、1320和1330示出根据作为对象1301的预定输入界面的正面输入单元203和背面输入单元204执行的不同功能。
更详细地,通过针对显示在屏幕1300上的对象1301的正面输入单元203的用户触摸,对象1301进入了不透明状态(屏幕1310)。通过针对显示在屏幕1300上的对象1301的背面输入单元204的用户触摸,除对象1301之外的背景进入了不透明状态(屏幕1320)。通过针对显示在屏幕1300上的对象1301的正面输入单元203和背面输入单元204的同时发生的用户触摸,对象1301的背景和对象1301本身都进入了不透明状态(屏幕1330)。
图13可适用于用户可根据当显示作为图像编辑窗口的对象时的触摸表面直观地看出编辑目标的差异的情况。例如,屏幕1310可通过针对对象1301的正面输入单元203的用户触摸来显示被设置为编辑目标的对象1301的内部区域,屏幕1320可通过针对对象1301的背面输入单元204的用户触摸来显示被设置为编辑目标的对象1301的外部区域,屏幕1330可通过针对对象1301的正面输入单元203和背面输入单元204的用户触摸来显示被设置为编辑目标的整个屏幕。
图14示出图3的对象控制处理的另一示例屏幕。在图14中,正面输入单元203和背面输入单元204是对象的预定输入界面,并根据在正表面和背表面的每一个输入来执行不同功能。
也就是说,屏幕1400示出根据通过针对对象1401的正面输入单元203输入的用户的输入来重现运动图像。因此,可在运动图像的重现期间,通过正面输入单元203执行与运动图像的生成相关的基本功能(快进功能、倒回功能、播放功能等)。在重现运动图像的同时,当根据针对背面输入单元204的用户触摸来使运动图像定格(屏幕1410)时,根据输入到背面输入单元204的用户的手势来捕捉定格的画面(屏幕1420)。手势的示例可以是在背面输入单元204上触摸并沿向上的方向拖动。
图15示出图3的对象控制处理的另一示例屏幕。在图15中,正面输入单元203和背面输入单元204是对象的预定输入界面,并根据输入到正表面和背表面的输入来分别执行不同功能。
也就是说,根据针对对象1511的正面输入单元203的用户的触摸并拖动手势来改变页面(屏幕1510和屏幕1520)。根据针对对象1511的背面输入单元204的用户的触摸并拖动手势来沿拖动方向移动顶部状态条,并改变顶部状态条的内容(屏幕1510和屏幕1530)。
根据示例性实施例,如根据针对背面输入单元204的用户的触摸并拖动手势的屏幕1540和根据针对正面输入单元203的用户的触摸并拖动手势的屏幕1520中所示,在页面改变功能中跳过的页面的数量可以是不同的。例如,可根据针对正面输入单元的用户的触摸并拖动手势来改变每一个页面(屏幕1520),并根据针对背面输入单元204的用户的触摸并拖动手势来改变每一个第二页面(屏幕1540)。可选地,根据针对正面输入单元203的用户的触摸并拖动手势提供的页面和根据针对背面输入单元204的用户的触摸并拖动手势提供的页面可被不同地设置。
图16示出图3的对象控制处理的另一示例屏幕。在图16中,正面输入单元203和背面输入单元204是对象1611的预定输入界面,并根据正表面和背表面来执行不同功能。
也就是说,当闹钟响了时,可通过针对对象1611的正面输入单元203的用户的输入将闹钟停止(屏幕1610)。此外,可通过针对背面输入单元204的用户的输入再次设置闹钟时间(屏幕1620)。闹钟时间可被触摸并随后沿向上方向或向下方向拖动。
图17示出图3的对象控制处理的另一示例屏幕。在图17中,正面输入单元203和背面输入单元204是对象1713的预定输入界面,并根据正表面和背表面来执行不同功能。
根据通过针对对象1713的正面输入单元203的用户的输入排列的虚拟键来输入信息,并且通过针对背面输入单元204的用户的输入1714来改变虚拟键的模式。也就是说,通过针对背面输入单元204的一次触摸来将屏幕1710的对象1713改变为屏幕1720的数字键排列,并在针对背面输入单元204的双触摸时将屏幕1710的对象1713改变为屏幕1730的字母键排列。
图18示出图3的对象控制处理的屏幕示例屏幕。在图18中,响应于触摸大于背面输入单元204的预定区域的用户的输入,将对象1811的透明度设置为最大值。
也就是说,当屏幕1810显示在显示单元202上时,如果如屏幕1820所示,触摸大于背面输入单元204的预定区域,则可将显示单元202的透明度设置为最大值和最小值(即最大不透明度)之间的值。虽然可通过暂时将显示单元202断电来将透明度设置为最大值,但是示例性实施例不限于此。根据示例性实施例,接近传感器可被用于确定触摸是否大于预定区域。
如果如屏幕1820上所示,触摸手势没有维持超过预定时间段,则显示单元202返回到发生触摸之前显示的屏幕1830。然而,如果触摸手势维持超过预定时间段,则显示单元202的透明度维持在设置为最大值的状态下(屏幕1840)。虽然可将超过预定时间段设置为例如超过3分钟,但是示例性实施例不限于此。
图19示出图3的对象控制处理的另一示例屏幕。在图19中,改变了对象1911的预定输入界面。
也就是说,响应于针对显示的对象1911的输入界面编辑请求,显示了编辑窗口1921(屏幕1910),其中,编辑窗口包括关于对象1911的预定输入界面的信息。输入界面编辑请求可通过经由正面输入单元203或背面输入单元204使用预定用户的手势或预定菜单被输入。
可将关于对象1911的预定输入界面的信息更新为通过基于编辑窗口1921接收到的用户的输入改变的输入界面信息1921(屏幕1920和屏幕1930)。在图19中,可将针对对象1911预先确定的正面输入单元203改变为背面输入单元204。
图20示出图3的对象控制处理的另一示例屏幕。在图20中,根据用户的输入来同时控制被设置不同输入界面的对象2012和对象2013,这可被理解为多任务。
也就是说,如果如屏幕2020上所示,针对通过正面输入单元203的屏幕2010上的对象2012的用户的输入和针对通过背面输入单元204的对象2013的用户的输入是到达期望位置的拖动手势,如屏幕2030上所示,可同时改变对象2012和对象2013的显示位置。
标号2014表示指示显示的对象2012的预定输入界面的屏幕信息。屏幕信息2014可让用户直观地知道显示的对象2012的预定输入界面是正面输入单元203。
根据处理器215的操作提供了图4到图20的上述屏幕。此外,参照图4到图20描述的用户的手势不限于以上描述的那些。
图21是根据另一示例性实施例的由包括透明显示器201的装置200执行对象控制方法的流程图。还由处理器215执行图21的对象控制方法。
在图21中,图3的对象控制操作被改变为使对象旋转并更新对象的预定输入界面的操作。因此,图21的操作S2101到S2103与图3的操作S301到S303相同,因此,在此将省略重复的描述。
作为在操作S2103中确定的结果,当通过对象的预定输入界面(例如,正面输入单元203或背面输入单元204)接收到用户的输入并随后出现沿一个方向移动超过预定长度的用户的手势时,处理器215使对象沿与用户的手势相应的方向旋转并将对象的预定输入界面改变为另一输入界面(操作S2104)。由此,如果对象的预定输入界面是正向输入单元203,则可根据用户的输入和用户的手势将对象的输入界面改变为背面输入单元204。如上所述,由于可独立地指定针对每一个对象的输入界面,所以可存在具有各种各样形状的用户界面,并且可降低根据双表面的使用的实现的复杂度。此外,如图1中所示,可针对显示在屏幕上的多个对象,设置不同输入界面。
图22A示出在多个对象2202-2210之中使对象2210旋转并针对对象2210改变输入界面的示例屏幕。也就是说,如按顺序的屏幕2250和屏幕2260中所示,在屏幕2240上出现针对对象2210沿方向2212移动的用户手势2211,因此,使对象2210旋转。在屏幕2260中,对象2210旋转了180度,因此改变了对象2210的图像的正面和背面。
如果根据对象2210的旋转改变了对象2210的显示表面,则处理器215将针对对象2210的预定输入界面改变为背面输入单元204(操作S2104)。
图22B示出:在针对正面输入单元203和背面输入单元204设置了多个对象之后,对象2210执行另一功能的情况下,根据对象2241的旋转改变与正面输入单元203和背面输入单元204相应的功能的示例屏幕。
也就是说,图22B是将对象2241的正面输入单元203设置为针对迷你日记的输入界面的应用并将背面输入单元204设置为针对商店的输入界面的应用的情况。如在屏幕2240、屏幕2250、屏幕2260上所示,根据上述沿方向2242的旋转,商店应用被显示在装置200的正面,商店应用的输入界面被设置为正面输入单元203,迷你日记应用被显示在装置200的背面,迷你日记应用的输入界面被设置为背面输入单元204。由此,装置200可根据通过对象2241的正面输入单元203接收到的用户的输入来执行商店功能,并根据通过对象2241的背面输入单元204接收到的用户的输入来执行迷你日记功能。
图23是根据示例性实施例的由包括透明显示器201的装置200执行引导显示方法的流程图。由处理器215执行引导显示方法。引导可包括指示针对背面输入单元204感测到用户的输入的位置(触摸位置)的任何信息。
处理器215根据任意应用的执行将至少一个对象显示在显示单元上(操作S2301)。如果不管针对显示的对象的预定输入界面如何,输入单元接收用户的输入(操作S2302),引导显示接收到用户的输入的位置(操作S2303)。基于接收到用户的输入的点上显示的对象的状态,可变化地显示引导。引导被称作指示符。
对象的状态或显示单元的状态可包括基于透明度的状态。因此,可根据对象的透明度或显示单元的透明度来显示具有不同图像或不同透明度的引导。对象的透明度可考虑与对象相邻的区域的透明度。显示单元的状态可包括触摸强度。
图24示出显示引导的示例屏幕。随着通过背面输入单元204感测到针对包括在列表中的文本4对象的用户的输入2401并由此在文本4对象的位置上显示虚拟引导2402,图24的屏幕2400可让用户直观地知道通过背面输入单元204触摸了文本4对象。此外,用户可根据引导的透明度的变化,直观地知道用于触摸背面输入单元204的触摸强度。
屏幕2410在显示了选择的对象的整个表面上显示虚拟引导。屏幕2410可让用户直观地知道通过针对文本4对象的背面输入单元204用户触摸的发生。文本4对象的栏的颜色可根据触摸强度变化。
此外,如屏幕2420上所示,在通过触摸并拖动背面输入单元204来沿方向2422移动对象2421时,在维持背面输入单元204上的触摸的同时通过正面输入单元203触摸对象2421的情况下,可继续在背面输入单元204中执行针对对象2421的操作。也就是说,如屏幕2430上所示,可继续执行通过触摸并移动对象2421来沿方向2431移动对象2421的操作。
图25是根据示例性实施例的装置的框图。
参照图25,装置可包括透明显示器2501、处理器1502和存储单元2503。
透明显示器2501(如同图2A的透明显示器201)包括正面输入单元203、背面输入单元204和显示单元202。透明显示器2501通过正面输入单元203和背面输入单元204中的至少一个来接收用户的触摸输入,并显示与用户的触摸输入相应的对象。
存储单元2503存储关于针对至少一个对象的预定输入界面的信息,和用于执行根据示例性实施例的对象控制方法和引导显示方法的程序。也就是说,可将按照如图26中示出的软件结构的数据存储在存储单元2503。图2A的存储单元211也可存储按照如图26中示出的软件结构的程序和资源。
具体地,主要可使用触摸模式数据2612、触摸输入分类模块2622和触摸模式估计模块2664,其中,触摸模式数据2612包括针对图26的每一个对象的触摸模式或预定用户输入界面的设置值,触摸输入分类模块2622将输入触摸进行分类。
图26是用于解释根据示例性实施例的包括透明显示器的装置的存储单元中存储的软件层的示图。
参照图26,软件层包括存储模块2600、传感器和识别模块2620、消息模块2650、拨号服务模块2640、多媒体模块2665、UI和图形模块2661和备注(legend)模块2670,但软件层不限于此。
存储模块2600包括作为通用数据存储单元的系统数据库2611(诸如,地址簿、环境信息等),和触摸模式数据区域2612,其中,触摸模式数据区域2612存储根据本发明的针对每一个对象的触摸模式的设置值。
传感器和识别模块2620包括识别在正面输入单元203和背面输入单元204中的触摸和将输入触摸进行分类的模块2622。将输入触摸进行分类的模块2622包括:正面输入模块2623,将针对正面输入单元203的输入传递到事件处理器2662,背面输入模块2624,将针对背面输入单元204的输入传递到事件处理器2662,双面模式2625,将针对双面触摸(正面输入单元203和背面输入单元204)的输入传递到事件处理器2662。
消息模块2650包括关于通过互联网连接用户之间的对话的即时模块2651、关于短消息服务(SMS)文本服务和多媒体消息的模块2652以及用于电子邮件的模块2653。
拨号服务模块2640包括用于促进呼叫连接的信息检索模块2642和用于基于互联网语音协议(VoIP)通过互联网发送语音。
多媒体模块2665包括运动图像播放模块2666运动图像和静止图像拍摄模块2667以及声音播放模块2668。
UI和图形模块2661包括用于通过窗口管理器接收触摸输入的X11模块2662、在屏幕上输出由用户看到的所有对象的模块2663以及关于针对每一个对象和当前触摸输入存储的模式设置值的估计模块2664。
如上所述,可将具有各种结构的程序存储在存储单元2503中,且不限于图26中所示的那些。
处理器2502可通过使用存储在存储单元2503中的程序来执行根据上述示例性实施例的操作。处理器2502控制透明显示器显示至少一个对象,确定通过至少一个输入界面接收到的用户的输入是否已输入到针对对象的预定输入界面,并基于确定来控制对象。
根据示例性实施例的对象控制方法或引导显示方法可被实现为存储在计算机可读记录介质(诸如,非暂时性计算机可读介质)上的计算机可读代码。计算机可读介质可以是能够存储由计算机系统读取的数据的任何记录设备(诸如,只读存储器(ROM)、随机存储存储器(RAM)、光盘(CD)-ROM、磁带、软盘、光数据存储装置等)。计算机可读介质可分布在通过网络相互连接的计算机系统之间,并且示例性可被存储并被实现为分布系统中的计算机可读代码。
虽然已经具体示出并描述了示例性实施例,但是本领域普通技术人员将理解,在不脱离由权利要求限定的本发明构思的精神和范围的情况下,可对其在形式上和细节上做出各种改变。

Claims (12)

1.一种由包括透明显示器的装置执行的对象控制方法,所述方法包括:
将第一对象和第二对象显示在透明显示器上,其中,第一对象与第二对象不同,并且,第一对象在透明显示器上的显示位置与第二对象在透明显示器上的显示位置相同;
响应于在第一对象和第二对象被显示时通过透明显示器的第一表面接收到对第一对象的触摸输入,执行与第一对象相应的对象特定功能;
响应于在第一对象和第二对象被显示时通过透明显示器的第二表面接收到对第二对象的触摸输入,执行与第二对象相应的对象特定功能,其中,对第一对象的触摸输入与对第二对象的触摸输入不同;以及
响应于接收到对第一对象的触摸输入和对第二对象的触摸输入,同时控制与第一对象相应的对象特定功能和与第二对象相应的对象特定功能。
2.如权利要求1所述的方法,其中,
第一表面是透明显示器的正表面和透明显示器的背表面中的一个,第二表面是透明显示器的正表面和透明显示器的背表面中的另一个。
3.如权利要求1所述的方法,其中,第二对象被显示在第一对象的前表面上,并且与第二对象相应的对象特定功能包括改变第二对象的显示状态。
4.如权利要求1所述的方法,其中,第一对象被显示在第一层上,其中,第一对象与在第一层下面的第二层上显示的第二对象部分重叠,其中,与第二对象相应的对象特定功能包括移动第二对象。
5.如权利要求1所述的方法,其中,第一对象被显示在第一层上,其中,第一对象与在第一层下面的第二层上显示的第二对象部分重叠,其中,与第二对象相应的对象特定功能包括将第二对象显示在第一对象上面。
6.如权利要求1所述的方法,还包括:
响应于接收到将大于第二表面的预定区域的区域激活的触摸输入,将透明显示器的第二表面的透明度设置为最大值。
7.如权利要求6所述的方法,还包括:
如果维持将大于第二表面的所述预定区域的区域激活的触摸输入少于预定时间段,则返回到接收到将大于所述预定区域的区域激活的触摸输入之前的透明显示器的第二表面的透明度。
8.如权利要求1所述的方法,还包括:
响应于接收到针对用于显示第一对象和第二对象之中的至少一个对象的透明显示器的表面的编辑请求,显示编辑窗口,其中,编辑窗口包括用于选择第一对象和第二对象之中的至少一个对象的信息;
根据输入到编辑窗口的用户的输入,更新关于针对第一对象和第二对象之中的至少一个对象的表面的信息。
9.如权利要求1所述的方法,其中,对第一对象的触摸输入包括通过第一表面沿一个方向移动超过预定长度,
其中,与第一对象相应的对象特定功能包括通过沿与触摸输入相应的方向旋转第一对象来将第一表面改变为第二表面,
其中,对第二对象的触摸输入包括通过第二表面沿一个方向移动超过预定长度,
其中,与第二对象相应的对象特定功能包括通过沿与触摸输入相应的方向旋转第二对象来将第二表面改变为第一表面。
10.如权利要求1所述的方法,其中,与第二对象相应的对象特定功能包括基于第二对象的状态或透明显示器的状态来变化地显示与对第二对象的触摸输入相应的指示。
11.一种记录有由计算机运行以执行权利要求1所述的方法的指令的计算机可读介质。
12.一种执行对象控制方法的装置,所述装置包括:
透明显示器,用于显示第一对象和第二对象,其中,第一对象与第二对象不同,并且,第一对象在透明显示器上的显示位置与第二对象在透明显示器上的显示位置相同;
输入界面,用于通过第一表面和第二表面中的至少一个接收触摸输入;
存储器,用于存储关于第一对象、第二对象、第一表面以及第二表面的信息;
处理器,被配置为响应于在第一对象和第二对象被显示时通过透明显示器的第一表面接收到对第一对象的触摸输入,执行与第一对象相应的对象特定功能,响应于在第一对象和第二对象被显示时通过透明显示器的第二表面接收到对第二对象的触摸输入,执行与第二对象相应的对象特定功能,并响应于接收到对第一对象的触摸输入和对第二对象的触摸输入,同时控制与第一对象相应的对象特定功能和与第二对象相应的对象特定功能,
其中,对第一对象的触摸输入与对第二对象的触摸输入不同。
CN201380018937.5A 2012-04-07 2013-04-08 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质 Expired - Fee Related CN104246683B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20120036405 2012-04-07
KR10-2012-0036405 2012-04-07
KR1020130036716A KR102164453B1 (ko) 2012-04-07 2013-04-04 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
KR10-2013-0036716 2013-04-04
PCT/KR2013/002907 WO2013151400A1 (en) 2012-04-07 2013-04-08 Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Publications (2)

Publication Number Publication Date
CN104246683A CN104246683A (zh) 2014-12-24
CN104246683B true CN104246683B (zh) 2019-04-16

Family

ID=49634290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380018937.5A Expired - Fee Related CN104246683B (zh) 2012-04-07 2013-04-08 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质

Country Status (3)

Country Link
JP (1) JP6254147B2 (zh)
KR (1) KR102164453B1 (zh)
CN (1) CN104246683B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054367A1 (ja) * 2012-10-01 2014-04-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法及び記録媒体
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US10353556B2 (en) 2014-01-15 2019-07-16 Volkswagen Aktiengesellschaft Method and device for providing a user with feedback on an input
KR102243652B1 (ko) 2014-02-17 2021-04-23 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
EP3137981A4 (en) 2014-04-30 2017-12-06 Hewlett-Packard Development Company, L.P. Multi architecture manager
US9804707B2 (en) * 2014-09-12 2017-10-31 Microsoft Technology Licensing, Llc Inactive region for touch surface based on contextual information
KR102358548B1 (ko) 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
JP6567324B2 (ja) * 2015-05-21 2019-08-28 シャープ株式会社 画像表示装置、およびヘッドマウントディスプレイ
CN105100609B (zh) * 2015-07-10 2019-04-16 努比亚技术有限公司 移动终端和拍摄参数的调节方法
CN105824458A (zh) * 2016-01-29 2016-08-03 维沃移动通信有限公司 一种拍照控制方法及移动终端
JP6195964B1 (ja) * 2016-04-15 2017-09-13 ネイバー コーポレーションNAVER Corporation アプリケーション制作装置及びその方法、アプリケーション駆動装置、並びにコンピュータプログラム
KR20180003175A (ko) * 2016-06-30 2018-01-09 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP6828134B2 (ja) * 2017-02-22 2021-02-10 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、方法およびプログラム
CN110456948B (zh) * 2018-05-07 2023-04-18 苹果公司 用于推荐和消费电子设备上的内容的用户界面
CN109271120A (zh) * 2018-08-21 2019-01-25 维沃移动通信有限公司 一种显示方法及终端
JP6613512B1 (ja) * 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド 電子機器
CN110312034B (zh) * 2019-06-19 2021-02-02 Oppo广东移动通信有限公司 透明显示屏控制方法及相关设备
CN110503912B (zh) * 2019-08-23 2022-11-04 Oppo(重庆)智能科技有限公司 一种透明显示屏的显示控制方法、装置及终端设备
JP2021068206A (ja) 2019-10-24 2021-04-30 株式会社ジャパンディスプレイ 表示装置
CN114730580A (zh) 2019-11-11 2022-07-08 苹果公司 基于时间段的精选播放列表的用户界面
KR20220118751A (ko) * 2021-02-19 2022-08-26 삼성전자주식회사 투명 디스플레이를 포함하는 전자 장치 및 이의 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
CN101794181A (zh) * 2009-01-23 2010-08-04 三星电子株式会社 具有双触摸屏的移动终端和控制其中的内容的方法
CN102004614A (zh) * 2010-12-30 2011-04-06 Tcl集团股份有限公司 双屏触敏显示电子设备及其实现方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296022A (ja) * 2002-04-01 2003-10-17 Pioneer Electronic Corp タッチパネル一体型表示装置
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
KR100672354B1 (ko) * 2004-03-06 2007-01-24 엘지전자 주식회사 이동 단말기의 키 입력장치
JP4884912B2 (ja) * 2006-10-10 2012-02-29 三菱電機株式会社 電子機器
US7979805B2 (en) * 2007-05-21 2011-07-12 Microsoft Corporation Button discoverability
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
US20090235281A1 (en) * 2008-03-12 2009-09-17 Inventec Corporation Handheld electronic device, input device and method thereof, and display device and method thereof
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
JP5353090B2 (ja) * 2008-06-27 2013-11-27 株式会社ニコン デジタルフォトフレーム
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
JP5784960B2 (ja) * 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
CN102360254A (zh) * 2011-09-28 2012-02-22 广东美的电器股份有限公司 一种触控显示屏及使用触控显示屏的终端设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
CN101794181A (zh) * 2009-01-23 2010-08-04 三星电子株式会社 具有双触摸屏的移动终端和控制其中的内容的方法
CN102004614A (zh) * 2010-12-30 2011-04-06 Tcl集团股份有限公司 双屏触敏显示电子设备及其实现方法

Also Published As

Publication number Publication date
KR20130113997A (ko) 2013-10-16
CN104246683A (zh) 2014-12-24
JP2015512549A (ja) 2015-04-27
KR102164453B1 (ko) 2020-10-13
JP6254147B2 (ja) 2017-12-27

Similar Documents

Publication Publication Date Title
CN104246683B (zh) 在包括透明显示器的装置中执行的对象控制方法、装置及其计算机可读记录介质
US10788977B2 (en) System and method for displaying information on transparent display device
KR102224349B1 (ko) 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법
AU2013203018B2 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US20220121349A1 (en) Device, Method, and Graphical User Interface for Managing Content Items and Associated Metadata
US11921992B2 (en) User interfaces related to time
US9086787B2 (en) Mobile terminal and control method thereof
EP2720132B1 (en) Display apparatus and method of controlling the same
US10048824B2 (en) User terminal device and display method thereof
US9632578B2 (en) Method and device for switching tasks
US9891809B2 (en) User terminal device and controlling method thereof
US20150378592A1 (en) Portable terminal and display method thereof
WO2017120107A2 (en) Devices, methods, and graphical user interfaces for enabling display management of participant devices
CN106055218A (zh) 显示装置及其控制方法
CN105229590A (zh) 具有笔的用户终端装置和用户终端装置的控制方法
KR20110016108A (ko) 이동 단말기 및 그 제어 방법
KR102183445B1 (ko) 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치
KR20140037753A (ko) 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법
AU2015200541A1 (en) Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190416

CF01 Termination of patent right due to non-payment of annual fee