CN103377284B - 用于浏览显示在外部设备上的信息的便携式设备及方法 - Google Patents
用于浏览显示在外部设备上的信息的便携式设备及方法 Download PDFInfo
- Publication number
- CN103377284B CN103377284B CN201310145503.3A CN201310145503A CN103377284B CN 103377284 B CN103377284 B CN 103377284B CN 201310145503 A CN201310145503 A CN 201310145503A CN 103377284 B CN103377284 B CN 103377284B
- Authority
- CN
- China
- Prior art keywords
- screen
- external equipment
- touch
- portable set
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43076—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43079—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
提供一种用于浏览显示在外部设备上的信息的便携式设备及方法。所述方法包括:在便携式设备的触摸屏上显示包括在外部设备的屏幕上显示的网页中的链接区域;响应于触摸屏上的用户的第一手势,放大在触摸屏上显示的链接区域;响应于放大的链接区域上的用户的第二手势,将关于在外部设备的屏幕上显示与链接区域相关的另一网页的信息从便携式设备发送到外部设备。因此,用户可使用具有触摸屏的便携式设备快速方便地浏览显示在外部设备的屏幕上的信息。
Description
本申请要求于2012年4月24日提交到韩国知识产权局并分配有第10-2012-0042718序列号的韩国专利申请的权益,该申请的公开通过引用全部包含于此。
技术领域
本发明涉及用于浏览显示在外部设备的屏幕上的信息的设备和方法。更具体地讲,本发明涉及用于根据便携式设备的触摸屏上的用户手势浏览显示在外部设备的屏幕上的信息的设备和方法。
背景技术
为了从远处浏览显示在外部设备(例如,数字电视或个人计算机)的屏幕上的信息,用户使用具有四个方向按钮的遥控器。例如,为了使用屏幕上的指示器选择外部设备的屏幕上的特定区域,用户通过若干次交替地按全部的四个方向按钮来将指示器移动到特定区域,并且一旦指示器位于特定区域上,就按下遥控器的选择按钮,从而连接到特定区域的信息可被显示在外部设备的屏幕上。
在此情况下,由于用户可能必须连续若干次交替地按全部的四个方向按钮以将指示器移动到特定区域,因此这给用户造成了不便。所以,需要一种允许用户从远处方便地浏览显示在外部设备的屏幕上的信息的设备和方法。
以上信息被呈现为仅帮助理解本公开的背景信息。对于以上内容的任何内容可被应用为关于本发明的现有技术,没有做出确定,并且没有做出断定。
发明内容
本发明的多个方面涉及使用具有触摸屏的便携式设备快速地浏览显示在外部设备的屏幕上的信息。因此,本发明的一方面在便携式设备的触摸屏上提供显示在外部设备的屏幕上的信息,从而允许用户使用便携式设备快速地浏览显示在外部设备的屏幕上的信息。
根据本发明的一方面,提供一种用于在具有触摸屏的便携式设备中浏览外部设备的屏幕上的网页的方法。所述方法包括:在便携式设备的触摸屏上显示包括在外部设备的屏幕上显示的网页中的链接区域;响应于在便携式设备的触摸屏上的用户的第一手势,放大在便携式设备的触摸屏上显示的链接区域;响应于在显示在便携式设备的触摸屏上的放大的链接区域上的用户的第二手势,将关于在外部设备的屏幕上显示与链接区域相关的另一网页的信息从便携式设备发送到外部设备。
显示链接区域的步骤还可包括:在便携式设备的触摸屏上显示包括显示在外部设备的屏幕上的链接区域的网页的部分。
将关于在外部设备的屏幕上显示另一网页的信息发送到外部设备的步骤可包括:将关于用户的第二手势的信息或关于链接区域的信息发送到外部设备。
所述方法可包括:在便携式设备的触摸屏上感测沿一个方向移动的用户的第三手势;响应于在便携式设备的触摸屏上的用户的第三手势,将关于沿与所述一个方向相同的方向移动显示在外部设备的屏幕上的网页的信息发送到外部设备。
所述方法可包括:在便携式设备的触摸屏上感测沿一个方向移动的用户的第四手势;响应于在便携式设备的触摸屏上的用户的第四手势,将关于显示在外部设备的屏幕上的与显示在便携式设备的触摸屏上的网页的部分相应的虚拟窗沿所述一个方向或沿相反方向移动的信息发送到外部设备。
便携式设备的触摸屏的尺寸可小于外部设备的屏幕的尺寸。
第一手势可以是表示两个触摸点移动分开的展开手势,第二手势可以是表示触摸显示在便携式设备的触摸屏上的链接区域的点击手势。
根据本发明的另一方面,提供一种用于在具有触摸屏的便携式设备中浏览外部设备的屏幕上的网页的方法。所述方法包括:在便携式设备的触摸屏上显示在外部设备的屏幕上显示的网页的部分;在便携式设备的触摸屏上感测用户的第一手势;并响应于感测到的用户的第一手势,将关于放大在外部设备的屏幕上显示的网页的部分的信息从便携式设备发送到外部设备。
所述方法还可包括:在便携式设备的触摸屏上感测用户的第二手势,并响应于感测到的用户的第二手势,将关于缩小在外部设备的屏幕上显示的网页的部分的信息从便携式设备发送到外部设备。
根据本发明的另一方面,提供一种用于在具有触摸屏的便携式设备中浏览外部设备的屏幕上的网页的方法。所述方法包括:接收选择第一搜索模式和第二搜索模式之一的用户的第一手势;如果选择了第一搜索模式,则响应于在便携式设备的触摸屏上的用户的第二手势,将关于沿一个方向移动显示在外部设备的屏幕上的网页的信息从便携式设备发送到外部设备;如果选择了第二搜索模式,则响应于在便携式设备的触摸屏上的用户的第二手势,从便携式设备发送关于沿一个方向移动显示在外部设备的屏幕上的指示器的信息。
选择第一搜索模式和第二搜索模式之一的用户的第一手势可以是同时触摸两个触摸点的手势。
根据本发明的另一方面,提供一种用于在具有触摸屏的便携式设备中浏览外部设备的屏幕上的网页的方法。所述方法包括:在便携式设备的触摸屏上显示网页;响应于在便携式设备的触摸屏上的用户的第一手势,从便携式设备接收关于放大包括显示在外部设备的屏幕上的链接区域的网页的信息;根据接收的关于放大网页的信息,放大包括显示在外部设备的屏幕上的链接区域的网页。
所述方法还可包括:响应于在便携式设备的触摸屏上的用户的第二手势,从便携式设备接收关于在外部设备的屏幕上显示与显示在外部设备的屏幕上的链接区域连接的另一网页的信息,并根据接收的关于在外部设备的屏幕上显示连接到链接区域的另一网页的信息,在外部设备的屏幕上显示连接到链接区域的另一网页。
根据本发明的另一方面,提供一种用于浏览外部设备的屏幕上的网页的便携式设备。所述便携式设备包括:触摸屏;通信单元,被配置为与外部设备进行通信;处理器,控制触摸屏在触摸屏上显示包括在外部设备的屏幕上显示的网页中的链接区域,并响应于触摸屏上的用户的第一手势放大在触摸屏上显示的链接区域,并且控制通信单元将关于在外部设备的屏幕上显示与链接区域相关的另一网页的信息发送到外部设备。
处理器可控制触摸屏在触摸屏上显示包括显示在外部设备的屏幕上的链接区域的另一网页的部分。
处理器可控制通信单元将关于用户的第二手势的信息或关于链接区域的信息发送到外部设备。
如果感测到触摸屏上沿一个方向移动的用户的第三手势,则处理器可控制通信单元响应于用户的第三手势,将关于沿与所述一个方向相同的方向移动显示在外部设备的屏幕上的网页的信息发送到外部设备。
根据本发明的另一方面,提供一种用于浏览外部设备的屏幕上的网页的便携式设备。所述便携式设备包括:触摸屏;通信单元,被配置为与外部设备进行通信;处理器,被配置为控制便携式设备的触摸屏将显示在外部设备的屏幕上的网页的部分显示在便携式设备的触摸屏上,并且如果在便携式设备的触摸屏上感测到用户的第一手势,则控制通信单元将关于放大在外部设备的屏幕上显示的网页的部分的信息发送到外部设备。
根据本发明的另一方面,提供一种用于浏览外部设备的屏幕上的网页的便携式设备。所述便携式设备包括:触摸屏;通信单元,被配置为与外部设备进行通信;处理器,被配置为如果输入了用于选择第一搜索模式的用户的第一手势,则响应于在便携式设备的触摸屏上的用户的第二手势,控制通信单元将关于沿一个方向移动显示在外部设备的屏幕上的网页的信息发送到外部设备,并且如果输入了用于选择第二搜索模式的用户的第一手势,则响应于触摸屏上的用户的第二手势,控制通信单元将关于沿一个方向移动显示在外部设备的屏幕上的指示器的信息发送到外部设备。
根据本发明的另一方面,提供一种通过具有触摸屏的便携式设备控制的外部设备。所述外部设备包括:屏幕,被配置为显示也在便携式设备上显示的网页;通信单元,被配置为与便携式设备进行通信;处理器,响应于在便携式设备的触摸屏上的用户的第一手势,控制通信单元从便携式设备接收关于放大包括显示在外部设备的屏幕上的链接区域的网页的信息,并根据接收的关于放大网页的信息,控制屏幕放大包括链接区域的网页,其中,所述链接区域包括在显示在屏幕上的网页中。
通过下面结合附图公开本发明的示例性实施例的详细描述,本发明的其他方面、优点和突出特点对本领域的技术人员而言将变得清楚。
附图说明
通过下面结合附图进行的描述,本发明的特定示例性实施例的上述和其它方面、特点和优点将更加清楚,其中:
图1是示出根据本发明的示例性实施例的用于浏览网页的系统的配置的示图;
图2A和图2B是用于解释根据本发明的各种示例性实施例的用于浏览外部设备的网页的便携式设备的显示方法的示图;
图3是用于解释根据本发明的示例性实施例的便携式设备的各种模式的示图;
图4A至图8C是用于解释根据本发明的各种示例性实施例的用于使用便携式设备浏览显示在外部设备上的网页的方法的示图;
图9至图12是用于解释用于使用便携式设备和外部设备浏览显示在外部设备上的网页的方法的流程图。
贯穿附图,应注意,相同的标号用于描绘相同或相似的元件、特征和结构。
具体实施方式
提供以下参照附图进行的描述以帮助全面理解由权利要求及其等同物限定的本发明的示例性实施例。所述描述包括各种特定细节来帮助理解,但是这些细节将被认为仅是示例性的。因此,本领域的普通技术人员将认识到,在不脱离本发明的范围和精神的情况下,可对在此描述的实施例进行各种改变和修改。另外,为了清楚和简明,可省略对公知功能和构造的描述。
以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅被发明人使用以使得能够清楚和一致地理解本发明。因此,本领域的技术人员应清楚,提供下面对本发明的示例性实施例的描述仅是为了说明目的,而不是为了限制由所附权利要求及其等同物限定的本发明的目的。
应该理解,除非上下文清楚地另有指示,否则单数形式包括复数指示物。因此,例如,参考“组件表面”包括参考一个或多个这样的表面。
在下文中,将解释制造和使用本发明的示例性方法。应注意,在此描述的各种示例性实施例只要其在权利要求中记载过,就不限制本发明。
用户手势指示用于使用左手或右手的手指(例如,食指)或拇指在触摸屏上显示或控制信息的用户的动作,并可包括触摸、触摸的解除、旋转、捏合、展开、触摸拖动、轻拂、滑动、触摸并保持等。触摸的动作可指示手指或拇指触摸触摸屏或非常接近于触摸屏的状态。
在本发明的示例性实施例中,便携式设备是连接到外部设备以使用其触摸屏显示信息的设备,可包括但不限于智能电话、移动电话、平板电脑、便携式多媒体播放器(PMP)、个人数字助理(PDA)等。外部设备是连接到便携式设备以显示信息的设备,可包括但不限于数字电视、智能电视、个人计算机(PC)等,或是上述便携式设备之一。通常(但并不一定是),便携式设备的屏幕的尺寸可小于外部设备的屏幕的尺寸。
图1是示出根据本发明的示例性实施例的系统的配置的示图。
参照图1,系统1可包括外部设备10、具有触摸屏的便携式设备20和将信息提供给外部设备10或便携式设备20的互联网网络30。互联网网络包括多个路由器,一个以上的服务器31、32、33可连接到每个路由器。
外部设备10可包括屏幕11、处理器12、存储单元14和通信单元15。
屏幕11接收并显示图像信号。例如,屏幕11可显示数字广播、存储在外部设备10的存储单元14中的内容和通过便携式设备20或互联网网络30提供的信息。另外,外部设备10还可包括触摸传感器(未示出),以通过屏幕11接收用户手势。
处理器12控制外部设备10的每个组件的整体操作。例如,在各种示例性实施例中执行操作所需的方法可被配置为程序并被存储在存储单元14中。处理器12可读取存储单元14中的程序,并根据读取程序的结果控制外部设备10的每个组件的操作。同时,处理器12可包括互联网浏览器模块13。互联网浏览器模块13可搜索或管理通过互联网网络30提供的信息。例如,互联网浏览器模块13允许用户查看关于通过互联网网络30连接的web服务器31、32、33的信息。另外,互联网浏览器模块13可执行以下功能:打开网页、提供最近访问的URL的列表、记忆并管理经常访问的互联网网站的地址、存储并打印网页等。
便携式设备20可包括触摸屏21、处理器22、存储单元24和通信单元25。
触摸屏21可包括触摸传感器。触摸屏21可接收并显示信号,或可通过触摸传感器接收用户手势。
处理器22控制便携式设备20的每个组件的整体操作。例如,在各种示例性实施例中执行操作所需的方法可被配置为程序并被存储在存储单元24中。处理器22可从存储单元24读取程序,并根据读取程序的结果控制便携式设备20的每个组件的操作。同时,处理器22可包括互联网浏览器模块23。互联网浏览器模块23可搜索或管理通过互联网网络30提供的信息。例如,互联网浏览器模块23允许用户查看关于通过互联网网络30连接的web服务器31、32、33的信息。另外,互联网浏览器模块23可执行以下功能:打开网页、提供最近访问的URL的列表、记忆并管理经常访问的互联网网站的地址、存储并打印网页等。
例如,外部设备10的通信单元15和便携式设备20的通信单元25可使用无线LAN、蓝牙、红外线通信等彼此进行通信。然而,注意到这两个设备之间的通信不限于以上,所述设备可通过其他形式进行通信。另外,外部设备10的通信单元15和便携式设备20的通信单元25中的至少一个可连接到互联网网络30,并从web服务器31、32、33接收信息。在此,接收的信息可包括各种类型的内容(例如,网页、图像、视频、音频、文本等)。在此情况下,接收的信息的一部分可包括可连接到其他信息的链接区域。例如,链接区域可以是包括连接另一网页、图像、视频、音频、文本等中的一个的超链接的区域。
在一个示例性实施例中,如果外部设备10的通信单元15和便携式设备20的通信单元25中的一个连接到互联网网络30,则连接到互联网网络30并从web服务器31、32、33接收信息的设备可将接收的信息再发送到没有连接到互联网网络30的设备。在此情况下,外部设备10的通信单元15和便携式设备20的通信单元25可执行同步,从而以上接收的信息可几乎同时被显示在外部设备10的屏幕11和便携式设备20的触摸屏21上。在另一示例性实施例中,如果外部设备10的通信单元15和便携式设备20的通信单元25均连接到互联网网络30,则外部设备10和便携式设备20均可从互联网网络30接收相同的信息。每个设备接收的信息可被显示在外部设备10的屏幕11和便携式设备20的触摸屏21上。在此情况下,外部设备10的通信单元15和便携式设备20的通信单元25可执行同步,从而以上接收的信息可几乎同时被显示在外部设备10的屏幕11和便携式设备20的触摸屏21上。
图2A和图2B是用于解释根据本发明的各种示例性实施例的用于浏览外部设备的网页的便携式设备的显示方法的示图。
参照图2A,显示在外部设备10的屏幕11上的信息的部分区域202可被显示在便携式设备20的触摸屏21上。在此情况下,显示部分区域202的虚拟窗204可被显示在屏幕11上,其中,部分区域202是与触摸屏21同步的区域。虚拟窗204可在屏幕11上具有不同的对比度或不同的背景颜色。通常,虚拟窗204可位于屏幕11的中心。然而,如果虚拟窗204的位置通过用户手势而改变,则每当屏幕11上的信息被改变为其他信息时,虚拟窗204可再次位于屏幕11的中心。可在发布产品或首次执行应用时预先确定虚拟窗204的尺寸,但也可由用户任意改变虚拟窗204的尺寸。虚拟窗204平时可不被显示,可只有当在便携式设备20的触摸屏21上识别用户手势时被显示。如果在经过预定时间之后不再识别用户手势,则虚拟窗204可自动消失。
参照图2B,显示在外部设备10的屏幕11上的所有信息可被显示在便携式设备20的触摸屏21上。在此情况下,虚拟窗204可不被显示在外部设备10的屏幕11上,显示在外部设备10的屏幕11上的相同的信息222可被显示在便携式设备20的触摸屏21上。
图3是用于解释根据本发明的示例性实施例的便携式设备20的各种模式的示图。
参照图3中的标号320,便携式设备20可提供第一模式,其中,第一模式在便携式设备20的触摸屏21上显示在外部设备10的屏幕11上显示的信息的部分区域322。如果选择了第一模式,则便携式设备20可响应于在便携式设备20的触摸屏21上的用户的第一手势,将用于沿一个方向移动显示在外部设备10的屏幕11上的网页的信息发送到外部设备10。因此,用户可使用显示在便携式设备20的触摸屏21上的信息来浏览显示在外部设备10的屏幕11上的信息。在此情况下,用于浏览便携式设备20的触摸屏21上的信息的用户手势可包括:在便携式设备20的触摸屏21和外部设备10的屏幕11上移动信息的手势(例如,轻拂手势或触摸拖动手势)、放大或缩小信息的手势(例如,捏合手势或展开手势)、选择的手势(例如,点击手势)等。
参照图3中的标号340,便携式设备20可提供第二模式,其中,第二模式在便携式设备20的触摸屏21上搜索显示在外部设备10的屏幕11上的信息,而不提供显示在外部设备10的屏幕11上的信息。如果选择了第二模式,则便携式设备20可响应于在便携式设备20的触摸屏21上的用户的第一手势,将用于沿一个方向移动显示在外部设备10的屏幕11中的指示器的信息发送到外部设备10。因此,用户可在不查看便携式设备20的触摸屏21的情况下浏览显示在外部设备10的屏幕11上的信息。在此情况下,用于浏览信息的用户手势可包括:在外部设备10的屏幕11上移动信息的手势(例如,轻拂手势)、放大或缩小信息的手势(例如,捏合手势或展开手势)、移动显示在屏幕11上的指示器的手势(例如,触摸拖动手势)、选择显示在屏幕11上的特定链接的手势(例如,点击手势)等。
在触摸屏21上不提供显示在外部设备10的屏幕11上的信息的状态可包括以下状态中的至少一个:触摸屏21关闭、在黑暗阴影中提供显示的信息、提供与显示的信息无关的信息。
参照图3中的标号360,便携式设备20可提供第三模式,其中,第三模式在没有与外部设备10同步的情况下,在便携式设备20的触摸屏21上显示从web服务器31、32、33接收的信息或预存储的信息。在此情况下,外部设备10和便携式设备20没有彼此同步,因此,触摸屏21上的用户手势不影响在外部设备10的屏幕11上显示的信息。
图3中的第一模式320、图3中的第二模式340和图3中的第三模式360可根据预定的用户手势被相互转换。例如,如果在第一模式下针对用户的多个触摸点的触摸手势324被同时输入到触摸屏21上,并且所述手势维持第一时间以上(例如,2秒),则便携式设备20可将模式从第一模式转换到第二模式。另一方面,如果在第二模式下针对用户的多个触摸点的触摸手势344被同时输入到触摸屏21上,并且所述手势维持第一时间以上(例如,2秒),则便携式设备20可将模式从第二模式转换到第一模式。
在另一示例性实施例中,如果在第二模式下针对用户的多个触摸点的触摸手势344被同时输入到便携式设备20的触摸屏21上,并且所述手势维持第三时间以上(例如,4秒),则便携式设备20可将模式从第二模式转换到第三模式。另一方面,如果在第三模式下针对用户的多个触摸点的触摸手势364被同时输入到触摸屏21上,并且所述手势维持第二时间以上(例如,2秒),则便携式设备20可将模式从第三模式转换到第二模式。
在另一示例性实施例中,如果在第三模式下针对用户的多个触摸点的触摸手势364被同时输入到触摸屏21上,并且所述手势维持第三时间以上(例如,6秒),则便携式设备20可将模式从第三模式转换到第一模式。另一方面,如果在第一模式下针对用户的多个触摸点的触摸手势324被同时输入到触摸屏21上,并且所述手势维持第三时间以上(例如,6秒),则便携式设备20可将模式从第一模式转换到第三模式。
另外,注意到以上讨论的第一时间、第二时间和第三时间的持续时间仅是示例,因此可改变时间的持续时间。另外,用于在屏幕之间进行改变的以上讨论的手势也是示例性实施例,并可使用其他手势。
另外,在以上示例性实施例中,根据触摸时间执行第一模式和第二模式之间的转换、第二模式和第三模式之间的转换以及第三模式和第一模式之间的转换,但这仅是示例。可使用便携式设备20的按钮或显示在便携式设备20上的菜单来执行模式转换。
图4A和图4B是示出根据示例性实施例的使用便携式设备20浏览显示在外部设备10上的信息的处理的示图。更具体地讲,图4A和图4B是用于解释在以上参照图3解释的便携式设备20的模式当中的第一模式下,浏览显示在外部设备10上的信息的处理的示图。
参照图4A,如果显示在外部设备10的屏幕11上的信息的部分区域402被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于在触摸屏21上沿一个方向的用户手势414(例如,轻拂手势或触摸拖动手势),将显示在便携式设备20的触摸屏21上的信息发送到外部设备10。例如,便携式设备20可将关于便携式设备20的触摸屏21上的用户手势414的信息(例如,手势的类型、手势的触摸位置、手势的移动方向、手势的移动距离、手势的移动速度等)发送到外部设备10。另外,便携式设备20可响应于沿一个方向的便携式设备20的触摸屏21上的连续的用户手势414,来显示在外部设备10的屏幕11上显示的信息的另一区域422。
外部设备10可从便携式设备20接收关于用户手势414的信息,并响应于用户手势414沿一个方向移动显示在外部设备10的屏幕11上的信息。在此情况下,不管用户手势414,可固定显示在屏幕11上的虚拟窗404的位置,并且虚拟窗404中的信息可被改变为新信息422。
同时,在触摸屏上存在如下的点:随着显示在屏幕11上的信息响应于沿一个方向的用户手势沿一个方向移动,不再提供新信息。在此情况下,如图4B中所示,如果显示在外部设备10的屏幕11上的信息的部分区域442被显示在便携式设备20的触摸屏21上,如果在便携式设备20的触摸屏21上重复执行沿一个方向的用户手势414,则显示在外部设备10的屏幕11上的信息的另一部分462可被显示在便携式设备20的触摸屏21上,同时显示在外部设备10的屏幕11上的信息可不改变。在此情况下,外部设备10的屏幕11上的虚拟窗444的位置可根据用户手势414而改变,并且虚拟窗444中的信息可被改变为新信息462。
图5A和图5B是示出根据另一示例性实施例的使用便携式设备20浏览显示在外部设备10上的信息的处理的示图。更具体地讲,图5A和图5B是用于解释在以上参照图3解释的便携式设备20的模式当中的第一模式下,浏览显示在外部设备10上的信息的处理的示图。
参照图5A,如果显示在外部设备10的屏幕11上的信息的部分区域502被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于便携式设备20的触摸屏21上沿两个方向的用户手势514、534(例如,展开手势),将用于放大显示在外部设备10的屏幕11上的信息的尺寸的信息发送到外部设备10。例如,便携式设备20可将关于触摸屏21上的用户手势514、534的信息(例如,手势的类型、手势的触摸位置、手势的移动速度、手势的移动距离、手势的移动角度等)发送到外部设备10。另外,便携式设备20可在显示在触摸屏21上的信息的尺寸被放大时发送放大显示的信息的特定区域的比例。例如,如果便携式设备20的触摸屏21上的特定区域的尺寸从50×50像素改变为100×100像素,则便携式设备20可将特定区域放大四倍的比例发送到外部设备10。另外,响应于同时沿两个方向的用户手势514、534,便携式设备20可在触摸屏21上显示尺寸放大的信息522。
外部设备10可从便携式设备20接收用于放大显示在屏幕11上的信息的信息,并根据用户手势514、534放大并显示在外部设备10的屏幕11上显示的信息。在此情况下,不管用户手势514、534,表示显示在便携式设备20的触摸屏21上的区域的虚拟窗504的位置可被固定在屏幕11上,并且虚拟窗504中的信息可被改变为尺寸放大的信息522。
参照图5B,如果显示在外部设备10的屏幕11上的信息的部分区域542被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于在便携式设备20的触摸屏21上沿两个方向的用户手势554、574(例如,捏合手势),将用于缩小显示在外部设备10的屏幕11上的信息的尺寸的信息发送到外部设备10。例如,便携式设备20可将关于触摸屏21上的用户手势554、574的信息(例如,手势的类型、手势的触摸位置、手势的移动速度、手势的移动距离、手势的移动角度等)发送到外部设备10。另外,便携式设备20可在显示在触摸屏21上的信息的尺寸被缩小时发送缩小显示的信息的特定区域的比例。例如,如果便携式设备20的触摸屏21上的特定区域的尺寸从100×100像素改变为50×50像素,则便携式设备20可将特定区域缩小四倍的比例发送到外部设备10。另外,便携式设备20可响应于同时沿两个方向的用户手势554、574,在触摸屏21上显示尺寸缩小的在外部设备10的屏幕11上的信息562。
外部设备10可从便携式设备20接收用于缩小显示在屏幕11上的信息的信息,并根据用户手势554、574显示在外部设备10的屏幕11上显示的信息。在此情况下,不管用户手势554、574,表示显示在便携式设备20的触摸屏21上的区域的虚拟窗544的位置可在屏幕11上被固定,并且虚拟窗544中的信息542可被改变为尺寸缩小的信息562。
图6A和图6B是示出根据另一示例性实施例的使用便携式设备20浏览显示在外部设备10上的信息的处理的示图。更具体地讲,图6A和图6B是用于解释在以上参照图3解释的便携式设备20的模式当中的第一模式下,浏览显示在外部设备10上的信息的处理的示图。
参照图6A,如果显示在外部设备10的屏幕11上的信息的部分区域602被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于便携式设备20的触摸屏21上沿两个方向的用户手势614、634(例如,展开手势),将用于缩小显示在外部设备10的屏幕11上的虚拟窗604的尺寸的信息发送到外部设备10。例如,便携式设备20可将关于触摸屏21上的用户手势614、634的信息(例如,手势的类型、手势的触摸位置、手势的移动速度、手势的移动距离、手势的移动角度等)发送到外部设备10。另外,便携式设备20可在显示在便携式设备20的触摸屏21上的信息的尺寸被放大时发送缩小显示在外部设备10的屏幕11上的虚拟窗604的比例。另外,便携式设备20可响应于沿两个方向的连续的用户手势614、634,将外部设备10的屏幕11上的信息显示为便携式设备20的触摸屏21上的尺寸放大的信息632。
外部设备10可从便携式设备20接收用于缩小虚拟窗624的尺寸的信息,并且不管用户手势614、634,维持先前显示的信息。然而,外部设备10可根据用户手势614、634,将显示在触摸屏21上的区域的虚拟窗604显示为屏幕11上的尺寸缩小的虚拟窗624。
参照图6B,如果显示在外部设备10的屏幕11上的信息的部分区域642被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于触摸屏21上沿两个方向的用户手势654、674(例如,捏合手势),将用于放大外部设备10的屏幕11上的虚拟窗644的尺寸的信息发送到外部设备10。例如,便携式设备20可将关于便携式设备20的触摸屏21上的用户手势654、674的信息(例如,手势的类型、手势的触摸位置、手势的移动速度、手势的移动距离、手势的移动角度等)发送到外部设备10。另外,便携式设备20可在显示在触摸屏21上的信息的尺寸被缩小时发送放大显示在屏幕11上的虚拟窗644的比例。另外,便携式设备20可响应于沿两个方向的连续的用户手势654、674,将外部设备10的屏幕11上的信息显示为触摸屏21上的尺寸缩小的信息672。
外部设备10可从便携式设备20接收用于放大虚拟窗644的尺寸的信息,并且不管用户手势654、674,维持先前显示的信息。然而,外部设备10可根据用户手势654、674,将显示在触摸屏21上的区域的虚拟窗644显示为屏幕11上的尺寸放大的虚拟窗664。
图7是示出根据另一示例性实施例的使用便携式设备20浏览显示在外部设备10上的信息的处理的示图。图7还是用于解释在以上参照图3解释的便携式设备20的模式当中的第一模式下,浏览显示在外部设备10上的信息的处理的示图。
参照图7,如果显示在外部设备10的屏幕11上的信息704的部分区域702被显示在便携式设备20的触摸屏21上,则便携式设备20可响应于显示在触摸屏21上的链接区域703上的用户手势714、734(例如,点击手势),将在外部设备10的屏幕11上显示连接到链接区域703的网页的信息发送到外部设备10。在此情况下,在外部设备10的屏幕11上显示连接到链接区域703的网页的信息可以是关于用户的第二手势的信息或关于链接区域703的信息。例如,便携式设备20可将关于用户的第二手势的信息(例如,手势的类型、手势的触摸位置等)或关于链接区域703的信息(例如,网页地址等)发送到外部设备10。同时,响应于用户手势714、734,便携式设备20还可将触摸屏21上的信息转换为连接到链接区域703的信息721。
外部设备10可从便携式设备20接收用于在外部设备10的屏幕11上显示连接到链接区域703的网页的信息,访问并显示连接到链接区域703的网页。在此情况下,每当显示在屏幕11上的信息被转换为连接的信息721时,虚拟窗可位于屏幕11的中心。
图8A和图8B是示出根据另一示例性实施例的使用便携式设备浏览显示在外部设备上的信息的处理的示图。
参照图8A,如果包括显示在外部设备10的屏幕11上的信息的部分区域802和其上的链接区域803,则可响应于便携式设备20的触摸屏21上沿一个方向的用户手势814、834(例如,轻拂手势或触摸拖动手势),沿一个方向移动显示在屏幕11上的信息。同时,响应于用户手势814、834,显示在屏幕11上的链接区域803可被显示在便携式设备20的触摸屏21上。
参照图8B,显示在屏幕11上的信息的至少部分区域802和包括在至少部分区域802中的链接区域803被显示,显示在屏幕11上的信息的部分区域802和包括在至少部分区域802中的链接区域803可响应于触摸屏21上的用户手势854、874(例如,展开手势)被放大。同时,显示在触摸屏21上的信息的部分区域802和包括在至少部分区域802中的链接区域803可被放大。
参照图8C,如果在屏幕11上放大的信息的部分区域802和放大的链接区域803被显示,则显示在屏幕11上的信息可响应于在放大的链接区域803上的用户手势894(例如,点击手势)被转换为与便携式设备20的触摸屏21上的链接区域803连接的信息805(例如,链接的网页)。在此情况下,每当显示在屏幕11上的信息被转换为连接的信息时,虚拟窗804可位于屏幕11的中心。
如上所述,根据各种示例性实施例,可使用具有触摸屏的便携式设备20快速方便地浏览显示在外部设备10的屏幕上的信息。
在下文中,将参照图9至图12解释根据示例性实施例的用于使用外部设备10和便携式设备20浏览外部设备10的屏幕11上的网页的方法。
图9是用于解释根据示例性实施例的具有触摸屏21的便携式设备20浏览显示在外部设备10的屏幕11上的网页的方法的流程图。
参照图9,在步骤S910,便携式设备20在触摸屏21上显示包括在外部设备10的屏幕11上显示的网页中的链接区域。在此情况下,便携式设备20和外部设备10彼此同步,并且如图2A中所示,外部设备10可显示关于在便携式设备20的触摸屏21上显示的区域的虚拟窗。
随后,在步骤S920,便携式设备20通过触摸屏21感测用户的第一手势。用户的第一手势可以是表示两个触摸点移动分开的展开手势。
如果感测到用户的第一手势(即,步骤S920-是),则在步骤S930,便携式设备20响应于第一手势放大在触摸屏上显示的链接区域。在此情况下,便携式设备20将放大链接区域的信息发送到外部设备10,外部设备10还改变显示屏幕(如图5A或图6A所示)。
随后,在步骤S940,便携式设备20通过触摸屏21感测用户的第二手势。在此情况下,用户的第二手势可以是表示触摸链接区域的点击手势。
如果感测到用户的第二手势(即,步骤S940-是),则在步骤950,便携式设备20可响应于第二手势将用于在外部设备10的屏幕上显示链接到链接区域的网页的信息发送到外部设备10。在此情况下,用于在外部设备10的屏幕11上显示链接到链接区域的网页的信息可以是关于用户的第二手势的信息或关于链接区域703的信息。例如,便携式设备20可将关于用户的第二手势的信息(例如,手势的类型、手势的触摸位置等)或关于链接区域703的信息(例如,网页地址等)发送到外部设备10。同时,响应于用户的第二手势,便携式设备20还可将触摸屏21上的信息转换为连接到链接区域的信息721。另外,外部设备10可从便携式设备20接收用于在外部设备10的屏幕11上显示连接到链接区域的网页的信息,访问并显示连接到链接区域的网页。
图10是用于解释根据另一示例性实施例的具有触摸屏21的便携式设备20浏览显示在外部设备10的屏幕11上的网页的方法的流程图。
参照图10,在步骤S1010,便携式设备20在触摸屏21上显示在外部设备10的屏幕上显示的网页的部分区域。在此情况下,所述网页的部分区域可包括链接到另一网页的链接区域。
随后,在步骤S1020,便携式设备20确定是否感测到用户的第一手势。在此情况下,用户的第一手势可以是表示两个对象(例如,用户的两个手指)移动分开的展开手势。
如果在便携式设备20中感测到用户的第一手势,则在步骤S1030,便携式设备20将用于放大在外部设备10的屏幕11上显示的网页的部分的信息发送到外部设备10。
同时,在示例性实施例中,当感测到用户的第一手势时,便携式设备20将用于放大网页的部分的信息发送到外部设备10,但这仅是示例。如果在便携式设备20的触摸屏21上感测到用户的第二手势(例如,捏合手势),则便携式设备20可将用于缩小网页的部分的信息发送到外部设备10。
图11是用于解释根据示例性实施例的用于根据模式浏览显示在外部设备10的屏幕11上的网页的不同方法的流程图。
参照图11,在步骤S1110,便携式设备20接收用于选择搜索模式的第一手势,以浏览显示在外部设备10的屏幕11上的网页。在此情况下,用于选择搜索模式的第一手势可以是同时触摸两个触摸点的手势。
如果输入了第一手势(即,步骤S1110-是),则在步骤S1120,便携式设备20确定第一搜索模式是否被选择为搜索模式。以上参照图3已解释了便携式设备20选择搜索模式的方法,所以将不提供进一步的描述。在此情况下,便携式设备20可根据第一手势选择第一搜索模式和第二搜索模式之一。然而,这仅是示例,可选择另一搜索模式。
如果选择了第一搜索模式(即,步骤S1120-是),则在步骤S1130,便携式设备20确定是否输入第二手势。在此情况下,第二手势可以是拖动手势。
如果输入了第二手势(即,步骤S1130-是),则在步骤S1140,便携式设备20将用于沿一个方向移动显示在外部设备10的屏幕11上的网页的信息发送到外部设备10。移动显示在外部设备10的屏幕11上的网页的信息可与第二手势的方向相应。
然而,如果没有选择第一搜索模式(即,步骤S1120-否),则在步骤S1150,便携式设备20选择第二搜索模式。
随后,在步骤S1160,便携式设备20确定是否输入第二手势。在此情况下,第二手势可以是拖动手势。
如果输入了第二手势(即,步骤S1160-是),则在步骤S1170,便携式设备20将用于沿一个方向移动显示在外部设备10的屏幕11上的指示器的信息发送到外部设备10。
图12是用于解释根据示例性实施例的浏览通过便携式设备20控制的外部设备10的网页的方法的流程图。
参照图12,在步骤S1210,外部设备10在屏幕11上显示包括有在便携式设备20上显示的屏幕的网页。在此情况下,外部设备10可从便携式设备20接收关于网页的信息。
在步骤S1220,响应于关于便携式设备20的用户的第一手势,外部设备10确定是否从便携式设备20接收放大包括显示在屏幕上的链接区域的网页的信息。在此情况下,用户的第一手势可以是展开手势。
如果从便携式设备20接收放大网页的信息(即,步骤S1220-是),则在步骤S1230,外部设备10根据接收的放大网页的信息来放大显示在屏幕11上的网页。
然而,这仅是示例,如果响应于关于便携式设备20的用户的第二手势,从便携式设备20接收用于缩小包括显示在屏幕11上的链接区域的网页的信息,则外部设备10可根据接收的缩小网页的信息,缩小显示在屏幕上的网页。如上所述,由于使用便携式设备20和外部设备10浏览显示在外部设备10上的网页,因此用户可更快速方便地浏览显示在外部设备的屏幕上的信息。
同时,根据各种示例性实施例的在信息显示设备中显示信息的上述方法可被实现为可通过各种计算机装置执行的程序命令,并可被记录在可通过计算机读取的记录介质中。在此情况下,可通过计算机读取的记录介质可包括单独的程序命令、数据文件和数据配置或者它们的组合。同时,记录在所述记录介质中的程序命令可被设计并配置为本发明构思的示例性实施例,或可被计算机软件业领域中的技术人员已知并且通常被计算机软件业领域中的技术人员使用。
可通过计算机读取的记录介质包括磁性介质(例如,硬盘、软盘和磁带)、光学介质(例如,CD-ROM和DVD)、磁光介质(例如,光磁软盘)和专门被设计为存储和执行程序命令的硬件设备(例如,ROM、RAM和闪速存储器)。同时,这样的记录介质可以是传输指定程序命令、数据配置等的信号的传输介质(例如,光带或金属带和包括载波的波导)。
另外,程序命令包括由编译器编写的机器代码和可由计算机使用注释器执行的高级语言代码。上述硬件设备可被配置为作为用于执行本发明构思的操作的一个以上的软件模块进行操作,反之亦然。
尽管已参照本发明的特定示例性实施例示出和描述了本发明,但是本领域的技术人员将理解,在不脱离本发明的精神和范围的情况下,可在其中进行形式和细节上的各种改变,其中,本发明的精神和范围由权利要求及其等同物来限定。
Claims (11)
1.一种用于通过便携式设备浏览外部设备的屏幕上的网页的方法,其中,所述便携式设备包括有触摸屏,所述方法包括:
在便携式设备的触摸屏上显示包括在外部设备的屏幕上显示的网页中的链接区域;
发送用于在所述外部设备的屏幕上显示包括所述链接区域的虚拟窗的信息;
响应于在便携式设备的触摸屏上的用户的第一手势,放大在便携式设备的触摸屏上显示的链接区域;
响应于在显示在便携式设备的触摸屏上的放大的链接区域上的用户的第二手势,将关于在外部设备的屏幕上显示与链接区域相关的另一网页的信息从便携式设备发送到外部设备,
其中,所述虚拟窗被显示在所述外部设备的屏幕的一部分上以在视觉上与所述屏幕的剩余部分相区分。
2.如权利要求1所述的方法,其中,显示链接区域的步骤还包括:
在便携式设备的触摸屏上显示包括显示在外部设备的屏幕上的链接区域的网页的部分。
3.如权利要求1所述的方法,其中,将关于在外部设备的屏幕上显示另一网页的信息发送到外部设备的步骤包括:
将关于用户的第二手势的信息或关于链接区域的信息发送到外部设备。
4.如权利要求1所述的方法,还包括:
在便携式设备的触摸屏上感测沿一个方向移动的用户的第三手势;
响应于在便携式设备的触摸屏上的用户的第三手势,将关于沿与所述一个方向相同的方向移动显示在外部设备的屏幕上的网页的信息发送到外部设备。
5.如权利要求1所述的方法,还包括:
在便携式设备的触摸屏上感测沿一个方向移动的用户的第四手势;
响应于在便携式设备的触摸屏上的用户的第四手势,将关于显示在外部设备的屏幕上的与显示在便携式设备的触摸屏上的网页的部分相应的虚拟窗沿所述一个方向或沿相反方向移动的信息发送到外部设备。
6.如权利要求1所述的方法,其中,便携式设备的触摸屏的尺寸小于外部设备的屏幕的尺寸。
7.如权利要求1所述的方法,其中,第一手势是表示两个触摸点移动分开的展开手势,
其中,第二手势是表示触摸显示在便携式设备的触摸屏上的链接区域的点击手势。
8.一种用于浏览显示在外部设备的屏幕上的网页的便携式设备,所述便携式设备包括:
触摸屏;
通信单元,被配置为与外部设备进行通信;
处理器,被配置为:控制触摸屏在触摸屏上显示包括在外部设备的屏幕上显示的网页中的链接区域,发送用于在所述外部设备的屏幕上显示包括所述链接区域的虚拟窗的信息,并响应于触摸屏上的用户的第一手势,放大在触摸屏上显示的链接区域,并且控制通信单元将关于在外部设备的屏幕上显示连接到链接区域的另一网页的信息发送到外部设备,其中,所述虚拟窗被显示在所述外部设备的屏幕的一部分上以在视觉上与所述屏幕的剩余部分相区分。
9.如权利要求8所述的便携式设备,其中,处理器还被配置为:控制触摸屏在触摸屏上显示包括显示在外部设备的屏幕上的链接区域的另一网页的部分。
10.如权利要求8所述的便携式设备,其中,处理器还被配置为:控制通信单元将关于用户的第二手势的信息或关于链接区域的信息发送到外部设备。
11.如权利要求8所述的便携式设备,其中,如果感测到触摸屏上沿一个方向移动的用户的第三手势,则处理器还被配置为:响应于用户的第三手势,控制通信单元将关于沿与所述一个方向相同的方向移动显示在外部设备的屏幕上的网页的信息发送到外部设备。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0042718 | 2012-04-24 | ||
KR1020120042718A KR102027357B1 (ko) | 2012-04-24 | 2012-04-24 | 외부 기기의 스크린 상에 디스플레이된 정보를 탐색하는 터치 스크린을 가지는 휴대용 기기 및 그의 정보 탐색 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103377284A CN103377284A (zh) | 2013-10-30 |
CN103377284B true CN103377284B (zh) | 2018-01-16 |
Family
ID=48143158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310145503.3A Active CN103377284B (zh) | 2012-04-24 | 2013-04-24 | 用于浏览显示在外部设备上的信息的便携式设备及方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9626095B2 (zh) |
EP (1) | EP2657830B1 (zh) |
JP (1) | JP6207214B2 (zh) |
KR (1) | KR102027357B1 (zh) |
CN (1) | CN103377284B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015012512A (ja) * | 2013-06-28 | 2015-01-19 | 株式会社東芝 | 情報処理装置および情報処理方法 |
KR102297919B1 (ko) | 2013-12-09 | 2021-09-02 | 파로님 가부시키가이샤 | 링크처 지정용 인터페이스 장치, 시청자용 인터페이스 장치, 및 컴퓨터 프로그램 |
JP2015176186A (ja) * | 2014-03-13 | 2015-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及び情報処理システム |
US20150268827A1 (en) * | 2014-03-24 | 2015-09-24 | Hideep Inc. | Method for controlling moving direction of display object and a terminal thereof |
KR102218553B1 (ko) * | 2014-04-21 | 2021-02-22 | 삼성전자주식회사 | 화면 제어를 위한 방법 및 전자장치 |
KR102324083B1 (ko) * | 2014-09-01 | 2021-11-09 | 삼성전자주식회사 | 화면 확대 제공 방법 및 그 전자 장치 |
CN106453872A (zh) * | 2016-09-28 | 2017-02-22 | 北京小米移动软件有限公司 | 显示控制方法和装置 |
JP2017169222A (ja) * | 2017-05-10 | 2017-09-21 | 合同会社IP Bridge1号 | リンク先指定用インタフェース装置、視聴者用インタフェース装置、及びコンピュータプログラム |
CN111327769B (zh) | 2020-02-25 | 2022-04-08 | 北京小米移动软件有限公司 | 多屏互动方法及装置、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156263A (ja) * | 2005-12-07 | 2007-06-21 | Sharp Corp | 情報表示装置及び電子書籍装置 |
JP2009088713A (ja) * | 2007-09-27 | 2009-04-23 | Sharp Corp | 制御装置、遠隔操作装置、制御装置の制御方法、遠隔操作装置の制御方法、送受信システムおよび制御プログラム |
CN101978341A (zh) * | 2008-03-19 | 2011-02-16 | 环球电子有限公司 | 用于经由个人通信或娱乐设备的装置控制的系统和方法 |
CN102147702A (zh) * | 2010-02-05 | 2011-08-10 | 三星电子株式会社 | 用于选择超链接的方法和装置 |
CN102301317A (zh) * | 2009-02-04 | 2011-12-28 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8416217B1 (en) * | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
JP2008042481A (ja) | 2006-08-04 | 2008-02-21 | Elan Microelectronics Corp | タッチパネルリモコンを使用する制御方法及びその使用するタッチパネルリモコン |
KR101428730B1 (ko) | 2007-01-04 | 2014-08-11 | 삼성전자주식회사 | 인터넷 검색방법 및 이를 적용한 영상수신장치 |
WO2009037588A2 (en) * | 2007-07-19 | 2009-03-26 | Heng Kah Choy | Dual screen presentation notebook computer |
JP4789979B2 (ja) | 2008-06-30 | 2011-10-12 | パナソニック株式会社 | 端末装置及びデータ処理方法 |
JP2010102662A (ja) * | 2008-10-27 | 2010-05-06 | Sharp Corp | 表示装置、携帯端末 |
KR20100102868A (ko) | 2009-03-12 | 2010-09-27 | 양승희 | 다중 디바이스의 웹 데이터를 하나의 웹 문서로 전달하는 방법과 이 기술을 이용하여 웹 브라우징이 가능한 인터넷 멀티미디어 컨텐츠 적응형 리모컨 |
JP5330039B2 (ja) * | 2009-03-16 | 2013-10-30 | シャープ株式会社 | 無線伝送システム、中継機器、無線シンク機器、及び無線ソース機器 |
US9189124B2 (en) * | 2009-04-15 | 2015-11-17 | Wyse Technology L.L.C. | Custom pointer features for touch-screen on remote client devices |
KR20100129398A (ko) | 2009-06-01 | 2010-12-09 | 주식회사 알티캐스트 | 웹 페이지 네비게이션 방법 및 웹 페이지 네비게이션을 위한 리모트 컨트롤러 |
JP2011086050A (ja) | 2009-10-14 | 2011-04-28 | Sharp Corp | 情報処理端末及びコンピュータプログラム |
US20110199286A1 (en) * | 2010-02-13 | 2011-08-18 | Robin Dziama | Spherical Electronic LCD Display |
WO2011108109A1 (ja) | 2010-03-05 | 2011-09-09 | 富士通株式会社 | 画像表示システム、情報処理装置、表示装置、および画像表示方法 |
WO2012032409A2 (en) * | 2010-09-08 | 2012-03-15 | Telefonaktiebolaget L M Ericsson (Publ) | Gesture-based control of iptv system |
US8554282B2 (en) * | 2010-10-01 | 2013-10-08 | American Megatrends, Inc. | Methods, devices and computer program products for presenting screen content |
KR20120134732A (ko) | 2011-06-03 | 2012-12-12 | 삼성전자주식회사 | 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법 |
US8913019B2 (en) * | 2011-07-14 | 2014-12-16 | Microsoft Corporation | Multi-finger detection and component resolution |
US9008177B2 (en) * | 2011-12-12 | 2015-04-14 | Qualcomm Incorporated | Selective mirroring of media output |
JP5999452B2 (ja) | 2012-01-26 | 2016-09-28 | パナソニックIpマネジメント株式会社 | 携帯端末及び機器連携方法 |
US9967388B2 (en) * | 2012-02-21 | 2018-05-08 | Qualcomm Incorporated | Mirrored interface navigation of multiple user interfaces |
US9483086B2 (en) | 2012-07-30 | 2016-11-01 | Sap Se | Business object detail display |
-
2012
- 2012-04-24 KR KR1020120042718A patent/KR102027357B1/ko active IP Right Grant
-
2013
- 2013-04-22 EP EP13164697.8A patent/EP2657830B1/en active Active
- 2013-04-23 US US13/868,797 patent/US9626095B2/en active Active
- 2013-04-24 JP JP2013091074A patent/JP6207214B2/ja active Active
- 2013-04-24 CN CN201310145503.3A patent/CN103377284B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156263A (ja) * | 2005-12-07 | 2007-06-21 | Sharp Corp | 情報表示装置及び電子書籍装置 |
JP2009088713A (ja) * | 2007-09-27 | 2009-04-23 | Sharp Corp | 制御装置、遠隔操作装置、制御装置の制御方法、遠隔操作装置の制御方法、送受信システムおよび制御プログラム |
CN101978341A (zh) * | 2008-03-19 | 2011-02-16 | 环球电子有限公司 | 用于经由个人通信或娱乐设备的装置控制的系统和方法 |
CN102301317A (zh) * | 2009-02-04 | 2011-12-28 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN102147702A (zh) * | 2010-02-05 | 2011-08-10 | 三星电子株式会社 | 用于选择超链接的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2657830B1 (en) | 2021-03-31 |
KR20130119708A (ko) | 2013-11-01 |
US9626095B2 (en) | 2017-04-18 |
KR102027357B1 (ko) | 2019-10-01 |
JP6207214B2 (ja) | 2017-10-04 |
US20130283177A1 (en) | 2013-10-24 |
EP2657830A3 (en) | 2017-08-16 |
EP2657830A2 (en) | 2013-10-30 |
JP2013229026A (ja) | 2013-11-07 |
CN103377284A (zh) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103377284B (zh) | 用于浏览显示在外部设备上的信息的便携式设备及方法 | |
US11314804B2 (en) | Information search method and device and computer readable recording medium thereof | |
CN103543943B (zh) | 基于触摸和手势输入的控制方法及其终端 | |
JP5893032B2 (ja) | モバイルデバイスの画面上の領域選択方法及び装置 | |
CN104281259B (zh) | 信息处理装置、信息处理方法和程序 | |
CN104205098B (zh) | 使用阵列模式在浏览器中的内容项之间进行导航 | |
CN102695097A (zh) | 显示装置及控制其操作的方法 | |
JP6448900B2 (ja) | 状況情報基盤の情報提供方法、そのシステム及びその記録媒体 | |
CN105164714A (zh) | 用户终端装置及其控制方法 | |
US20140298244A1 (en) | Portable device using touch pen and application control method using the same | |
CN110083278A (zh) | 电子设备及其方法 | |
CN102122230A (zh) | 多手指手势 | |
CN103999028A (zh) | 不可见控件 | |
CN102207788A (zh) | 使用边框手势的径向菜单 | |
CN102754050A (zh) | 屏幕上和屏幕外手势组合 | |
CN102207818A (zh) | 使用屏幕上和屏幕外手势的页面操纵 | |
CN102122229A (zh) | 使用边框作为输入机制 | |
US10474344B2 (en) | Method, apparatus and recording medium for a scrolling screen | |
EP2400378A1 (en) | Information processing device, display control method and display control program | |
US20140181737A1 (en) | Method for processing contents and electronic device thereof | |
CN108628510A (zh) | 内容显示方法、装置、电子设备及可读存储介质 | |
EP2965181B1 (en) | Enhanced canvas environments | |
EP3001294B1 (en) | Mobile terminal and method for controlling the same | |
US20150363069A1 (en) | Display control | |
KR101231513B1 (ko) | 터치를 이용한 컨텐츠 제어방법, 장치, 이를 위한 기록매체 및 이를 포함하는 사용자 단말 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |