WO2016093448A1 - Mobile device and method for operating mobile device - Google Patents

Mobile device and method for operating mobile device Download PDF

Info

Publication number
WO2016093448A1
WO2016093448A1 PCT/KR2015/005743 KR2015005743W WO2016093448A1 WO 2016093448 A1 WO2016093448 A1 WO 2016093448A1 KR 2015005743 W KR2015005743 W KR 2015005743W WO 2016093448 A1 WO2016093448 A1 WO 2016093448A1
Authority
WO
WIPO (PCT)
Prior art keywords
application
mobile device
execution screen
wearable device
user
Prior art date
Application number
PCT/KR2015/005743
Other languages
French (fr)
Korean (ko)
Inventor
나현수
차상옥
최승억
최원영
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201580076019.7A priority Critical patent/CN107250970B/en
Priority to US15/534,109 priority patent/US10585636B2/en
Priority to EP15868434.0A priority patent/EP3232306B1/en
Publication of WO2016093448A1 publication Critical patent/WO2016093448A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the disclosed embodiments relate to a mobile device and a method of operating the mobile device.
  • Mobile devices such as smartphones, tablets or laptops can communicate wirelessly or wired with other devices.
  • the mobile device can send data to and receive data from another device.
  • the mobile device may operate in conjunction with another device.
  • the user can use at least two or more devices at the same time.
  • Two or more devices may create a user-friendly environment, and the user may execute an application or a program on two or more devices.
  • One disclosed embodiment provides a method and apparatus for displaying an application running on a mobile device on another device.
  • a mobile device may include a touch screen display; One or more processors; And a memory, wherein the processor is configured to display an execution screen of an application on the touch screen display, to receive a user input on or near the touch screen display, and to be communicatively connected based on the user input.
  • the execution screen of the application is transmitted to a device.
  • a mobile device may include a touch screen display; One or more processors; And a memory, wherein the processor executes the application, receives a user input on or near the touch screen display, and sends data about the application selected by the user input to a wearable device that is communicatively connected. Characterized in that the transmission.
  • a wearable device may include a display; One or more processors; And a memory, wherein the processor is configured to receive an execution screen of an application running on the mobile device from a mobile device connected in communication and to display the execution screen on the display.
  • a wearable device may include a display; One or more processors; And a memory, wherein the processor receives data on an application running on the mobile device from a mobile device connected in communication, executes the application, and displays an execution screen of the application.
  • a method of operating a mobile device may include displaying an execution screen of an application on a touch screen display; Receiving a user input on or near the touch screen display; And transmitting an execution screen of the application to a wearable device that is connected in communication based on the input of the user.
  • a method of operating a mobile device includes executing an application and displaying an execution screen on a touch screen display; Receiving a user input on or near the touch screen display; And transmitting data about an application selected by the user's input to a wearable device connected by communication.
  • FIG. 1 is a diagram for describing a method of operating devices, according to an exemplary embodiment.
  • FIG. 2 is a block diagram illustrating a mobile device according to an exemplary embodiment.
  • FIG. 3 is a block diagram illustrating a wearable device according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a method of scraping real-time bus information by a mobile device according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing a mobile device transmitting an execution screen in a background state according to an exemplary embodiment.
  • FIG. 6 is a diagram illustrating a method of scraping a real-time conversation by a mobile device according to an exemplary embodiment.
  • FIG. 7 is a diagram for describing a method of displaying, by a wearable device, an application executed by a mobile device, according to an exemplary embodiment.
  • FIG. 8 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
  • the second or third devices 20 or 30 may display the same data or image as the first device 10.
  • the first device 10 displays an execution screen of the application on the touch screen display.
  • the first device 10 may execute not only an application but also various programs and widgets.
  • the first device 10 may display a screen on which a program or a widget is executed.
  • the first device 10 receives a user input on or near the touch screen display.
  • the user may input a gesture for selecting a specific area 11 of the touch screen display.
  • the first device 10 determines the area 11 that the user wants to select through the user's gesture.
  • the first device 10 displays the menu 12 when the region 11 is selected.
  • the user may select any one of the menus 12 displayed on the first device 10. If the user selects a menu for transmitting data to the second or third devices 20 or 30 from the menu 12, the first device 10 may display an execution screen or an image displayed by the selected region 11. Data may be transmitted to the second or third devices 20 or 30.
  • the second device 20 or the third device 30 displays an execution screen or image data received from the first device 10.
  • the second device 20 represents an example of a wearable device
  • the third device 30 represents an example of a mobile device.
  • the first to third devices 10 to 30 are devices capable of communicating wirelessly or wired.
  • the mobile device 100 includes a touch screen display 110, a processor 120, and a memory 130.
  • the mobile device 100 may transmit an execution screen or image data of an application to another device connected in communication based on a user input received through the touch screen display 110.
  • the mobile device 100 represents an electronic device that a user can carry, such as a mobile phone, a tablet, a wearable device, and a notebook.
  • the touch screen display 110 detects a user's input.
  • the user may input a gesture to the touch screen display 110 using a finger, a touch pen, or the like.
  • the touch screen display 110 transmits the sensed input to the processor 120.
  • the processor 120 displays an execution screen of an application on the touch screen display 110.
  • the processor 120 displays an execution screen or a basic screen of the currently running application on the touch screen display 110.
  • the processor 120 may display a clock, an alarm, a game, a movie, and the like on the touch screen display 110.
  • the processor 120 receives a user input on or near the touch screen display 110.
  • the user's input may be a gesture indicating a specific area.
  • the processor 120 transmits an execution screen inside the closed loop.
  • the closed loop may be in the form of a circle or polygon.
  • the processor 120 may display the menu 12 when a user input forms a closed loop.
  • the processor 120 transmits an execution screen of an application to a device connected by communication based on a user input.
  • the processor 120 transmits only the execution screen of the area designated by the user to another device.
  • the processor 120 may convert the execution screen into image data and transmit the image.
  • the processor 120 may transmit information of an application being executed at the time when a user input is received to another device, so that another device may execute the application.
  • the processor 120 transmits the updated execution screen.
  • the processor 120 transmits the execution screen to the device even when the application is in the background state.
  • the execution screen of the application is not displayed on the touch screen display 110, but the state in which the application is running.
  • the processor 120 may transmit the execution screen of the application to other devices even if the execution screen of the application is not displayed on the touch screen display 110.
  • the memory 130 may store data processed by the processor 120 or store a program executed by the processor.
  • the wearable device 200 includes a display 210, a processor 220, and a memory 230.
  • the wearable device 200 displays an execution screen received from the mobile device 100.
  • the wearable device 200 may be an electronic device that can be carried by a user, such as a mobile phone, a tablet, a notebook, as well as an electronic device that can be worn on a user's body, such as a smart watch and smart glass.
  • the wearable device 200 and the mobile device 100 are connected by communication.
  • the wearable device 200 and the mobile device 100 may be connected by wireless or wired communication.
  • the processor 220 receives an execution screen of an application from the mobile device 100.
  • the processor 220 may receive an execution screen of an application from the mobile device 100 as image data or receive information of the application.
  • the processor 220 displays the received execution screen on the display 210.
  • the processor 220 transmits the image data to the display 210.
  • the processor 220 receives the application information, the processor 220 executes the application and displays the application on the display 210.
  • the information of the application may be identification information such as a name for identifying the application and content to be displayed when the application is executed.
  • the display 210 is controlled by the processor 220 and displays data or an image.
  • the memory 230 may store data processed by the processor 220 or a program executed by the processor 220. Alternatively, the memory 230 may store data or information received from the mobile device 100.
  • FIG. 4 is a diagram illustrating a method of scraping real-time bus information by a mobile device according to an exemplary embodiment.
  • the wearable device 200 may display the scraped area 40 in the mobile device 100.
  • the mobile device 100 executes an application for displaying real time bus information.
  • the mobile device 100 may display a screen indicating the location of bus 197.
  • the mobile device 100 may display bus stops at which bus 197 stops and the location of the current bus. 4 shows that the bus is currently stopped at Broadway.
  • the mobile device 100 receives an area 40 to be displayed on the wearable device 200 by the user. For example, the user can select area 40.
  • the area 40 includes three stops (Astoria, 30 Ave, Broadway).
  • the mobile device 100 transmits data or an image displayed on the selected area 40 to the wearable device 200.
  • the mobile device 100 may update data or an image displayed in the area 40, and transmit the updated data or image to the wearable device 200.
  • the mobile device 100 may transmit the updated data or image to the wearable device 200 whenever the data or image displayed in the area 40 is updated.
  • the wearable device 200 displays data or an image received from the mobile device 100. For example, in FIG. 4, the wearable device 200 displays the area 40 received from the mobile device 100. The wearable device 200 displays data or an image on the display 210 whenever it receives data or an image from the mobile device 100. Therefore, the user may monitor the content displayed on the mobile device 100 in real time using the wearable device 200.
  • FIG. 5 is a diagram for describing a mobile device transmitting an execution screen in a background state according to an exemplary embodiment.
  • the mobile device 100 transmits the execution screen of the application to the wearable device 200 in real time even when the application selected by the user is in the background state.
  • FIG 5 illustrates a case in which the mobile device 100 changes an application to a background state. Changing an application to the background state means that the application is running but is not being displayed.
  • the mobile device 100 displays real-time bus information while displaying a background screen. If the user does not exit the application displaying the bus information, the real time bus information is in the background state, and the application continues in the operating state. Even if the user executes another application using the mobile device 100, the previous application continues to run unless the previous application is terminated. Accordingly, the mobile device 100 does not display the execution screen of the previous application on the touch screen display 110 of the mobile device 100, but the image of the area 50 of the execution screen of the previous application is wearable device 200. To send). Thus, the wearable device 200 may continuously display bus information.
  • FIG. 6 is a diagram illustrating a method of scraping a real-time conversation by a mobile device according to an exemplary embodiment.
  • the wearable device 200 may display the scraped area 60 in a chat window displayed on the mobile device 100.
  • Mobile device 100 displays a real time conversation.
  • the user may execute an application such as a messenger or a program for sending a message.
  • the user may talk with the other party through a messenger or the like.
  • the user can select an area 60 to be scraped from the chat window.
  • the mobile device 100 receives a user input and detects an area 60 that the user wants to scrap. After the user selects the area 60, the user may request to transmit data or an image displayed in the selected area 60 to the wearable device 200. The mobile device 100 transmits data or an image displayed in the area 60 to the wearable device 200 according to a user's request.
  • the wearable device 200 displays data or an image received from the mobile device 100. Accordingly, the user may monitor in real time the contents displayed in the chat window of the mobile device 100 through the wearable device 200.
  • the mobile device 100 may transmit a control signal to the wearable device 200 so that the application selected by the user is executed in the wearable device 200.
  • the mobile device 100 executes the application and selects the running application according to the user's input.
  • the user may select an application currently running through the touch screen display 110.
  • the mobile device 100 may display a pop-up window indicating whether to select an application currently running. In addition, the mobile device 100 determines whether to run the application on the wearable device 200 according to a user input. The user can determine whether to execute the application by touching the Yes and No areas displayed in the popup window.
  • the mobile device 100 may transmit the information of the application and data representing the current state of the application to the wearable device 200.
  • the mobile device 100 may transmit data or a control signal so that the wearable device 200 performs the same operation as the mobile device 100.
  • the mobile device 100 may transmit a control signal to the wearable device 200 to select the music player and to execute the music player.
  • the mobile device 100 may transmit an installation program of the music player to the wearable device 200.
  • the mobile device 100 transmits information on the music currently being played to the wearable device 200, and transmits a control signal to the wearable device 200 so that the wearable device 200 plays the same music as the music being played on the mobile device 100. To send). If music is not stored in the wearable device 200, the mobile device 100 may transmit music to the wearable device 200.
  • the wearable device 200 executes the application and displays an execution screen of the application based on the information received from the mobile device 100. Also, the wearable device 200 may play music being played on the mobile device 100.
  • FIG. 8 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
  • the mobile device 100 displays an execution screen of an application on the touch screen display 110.
  • the mobile device 100 receives a user input on or near the touch screen display 110.
  • the user may select a specific area of the touch screen display 110.
  • the mobile device 100 may display a menu when the user's touch ends.
  • the menu shows functions corresponding to the user's input. The user selects a desired function from the menu.
  • the mobile device 100 transmits an execution screen of the application to the wearable device 200 connected by communication based on a user input.
  • the function selected by the user is a function of scraping the selected area
  • the mobile device 100 transmits an execution screen displayed on the selected area to the wearable device 200.
  • the mobile device 100 transmits an image or text to the wearable device 200 to control the wearable device 200 such that the wearable device 200 displays an image or text.
  • FIG. 9 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
  • the wearable device 200 receives an execution screen of an application running on the mobile device 100 from the mobile device 100 connected by communication.
  • the wearable device 200 may receive an image or text.
  • the mobile device 100 transmits the updated image or text to the wearable device 200.
  • the wearable device 200 displays the received execution screen on the display 210.
  • the wearable device 200 displays an image or text on the display 210 and, when an updated image or text is received, displays the updated image or text.
  • FIG. 10 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
  • the mobile device 100 executes an application to display an execution screen on the touch screen display.
  • the mobile device 100 receives a user input on or near the touch screen display 110.
  • the user can select a running application.
  • the mobile device 100 identifies the application selected by the user.
  • the mobile device 100 transmits data about an application selected by a user input to the wearable device 200 connected by communication.
  • the mobile device 100 may transmit the name, identification information, download information, and the like of the application to the wearable device 200.
  • the mobile device 100 may transmit a program to the wearable device 200 to allow the wearable device 200 to install an application.
  • the mobile device 100 may transmit information indicating the execution state of the application to the wearable device 200. In other words, the mobile device 100 may transmit the image displayed by the current application and the processed data to the wearable device 200 after executing the application.
  • FIG. 11 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
  • the wearable device 200 receives data about an application running on the mobile device from the mobile device 100 connected in communication.
  • the wearable device 200 executes an application.
  • the wearable device 200 may download the application from the server by referring to data about the application.
  • the wearable device 200 may receive a program from the mobile device 100 and install an application.
  • the wearable device 200 displays an execution screen of the application.
  • the wearable device 200 may display the same execution screen as the mobile device 100 with reference to the data received from the mobile device 100.
  • the wearable device 200 may display the same execution screen as the mobile device 100.
  • the mobile device 100 may transmit an image or text displayed in an area designated by a user to the wearable device 200.
  • a device may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like. Interface devices and the like.
  • Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor.
  • the computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
  • the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the medium is readable by the computer, stored in the memory, and can be executed by the processor.
  • This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions.
  • an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them.
  • the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like.
  • the functional aspects may be implemented with an algorithm running on one or more processors.
  • the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as “mechanism”, “element”, “means” and “configuration” can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A disclosed mobile device according to an embodiment comprises: a touch screen display; at least one processor; and a memory, wherein the processor displays an execution screen of an application on the touch screen display, receives a user's input on or near the touch screen display, and transmits the execution screen of the application to a wearable device, which is connected through communication, on the basis of the user's input.

Description

모바일 디바이스 및 모바일 디바이스의 동작 방법Mobile device and operation method of mobile device
개시된 실시 예들은 모바일 디바이스 및 모바일 디바이스의 동작 방법에 관한 것이다.The disclosed embodiments relate to a mobile device and a method of operating the mobile device.
스마트 폰, 태블릿 또는 노트북과 같은 모바일 디바이스는 다른 디바이스들과 무선 또는 유선으로 통신이 가능하다. 모바일 디바이스는 다른 디바이스로 데이터를 전송할 수 있고, 다른 디바이스로부터 데이터를 수신할 수 있다. 모바일 디바이스는 다른 디바이스와 연동되어 동작할 수 있다.Mobile devices such as smartphones, tablets or laptops can communicate wirelessly or wired with other devices. The mobile device can send data to and receive data from another device. The mobile device may operate in conjunction with another device.
사용자는 적어도 2 이상의 디바이스들을 동시에 사용할 수 있다. 2개 이상의 디바이스들은 사용자가 이용하기 편리한 사용 환경을 구축할 수 있으며, 사용자는 어플리케이션 또는 프로그램 등을 2개 이상의 디바이스들에서 실행할 수 있다.The user can use at least two or more devices at the same time. Two or more devices may create a user-friendly environment, and the user may execute an application or a program on two or more devices.
개시된 일 실시 예는 모바일 디바이스에서 실행 중인 어플리케이션을 다른 디바이스에서 표시하는 방법 및 장치를 제공하는데 있다.One disclosed embodiment provides a method and apparatus for displaying an application running on a mobile device on another device.
일 실시 예에 따른 모바일 디바이스는 터치 스크린 디스플레이; 하나 이상의 프로세서; 및 메모리를 포함하고, 상기 프로세서는, 상기 터치 스크린 디스플레이에 어플리케이션의 실행 화면을 표시하고, 상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하고, 상기 사용자의 입력에 기초하여 통신으로 연결된 웨어러블 디바이스로 상기 어플리케이션의 실행 화면을 전송하는 것을 특징으로 한다.According to an embodiment, a mobile device may include a touch screen display; One or more processors; And a memory, wherein the processor is configured to display an execution screen of an application on the touch screen display, to receive a user input on or near the touch screen display, and to be communicatively connected based on the user input. The execution screen of the application is transmitted to a device.
일 실시 예에 따른 모바일 디바이스는 터치 스크린 디스플레이; 하나 이상의 프로세서; 및 메모리를 포함하고, 상기 프로세서는, 상기 어플리케이션을 실행하고, 상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하고, 상기 사용자의 입력에 의해 선택된 어플리케이션에 대한 데이터를 통신으로 연결된 웨어러블 디바이스로 전송하는 것을 특징으로 한다.According to an embodiment, a mobile device may include a touch screen display; One or more processors; And a memory, wherein the processor executes the application, receives a user input on or near the touch screen display, and sends data about the application selected by the user input to a wearable device that is communicatively connected. Characterized in that the transmission.
일 실시 예에 따른 웨어러블 디바이스는 디스플레이; 하나 이상의 프로세서; 및 메모리를 포함하고, 상기 프로세서는, 통신으로 연결된 모바일 디바이스로부터 상기 모바일 디바이스에서 실행 중인 어플리케이션의 실행 화면을 수신하고, 상기 실행 화면을 상기 디스플레이에 표시하는 것을 특징으로 한다.According to an embodiment, a wearable device may include a display; One or more processors; And a memory, wherein the processor is configured to receive an execution screen of an application running on the mobile device from a mobile device connected in communication and to display the execution screen on the display.
일 실시 예에 따른 웨어러블 디바이스는 디스플레이; 하나 이상의 프로세서; 및 메모리를 포함하고, 상기 프로세서는, 통신으로 연결된 모바일 디바이스로부터 상기 모바일 디바이스에서 실행 중인 어플리케이션에 대한 데이터를 수신하고, 상기 어플리케이션을 실행하고, 상기 어플리케이션의 실행 화면을 표시하는 것을 특징으로 한다.According to an embodiment, a wearable device may include a display; One or more processors; And a memory, wherein the processor receives data on an application running on the mobile device from a mobile device connected in communication, executes the application, and displays an execution screen of the application.
일 실시 예에 따른 모바일 디바이스의 동작 방법은 터치 스크린 디스플레이에 어플리케이션의 실행 화면을 표시하는 단계; 상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하는 단계; 및 상기 사용자의 입력에 기초하여 통신으로 연결된 웨어러블 디바이스로 상기 어플리케이션의 실행 화면을 전송하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, a method of operating a mobile device may include displaying an execution screen of an application on a touch screen display; Receiving a user input on or near the touch screen display; And transmitting an execution screen of the application to a wearable device that is connected in communication based on the input of the user.
일 실시 예에 따른 모바일 디바이스의 동작 방법은 어플리케이션을 실행하여 실행 화면을 터치 스크린 디스플레이에 표시하는 단계; 상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하는 단계; 및 통신으로 연결된 웨어러블 디바이스로 상기 사용자의 입력에 의해 선택된 어플리케이션에 대한 데이터를 전송하는 단계를 포함하는 것을 특징으로 한다.According to one or more exemplary embodiments, a method of operating a mobile device includes executing an application and displaying an execution screen on a touch screen display; Receiving a user input on or near the touch screen display; And transmitting data about an application selected by the user's input to a wearable device connected by communication.
도 1은 일 실시 예에 따른 디바이스들의 동작 방법을 설명하기 위한 도면이다.1 is a diagram for describing a method of operating devices, according to an exemplary embodiment.
도 2는 일 실시 예에 따른 모바일 디바이스를 나타내는 구성도이다.2 is a block diagram illustrating a mobile device according to an exemplary embodiment.
도 3은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다.3 is a block diagram illustrating a wearable device according to an exemplary embodiment.
도 4는 일 실시 예에 따른 모바일 디바이스가 실시간 버스 정보를 스크랩하는 방법을 나타내는 도면이다.4 is a diagram illustrating a method of scraping real-time bus information by a mobile device according to an exemplary embodiment.
도 5는 일 실시 예에 따른 모바일 디바이스가 백그라운드 상태에서 실행 화면을 전송하는 것을 설명하기 위한 도면이다.5 is a diagram for describing a mobile device transmitting an execution screen in a background state according to an exemplary embodiment.
도 6은 일 실시 예에 따른 모바일 디바이스가 실시간 대화를 스크랩하는 방법을 나타내는 도면이다.6 is a diagram illustrating a method of scraping a real-time conversation by a mobile device according to an exemplary embodiment.
도 7은 일 실시 예에 따른 모바일 디바이스가 실행하는 어플리케이션을 웨어러블 디바이스가 표시하는 방법을 설명하기 위한 도면이다.7 is a diagram for describing a method of displaying, by a wearable device, an application executed by a mobile device, according to an exemplary embodiment.
도 8은 일 실시 예에 따른 모바일 디바이스의 동작 방법을 나타내는 순서도이다.8 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
도 9는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 나타내는 순서도이다.9 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
도 10은 일 실시 예에 따른 모바일 디바이스의 동작 방법을 나타내는 순서도이다.10 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
도 11은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 나타내는 순서도이다. 11 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
도 1은 일 실시 예에 따른 디바이스들의 동작 방법을 설명하기 위한 도면이다. 도 1을 참조하면, 제2 또는 제3 디바이스들(20 또는 30)는 제1 디바이스(10)와 동일한 데이터 또는 영상을 표시할 수 있다.1 is a diagram for describing a method of operating devices, according to an exemplary embodiment. Referring to FIG. 1, the second or third devices 20 or 30 may display the same data or image as the first device 10.
제1 디바이스(10)는 터치 스크린 디스플레이에 어플리케이션의 실행 화면을 표시한다. 제1 디바이스(10)는 어플리케이션뿐만 아니라, 각종 프로그램, 위젯 등을 실행할 수 있다. 제1 디바이스(10)는 프로그램 또는 위젯 등이 실행되는 화면을 표시할 수 있다.The first device 10 displays an execution screen of the application on the touch screen display. The first device 10 may execute not only an application but also various programs and widgets. The first device 10 may display a screen on which a program or a widget is executed.
제1 디바이스(10)는 터치 스크린 디스플레이 상(on) 또는 근처(near)에서 사용자의 입력을 수신한다. 사용자는 터치 스크린 디스플레이의 특정 영역(11)을 선택하는 제스처를 입력할 수 있다. 제1 디바이스(10)는 사용자의 제스처를 통해 사용자가 선택하고자 하는 영역(11)을 결정한다. The first device 10 receives a user input on or near the touch screen display. The user may input a gesture for selecting a specific area 11 of the touch screen display. The first device 10 determines the area 11 that the user wants to select through the user's gesture.
제1 디바이스(10)는 영역(11)이 선택되면, 메뉴(12)를 표시한다. 사용자는 제1 디바이스(10)에 표시된 메뉴(12) 중 어느 하나를 선택할 수 있다. 만약, 사용자가 메뉴(12) 중에서 제2 또는 제3 디바이스들(20 또는 30)로 데이터를 전송하는 메뉴를 선택하면, 제1 디바이스(10)는 선택된 영역(11)이 표시하는 실행 화면 또는 영상 데이터를 제2 또는 제3 디바이스들(20 또는 30)로 전송할 수 있다.The first device 10 displays the menu 12 when the region 11 is selected. The user may select any one of the menus 12 displayed on the first device 10. If the user selects a menu for transmitting data to the second or third devices 20 or 30 from the menu 12, the first device 10 may display an execution screen or an image displayed by the selected region 11. Data may be transmitted to the second or third devices 20 or 30.
제2 디바이스(20) 또는 제3 디바이스(30)는 제1 디바이스(10)로부터 수신된 실행 화면 또는 영상 데이터를 표시한다. 제2 디바이스(20)는 웨어러블 디바이스의 일 예를 나타내며, 제3 디바이스(30)는 모바일 디바이스의 일 예를 나타낸다. 제1 내지 제3 디바이스들(10 내지 30)은 무선 또는 유선으로 통신 가능한 디바이스들이다.The second device 20 or the third device 30 displays an execution screen or image data received from the first device 10. The second device 20 represents an example of a wearable device, and the third device 30 represents an example of a mobile device. The first to third devices 10 to 30 are devices capable of communicating wirelessly or wired.
도 2는 일 실시 예에 따른 모바일 디바이스를 나타내는 구성도이다. 도 2를 참조하면, 모바일 디바이스(100)는 터치 스크린 디스플레이(110), 프로세서(120) 및 메모리(130)를 포함한다. 모바일 디바이스(100)는 터치 스크린 디스플레이(110)를 통해 수신된 사용자의 입력에 기초하여 통신으로 연결된 다른 디바이스로 어플리케이션의 실행 화면 또는 영상 데이터를 전송할 수 있다.2 is a block diagram illustrating a mobile device according to an exemplary embodiment. 2, the mobile device 100 includes a touch screen display 110, a processor 120, and a memory 130. The mobile device 100 may transmit an execution screen or image data of an application to another device connected in communication based on a user input received through the touch screen display 110.
모바일 디바이스(100)는 휴대폰, 태블릿, 웨어러블 디바이스, 노트북 등 사용자가 휴대할 수 있는 전자 기기를 나타낸다.The mobile device 100 represents an electronic device that a user can carry, such as a mobile phone, a tablet, a wearable device, and a notebook.
터치 스크린 디스플레이(110)는 사용자의 입력을 감지한다. 사용자는 손가락, 터치 펜 등을 이용하여 터치 스크린 디스플레이(110)에 제스처를 입력할 수 있다. 터치 스크린 디스플레이(110)는 프로세서(120)로 감지된 입력을 전송한다.The touch screen display 110 detects a user's input. The user may input a gesture to the touch screen display 110 using a finger, a touch pen, or the like. The touch screen display 110 transmits the sensed input to the processor 120.
프로세서(120)는 터치 스크린 디스플레이(110)에 어플리케이션의 실행 화면을 표시한다. 프로세서(120)는 현재 실행 중인 어플리케이션의 실행 화면 또는 기본 화면 등을 터치 스크린 디스플레이(110)에 표시한다. 프로세서(120)는 시계, 알람, 게임, 영화 등을 터치 스크린 디스플레이(110)에 표시할 수 있다.The processor 120 displays an execution screen of an application on the touch screen display 110. The processor 120 displays an execution screen or a basic screen of the currently running application on the touch screen display 110. The processor 120 may display a clock, an alarm, a game, a movie, and the like on the touch screen display 110.
프로세서(120)는 터치 스크린 디스플레이(110) 상(on)에 또는 근처(near)에서 사용자의 입력을 수신한다. 사용자의 입력은 특정 영역을 나타내는 제스처일 수 있다. 프로세서(120)는 사용자의 입력이 폐루프(closed loop)를 형성하는 경우 폐루프 내부의 실행 화면을 전송한다. 폐루프는 원 또는 다각형 등의 형태일 수 있다. 또는 프로세서(120)는 사용자의 입력이 폐루프를 형성하는 경우 메뉴(12)를 표시할 수 있다.The processor 120 receives a user input on or near the touch screen display 110. The user's input may be a gesture indicating a specific area. When the user's input forms a closed loop, the processor 120 transmits an execution screen inside the closed loop. The closed loop may be in the form of a circle or polygon. Alternatively, the processor 120 may display the menu 12 when a user input forms a closed loop.
프로세서(120)는 사용자의 입력에 기초하여 통신으로 연결된 디바이스로 어플리케이션의 실행 화면을 전송한다. 프로세서(120)는 사용자가 지정한 영역의 실행 화면만을 다른 디바이스로 전송한다. 프로세서(120)는 실행 화면을 영상 데이터로 변환하여 전송할 수 있다. 또한 프로세서(120)는 사용자의 입력이 수신되는 시점에 실행되고 있는 어플리케이션의 정보를 다른 디바이스로 전송하여, 다른 디바이스가 어플리케이션을 실행하게 할 수 있다. 프로세서(120)는 실행 화면이 업데이트되면 업데이트된 실행 화면을 전송한다.The processor 120 transmits an execution screen of an application to a device connected by communication based on a user input. The processor 120 transmits only the execution screen of the area designated by the user to another device. The processor 120 may convert the execution screen into image data and transmit the image. In addition, the processor 120 may transmit information of an application being executed at the time when a user input is received to another device, so that another device may execute the application. When the execution screen is updated, the processor 120 transmits the updated execution screen.
프로세서(120)는 어플리케이션이 백그라운드 상태가 되어도 실행 화면을 디바이스로 전송한다. 어플리케이션이 백그라운드 상태가 된다는 것은 어플리케이션의 실행 화면이 터치 스크린 디스플레이(110)에 표시되지는 않으나, 어플리케이션이 실행되고 있는 상태를 나타낸다. 프로세서(120)는 어플리케이션의 실행 화면이 터치 스크린 디스플레이(110)에 표시되지 않아도, 어플리케이션의 실행 화면을 다른 디바이스들로 전송할 수 있다.The processor 120 transmits the execution screen to the device even when the application is in the background state. When the application is in the background state, the execution screen of the application is not displayed on the touch screen display 110, but the state in which the application is running. The processor 120 may transmit the execution screen of the application to other devices even if the execution screen of the application is not displayed on the touch screen display 110.
메모리(130)는 프로세서(120)에서 처리하는 데이터를 저장하거나, 프로세서에 의해 실행되는 프로그램을 저장할 수 있다.The memory 130 may store data processed by the processor 120 or store a program executed by the processor.
도 3은 일 실시 예에 따른 웨어러블 디바이스를 나타내는 구성도이다. 도 3을 참조하면, 웨어러블 디바이스(200)는 디스플레이(210), 프로세서(220) 및 메모리(230)를 포함한다. 웨어러블 디바이스(200)는 모바일 디바이스(100)로부터 수신된 실행 화면을 표시한다. 웨어러블 디바이스(200)는 스마트 워치, 스마트 글래스(smart glass) 등 사용자의 신체에 착용 가능한 전자 기기뿐만 아니라, 휴대폰, 태블릿, 노트북 등 사용자가 휴대할 수 있는 전자 기기일 수 있다.3 is a block diagram illustrating a wearable device according to an exemplary embodiment. Referring to FIG. 3, the wearable device 200 includes a display 210, a processor 220, and a memory 230. The wearable device 200 displays an execution screen received from the mobile device 100. The wearable device 200 may be an electronic device that can be carried by a user, such as a mobile phone, a tablet, a notebook, as well as an electronic device that can be worn on a user's body, such as a smart watch and smart glass.
웨어러블 디바이스(200)와 모바일 디바이스(100)는 통신으로 연결된다. 예를 들어, 웨어러블 디바이스(200)와 모바일 디바이스(100)는 무선 또는 유선 통신으로 연결될 수 있다. The wearable device 200 and the mobile device 100 are connected by communication. For example, the wearable device 200 and the mobile device 100 may be connected by wireless or wired communication.
프로세서(220)는 모바일 디바이스(100)로부터 어플리케이션의 실행 화면을 수신한다. 프로세서(220)는 모바일 디바이스(100)로부터 어플리케이션의 실행 화면을 영상 데이터로 수신하거나, 어플리케이션의 정보를 수신할 수도 있다.The processor 220 receives an execution screen of an application from the mobile device 100. The processor 220 may receive an execution screen of an application from the mobile device 100 as image data or receive information of the application.
프로세서(220)는 수신된 실행 화면을 디스플레이(210)에 표시한다. 프로세서(220)는 영상 데이터가 수신된 경우, 영상 데이터를 디스플레이(210)로 전송한다. 프로세서(220)는 어플리케이션의 정보를 수신한 경우, 어플리케이션을 실행하고, 어플리케이션을 디스플레이(210)에 표시한다. 어플리케이션의 정보는 어플리케이션을 식별하기 위한 명칭과 같은 식별 정보 및 어플리케이션이 실행되었을 때 표시될 내용 등일 수 있다.The processor 220 displays the received execution screen on the display 210. When the image data is received, the processor 220 transmits the image data to the display 210. When the processor 220 receives the application information, the processor 220 executes the application and displays the application on the display 210. The information of the application may be identification information such as a name for identifying the application and content to be displayed when the application is executed.
디스플레이(210)는 프로세서(220)에 의해 제어되며, 데이터 또는 영상을 표시한다. The display 210 is controlled by the processor 220 and displays data or an image.
메모리(230)는 프로세서(220)에서 처리하는 데이터를 저장하거나, 프로세서(220)에 의해 실행되는 프로그램을 저장할 수 있다. 또는 메모리(230)는 모바일 디바이스(100)로부터 수신되는 데이터 또는 정보를 저장할 수 있다.The memory 230 may store data processed by the processor 220 or a program executed by the processor 220. Alternatively, the memory 230 may store data or information received from the mobile device 100.
도 4는 일 실시 예에 따른 모바일 디바이스가 실시간 버스 정보를 스크랩하는 방법을 나타내는 도면이다. 도 4를 참조하면, 웨어러블 디바이스(200)는 모바일 디바이스(100)에서 스크랩된 영역(40)을 표시할 수 있다.4 is a diagram illustrating a method of scraping real-time bus information by a mobile device according to an exemplary embodiment. Referring to FIG. 4, the wearable device 200 may display the scraped area 40 in the mobile device 100.
모바일 디바이스(100)는 실시간 버스 정보를 표시하는 어플리케이션을 실행한다. 예를 들어, 모바일 디바이스(100)는 197번 버스의 위치를 나타내는 화면을 표시할 수 있다. 모바일 디바이스(100)는 197번 버스가 멈추는 버스 정류장들 및 현재 버스의 위치를 표시할 수 있다. 도 4에서는 현재 버스가 Broadway에 정차하고 있음을 나타내고 있다.The mobile device 100 executes an application for displaying real time bus information. For example, the mobile device 100 may display a screen indicating the location of bus 197. The mobile device 100 may display bus stops at which bus 197 stops and the location of the current bus. 4 shows that the bus is currently stopped at Broadway.
모바일 디바이스(100)는 사용자가 웨어러블 디바이스(200)에 표시하고자 하는 영역(40)을 수신한다. 예를 들어, 사용자는 영역(40)을 선택할 수 있다. 영역(40)은 3개의 정류장들(Astoria, 30 Ave, Broadway)를 포함한다. 모바일 디바이스(100)는 선택된 영역(40)에 표시되는 데이터 또는 이미지를 웨어러블 디바이스(200)로 전송한다.The mobile device 100 receives an area 40 to be displayed on the wearable device 200 by the user. For example, the user can select area 40. The area 40 includes three stops (Astoria, 30 Ave, Broadway). The mobile device 100 transmits data or an image displayed on the selected area 40 to the wearable device 200.
모바일 디바이스(100)는 영역(40)에 표시되는 데이터 또는 이미지를 업데이트할 수 있으며, 업데이트된 데이터 또는 이미지를 웨어러블 디바이스(200)로 전송한다. 모바일 디바이스(100)는 영역(40)에 표시된 데이터 또는 이미지가 업데이트될 때마다 업데이트된 데이터 또는 이미지를 웨어러블 디바이스(200)로 전송할 수 있다.The mobile device 100 may update data or an image displayed in the area 40, and transmit the updated data or image to the wearable device 200. The mobile device 100 may transmit the updated data or image to the wearable device 200 whenever the data or image displayed in the area 40 is updated.
웨어러블 디바이스(200)는 모바일 디바이스(100)로부터 수신된 데이터 또는 이미지를 표시한다. 예를 들어, 도 4에서 웨어러블 디바이스(200)는 모바일 디바이스(100)으로부터 수신한 영역(40)을 표시하고 있다. 웨어러블 디바이스(200)는 모바일 디바이스(100)로부터 데이터 또는 이미지를 수신할 때마다 디스플레이(210)에 데이터 또는 이미지를 표시한다. 따라서, 사용자는 웨어러블 디바이스(200)를 이용하여 모바일 디바이스(100)에 표시되는 내용을 실시간으로 모니터링 할 수 있다.The wearable device 200 displays data or an image received from the mobile device 100. For example, in FIG. 4, the wearable device 200 displays the area 40 received from the mobile device 100. The wearable device 200 displays data or an image on the display 210 whenever it receives data or an image from the mobile device 100. Therefore, the user may monitor the content displayed on the mobile device 100 in real time using the wearable device 200.
도 5는 일 실시 예에 따른 모바일 디바이스가 백그라운드 상태에서 실행 화면을 전송하는 것을 설명하기 위한 도면이다. 도 5를 참조하면, 모바일 디바이스(100)는 사용자에 의해 선택된 어플리케이션이 백그라운드 상태가 되어도 어플리케이션의 실행 화면을 실시간으로 웨어러블 디바이스(200)로 전송한다.5 is a diagram for describing a mobile device transmitting an execution screen in a background state according to an exemplary embodiment. Referring to FIG. 5, the mobile device 100 transmits the execution screen of the application to the wearable device 200 in real time even when the application selected by the user is in the background state.
도 5는 모바일 디바이스(100)가 어플리케이션을 백그라운드 상태로 변경하는 경우를 도시하고 있다. 어플리케이션이 백그라운드 상태로 변경된다는 것은 어플리케이션을 실행하고 있으나 어플리케이션이 표시되고 있지 않는 상태가 되는 것을 의미한다. 5 illustrates a case in which the mobile device 100 changes an application to a background state. Changing an application to the background state means that the application is running but is not being displayed.
도 5에서는 모바일 디바이스(100)가 실시간 버스 정보를 표시하다가 바탕화면을 표시하는 예를 도시하고 있다. 사용자가 버스 정보를 표시하는 어플리케이션을 종료하지 않는 경우, 실시간 버스 정보는 백그라운드 상태가 되며, 어플리케이션은 계속하여 동작 상태가 된다. 사용자가 모바일 디바이스(100)를 이용하여 다른 어플리케이션을 실행하더라도 이전의 어플리케이션을 종료하지 않는 경우 이전의 어플리케이션은 계속하여 실행된다. 따라서, 모바일 디바이스(100)는 모바일 디바이스(100)의 터치 스크린 디스플레이(110)에 이전의 어플리케이션의 실행 화면을 표시하지는 않으나, 이전의 어플리케이션의 실행 화면 중 영역(50)의 이미지를 웨어러블 디바이스(200)로 전송한다. 따라서, 웨어러블 디바이스(200)는 계속하여 버스 정보를 표시할 수 있다.5 illustrates an example in which the mobile device 100 displays real-time bus information while displaying a background screen. If the user does not exit the application displaying the bus information, the real time bus information is in the background state, and the application continues in the operating state. Even if the user executes another application using the mobile device 100, the previous application continues to run unless the previous application is terminated. Accordingly, the mobile device 100 does not display the execution screen of the previous application on the touch screen display 110 of the mobile device 100, but the image of the area 50 of the execution screen of the previous application is wearable device 200. To send). Thus, the wearable device 200 may continuously display bus information.
도 6은 일 실시 예에 따른 모바일 디바이스가 실시간 대화를 스크랩하는 방법을 나타내는 도면이다. 도 6을 참조하면, 웨어러블 디바이스(200)는 모바일 디바이스(100)에 표시된 대화창에서 스크랩된 영역(60)을 표시할 수 있다.6 is a diagram illustrating a method of scraping a real-time conversation by a mobile device according to an exemplary embodiment. Referring to FIG. 6, the wearable device 200 may display the scraped area 60 in a chat window displayed on the mobile device 100.
모바일 디바이스(100)는 실시간 대화를 표시한다. 사용자는 메신저와 같은 어플리케이션을 실행하거나 메시지를 보내기 위한 프로그램 등을 실행할 수 있다. 사용자는 상대방과 메신저 등을 통해 대화할 수 있다. Mobile device 100 displays a real time conversation. The user may execute an application such as a messenger or a program for sending a message. The user may talk with the other party through a messenger or the like.
사용자는 대화창에서 스크랩하기를 원하는 영역(60)을 선택할 수 있다. 모바일 디바이스(100)는 사용자의 입력을 수신하여, 사용자가 스크랩하기를 원하는 영역(60)을 감지한다. 사용자는 영역(60)을 선택한 이후에, 선택된 영역(60)에서 표시되는 데이터 또는 이미지를 웨어러블 디바이스(200)로 전송할 것을 요청할 수 있다. 모바일 디바이스(100)는 사용자의 요청에 따라 영역(60)에 표시되는 데이터 또는 이미지를 웨어러블 디바이스(200)로 전송한다.The user can select an area 60 to be scraped from the chat window. The mobile device 100 receives a user input and detects an area 60 that the user wants to scrap. After the user selects the area 60, the user may request to transmit data or an image displayed in the selected area 60 to the wearable device 200. The mobile device 100 transmits data or an image displayed in the area 60 to the wearable device 200 according to a user's request.
웨어러블 디바이스(200)은 모바일 디바이스(100)로부터 수신된 데이터 또는 이미지를 표시한다. 따라서, 사용자는 웨어러블 디바이스(200)를 통해 모바일 디바이스(100)의 대화창에 표시되는 내용을 실시간으로 모니터링할 수 있다.The wearable device 200 displays data or an image received from the mobile device 100. Accordingly, the user may monitor in real time the contents displayed in the chat window of the mobile device 100 through the wearable device 200.
도 7은 일 실시 예에 따른 모바일 디바이스가 실행하는 어플리케이션을 웨어러블 디바이스가 표시하는 방법을 설명하기 위한 도면이다. 도 7을 참조하면, 모바일 디바이스(100)는 사용자에 의해 선택된 어플리케이션이 웨어러블 디바이스(200)에서 실행되도록 제어 신호를 웨어러블 디바이스(200)로 전송할 수 있다.7 is a diagram for describing a method of displaying, by a wearable device, an application executed by a mobile device, according to an exemplary embodiment. Referring to FIG. 7, the mobile device 100 may transmit a control signal to the wearable device 200 so that the application selected by the user is executed in the wearable device 200.
모바일 디바이스(100)는 어플리케이션을 실행하고, 사용자의 입력에 따라 실행 중인 어플리케이션을 선택한다. 사용자는 터치 스크린 디스플레이(110)를 통해 현재 실행 중인 어플리케이션을 선택할 수 있다.The mobile device 100 executes the application and selects the running application according to the user's input. The user may select an application currently running through the touch screen display 110.
모바일 디바이스(100)는 현재 실행 중인 어플리케이션을 선택할 것인지 여부를 나타내는 팝업창을 표시할 수 있다. 또한, 모바일 디바이스(100)는 사용자의 입력에 따라 어플리케이션을 웨어러블 디바이스(200)에서 실행할지 여부를 결정한다. 사용자는 팝업창에 표시된 Yes, No 영역을 터치함으로써 어플리케이션의 실행 여부를 결정할 수 있다.The mobile device 100 may display a pop-up window indicating whether to select an application currently running. In addition, the mobile device 100 determines whether to run the application on the wearable device 200 according to a user input. The user can determine whether to execute the application by touching the Yes and No areas displayed in the popup window.
모바일 디바이스(100)는 어플리케이션의 정보 및 어플리케이션의 현재 상태를 나타내는 데이터를 웨어러블 디바이스(200)로 전송할 수 있다. 또한 모바일 디바이스(100)는 웨어러블 디바이스(200)가 모바일 디바이스(100)와 동일한 동작을 수행하도록 데이터 또는 제어 신호를 전송할 수 있다. 예를 들어, 사용자가 뮤직 플레이어를 선택한 경우, 모바일 디바이스(100)는 웨어러블 디바이스(200)로 뮤직 플레이어가 선택되었고, 뮤직 플레이어를 실행하라는 제어 신호를 전송할 수 있다. 웨어러블 디바이스(200)에 뮤직 플레이어가 설치되어 있지 않는 경우, 모바일 디바이스(100)는 뮤직 플레이어의 설치 프로그램을 웨어러블 디바이스(200)로 전송할 수도 있다. 모바일 디바이스(100)는 현재 재생 중인 음악의 정보를 웨어러블 디바이스(200)로 전송하고, 모바일 디바이스(100)에서 재생 중인 음악과 동일한 음악을 웨어러블 디바이스(200)가 재생하도록 제어 신호를 웨어러블 디바이스(200)로 전송한다. 모바일 디바이스(100)는 웨어러블 디바이스(200)에 음악이 저장되어 있지 않는 경우, 웨어러블 디바이스(200)로 음악을 전송할 수도 있다.The mobile device 100 may transmit the information of the application and data representing the current state of the application to the wearable device 200. In addition, the mobile device 100 may transmit data or a control signal so that the wearable device 200 performs the same operation as the mobile device 100. For example, when the user selects the music player, the mobile device 100 may transmit a control signal to the wearable device 200 to select the music player and to execute the music player. When the music player is not installed in the wearable device 200, the mobile device 100 may transmit an installation program of the music player to the wearable device 200. The mobile device 100 transmits information on the music currently being played to the wearable device 200, and transmits a control signal to the wearable device 200 so that the wearable device 200 plays the same music as the music being played on the mobile device 100. To send). If music is not stored in the wearable device 200, the mobile device 100 may transmit music to the wearable device 200.
웨어러블 디바이스(200)는 어플리케이션을 실행하고, 모바일 디바이스(100)로부터 수신된 정보에 기초하여 어플리케이션의 실행 화면을 표시한다. 또한, 웨어러블 디바이스(200)는 모바일 디바이스(100)에서 재생 중인 음악을 재생할 수도 있다.The wearable device 200 executes the application and displays an execution screen of the application based on the information received from the mobile device 100. Also, the wearable device 200 may play music being played on the mobile device 100.
도 8은 일 실시 예에 따른 모바일 디바이스의 동작 방법을 나타내는 순서도이다.8 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
단계 810에서, 모바일 디바이스(100)는 터치 스크린 디스플레이(110)에 어플리케이션의 실행 화면을 표시한다.In operation 810, the mobile device 100 displays an execution screen of an application on the touch screen display 110.
단계 820에서, 모바일 디바이스(100)는 터치 스크린 디스플레이(110) 상에 또는 근처에서 사용자의 입력을 수신한다. 사용자는 터치 스크린 디스플레이(110)의 특정 영역을 선택할 수 있다. 모바일 디바이스(100)는 사용자의 터치가 종료되면 메뉴를 표시할 수 있다. 메뉴는 사용자의 입력에 대응하는 기능들을 나타낸다. 사용자는 메뉴 중에서 원하는 기능을 선택한다. In operation 820, the mobile device 100 receives a user input on or near the touch screen display 110. The user may select a specific area of the touch screen display 110. The mobile device 100 may display a menu when the user's touch ends. The menu shows functions corresponding to the user's input. The user selects a desired function from the menu.
단계 830에서, 모바일 디바이스(100)는 사용자의 입력에 기초하여 통신으로 연결된 웨어러블 디바이스(200)로 어플리케이션의 실행 화면을 전송한다. 모바일 디바이스(100)는 사용자에 의해 선택된 기능이 선택된 영역을 스크랩하는 기능인 경우, 모바일 디바이스(100)는 선택된 영역에 표시되는 실행 화면을 웨어러블 디바이스(200)로 전송한다.In operation 830, the mobile device 100 transmits an execution screen of the application to the wearable device 200 connected by communication based on a user input. When the function selected by the user is a function of scraping the selected area, the mobile device 100 transmits an execution screen displayed on the selected area to the wearable device 200.
모바일 디바이스(100)는 웨어러블 디바이스(200)로 이미지 또는 텍스트 등을 전송하여, 웨어러블 디바이스(200)가 이미지 또는 텍스트 등을 표시하도록 웨어러블 디바이스(200)를 제어한다.The mobile device 100 transmits an image or text to the wearable device 200 to control the wearable device 200 such that the wearable device 200 displays an image or text.
도 9는 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 나타내는 순서도이다.9 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
단계 910에서, 웨어러블 디바이스(200)는 통신으로 연결된 모바일 디바이스(100)로부터 모바일 디바이스(100)에서 실행 중인 어플리케이션의 실행 화면을 수신한다. 예를 들어, 웨어러블 디바이스(200)는 이미지 또는 텍스트를 수신할 수 있다. 모바일 디바이스(100)는 이미지 또는 텍스트가 업데이트되면 업데이트된 이미지 또는 텍스트를 웨어러블 디바이스(200)로 전송한다.In operation 910, the wearable device 200 receives an execution screen of an application running on the mobile device 100 from the mobile device 100 connected by communication. For example, the wearable device 200 may receive an image or text. When the image or text is updated, the mobile device 100 transmits the updated image or text to the wearable device 200.
단계 920에서, 웨어러블 디바이스(200)는 수신된 실행 화면을 디스플레이(210)에 표시한다. 웨어러블 디바이스(200)는 이미지 또는 텍스트를 디스플레이(210)에 표시하고, 업데이트된 이미지 또는 텍스트가 수신되면, 업데이트된 이미지 또는 텍스트를 표시한다.In operation 920, the wearable device 200 displays the received execution screen on the display 210. The wearable device 200 displays an image or text on the display 210 and, when an updated image or text is received, displays the updated image or text.
도 10은 일 실시 예에 따른 모바일 디바이스의 동작 방법을 나타내는 순서도이다.10 is a flowchart illustrating a method of operating a mobile device according to an exemplary embodiment.
단계 1010에서, 모바일 디바이스(100)는 어플리케이션을 실행하여 실행 화면을 터치 스크린 디스플레이에 표시한다. In operation 1010, the mobile device 100 executes an application to display an execution screen on the touch screen display.
단계 1020에서, 모바일 디바이스(100)는 터치 스크린 디스플레이(110) 상에 또는 근처에서 사용자의 입력을 수신한다. 사용자는 실행 중인 어플리케이션을 선택할 수 있다. 모바일 디바이스(100)는 사용자가 선택한 어플리케이션을 식별한다. In operation 1020, the mobile device 100 receives a user input on or near the touch screen display 110. The user can select a running application. The mobile device 100 identifies the application selected by the user.
단계 1030에서, 모바일 디바이스(100)는 통신으로 연결된 웨어러블 디바이스(200)로 사용자의 입력에 의해 선택된 어플리케이션에 대한 데이터를 전송한다. 모바일 디바이스(100)는 어플리케이션의 명칭, 식별 정보, 다운로드에 관한 정보 등을 웨어러블 디바이스(200)로 전송할 수 있다. 또한, 모바일 디바이스(100)는 웨어러블 디바이스(200)로 프로그램을 전송하여, 웨어러블 디바이스(200)가 어플리케이션을 설치하게 할 수 있다. 모바일 디바이스(100)는 어플리케이션의 실행 상태를 나타내는 정보를 웨어러블 디바이스(200)로 전송할 수 있다. 다시 말해서, 모바일 디바이스(100)는 현재 어플리케이션이 표시하고 있는 이미지 및 어플리케이션을 실행한 이후에 처리된 데이터들을 웨어러블 디바이스(200)로 전송할 수 있다.In operation 1030, the mobile device 100 transmits data about an application selected by a user input to the wearable device 200 connected by communication. The mobile device 100 may transmit the name, identification information, download information, and the like of the application to the wearable device 200. In addition, the mobile device 100 may transmit a program to the wearable device 200 to allow the wearable device 200 to install an application. The mobile device 100 may transmit information indicating the execution state of the application to the wearable device 200. In other words, the mobile device 100 may transmit the image displayed by the current application and the processed data to the wearable device 200 after executing the application.
도 11은 일 실시 예에 따른 웨어러블 디바이스의 동작 방법을 나타내는 순서도이다. 11 is a flowchart illustrating a method of operating a wearable device, according to an exemplary embodiment.
단계 1110에서, 웨어러블 디바이스(200)는 통신으로 연결된 모바일 디바이스(100)로부터 모바일 디바이스에서 실행 중인 어플리케이션에 대한 데이터를 수신한다.In operation 1110, the wearable device 200 receives data about an application running on the mobile device from the mobile device 100 connected in communication.
단계 1120에서, 웨어러블 디바이스(200)는 어플리케이션을 실행한다. 웨어러블 디바이스(200)는 어플리케이션이 설치되지 않은 경우, 어플리케이션에 대한 데이터를 참조하여 어플리케이션을 서버로부터 다운로드 받을 수 있다. 또한, 웨어러블 디바이스(200)는 모바일 디바이스(100)로부터 프로그램을 수신하여 어플리케이션을 설치할 수도 있다.In operation 1120, the wearable device 200 executes an application. When the application is not installed, the wearable device 200 may download the application from the server by referring to data about the application. In addition, the wearable device 200 may receive a program from the mobile device 100 and install an application.
단계 1130에서, 웨어러블 디바이스(200)는 어플리케이션의 실행 화면을 표시한다. 웨어러블 디바이스(200)는 모바일 디바이스(100)로부터 수신된 데이터를 참조하여, 모바일 디바이스(100)와 동일한 실행 화면을 표시할 수 있다. In operation 1130, the wearable device 200 displays an execution screen of the application. The wearable device 200 may display the same execution screen as the mobile device 100 with reference to the data received from the mobile device 100.
일 실시 예에 따른 웨어러블 디바이스(200)는 모바일 디바이스(100)와 동일한 실행 화면을 표시할 수 있다.The wearable device 200 according to an embodiment may display the same execution screen as the mobile device 100.
일 실시 예에 따른 모바일 디바이스(100)는 사용자가 지정한 영역에 표시되는 이미지 또는 텍스트를 웨어러블 디바이스(200)로 전송할 수 있다.According to an embodiment, the mobile device 100 may transmit an image or text displayed in an area designated by a user to the wearable device 200.
본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to the embodiments may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like. Interface devices and the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. The computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc). The computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. The medium is readable by the computer, stored in the memory, and can be executed by the processor.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them. Similar to the components that may be implemented as software programming or software elements, the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as "mechanism", "element", "means" and "configuration" can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. Specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the present specification (particularly in the claims), the use of the term “above” and similar indicating terminology may correspond to both the singular and the plural. In addition, when a range is described, it includes the individual values which belong to the said range (if there is no description contrary to it), and it is the same as describing each individual value which comprises the said range in detailed description. Finally, if there is no explicit order or contrary to the steps constituting the method, the steps may be performed in a suitable order. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is for the purpose of describing technical concepts in detail and is not to be limited in scope by the examples or exemplary terms unless defined by the claims. In addition, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made depending on design conditions and factors within the scope of the appended claims or equivalents thereof.

Claims (15)

  1. 터치 스크린 디스플레이;Touch screen display;
    하나 이상의 프로세서; 및One or more processors; And
    메모리를 포함하고,Memory,
    상기 프로세서는,The processor,
    상기 터치 스크린 디스플레이에 어플리케이션의 실행 화면을 표시하고,Displaying an execution screen of an application on the touch screen display;
    상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하고,Receive user input on or near the touch screen display,
    상기 사용자의 입력에 기초하여 통신으로 연결된 웨어러블 디바이스로 상기 어플리케이션의 실행 화면을 전송하는 것을 특징으로 하는 모바일 디바이스.And transmitting an execution screen of the application to a wearable device connected by communication based on the user input.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는 상기 사용자의 입력이 폐루프(closed loop)를 형성하는 경우 상기 실행 화면을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스.The processor transmits the execution screen to the wearable device when the user's input forms a closed loop.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 프로세서는 상기 실행 화면 중에서 상기 폐루프에 포함되는 화면만을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스.The processor is a mobile device, characterized in that for transmitting only the screen included in the closed loop of the execution screen to the wearable device.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는 상기 실행 화면이 업데이트되면 업데이트된 실행 화면을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스.The processor transmits the updated execution screen to the wearable device when the execution screen is updated.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는 상기 어플리케이션이 백그라운드 상태가 되어도 상기 실행 화면을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스.The processor transmits the execution screen to the wearable device even when the application is in the background state.
  6. 터치 스크린 디스플레이;Touch screen display;
    하나 이상의 프로세서; 및One or more processors; And
    메모리를 포함하고,Memory,
    상기 프로세서는,The processor,
    상기 어플리케이션을 실행하고,Run the application,
    상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하고,Receive user input on or near the touch screen display,
    상기 사용자의 입력에 의해 선택된 어플리케이션에 대한 데이터를 통신으로 연결된 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스.And transmitting data about an application selected by the user's input to a wearable device connected by communication.
  7. 디스플레이;display;
    하나 이상의 프로세서; 및One or more processors; And
    메모리를 포함하고,Memory,
    상기 프로세서는,The processor,
    통신으로 연결된 모바일 디바이스로부터 상기 모바일 디바이스에서 실행 중인 어플리케이션의 실행 화면을 수신하고,Receive an execution screen of the application running on the mobile device from the mobile device connected by communication,
    상기 실행 화면을 상기 디스플레이에 표시하는 웨어러블 디바이스.The wearable device displaying the execution screen on the display.
  8. 디스플레이;display;
    하나 이상의 프로세서; 및One or more processors; And
    메모리를 포함하고,Memory,
    상기 프로세서는,The processor,
    통신으로 연결된 모바일 디바이스로부터 상기 모바일 디바이스에서 실행 중인 어플리케이션에 대한 데이터를 수신하고,Receive data about an application running on the mobile device from a mobile device connected in communication,
    상기 어플리케이션을 실행하고,Run the application,
    상기 어플리케이션의 실행 화면을 표시하는 웨어러블 디바이스.The wearable device displaying an execution screen of the application.
  9. 터치 스크린 디스플레이에 어플리케이션의 실행 화면을 표시하는 단계;Displaying an execution screen of an application on a touch screen display;
    상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하는 단계; 및Receiving a user input on or near the touch screen display; And
    상기 사용자의 입력에 기초하여 통신으로 연결된 디바이스로 상기 어플리케이션의 실행 화면을 전송하는 단계를 포함하는 모바일 디바이스의 동작 방법.Transmitting the execution screen of the application to a device connected in communication based on the input of the user.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 사용자의 입력을 수신하는 단계는 상기 사용자의 입력이 폐루프를 형성하는지를 감지하고,Receiving the user's input detects whether the user's input forms a closed loop,
    상기 실행 화면을 전송하는 단계는 상기 사용자의 입력이 폐루프를 형성하는 경우 상기 실행 화면을 통신으로 연결된 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스의 동작 방법.The transmitting of the execution screen may include transmitting the execution screen to a wearable device connected through communication when the input of the user forms a closed loop.
  11. 제 10 항에 있어서,The method of claim 10,
    상기 실행 화면을 전송하는 단계는 상기 실행 화면 중에서 상기 폐루프에 포함되는 화면만을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스의 동작 방법.The transmitting of the execution screen may include transmitting only the screen included in the closed loop from the execution screen to the wearable device.
  12. 제 9 항에 있어서,The method of claim 9,
    상기 실행 화면을 전송하는 단계는 상기 실행 화면이 업데이트되면 업데이트된 실행 화면을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스의 동작 방법.The transmitting of the execution screen may include transmitting the updated execution screen to the wearable device when the execution screen is updated.
  13. 제 9 항에 있어서,The method of claim 9,
    상기 실행 화면을 전송하는 단계는 상기 어플리케이션이 백그라운드 상태가 되어도 상기 실행 화면을 상기 웨어러블 디바이스로 전송하는 것을 특징으로 하는 모바일 디바이스의 동작 방법.The transmitting of the execution screen may include transmitting the execution screen to the wearable device even when the application is in a background state.
  14. 어플리케이션을 실행하여 실행 화면을 터치 스크린 디스플레이에 표시하는 단계;Executing an application to display an execution screen on a touch screen display;
    상기 터치 스크린 디스플레이 상에 또는 근처에서 사용자의 입력을 수신하는 단계; 및Receiving a user input on or near the touch screen display; And
    통신으로 연결된 웨어러블 디바이스로 상기 사용자의 입력에 의해 선택된 어플리케이션에 대한 데이터를 전송하는 단계를 포함하는 모바일 디바이스의 동작 방법.And transmitting data about an application selected by the user's input to a wearable device connected in communication.
  15. 제9항 내지 제14항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 9 to 14.
PCT/KR2015/005743 2014-12-09 2015-06-09 Mobile device and method for operating mobile device WO2016093448A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580076019.7A CN107250970B (en) 2014-12-09 2015-06-09 Mobile device and method for operating a mobile device
US15/534,109 US10585636B2 (en) 2014-12-09 2015-06-09 Mobile device and method for operating mobile device
EP15868434.0A EP3232306B1 (en) 2014-12-09 2015-06-09 Mobile device and method for operating mobile device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140175874A KR102322026B1 (en) 2014-12-09 2014-12-09 Mobile device and operation method of mobile device
KR10-2014-0175874 2014-12-09

Publications (1)

Publication Number Publication Date
WO2016093448A1 true WO2016093448A1 (en) 2016-06-16

Family

ID=56107605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005743 WO2016093448A1 (en) 2014-12-09 2015-06-09 Mobile device and method for operating mobile device

Country Status (5)

Country Link
US (1) US10585636B2 (en)
EP (1) EP3232306B1 (en)
KR (1) KR102322026B1 (en)
CN (1) CN107250970B (en)
WO (1) WO2016093448A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10785642B2 (en) * 2015-08-31 2020-09-22 Apple Inc. Wireless personal area network underlying cellular networks
KR102598082B1 (en) * 2016-10-28 2023-11-03 삼성전자주식회사 Image display apparatus, mobile device and operating method for the same
CN111723035A (en) * 2019-03-22 2020-09-29 奇酷互联网络科技(深圳)有限公司 Image processing method, mobile terminal and wearable device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100037945A (en) * 2008-10-02 2010-04-12 삼성전자주식회사 Touch input device of portable device and operating method using the same
KR20130095519A (en) * 2012-02-20 2013-08-28 삼성전자주식회사 Screen mirroring method and apparatus thereof
US20140085218A1 (en) * 2012-09-27 2014-03-27 Franklin Electronic Publishers, Incorporated Child's wearable computing device
US20140125554A1 (en) * 2012-11-07 2014-05-08 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and algorithm to implement smart mirroring for a multiple display system
US20140298353A1 (en) * 2013-03-28 2014-10-02 Quanta Computer Inc. Inter-Device Communication Transmission System and Method Thereof

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3750910B2 (en) * 1999-12-13 2006-03-01 セイコーインスツル株式会社 Information processing apparatus and information processing method
US6714233B2 (en) * 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
KR101626621B1 (en) 2009-12-30 2016-06-01 엘지전자 주식회사 Method for controlling data in mobile termina having circle type display unit and mobile terminal thereof
KR20110107058A (en) 2010-03-24 2011-09-30 엘지전자 주식회사 Mobile terminal and method for controlling thereof
US20120108215A1 (en) 2010-10-29 2012-05-03 Nader Kameli Remote notification device
JP5585889B2 (en) * 2011-08-23 2014-09-10 コニカミノルタ株式会社 Display data generation apparatus, display control system, and display control program
KR20130101801A (en) 2012-03-06 2013-09-16 엠앤서비스 주식회사 Contents processing apparatus and method thereof
KR20130137459A (en) * 2012-06-07 2013-12-17 삼성전자주식회사 Display apparatus, user apparatus for controlling display apparatus and controlling method thereof
CN102866828B (en) 2012-08-29 2015-11-25 腾讯科技(深圳)有限公司 A kind of terminal control method and equipment
CN102970425A (en) * 2012-11-15 2013-03-13 广东好帮手电子科技股份有限公司 System and method for remotely controlling vehicle-mounted host computer through smart phone
KR102090745B1 (en) * 2013-05-23 2020-04-14 삼성전자주식회사 Method and apparatus for performing multi-tasking using external display device in electronic device
CN103324457B (en) 2013-06-21 2016-09-21 东莞宇龙通信科技有限公司 Terminal and multi-task data display method
CN103500066B (en) 2013-09-30 2019-12-24 北京奇虎科技有限公司 Screenshot device and method suitable for touch screen equipment
US20150186095A1 (en) 2013-12-31 2015-07-02 Huawei Technologies Co., Ltd. Inter-terminal image sharing method, terminal device, and communications system
CN103701927B (en) * 2013-12-31 2017-06-27 华为技术有限公司 A kind of image sharing method of terminal room, terminal device and communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100037945A (en) * 2008-10-02 2010-04-12 삼성전자주식회사 Touch input device of portable device and operating method using the same
KR20130095519A (en) * 2012-02-20 2013-08-28 삼성전자주식회사 Screen mirroring method and apparatus thereof
US20140085218A1 (en) * 2012-09-27 2014-03-27 Franklin Electronic Publishers, Incorporated Child's wearable computing device
US20140125554A1 (en) * 2012-11-07 2014-05-08 Shanghai Powermo Information Tech. Co. Ltd. Apparatus and algorithm to implement smart mirroring for a multiple display system
US20140298353A1 (en) * 2013-03-28 2014-10-02 Quanta Computer Inc. Inter-Device Communication Transmission System and Method Thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3232306A4 *

Also Published As

Publication number Publication date
EP3232306A4 (en) 2018-07-11
CN107250970B (en) 2020-11-10
EP3232306B1 (en) 2020-04-29
KR102322026B1 (en) 2021-11-04
KR20160069803A (en) 2016-06-17
EP3232306A1 (en) 2017-10-18
CN107250970A (en) 2017-10-13
US20190087147A1 (en) 2019-03-21
US10585636B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
WO2014084633A1 (en) Method for displaying applications and electronic device thereof
WO2016017972A1 (en) Electronic device and method for displaying user interface thereof
WO2016129938A1 (en) Method and apparatus for performing payment function in limited state
WO2017179905A1 (en) Flexible device and operating method therefor
WO2014181918A1 (en) Smart watch and method for controlling the same
WO2015122654A1 (en) Display method and mobile device
WO2013070024A1 (en) Method and apparatus for designating entire area using partial area touch in a portable equipment
WO2015108288A1 (en) Method and apparatus for processing input using touch screen
WO2016036135A1 (en) Method and apparatus for processing touch input
WO2018004140A1 (en) Electronic device and operating method therefor
WO2015046837A1 (en) Apparatus and method for sharing contents
WO2013042921A1 (en) Apparatus and method for running application in mobile terminal
AU2015318901B2 (en) Device for handling touch input and method thereof
WO2018084613A1 (en) Display operating method and electronic device supporting the same
WO2013125789A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium
WO2015030460A1 (en) Method, apparatus, and recording medium for interworking with external terminal
WO2016093448A1 (en) Mobile device and method for operating mobile device
WO2012093779A2 (en) User terminal supporting multimodal interface using user touch and breath and method for controlling same
WO2016039532A1 (en) Method of controlling display of electronic device and electronic device thereof
WO2015046683A1 (en) Digital device and control method thereof
WO2015034246A1 (en) Electronic device and method of processing user input by electronic device
WO2011145788A1 (en) Touch screen device and user interface for the visually impaired
WO2015064984A1 (en) Electronic device and communication system having the same
WO2016032260A1 (en) Electronic device and method for setting block
WO2019203591A1 (en) High efficiency input apparatus and method for virtual reality and augmented reality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15868434

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015868434

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE