WO2016076627A1 - Method for sharing content and content sharing system - Google Patents

Method for sharing content and content sharing system Download PDF

Info

Publication number
WO2016076627A1
WO2016076627A1 PCT/KR2015/012116 KR2015012116W WO2016076627A1 WO 2016076627 A1 WO2016076627 A1 WO 2016076627A1 KR 2015012116 W KR2015012116 W KR 2015012116W WO 2016076627 A1 WO2016076627 A1 WO 2016076627A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
captured image
execution information
information
displayed
Prior art date
Application number
PCT/KR2015/012116
Other languages
French (fr)
Korean (ko)
Inventor
장바이후이
리우쥔웨이
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201410637551.9A external-priority patent/CN104410768B/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP15859599.1A priority Critical patent/EP3220346B1/en
Priority to US15/518,625 priority patent/US10921954B2/en
Publication of WO2016076627A1 publication Critical patent/WO2016076627A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06Q50/40

Definitions

  • a method of sharing content and a content sharing system relates to a method for transmitting execution information for executing content to devices included in a content sharing system and a method for executing content using the execution information.
  • the sending device first sends a screenshot to show the list of files to send. do. Thereafter, the transmitting device transmits each of the files included in the list to the receiving device. This causes inefficient information transfer between devices.
  • the method provides a content sharing method comprising executing content corresponding to the object using execution information.
  • FIG. 1 is a schematic diagram of a content sharing system.
  • FIG. 2 is a flowchart illustrating a method of transmitting execution information for executing content by a first device to a second device in a content sharing system according to an embodiment.
  • FIG. 3 illustrates an example of generating a transmission file including a capture image and execution information in a content sharing system.
  • FIG. 4 illustrates an example of generating coordinate information of a predetermined area including at least one object in a captured image.
  • FIG. 5 illustrates an example of generating a mapping table in a content sharing system.
  • FIG. 6 is a flowchart illustrating another method of transmitting execution information for executing content by a first device to a second device in a content sharing system.
  • the first device generates a transfer file including the captured image and the execution information in the content sharing system.
  • FIG. 8 is a flowchart illustrating a method of receiving execution information from a first device for executing content by a second device in a content sharing system.
  • FIG. 9 illustrates an example of executing content using the mapping table of FIG. 5.
  • FIG. 10 illustrates an example in which a second device stores content using execution information.
  • 11 is an example of a captured image displayed by a second device.
  • FIG. 12 is a flowchart illustrating another operation method of a content sharing system.
  • FIG. 13 illustrates an example in which a first device transmits a transmission file including a captured image and content identification information to a second device in a content sharing system.
  • mapping table 14 is another example of generating a mapping table in a content sharing system.
  • 15 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • 16 illustrates an example of sharing execution information of content using voice data.
  • 17 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • 19 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • FIG. 20 illustrates an example of sharing execution information of content using video data.
  • FIG. 21 is a diagram illustrating a configuration of a first device and a second device in a content sharing system.
  • a first aspect of the disclosed embodiment for solving the above problems is a step of receiving a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from another device, the captured image And displaying content, and executing content corresponding to the object by using the execution information, in response to a user input of an area in which the object is displayed in the captured image.
  • the other device may be transmitting or receiving a message with the device using the chat application, and the captured image may be displayed in the chat window of the chat application.
  • the executing of the content may include requesting the content corresponding to the object to another device using the execution information, and receiving the content from the other device.
  • the method may further include receiving a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information.
  • the method may further include identifying execution information corresponding to the coordinate information of the region where the object is displayed, based on the received mapping table, and the executing may include executing content using the identified execution information. Can be.
  • execution information may be at least one of a content file, identification information of the content file, and link information for downloading the content.
  • the step of executing may include displaying a graphical user interface (GUI) for storing content on the device.
  • GUI graphical user interface
  • the object is an object selected by a user of another device among the plurality of objects in the captured image, and the object may be highlighted and displayed in the captured image.
  • the method may further include transmitting a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information to another device.
  • the method may further include receiving a user input for selecting an object from among the plurality of objects in the captured image, wherein the object may be highlighted in the captured image.
  • a third aspect of the disclosed embodiment includes a communication unit for receiving a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from another device;
  • a display unit for displaying a captured image, and a control unit for executing the content corresponding to the object by using the execution information in response to a user input for the area in which the object is displayed in the captured image.
  • the other device may exchange messages with the device using a chat application, and the display unit may display the captured image in a chat window of the chat application.
  • the communication unit may request content corresponding to the object from another device using the execution information and receive the content from the other device in response to the user input.
  • the communication unit may receive a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information.
  • the controller may identify execution information corresponding to the coordinate information of the region in which the object is displayed, based on the received mapping table, and execute content using the identified execution information.
  • the display unit may display a graphical user interface (GUI) for storing content in the device.
  • GUI graphical user interface
  • the object is an object selected by a user of another device among the plurality of objects in the captured image, and the object may be highlighted and displayed in the captured image.
  • a controller in response to a user input of capturing a screen of a device, a controller for generating a captured image and execution information for executing content corresponding to the captured image and the object displayed on the captured image to another device It provides a device including a communication unit for transmitting.
  • a fifth aspect of the disclosed embodiment provides a computer readable recording medium having recorded thereon a program for implementing the method of the first and second aspects of the disclosed embodiment.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • part refers to a hardware component, such as software, FPGA or ASIC, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • a content sharing system includes a first device 100 and a second device 200.
  • the first device 100 and the second device 200 may be computing devices that transmit and receive messages by executing a chat application.
  • the first device 100 and the second device 200 may be a smartphone, tablet PC, PC, smart TV, mobile phone, personal digital assistant (PDA), laptop, media player, micro server, global positioning system (GPS). system) devices, e-book terminals, digital broadcasting terminals, navigation, kiosks, MP3 players, digital cameras and other mobile or non-mobile computing devices, but is not limited thereto.
  • the first device 100 and the second device 200 may include various devices such as an electronic blackboard, a touch table, and the like.
  • the first device 100 and the second device 200 may be watches, glasses, hair bands and rings having a communication function and a data processing function.
  • the present invention is not limited thereto, and the first device 100 and the second device 200 may include all kinds of devices capable of transmitting and receiving data through a network.
  • the first device 100 may transmit content to the second device 200 while transmitting and receiving a message with the second device 200.
  • the first device 100 may capture a screen on which an object (eg, an icon, a name, etc. of a content file) indicating content to be transmitted is displayed.
  • the first device 100 may transmit a content file corresponding to the objects displayed in the captured image to the second device 200 along with the captured image.
  • the first device 100 may capture a screen displaying a file list in which content files to be transmitted are listed. Accordingly, a user of the first device 100 may easily transmit a plurality of content files to the second device 200.
  • the first device 100 may share a web page while transmitting and receiving a message with the second device 200.
  • the first device 100 may capture a screen on which an object indicating a web page to be shared (for example, an execution window of the web page, a shortcut icon for accessing a specific web page, etc.) is displayed.
  • the first device 100 may transmit the link information for downloading the web page corresponding to the objects displayed on the captured image to the second device 200 along with the captured image.
  • the captured image transmitted by the first device 100 may be displayed in a chat window of a chat application in which the first device 100 and the second device 200 transmit and receive a message.
  • the second device 200 may receive a captured image through a chat window, and selectively receive and store a content file transmitted by the first device 100 in response to a user input of selecting an object displayed on the captured image. .
  • the network illustrated in FIG. 1 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, and a satellite. It is a comprehensive data communication network that includes a communication network and a combination thereof, and enables each network constituent illustrated in FIG. 1 to communicate smoothly with each other, and may include a wired internet, a wireless internet, and a mobile wireless communication network. have.
  • execution information for executing content is transmitted to the second device 200 by using the content information included in the audio, text, and video data received by the first device 100 from the user. The transmission method will be described in detail.
  • the first device 100 transmits execution information for executing the captured image and the content to the second device 200, but the second device 200 transmits the first device 100. It can be easily understood by those of ordinary skill in the art that the captured image and the like can be transmitted in the following embodiments.
  • FIG. 2 is a flowchart illustrating a method of transmitting execution information for executing content by a first device to a second device in a content sharing system according to an embodiment.
  • the first device 100 may generate a captured image in response to a user input of capturing a screen of the first device 100.
  • the first device 100 may be executing a chat application, and may be transmitting and receiving a message with the second device 200 through the chat application.
  • the first device 100 may execute an execution screen, a home screen, or a menu screen of another application in the foreground while transmitting and receiving a message with the second device 200 through a chat application.
  • the chat application may be executed in the background.
  • the other application may be, for example, a searcher application, a photo album application, an address book application, a web server application, a browser application, or the like.
  • a user of the first device 100 may capture an execution screen of another application in which an object representing content that can be transmitted to the second device 200 is displayed through a chat application.
  • the first device 100 A user input for capturing an execution screen of a photo album application displaying an icon of a photo to be transmitted to the second device 200 may be received.
  • the first device 100 may receive a user input for capturing an execution screen of an address book application displaying contact information to be transmitted to the second device 200.
  • the first device 100 may receive a user input for capturing a menu screen on which an icon of an application to be transmitted to the second device 200 is displayed.
  • the first device 100 may copy an icon, an image, and / or text representing contents stored in different paths to a temporary storage space and then receive a user input of capturing the temporary storage space.
  • the temporary storage space may be a clipboard provided by the chat application and may be displayed on the screen of the first device 100.
  • the user input for touching the screen may be a touch input using a user's hand, a stylus pen, or the like, or a button input using a button provided in the first device 100, or a combination thereof.
  • the first device 100 may generate a captured image in response to a user input of capturing a screen.
  • the first device 100 may transmit execution information for executing the content corresponding to the captured image and the object displayed on the captured image to the second device 200.
  • the execution information may be, for example, a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content.
  • the execution information may be, for example, identification information of the content, but is not limited thereto.
  • the first device 100 may identify the objects included in the captured image by analyzing the captured image. In addition, the first device 100 may determine whether the identified objects represent content. For example, when the object is text, the first device 100 may search for a content file having the same file name as the text. Alternatively, when the object is an image, the first device 100 may search for a content file having the same icon as the image. In this case, the first device 100 may search for a content file stored in the first device 100 or an external server. If the content file exists in the first device 100, the first device 100 may use the content file as execution information, and if the content file exists in an external server, the first device 100 may Link information in which a content file is stored in an external server may be used as execution information.
  • the first device 100 may generate a transmission file including the captured image and the execution information, and transmit the transmission file to the second device 200.
  • the first device 100 may generate a transmission file having a Multipurpose Internet Mail Extension HTML (MHTML) or Election Markup Language (EML) file format.
  • MHTML Multipurpose Internet Mail Extension HTML
  • EML Election Markup Language
  • the first device 100 may generate coordinate information of a predetermined area including at least one object corresponding to the execution information in the captured image. For example, when one object corresponds to one execution information, the first device 100 may generate coordinate information about an area where one object is displayed in the captured image. Alternatively, when the plurality of objects correspond to the same execution information, the first device 100 may generate coordinate information about an area including the plurality of objects in the captured image.
  • the first device 100 may transmit a mapping table including coordinate information corresponding to the object and execution information corresponding to the coordinate information to the second device 200. For example, the first device 100 may transmit a transmission file including the captured image, the execution information, and the mapping table to the second device 200.
  • the second device 200 may request content from the identification information of the content file to the first device 100.
  • the identification information of the content file may be a name of the content file, address information where the content file is stored, and the like.
  • the first device 100 may transmit a content file.
  • the first device 100 generates a captured image while executing the chat application, but the present invention is not limited thereto.
  • the first device 100 may generate a captured image regardless of whether the chat application is executed.
  • the first device 100 may use a pre-stored captured image in the chat application. For example, when the first device 100 generates a captured image, a chat application may be executed.
  • the chat application may provide a graphical user interface (GUI) capable of capturing execution screens of other applications.
  • GUI graphical user interface
  • the first device 100 may generate a captured image by using a GUI provided by the chat application.
  • FIG. 3 illustrates an example of generating a transmission file including a capture image and execution information in a content sharing system.
  • the first device 100 may generate a captured image 320 according to a user input 310 for capturing all or part of a screen of the first device 100.
  • the first device 100 may execute content corresponding to the objects 321, 322, 323, 324, etc. displayed on the captured image 320 (that is, 'image 1' to 'image 5').
  • the execution information 330 may be obtained.
  • the execution information 330 may include content files (that is, image 1.jpg to image 5.jpg) stored in the first device 100.
  • the first device 100 may generate a transmission file 350 including the captured image 320 and the execution information 330.
  • the transfer file 350 may further include a mapping table 340.
  • the mapping table 340 may include coordinate information corresponding to the object 321 and the execution information 330 corresponding to the coordinate information in the captured image 320. A method of generating the mapping table 340 will be described in detail with reference to FIGS. 4 and 5.
  • FIG. 4 illustrates an example of generating coordinate information of a predetermined area including at least one object in a captured image.
  • the first device 100 may include a predetermined area including the plurality of objects 321 and 322. Coordinate information about 410 may be generated. For example, the first device 100 may generate coordinate information (that is, (x11, y11), (x12, y12)) at both ends of the diagonal direction of the predetermined region 410.
  • the first device 100 may refer to coordinate information of a predetermined area 420 including one object 324 ( That is, (x51, y51), (x52, y52)) can be generated.
  • FIG. 5 illustrates an example of generating a mapping table in a content sharing system.
  • the first device 100 may generate a mapping table 340 including coordinate information of a predetermined area including at least one object and execution information corresponding to the coordinate information.
  • the first device 100 may transmit the mapping table 340 to the second device 200.
  • the second device 200 may execute content corresponding to the object displayed in the captured image 320 using the mapping table 340.
  • the mapping table 340 may be generated by the second device 200.
  • the embodiment of FIGS. 4 and 5 may be performed by the second device 200.
  • FIG. 6 is a flowchart illustrating another method of transmitting execution information for executing content by a first device to a second device in a content sharing system.
  • the first device 100 may generate a captured image in response to a user input of capturing a screen.
  • the first device 100 captures in response to a user input for capturing an execution screen of a photo album application, a explorer application, a photo album application, an address book application, a web server application, a browser application, or a home screen, a menu screen, or the like. You can create an image.
  • the first device 100 may receive a user input for selecting some of the objects displayed on the captured image. For example, the first device 100 may analyze the captured image to identify objects included in the captured image. In addition, the first device 100 may provide a GUI for selecting some of the identified objects. In addition, the first device 100 may highlight and display the selected object in the captured image. For example, the first device 100 may display the selected object in a thick line or in a specific color. Alternatively, when another object representing the same content as the selected object exists in the captured image, the first device 100 may highlight and display a predetermined area including different objects representing the same content.
  • the first device 100 may transmit execution information for executing the content corresponding to the captured image and the selected object, to the second device 200.
  • the first device 100 may retrieve content corresponding to the selected object from the first device 100 or an external server, and may obtain execution information for executing content corresponding to the selected object.
  • the first device 100 may generate a transmission file including the captured image and the execution information, and transmit the transmission file to the second device 200.
  • the first device 100 may generate coordinate information of a predetermined area including at least one object selected from the captured image.
  • the first device 100 may generate a mapping table including coordinate information of a predetermined area including the selected object and execution information corresponding to the coordinate information.
  • the first device 100 may selectively transmit execution information for executing content by using the captured image.
  • the first device generates a transfer file including the captured image and the execution information in the content sharing system.
  • the first device 100 captures an 'all' button image 701 and capture area 710 for obtaining execution information for executing content corresponding to all objects displayed in the capture area 710.
  • the 'select' button image 703 may be provided to obtain execution information for executing content corresponding to some of the objects displayed on the screen.
  • the first device 100 touches the 'all' button image 701
  • the first device 100 generates the transmission file 350 of FIG. 3, and then transfers the transmission file to the second device 200. 350 may be transmitted.
  • the first device 100 receives user inputs 717 and 719 for selecting some objects 713 and 715 among the objects displayed in the capture area 710, and then displays the 'select' button image 703. It may also receive user input. In this case, the first device 100 executes the content corresponding to the selected objects 713 and 715 according to the user inputs 717 and 719 (for example, 'image 1' and 'image 5'). Information 730 may be obtained. Here, the execution information 730 may include content files (eg, image 1.jpg and image 5.jpg) stored in the first device 100.
  • content files eg, image 1.jpg and image 5.jpg
  • the first device 100 may highlight and display the first area 723 including the selected object 715 in the captured image 720.
  • the first device 100 may represent the same content.
  • the second area 721 including the plurality of objects 711 and 713 may be highlighted. Accordingly, the user of the second device 200 may easily recognize the objects 711, 713, and 715 corresponding to the execution information 730 among the objects displayed on the received capture image 720.
  • the first device 100 may include a transmission file 750 including a captured image 720 and execution information 730, and generates a transmission file 750 further including a mapping table 740. You may.
  • the mapping table 740 may include coordinate information of the first and second regions 721 and 723 including the object selected in the captured image 720, and execution information corresponding to the coordinate information.
  • FIG. 8 is a flowchart illustrating a method of receiving execution information from a first device for executing content by a second device in a content sharing system.
  • the second device 200 may include a capture image capturing a screen of the first device 100 and execution information for executing content corresponding to an object displayed on the captured image. Can be received from 100.
  • the second device 200 may be executing a chat application, and may be transmitting and receiving a message with the first device 100 through the chat application.
  • the object displayed in the captured image may be an icon, text, and / or image representing content.
  • the content may include text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and may include text data, audio data, stored in an external server, Video data and / or application execution data.
  • the execution information may be, for example, a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content.
  • the second device 200 may receive a capture image and a content file for executing content corresponding to the object displayed on the capture image.
  • the second device 200 may receive link information for downloading the content image for executing the content corresponding to the captured image and the object displayed on the captured image.
  • the present invention is not limited thereto, and the second device 200 may be memory address information of the first device 100 in which a content image for executing content corresponding to the captured image and the object displayed on the captured image is stored. In this case, a method of executing content by the second device 200 will be described later in detail with reference to FIGS. 12 to 14.
  • the captured image and the execution information may be transmitted in a Multipurpose Internet Mail Extension HTML (MHTML) or Election Markup Language (EML) file format.
  • MHTML Multipurpose Internet Mail Extension HTML
  • EML Election Markup Language
  • the second device 200 may display the captured image.
  • the second device 200 may display the captured image in the chat window of the chat application.
  • the second device 200 may execute content corresponding to the object using execution information in response to a user input for a display area in which the object is displayed in the captured image.
  • the second device 200 may analyze the captured image to identify an object displayed on the captured image.
  • the second device 200 may receive a touch input using a user's hand, a stylus pen, or the like with respect to the display area where the identified object is displayed.
  • the second device 200 may identify an object corresponding to the display area in which the touch input is received, and execute content using execution information corresponding to the object.
  • the second device 200 may receive a mapping table from the first device 100 including coordinate information of a predetermined area including an object and execution information corresponding to the coordinate information in the captured image.
  • the second device 200 may execute the content by using coordinate information of the region where the user input is received, coordinate information of the mapping table, and real information.
  • the second device 200 may identify coordinate information of the mapping table that matches the coordinate information of the region where the object corresponding to the user input is displayed, and identify execution information corresponding to the coordinate information.
  • the matching may mean that the coordinate information of the region in which the object corresponding to the user input is displayed is included or coincident with the region according to the coordinate information of the mapping table.
  • the second device 200 may execute the content by using the identified execution information.
  • the second device 200 may request the content file from the first device 100 in response to a user input.
  • the second device 200 may execute the content using the content file.
  • the second device 200 may provide a graphical user interface (GUI) for storing the content in the second device 200 instead of immediately executing the content in response to a user input.
  • GUI graphical user interface
  • the second device 200 may store the content in the second device 200 and then execute the content.
  • the location where the content is stored may be preset in the second device 200, and may further provide a GUI for designating a storage location of the content.
  • FIG. 9 illustrates an example of executing content using the mapping table of FIG. 5.
  • the second device 200 may display the captured image 920 received from the first device 100 in the chat window 910 of the chat application.
  • the second device 200 may receive a user input 923 that enlarges the captured image 920.
  • the second device 200 may receive a user input for one object 915 among the objects 911 to 919 displayed on the captured image 920.
  • the second device 200 is coordinate information corresponding to coordinate information (x_in, y_in) of a region where an object corresponding to a user input is displayed among coordinate information of the mapping table 340 as ⁇ (x31, y31), (x32, y32). ) ⁇ Can be identified.
  • the second device 200 may identify “image 3.jpg” corresponding to the identified coordinate information ⁇ (x31, y31), (x32, y32) ⁇ using the mapping table 340.
  • the second device 200 may compensate the coordinate information of the mapping table 340 to match the coordinate system of the second device 200.
  • the second device 200 may display the image data 930 included in the 'image 3.jpg' file using the identified execution information.
  • the first device 100 and the second device 200 may share content using the captured image 920 shared through the chat window 910.
  • the disclosed embodiment may be applied to a plurality of devices that transmit and receive messages through the chat window 910.
  • the first device 100 may transmit the captured image and the execution information to the plurality of devices.
  • FIG. 10 illustrates an example in which a second device stores content using execution information.
  • the second device 200 when the second device 200 receives a user input 1030 for an area in which the object 915 is displayed in the captured image 920, the second device 200 stores a GUI corresponding to the object 915.
  • 1040 may be provided.
  • the GUI 1040 may include a "save" button image for storing content and a "execute” button image for directly executing the content. Therefore, in response to a user input to the GUI 1040, the second device 200 stores and executes the content obtained using the execution information received from the first device 100, or executes the execution information by using the execution information. You can run content right away.
  • 11 is an example of a captured image displayed by a second device.
  • the second device 200 may receive a captured image 1110 in which predetermined areas 1101 and 1103 including some objects are highlighted. In this case, the second device 200 may execute content corresponding to the objects included in the highlighted areas 1101 and 1103. If the user of the second device 200 selects an area 1120 including an object that is not highlighted in the captured image 1110, the second device 200 executes content corresponding to the selected object.
  • the second device 200 executes content corresponding to the selected object.
  • FIG. 12 is a flowchart illustrating a method of operating a content sharing system.
  • the first device 100 may generate a captured image in response to a user input of capturing a screen of the first device 100.
  • the first device 100 may obtain content identification information corresponding to the object displayed on the captured image.
  • the content identification information may include a name of the content, a unique number of the content, address information in which the content is stored, and the like.
  • the first device 100 may analyze the captured image to identify objects displayed on the captured image.
  • the first device 100 may obtain identification information of content corresponding to the identified object.
  • the first device 100 may transmit identification information of the content corresponding to the captured image and the object displayed on the captured image, to the second device 200.
  • the second device 200 may be an external device that transmits and receives a message through the chat window of the chat application with the first device 100.
  • the first device 100 may generate coordinate information of a predetermined area corresponding to the object in the captured image.
  • the first device 100 may transmit a mapping table including coordinate information of a predetermined area corresponding to the object and content identification information corresponding to the coordinate information to the second device 200.
  • the second device 200 may display a captured image received from the first device 100.
  • the second device 200 may display the captured image in the chat window of the chat application.
  • the second device 200 may receive a user input for an area where an object is displayed in the captured image.
  • the second device 200 may receive a touch input using a user's hand, a stylus pen, or the like.
  • the second device 200 may request the content device for executing the content or the link information for downloading the content to the first device 100 using the content identification information corresponding to the region.
  • the second device 200 may request the content file to the first device 100 by using the coordinate information of the region where the user input is received, the coordinate information of the mapping table, and the content identification information.
  • the first device 100 may obtain a content file by using content identification information.
  • the first device 100 may transmit the obtained content file to the second device 200.
  • the second device 200 may execute content.
  • FIG. 13 illustrates an example in which a first device transmits a transmission file including a captured image and content identification information to a second device in a content sharing system.
  • the first device 100 may generate a captured image 1320 according to a user input 1310 that captures all or part of a screen of the first device 100.
  • the first device 100 may include content identification information (ie, 'first memory address information' to 'fifth) of contents corresponding to the objects 1321, 1322, 1323, 1324, and the like displayed on the captured image 1320.
  • Content identification information ie, 'first memory address information' to 'fifth
  • the first device 100 may generate a transmission file 1350 including the captured image 1320 and the content identification information 1330.
  • the transmission file 1350 may further include a mapping table 1340.
  • the mapping table 1340 includes coordinate information 1410 and content identification information 1330 corresponding to the coordinate information 1410 and the coordinate information 1410 of a predetermined area including at least one object in the captured image 1320. ) May be included.
  • 15 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • the first device 100 may receive voice data from a user.
  • the first device 100 may receive a voice command from the user for sharing specific content with the second device 200.
  • a chat application may provide a graphical user interface (GUI) that receives voice data from a user in a chat window.
  • GUI graphical user interface
  • the first device 100 may activate a microphone unit (see 2270 of FIG. 22) included in the first device 100 and receive voice data through the microphone unit 2270. have.
  • the first device 100 may obtain execution information of content to be shared with the second device 200 according to the received voice data.
  • the first device 100 may extract the identification value of the content from the voice data and obtain link information for downloading the content file or the content corresponding to the identification value of the content.
  • the content may include, for example, text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and text data stored in an external server. , Audio data, video data and / or application execution data.
  • the first device 100 may display execution information of the content.
  • the first device 100 may display execution information of content in a chat window of a chat application. Accordingly, the user of the first device 100 may check whether the first device 100 properly acquires execution information of the content.
  • the first device 100 may transmit execution information to the second device 200. For example, when the reception of voice data ends, the first device 100 may transmit execution information to the second device 200. Alternatively, when a user input for transmitting execution information to the second device 200 is received, the first device 100 may transmit the execution information to the second device 200.
  • the second device 200 may display a GUI for executing content corresponding to the received execution information.
  • the second device 200 may display a GUI for executing content in a chat window of the chat application.
  • the second device 200 may execute content using execution information.
  • the GUI may include a menu for storing or executing content in the second device 200 using execution information.
  • 16 illustrates an example of sharing execution information of content using voice data.
  • the user Voice data may be received from 300.
  • the first device 100 may receive voice data “Share AAA file” from the user 300.
  • the first device 100 may obtain execution information of content (eg, 'AAA') included in the voice data. For example, the first device 100 may obtain a content file 1630 having 'AAA' as a file name.
  • content eg, 'AAA'
  • the first device 100 may display the obtained content file 1630 in the chat window 1610-1 of the first device 100.
  • the first device 100 may receive a user input 1640 for sharing the obtained execution information 1630 with the second device 200. Accordingly, the first device 100 may transmit a content file (ie, 'AAA.txt') 1630 to the second device 200.
  • the second device 200 displays a GUI 1650 in the chat window 1610-2 for storing or playing content using the content file 1630 received from the first device 100. Can provide.
  • 17 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • the first device 100 may receive text data from a user.
  • the chat application may provide a GUI (eg, a keyboard GUI, etc.) that receives text data from the user in the chat window.
  • the first device 100 may obtain execution information of content to be shared with the second device 200 according to the received text data.
  • the first device 100 may extract the content identification value included in the text data and obtain execution information for executing the content corresponding to the extracted content identification value.
  • the text identification value may include a name of the content file, a content file storage location, a server name for downloading the content, a link address for downloading the content, and the like.
  • the execution information may be, for example, a content file, identification information of the content file, link information for downloading the content, or the like.
  • the first device 100 may display the obtained execution information.
  • the first device 100 may display execution information obtained from the chat window of the chat application. Accordingly, the user of the first device 100 may check whether the first device 100 correctly obtains execution information.
  • the first device 100 may transmit execution information to the second device 200.
  • the first device 100 may transmit execution information to the second device 200 when the reception of the text data is terminated (for example, an enter key or a transmission key input).
  • the first device 100 may display a GUI for executing content corresponding to the received execution information.
  • the second device 200 may display a GUI for storing or executing content in a chat window of the chat application.
  • the second device 200 may execute content using execution information.
  • the first device 100 when text data is received through a user input to a keyboard GUI 1815 provided in a chat window 1810-1 of a chat application, the first device 100 identifies content included in the text data. Execution information for executing content corresponding to a value (ie, 'AAA') may be obtained. For example, the first device 100 may obtain a content file 1820 having 'AAA' as a file name.
  • the first device 100 may display the obtained content file 1820 in the chat window 1810-1 of the first device 100.
  • the first device 100 may receive a user input 1830 for sharing the obtained content file 1820 with the second device 200. Accordingly, the first device 100 may transmit a content file (ie, 'AAA.txt') 1820 to the second device 200.
  • a content file ie, 'AAA.txt'
  • the second device 200 uses the content file 1820 received from the first device 100 to chat the GUI 1840 for storing or playing the content. Can be provided by
  • 19 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
  • the first device 100 may receive video data from a user.
  • a chat application can provide a GUI to receive video data in a chat window.
  • the first device 100 activates an image capturing unit (refer to 2275 of FIG. 22) provided on the front or rear surface of the first device 100, and receives a video through the image capturing unit 2275. Data can be obtained.
  • the first device 100 may acquire execution information of content to be shared with the second device 200 according to the received video data.
  • the first device 100 may extract an identification value of the content included in the video data and obtain execution information for executing the content using the extracted content identification value.
  • the content identification value may include an image, a gesture, an icon, a logo, a text image, and the like included in the video data.
  • the execution information may be, for example, a content file for executing the content, identification information of the content file, link information for downloading the content, or the like.
  • the first device 100 may transmit execution information of video data and content to the second device 200.
  • the first device 100 may transmit to the second device 200 a mapping table including time information at which the identification value of the content is reproduced from the video data and coordinate information of the region at which the identification value of the content is displayed.
  • the second device 200 may display a GUI for storing or executing content corresponding to the execution information of the received content.
  • the content included in the video data ie, heart image data
  • the GUI 2040 for executing 2030 may be displayed.
  • the identification value of the content may be a heart hand gesture 2020.
  • the second device 200 may execute content using execution information.
  • the second device 200 may store content using execution information.
  • FIGS. 21 to 22 are diagrams for describing a device according to an embodiment.
  • a device according to the disclosed embodiments will be described with reference to FIGS. 21 through 22 along with FIGS. 21 through 22.
  • the foregoing description and technical spirit are regarded to apply to the devices of FIGS. 21 to 22. Therefore, description overlapping with those in FIGS. 1 to 21 will be omitted.
  • FIG. 21 is a diagram illustrating a configuration of a first device and a second device in a content sharing system.
  • the first device 100 includes a first display unit 2110, a first control unit 2120, and a first communication unit 2130.
  • the first display unit 2110 may display information processed by the first device 100 on the screen.
  • the first device 100 may display an execution screen of an application executed in the foreground in the first device 100.
  • the first device 100 may display a chat window of a chat application and display an execution screen of a photo album application.
  • the first controller 2120 may control the overall operation of the first device 100.
  • the first control unit 2120 may control the first display unit 2110 to display an execution screen of the application on the first display unit 2110.
  • the first controller 2120 may generate a captured image including the objects displayed on the first display unit 2110 in response to a user input of capturing the screen of the first device 100.
  • the first controller 2120 may obtain execution information for executing content corresponding to the objects displayed on the captured image.
  • the content may include text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and may include text data, audio data, stored in an external server, Video data and / or application execution data.
  • the object representing the content may be an icon, text, and / or image representing the content.
  • the execution information may be a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content.
  • the first controller 2120 may analyze the captured image to identify objects included in the captured image. In addition, the first controller 2120 may determine whether the identified objects represent content. For example, when the object is text, the first controller 2120 may search for a content file having the same file name as the text. In this case, the first controller 2120 may search for a content file stored in the first device 100 or an external server. If the content file exists in the first device 100, the first controller 2120 may use the content file as execution information. When the content file exists in the external server, the first controller 2120 Link information in which a content file is stored in an external server may be used as execution information.
  • the first controller 2120 may generate coordinate information of an object or an image region corresponding to the execution information in the captured image. For example, when one object corresponds to one execution information, the first controller 2120 may generate coordinate information of an image region in which the object is displayed in the captured image. Alternatively, when the plurality of objects correspond to the same execution information, the first controller 2120 may generate coordinate information of an image area including the plurality of objects in the captured image.
  • the first controller 2120 may insert an indicator for highlighting and displaying the selected object in the captured image. For example, the first controller 2120 may display the selected object in a thick line or display the selected object in a specific color. In this case, the first controller 2120 may acquire only execution information for executing the selected object.
  • the first communication unit 2130 may include one or more components that allow the first device 100 to communicate with the second device 200 or other external devices.
  • the first communication unit 2130 may include at least one of a Wi-Fi chip (not shown), a Bluetooth chip (not shown), a wireless communication chip (not shown), and an NFC chip (not shown).
  • the first control unit 2120 may transmit / receive data with the second device 200 or other external devices using the first communication unit 2130.
  • the first communication unit 2130 may transmit a transmission file including the captured image and the execution information to the second device 200 under the control of the first control unit 2120.
  • the first communication unit 2130 may transmit a transmission file having a multipurpose internet mail extension HTML (MHTML) or election markup language (EML) file format to the second device 200.
  • MHTML multipurpose internet mail extension HTML
  • EML election markup language
  • the first communication unit 2130 may, under the control of the first control unit 2120, generate a mapping table including coordinate information corresponding to the object displayed on the captured image and execution information corresponding to the coordinate information, from the second device 200. Can be sent to.
  • the first communication unit 2130 may transmit a transmission file including the captured image, execution information, and a mapping table to the second device 200 under the control of the first control unit 2120.
  • the second device 200 includes a second display unit 2140, a second control unit 2150, and a second communication unit 2160.
  • the second communication unit 2160 may include one or more components that allow the second device 200 to communicate with the first device 100 or other external devices.
  • the second communication unit 2160 may include at least one of a Wi-Fi chip (not shown), a Bluetooth chip (not shown), a wireless communication chip (not shown), and an NFC chip (not shown).
  • the second communication unit 2160 may receive a transmission file including information for executing a capture image transmitted by the first device 100 and content corresponding to objects displayed on the capture image.
  • the second communication unit 2160 may receive a transmission file further including a mapping table in addition to the captured image and the executable file.
  • the second display unit 2140 may display information processed by the second device 200 on the screen.
  • the second display unit 2140 may display the captured image received from the first device 100 through the second communication unit 2160.
  • the second display unit 2140 may display the captured image received in the chat window of the chat application.
  • the captured image may be displayed by highlighting objects selected by the user of the first device 100.
  • the second controller 2150 may control the overall operation of the second device 200.
  • the second controller 2150 may identify the object displayed on the captured image by analyzing the captured image.
  • the second controller 2150 may identify an object corresponding to the area where the user input is received in response to the user input for the area where the identified object is displayed, and execute content using execution information corresponding to the object. have.
  • the second controller 2150 may execute content by using coordinate information of an area in which an object corresponding to a user input is displayed, coordinate information and execution information of a mapping table. For example, the second controller 2150 may identify coordinate information of the mapping table that matches the coordinate information of the region where the object corresponding to the user input is displayed, and identify execution information corresponding to the coordinate information. The second controller 2150 can execute the content by using the identified execution information. In addition, the second display unit 2140 may display an execution screen of the content.
  • the second controller 2150 may provide a GUI for storing content in the second device 200.
  • the second controller 2150 may store content.
  • the operations of the first device 100 and the second device 200 of the content sharing system have been described, respectively, but the first device 100 and the second device 200 are the modules of the content sharing system described above. And the ability to perform the functions will be readily understood by those skilled in the art according to the disclosed embodiments.
  • the second controller 2150 of the second device 200 may generate a capture image and obtain execution information for executing content corresponding to the objects displayed on the captured image.
  • the device 2200 corresponding to the first device 100 or the second device 200 may include a memory 2230 and a sensor in addition to the control unit 2210, the display unit 2220, and the communication unit 2240.
  • the unit 2235, an input unit 2250, a microphone unit 2270, an imaging unit 2275, and a speaker unit 2280 may be further included.
  • the controller 2210 may correspond to the first controller 2120 or the second controller 2150 of FIG. 21.
  • the controller 2210 may include a display unit 2220, a communication unit 2240, a sensor unit 2235, an input unit 2250, a microphone unit 2270, an imaging unit 2275, and a speaker unit 2280 of the device 2200. ) Can be controlled overall.
  • the controller 2210 includes at least one of a random access memory (RAM) 2211, a read-only memory (ROM) 2212, a CPU 2213, a graphic processing unit (GPU) 2214, and a bus 2215. can do.
  • the RAM 2211, the ROM 2212, the CPU 2213, the GPU 2214, and the like may be connected to each other through the bus 2215.
  • the present invention is not limited thereto, and at least one of the RAM 2211, the ROM 2212, and the GPU 2214 may be located outside the controller 2210.
  • the controller 2210 may be an Advanced RISC Machine (ARM) processor such as Qualcomm's Snapdragon (SNAPDRAMON TM).
  • ARM Advanced RISC Machine
  • the CPU 2213 accesses the memory 2230 and performs booting using an operating system stored in the memory 2230. In addition, various operations are performed using various programs, content, data, and the like stored in the memory 2230.
  • the ROM 2212 stores a command set for system booting. For example, when the turn-on command is input and the power is supplied, the device 2200 copies the operating system (OS) stored in the memory 2230 to the RAM 2211 according to a command stored in the ROM 2212. You can boot the system by running the OS. When the booting is completed, the CPU 2213 copies various programs stored in the memory 2230 to the RAM 2211 and executes the programs copied to the RAM 2211 to perform various operations. When booting of the device 2200 is completed, the GPU 2214 displays a UI screen on an area of the display unit 2220. In addition, the screen generated by the GPU 2214 may be provided to the display unit 2820 to be displayed on each area of the display unit 2820.
  • OS operating system
  • the display unit 2820 may correspond to the first display unit 2110 or the second display unit 2140 of FIG. 21.
  • the display unit 2220 may include a display panel 2221 and a controller (not shown) for controlling the display panel 2221.
  • the display panel 2221 is implemented with various types of displays such as a liquid crystal display (LCD), an organic light emitting diodes (OLED) display, an active-matrix organic light-emitting diode (AM-OLED), a plasma display panel (PDP), and the like. Can be.
  • the display panel 2221 may be implemented to be flexible, transparent, or wearable.
  • the display 1020 may be combined with the touch panel 2252 of the input unit 2250 and provided as a touch screen (not shown).
  • the touch screen may include an integrated module in which the display panel 2221 and the touch panel 2252 are combined in a stacked structure.
  • the touch screen may further include a pressure-sensitive sensor in a part of the integrated module in which the display panel 2221 and the touch panel 2252 are combined in a stacked structure.
  • the memory 2230 may include at least one of an internal memory (not shown) and an external memory (not shown).
  • the built-in memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.), nonvolatile memory (for example, one time programmable ROM). ), PROM (Programmable ROM), EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM, etc.), a hard disk drive (HDD), or a solid state drive (SSD). It may include.
  • volatile memory for example, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.
  • nonvolatile memory for example, one time programmable ROM.
  • PROM Programmable ROM
  • EPROM Erasable and Programmable ROM
  • EEPROM Electrical Erasable and Programmable ROM
  • Mask ROM Mask ROM
  • Flash ROM Flash ROM
  • HDD hard disk drive
  • SSD solid state drive
  • the controller 2210 may load a command or data received from at least one of the nonvolatile memory or another component into the volatile memory and process the same.
  • the controller 2210 may store data received or generated from other components in the nonvolatile memory.
  • the external memory may include at least one of Compact Flash (CF), Secure Digital (SD), Micro Secure Digital (Micro-SD), Mini Secure Digital (Mini-SD), Extreme Digital (xD), and a Memory Stick. It may include.
  • the memory 2230 may store a content file.
  • the memory 2230 may store various application execution data, audio data, video data, image data, and text data used for the operation of the device 2200.
  • the communication unit 2240 may correspond to the first communication unit 2130 or the second communication unit 2160 of FIG. 21.
  • the communication unit 2240 may include at least one of a Wi-Fi chip 2241, a Bluetooth chip 2242, a wireless communication chip 2243, and an NFC chip 2244.
  • the controller 2210 may exchange data with an external device using the communication unit 2240.
  • the Wi-Fi chip 2241 and the Bluetooth chip 2242 may perform communication using a WiFi method and a Bluetooth method, respectively.
  • various connection information such as SSID and session key may be transmitted and received first, and then various communication information may be transmitted and received using the same.
  • the wireless communication chip 2243 refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like.
  • the NFC chip 2244 refers to a chip operating in a near field communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860-960 MHz, 2.45 GHz, and the like.
  • the input unit 2250 may receive various commands from a user.
  • the user input unit 2250 may include at least one of a key 2251, a touch panel 2252, and a pen recognition panel 2253.
  • the touch panel 2252 may detect a user's touch input and output a touch event value corresponding to the detected touch signal. According to an embodiment, the touch panel 2252 may receive a touch input including at least one of a user's tap, touch and hold, double tap, drag, pan, flick, and drag and drop.
  • the touch panel 2252 may be implemented by various types of touch sensors such as capacitive, pressure sensitive, and piezoelectric.
  • the capacitive type is a method of calculating touch coordinates by detecting fine electricity generated by the human body of a user when a part of the user's body is touched by the touch screen surface by using a dielectric coated on the touch screen surface.
  • the pressure-sensitive type includes two electrode plates embedded in the touch screen, and when the user touches the screen, the touch panel calculates touch coordinates by detecting that the upper and lower plates of the touched point are in contact with current.
  • the touch event occurring in the touch screen may be mainly generated by a human finger, but may also be generated by an object of conductive material that can apply a change in capacitance.
  • the key 2251 may include various types of keys, such as mechanical buttons, wheels, and the like, formed in various areas such as a front portion, a side portion, and a rear portion of the main body exterior of the device 2200.
  • the pen recognition panel 2253 detects a proximity input or touch input of a pen according to the operation of a user's touch pen (eg, a stylus pen or a digitizer pen) and detects a detected pen proximity event or pen. A touch event can be output.
  • the pen recognition panel 2253 may be implemented by, for example, an EMR method, and may detect a touch or a proximity input according to a change in the intensity of an electromagnetic field due to a proximity or a touch of a pen.
  • the pen recognition panel 2253 includes an electromagnetic induction coil sensor (not shown) having a grid structure and an electronic signal processor (not shown) that sequentially provides an AC signal having a predetermined frequency to each loop coil of the electromagnetic induction coil sensor. It may be configured to include).
  • the magnetic field transmitted from the loop coil generates a current based on mutual electromagnetic induction in the resonant circuit in the pen. Based on this current, an induction magnetic field is generated from a coil constituting the resonant circuit in the pen, and the pen recognition panel 2253 detects the induction magnetic field in a loop coil in a signal receiving state so as to approach the pen's approach position or the like. The touch position can be detected.
  • the pen recognition panel 2253 may be provided under the display panel 2221 to have a predetermined area, for example, an area that can cover the display area of the display panel 2221.
  • the microphone unit 2270 may receive a user voice or other sound and convert the audio into audio data.
  • the controller 2210 may use a user's voice input through the microphone 2270 in a call operation or convert the user's voice into audio data and store it in the memory 2230.
  • the imaging unit 2275 may capture a still image or a moving image under the control of the user.
  • the imaging unit 2275 may be implemented in plurality, such as a front camera and a rear camera.
  • the controller 2210 may perform a control operation according to a user voice input through the microphone unit 2270 or a user motion recognized by the imaging unit 2175. It may be.
  • the device 2200 may operate in a motion control mode or a voice control mode.
  • the controller 2210 may activate the image capturing unit 2175 to capture a user, track a user's motion change, and perform a control operation corresponding thereto.
  • the controller 2210 may operate in a voice recognition mode that analyzes a user voice input through the microphone unit 2270 and performs a control operation according to the analyzed user voice.
  • the speaker unit 2280 may output audio data under the control of the controller 2210. According to some embodiments, when a user input for selecting an application in the application list is received through the input unit 2250, the speaker unit 2280 may output a notification sound distinguished by power consumption classes of the selected application.
  • the embodiment may include a USB port to which a USB connector may be connected in the device 2200, various external input ports for connecting to various external terminals such as a headset, a mouse, a LAN, and the like.
  • DMB digital multimedia broadcasting
  • the device 2200 may further include a vibrator (not shown) for vibrating the device 2200.
  • the device 2200 may further include a vibration unit (not shown) that outputs vibrations distinguished by power consumption classes of the selected applications. It can be provided.
  • the above-described embodiments can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer which operates the program using a computer-readable recording medium.
  • the processor of the computer may be configured to communicate with the computer's communication module (e.g. wired and / or wireless communication module). It may further include information about how it can communicate with any other computer or server in the remote, and what information or media should be transmitted and received during communication.
  • the computer's communication module e.g. wired and / or wireless communication module. It may further include information about how it can communicate with any other computer or server in the remote, and what information or media should be transmitted and received during communication.
  • a functional program for implementing the disclosed embodiments, codes and code segments associated therewith may be used in consideration of a system environment of a computer that executes a program by reading a recording medium. It may be easily inferred or changed by programmers.
  • Examples of recording media that can be read by a computer recording a program as described above include, for example, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical media storage device, and the like.
  • a computer-readable recording medium having recorded a program as described above may be distributed to computer systems connected through a network so that computer-readable codes may be stored and executed in a distributed manner.
  • at least one of the plurality of distributed computers may execute some of the functions presented above, and transmit the result to at least one of the other distributed computers, and transmit the result.
  • the receiving computer may also execute some of the functions presented above, and provide the results to other distributed computers as well.

Abstract

A method for sharing a content by a device comprises the steps of: receiving, from another device, a capture image obtained by capturing a screen of the another device and execution information for executing a content corresponding to an object displayed in the capture image; displaying the capture image; and executing the content corresponding to the object using the execution information in response to a user input to the area where the object is displayed in the capture image.

Description

콘텐트를 공유하는 방법 및 콘텐트 공유 시스템 How to share content and content sharing system
콘텐트를 공유하는 방법 및 콘텐트 공유 시스템에 관한 발명이다. 구체적으로, 콘텐트를 실행하기 위한 실행 정보를 콘텐트 공유 시스템에 포함된 디바이스들로 전송하는 방법 및 그 실행 정보를 이용하여 콘텐트를 실행하는 방법에 관한 발명이다. A method of sharing content and a content sharing system. Specifically, the present invention relates to a method for transmitting execution information for executing content to devices included in a content sharing system and a method for executing content using the execution information.
디바이스와 관련된 기술이 계속적으로 발전함에 따라, 디바이스들 간에 교환되는 정보의 양은 증가하고 있다. 예를 들어, 다양한 타입의 파일들이 디바이스들 간에 전송되고 있다.As technology associated with devices continues to evolve, the amount of information exchanged between devices is increasing. For example, various types of files are being transferred between devices.
최근에는, 디바이스들 간에 파일들이 송수신할 때, 수신 디바이스가 전송 디바이스로부터 어떠한 파일들이 전송되는지를 인지할 필요성이 있는 경우, 전송 디바이스는 전송할 파일들의 리스트를 보여주기 위한 스크린샷(screenshot)을 먼저 전송한다. 이후, 전송 디바이스는 리스트에 포함된 파일들 각각을 수신 디바이스로 전송한다. 이는, 디바이스들 간에 비효율적인 정보 전송을 야기한다.Recently, when files are sent and received between devices, if the receiving device needs to know what files are being sent from the sending device, the sending device first sends a screenshot to show the list of files to send. do. Thereafter, the transmitting device transmits each of the files included in the list to the receiving device. This causes inefficient information transfer between devices.
디바이스들 간에 효율적인 정보 전송을 제공한다. Provides efficient information transfer between devices.
상술한 과제를 해결하기 위해 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 단계, 캡처 이미지를 디스플레이하는 단계, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 단계를 포함하는 콘텐트 공유 방법을 제공한다. In order to solve the above-mentioned problems, receiving a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from another device, displaying a captured image, and a captured image In response to a user input for an area in which an object is displayed, the method provides a content sharing method comprising executing content corresponding to the object using execution information.
도 1은 콘텐트 공유 시스템의 개요도이다.1 is a schematic diagram of a content sharing system.
도 2는 실시예에 따라 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 방법을 설명하는 흐름도이다. 2 is a flowchart illustrating a method of transmitting execution information for executing content by a first device to a second device in a content sharing system according to an embodiment.
도 3은 콘텐트 공유 시스템에서 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 일례이다. 3 illustrates an example of generating a transmission file including a capture image and execution information in a content sharing system.
도 4는 캡처 이미지에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성하는 일례이다.4 illustrates an example of generating coordinate information of a predetermined area including at least one object in a captured image.
도 5는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 일례이다. 5 illustrates an example of generating a mapping table in a content sharing system.
도 6은 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 다른 방법을 설명하는 흐름도이다.6 is a flowchart illustrating another method of transmitting execution information for executing content by a first device to a second device in a content sharing system.
도 7은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 다른 일례이다. 7 is another example in which the first device generates a transfer file including the captured image and the execution information in the content sharing system.
도 8을 콘텐트 공유 시스템에서 제 2 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스로부터 수신하는 방법을 설명하는 흐름도이다. 8 is a flowchart illustrating a method of receiving execution information from a first device for executing content by a second device in a content sharing system.
도 9는 도 5의 매핑 테이블을 이용하여 콘텐트를 실행하는 일례이다. FIG. 9 illustrates an example of executing content using the mapping table of FIG. 5.
도 10은 제 2 디바이스가 실행 정보를 이용하여 콘텐트를 저장하는 일례이다. 10 illustrates an example in which a second device stores content using execution information.
도 11은 제 2 디바이스가 디스플레이하는 캡처 이미지의 일례이다. 11 is an example of a captured image displayed by a second device.
도 12는 콘텐트 공유 시스템의 다른 동작 방법을 설명하는 흐름도이다. 12 is a flowchart illustrating another operation method of a content sharing system.
도 13은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 콘텐트 식별 정보를 포함하는 전송 파일을 제 2 디바이스로 전송하는 일례이다. FIG. 13 illustrates an example in which a first device transmits a transmission file including a captured image and content identification information to a second device in a content sharing system.
도 14는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 다른 일례이다. 14 is another example of generating a mapping table in a content sharing system.
도 15는 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.15 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 16은 음성 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.16 illustrates an example of sharing execution information of content using voice data.
도 17은 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.17 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 18은 텍스트 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다. 18 illustrates an example of sharing execution information of content using text data.
도 19는 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.19 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 20은 비디오 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다. 20 illustrates an example of sharing execution information of content using video data.
도 21은 콘텐트 공유 시스템에서 제 1 디바이스 및 제 2 디바이스의 구성을 도시한 도면이다. FIG. 21 is a diagram illustrating a configuration of a first device and a second device in a content sharing system.
도 22는 디바이스의 상세한 구성을 설명하는 도면이다. It is a figure explaining the detailed structure of a device.
상술한 과제를 해결하기 위한 개시된 실시예의 제 1 측면은, 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 단계, 캡처 이미지를 디스플레이하는 단계, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 단계를 포함하는 콘텐트 공유 방법을 제공한다. A first aspect of the disclosed embodiment for solving the above problems is a step of receiving a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from another device, the captured image And displaying content, and executing content corresponding to the object by using the execution information, in response to a user input of an area in which the object is displayed in the captured image.
또한, 다른 디바이스는, 채팅 어플리케이션을 이용하여 디바이스와 메시지를 송수신 중일 수 있으며, 캡처 이미지는 채팅 어플리케이션의 채팅 창에 표시될 수 있다. In addition, the other device may be transmitting or receiving a message with the device using the chat application, and the captured image may be displayed in the chat window of the chat application.
또한, 콘텐트를 실행하는 단계는, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 다른 디바이스로 요청하는 단계, 및 콘텐트를 다른 디바이스로부터 수신하는 단계를 포함할 수 있다. In addition, the executing of the content may include requesting the content corresponding to the object to another device using the execution information, and receiving the content from the other device.
또한, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 수신하는 단계를 더 포함할 수 있다. The method may further include receiving a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information.
또한, 수신된 매핑 테이블에 기초하여, 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하는 단계를 더 포함할 수 있으며, 실행하는 단계는, 식별된 실행 정보를 이용하여 콘텐트를 실행하는 것일 수 있다. The method may further include identifying execution information corresponding to the coordinate information of the region where the object is displayed, based on the received mapping table, and the executing may include executing content using the identified execution information. Can be.
또한, 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 및 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나일 수 있다. In addition, the execution information may be at least one of a content file, identification information of the content file, and link information for downloading the content.
또한, 실행하는 단계는, 콘텐트를 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이하는 단계를 포함할 수 있다. In addition, the step of executing may include displaying a graphical user interface (GUI) for storing content on the device.
또한, 객체는 캡처 이미지 내의 복수의 객체들 중에서, 다른 디바이스의 사용자에 의해 선택된 객체이며, 객체는 캡처 이미지 내에서 강조되어 표시될 수 있다. Also, the object is an object selected by a user of another device among the plurality of objects in the captured image, and the object may be highlighted and displayed in the captured image.
개시된 실시예의 제 2 측면은, 디바이스의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성하는 단계, 및 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 단계를 포함하는 콘텐트 공유 방법을 제공한다. In accordance with a second aspect of the disclosed embodiment, in response to a user input capturing a screen of the device, generating a capture image, and executing information for executing the content corresponding to the captured image and the object displayed in the captured image to another device It provides a content sharing method comprising the step of transmitting.
또한, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 다른 디바이스로 전송하는 단계를 더 포함할 수 있다. The method may further include transmitting a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information to another device.
또한, 캡처 이미지 내의 복수의 객체들 중에서 객체를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하며, 객체는, 캡처 이미지 내에서 강조되어 표시될 수 있다.The method may further include receiving a user input for selecting an object from among the plurality of objects in the captured image, wherein the object may be highlighted in the captured image.
개시된 실시예의 제 3 측면은, 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 통신부; 캡처 이미지를 디스플레이하는 디스플레이부, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 제어부를 포함하는 디바이스를 제공한다. A third aspect of the disclosed embodiment includes a communication unit for receiving a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from another device; A display unit for displaying a captured image, and a control unit for executing the content corresponding to the object by using the execution information in response to a user input for the area in which the object is displayed in the captured image.
또한, 다른 디바이스는, 채팅 어플리케이션을 이용하여 디바이스와 메시지를 송수신 할 수 있으며, 디스플레이부는, 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다. In addition, the other device may exchange messages with the device using a chat application, and the display unit may display the captured image in a chat window of the chat application.
또한, 통신부는, 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 다른 디바이스로 요청하고, 콘텐트를 다른 디바이스로부터 수신할 수 있다. In addition, the communication unit may request content corresponding to the object from another device using the execution information and receive the content from the other device in response to the user input.
또한, 통신부는, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 수신할 수 있다.In addition, the communication unit may receive a mapping table including coordinate information of the object in the captured image and execution information corresponding to the coordinate information.
또한, 제어부는, 수신된 매핑 테이블에 기초하여, 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하고, 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다. In addition, the controller may identify execution information corresponding to the coordinate information of the region in which the object is displayed, based on the received mapping table, and execute content using the identified execution information.
또한, 디스플레이부는, 콘텐트를 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이할 수 있다. In addition, the display unit may display a graphical user interface (GUI) for storing content in the device.
또한, 객체는 캡처 이미지 내의 복수의 객체들 중에서, 다른 디바이스의 사용자에 의해 선택된 객체이며, 객체는 캡처 이미지 내에서 강조되어 표시될 수 있다. Also, the object is an object selected by a user of another device among the plurality of objects in the captured image, and the object may be highlighted and displayed in the captured image.
개시된 실시예의 제 4 측면은, 디바이스의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성하는 제어부, 및 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 통신부를 포함하는 디바이스를 제공한다. In accordance with a fourth aspect of the disclosed embodiment, in response to a user input of capturing a screen of a device, a controller for generating a captured image and execution information for executing content corresponding to the captured image and the object displayed on the captured image to another device It provides a device including a communication unit for transmitting.
개시된 실시예의 제 5 측면은, 개시된 실시예의 제 1 및 제 2 측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공한다. A fifth aspect of the disclosed embodiment provides a computer readable recording medium having recorded thereon a program for implementing the method of the first and second aspects of the disclosed embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes any one of a plurality of related items or a combination of a plurality of related items.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the term "part" as used herein refers to a hardware component, such as software, FPGA or ASIC, and "part" plays certain roles. However, "part" is not meant to be limited to software or hardware. The “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors. Thus, as an example, a "part" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. The functionality provided within the components and "parts" may be combined into a smaller number of components and "parts" or further separated into additional components and "parts".
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
도 1은 콘텐트 공유 시스템의 개요도이다. 도 1을 참조하면, 콘텐트 공유 시스템은 제 1 디바이스(100) 및 제 2 디바이스(200)를 포함한다. 1 is a schematic diagram of a content sharing system. Referring to FIG. 1, a content sharing system includes a first device 100 and a second device 200.
제 1 디바이스(100)와 제 2 디바이스(200)는 채팅 어플리케이션을 실행하여 메시지를 송수신하는 컴퓨팅 장치일 수 있다. 예를 들어, 제 1 디바이스(100) 및 제 2 디바이스(200)는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200)는 전자 칠판, 터치 테이블 등과 같이 다양한 장치를 포함할 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지일 수 있다. 그러나, 이에 제한되지 않으며, 제 1 디바이스(100) 및 제 2 디바이스(200)는 네트워크를 통하여 데이터를 송수신할 수 있는 모든 종류의 기기를 포함할 수 있다.The first device 100 and the second device 200 may be computing devices that transmit and receive messages by executing a chat application. For example, the first device 100 and the second device 200 may be a smartphone, tablet PC, PC, smart TV, mobile phone, personal digital assistant (PDA), laptop, media player, micro server, global positioning system (GPS). system) devices, e-book terminals, digital broadcasting terminals, navigation, kiosks, MP3 players, digital cameras and other mobile or non-mobile computing devices, but is not limited thereto. In addition, the first device 100 and the second device 200 may include various devices such as an electronic blackboard, a touch table, and the like. In addition, the first device 100 and the second device 200 may be watches, glasses, hair bands and rings having a communication function and a data processing function. However, the present invention is not limited thereto, and the first device 100 and the second device 200 may include all kinds of devices capable of transmitting and receiving data through a network.
실시예에 따라 제 1 디바이스(100)는 제 2 디바이스(200)와 메시지를 송수신하는 중에 콘텐트를 제 2 디바이스(200)로 전송할 수 있다. 제 1 디바이스(100)는 전송할 콘텐트를 나타내는 객체(예를 들어, 콘텐트 파일의 아이콘, 명칭 등)가 표시된 화면을 캡처(capture)할 수 있다. 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들에 대응되는 콘텐트 파일을 캡처 이미지와 함께 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 복수의 콘텐트를 동시에 전송하기 위해, 전송하고자 하는 콘텐트 파일들이 나열된 파일 리스트가 표시된 화면을 캡처할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 용이하게 복수의 콘텐트 파일들을 제 2 디바이스(200)로 전송할 수 있다. According to an embodiment, the first device 100 may transmit content to the second device 200 while transmitting and receiving a message with the second device 200. The first device 100 may capture a screen on which an object (eg, an icon, a name, etc. of a content file) indicating content to be transmitted is displayed. The first device 100 may transmit a content file corresponding to the objects displayed in the captured image to the second device 200 along with the captured image. For example, in order to simultaneously transmit a plurality of contents, the first device 100 may capture a screen displaying a file list in which content files to be transmitted are listed. Accordingly, a user of the first device 100 may easily transmit a plurality of content files to the second device 200.
또는, 제 1 디바이스(100)는 제 2 디바이스(200)와 메시지를 송수신하는 중에 웹 페이지를 공유할 수 있다. 실시예에 따라 제 1 디바이스(100)는 공유할 웹 페이지를 나타내는 객체(예를 들어, 웹 페이지의 실행창, 특정 웹 페이지에 접속하기 위한 바로가기 아이콘 등)가 표시된 화면을 캡처할 수 있다. 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들에 대응되는 웹 페이지를 다운로드할 수 있는 링크 정보를 캡처 이미지와 함께 제 2 디바이스(200)로 전송할 수 있다.Alternatively, the first device 100 may share a web page while transmitting and receiving a message with the second device 200. According to an embodiment, the first device 100 may capture a screen on which an object indicating a web page to be shared (for example, an execution window of the web page, a shortcut icon for accessing a specific web page, etc.) is displayed. The first device 100 may transmit the link information for downloading the web page corresponding to the objects displayed on the captured image to the second device 200 along with the captured image.
제 1 디바이스(100)가 전송한 캡처 이미지는 제 1 디바이스(100)와 제 2 디바이스(200)가 메시지를 송수신하는 채팅 어플리케이션의 채팅 창 내에 디스플레이될 수 있다. 제 2 디바이스(200)는 채팅 창을 통해 캡처 이미지를 수신하고, 캡처 이미지에 표시된 객체를 선택하는 사용자 입력에 응답하여, 제 1 디바이스(100)가 전송하는 콘텐트 파일을 선택적으로 수신 및 저장할 수 있다. The captured image transmitted by the first device 100 may be displayed in a chat window of a chat application in which the first device 100 and the second device 200 transmit and receive a message. The second device 200 may receive a captured image through a chat window, and selectively receive and store a content file transmitted by the first device 100 in response to a user input of selecting an object displayed on the captured image. .
한편, 도 1에 도시된 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.Meanwhile, the network illustrated in FIG. 1 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, and a satellite. It is a comprehensive data communication network that includes a communication network and a combination thereof, and enables each network constituent illustrated in FIG. 1 to communicate smoothly with each other, and may include a wired internet, a wireless internet, and a mobile wireless communication network. have.
이하의 도 2 내지 도 14에서는, 제 1 디바이스(100)가 제 2 디바이스(200)로 캡처 이미지와 함께 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송하는 방법에 대하여 상세히 설명한다. 또한, 도 15 내지 도 20 에서는, 제 1 디바이스(100)가 사용자로부터 수신되는 오디오, 텍스트 및 비디오 데이터에 포함된 콘텐트 정보를 이용하여, 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송하는 방법에 대하여 상세히 설명한다.2 to 14, a method in which the first device 100 transmits execution information for executing content together with the captured image to the second device 200 to the second device 200 will be described in detail. . 15 to 20, execution information for executing content is transmitted to the second device 200 by using the content information included in the audio, text, and video data received by the first device 100 from the user. The transmission method will be described in detail.
또한, 설명의 편의를 위해 제 1 디바이스(100)가 제 2 디바이스(200)로 캡처 이미지 및 콘텐트를 실행하기 위한 실행 정보를 전송하는 것으로 가정하였으나, 제 2 디바이스(200)가 제 1 디바이스(100)로 캡처 이미지 등을 전송할 수 있음은 개시된 실시예에 따른 기술 분야의 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다.Also, for convenience of description, it is assumed that the first device 100 transmits execution information for executing the captured image and the content to the second device 200, but the second device 200 transmits the first device 100. It can be easily understood by those of ordinary skill in the art that the captured image and the like can be transmitted in the following embodiments.
도 2는 실시예에 따라 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 방법을 설명하는 흐름도이다. 2 is a flowchart illustrating a method of transmitting execution information for executing content by a first device to a second device in a content sharing system according to an embodiment.
도 2를 참조하면, s210 단계에서, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면을 캡처(capture)하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다. 이때, 제 1 디바이스(100)는 채팅 어플리케이션을 실행 중일 수 있으며, 채팅 어플리케이션을 통해 제 2 디바이스(200)와 메시지를 송수신하는 중일 수 있다.Referring to FIG. 2, in operation S210, the first device 100 may generate a captured image in response to a user input of capturing a screen of the first device 100. In this case, the first device 100 may be executing a chat application, and may be transmitting and receiving a message with the second device 200 through the chat application.
구체적으로, 제 1 디바이스(100)는 채팅 어플리케이션을 통해 제 2 디바이스(200)와 메시지를 송수신하는 중, 다른 어플리케이션의 실행 화면, 홈 화면 또는 메뉴 화면 등을 포그라운드(foreground)로 실행할 수 있다. 이때, 채팅 어플리케이션은 백그라운드(background)로 실행될 수 있다. 또한, 다른 어플리케이션은 예를 들어, 탐색기 어플리케이션, 사진첩 어플리케이션, 주소록 어플리케이션, 웹 서버 어플리케이션, 브라우저 어플리케이션 등일 수 있다. In detail, the first device 100 may execute an execution screen, a home screen, or a menu screen of another application in the foreground while transmitting and receiving a message with the second device 200 through a chat application. In this case, the chat application may be executed in the background. In addition, the other application may be, for example, a searcher application, a photo album application, an address book application, a web server application, a browser application, or the like.
제 1 디바이스(100)의 사용자는 채팅 어플리케이션을 통해 제 2 디바이스(200)로 전송 가능한 콘텐트를 나타내는 객체가 표시된 다른 어플리케이션의 실행 화면 등을 캡처할 수 있다 예를 들어, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 사진의 아이콘이 표시된 사진첩 어플리케이션의 실행 화면을 캡처하는 사용자 입력을 수신할 수 있다. 또는, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 연락처 정보가 표시된 주소록 어플리케이션의 실행 화면을 캡처하는 사용자 입력을 수신할 수 있다. 또는, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 어플리케이션의 아이콘이 표시된 메뉴 화면을 캡처하는 사용자 입력을 수신할 수 있다.A user of the first device 100 may capture an execution screen of another application in which an object representing content that can be transmitted to the second device 200 is displayed through a chat application. For example, the first device 100 A user input for capturing an execution screen of a photo album application displaying an icon of a photo to be transmitted to the second device 200 may be received. Alternatively, the first device 100 may receive a user input for capturing an execution screen of an address book application displaying contact information to be transmitted to the second device 200. Alternatively, the first device 100 may receive a user input for capturing a menu screen on which an icon of an application to be transmitted to the second device 200 is displayed.
또는, 제 1 디바이스(100)는 서로 다른 경로에 저장된 콘텐트들을 나타내는 아이콘, 이미지 및/또는 텍스트를 임시 저장 공간으로 복사한 후, 임시 저장 공간을 캡처하는 사용자 입력을 수신할 수도 있다. 이때, 임시 저장 공간은 채팅 어플리케이션이 제공하는 클립보드(clipboard)일 수 있으며, 제 1 디바이스(100)의 화면에 디스플레이될 수 있다. Alternatively, the first device 100 may copy an icon, an image, and / or text representing contents stored in different paths to a temporary storage space and then receive a user input of capturing the temporary storage space. In this case, the temporary storage space may be a clipboard provided by the chat application and may be displayed on the screen of the first device 100.
또한, 화면을 터치하기 위한 사용자 입력은 사용자의 손, 스타일러스펜 등을 이용하는 터치 입력 또는 제 1 디바이스(100)에 구비된 버튼을 이용하는 버튼 입력일 수도 있으며, 이들의 조합일 수도 있다. The user input for touching the screen may be a touch input using a user's hand, a stylus pen, or the like, or a button input using a button provided in the first device 100, or a combination thereof.
제 1 디바이스(100)는 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다.The first device 100 may generate a captured image in response to a user input of capturing a screen.
s220 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 여기서 실행 정보는, 예를 들어, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트의 식별 정보일 수도 있으나, 이에 제한되지 않는다. In operation S220, the first device 100 may transmit execution information for executing the content corresponding to the captured image and the object displayed on the captured image to the second device 200. Here, the execution information may be, for example, a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content. In addition, the execution information may be, for example, identification information of the content, but is not limited thereto.
구체적으로, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체들이 콘텐트를 나타내는지 여부를 판단할 수 있다. 예를 들어, 객체가 텍스트인 경우, 제 1 디바이스(100)는 상기 텍스트와 동일한 파일명을 갖는 콘텐트 파일을 검색할 수 있다. 또는, 객체가 이미지인 경우, 제 1 디바이스(100)는 상기 이미지와 동일한 아이콘을 갖는 콘텐트 파일을 검색할 수 있다. 이때, 제 1 디바이스(100)는 제 1 디바이스(100) 또는 외부 서버에 저장된 콘텐트 파일을 검색할 수 있다. 만약, 콘텐트 파일이 제 1 디바이스(100)에 존재하는 경우, 제 1 디바이스(100)는 콘텐트 파일을 실행 정보로 할 수 있으며, 콘텐트 파일이 외부 서버에 존재하는 경우, 제 1 디바이스(100)는 외부 서버에 콘텐트 파일이 저장된 링크 정보를 실행 정보로 할 수 있다. In detail, the first device 100 may identify the objects included in the captured image by analyzing the captured image. In addition, the first device 100 may determine whether the identified objects represent content. For example, when the object is text, the first device 100 may search for a content file having the same file name as the text. Alternatively, when the object is an image, the first device 100 may search for a content file having the same icon as the image. In this case, the first device 100 may search for a content file stored in the first device 100 or an external server. If the content file exists in the first device 100, the first device 100 may use the content file as execution information, and if the content file exists in an external server, the first device 100 may Link information in which a content file is stored in an external server may be used as execution information.
제 1 디바이스(100)는 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 생성하고, 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷을 갖는 전송 파일을 생성할 수 있다.The first device 100 may generate a transmission file including the captured image and the execution information, and transmit the transmission file to the second device 200. For example, the first device 100 may generate a transmission file having a Multipurpose Internet Mail Extension HTML (MHTML) or Election Markup Language (EML) file format.
또한, 실시예에 따라 제 1 디바이스(100)는 캡처 이미지에서 실행 정보에 대응되는 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 하나의 객체가 하나의 실행 정보에 대응되는 경우, 캡처 이미지에서 하나의 객체가 표시된 영역에 대한 좌표 정보를 생성할 수 있다. 또는, 제 1 디바이스(100)는 복수의 객체들이 동일한 실행 정보에 대응되는 경우, 캡처 이미지에서 복수의 객체들을 포함하는 영역에 대한 좌표 정보를 생성할 수 있다. 제 1 디바이스(100)는 객체에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 캡처 이미지, 실행 정보 및 매핑 테이블을 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. In addition, according to an embodiment, the first device 100 may generate coordinate information of a predetermined area including at least one object corresponding to the execution information in the captured image. For example, when one object corresponds to one execution information, the first device 100 may generate coordinate information about an area where one object is displayed in the captured image. Alternatively, when the plurality of objects correspond to the same execution information, the first device 100 may generate coordinate information about an area including the plurality of objects in the captured image. The first device 100 may transmit a mapping table including coordinate information corresponding to the object and execution information corresponding to the coordinate information to the second device 200. For example, the first device 100 may transmit a transmission file including the captured image, the execution information, and the mapping table to the second device 200.
실행 정보가 콘텐트 파일의 식별 정보인 경우, 제 2 디바이스(200)는 제 1 디바이스(100)로 콘텐트 파일의 식별 정보를 이용하여 콘텐트를 요청할 수 있다. 여기서, 콘텐트 파일의 식별 정보는 콘텐트 파일의 명칭, 콘텐트 파일이 저장된 주소 정보 등일 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)로부터 요청이 수신되면, 콘텐트 파일을 전송할 수 있다. If the execution information is identification information of the content file, the second device 200 may request content from the identification information of the content file to the first device 100. Here, the identification information of the content file may be a name of the content file, address information where the content file is stored, and the like. In this case, when the request is received from the second device 200, the first device 100 may transmit a content file.
한편, 위 설명에서는 제 1 디바이스(100)가 채팅 어플리케이션을 실행 중에 캡처 이미지를 생성하는 것으로 설명하였으나, 이에 제한되는 것은 아니다. 제 1 디바이스(100)는 채팅 어플리케이션의 실행 여부와 관계 없이, 캡처 이미지를 생성할 수 있다. 이 경우, 제 1 디바이스(100)는 채팅 어플리케이션에서 기 저장된 캡처 이미지를 이용할 수 있다. 예를 들어, 제 1 디바이스(100)가 캡처 이미지를 생성하면, 채팅 어플리케이션이 실행될 수 있다. Meanwhile, in the above description, the first device 100 generates a captured image while executing the chat application, but the present invention is not limited thereto. The first device 100 may generate a captured image regardless of whether the chat application is executed. In this case, the first device 100 may use a pre-stored captured image in the chat application. For example, when the first device 100 generates a captured image, a chat application may be executed.
또는, 실시예에 따라 채팅 어플리케이션은 다른 어플리케이션의 실행 화면 등을 캡처할 수 있는 GUI(graphic user interface)를 제공할 수 있다. 이 경우, 제 1 디바이스(100)는 채팅 어플리케이션이 제공하는 GUI를 이용하여 캡처 이미지를 생성할 수 있다. Alternatively, in some embodiments, the chat application may provide a graphical user interface (GUI) capable of capturing execution screens of other applications. In this case, the first device 100 may generate a captured image by using a GUI provided by the chat application.
도 3은 콘텐트 공유 시스템에서 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 일례이다. 3 illustrates an example of generating a transmission file including a capture image and execution information in a content sharing system.
도 3을 참조하면, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면의 전부 또는 일부를 캡처하는 사용자 입력(310)을 수신함에 따라, 캡처 이미지(320)를 생성할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지(320)에 표시된 객체(321, 322, 323, 324 등)들에 대응되는 콘텐트들(즉, ‘이미지 1’ 내지 ‘이미지 5’)을 실행하기 위한 실행 정보(330)를 획득할 수 있다. 예를 들어, 실행 정보(330)는 제 1 디바이스(100)에 저장된 콘텐트 파일들(즉, 이미지 1.jpg 내지 이미지 5.jpg)을 포함할 수 있다.Referring to FIG. 3, the first device 100 may generate a captured image 320 according to a user input 310 for capturing all or part of a screen of the first device 100. In addition, the first device 100 may execute content corresponding to the objects 321, 322, 323, 324, etc. displayed on the captured image 320 (that is, 'image 1' to 'image 5'). The execution information 330 may be obtained. For example, the execution information 330 may include content files (that is, image 1.jpg to image 5.jpg) stored in the first device 100.
또한, 제 1 디바이스(100)는 캡처 이미지(320)와 실행 정보(330)를 포함하는 전송 파일(350)을 생성할 수 있다. 또한, 전송 파일(350)은 매핑 테이블(340)을 더 포함할 수도 있다. 매핑 테이블(340)은 캡처 이미지(320)에서 객체(321 등)에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보(330)를 포함할 수 있다. 매핑 테이블(340)을 생성하는 방법에 대해서는 도 4 및 도 5를 참조하여 상세히 설명한다. In addition, the first device 100 may generate a transmission file 350 including the captured image 320 and the execution information 330. In addition, the transfer file 350 may further include a mapping table 340. The mapping table 340 may include coordinate information corresponding to the object 321 and the execution information 330 corresponding to the coordinate information in the captured image 320. A method of generating the mapping table 340 will be described in detail with reference to FIGS. 4 and 5.
도 4는 캡처 이미지에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성하는 일례이다.4 illustrates an example of generating coordinate information of a predetermined area including at least one object in a captured image.
도 4를 참조하면, 제 1 디바이스(100)는 복수의 객체들(321)이 동일한 실행 정보(즉, 이미지 1)에 대응되는 경우, 복수의 객체들(321, 322)을 포함하는 소정 영역(410)에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 소정 영역(410)의 대각선 방향의 양 끝 지점의 좌표 정보(즉, (x11,y11),(x12,y12))를 생성할 수 있다.Referring to FIG. 4, when the plurality of objects 321 correspond to the same execution information (ie, image 1), the first device 100 may include a predetermined area including the plurality of objects 321 and 322. Coordinate information about 410 may be generated. For example, the first device 100 may generate coordinate information (that is, (x11, y11), (x12, y12)) at both ends of the diagonal direction of the predetermined region 410.
또는, 제 1 디바이스(100)는 하나의 객체(324)가 하나의 실행 정보(즉, 이미지 5)에 대응되는 경우, 하나의 객체(324)를 포함하는 소정 영역(420)에 대한 좌표 정보(즉, (x51,y51),(x52,y52))를 생성할 수 있다. Alternatively, when one object 324 corresponds to one piece of execution information (that is, image 5), the first device 100 may refer to coordinate information of a predetermined area 420 including one object 324 ( That is, (x51, y51), (x52, y52)) can be generated.
도 5는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 일례이다. 5 illustrates an example of generating a mapping table in a content sharing system.
도 5를 참조하면, 제 1 디바이스(100)는 적어도 하나의 객체를 포함하는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블(340)을 생성할 수 있다. 또한, 제 1 디바이스(100)는 매핑 테이블(340)을 제 2 디바이스(200)로 전송할 수 있다. 제 2 디바이스(200)는 매핑 테이블(340)을 이용하여 캡처 이미지(320)에 표시된 객체에 대응되는 콘텐트를 실행할 수 있다. Referring to FIG. 5, the first device 100 may generate a mapping table 340 including coordinate information of a predetermined area including at least one object and execution information corresponding to the coordinate information. In addition, the first device 100 may transmit the mapping table 340 to the second device 200. The second device 200 may execute content corresponding to the object displayed in the captured image 320 using the mapping table 340.
실시예에 따라 매핑 테이블(340)은 제 2 디바이스(200)가 생성할 수도 있다. 이 경우, 도 4 및 도 5의 실시예는 제 2 디바이스(200)에 의해 수행될 수 있다. According to an embodiment, the mapping table 340 may be generated by the second device 200. In this case, the embodiment of FIGS. 4 and 5 may be performed by the second device 200.
도 6은 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 다른 방법을 설명하는 흐름도이다. 6 is a flowchart illustrating another method of transmitting execution information for executing content by a first device to a second device in a content sharing system.
도 6을 참조하면, s610 단계에서, 제 1 디바이스(100)는 화면을 캡처하는 사용자 입력에 응답하여 캡처 이미지를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 사진첩 어플리케이션, 탐색기 어플리케이션, 사진첩 어플리케이션, 주소록 어플리케이션, 웹 서버 어플리케이션, 브라우저 어플리케이션 등의 실행 화면 또는 홈 화면, 메뉴 화면 등을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다. Referring to FIG. 6, in operation S610, the first device 100 may generate a captured image in response to a user input of capturing a screen. For example, the first device 100 captures in response to a user input for capturing an execution screen of a photo album application, a explorer application, a photo album application, an address book application, a web server application, a browser application, or a home screen, a menu screen, or the like. You can create an image.
s620 단계에서, 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들 중에서 일부를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체들 중에서 일부를 선택하는 GUI를 제공할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지 내에서 선택된 객체를 강조하여 표시할 수 있다. 예를 들어, 제 1 디바이스(100)는 선택된 객체를 굵은 선으로 표시하거나 특정 색상으로 표시할 수 있다. 또는, 제 1 디바이스(100)는 캡처 이미지 내에 선택된 객체와 동일한 콘텐트를 나타내는 다른 객체가 존재하는 경우, 동일한 콘텐트를 나타내는 서로 다른 객체들을 포함하는 소정 영역을 강조하여 표시할 수도 있다. In operation S620, the first device 100 may receive a user input for selecting some of the objects displayed on the captured image. For example, the first device 100 may analyze the captured image to identify objects included in the captured image. In addition, the first device 100 may provide a GUI for selecting some of the identified objects. In addition, the first device 100 may highlight and display the selected object in the captured image. For example, the first device 100 may display the selected object in a thick line or in a specific color. Alternatively, when another object representing the same content as the selected object exists in the captured image, the first device 100 may highlight and display a predetermined area including different objects representing the same content.
s630 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 선택된 객체에 대응되는 콘텐트를 제 1 디바이스(100) 또는 외부 서버에서 검색하여, 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. In operation S630, the first device 100 may transmit execution information for executing the content corresponding to the captured image and the selected object, to the second device 200. For example, the first device 100 may retrieve content corresponding to the selected object from the first device 100 or an external server, and may obtain execution information for executing content corresponding to the selected object.
제 1 디바이스(100)는 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 생성하고, 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. The first device 100 may generate a transmission file including the captured image and the execution information, and transmit the transmission file to the second device 200.
또한, 제 1 디바이스(100)는 캡처 이미지에서 선택된 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 이 경우, 제 1 디바이스(100)는 선택된 객체를 포함하는 소정 영역에 대한 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 생성할 수 있다. In addition, the first device 100 may generate coordinate information of a predetermined area including at least one object selected from the captured image. In this case, the first device 100 may generate a mapping table including coordinate information of a predetermined area including the selected object and execution information corresponding to the coordinate information.
이와 같이, 제 1 디바이스(100)는 캡처 이미지를 이용하여, 콘텐트를 실행하기 위한 실행 정보를 선택적으로 전송할 수 있다. As such, the first device 100 may selectively transmit execution information for executing content by using the captured image.
도 7은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 다른 일례이다. 7 is another example in which the first device generates a transfer file including the captured image and the execution information in the content sharing system.
도 7을 참조하면, 제 1 디바이스(100)는 캡처 영역(710)에 표시된 모든 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득하는 ‘all’ 버튼 이미지(701)와 캡처 영역(710)에 표시된 객체들 중 일부 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득하는 ‘select’ 버튼 이미지(703)를 제공할 수 있다. 제 1 디바이스(100)의 사용자가 ‘all’ 버튼 이미지(701)를 터치 하면, 제 1 디바이스(100)는 도 3의 전송 파일(350)을 생성한 후, 제 2 디바이스(200)로 전송 파일(350)을 전송할 수 있다.Referring to FIG. 7, the first device 100 captures an 'all' button image 701 and capture area 710 for obtaining execution information for executing content corresponding to all objects displayed in the capture area 710. The 'select' button image 703 may be provided to obtain execution information for executing content corresponding to some of the objects displayed on the screen. When the user of the first device 100 touches the 'all' button image 701, the first device 100 generates the transmission file 350 of FIG. 3, and then transfers the transmission file to the second device 200. 350 may be transmitted.
또는, 제 1 디바이스(100)는 캡처 영역(710)에 표시된 객체들 중 일부 객체(713, 715)를 선택하는 사용자 입력(717, 719)을 수신한 후, ‘select’버튼 이미지(703)에 대한 사용자 입력을 수신할 수도 있다. 이 경우, 제 1 디바이스(100)는 사용자 입력(717, 719)에 따라 선택된 객체(713, 715)에 대응되는 콘텐트(예를 들어, ‘이미지 1’ 및 ‘이미지 5’)를 실행하기 위한 실행 정보(730)를 획득할 수 있다. 여기서, 실행 정보(730)는 제 1 디바이스(100)에 저장된 콘텐트 파일들(예를 들어, 이미지 1.jpg 및 이미지 5.jpg)을 포함할 수 있다. Alternatively, the first device 100 receives user inputs 717 and 719 for selecting some objects 713 and 715 among the objects displayed in the capture area 710, and then displays the 'select' button image 703. It may also receive user input. In this case, the first device 100 executes the content corresponding to the selected objects 713 and 715 according to the user inputs 717 and 719 (for example, 'image 1' and 'image 5'). Information 730 may be obtained. Here, the execution information 730 may include content files (eg, image 1.jpg and image 5.jpg) stored in the first device 100.
또한, 제 1 디바이스(100)는 캡처 이미지(720)에서 선택된 객체(715)를 포함하는 제 1 영역(723)을 강조하여 표시할 수 있다. 또는, 제 1 디바이스(100)는 선택된 객체(713)에 대응되는 콘텐트(예를 들어, ‘이미지 1’)를 나타내는 다른 객체(711)가 캡처 이미지(720)에 존재하는 경우, 동일한 콘텐트를 나타내는 복수의 객체들(711, 713)을 포함하는 제 2 영역(721)을 강조하여 표시할 수도 있다. 따라서, 제 2 디바이스(200)의 사용자는, 수신된 캡처 이미지(720)에 표시된 객체들 중에서 실행 정보(730)에 대응되는 객체들(711, 713, 715)을 용이하게 인지할 수 있다. In addition, the first device 100 may highlight and display the first area 723 including the selected object 715 in the captured image 720. Alternatively, when another object 711 representing content (eg, 'image 1') corresponding to the selected object 713 exists in the captured image 720, the first device 100 may represent the same content. The second area 721 including the plurality of objects 711 and 713 may be highlighted. Accordingly, the user of the second device 200 may easily recognize the objects 711, 713, and 715 corresponding to the execution information 730 among the objects displayed on the received capture image 720.
또한, 제 1 디바이스(100)는 캡처 이미지(720)와 실행 정보(730)를 포함하는 전송 파일(750)을 포함할 수 있으며, 매핑 테이블(740)을 더 포함하는 전송 파일(750)을 생성할 수도 있다. 매핑 테이블(740)은 캡처 이미지(720)에서 선택된 객체를 포함하는 제 1 및 제 2 영역(721, 723)의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함할 수 있다. In addition, the first device 100 may include a transmission file 750 including a captured image 720 and execution information 730, and generates a transmission file 750 further including a mapping table 740. You may. The mapping table 740 may include coordinate information of the first and second regions 721 and 723 including the object selected in the captured image 720, and execution information corresponding to the coordinate information.
도 8은 콘텐트 공유 시스템에서 제 2 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스로부터 수신하는 방법을 설명하는 흐름도이다. 8 is a flowchart illustrating a method of receiving execution information from a first device for executing content by a second device in a content sharing system.
도 8을 참조하면, s810 단계에서, 제 2 디바이스(200)는 제 1 디바이스(100)의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스(100)로부터 수신할 수 있다. 이때, 제 2 디바이스(200)는 채팅 어플리케이션을 실행 중일 수 있으며, 채팅 어플리케이션을 통해 제 1 디바이스(100)와 메시지를 송수신 중일 수 있다. Referring to FIG. 8, in operation s810, the second device 200 may include a capture image capturing a screen of the first device 100 and execution information for executing content corresponding to an object displayed on the captured image. Can be received from 100. In this case, the second device 200 may be executing a chat application, and may be transmitting and receiving a message with the first device 100 through the chat application.
여기서, 캡처 이미지에 표시된 객체는, 콘텐트를 나타내는 아이콘, 텍스트 및/또는 이미지일 수 있다. 또한, 콘텐트는 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다.Here, the object displayed in the captured image may be an icon, text, and / or image representing content. In addition, the content may include text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and may include text data, audio data, stored in an external server, Video data and / or application execution data.
또한, 실행 정보는 예를 들어, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다. 예를 들어, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일을 수신할 수 있다. 또는, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일을 다운로드 할 수 있는 링크 정보를 수신할 수도 있다. 그러나, 이에 제한되는 것은 아니며, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일이 저장된 제 1 디바이스(100)의 메모리 주소 정보일 수도 있다. 이 경우, 제 2 디바이스(200)가 콘텐트를 실행하는 방법에 대해서는 도 12 내지 14 를 참조하여 상세히 후술한다. In addition, the execution information may be, for example, a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content. For example, the second device 200 may receive a capture image and a content file for executing content corresponding to the object displayed on the capture image. Alternatively, the second device 200 may receive link information for downloading the content image for executing the content corresponding to the captured image and the object displayed on the captured image. However, the present invention is not limited thereto, and the second device 200 may be memory address information of the first device 100 in which a content image for executing content corresponding to the captured image and the object displayed on the captured image is stored. In this case, a method of executing content by the second device 200 will be described later in detail with reference to FIGS. 12 to 14.
한편, 캡처 이미지 및 실행 정보는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷으로 전송될 수 있다.Meanwhile, the captured image and the execution information may be transmitted in a Multipurpose Internet Mail Extension HTML (MHTML) or Election Markup Language (EML) file format.
s820 단계에서, 제 2 디바이스(200)는 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다.In operation S820, the second device 200 may display the captured image. For example, the second device 200 may display the captured image in the chat window of the chat application.
s830 단계에서, 제 2 디바이스(200)는 캡처 이미지에서 객체가 표시된 디스플레이 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행할 수 있다.In operation S830, the second device 200 may execute content corresponding to the object using execution information in response to a user input for a display area in which the object is displayed in the captured image.
예를 들어, 제 2 디바이스(200)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체를 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 객체가 표시된 디스플레이 영역에 대한 사용자의 손, 스타일러스 펜 등을 이용한 터치 입력을 수신할 수 있다. 제 2 디바이스(200)는 터치 입력이 수신된 디스플레이 영역에 대응되는 객체를 식별하고, 객체에 대응되는 실행 정보를 이용하여 콘텐트를 실행할 수 있다. For example, the second device 200 may analyze the captured image to identify an object displayed on the captured image. In addition, the second device 200 may receive a touch input using a user's hand, a stylus pen, or the like with respect to the display area where the identified object is displayed. The second device 200 may identify an object corresponding to the display area in which the touch input is received, and execute content using execution information corresponding to the object.
또는, 제 2 디바이스(200)는 캡처 이미지 내에서 객체를 포함하는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 1 디바이스(100)로부터 수신할 수 있다. 이 경우, 제 2 디바이스(200)는 사용자 입력이 수신된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 실해 정보를 이용하여, 콘텐트를 실행할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보와 매칭되는 매핑 테이블의 좌표 정보를 식별하고, 좌표 정보에 대응되는 실행 정보를 식별할 수 있다. 여기서, 매칭된다는 것은, 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보가 매핑 테이블의 좌표 정보에 따른 영역에 포함되거나 일치하는 것을 의미할 수 있다. 제 2 디바이스(200)는 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다. Alternatively, the second device 200 may receive a mapping table from the first device 100 including coordinate information of a predetermined area including an object and execution information corresponding to the coordinate information in the captured image. In this case, the second device 200 may execute the content by using coordinate information of the region where the user input is received, coordinate information of the mapping table, and real information. For example, the second device 200 may identify coordinate information of the mapping table that matches the coordinate information of the region where the object corresponding to the user input is displayed, and identify execution information corresponding to the coordinate information. Here, the matching may mean that the coordinate information of the region in which the object corresponding to the user input is displayed is included or coincident with the region according to the coordinate information of the mapping table. The second device 200 may execute the content by using the identified execution information.
또한, 실시예에 따라 실행 정보가 콘텐트 파일의 식별 정보인 경우, 제 2 디바이스(200)는 사용자 입력에 응답하여, 제 1 디바이스(100)로 콘텐트 파일을 요청할 수 있다. 제 2 디바이스(200)는 제 1 디바이스(100)로부터 콘텐트 파일이 수신되면, 콘텐트 파일을 이용하여 콘텐트를 실행할 수 있다. Also, according to an embodiment, when the execution information is identification information of the content file, the second device 200 may request the content file from the first device 100 in response to a user input. When the content file is received from the first device 100, the second device 200 may execute the content using the content file.
실시예에 따라 제 2 디바이스(200)는 사용자 입력에 응답하여 콘텐트를 바로 실행하는 대신, 콘텐트를 제 2 디바이스(200)에 저장하기 위한 GUI(graphic user interface)를 제공할 수도 있다. 제 2 디바이스(200)의 콘텐트를 저장하는 사용자 입력을 선택하는 경우, 제 2 디바이스(200)는 제 2 디바이스(200)에 콘텐트를 저장한 후 실행 할 수 있다. 이때, 콘텐트가 저장되는 위치는 제 2 디바이스(200)에 미리 설정되어 있을 수 있으며, 콘텐트의 저장 위치를 지정하기 위한 GUI를 더 제공할 수도 있다. According to an embodiment, the second device 200 may provide a graphical user interface (GUI) for storing the content in the second device 200 instead of immediately executing the content in response to a user input. When selecting a user input for storing content of the second device 200, the second device 200 may store the content in the second device 200 and then execute the content. In this case, the location where the content is stored may be preset in the second device 200, and may further provide a GUI for designating a storage location of the content.
도 9는 도 5의 매핑 테이블을 이용하여 콘텐트를 실행하는 일례이다. FIG. 9 illustrates an example of executing content using the mapping table of FIG. 5.
도 9를 참조하면, 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 캡처 이미지(920)를 채팅 어플리케이션의 채팅 창(910)에서 표시할 수 있다. 캡처 이미지(920)가 축소되어 표시되는 경우, 제 2 디바이스(200)는 캡처 이미지(920)를 확대하는 사용자 입력(923)을 수신할 수 있다.Referring to FIG. 9, the second device 200 may display the captured image 920 received from the first device 100 in the chat window 910 of the chat application. When the captured image 920 is reduced in size, the second device 200 may receive a user input 923 that enlarges the captured image 920.
제 2 디바이스(200)는 캡처 이미지(920)에 표시된 객체들(911 내지 919) 중에서 하나의 객체(915)에 대한 사용자 입력을 수신할 수 있다. 제 2 디바이스(200)는 매핑 테이블(340)의 좌표 정보 중에서 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보 (x_in, y_in) 에 매칭되는 좌표 정보로서 {(x31, y31), (x32, y32)}를 식별할 수 있다. 또한, 제 2 디바이스(200)는 매핑 테이블(340)을 이용하여 식별된 좌표 정보 {(x31, y31), (x32, y32)}에 대응되는 “이미지 3.jpg"를 식별할 수 있다. 한편, 제 2 디바이스(200)는 매핑 테이블(340)의 좌표 정보를 제 2 디바이스(200)의 좌표 시스템에 매칭되도록 보상(compensation)할 수 있다.The second device 200 may receive a user input for one object 915 among the objects 911 to 919 displayed on the captured image 920. The second device 200 is coordinate information corresponding to coordinate information (x_in, y_in) of a region where an object corresponding to a user input is displayed among coordinate information of the mapping table 340 as {(x31, y31), (x32, y32). )} Can be identified. Also, the second device 200 may identify “image 3.jpg” corresponding to the identified coordinate information {(x31, y31), (x32, y32)} using the mapping table 340. The second device 200 may compensate the coordinate information of the mapping table 340 to match the coordinate system of the second device 200.
제 2 디바이스(200)는 식별된 실행 정보를 이용하여 ‘이미지 3.jpg’ 파일에 포함된 이미지 데이터(930)를 디스플레이할 수 있다. The second device 200 may display the image data 930 included in the 'image 3.jpg' file using the identified execution information.
이와 같이, 제 1 디바이스(100) 및 제 2 디바이스(200)는 채팅 창(910)을 통해 공유되는 캡처 이미지(920)를 이용하여 콘텐트를 공유할 수 있다. 한편, 위에서는 제 1 디바이스(100) 및 제 2 디바이스(200)가 콘텐트를 공유하는 것으로 설명하였으나, 개시된 실시예는 채팅 창(910)을 통해 메시지를 송수신하는 복수의 디바이스들 간에도 적용될 수 있다. 이 경우, 제 1 디바이스(100)는 복수의 디바이스들로 캡처 이미지 및 실행 정보를 전송할 수 있다. As such, the first device 100 and the second device 200 may share content using the captured image 920 shared through the chat window 910. Meanwhile, although the first device 100 and the second device 200 have been described as sharing content, the disclosed embodiment may be applied to a plurality of devices that transmit and receive messages through the chat window 910. In this case, the first device 100 may transmit the captured image and the execution information to the plurality of devices.
도 10은 제 2 디바이스가 실행 정보를 이용하여 콘텐트를 저장하는 일례이다. 10 illustrates an example in which a second device stores content using execution information.
도 10을 참조하면, 제 2 디바이스(200)는 캡처 이미지(920)에서 객체(915)가 표시된 영역에 대한 사용자 입력(1030)을 수신하면, 객체(915)에 대응되는 콘텐트를 저장하는 GUI(1040)를 제공할 수 있다. 예를 들어, GUI(1040)는 콘텐트를 저장하는 ‘저장’ 버튼 이미지 및 콘텐트를 바로 실행하는 ‘실행’ 버튼 이미지를 포함할 수 있다. 따라서, 제 2 디바이스(200)는 GUI(1040)에 대한 사용자 입력에 응답하여, 제 1 디바이스(100)로부터 수신된 실행 정보를 이용하여 획득된 콘텐트를 저장한 후 실행하거나, 실행 정보를 이용하여 바로 콘텐트를 실행할 수 있다. Referring to FIG. 10, when the second device 200 receives a user input 1030 for an area in which the object 915 is displayed in the captured image 920, the second device 200 stores a GUI corresponding to the object 915. 1040 may be provided. For example, the GUI 1040 may include a "save" button image for storing content and a "execute" button image for directly executing the content. Therefore, in response to a user input to the GUI 1040, the second device 200 stores and executes the content obtained using the execution information received from the first device 100, or executes the execution information by using the execution information. You can run content right away.
도 11은 제 2 디바이스가 디스플레이하는 캡처 이미지의 일례이다. 11 is an example of a captured image displayed by a second device.
도 11에 도시된 바와 같이, 제 2 디바이스(200)는 일부 객체들을 포함하는 소정 영역(1101, 1103)이 강조되어 표시된 캡처 이미지(1110)를 수신할 수 있다. 이 경우, 제 2 디바이스(200)는 강조되어 표시된 소정 영역(1101, 1103)에 포함된 객체들에 대응되는 콘텐트를 실행할 수 있다. 만약, 제 2 디바이스(200)의 사용자가 캡처 이미지(1110)에서 강조되지 표시되지 않은 객체를 포함하는 영역(1120)을 선택하면, 제 2 디바이스(200)는 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 없다. As illustrated in FIG. 11, the second device 200 may receive a captured image 1110 in which predetermined areas 1101 and 1103 including some objects are highlighted. In this case, the second device 200 may execute content corresponding to the objects included in the highlighted areas 1101 and 1103. If the user of the second device 200 selects an area 1120 including an object that is not highlighted in the captured image 1110, the second device 200 executes content corresponding to the selected object. Could not obtain execution information.
도 12는 콘텐트 공유 시스템의 동작 방법을 설명하는 흐름도이다. 12 is a flowchart illustrating a method of operating a content sharing system.
도 12를 참조하면, s1210 단계에서, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다.Referring to FIG. 12, in operation S1210, the first device 100 may generate a captured image in response to a user input of capturing a screen of the first device 100.
s1220 단계에서, 제 1 디바이스(100)는 캡처 이미지에 표시된 객체에 대응되는 콘텐트 식별 정보를 획득할 수 있다. 여기서, 콘텐트 식별 정보는, 콘텐트의 명칭, 콘텐트의 고유 번호, 콘텐트가 저장된 주소 정보 등을 포함할 수 있다.In operation S1220, the first device 100 may obtain content identification information corresponding to the object displayed on the captured image. Here, the content identification information may include a name of the content, a unique number of the content, address information in which the content is stored, and the like.
예를 들어, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체에 대응되는 콘텐트의 식별 정보를 획득할 수 있다.For example, the first device 100 may analyze the captured image to identify objects displayed on the captured image. In addition, the first device 100 may obtain identification information of content corresponding to the identified object.
s1230 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 식별 정보를 제 2 디바이스(200)로 전송할 수 있다. 이때, 제 2 디바이스(200)는 제 1 디바이스(100)와 채팅 어플리케이션의 채팅 창을 통해 메시지를 송수신하는 외부의 디바이스일 수 있다. In operation S1230, the first device 100 may transmit identification information of the content corresponding to the captured image and the object displayed on the captured image, to the second device 200. In this case, the second device 200 may be an external device that transmits and receives a message through the chat window of the chat application with the first device 100.
또한, 제 1 디바이스(100)는 캡처 이미지에서 객체에 대응되는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 제 1 디바이스(100)는 객체에 대응되는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 콘텐트 식별 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. In addition, the first device 100 may generate coordinate information of a predetermined area corresponding to the object in the captured image. The first device 100 may transmit a mapping table including coordinate information of a predetermined area corresponding to the object and content identification information corresponding to the coordinate information to the second device 200.
s1240 단계에서, 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다. In operation S1240, the second device 200 may display a captured image received from the first device 100. For example, the second device 200 may display the captured image in the chat window of the chat application.
s1250 단계에서, 제 2 디바이스(200)는 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력을 수신할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자의 손, 스타일러스펜 등을 이용하는 터치 입력을 수신할 수 있다.In operation S1250, the second device 200 may receive a user input for an area where an object is displayed in the captured image. For example, the second device 200 may receive a touch input using a user's hand, a stylus pen, or the like.
s1260 단계에서, 제 2 디바이스(200)는 영역에 대응되는 콘텐트 식별 정보를 이용하여, 콘텐트를 실행하기 위한 콘텐트 파일 또는 콘텐트를 다운로드하기 위한 링크 정보를 제 1 디바이스(100)로 요청할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자 입력이 수신된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 콘텐트 식별 정보를 이용하여, 콘텐트 파일을 제 1 디바이스(100)로 요청할 수 있다. In operation S1260, the second device 200 may request the content device for executing the content or the link information for downloading the content to the first device 100 using the content identification information corresponding to the region. For example, the second device 200 may request the content file to the first device 100 by using the coordinate information of the region where the user input is received, the coordinate information of the mapping table, and the content identification information.
s1270 단계에서, 제 1 디바이스(100)는 콘텐트 식별 정보를 이용하여, 콘텐트 파일을 획득할 수 있다. In operation S1270, the first device 100 may obtain a content file by using content identification information.
s1280 단계에서, 제 1 디바이스(100)는 획득된 콘텐트 파일을 제 2 디바이스(200)로 전송할 수 있다. In operation S1280, the first device 100 may transmit the obtained content file to the second device 200.
s1290 단계에서, 제 2 디바이스(200)는 콘텐트를 실행할 수 있다.In operation S1290, the second device 200 may execute content.
도 13은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 콘텐트 식별 정보를 포함하는 전송 파일을 제 2 디바이스로 전송하는 일례이다. FIG. 13 illustrates an example in which a first device transmits a transmission file including a captured image and content identification information to a second device in a content sharing system.
도 13을 참조하면, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면의 전부 또는 일부를 캡처하는 사용자 입력(1310)을 수신함에 따라 캡처 이미지(1320)를 생성할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지(1320)에 표시된 객체(1321, 1322, 1323, 1324 등)들에 대응되는 콘텐트들의 콘텐트 식별 정보(즉, ‘제 1 메모리 주소 정보’ 내지 ‘제 5 메모리 주소 정보’)를 획득할 수 있다.Referring to FIG. 13, the first device 100 may generate a captured image 1320 according to a user input 1310 that captures all or part of a screen of the first device 100. In addition, the first device 100 may include content identification information (ie, 'first memory address information' to 'fifth) of contents corresponding to the objects 1321, 1322, 1323, 1324, and the like displayed on the captured image 1320. Memory address information ').
또한, 제 1 디바이스(100)는 캡처 이미지(1320)와 콘텐트 식별 정보(1330)를 포함하는 전송 파일(1350)을 생성할 수 있다. 또한, 전송 파일(1350)은 매핑 테이블(1340)을 더 포함할 수 있다. 매핑 테이블(1340)은 도 14에 도시된 바와 같이, 캡처 이미지(1320)에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보(1410) 및 좌표 정보(1410)에 대응되는 콘텐트 식별 정보(1330)를 포함할 수 있다. In addition, the first device 100 may generate a transmission file 1350 including the captured image 1320 and the content identification information 1330. In addition, the transmission file 1350 may further include a mapping table 1340. As illustrated in FIG. 14, the mapping table 1340 includes coordinate information 1410 and content identification information 1330 corresponding to the coordinate information 1410 and the coordinate information 1410 of a predetermined area including at least one object in the captured image 1320. ) May be included.
도 15는 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.15 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 15를 참조하면, s1510 단계에서, 제 1 디바이스(100)는 사용자로부터 음성 데이터를 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 디바이스(200)와 특정 콘텐트를 공유하기 위한 음성 명령을 사용자로부터 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 사용자로부터 음성 데이터를 수신하는 GUI(graphic user interface)를 제공할 수 있다. 제 1 디바이스(100)는 GUI에 대한 사용자 입력에 응답하여, 제 1 디바이스(100)에 구비된 마이크부(도 22의 2270 참조)를 활성화시키고 마이크부(2270)를 통해 음성 데이터를 수신할 수 있다. Referring to FIG. 15, in operation S1510, the first device 100 may receive voice data from a user. For example, the first device 100 may receive a voice command from the user for sharing specific content with the second device 200. For example, a chat application may provide a graphical user interface (GUI) that receives voice data from a user in a chat window. In response to a user input to the GUI, the first device 100 may activate a microphone unit (see 2270 of FIG. 22) included in the first device 100 and receive voice data through the microphone unit 2270. have.
s1520 단계에서, 제 1 디바이스(100)는 수신된 음성 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 음성 데이터에서 콘텐트의 식별 값을 추출하고, 콘텐트의 식별 값에 대응되는 콘텐트 파일 또는 콘텐트를 다운로드하기 위한 링크 정보를 획득할 수 있다. 이때, 콘텐트는 예를 들어, 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다.In operation S1520, the first device 100 may obtain execution information of content to be shared with the second device 200 according to the received voice data. For example, the first device 100 may extract the identification value of the content from the voice data and obtain link information for downloading the content file or the content corresponding to the identification value of the content. In this case, the content may include, for example, text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and text data stored in an external server. , Audio data, video data and / or application execution data.
또한, 제 1 디바이스(100)는 콘텐트의 실행 정보를 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창에서 콘텐트의 실행 정보를 디스플레이할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 제 1 디바이스(100)가 콘텐트의 실행 정보를 제대로 획득했는지 여부를 확인할 수 있다. In addition, the first device 100 may display execution information of the content. For example, the first device 100 may display execution information of content in a chat window of a chat application. Accordingly, the user of the first device 100 may check whether the first device 100 properly acquires execution information of the content.
s1530 단계에서, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 음성 데이터 수신이 종료되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 또는, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송하는 사용자 입력이 수신되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. In operation S1530, the first device 100 may transmit execution information to the second device 200. For example, when the reception of voice data ends, the first device 100 may transmit execution information to the second device 200. Alternatively, when a user input for transmitting execution information to the second device 200 is received, the first device 100 may transmit the execution information to the second device 200.
s1540 단계에서, 제 2 디바이스(200)는 수신된 실행 정보에 대응되는 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다. In operation S1540, the second device 200 may display a GUI for executing content corresponding to the received execution information. For example, the second device 200 may display a GUI for executing content in a chat window of the chat application.
s1550 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 한편, GUI는 실행 정보를 이용하여 제 2 디바이스(200)에서 콘텐트를 저장하거나 실행하기 위한 메뉴를 포함할 수 있다. In operation S1550, when a user input for a GUI is received, the second device 200 may execute content using execution information. Meanwhile, the GUI may include a menu for storing or executing content in the second device 200 using execution information.
도 16은 음성 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다. 16 illustrates an example of sharing execution information of content using voice data.
도 16을 참조하면, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창(1610-1)에서 콘텐트를 공유하기 위한 음성 데이터를 수신하는 GUI(1615)에 대한 사용자 입력(1620)이 수신되면, 사용자(300)로부터 음성 데이터를 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 사용자(300)로부터 “AAA 파일을 공유해”라는 음성 데이터를 수신할 수 있다. Referring to FIG. 16, when the first device 100 receives a user input 1620 for the GUI 1615 for receiving voice data for sharing content in the chat window 1610-1 of the chat application, the user Voice data may be received from 300. For example, the first device 100 may receive voice data “Share AAA file” from the user 300.
제 1 디바이스(100)는 음성 데이터가 수신됨에 따라, 음성 데이터에 포함된 콘텐트(예를 들어, ‘AAA’)의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 ‘AAA’를 파일 명칭으로 갖는 콘텐트 파일(1630)을 획득할 수 있다. As the voice data is received, the first device 100 may obtain execution information of content (eg, 'AAA') included in the voice data. For example, the first device 100 may obtain a content file 1630 having 'AAA' as a file name.
제 1 디바이스(100)는 획득된 콘텐트 파일(1630)를 제 1 디바이스(100)의 채팅 창(1610-1)에서 디스플레이할 수 있다. 또한, 제 1 디바이스(100)는 획득된 실행 정보(1630)를 제 2 디바이스(200)와 공유하기 위한 사용자 입력(1640)을 수신할 수 있다. 이에 따라, 제 1 디바이스(100)는 콘텐트 파일(즉, ‘AAA.txt’)(1630)을 제 2 디바이스(200)로 전송할 수 있다. The first device 100 may display the obtained content file 1630 in the chat window 1610-1 of the first device 100. In addition, the first device 100 may receive a user input 1640 for sharing the obtained execution information 1630 with the second device 200. Accordingly, the first device 100 may transmit a content file (ie, 'AAA.txt') 1630 to the second device 200.
제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 콘텐트 파일(1630)을 이용하여 콘텐트를 저장(save) 또는 실행(play)하기 위한 GUI(1650)를 채팅 창(1610-2)에서 제공할 수 있다. The second device 200 displays a GUI 1650 in the chat window 1610-2 for storing or playing content using the content file 1630 received from the first device 100. Can provide.
도 17은 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.17 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 17을 참조하면, s1710 단계에서, 제 1 디바이스(100)는 사용자로부터 텍스트 데이터를 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 사용자로부터 텍스트 데이터를 수신하는 GUI(예를 들어, 키보드 GUI 등)를 제공할 수 있다.Referring to FIG. 17, in operation S1710, the first device 100 may receive text data from a user. For example, the chat application may provide a GUI (eg, a keyboard GUI, etc.) that receives text data from the user in the chat window.
s1720 단계에서, 제 1 디바이스(100)는 수신된 텍스트 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 텍스트 데이터에 포함된 콘텐트 식별 값을 추출하고, 추출된 콘텐트 식별 값에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 이때, 텍스트 식별 값은 콘텐트 파일의 명칭, 콘텐트 파일 저장 위치, 콘텐트를 다운로드 할 수 있는 서버 명칭, 콘텐트를 다운로드 할 수 있는 링크 주소 등을 포함할 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보 등일 수 있다. In operation S1720, the first device 100 may obtain execution information of content to be shared with the second device 200 according to the received text data. For example, the first device 100 may extract the content identification value included in the text data and obtain execution information for executing the content corresponding to the extracted content identification value. In this case, the text identification value may include a name of the content file, a content file storage location, a server name for downloading the content, a link address for downloading the content, and the like. In addition, the execution information may be, for example, a content file, identification information of the content file, link information for downloading the content, or the like.
또한, 제 1 디바이스(100)는 획득된 실행 정보를 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창에서 획득된 실행 정보를 디스플레이할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 제 1 디바이스(100)가 실행 정보를 올바르게 획득했는지 여부를 확인할 수 있다. In addition, the first device 100 may display the obtained execution information. For example, the first device 100 may display execution information obtained from the chat window of the chat application. Accordingly, the user of the first device 100 may check whether the first device 100 correctly obtains execution information.
s1730 단계에서, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 텍스트 데이터의 수신이 종료(예를 들어, 엔터 키, 전송 키 입력 등)되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. In operation S1730, the first device 100 may transmit execution information to the second device 200. For example, the first device 100 may transmit execution information to the second device 200 when the reception of the text data is terminated (for example, an enter key or a transmission key input).
s1740 단계에서, 제 1 디바이스(100)는 수신된 실행 정보에 대응되는 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 콘텐트를 저장 또는 실행하기 위한 GUI를 디스플레이할 수 있다. In operation S1740, the first device 100 may display a GUI for executing content corresponding to the received execution information. For example, the second device 200 may display a GUI for storing or executing content in a chat window of the chat application.
s1750 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다. In operation S1750, when a user input for a GUI is received, the second device 200 may execute content using execution information.
도 18은 텍스트 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다. 18 illustrates an example of sharing execution information of content using text data.
도 18을 참조하면, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창(1810-1)에서 제공되는 키보드 GUI(1815)에 대한 사용자 입력을 통해 텍스트 데이터가 수신되면, 텍스트 데이터에 포함된 콘텐트 식별 값(즉, ‘AAA’)에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 ‘AAA’를 파일 명칭으로 갖는 콘텐트 파일(1820)을 획득할 수 있다. Referring to FIG. 18, when text data is received through a user input to a keyboard GUI 1815 provided in a chat window 1810-1 of a chat application, the first device 100 identifies content included in the text data. Execution information for executing content corresponding to a value (ie, 'AAA') may be obtained. For example, the first device 100 may obtain a content file 1820 having 'AAA' as a file name.
제 1 디바이스(100)는 획득된 콘텐트 파일(1820)을 제 1 디바이스(100)의 채팅 창(1810-1)에서 디스플레이할 수 있다. 또한, 제 1 디바이스(100)는 획득된 콘텐트 파일(1820)을 제 2 디바이스(200)와 공유하기 위한 사용자 입력(1830)을 수신할 수 있다. 이에 따라, 제 1 디바이스(100)는 콘텐트 파일(즉, ‘AAA.txt’)(1820)을 제 2 디바이스(200)로 전송할 수 있다. The first device 100 may display the obtained content file 1820 in the chat window 1810-1 of the first device 100. In addition, the first device 100 may receive a user input 1830 for sharing the obtained content file 1820 with the second device 200. Accordingly, the first device 100 may transmit a content file (ie, 'AAA.txt') 1820 to the second device 200.
제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 콘텐트 파일(1820)을 이용하여, 콘텐트를 저장(save) 또는 실행(play)하기 위한 GUI(1840)를 채팅 창(1810-2)에서 제공할 수 있다. The second device 200 uses the content file 1820 received from the first device 100 to chat the GUI 1840 for storing or playing the content. Can be provided by
도 19는 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.19 is a flowchart illustrating a method of sharing content in a content sharing system according to another embodiment.
도 19를 참조하면, s1910 단계에서, 제 1 디바이스(100)는 사용자로부터 비디오 데이터를 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 비디오 데이터를 수신하는 GUI를 제공할 수 있다. 제 1 디바이스(100)는 GUI에 대한 사용자 입력이 수신되면, 제 1 디바이스(100)의 전면 또는 후면에 구비된 촬상부(도 22의 2275 참조)를 활성화하고, 촬상부(2275)를 통해 비디오 데이터를 획득할 수 있다.Referring to FIG. 19, in operation S1910, the first device 100 may receive video data from a user. For example, a chat application can provide a GUI to receive video data in a chat window. When the first device 100 receives a user input for the GUI, the first device 100 activates an image capturing unit (refer to 2275 of FIG. 22) provided on the front or rear surface of the first device 100, and receives a video through the image capturing unit 2275. Data can be obtained.
s1920 단계에서, 제 1 디바이스(100)는 수신된 비디오 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 비디오 데이터에 포함된 콘텐트의 식별 값을 추출하고, 추출된 콘텐트 식별 값을 이용하여 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 이때, 콘텐트 식별 값은, 비디오 데이터에 포함된 이미지, 제스처, 아이콘, 로고, 텍스트 이미지 등을 포함할 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트를 실행하기 위한 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보 등일 수 있다.In operation S1920, the first device 100 may acquire execution information of content to be shared with the second device 200 according to the received video data. For example, the first device 100 may extract an identification value of the content included in the video data and obtain execution information for executing the content using the extracted content identification value. In this case, the content identification value may include an image, a gesture, an icon, a logo, a text image, and the like included in the video data. In addition, the execution information may be, for example, a content file for executing the content, identification information of the content file, link information for downloading the content, or the like.
s1930 단계에서, 제 1 디바이스(100)는 비디오 데이터 및 콘텐트의 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 또한, 제 1 디바이스(100)는 비디오 데이터에서 콘텐트의 식별 값이 재생되는 시간 정보 및 콘텐트의 식별 값이 나타나는 영역의 좌표 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. In operation S1930, the first device 100 may transmit execution information of video data and content to the second device 200. In addition, the first device 100 may transmit to the second device 200 a mapping table including time information at which the identification value of the content is reproduced from the video data and coordinate information of the region at which the identification value of the content is displayed.
s1940 단계에서, 제 2 디바이스(200)는 수신된 콘텐트의 실행 정보에 대응되는 콘텐트를 저장 또는 실행하기 위한 GUI를 디스플레이할 수 있다. 도 20을 참조하면, 제 2 디바이스(200)는 비디오 데이터(2010)를 재생하면서, 제 1 디바이스(100)로부터 수신된 실행 정보를 이용하여, 비디오 데이터에 포함된 콘텐트(즉, 하트 이미지 데이터)(2030)를 실행하기 위한 GUI(2040)를 디스플레이할 수 있다. 이때, 콘텐트의 식별 값은 하트 손 모양 제스처(2020)일 수 있다. In operation S1940, the second device 200 may display a GUI for storing or executing content corresponding to the execution information of the received content. Referring to FIG. 20, while the second device 200 plays the video data 2010, the content included in the video data (ie, heart image data) using the execution information received from the first device 100. The GUI 2040 for executing 2030 may be displayed. In this case, the identification value of the content may be a heart hand gesture 2020.
s1950 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 또는, 제 2 디바이스(200)는 실행 정보를 이용하여 콘텐트를 저장할 수도 있다. In operation S1950, when a user input for a GUI is received, the second device 200 may execute content using execution information. Alternatively, the second device 200 may store content using execution information.
도 21 내지 도 22 는 실시예에 따른 디바이스를 설명하기 위한 도면들이다. 이하에서는, 도 21 내지 도 22와 함께 도 1 내지 도 21을 참조하여 개시된 실시예들에 따른 디바이스를 설명한다. 특별한 언급이 없더라도 앞서 설명한 구체적인 내용들 및 기술적 사상은 도 21 내지 도 22의 디바이스에도 동일하게 적용되는 것으로 본다. 따라서, 도 1 내지 도 21 에서와 중복되는 설명은 생략한다. 21 to 22 are diagrams for describing a device according to an embodiment. Hereinafter, a device according to the disclosed embodiments will be described with reference to FIGS. 21 through 22 along with FIGS. 21 through 22. Although not mentioned otherwise, the foregoing description and technical spirit are regarded to apply to the devices of FIGS. 21 to 22. Therefore, description overlapping with those in FIGS. 1 to 21 will be omitted.
도 21은 콘텐트 공유 시스템에서 제 1 디바이스 및 제 2 디바이스의 구성을 도시한 도면이다. FIG. 21 is a diagram illustrating a configuration of a first device and a second device in a content sharing system.
도 21을 참조하면, 제 1 디바이스(100)는 제 1 디스플레이부(2110), 제 1 제어부(2120) 및 제 1 통신부(2130)를 포함한다. Referring to FIG. 21, the first device 100 includes a first display unit 2110, a first control unit 2120, and a first communication unit 2130.
제 1 디스플레이부(2110)는 제 1 디바이스(100)에서 처리되는 정보를 화면에 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 1 디바이스(100)에서 포그라운드(foreground)로 실행되는 어플리케이션의 실행 화면을 디스플레이할 수 있다. 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창을 디스플레이할 수 있으며, 사진첩 어플리케이션 등의 실행 화면을 디스플레이할 수 있다. The first display unit 2110 may display information processed by the first device 100 on the screen. For example, the first device 100 may display an execution screen of an application executed in the foreground in the first device 100. The first device 100 may display a chat window of a chat application and display an execution screen of a photo album application.
제 1 제어부(2120)는 제 1 디바이스(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제 1 제어부(2120)는 제 1 디스플레이부(2110)를 제어하여 어플리케이션의 실행 화면이 제 1 디스플레이부(2110)에 표시되도록 할 수 있다. The first controller 2120 may control the overall operation of the first device 100. For example, the first control unit 2120 may control the first display unit 2110 to display an execution screen of the application on the first display unit 2110.
또한, 제 1 제어부(2120)는 제 1 디바이스(100)의 화면을 캡처하는 사용자 입력에 응답하여 제 1 디스플레이부(2110)에 표시된 객체들을 포함하는 캡처 이미지를 생성할 수 있다. In addition, the first controller 2120 may generate a captured image including the objects displayed on the first display unit 2110 in response to a user input of capturing the screen of the first device 100.
또한, 제 1 제어부(2120)는 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 여기서, 콘텐트는 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다. 또한, 콘텐트를 나타내는 객체는 콘텐트를 대표하는 아이콘, 텍스트 및/또는 이미지일 수 있다. 또한, 실행 정보는, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다. In addition, the first controller 2120 may obtain execution information for executing content corresponding to the objects displayed on the captured image. Here, the content may include text data, audio data, video data, and / or application execution data (eg, binary data) stored in the first device 100, and may include text data, audio data, stored in an external server, Video data and / or application execution data. In addition, the object representing the content may be an icon, text, and / or image representing the content. In addition, the execution information may be a content file of content corresponding to the object displayed in the captured image, identification information of the content file, or link information for downloading the content.
제 1 제어부(2120)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 제어부(2120)는 식별된 객체들이 콘텐트를 나타내는지 여부를 판단할 수 있다. 예를 들어, 객체가 텍스트인 경우, 제 1 제어부(2120)는 상기 텍스트와 동일한 파일명을 갖는 콘텐트 파일을 검색할 수 있다. 이때, 제 1 제어부(2120)는 제 1 디바이스(100) 또는 외부 서버에 저장된 콘텐트 파일을 검색할 수 있다. 만약, 콘텐트 파일이 제 1 디바이스(100)에 존재하는 경우, 제 1 제어부(2120)는 콘텐트 파일을 실행 정보로 할 수 있으며, 콘텐트 파일이 외부 서버에 존재하는 경우, 제 1 제어부(2120)는 외부 서버에 콘텐트 파일이 저장된 링크 정보를 실행 정보로 할 수 있다.The first controller 2120 may analyze the captured image to identify objects included in the captured image. In addition, the first controller 2120 may determine whether the identified objects represent content. For example, when the object is text, the first controller 2120 may search for a content file having the same file name as the text. In this case, the first controller 2120 may search for a content file stored in the first device 100 or an external server. If the content file exists in the first device 100, the first controller 2120 may use the content file as execution information. When the content file exists in the external server, the first controller 2120 Link information in which a content file is stored in an external server may be used as execution information.
또한, 제 1 제어부(2120)는 캡처 이미지에서 실행 정보에 대응되는 객체 또는 이미지 영역에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 제어부(2120)는 하나의 객체가 하나의 실행 정보에 대응되는 경우, 캡처 이미지에서 객체가 표시된 이미지 영역에 대한 좌표 정보를 생성할 수 있다. 또는, 제 1 제어부(2120)는 복수의 객체들이 동일한 실행 정보에 대응되는 경우, 캡처 이미지에서 복수의 객체들을 포함하는 이미지 영역에 대한 좌표 정보를 생성할 수 있다. In addition, the first controller 2120 may generate coordinate information of an object or an image region corresponding to the execution information in the captured image. For example, when one object corresponds to one execution information, the first controller 2120 may generate coordinate information of an image region in which the object is displayed in the captured image. Alternatively, when the plurality of objects correspond to the same execution information, the first controller 2120 may generate coordinate information of an image area including the plurality of objects in the captured image.
또한, 제 1 제어부(2120)는 캡처 이미지에 표시된 객체들 중에서 일부를 선택하는 사용자 입력에 응답하여, 선택된 객체를 강조하여 표시하기 위한 표시자(indicator)를 캡처 이미지에 삽입할 수 있다. 예를 들어, 제 1 제어부(2120)는 선택된 객체를 굵은 선으로 표시하거나 선택된 객체를 특정 색상으로 표시할 수 있다. 이 경우, 제 1 제어부(2120)는 선택된 객체를 실행하기 위한 실행 정보만을 획득할 수 있다. In addition, in response to a user input for selecting some of the objects displayed on the captured image, the first controller 2120 may insert an indicator for highlighting and displaying the selected object in the captured image. For example, the first controller 2120 may display the selected object in a thick line or display the selected object in a specific color. In this case, the first controller 2120 may acquire only execution information for executing the selected object.
제 1 통신부(2130)는 제 1 디바이스(100)가 제 2 디바이스(200) 또는 다른 외부 디바이스들과 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 제 1 통신부(2130)는 와이파이 칩(미도시), 블루투스 칩(미도시), 무선 통신 칩(미도시), NFC 칩(미도시) 중 적어도 하나를 포함할 수 있다. 제 1 제어부(2120)는 제 1 통신부(2130)를 이용하여 제 2 디바이스(200) 또는 다른 외부 디바이스들과 데이터를 송수신할 수 있다. The first communication unit 2130 may include one or more components that allow the first device 100 to communicate with the second device 200 or other external devices. For example, the first communication unit 2130 may include at least one of a Wi-Fi chip (not shown), a Bluetooth chip (not shown), a wireless communication chip (not shown), and an NFC chip (not shown). The first control unit 2120 may transmit / receive data with the second device 200 or other external devices using the first communication unit 2130.
제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 통신부(2130)는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷을 갖는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. The first communication unit 2130 may transmit a transmission file including the captured image and the execution information to the second device 200 under the control of the first control unit 2120. For example, the first communication unit 2130 may transmit a transmission file having a multipurpose internet mail extension HTML (MHTML) or election markup language (EML) file format to the second device 200.
또한, 제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지에 표시된 객체에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지, 실행 정보 및 매핑 테이블을 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다.In addition, the first communication unit 2130 may, under the control of the first control unit 2120, generate a mapping table including coordinate information corresponding to the object displayed on the captured image and execution information corresponding to the coordinate information, from the second device 200. Can be sent to. For example, the first communication unit 2130 may transmit a transmission file including the captured image, execution information, and a mapping table to the second device 200 under the control of the first control unit 2120.
제 2 디바이스(200)는 제 2 디스플레이부(2140), 제 2 제어부(2150) 및 제 2 통신부(2160)를 포함한다. The second device 200 includes a second display unit 2140, a second control unit 2150, and a second communication unit 2160.
제 2 통신부(2160)는 제 2 디바이스(200)가 제 1 디바이스(100) 또는 다른 외부 디바이스들과 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 제 2 통신부(2160)는 와이파이 칩(미도시), 블루투스 칩(미도시), 무선 통신 칩(미도시), NFC 칩(미도시) 중 적어도 하나를 포함할 수 있다.The second communication unit 2160 may include one or more components that allow the second device 200 to communicate with the first device 100 or other external devices. For example, the second communication unit 2160 may include at least one of a Wi-Fi chip (not shown), a Bluetooth chip (not shown), a wireless communication chip (not shown), and an NFC chip (not shown).
제 2 통신부(2160)는 제 1 디바이스(100)가 전송하는 캡처 이미지 및 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 정보를 포함하는 전송 파일을 수신할 수 있다. 또한, 제 2 통신부(2160)는 캡처 이미지 및 실행 파일 외에도, 매핑 테이블을 더 포함하는 전송 파일을 수신할 수 있다. The second communication unit 2160 may receive a transmission file including information for executing a capture image transmitted by the first device 100 and content corresponding to objects displayed on the capture image. In addition, the second communication unit 2160 may receive a transmission file further including a mapping table in addition to the captured image and the executable file.
제 2 디스플레이부(2140)는 제 2 디바이스(200)에서 처리되는 정보를 화면에 디스플레이할 수 있다. 제 2 디스플레이부(2140)는 제 2 통신부(2160)를 통해 제 1 디바이스(100)로부터 수신된 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디스플레이부(2140)는 채팅 어플리케이션의 채팅 창에서 수신된 캡처 이미지를 디스플레이할 수 있다. 이때, 캡처 이미지는 제 1 디바이스(100)의 사용자에 의해 선택된 객체들이 강조되어 표시된 것일 수 있다. The second display unit 2140 may display information processed by the second device 200 on the screen. The second display unit 2140 may display the captured image received from the first device 100 through the second communication unit 2160. For example, the second display unit 2140 may display the captured image received in the chat window of the chat application. In this case, the captured image may be displayed by highlighting objects selected by the user of the first device 100.
제 2 제어부(2150)는 제 2 디바이스(200)의 전반적인 동작을 제어할 수 있다. 제 2 제어부(2150)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체를 식별할 수 있다. 또한, 제 2 제어부(2150)는 식별된 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 사용자 입력이 수신된 영역에 대응되는 객체를 식별하고, 객체에 대응되는 실행 정보를 이용하여 콘텐트를 실행할 수 있다. The second controller 2150 may control the overall operation of the second device 200. The second controller 2150 may identify the object displayed on the captured image by analyzing the captured image. In addition, the second controller 2150 may identify an object corresponding to the area where the user input is received in response to the user input for the area where the identified object is displayed, and execute content using execution information corresponding to the object. have.
또는, 제 2 제어부(2150)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 실행 정보를 이용하여, 콘텐트를 실행할 수 있다. 예를 들어, 제 2 제어부(2150)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보에 매칭되는 매핑 테이블의 좌표 정보를 식별하고, 좌표 정보에 대응되는 실행 정보를 식별할 수 있다. 제 2 제어부(2150)는 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 또한, 제 2 디스플레이부(2140)는 콘텐트의 실행 화면을 디스플레이할 수 있다. Alternatively, the second controller 2150 may execute content by using coordinate information of an area in which an object corresponding to a user input is displayed, coordinate information and execution information of a mapping table. For example, the second controller 2150 may identify coordinate information of the mapping table that matches the coordinate information of the region where the object corresponding to the user input is displayed, and identify execution information corresponding to the coordinate information. The second controller 2150 can execute the content by using the identified execution information. In addition, the second display unit 2140 may display an execution screen of the content.
또는, 제 2 제어부(2150)는 콘텐트를 제 2 디바이스(200)에 저장하기 위한 GUI를 제공할 수도 있다. GUI에 대한 사용자 입력이 수신되면, 제 2 제어부(2150)는 콘텐트를 저장할 수 있다. Alternatively, the second controller 2150 may provide a GUI for storing content in the second device 200. When a user input for the GUI is received, the second controller 2150 may store content.
한편, 위 설명에서는 콘텐트 공유 시스템의 제 1 디바이스(100) 및 제 2 디바이스(200)의 동작들을 각각 설명하였으나, 제 1 디바이스(100) 및 제 2 디바이스(200)가 전술한 콘텐트 공유 시스템의 모듈들 및 함수들을 수행할 수 있음은, 개시된 실시예에 따른 기술 분야의 전문가가 용이하게 이해할 수 있을 것이다. 예를 들어, 제 2 디바이스(200)의 제 2 제어부(2150)가 캡처 이미지를 생성하고, 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. Meanwhile, in the above description, the operations of the first device 100 and the second device 200 of the content sharing system have been described, respectively, but the first device 100 and the second device 200 are the modules of the content sharing system described above. And the ability to perform the functions will be readily understood by those skilled in the art according to the disclosed embodiments. For example, the second controller 2150 of the second device 200 may generate a capture image and obtain execution information for executing content corresponding to the objects displayed on the captured image.
도 22는 디바이스의 상세한 구성을 설명하는 도면이다. It is a figure explaining the detailed structure of a device.
도 22를 참조하면, 제 1 디바이스(100) 또는 제 2 디바이스(200)에 대응되는 디바이스(2200)는 제어부(2210), 디스플레이부(2220) 및 통신부(2240) 외에도, 메모리(2230), 센서부(2235), 입력부(2250), 마이크부(2270), 촬상부(2275), 스피커부(2280)를 더 포함할 수 있다.Referring to FIG. 22, the device 2200 corresponding to the first device 100 or the second device 200 may include a memory 2230 and a sensor in addition to the control unit 2210, the display unit 2220, and the communication unit 2240. The unit 2235, an input unit 2250, a microphone unit 2270, an imaging unit 2275, and a speaker unit 2280 may be further included.
제어부(2210)는 도 21의 제 1 제어부(2120) 또는 제 2 제어부(2150)에 대응될 수 있다. 또한, 제어부(2210)는 디바이스(2200)의 디스플레이부(2220), 통신부(2240), 센서부(2235), 입력부(2250), 마이크부(2270), 촬상부(2275), 스피커부(2280) 등을 전반적으로 제어할 수 있다. The controller 2210 may correspond to the first controller 2120 or the second controller 2150 of FIG. 21. In addition, the controller 2210 may include a display unit 2220, a communication unit 2240, a sensor unit 2235, an input unit 2250, a microphone unit 2270, an imaging unit 2275, and a speaker unit 2280 of the device 2200. ) Can be controlled overall.
제어부(2210)는 RAM(Random Access Memory)(2211), ROM(Read-Only Memory)(2212), CPU(2213), GPU(Graphic Processing Unit)(2214) 및 버스(2215) 중 적어도 하나를 포함 할 수 있다. RAM(2211), ROM(2212), CPU(2213) 및 GPU(2214) 등은 버스(2215)를 통해 서로 연결될 수 있다. 그러나, 이에 제한되는 것은 아니며, RAM(2211), ROM(2212) 및 GPU(2214) 중 적어도 하나는 제어부(2210)의 외부에 위치할 수도 있다. 또한, 제어부(2210)는 퀄컴(qualcomm)의 스냅드래곤(SNAPDRAMON™)과 같은 ARM(Advanced RISC Machine) 프로세서일 수 있다. The controller 2210 includes at least one of a random access memory (RAM) 2211, a read-only memory (ROM) 2212, a CPU 2213, a graphic processing unit (GPU) 2214, and a bus 2215. can do. The RAM 2211, the ROM 2212, the CPU 2213, the GPU 2214, and the like may be connected to each other through the bus 2215. However, the present invention is not limited thereto, and at least one of the RAM 2211, the ROM 2212, and the GPU 2214 may be located outside the controller 2210. In addition, the controller 2210 may be an Advanced RISC Machine (ARM) processor such as Qualcomm's Snapdragon (SNAPDRAMON ™).
CPU(2213)는 메모리(2230)에 액세스하여, 메모리(2230)에 저장된 운영체제를 이용하여 부팅을 수행한다. 그리고, 메모리(2230)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The CPU 2213 accesses the memory 2230 and performs booting using an operating system stored in the memory 2230. In addition, various operations are performed using various programs, content, data, and the like stored in the memory 2230.
ROM(2212)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 예로, 디바이스(2200)는 턴온 명령이 입력되어 전원이 공급되면, CPU(2213)가 ROM(2212)에 저장된 명령어에 따라 메모리(2230)에 저장된 운영체제(OS)를 RAM(2211)에 복사하고, OS를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU(2213)는 메모리(2230)에 저장된 각종 프로그램을 RAM(2211)에 복사하고, RAM(2211)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU(2214)는 디바이스(2200)의 부팅이 완료되면, 디스플레이부(2220)의 영역에 UI 화면을 디스플레이한다. 또한, GPU(2214)에서 생성된 화면은 디스플레이부(2820)로 제공되어, 디스플레이부(2820)의 각 영역에 각각 표시될 수 있다. The ROM 2212 stores a command set for system booting. For example, when the turn-on command is input and the power is supplied, the device 2200 copies the operating system (OS) stored in the memory 2230 to the RAM 2211 according to a command stored in the ROM 2212. You can boot the system by running the OS. When the booting is completed, the CPU 2213 copies various programs stored in the memory 2230 to the RAM 2211 and executes the programs copied to the RAM 2211 to perform various operations. When booting of the device 2200 is completed, the GPU 2214 displays a UI screen on an area of the display unit 2220. In addition, the screen generated by the GPU 2214 may be provided to the display unit 2820 to be displayed on each area of the display unit 2820.
디스플레이부(2820)는 도 21의 제 1 디스플레이부(2110) 또는 제 2 디스플레이부(2140)에 대응될 수 있다. 또한, 디스플레이부(2220)는 디스플레이 패널(2221) 및 디스플레이 패널(2221)을 제어하는 컨트롤러(미도시)를 포함할 수 있다. 디스플레이 패널(2221)에는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이 패널(2221)은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부(1020)는 입력부(2250)의 터치 패널(2252)과 결합되어 터치 스크린(미도시)으로 제공될 수 있다. 예를 들어, 터치 스크린(미도시)은 디스플레이 패널(2221)과 터치 패널(2252)이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다. 또한, 터치 스크린은 디스플레이 패널(2221)과 터치 패널(2252)이 적층 구조로 결합된 일체형 모듈의 일부에 감압식 센서를 더 포함할 수도 있다.The display unit 2820 may correspond to the first display unit 2110 or the second display unit 2140 of FIG. 21. In addition, the display unit 2220 may include a display panel 2221 and a controller (not shown) for controlling the display panel 2221. The display panel 2221 is implemented with various types of displays such as a liquid crystal display (LCD), an organic light emitting diodes (OLED) display, an active-matrix organic light-emitting diode (AM-OLED), a plasma display panel (PDP), and the like. Can be. The display panel 2221 may be implemented to be flexible, transparent, or wearable. The display 1020 may be combined with the touch panel 2252 of the input unit 2250 and provided as a touch screen (not shown). For example, the touch screen (not shown) may include an integrated module in which the display panel 2221 and the touch panel 2252 are combined in a stacked structure. In addition, the touch screen may further include a pressure-sensitive sensor in a part of the integrated module in which the display panel 2221 and the touch panel 2252 are combined in a stacked structure.
메모리(2230)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. The memory 2230 may include at least one of an internal memory (not shown) and an external memory (not shown).
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. The built-in memory may be, for example, volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.), nonvolatile memory (for example, one time programmable ROM). ), PROM (Programmable ROM), EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM, etc.), a hard disk drive (HDD), or a solid state drive (SSD). It may include.
일 실시예에 의하면, 제어부(2210)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(2210)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.According to an embodiment, the controller 2210 may load a command or data received from at least one of the nonvolatile memory or another component into the volatile memory and process the same. In addition, the controller 2210 may store data received or generated from other components in the nonvolatile memory.
외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.For example, the external memory may include at least one of Compact Flash (CF), Secure Digital (SD), Micro Secure Digital (Micro-SD), Mini Secure Digital (Mini-SD), Extreme Digital (xD), and a Memory Stick. It may include.
또한, 메모리(2230)는 콘텐트 파일 등을 저장할 수 있다. 예를 들어, 메모리(2230)는 디바이스(2200)의 동작 등에 사용되는 각종 어플리케이션 실행 데이터, 오디오 데이터, 비디오 데이터, 이미지 데이터 및 텍스트 데이터를 저장할 수 있다. In addition, the memory 2230 may store a content file. For example, the memory 2230 may store various application execution data, audio data, video data, image data, and text data used for the operation of the device 2200.
통신부(2240)는 도 21의 제 1 통신부(2130) 또는 제 2 통신부(2160)에 대응될 수 있다. 통신부(2240)는 와이파이 칩(2241), 블루투스 칩(2242), 무선 통신 칩(2243), NFC 칩(2244) 중 적어도 하나를 포함할 수 있다. 제어부(2210)는 통신부(2240)를 이용하여 외부 디바이스와 데이터를 송수신할 수 있다. The communication unit 2240 may correspond to the first communication unit 2130 or the second communication unit 2160 of FIG. 21. The communication unit 2240 may include at least one of a Wi-Fi chip 2241, a Bluetooth chip 2242, a wireless communication chip 2243, and an NFC chip 2244. The controller 2210 may exchange data with an external device using the communication unit 2240.
와이파이 칩(2241), 블루투스 칩(2242)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(2241)이나 블루투스 칩(2242)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. The Wi-Fi chip 2241 and the Bluetooth chip 2242 may perform communication using a WiFi method and a Bluetooth method, respectively. In the case of using the Wi-Fi chip 2241 or the Bluetooth chip 2242, various connection information such as SSID and session key may be transmitted and received first, and then various communication information may be transmitted and received using the same.
무선 통신 칩(2243)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(2244)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.The wireless communication chip 2243 refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evoloution (LTE), and the like. The NFC chip 2244 refers to a chip operating in a near field communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860-960 MHz, 2.45 GHz, and the like.
입력부(2250)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 사용자 입력부(2250)는 키(2251), 터치 패널(2252) 및 펜 인식 패널(2253) 중 적어도 하나를 포함할 수 있다.The input unit 2250 may receive various commands from a user. The user input unit 2250 may include at least one of a key 2251, a touch panel 2252, and a pen recognition panel 2253.
터치 패널(2252)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 일 실시예에 의하면, 터치 패널(2252)은 사용자의 탭, 터치 앤드 홀드, 더블 탭, 드래그, 패닝, 플릭 및 드래그 앤드 드롭 중 적어도 하나를 포함하는 터치 입력을 수신할 수 있다. 터치 패널(2252)이 디스플레이 패널(2221)과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. The touch panel 2252 may detect a user's touch input and output a touch event value corresponding to the detected touch signal. According to an embodiment, the touch panel 2252 may receive a touch input including at least one of a user's tap, touch and hold, double tap, drag, pan, flick, and drag and drop. When the touch panel 2252 is combined with the display panel 2221 to form a touch screen (not shown), the touch screen may be implemented by various types of touch sensors such as capacitive, pressure sensitive, and piezoelectric.
정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다. The capacitive type is a method of calculating touch coordinates by detecting fine electricity generated by the human body of a user when a part of the user's body is touched by the touch screen surface by using a dielectric coated on the touch screen surface. The pressure-sensitive type includes two electrode plates embedded in the touch screen, and when the user touches the screen, the touch panel calculates touch coordinates by detecting that the upper and lower plates of the touched point are in contact with current. The touch event occurring in the touch screen may be mainly generated by a human finger, but may also be generated by an object of conductive material that can apply a change in capacitance.
키(2251)는 디바이스(2200)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.The key 2251 may include various types of keys, such as mechanical buttons, wheels, and the like, formed in various areas such as a front portion, a side portion, and a rear portion of the main body exterior of the device 2200.
펜 인식 패널(2253)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(2253)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 상세하게는 펜 인식 패널(2253)은 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 펜 인식 패널(2253)의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널(2253)은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지될 수 있다. 펜 인식 패널(2253)은 디스플레이 패널(2221)의 하부에 일정 면적, 예를 들어, 디스플레이 패널(2221)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다. The pen recognition panel 2253 detects a proximity input or touch input of a pen according to the operation of a user's touch pen (eg, a stylus pen or a digitizer pen) and detects a detected pen proximity event or pen. A touch event can be output. The pen recognition panel 2253 may be implemented by, for example, an EMR method, and may detect a touch or a proximity input according to a change in the intensity of an electromagnetic field due to a proximity or a touch of a pen. In detail, the pen recognition panel 2253 includes an electromagnetic induction coil sensor (not shown) having a grid structure and an electronic signal processor (not shown) that sequentially provides an AC signal having a predetermined frequency to each loop coil of the electromagnetic induction coil sensor. It may be configured to include). If there is a pen incorporating a resonant circuit in the vicinity of the loop coil of the pen recognition panel 2253, the magnetic field transmitted from the loop coil generates a current based on mutual electromagnetic induction in the resonant circuit in the pen. Based on this current, an induction magnetic field is generated from a coil constituting the resonant circuit in the pen, and the pen recognition panel 2253 detects the induction magnetic field in a loop coil in a signal receiving state so as to approach the pen's approach position or the like. The touch position can be detected. The pen recognition panel 2253 may be provided under the display panel 2221 to have a predetermined area, for example, an area that can cover the display area of the display panel 2221.
마이크부(2270)는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환할 수 있다. 제어부(2210)는 마이크부(2270)를 통해 입력되는 사용자 음성을 통화 동작에서 이용하거나, 오디오 데이터로 변환하여 메모리(2230)에 저장할 수 있다.The microphone unit 2270 may receive a user voice or other sound and convert the audio into audio data. The controller 2210 may use a user's voice input through the microphone 2270 in a call operation or convert the user's voice into audio data and store it in the memory 2230.
촬상부(2275)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상할 수 있다. 촬상부(2275)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수도 있다.The imaging unit 2275 may capture a still image or a moving image under the control of the user. The imaging unit 2275 may be implemented in plurality, such as a front camera and a rear camera.
촬상부(2275) 및 마이크부(2270)가 마련된 경우, 제어부(2210)는 마이크부(2270)를 통해 입력되는 사용자 음성이나 촬상부(2275)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 예컨대, 디바이스(2200)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(2210)는 촬상부(2275)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우 제어부(2210)는 마이크부(2270)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수 있다.When the imaging unit 2275 and the microphone unit 2270 are provided, the controller 2210 may perform a control operation according to a user voice input through the microphone unit 2270 or a user motion recognized by the imaging unit 2175. It may be. For example, the device 2200 may operate in a motion control mode or a voice control mode. When operating in the motion control mode, the controller 2210 may activate the image capturing unit 2175 to capture a user, track a user's motion change, and perform a control operation corresponding thereto. When operating in the voice control mode, the controller 2210 may operate in a voice recognition mode that analyzes a user voice input through the microphone unit 2270 and performs a control operation according to the analyzed user voice.
스피커부(2280)는 제어부(2210)의 제어에 의해 오디오 데이터를 출력할 수 있다. 일부 실시예에 따라 스피커부(2280)는, 애플리케이션 리스트 내의 애플리케이션을 선택하는 사용자 입력이 입력부(2250)를 통해 수신되면, 선택된 애플리케이션의 소비전력 등급 별로 구별되는 알림음을 출력할 수 있다. The speaker unit 2280 may output audio data under the control of the controller 2210. According to some embodiments, when a user input for selecting an application in the application list is received through the input unit 2250, the speaker unit 2280 may output a notification sound distinguished by power consumption classes of the selected application.
그 밖에, 도 22에 도시하지는 않았으나, 실시예에는, 디바이스(2200) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있다. In addition, although not shown in FIG. 22, the embodiment may include a USB port to which a USB connector may be connected in the device 2200, various external input ports for connecting to various external terminals such as a headset, a mouse, a LAN, and the like. A digital multimedia broadcasting (DMB) chip for receiving and processing signals and various sensors may be further included.
또한, 디바이스(2200)는 디바이스(2200)를 진동시키기 위한 진동부(미도시)를 더 포함할 수 있다. 일부 실시예에 따라 디바이스(2200)는 애플리케이션 리스트 내의 애플리케이션을 선택하는 사용자 입력이 입력부(2250)를 통해 수신되면, 선택된 애플리케이션의 소비전력 등급 별로 구별되는 진동을 출력하는 진동부(미도시)를 더 구비할 수 있다. In addition, the device 2200 may further include a vibrator (not shown) for vibrating the device 2200. According to some embodiments, when a user input for selecting an application in the application list is received through the input unit 2250, the device 2200 may further include a vibration unit (not shown) that outputs vibrations distinguished by power consumption classes of the selected applications. It can be provided.
또한, 전술한 디바이스(2200)의 구성 요소들의 명칭은 실시예에 따라서 달라질 수 있다. In addition, the names of the components of the device 2200 described above may vary according to embodiments.
한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer which operates the program using a computer-readable recording medium.
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 컴퓨터의 프로세서는 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신할 수 있는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 정보를 더 포함할 수 있다. In addition, when the processor of the computer needs to communicate with any other computer or server that is remote to perform the above-described functions, the processor of the computer may be configured to communicate with the computer's communication module (e.g. wired and / or wireless communication module). It may further include information about how it can communicate with any other computer or server in the remote, and what information or media should be transmitted and received during communication.
그리고, 개시된 실시예들을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 개시된 실시예들이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.In addition, a functional program for implementing the disclosed embodiments, codes and code segments associated therewith, may be used in consideration of a system environment of a computer that executes a program by reading a recording medium. It may be easily inferred or changed by programmers.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다. Examples of recording media that can be read by a computer recording a program as described above include, for example, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical media storage device, and the like.
또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 적어도 하나의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 적어도 하나에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송 받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.In addition, a computer-readable recording medium having recorded a program as described above may be distributed to computer systems connected through a network so that computer-readable codes may be stored and executed in a distributed manner. In this case, at least one of the plurality of distributed computers may execute some of the functions presented above, and transmit the result to at least one of the other distributed computers, and transmit the result. The receiving computer may also execute some of the functions presented above, and provide the results to other distributed computers as well.
이상에서, 개시된 실시예들을 구성하는 모든 구성요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 명세서에 따른 권리 범위가 반드시 이러한 실시예들로 한정되는 것은 아니다. 즉, 개시된 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 개시된 실시예들이 속하는 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 명세서의 실시예들을 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.In the above description, all elements constituting the disclosed embodiments are described as being combined or operating as one, but the scope of rights according to the present specification is not necessarily limited to these embodiments. That is, within the scope of the disclosed invention, all of the components may be selectively combined to operate at least one. In addition, although all of the components may be implemented in one independent hardware, each or some of the components of the program are selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art to which the disclosed embodiments belong. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present disclosure. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, and the like.
이상의 설명은 본 명세서의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자라면, 발명의 본질적인 특성에서 벗어나지 않는 범위에서, 개시된 실시예들에 대한 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시예들은 본 명세서에 기술된 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 개시된 실시예들에 의하여 발명의 기술 사상의 범위가 한정되는 것은 아니다. 개시된 실시예들에 따른 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 개시된 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present disclosure, and a person of ordinary skill in the art to which the disclosed embodiments belong may make various changes to the disclosed embodiments without departing from the essential characteristics of the invention. Modifications and variations will be possible. Therefore, the disclosed embodiments are not intended to limit the technical spirit described in the present specification but to describe the scope of the technical spirit of the invention by the disclosed embodiments. The protection scope of the invention according to the disclosed embodiments should be interpreted by the following claims, and all technical ideas within the equivalent scope should be construed as being included in the scope of the disclosed invention.

Claims (15)

  1. 디바이스가 콘텐트를 공유하는 방법에 있어서, In the method of sharing content with a device,
    다른 디바이스의 화면을 캡처한 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 상기 다른 디바이스로부터 수신하는 단계;Receiving a capture image capturing a screen of another device and execution information for executing content corresponding to the object displayed on the captured image from the other device;
    상기 캡처 이미지를 디스플레이하는 단계; 및Displaying the captured image; And
    상기 캡처 이미지에서 상기 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 상기 실행 정보를 이용하여 상기 객체에 대응되는 상기 콘텐트를 실행하는 단계;를 포함하는, 콘텐트 공유 방법.And executing the content corresponding to the object using the execution information in response to a user input of an area in which the object is displayed in the captured image.
  2. 제 1 항에 있어서, The method of claim 1,
    상기 다른 디바이스는, 채팅 어플리케이션을 이용하여 상기 디바이스와 메시지를 송수신 중인 것이며, The other device is transmitting and receiving a message with the device using a chat application,
    상기 캡처 이미지는, 상기 채팅 어플리케이션의 채팅 창에 표시되는 것인, 콘텐트 공유 방법.And the captured image is displayed in a chat window of the chat application.
  3. 제 1 항에 있어서, The method of claim 1,
    상기 콘텐트를 실행하는 단계는, Executing the content,
    상기 실행 정보를 이용하여 상기 객체에 대응되는 콘텐트를 상기 다른 디바이스로 요청하는 단계; 및 Requesting content corresponding to the object from the other device using the execution information; And
    상기 콘텐트를 상기 다른 디바이스로부터 수신하는 단계;를 포함하는, 콘텐트 공유 방법.Receiving the content from the other device.
  4. 제 1 항에 있어서, The method of claim 1,
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 수신하는 단계;를 더 포함하는, 콘텐트 공유 방법. And receiving a mapping table including coordinate information of the object in the captured image and the execution information corresponding to the coordinate information.
  5. 제 4 항에 있어서,The method of claim 4, wherein
    상기 수신된 매핑 테이블에 기초하여, 상기 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하는 단계;를 더 포함하며, Based on the received mapping table, identifying execution information corresponding to coordinate information of an area in which the object is displayed;
    상기 실행하는 단계는, 상기 식별된 실행 정보를 이용하여 상기 콘텐트를 실행하는 것인, 콘텐트 공유 방법. And the executing step is to execute the content using the identified execution information.
  6. 제 1 항에 있어서, The method of claim 1,
    상기 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 및 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나인, 콘텐트 공유 방법. And the execution information is at least one of a content file, identification information of the content file, and link information for downloading the content.
  7. 제 1 항에 있어서, The method of claim 1,
    상기 객체는 상기 캡처 이미지 내의 복수의 객체들 중에서, 상기 다른 디바이스의 사용자에 의해 선택된 객체이며, The object is an object selected by a user of the other device, from among a plurality of objects in the captured image,
    상기 객체는 상기 캡처 이미지 내에서 강조되어 표시되는 것인, 콘텐트 공유 방법.And the object is highlighted in the captured image.
  8. 디바이스가 콘텐트를 공유하는 방법에 있어서,In the method of sharing content with a device,
    상기 디바이스의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성하는 단계; 및 Generating a captured image in response to a user input of capturing a screen of the device; And
    상기 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 단계;를 포함하는, 콘텐트 공유 방법.And transmitting execution information for executing the content corresponding to the captured image and the object displayed on the captured image to another device.
  9. 제 8 항에 있어서, The method of claim 8,
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 상기 다른 디바이스로 전송하는 단계;를 더 포함하는, 콘텐트 공유 방법.Transmitting a mapping table including coordinate information of the object in the captured image and the execution information corresponding to the coordinate information to the other device.
  10. 제 8 항에 있어서, The method of claim 8,
    상기 캡처 이미지 내의 복수의 객체들 중에서 상기 객체를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하며, Receiving a user input for selecting the object among a plurality of objects in the captured image;
    상기 객체는, 상기 캡처 이미지 내에서 강조되어 표시되는 것인, 콘텐트 공유 방법. And the object is highlighted in the captured image.
  11. 다른 디바이스의 화면을 캡처한 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 상기 다른 디바이스로부터 수신하는 통신부; A communication unit configured to receive a capture image capturing a screen of another device and execution information for executing content corresponding to an object displayed on the captured image from the other device;
    상기 캡처 이미지를 디스플레이하는 디스플레이부; 및A display unit which displays the captured image; And
    상기 캡처 이미지에서 상기 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 상기 실행 정보를 이용하여 상기 객체에 대응되는 상기 콘텐트를 실행하는 제어부;를 포함하는, 디바이스.And a controller configured to execute the content corresponding to the object using the execution information in response to a user input of an area in which the object is displayed in the captured image.
  12. 제 11 항에 있어서, The method of claim 11,
    상기 통신부는, 상기 사용자 입력에 응답하여, 상기 실행 정보를 이용하여 상기 객체에 대응되는 콘텐트를 상기 다른 디바이스로 요청하고, 상기 콘텐트를 상기 다른 디바이스로부터 수신하는, 디바이스. The communication unit, in response to the user input, requests the content corresponding to the object to the other device using the execution information, and receives the content from the other device.
  13. 제 11 항에 있어서, The method of claim 11,
    상기 통신부는, 상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 수신하는, 디바이스.The communication unit receives a mapping table including coordinate information of the object in the captured image and the execution information corresponding to the coordinate information.
  14. 제 11 항에 있어서, The method of claim 11,
    상기 객체는 상기 캡처 이미지 내의 복수의 객체들 중에서, 상기 다른 디바이스의 사용자에 의해 선택된 객체이며, The object is an object selected by a user of the other device, from among a plurality of objects in the captured image,
    상기 객체는 상기 캡처 이미지 내에서 강조되어 표시되는 것인, 디바이스.Wherein the object is highlighted in the captured image.
  15. 제 1 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for implementing the method of claim 1.
PCT/KR2015/012116 2014-11-12 2015-11-11 Method for sharing content and content sharing system WO2016076627A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15859599.1A EP3220346B1 (en) 2014-11-12 2015-11-11 Method for sharing content and content sharing system
US15/518,625 US10921954B2 (en) 2014-11-12 2015-11-11 Method for sharing content and content sharing system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201410637551.9 2014-11-12
CN201410637551.9A CN104410768B (en) 2014-11-12 2014-11-12 Information transferring method and device
KR1020150158126A KR102327205B1 (en) 2014-11-12 2015-11-11 Content Share Method and Content Share System
KR10-2015-0158126 2015-11-11

Publications (1)

Publication Number Publication Date
WO2016076627A1 true WO2016076627A1 (en) 2016-05-19

Family

ID=55954639

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/012116 WO2016076627A1 (en) 2014-11-12 2015-11-11 Method for sharing content and content sharing system

Country Status (1)

Country Link
WO (1) WO2016076627A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100199187A1 (en) * 2009-02-03 2010-08-05 Acer Incorporated Instant data sharing system and machine readable medium thereof
KR20110005178A (en) * 2009-07-09 2011-01-17 주성대학산학협력단 Ultrasonic piping cleaner
KR20110008581A (en) * 2009-07-20 2011-01-27 삼성전자주식회사 Apparatus and method for requesting contents and apparatus and method for transferring contents
KR20130009446A (en) * 2011-07-15 2013-01-23 에스케이플래닛 주식회사 System and method for contents sharing, device and computer readable medium storing the method
KR20140003115A (en) * 2012-06-29 2014-01-09 엘지전자 주식회사 Mobile terminal and method for controlling of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100199187A1 (en) * 2009-02-03 2010-08-05 Acer Incorporated Instant data sharing system and machine readable medium thereof
KR20110005178A (en) * 2009-07-09 2011-01-17 주성대학산학협력단 Ultrasonic piping cleaner
KR20110008581A (en) * 2009-07-20 2011-01-27 삼성전자주식회사 Apparatus and method for requesting contents and apparatus and method for transferring contents
KR20130009446A (en) * 2011-07-15 2013-01-23 에스케이플래닛 주식회사 System and method for contents sharing, device and computer readable medium storing the method
KR20140003115A (en) * 2012-06-29 2014-01-09 엘지전자 주식회사 Mobile terminal and method for controlling of the same

Similar Documents

Publication Publication Date Title
WO2017142293A1 (en) Electronic device and method of application data display therefor
WO2018199537A1 (en) Electronic device and method of controlling the electronic device based on touch input
WO2018026059A1 (en) Mobile terminal and control method thereof
WO2016060514A1 (en) Method for sharing screen between devices and device using the same
WO2017043936A1 (en) Method for measuring angles between displays and electronic device using the same
WO2016093518A1 (en) Method and apparatus for arranging objects according to content of background image
WO2015167288A1 (en) Method and apparatus for outputting contents using a plurality of displays
WO2015126121A1 (en) Method for controlling apparatus according to request information, and apparatus supporting the method
WO2016060501A1 (en) Method and apparatus for providing user interface
WO2015119480A1 (en) User terminal device and displaying method thereof
WO2014038918A1 (en) Method for connecting mobile terminal and external display and apparatus implementing the same
WO2016182108A1 (en) Mobile terminal and method for controlling same
WO2017142373A1 (en) Method of controlling the sharing of videos and electronic device adapted thereto
EP3105657A1 (en) User terminal device and displaying method thereof
WO2015182966A1 (en) Method for controlling display and electronic device
WO2015009110A1 (en) Portable terminal having display and method for operating same
WO2017209530A1 (en) Method of switching application and electronic device therefor
WO2017057799A1 (en) Mobile terminal for controlling dynamic resolution and control method therefor
WO2015122689A1 (en) Webpage navigation method, mobile terminal using the same, and a web navigation computer program
WO2016159654A1 (en) System and method for providing widget
WO2017123035A1 (en) Electronic device having rotating body and method for operating same
WO2021025497A1 (en) Electronic device and method for sharing data thereof
WO2014042474A2 (en) Method and system for executing application, and device and recording medium thereof
WO2018026164A1 (en) Method of processing touch events and electronic device adapted thereto
WO2019039739A1 (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15859599

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015859599

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE