WO2024106790A1 - 전자 장치 및 이의 제어 방법 - Google Patents

전자 장치 및 이의 제어 방법 Download PDF

Info

Publication number
WO2024106790A1
WO2024106790A1 PCT/KR2023/016667 KR2023016667W WO2024106790A1 WO 2024106790 A1 WO2024106790 A1 WO 2024106790A1 KR 2023016667 W KR2023016667 W KR 2023016667W WO 2024106790 A1 WO2024106790 A1 WO 2024106790A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
information
received
electronic device
schedule
Prior art date
Application number
PCT/KR2023/016667
Other languages
English (en)
French (fr)
Inventor
김가을
오석재
윤병호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/405,229 priority Critical patent/US20240163520A1/en
Publication of WO2024106790A1 publication Critical patent/WO2024106790A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Definitions

  • the present disclosure relates to an electronic device and a control method thereof, and more specifically, to identify the same content among a plurality of contents by considering the characteristic information and identification information of the extracted content, and for a user who watches the same content based on this. It relates to an electronic device that provides a chat room and a method of controlling the same.
  • chat service when users from different countries watching the same content chat in the same chat room, a chat service must be provided taking into account the characteristics of each user. For example, a user may not want to receive chat input in a language that is different from their own. Alternatively, the user may wish to receive chat input in a different language translated into the same language as the user's language.
  • An electronic device includes a communication interface, a memory storing metadata corresponding to each of a plurality of contents including first content and second content, and the first content received through the communication interface. If the first content information for content 1 and the second content information for the second content do not match, the first content and the second content are respectively based on the received first content information and the second content information. It may include one or more processors that acquire characteristic information corresponding to.
  • the one or more processors if the first content and the second content are the same content based on the received first content information and the second content information, the obtained characteristic information, and the information stored in the memory, the first content A single chat room for content and the second content can be provided.
  • a method of controlling an electronic device includes first content information for the first content and second content information for the second content among a plurality of contents including first content and second content. If the content information does not match, the method may include obtaining characteristic information corresponding to each of the first content and the second content based on the first content information and the second content information.
  • the control method is based on the first content information and the second content information, the acquired characteristic information, and metadata corresponding to each of the plurality of contents stored in the memory. If is the same content, it may include providing a chat room for the first content and the second content.
  • the operation includes first content and If the first content information for the first content and the second content information for the second content among the plurality of contents including the second content do not match, based on the first content information and the second content information It may include obtaining characteristic information corresponding to each of the first content and the second content.
  • the operation is based on the first content information, the second content information, the identified characteristic information, and metadata corresponding to each of the plurality of contents stored in the memory. If the content is the same, providing a chat room for the first content and the second content may be included.
  • FIG. 1 is a diagram schematically illustrating a control method of an electronic device according to an embodiment.
  • Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
  • Figure 3 is a flowchart explaining a control method of an electronic device according to an embodiment.
  • FIG. 4 is a diagram for explaining content information, feature information, and metadata according to an embodiment.
  • FIG. 5 is a diagram illustrating a method for identifying whether content is the same according to an embodiment.
  • FIG. 6 is a diagram illustrating a method of identifying whether content is the same by considering time difference information, according to an embodiment.
  • FIG. 7 is a diagram illustrating a method of identifying whether the content is the same based on video frame information according to an embodiment.
  • 8A and 8B are diagrams for explaining a method of providing a chat service according to an embodiment.
  • Figure 9 is a diagram for explaining a method of obtaining fingerprint information according to an embodiment.
  • Figure 10 is a diagram for explaining a method of providing a chat room according to an embodiment.
  • Figure 11 is a block diagram showing the detailed configuration of an electronic device according to an embodiment.
  • expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.
  • a or/and B should be understood as referring to either “A” or “B” or “A and B”.
  • expressions such as “first,” “second,” “first,” or “second,” can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components.
  • a component e.g., a first component
  • another component e.g., a second component
  • connection to it should be understood that a certain component can be connected directly to another component or connected through another component (e.g., a third component).
  • a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. Additionally, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented by at least one processor (not shown), except for “modules” or “units” that need to be implemented with specific hardware. It can be.
  • FIG. 1 is a diagram schematically illustrating a control method of an electronic device according to an embodiment.
  • the electronic device 10 may transmit and receive data with a plurality of external devices 20-1 to 20-3.
  • the electronic device 10 may be implemented as a server, but is not limited thereto.
  • the plurality of devices 20-1 to 20-3 for example, the electronic device 10, may display content corresponding to user input, such as a smart TV, tablet, monitor, smart phone, desktop computer, laptop computer, etc. It can be implemented with various devices that can be provided.
  • the electronic device 10 displays a plurality of devices 20-1 to 20-3 displaying the same content.
  • a chat room can be provided, and a chat service can be provided based on this.
  • the electronic device 10 may receive a plurality of broadcast contents from an external server (not shown).
  • an external server not shown.
  • the electronic device 10 can provide a chat room for a plurality of devices displaying the same content by identifying the same content among the plurality of received content and identifying devices displaying the same content based on this. there is.
  • the electronic device 10 may provide a chat service based on setting information of each of a plurality of devices corresponding to (or included in) the chat room. According to one example, the electronic device 10 may provide information on whether to provide text information in a language different from the language provided by the first device among the plurality of devices to the first device, or information in a language different from the language provided by the first device. Information on whether to translate text information and provide it to the first device may be received, and a chat service may be provided based on this.
  • the same content among the plurality of contents is identified by considering the characteristic information of each of the plurality of contents received, a chat room for devices corresponding to the same content is provided, and each device included in the provided chat room is provided.
  • a chat room for devices corresponding to the same content is provided, and each device included in the provided chat room is provided.
  • Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
  • the electronic device 100 may include a communication interface 110, a memory 120, and one or more processors 130.
  • the electronic device 100 may be implemented as a server. Meanwhile, an external server may transmit information to the electronic device 100 in various ways. According to one embodiment, an external server may transmit text information corresponding to the user's voice signal to the electronic device 100. Specifically, the external server may be a server that performs a voice recognition function that converts the user's voice signal into text information.
  • the external server may transmit at least one of text information corresponding to the user's voice signal or search result information corresponding to the text information to the electronic device 100.
  • the external server may be a server that performs a search result provision function that provides search result information corresponding to text information in addition to a voice recognition function that converts the user's voice signal into text information.
  • an external server may be a server that performs both a voice recognition function and a search result provision function.
  • the external server may perform only the voice recognition function and the search result provision function may be performed by a separate server.
  • the external server can transmit text information to a separate server and obtain search results corresponding to the text information from the separate server.
  • the electronic device 100 can communicate with external devices and external servers in various ways.
  • communication modules for communication with external devices and external servers may be implemented in the same way.
  • the electronic device 100 can communicate with an external device using a Bluetooth module, and can also communicate with an external server using a Bluetooth module.
  • communication modules for communication with external devices and external servers may be implemented separately.
  • the electronic device 100 may communicate with an external device using a Bluetooth module and communicate with an external server using an Ethernet modem or a Wi-Fi module.
  • the electronic device 100 may perform overall operations on its own. Alternatively, according to one embodiment, the electronic device 100 may perform an operation to obtain characteristic information, and other operations may be performed by an external server. Alternatively, the electronic device 100 may perform an operation to provide a chat room, and other operations may be performed by an external server. Alternatively, according to one embodiment, the electronic device performs an operation of identifying whether the first identification information included in the first content information and the second identification information included in the second content information match, and other operations. can also be performed on an external server. That is, of course, the subject of the operations described here may change depending on the implementation example.
  • the communication interface 110 can input and output various types of data.
  • the communication interface 110 includes AP-based Wi-Fi (Wireless LAN network), Bluetooth, Zigbee, wired/wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/ European Broadcasting Union), Optical , external devices (e.g., source devices), external storage media (e.g., USB memory), and external servers (e.g., web hard drives) and various types of data through communication methods such as coaxial, etc. Can send and receive.
  • the communication interface 110 may use the same communication module (eg, Wi-Fi module) to communicate with an external device such as a remote control device and an external server.
  • an external device such as a remote control device and an external server.
  • the communication interface 110 may use different communication modules to communicate with external devices and external servers, such as remote control devices.
  • the communication interface 110 may use at least one of an Ethernet module or a Wi-Fi module to communicate with an external server, and may use a Bluetooth module to communicate with an external device such as a remote control device.
  • this is only an example, and the communication interface 110 may use at least one communication module among various communication modules when communicating with a plurality of external devices or external servers.
  • the memory 120 may store data necessary for various embodiments.
  • the memory 120 may be implemented as a memory embedded in the electronic device 100 or as a memory detachable from the electronic device 100 depending on the data storage purpose. For example, in the case of data for driving the electronic device 100, it is stored in the memory embedded in the electronic device 100, and in the case of data for the expansion function of the electronic device 100, it is attached and detachable to the electronic device 100. This can be stored in available memory.
  • volatile memory e.g., dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory Examples: one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g. NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD).
  • a memory card eg, compact flash (CF)
  • CF compact flash
  • USB port (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to the USB port (for example, it may be implemented in a form such as USB memory).
  • the memory 120 may store metadata corresponding to each of a plurality of contents including first content and second content.
  • metadata may include at least one of ID information and schedule information corresponding to each of a plurality of contents.
  • the ID information of the content may be information of a numeric type corresponding to each piece of content, but is not limited thereto and may also be title information of the content.
  • Numeric type information corresponding to each content is information generated according to preset rules, and may have ID information of different values depending on the content.
  • the schedule information is information about the broadcast time of the content, and according to one example, the schedule information may include information about the broadcast start time and end time of the content. In the memory 120, schedule information corresponding to each piece of ID information may be mapped.
  • processors 130 are electrically connected to the communication interface 110 and the memory 120 and control the overall operation of the electronic device 100.
  • the processor 130 may be comprised of one or multiple processors. Specifically, the processor 130 may perform the operation of the electronic device 100 according to various embodiments of the present disclosure by executing at least one instruction stored in the memory 120.
  • the processor 130 may include a digital signal processor (DSP), a microprocessor, a graphics processing unit (GPU), an artificial intelligence (AI) processor, and a neural processor (NPU) that process digital image signals.
  • DSP digital signal processor
  • GPU graphics processing unit
  • AI artificial intelligence
  • NPU neural processor
  • the processor 130 may include one or more of a controller, an application processor (AP), a communication processor (CP), or an ARM processor.
  • SoC System on Chip
  • SoC System on Chip
  • LSI large scale integration
  • ASIC application specific integrated circuit
  • FPGA Field Programmable Gate Array
  • the processor 130 may be implemented as a digital signal processor (DSP), a microprocessor, or a time controller (TCON). However, it is not limited to this, and the central processing unit ( central processing unit (CPU), micro controller unit (MCU), micro processing unit (MPU), controller, application processor (AP), or communication processor (CP), ARM processor Additionally, the processor 130 may be implemented as a System on Chip (SoC) with a built-in processing algorithm, a large scale integration (LSI), or an FPGA (FPGA). It can also be implemented in the form of a Field Programmable gate array.
  • SoC System on Chip
  • LSI large scale integration
  • FPGA field Programmable gate array
  • one or more processors 130 may receive first content information and second content information.
  • the content may be a video type content.
  • the content information may include at least one of content identification information and image data, and the content identification information may include content ID information or country type information of the received content. This will be explained in detail with reference to Figure 4.
  • the processor 130 may receive a plurality of content information including first content information and second content information from an external device (eg, a server) through the communication interface 110.
  • the first content and the second content may be the same content.
  • the processor 130 may identify whether the first content information and the second content information match.
  • the processor 130 when first content information about the first content and second content information about the second content are received through the communication interface 110, the processor 130 generates the first content information included in the received first content information. It is possible to identify whether the first identification information and the second identification information included in the second content information match. For example, when the first identification information and the second identification information are received, the processor 130 combines the first country type information and the first ID information included in the received first identification information into the first ID information included in the second identification information. 2 It is possible to identify whether the first identification information and the second identification information match by comparing the country type information and the second ID information for each corresponding type.
  • the processor 130 may identify that the first identification information and the second identification information do not match if at least one of the country type information or ID information of the first identification information and the second identification information does not match. there is. Or, for example, the processor 130 may match the first identification information and the second identification information when the first country type information and the second country type information match and the first ID information and the second ID information match. It can be identified as
  • the processor 130 if the first identification information and the second identification information do not match, the processor 130 generates information corresponding to each of the first content and the second content based on the received first content information and the second content information. Feature information can be obtained.
  • Feature information is information obtained by processing image data included in content.
  • the characteristic information of the content may include at least one of fingerprint information corresponding to the content or video frame information corresponding to the content.
  • feature information has different values depending on the type of content.
  • the feature information may be either numeric type information or image type information, but is not limited thereto. The method of obtaining fingerprint information will be explained in detail with reference to FIG. 9.
  • the processor 130 if the first identification information and the second identification information do not match, the processor 130 generates first fingerprint information corresponding to the first content based on image data included in the received first content information. Second fingerprint information corresponding to the second content can be obtained based on image data included in the received second content information.
  • the processor 130 may provide a chat room for the first content and the second content.
  • the processor 130 may identify at least one device included in a provided chat room as the same group.
  • the processor 130 may provide a chat service to the user by transmitting the received chat message to at least one device in the same group.
  • the processor 130 identifies at least one device receiving first content and at least one device receiving second content as the same group, and identifies at least one device receiving first content and at least one device receiving second content.
  • a single chat room containing at least one device that receives content may be provided.
  • Figure 3 is a flowchart explaining a control method of an electronic device according to an embodiment.
  • control method may identify whether first content information for the first content and second content information for the second content are received (S310).
  • the control method is performed when first content information and second content information are received (Y), and the first identification information included in the received first content information and the second identification information included in the second content information are used. It is possible to identify whether the information matches (S320).
  • the processor 130 sorts the first country type information and first ID information included in the first identification information by type corresponding to the second country type information and second ID information included in the second identification information. You can compare.
  • the processor 130 uses the first identification information and the first identification information. 2 It can be identified as the identification information does not match. Alternatively, when the first ID information corresponding to the first content and the second ID information corresponding to the second content are different, the processor 130 may identify that the first identification information and the second identification information do not match. .
  • the control method determines that the first identification information and the second identification information do not match (N), based on the received first content information and the second content information.
  • Characteristic information corresponding to each content can be obtained (S330).
  • the processor 130 obtains first fingerprint information of the first content based on image data included in the first content, and obtains first fingerprint information of the second content based on image data included in the second content. 2 Finger print information can be obtained. The specific method of obtaining fingerprint information will be explained in detail with reference to FIG. 9.
  • control method determines that the first content and the second content are the same based on the received content information, identified characteristic information, and metadata corresponding to each of the plurality of contents stored in the memory 120. It is possible to identify whether it is content (S340).
  • the processor 130 may identify whether the first and second fingerprint information obtained first have a similarity greater than a preset value (for example, 0.9). Subsequently, if it is identified as having a similarity greater than a preset value, the processor 130 may identify schedule information corresponding to the ID information included in the identification information based on the information stored in the memory 120. Subsequently, if the first schedule information of the identified first content matches the second schedule information corresponding to the second content, the processor 130 may identify the first content and the second content as the same content.
  • a preset value for example, 0.9
  • the control method identifies whether the first content and the second content are the same content (S350), and if they are identified as the same content (Y), a chat room for the first content and the second content (S350). Chatting Room) can be provided (S360).
  • the processor 130 identifies at least one device receiving first content and at least one device receiving second content as the same group, and groups the at least one device receiving first content and the second content. 2 A single chat room containing at least one device that receives content can be provided.
  • the electronic device 100 can identify the same content among a plurality of content by considering the characteristic information of the content, and based on this, It is possible to provide a single chat room with devices receiving the same content.
  • FIG. 4 is a diagram for explaining content information, feature information, and metadata according to an embodiment.
  • the processor 130 may receive content information 400 including image data 410 and identification information 420 through the communication interface 110 .
  • the image data 410 may be preview image data corresponding to content, but it is not limited thereto, and may of course be image data having a data size greater than a preset size.
  • the processor 130 may obtain characteristic information 411 corresponding to content from the image data 410.
  • the feature information may include at least one of fingerprint information corresponding to the content or video frame information corresponding to the content.
  • the processor 130 may obtain content fingerprint information from the image data based on a preset algorithm.
  • the fingerprint information may be numeric type information, but is not limited thereto.
  • the processor 130 may obtain video frame information of content from the received video data 410.
  • the processor 130 collects video frame information at a preset point in time from the real-time broadcasting data. It can be obtained.
  • the video frame information may be image type information.
  • the processor 130 can receive preview data corresponding to the content through the communication interface 110 and obtain fingerprint information corresponding to the content based on this. .
  • the processor 130 may obtain video frame information at a preset point in time from real-time video data.
  • video frame information of the content can be obtained even before the content is broadcast, and even when the content is being broadcast, fingerprint information corresponding to the content is obtained based on the received video data.
  • the identification information 420 may include at least one of ID information 421 or country type information 422 corresponding to the content.
  • ID information corresponding to content may be numeric type information, but is not limited thereto, and according to one example, ID information may be text information.
  • country type information 422 may be received through the communication interface 110 along with image data corresponding to content, and country type information of different values for different countries, such as France, Korea, or the United States, for example. You can have Alternatively, according to one example, the country type information 422 may include information on different city types included within the country. For example, there may be cases where cities with different time differences exist even within a single country, and in this case, information on different city types included within the country may be received along with the content.
  • metadata 430 corresponding to each of a plurality of contents may be stored in the memory 120.
  • the metadata 430 may store ID information corresponding to content and schedule information corresponding to the ID information.
  • the processor 130 compares the ID information 421 of the content received through the communication interface 110 with the ID information stored in the memory 120 to identify schedule information corresponding to the received content. You can.
  • Schedule information is information about the broadcast time of content, and according to one example, the schedule information may include information about the broadcast start time and end time of the content.
  • the processor 130 may identify the type of content received based on the identified schedule information.
  • the type of content is either real-time broadcast content or re-broadcast content.
  • the processor 130 performs a relatively advanced operation based on the identified schedule information.
  • the content corresponding to the schedule at the time can be identified as real-time broadcast content, and the remaining content can be identified as re-broadcast content.
  • FIG. 5 is a diagram illustrating a method for identifying whether content is the same according to an embodiment.
  • the control method may identify whether the first fingerprint information corresponding to the first content has a similarity greater than a preset value to the second fingerprint information corresponding to the second content ( S510).
  • the processor 130 may compare the first fingerprint information and the second fingerprint information to identify whether the similarity is greater than a preset value (eg, 0.90).
  • the control method determines first schedule information and second ID information corresponding to the first ID information based on the information stored in the memory 120.
  • the second schedule information corresponding to can be identified (S520).
  • the memory 120 may store ID information for a plurality of contents and schedule information corresponding to each ID information.
  • the processor 130 identifies ID information that is the same as the first ID information among the ID information stored in the received memory 120, and identifies schedule information corresponding to the identified ID information, thereby generating the first ID information corresponding to the received first ID information. 1 Schedule information can be identified.
  • the processor 130 identifies ID information that is the same as the second ID information among the ID information stored in the received memory 120, and identifies schedule information corresponding to the identified ID information, thereby corresponding to the received second ID information.
  • the second schedule information can be identified.
  • the control method may identify that the first content and the second content are the same content when the identified first schedule information and second schedule information match.
  • the processor 130 compares the identified first schedule information and the second schedule information, and when the first schedule information and the second schedule information match, the first schedule information and the second schedule information match. It can be identified as Subsequently, the processor 130 may identify that the first content corresponding to the first schedule information and the second content corresponding to the second schedule information are the same content.
  • the processor 130 may identify whether the updated first schedule information and the second schedule information match based on the time difference information stored in the memory 120. This will be explained in detail through Figure 6 below.
  • FIG. 6 is a diagram illustrating a method of identifying whether content is the same by considering time difference information, according to an embodiment.
  • time difference information corresponding to each of a plurality of country types may be stored in the memory 120.
  • the time difference refers to the difference in local time between two points on the Earth, and the time difference information is information about the size of the time difference corresponding to each of the plurality of country types.
  • the processor 130 may update schedule information based on information stored in the memory 120.
  • the control method includes first schedule information and time difference information stored in the memory 120 and country type information corresponding to each of the identified first schedule information and identified second schedule information.
  • Second schedule information can be updated (S610).
  • the first schedule information corresponding to the first content is “09:00? 11:00”, the country type information corresponding to the first content is “A”, and the second schedule information corresponding to the second content is “14:00? 15:00” and the country type information corresponding to the second content is “B”.
  • the processor 130 may identify that the time difference information corresponding to country A is “2:00” and the time difference information corresponding to country B is “-3:00”. . Based on this, the processor 130 sets the first schedule information to “11:00? 13:00”, and the second schedule information can be updated to “11:00 ? It can be updated to “13:00”.
  • the control method may identify that the first content and the second content are the same content when the updated first schedule information and the second schedule information match (S620).
  • the processor 130 matches the updated first schedule information (“11:00 ? 13:00”) and the second schedule information (“11:00 ? 13:00”), so that the first schedule information
  • the content and the second content can be identified as being the same content.
  • the electronic device 100 can identify the same content among a plurality of content using the fingerprint information and content schedule information. And based on this, it is possible to provide a single chat room that includes devices that receive the same content. This allows users from different countries to chat within the same chat room.
  • the processor 130 may receive country type information including city information, and the memory 120 may store time difference information corresponding to each city.
  • the processor 130 may receive first content information including country type information corresponding to “United States” and “New York,” and country type information corresponding to “United States” and “Los Angeles.” Second content information including may be received.
  • the memory 120 may store time difference information corresponding to “New York” and “Los Angeles,” respectively, and the processor 130 may store first content information and second content information based on the information stored in the memory 120. You can also update the schedule information included in .
  • the processor 130 may provide a UI for selecting one of a plurality of chat rooms corresponding to the same content.
  • the third content and the fourth content among the plurality of contents are the same content and correspond to the same country, but include different city information. If the processor 130 identifies that the time difference between the third content and the fourth content is greater than a preset value based on the information stored in the memory 120, the processor 130 may provide different chat rooms for the third content and the fourth content. and UI information for selecting one of the different chat rooms can be transmitted to the device.
  • third content information containing country type information corresponding to “United States” and “New York” is received
  • fourth content information containing country type information corresponding to “United States” and “Los Angeles” is received. Assume that it has been received.
  • the processor 130 controls the third content and the fourth content. 4
  • Different chat rooms for content can be provided, and UI information for selecting one of the different chat rooms can be transmitted to the device.
  • the electronic device 100 can provide multiple types of chat rooms when belonging to different time zones even within the same country, and thus the user can select one of the multiple chat rooms by taking the time difference into consideration.
  • FIG. 7 is a diagram illustrating a method of identifying whether the content is the same based on video frame information according to an embodiment.
  • the feature information may include at least one of fingerprint information or image frame information.
  • the content information includes image data corresponding to each content, and the processor 130 generates feature information corresponding to the content by identifying video frame information corresponding to the content based on the identified image data. It can be obtained.
  • the control method can identify whether the first content and the second content are being broadcast (S710).
  • the processor 130 may identify whether content is being played based on the type of content information received. For example, if image data included in the received content information is preview data, the processor 130 may identify the received content as having yet to be broadcast. Alternatively, for example, if the image data included in the received content information is real-time broadcast data, the processor 130 may identify that the received content is currently being broadcast.
  • control method is such that when the first content and the second content are identified as being played (Y), the first video frame information corresponding to the first content is changed to the second video frame information corresponding to the second content. It is possible to identify whether there is a similarity greater than a preset value (S720).
  • the processor 130 may operate while the first content and the second content are being broadcast. It can be identified as Next, the processor 130 acquires first image frame information based on image data corresponding to the received first content, and acquires second image frame information based on image data corresponding to the received second content. You can.
  • the video frame information may be video frame information corresponding to the video data at the time the video data is received, but is not limited to this, and video frames that are output in a preset order among a plurality of frames included in the video data. It can also be identified by video frame information corresponding to video data.
  • the processor 130 may identify whether the first image frame information corresponding to the acquired first content has a similarity of the second image frame information corresponding to the second content to a preset value or more. For example, the processor 130 may obtain similarity by comparing the obtained first and second frame information on a pixel basis, and based on this, the first image frame information may be equal to or greater than the second image frame information and a preset value. It is possible to identify whether there is similarity.
  • the control method determines the first ID information based on the information stored in the memory 120.
  • the first schedule information corresponding to and the second schedule information corresponding to the second ID information can be identified (S730).
  • control method may identify that the first content and the second content are the same content when the identified first schedule information and second schedule information match (S740).
  • the electronic device 100 can identify the same content among a plurality of content using video frame information and schedule information of the content, and based on this, the device that receives the same content It will be possible to provide a single chat room that includes.
  • 8A and 8B are diagrams for explaining a method of providing a chat service according to an embodiment.
  • the processor 130 is based on text information received from at least one device corresponding to a chat room provided through the communication interface 110 and toggle information corresponding to each of the at least one device. Chat service can be provided.
  • the text information is text information corresponding to a chat message received from at least one device.
  • toggle information is information about a user command for identifying the type of text provided to the device. For example, the device identifies whether a user's command regarding whether to receive text information (or text) in a language different from the language provided by the device is received, and when a user command corresponding to positive feedback is received, the device Toggle information for receiving text in a language different from the language provided can be identified.
  • the device may determine whether to receive a command from the user regarding whether to perform a translation of the received text in the different language. can be identified.
  • the device may identify toggle information for receiving translated text.
  • the control method may identify whether toggle information corresponding to a first device among at least one device is received (S810).
  • the processor 130 may receive toggle information from a first device among at least one device corresponding to a provided chat room.
  • the toggle information may include toggle information about whether to receive text in a language different from the language provided by the device and toggle information about whether to receive translated text.
  • the control method when toggle information is received (Y), the control method provides text information of a language type different from the text information received from the first device among text information received from at least one device to the first device. It is possible to identify whether to do so (S820).
  • the processor 130 selects a text that is different from the text received from the first device among the texts received from at least one device. The text of the language may be provided to the first device.
  • the control method if it is identified that text information of a different language type is not provided to the first device (N), the control method provides only text information of the same language type as the text information received from the first device to the first device. Can be provided (S830). According to one example, when toggle information for not receiving text in a language different from the language provided by the first device is received, the processor 130 selects the text received from the first device among the texts received from at least one device. Only text in the same language can be provided to the first device.
  • the control method when the control method identifies that a text of a different language type is provided to the first device (Y), it can identify whether to translate the text of a different language type and provide it to the first device (Y). S840).
  • the processor 130 when toggle information about whether to receive a translated text from the first device is received, the processor 130 selects a language different from the language corresponding to the first device among the texts received from at least one device based on this. It is possible to identify whether to translate the text of the language and provide it to the first device.
  • the control method if the control method identifies that text in a different language is translated and provided to the first device (Y), the translated text information may be provided to the first device (S850). Meanwhile, according to one embodiment, if it is identified that the text in a different language is provided to the first device without translation (N), the control method may provide the text in the different language to the first device (S860).
  • the processor 130 may translate text received from at least one device corresponding to a chat room into text in a different language and store the text. For example, if the received text is a Korean text, the processor 130 may translate and store it into different types of languages, including English and French.
  • the processor 130 selects the language corresponding to the first device among the pre-stored texts based on the information stored in the memory 120. The text can be identified and provided to the first device. For example, when the language corresponding to the first device is Korean, the processor 130 translates the text received from at least one device into Korean based on the information stored in the memory 120 to the communication interface 110. ) can be provided to the first device.
  • the processor 130 if the processor 130 identifies that the text in a different language is provided to the first device without translation, the processor 130 provides the text in the different language received from at least one device corresponding to the chat room to the first device. can be provided.
  • the electronic device 100 can provide a chat service taking into account the characteristics of each user, thereby increasing user satisfaction. .
  • the processor 130 may receive text information 80 (or text) from an external device (not shown).
  • the processor 130 receives Korean text corresponding to “Hello!” from a first device among at least one device corresponding to a single chat room, and sends the text to the at least one device corresponding to a single chat room. “Spoiler Alert!” comes from the second device. You can receive the corresponding English text.
  • the processor 130 may provide text information to at least one device corresponding to the chat room based on at least one type of toggle information received.
  • the processor 130 provides the first device based on at least one of toggle information about whether to receive text in a language different from the language provided by the first device and toggle information about whether to receive translated text. Text information (or text) can be provided through the device.
  • the processor 130 when toggle information for not receiving text in a language different from Korean, the language provided by the first device, is received, the processor 130 generates “Spoiler Alert” in a language different from Korean, the language provided by the first device. Text information 810 excluding text corresponding to “!” may be provided to the first device.
  • toggle information for receiving text in a language different from Korean, the language provided by the first device, and toggle information for receiving text translated into Korean, the language provided by the first device may be transmitted from the first device.
  • the processor 130 provides text information 820 including the text “No spoilers!” translated into “Spoiler Alert!”, which is a language different from Korean, the language provided by the first device, to the first device. It may be possible. In this case, the translated text may be previously stored in the memory 120.
  • the processor 130 may provide text information 830 including untranslated text “Spoiler Alert!”, which is a language different from Korean, the language provided by the first device, to the first device.
  • the processor 130 may provide a chat service based on communication status information.
  • communication status information refers to the type of signal being transmitted and received (e.g., digital signal or analog signal) or information about the method of transmitting and receiving signals (e.g., signal using a satellite). It may include at least one of a transmission and reception method or a signal transmission and reception method using a cable.
  • the processor 130 may provide a chat service based on the received communication status information.
  • delay information corresponding to the communication state may be stored in the memory 120, where the delay information corresponds to at least one of the size or ratio of the time for which the transmitted and received signal is delayed depending on the communication state. It means information about
  • the processor 130 identifies communication state information of the first device based on the received text, and sends delay information corresponding to the identified communication state information based on the information stored in the memory 120 to the first device. It can be identified by the delay information. Subsequently, the processor 130 may preferentially provide text equal to the delay time size identified as the first device among at least one device corresponding to the chat room.
  • the processor 130 may obtain and store metadata corresponding to each of a plurality of contents from an external device through the communication interface 110.
  • the processor 130 may obtain and store metadata corresponding to each of a plurality of contents from an external device including an external server (not shown) through the communication interface 110.
  • the processor 130 receives ID information and schedule information corresponding to each of a plurality of contents from a plurality of external servers (not shown), it sends the ID information and schedule information corresponding to the plurality of contents. It can also be mapped and stored in the memory 120.
  • the processor 130 may provide a chat room based on channel information corresponding to each of a plurality of contents.
  • channel information refers to type information of a broadcasting channel in which content is currently being broadcast or is scheduled to be broadcast.
  • the processor 130 may provide a chat room including channel information corresponding to the chat room based on channel information corresponding to each of a plurality of contents received from an external device through the communication interface 110.
  • the processor 130 may receive metadata corresponding to each of the plurality of contents and channel information corresponding to the plurality of contents from an external device through the communication interface 110.
  • Figure 9 is a diagram for explaining a method of obtaining fingerprint information according to an embodiment.
  • the processor 130 may obtain fingerprint information based on the acquired content information.
  • the processor 130 inputs video data 910 or Target Video Stream of the content included in the acquired content information into a VFP (Video Finger-Printing) module to generate fingerprint information about the acquired content. It can be obtained.
  • the image data 910 may include a plurality of image frames.
  • the VFP module 920 may group the obtained plurality of image frames into a plurality of groups. For example, the VFP module 920 may identify an image frame whose similarity to the first image frame is greater than or equal to a preset value among a plurality of acquired image frames and group it into the first group.
  • the VFP module 920 may extract a key frame from each of the plurality of groups including the first group, and output fingerprint information including information about the plurality of extracted key frames.
  • the processor 130 may obtain fingerprint information output from the VFP module 920.
  • the processor 130 may store the acquired fingerprint information and content information corresponding to the fingerprint information in the memory 120.
  • the processor 130 creates a fingerprint database 930 (or Finger Print Database) in which content information (e.g., content ID information or content title information) corresponding to the acquired fingerprint information is mapped. ) can be obtained and stored in the memory 120.
  • content information e.g., content ID information or content title information
  • the processor 130 when image data is received, the processor 130 inputs it to the VFP module to obtain fingerprint information for the received image data, and based on the fingerprint database 930 stored in the memory 120 Content information matching the acquired fingerprint can be obtained. Accordingly, the processor 130 may obtain content information of the acquired image data.
  • Figure 10 is a diagram for explaining a method of providing a chat room according to an embodiment.
  • the electronic device 100 includes a broadcast reception module 1010, an identification module 1020 for extracting feature information, a content data collection module 1030, and a feature information extraction module 1040. It may include a content identification module 1050 and a chat room provision module 1060.
  • the broadcast reception module 1010 may receive at least one broadcast content from an external device (not shown) through the communication interface 110.
  • the broadcast content may include the same content broadcast in different countries, and according to one example, content information corresponding to the broadcast content may also be received.
  • the identification module 1020 may identify whether to extract feature information of the received broadcast content based on the received broadcast content and the content information corresponding thereto.
  • the extraction identification module 1020 generates first identification information and second identification based on the first identification information corresponding to the first content and the second identification information corresponding to the second content included in the plurality of contents. By identifying whether the information matches, it is possible to identify whether to extract feature information.
  • the content data collection module 1030 may collect metadata corresponding to each of a plurality of contents. According to one example, the content data collection module 1030 may map ID information and corresponding schedule information corresponding to each of a plurality of contents received through the communication interface 110 and store them in the memory 120 .
  • the feature information extraction module 1040 identifies that feature information will be extracted through the feature information extraction identification module 1020, it extracts feature information (e.g., fingerprint information) from the image data included in the acquired content information. It can be extracted.
  • feature information e.g., fingerprint information
  • the identical content identification module 1050 can identify identical content among a plurality of received contents based on metadata acquired through the content data collection module 1030 and characteristic information acquired through the characteristic information extraction module 1040. there is. For example, the same content identification module 1050 generates first fingerprint information corresponding to the first content among the plurality of contents and the second finger corresponding to the second content among the plurality of contents through the feature information extraction module 1040. When the print information is obtained, it can be identified whether the first finger print information and the second finger print information have a similarity greater than a preset value.
  • the same content identification module 1050 identifies the first ID based on metadata acquired through the content data collection module 1030. First schedule information corresponding to the information and second schedule information corresponding to the second ID information can be identified. If the identified first schedule information and second schedule information match, the same content identification module 1050 may identify the first content and the second content as the same content.
  • the chat room providing module 1060 provides a single chat room for the first content and the second content. can do.
  • the chat room providing module 1060 groups at least one device receiving first content and at least one device receiving second content into the same group, and provides a chat service to a plurality of grouped devices. can be provided.
  • Figure 11 is a block diagram showing the detailed configuration of an electronic device according to an embodiment.
  • the electronic device 100' includes a communication interface 110, a memory 120, one or more processors 130, a microphone 140, a speaker 150, a display 160, and a user interface 170. And it may include at least one sensor 180.
  • a communication interface 110 includes a communication interface 110, a memory 120, one or more processors 130, a microphone 140, a speaker 150, a display 160, and a user interface 170. And it may include at least one sensor 180.
  • FIG. 11 detailed descriptions of configurations that overlap with those shown in FIG. 2 will be omitted.
  • the microphone 140 may refer to a module that acquires sound and converts it into an electrical signal, and may be a condenser microphone, ribbon microphone, moving coil microphone, piezoelectric element microphone, carbon microphone, or MEMS (Micro Electro Mechanical System) microphone. Additionally, it can be implemented in omni-directional, bi-directional, uni-directional, sub-cardioid, super-cardioid, and hyper-cardioid ways.
  • the electronic device 100' performs an operation corresponding to a user voice signal received through the microphone 140.
  • the electronic device 100 ′ may control the display 160 based on a user voice signal received through the microphone 140 . For example, when a user voice signal for displaying A content is received, the electronic device 100' may control the display 160 to display A content.
  • the electronic device 100' may control an external display device connected to the electronic device 100' based on a user's voice signal received through the microphone 140. Specifically, the electronic device 100' may provide a control signal for controlling the external display device so that an operation corresponding to the user's voice signal is performed on the external display device, and may transmit the provided control signal to the external display device.
  • the electronic device 100' may store a remote control application for controlling an external display device. Additionally, the electronic device 100' may transmit the provided control signal to an external display device using at least one communication method among Bluetooth, Wi-Fi, or infrared.
  • the electronic device 100' may transmit a control signal for controlling display of content A on the external display device to the external display device.
  • the electronic device 100' may refer to various terminal devices that can install a remote control application, such as a smartphone or AI speaker.
  • the electronic device 100' may use a remote control device to control an external display device connected to the electronic device 100' based on the user's voice signal received through the microphone 140. Specifically, the electronic device 100' may transmit a control signal for controlling the external display device to the remote control device so that an operation corresponding to the user's voice signal is performed on the external display device. Additionally, the remote control device may transmit the control signal received from the electronic device 100' to an external display device. For example, when a user voice signal for displaying content A is received, the electronic device 100' transmits a control signal for controlling display of content A on an external display device to the remote control device, and the remote control device The received control signal can be transmitted to an external display device.
  • the speaker 150 includes a tweeter for reproducing high-pitched sounds, a midrange for reproducing mid-range sounds, a woofer for reproducing low-pitched sounds, a subwoofer for reproducing extremely low-pitched sounds, an enclosure for controlling resonance, and an input to the speaker. It may be composed of a crossover network that divides the electrical signal frequencies into bands.
  • the speaker 150 may output an acoustic signal to the outside of the electronic device 100'.
  • the speaker 150 can output multimedia playback, recording playback, various notification sounds, voice messages, etc.
  • the electronic device 100' may include an audio output device such as the speaker 150, or may include an output device such as an audio output terminal.
  • the speaker 150 can provide acquired information, information processed and produced based on the acquired information, response results to the user's voice, or operation results, etc. in voice form.
  • the display 160 may be implemented as a display including a self-emitting device or a display including a non-emitting device and a backlight.
  • a display including a self-emitting device or a display including a non-emitting device and a backlight.
  • LCD Liquid Crystal Display
  • OLED Organic Light Emitting Diodes
  • LED Light Emitting Diodes
  • micro LED micro LED
  • Mini LED Plasma Display Panel
  • QD Quantum dot
  • QLED Quantum dot light-emitting diodes
  • the display 160 may also include a driving circuit and a backlight unit that may be implemented in the form of a-si TFT, low temperature poly silicon (LTPS) TFT, or organic TFT (OTFT).
  • LTPS low temperature poly silicon
  • OFT organic TFT
  • the display 160 is implemented as a touch screen combined with a touch sensor, a flexible display, a rollable display, a 3D display, a display in which a plurality of display modules are physically connected, etc. It can be.
  • the processor 130 may control the display 160 to output the output image obtained according to the various embodiments described above.
  • the output image may be a high-resolution image of 4K or 8K or higher.
  • the electronic device 100' may not include the display 160.
  • the electronic device 100' can be connected to an external display device and can transmit images or content stored in the electronic device 100' to the external display device.
  • the electronic device 100' may transmit an image or content to an external display device along with a control signal for controlling the image or content to be displayed on the external display device.
  • the external display device may be connected to the electronic device 100' through the communication interface 110 or the input/output interface 190.
  • the electronic device 100' may not include a display like a set top box (STB).
  • the electronic device 100' may include only a small display capable of displaying only simple information such as text information.
  • the electronic device 100' may transmit images or content to an external display device wired or wirelessly through the communication interface 110, or may transmit the image or content to an external display device through the input/output interface 190.
  • the user interface 170 is a configuration that allows the electronic device 100' to interact with a user.
  • the user interface 170 may include at least one of a touch sensor, a motion sensor, a button, a jog dial, a switch, a microphone, or a speaker, but is not limited thereto.
  • At least one sensor 180 may include a plurality of sensors of various types.
  • the sensor 180 may measure a physical quantity or detect the operating state of the electronic device 100' and convert the measured or sensed information into an electrical signal.
  • the sensor 180 may include a camera, and the camera may include a lens that focuses visible light and other optical signals reflected by an object and received into an image sensor, and an image sensor that can detect visible light and other optical signals.
  • the image sensor may include a 2D pixel array divided into a plurality of pixels.
  • the input/output interface 190 includes HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP (Display Port), Thunderbolt, VGA (Video Graphics Array) port, It may be any one of an RGB port, D-SUB (D-subminiature), or DVI (Digital Visual Interface).
  • the input/output interface 190 can input and output at least one of audio and video signals.
  • the input/output interface 190 may include a port that inputs and outputs only audio signals and a port that inputs and outputs only video signals as separate ports, or may be implemented as a single port that inputs and outputs both audio signals and video signals.
  • the electronic device 100' may transmit at least one of an audio and video signal to an external device (eg, an external display device or an external speaker) through the input/output interface 190.
  • an external device eg, an external display device or an external speaker
  • the output port included in the input/output interface 190 may be connected to an external device, and the electronic device 100' may transmit at least one of an audio and video signal to the external device through the output port.
  • the electronic device identifies the same content among the plurality of contents by considering the characteristic information of each of the plurality of contents received, provides a single chat room for the device corresponding to the same content, and provides the provided chat room. Chatting services can be provided by considering the characteristics of each device included in the chat room. Accordingly, user satisfaction can be improved.
  • the methods according to various embodiments of the present disclosure described above may be implemented in the form of an application that can be installed on an existing robot.
  • the methods according to various embodiments of the present disclosure described above may be performed using a deep learning-based learned neural network (or deep learned neural network), that is, a learning network model.
  • the methods according to various embodiments of the present disclosure described above may be implemented only by upgrading software or hardware for an existing robot.
  • the various embodiments of the present disclosure described above can also be performed through an embedded server provided in the robot or an external server of the robot.
  • the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer).
  • the device is a device capable of calling instructions stored from a storage medium and operating according to the called instructions, and may include a display device (eg, display device A) according to the disclosed embodiments.
  • the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor.
  • Instructions may contain code provided or executed by a compiler or interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored semi-permanently or temporarily in the storage medium.
  • the methods according to various embodiments described above may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play StoreTM).
  • an application store e.g. Play StoreTM
  • at least a portion of the computer program product may be at least temporarily stored or provided temporarily in a storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component e.g., module or program
  • each component may be composed of a single or multiple entities, and some of the sub-components described above may be omitted, or other sub-components may be omitted. Additional components may be included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 통신 인터페이스, 제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)가 저장된 메모리 및 통신 인터페이스를 통해 수신된 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 수신된 제1 컨텐츠 정보 및 제2 컨텐츠 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하고, 수신된 컨텐츠 정보, 획득된 특징 정보 및 메모리에 저장된 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠이면, 제1 컨텐츠 및 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 하나 이상의 프로세서를 포함한다.

Description

전자 장치 및 이의 제어 방법
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 추출된 컨텐츠의 특징 정보 및 식별 정보를 고려하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 이에 기초하여 동일한 컨텐츠를 시청하는 사용자를 위한 채팅 룸(Chatting Room)을 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 기기가 개발 및 보급되고 있다. 특히, 디스플레이를 통해 사용자에게 컨텐츠를 제공하면서 동시에 채팅 서비스까지 수행할 수 있는 전자 장치에 대한 기술 개발이 활발해지고 있다.
특히, 복수의 국가에서 동시에 생중계되는 컨텐츠의 경우, 동일한 컨텐츠를 시청하는 상이한 국가의 사용자들이 동일한 채팅 룸에서 채팅할 수 있다. 한편, 국가 별로 컨텐츠 송출하는 방송사가 상이하기 때문에, 동일한 컨텐츠의 경우에도 국가 별로 상이한 컨텐츠 ID를 가지고 있을 수 있다는 문제가 있다. 동일한 컨텐츠를 시청하는 상이한 국가의 사용자들이 동일한 채팅 룸에서 채팅하기 위하여, 복수의 컨텐츠 중에서 동일한 컨텐츠를 정확히 식별하는 기술이 필요하다.
또한, 동일한 컨텐츠를 시청하는 상이한 국가의 사용자들이 동일한 채팅 룸에서 채팅하는 경우, 사용자 개개인의 특성을 고려하여 채팅 서비스가 제공되어야 한다. 예를 들어, 사용자는 자신의 언어와 상이한 언어로 입력된 채팅이 수신되지 않기를 원할 수 있다. 또는, 사용자는 상이한 언어로 입력된 채팅이 자신의 언어와 동일한 언어로 번역된 채팅이 수신되기를 원할 수도 있다.
본 개시의 일 실시 예에 따른 전자 장치는, 통신 인터페이스, 제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)가 저장된 메모리 및 상기 통신 인터페이스를 통해 수신된 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 수신된 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하는 하나 이상의 프로세서를 포함할 수 있다.
상기 하나 이상의 프로세서는, 상기 수신된 제1 컨텐츠 정보 및 제2 컨텐츠 정보, 상기 획득된 특징 정보 및 상기 메모리에 저장된 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 단일한 채팅 룸(Chatting Room)을 제공할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 중 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하는 단계를 포함할 수 있다.
상기 제어 방법은, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보, 상기 획득된 특징 정보 및 메모리에 저장된 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 단계를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은 제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 중 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하는 단계를 포함할 수 있다.
상기 동작은, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보, 상기 식별된 특징 정보 및 메모리에 저장된 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 단계를 포함할 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시 예에 따른 컨텐츠 정보, 특징 정보 및 메타 데이터를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 시차 정보를 고려하여 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 영상 프레임 정보에 기초하여 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
도 8a 및 8b는 일 실시 예에 따른 채팅 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 핑거 프린트 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 채팅 룸 제공 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 설명하기 위한 도면이다.
도 1에 따르면, 일 실시 예에 따라 전자 장치(10)는 복수의 외부 디바이스(20-1 내지 20-3)와 데이터를 송수신할 수 있다. 일 예에 따라, 전자 장치(10)는 서버로 구현될 수 있으나, 이에 한정되는 것은 아니다. 복수의 디바이스(20-1 내지 20-3)는 예를 들어 전자 장치(10)는 예를 들어, 스마트 TV, 태블릿, 모니터, 스마트 폰, 데스크톱 컴퓨터, 랩톱 컴퓨터 등과 같이 사용자 입력에 대응되는 컨텐츠를 제공할 수 있는 다양한 장치로 구현될 수 있다. 한편, 일 실시 예에 따라 전자 장치(10)는 동일한 컨텐츠를 표시하는 복수의 디바이스(20-1 내지 20-3)가 존재하는 경우, 동일한 컨텐츠를 표시하는 복수의 디바이스(20-1 내지 20-3)에 대한 채팅 룸(Chatting Room)을 제공하고, 이에 기초하여 채팅 서비스를 제공할 수 있다.
일 실시 예에 따라 전자 장치(10)는 외부 서버(미도시) 등으로부터 복수의 방송 컨텐츠를 수신할 수 있다. 이 경우, 복수의 방송 컨텐츠 각각에 대응되는 디바이스(또는, 복수의 방송 컨텐츠 각각을 표시하는 디바이스)가 존재하며, 각각의 디바이스는 대응되는 방송 컨텐츠를 표시할 수 있다.
한편, 일 예에 따라 동일한 방송 컨텐츠의 경우에도 상이한 국가 또는 상이한 방송사에 따라 수신되는 컨텐츠 식별 정보가 상이할 수 있다. 전자 장치(10)는 수신된 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 이에 기초하여 동일한 컨텐츠를 표시하는 디바이스를 식별함으로써 동일한 컨텐츠를 표시하는 복수의 디바이스에 대한 채팅 룸(Chatting Room)을 제공할 수 있다.
일 실시 예에 따라 채팅 룸이 제공된 경우, 전자 장치(10)는 채팅 룸에 대응되는(또는, 포함되는) 복수의 디바이스 각각의 설정 정보에 기초하여 채팅 서비스를 제공할 수 있다. 일 예에 따라, 전자 장치(10)는 복수의 디바이스 중 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트 정보를 제1 디바이스로 제공할지 여부에 대한 정보 또는 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트 정보를 번역하여 제1 디바이스로 제공할지 여부에 대한 정보를 수신하고, 이에 기초하여 채팅 서비스를 제공할 수 있다.
이에 따라, 이하에서는 수신된 복수의 컨텐츠 각각의 특징 정보를 고려하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 동일한 컨텐츠에 대응되는 디바이스에 대한 채팅 룸을 제공하고, 제공된 채팅 룸에 포함된 디바이스 각각의 특성을 고려하여 채팅 서비스를 제공하는 다양한 실시 예에 대하여 설명하도록 한다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 2에 따르면, 전자 장치(100)는 통신 인터페이스(110), 메모리(120) 및 하나 이상의 프로세서(130)를 포함할 수 있다.
일 실시 예에 따라 전자 장치(100)는 서버로 구현될 수 있다. 한편, 외부 서버는 다양한 방식으로 전자 장치(100)에 정보를 전송할 수 있다. 일 실시 예에 따라, 외부 서버는 사용자 음성 신호에 대응되는 텍스트 정보를 전자 장치(100)에 전송할 수 있다. 구체적으로, 외부 서버는 사용자 음성 신호를 텍스트 정보로 변환하는 음성 인식 기능을 수행하는 서버일 수 있다.
다른 실시 예에 따라, 외부 서버는 사용자 음성 신호에 대응되는 텍스트 정보 또는 텍스트 정보에 대응되는 검색 결과 정보 중 적어도 하나를 전자 장치(100)에 전송할 수 있다. 구체적으로, 외부 서버는 사용자 음성 신호를 텍스트 정보로 변환하는 음성 인식 기능 이외에 텍스트 정보에 대응되는 검색 결과 정보를 제공하는 검색 결과 제공 기능을 수행하는 서버일 수 있다. 일 예로, 외부 서버는 음성 인식 기능 및 검색 결과 제공 기능을 모두 수행하는 서버일 수 있다. 다른 예로, 외부 서버는 음성 인식 기능만을 수행하고 검색 결과 제공 기능은 별도의 서버에서 수행될 수 있다. 외부 서버는 검색 결과를 획득하기 위하여 별도의 서버에 텍스트 정보를 전송하고 별도의 서버로부터 텍스트 정보에 대응되는 검색 결과를 획득할 수 있다.
한편, 전자 장치(100)는 다양한 방식으로 외부 장치 및 외부 서버와 통신 연결할 수 있다. 일 실시 예에 따라, 외부 장치 및 외부 서버와의 통신을 위한 통신 모듈이 동일하게 구현될 수 있다. 예를 들어, 전자 장치(100)는 외부 장치와는 블루투스 모듈을 이용하여 통신하고, 외부 서버도 역시 블루투스 모듈을 이용하여 통신할 수 있다.
다른 실시 예에 따라, 외부 장치 및 외부 서버와의 통신을 위한 통신 모듈은 별개로 구현될 수 있다. 예를 들어, 전자 장치(100)는 외부 장치와는 블루투스 모듈을 이용하여 통신하고, 외부 서버와는 이더넷 모뎀 또는 와이파이 모듈을 이용하여 통신할 수 있다.
일 실시 예에 따라, 전자 장치(100)는 전반적인 동작을 자체적으로 수행할 수 있다. 또는, 일 실시 예에 따라, 전자 장치(100)는 특징 정보를 획득하는 동작을 수행하고, 이외의 동작은 외부 서버에서 수행할 수 있다. 또는, 전자 장치(100)는 채팅 룸(Chatting Room)을 제공하는 동작을 수행하고, 이외의 동작은 외부 서버에서 수행할 수도 있다. 또는, 일 실시 예에 따라, 전자 장치는 제1 컨텐츠 정보에 포함된 제1 식별 정보와 상기 제2 컨텐츠 정보에 포함된 제2 식별 정보가 매칭되는지 여부를 식별하는 동작을 수행하고, 이외의 동작은 외부 서버에서 수행할 수도 있다. 즉, 여기서 설명된 동작들은 구현 예에 따라 동작 주체가 변경될 수 있음은 물론이다.
통신 인터페이스(110)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(110)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다.
일 예에 따라 통신 인터페이스(110)는 원격 제어 장치와 같은 외부 장치 및 외부 서버와 통신하기 위해 동일한 통신 모듈(예를 들어, 와이파이 모듈)을 이용할 수 있다.
일 예에 따라 통신 인터페이스(110)는 원격 제어 장치와 같은 외부 장치 및 외부 서버와 통신하기 위해 상이한 통신 모듈을 이용할 수 있다. 예를 들어, 통신 인터페이스(110)는 외부 서버와 통신하기 위해 이더넷 모듈 또는 와이파이 모듈 중 적어도 하나를 이용할 수 있고, 원격 제어 장치와 같은 외부 장치와 통신하기 위해 블루투스 모듈을 이용할 수도 있다. 다만 이는 일 실시 예에 불과하며 통신 인터페이스(110)는 복수의 외부 장치 또는 외부 서버와 통신하는 경우 다양한 통신 모듈 중 적어도 하나의 통신 모듈을 이용할 수 있다.
메모리(120)는 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(120)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위 한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다.
한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 실시 예에 따라, 메모리(120)에는 제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)가 저장되어 있을 수 있다. 일 예에 따라, 메타 데이터는 복수의 컨텐츠 각각에 대응되는 ID 정보 및 스케쥴 정보 중 적어도 하나를 포함할 수 있다.
컨텐츠의 ID 정보는 일 예에 따라 컨텐츠 각각에 대응되는 숫자 타입의 정보일 수 있으나, 이에 한정되는 것은 아니며 컨텐츠의 타이틀 정보일 수도 있다. 컨텐츠 각각에 대응되는 숫자 타입의 정보는 기 설정된 규칙에 따라 생성된 정보이며, 컨텐츠에 따라 상이한 값의 ID 정보를 가질 수 있다. 한편, 스케쥴 정보는 컨텐츠의 방송(Broadcast) 시간 정보이며, 일 예에 따라 스케쥴 정보는 컨텐츠의 방송 시작 시간 및 방송 종료 시간에 대한 정보를 포함할 수 있다. 메모리(120)에는 ID 정보 각각에 대응되는 스케쥴 정보가 맵핑되어 있을 수 있다.
하나 이상의 프로세서(130)(이하, 프로세서)는 통신 인터페이스(110) 및 메모리(120)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수 있다. 구체적으로, 프로세서(130)는 메모리(120)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 본 개시의 다양한 실시 예에 따른 전자 장치(100)의 동작을 수행할 수 있다.
일 실시 예에 따라 프로세서(130)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, NPU (Neural Processing Unit), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, ASIC(application specific integrated circuit), FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
일 실시 예에 따라 프로세서(130)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
일 실시 예에 따라, 하나 이상의 프로세서(130)는 제1 컨텐츠 정보 및 제2 컨텐츠 정보를 수신할 수 있다. 일 예에 따라 컨텐츠는 영상 타입의 컨텐츠일 수 있다. 한편, 컨텐츠 정보는 일 예에 따라 컨텐츠의 식별 정보 및 영상 데이터 중 적어도 하나를 포함할 수 있으며, 컨텐츠의 식별 정보는 컨텐츠의 ID 정보 또는 수신된 컨텐츠의 국가 타입 정보를 포함할 수 있다. 이에 대하여는 도 4를 통해 자세히 설명하도록 한다.
일 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 외부 디바이스(예를 들어, 서버)로부터 제1 컨텐츠 정보 및 제2 컨텐츠 정보를 포함하는 복수의 컨텐츠 정보를 수신할 수 있다. 여기서, 제1 컨텐츠 및 제2 컨텐츠는 동일한 컨텐츠일 수도 있다.
일 실시 예에 따라, 프로세서(130)는 제1 컨텐츠 정보와 제2 컨텐츠 정보가 매칭되는지 여부를 식별할 수 있다.
일 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 제2 컨텐츠에 대한 제2 컨텐츠 정보가 수신되면, 수신된 제1 컨텐츠 정보에 포함된 제1 식별 정보와 제2 컨텐츠 정보에 포함된 제2 식별 정보가 매칭되는지 여부를 식별할 수 있다. 예를 들어, 프로세서(130)는 제1 식별 정보 및 제2 식별 정보가 수신되면, 수신된 제1 식별 정보에 포함된 제1 국가 타입 정보 및 제1 ID 정보를 제2 식별 정보에 포함된 제2 국가 타입 정보 및 제2 ID 정보와 대응되는 타입 별로 비교하여 제1 식별 정보와 제2 식별 정보가 매칭되는지 여부를 식별할 수 있다.
예를 들어, 프로세서(130)는 제1 식별 정보와 제2 식별 정보의 국가 타입 정보 또는 ID 정보 중 적어도 하나가 일치하지 않으면, 제1 식별 정보와 제2 식별 정보가 매칭되지 않는 것으로 식별할 수 있다. 또는, 예를 들어 프로세서(130)는 제1 국가 타입 정보와 제2 국가 타입 정보가 일치하고, 제1 ID 정보와 제2 ID 정보가 일치하는 경우 제1 식별 정보와 제2 식별 정보가 매칭되는 것으로 식별할 수 있다.
일 실시 예에 따라, 프로세서(130)는 제1 식별 정보와 제2 식별 정보가 매칭되지 않으면, 수신된 제1 컨텐츠 정보 및 제2 컨텐츠 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 각각에 대응되는 특징 정보를 획득할 수 있다.
특징 정보는 컨텐츠에 포함된 영상 데이터를 가공하여 획득되는 정보이다. 일 예에 따라 컨텐츠의 특징 정보는 컨텐츠에 대응되는 핑거 프린트(Finger-Print) 정보 또는 컨텐츠에 대응되는 영상 프레임 정보 중 적어도 하나를 포함할 수 있다. 즉, 특징 정보는 컨텐츠의 타입에 따라 상이한 값을 가지게 된다. 한편, 일 예에 따라 특징 정보는 숫자 타입의 정보 또는 이미지 타입의 정보 중 하나일 수 있으나, 이에 한정되는 것은 아니다. 핑거 프린트 정보를 획득하는 방법에 대하여는 도 9를 통해 자세히 설명하도록 한다.
일 예에 따라, 프로세서(130)는 제1 식별 정보와 제2 식별 정보가 매칭되지 않으면, 수신된 제1 컨텐츠 정보에 포함된 영상 데이터에 기초하여 제1 컨텐츠에 대응되는 제1 핑거 프린트 정보를 획득할 수 있고, 수신된 제2 컨텐츠 정보에 포함된 영상 데이터에 기초하여 제2 컨텐츠에 대응되는 제2 핑거 프린트 정보를 획득할 수 있다.
일 실시 예에 따라, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인지 식별할 수 있다. 일 예에 따라, 프로세서(130)는 수신된 컨텐츠 정보, 획득된 특징 정보 및 메모리(120)에 저장된 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인지 식별할 수 있다.
예를 들어, 먼저 프로세서(130)는 획득된 제1 핑거 프린트 정보가 제2 핑거 프린트 정보와 기 설정된 값 이상의 유사도를 갖는지 식별할 수 있다. 제1 핑거 프린트 정보와 제2 핑거 프린트 정보가 기 설정된 값 이상의 유사도를 갖는 것으로 식별되면, 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 제2 ID 정보에 대응되는 제2 스케쥴 정보를 식별할 수 있다. 프로세서(130)는 식별된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다. 이에 대하여는 도 5를 통해 자세히 설명하도록 한다.
일 실시 예에 따라 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠로 식별되면, 제1 컨텐츠 및 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공할 수 있다. 프로세서(130)는 제공된 채팅 룸 내 포함된 적어도 하나의 디바이스를 동일한 그룹으로 식별할 수 있다. 동일한 그룹에 속한 적어도 하나의 디바이스로부터 수신된 채팅 메시지가 실시간으로 수신되면, 프로세서(130)는 수신된 채팅 메시지를 동일한 그룹 내 적어도 하나의 디바이스로 전송함으로써 사용자에게 채팅 서비스를 제공할 수 있다.
예를 들어, 프로세서(130)는 제1 컨텐츠를 수신하는 적어도 하나의 디바이스와 제2 컨텐츠를 수신하는 적어도 하나의 디바이스를 동일한 그룹으로 식별하고, 제1 컨텐츠를 수신하는 적어도 하나의 디바이스와 제2 컨텐츠를 수신하는 적어도 하나의 디바이스가 포함된 단일한 채팅 룸을 제공할 수 있다.
도 3은 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 3에 따르면, 먼저 일 실시 예에 따라 제어 방법은 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 제2 컨텐츠에 대한 제2 컨텐츠 정보가 수신되는지 여부를 식별할 수 있다(S310).
이어서, 일 실시 예에 따라 제어 방법은 제1 컨텐츠 정보 및 제2 컨텐츠 정보가 수신되면(Y), 수신된 제1 컨텐츠 정보에 포함된 제1 식별 정보와 제2 컨텐츠 정보에 포함된 제2 식별 정보가 매칭되는지 여부를 식별할 수 있다(S320). 일 예에 따라, 프로세서(130)는 제1 식별 정보에 포함된 제1 국가 타입 정보 및 제1 ID 정보를 제2 식별 정보에 포함된 제2 국가 타입 정보 및 제2 ID 정보와 대응되는 타입 별로 비교할 수 있다.
예를 들어, 프로세서(130)는 제1 컨텐츠에 대응되는 제1 국가 타입 정보가 '미국'이고, 제2 컨텐츠에 대응되는 제2 국가 타입 정보가 '한국'인 경우, 제1 식별 정보와 제2 식별 정보가 매칭되지 않는 것으로 식별할 수 있다. 또는, 제1 컨텐츠에 대응되는 제1 ID 정보와 제2 컨텐츠에 대응되는 제2 ID 정보가 상이한 경우, 프로세서(130)는 제1 식별 정보와 제2 식별 정보가 매칭되지 않는 것으로 식별할 수도 있다.
이어서, 일 실시 예에 따라 제어 방법은 제1 식별 정보와 제2 식별 정보가 매칭되지 않는 것으로 식별되면(N), 수신된 제1 컨텐츠 정보 및 제2 컨텐츠 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 각각에 대응되는 특징 정보를 획득할 수 있다(S330). 일 예에 따라, 프로세서(130)는 제1 컨텐츠에 포함된 영상 데이터에 기초하여 제1 컨텐츠의 제1 핑거 프린트 정보를 획득하고, 제2 컨텐츠에 포함된 영상 데이터에 기초하여 제2 컨텐츠의 제2 핑거 프린트 정보를 획득할 수 있다. 핑거 프린트 정보를 획득하는 구체적인 방법에 대하여는 도 9를 통해 자세히 설명하도록 한다.
이어서, 일 실시 예에 따라 제어 방법은 수신된 컨텐츠 정보, 식별된 특징 정보 및 메모리(120)에 저장된 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)에 기초하여 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인지 식별할 수 있다(S340).
일 예에 따라, 프로세서(130)는 먼저 획득된 제1 핑거 프린트 정보와 제2 핑거 프린트 정보가 기 설정된 값 이상의 유사도(예를 들어, 0.9)를 가지는지 식별할 수 있다. 이어서, 기 설정된 값 이상의 유사도를 가지는 것으로 식별되면, 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 식별 정보에 포함된 ID 정보에 대응되는 스케쥴 정보를 식별할 수 있다. 이어서, 프로세서(130)는 식별된 제1 컨텐츠의 제1 스케쥴 정보와 제2 컨텐츠에 대응되는 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다.
이어서, 일 실시 예에 따라 제어 방법은 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인지 여부(S350)를 식별하여, 동일 컨텐츠로 식별되는 경우(Y) 제1 컨텐츠 및 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공할 수 있다(S360). 일 예에 따라, 프로세서(130)는 제1 컨텐츠를 수신하는 적어도 하나의 디바이스와 제2 컨텐츠를 수신하는 적어도 하나의 디바이스를 동일한 그룹으로 식별하고, 제1 컨텐츠를 수신하는 적어도 하나의 디바이스와 제2 컨텐츠를 수신하는 적어도 하나의 디바이스가 포함된 단일한 채팅 룸을 제공할 수 있다.
이에 따라, 전자 장치(100)는 상이한 국가에서 동시에 방송되는 동일한 컨텐츠의 국가 코드 또는 컨텐츠 ID가 상이한 경우에도, 컨텐츠의 특징 정보를 고려하여 복수의 컨텐츠 중에서 동일한 컨텐츠를 식별할 수 있고, 이에 기초하여 동일한 컨텐츠를 수신하는 디바이스가 포함된 단일한 채팅 룸을 제공할 수 있게 된다.
도 4는 일 실시 예에 따른 컨텐츠 정보, 특징 정보 및 메타 데이터를 설명하기 위한 도면이다.
도 4에 따르면, 일 실시 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 영상 데이터(410) 및 식별 정보(420)를 포함하는 컨텐츠 정보(400)를 수신할 수 있다. 일 예에 따라, 영상 데이터(410)는 컨텐츠에 대응되는 프리뷰(preview) 영상 데이터일 수 있으나, 이에 한정되는 것은 아니며 기 설정된 크기 이상의 데이터 크기를 갖는 영상 데이터일 수도 있음은 물론이다.
한편, 일 실시 예에 따라 프로세서(130)는 영상 데이터(410)로부터 컨텐츠에 대응되는 특징 정보(411)를 획득할 수 있다. 일 예에 따라 특징 정보는 컨텐츠에 대응되는 핑거 프린트(Finger-Print) 정보 또는 컨텐츠에 대응되는 영상 프레임 정보 중 적어도 하나를 포함할 수 있다. 일 예에 따라, 영상 데이터(410)가 프리뷰 영상 데이터인 경우, 프로세서(130)는 기 설정된 알고리즘에 기초하여 영상 데이터로부터 컨텐츠의 핑거 프린트 정보를 획득할 수 있다. 이 경우, 핑거 프린트 정보는 숫자 타입의 정보일 수 있으나 이에 한정되는 것은 아니다.
또는, 일 예에 따라 프로세서(130)는 수신된 영상 데이터(410)로부터 컨텐츠의 영상 프레임 정보를 획득할 수도 있다. 예를 들어, 프로세서(130)는 수신된 영상 데이터(410)가 프리뷰 데이터가 아닌 실시간 방송 데이터인 경우(또는, 컨텐츠가 현재 스트리밍 중인 경우), 실시간 방송 데이터로부터 기 설정된 시점에서의 영상 프레임 정보를 획득할 수 있다. 이 경우, 영상 프레임 정보는 이미지 타입의 정보일 수 있다.
즉, 컨텐츠가 아직 방송되기 이전인 경우, 프로세서(130)는 통신 인터페이스(110)를 통해 컨텐츠에 대응되는 프리뷰 데이터를 수신할 수 있으며, 이에 기초하여 컨텐츠에 대응되는 핑거 프린트 정보를 획득할 수 있다. 한편, 컨텐츠가 현재 방송 중인 경우, 프로세서(130)는 실시간 영상 데이터로부터 기 설정된 시점에서의 영상 프레임 정보를 획득할 수도 있다. 다만, 이에 한정되는 것은 아니며, 컨텐츠가 방송되기 이전인 경우에도 컨텐츠의 영상 프레임 정보를 획득할 수도 있음은 물론이며, 컨텐츠가 방송중인 경우에도 수신된 영상 데이터에 기초하여 컨텐츠에 대응되는 핑거 프린트 정보를 획득할 수도 있음은 물론이다.
한편, 일 실시 예에 따라 식별 정보(420)는 컨텐츠에 대응되는 ID 정보(421) 또는 국가 타입 정보(422) 중 적어도 하나를 포함할 수 있다. 컨텐츠에 대응되는 ID 정보는 숫자 타입의 정보일 수 있으나, 이에 한정되는 것은 아니며 일 예에 따라 ID 정보는 텍스트 정보일 수도 있다. 일 예에 따라, 국가 타입 정보(422)는 컨텐츠에 대응되는 영상 데이터와 함께 통신 인터페이스(110)를 통해 수신될 수 있으며, 예를 들어 프랑스, 한국 또는 미국 등 상이한 국가 별로 상이한 값의 국가 타입 정보를 가질 수 있다. 또는, 일 예에 따라 국가 타입 정보(422)는 국가 내 포함된 상이한 도시 타입 정보를 포함할 수도 있다. 예를 들어, 단일한 국가 내에서도 상이한 시차를 가지는 도시가 존재하는 경우가 존재할 수 있으며, 이 경우 국가 내 포함된 상이한 도시 타입 정보가 컨텐츠와 함께 수신될 수도 있다.
한편, 일 실시 예에 따라 메모리(120)에는 복수의 컨텐츠 각각에 대응되는 메타 데이터(430)가 저장되어 있을 수 있다. 일 예에 따라, 메타 데이터(430)는 컨텐츠에 대응되는 ID 정보 및 ID 정보에 대응되는 스케쥴 정보가 저장되어 있을 수 있다. 일 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 수신된 컨텐츠의 ID 정보(421)와 메모리(120)에 저장된 ID 정보를 비교하여, 수신된 컨텐츠에 대응되는 스케쥴 정보를 식별할 수 있다. 스케쥴 정보는 컨텐츠의 방송(Broadcast) 시간 정보이며, 일 예에 따라 스케쥴 정보는 컨텐츠의 방송 시작 시간 및 방송 종료 시간에 대한 정보를 포함할 수 있다.
일 예에 따라 프로세서(130)는 식별된 스케쥴 정보에 기초하여 수신된 컨텐츠의 타입을 식별할 수 있다. 여기서, 컨텐츠의 타입은 실시간 방송 컨텐츠 또는 재방송되는 컨텐츠 중 어느 하나이다. 예를 들어, 제1 컨텐츠 및 제2 컨텐츠의 핑거 프린트 정보는 매칭되나 제1 컨텐츠 및 제2 컨텐츠의 스케쥴 정보는 상이한 것으로 식별된 경우, 프로세서(130)는 식별된 스케쥴 정보에 기초하여 상대적으로 앞선 시점의 스케쥴에 대응되는 컨텐츠는 실시간 방송 컨텐츠이고, 나머지 컨텐츠는 재방송 컨텐츠인 것으로 식별할 수 있다.
도 5는 일 실시 예에 따른 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
도 5에 따르면, 먼저 일 실시 예에 따라 제어 방법은 제1 컨텐츠에 대응되는 제1 핑거 프린트 정보가 제2 컨텐츠에 대응되는 제2 핑거 프린트 정보와 기 설정된 값 이상의 유사도를 갖는지 식별할 수 있다(S510). 일 예에 따라, 프로세서(130)는 제1 핑거 프린트 정보와 제2 핑거 프린트 정보를 비교하여 기 설정된 값(예를 들어, 0.90) 이상의 유사도를 갖는지 여부를 식별할 수 있다.
이어서, 일 실시 예에 따라 기 설정된 값 이상의 유사도를 갖는 것으로 식별되면(Y), 제어 방법은 메모리(120)에 저장된 정보에 기초하여 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 제2 ID 정보에 대응되는 제2 스케쥴 정보를 식별할 수 있다(S520). 일 예에 따라, 메모리(120)에는 복수의 컨텐츠에 대한 ID 정보 및 각각의 ID 정보에 대응되는 스케쥴 정보가 저장되어 있을 수 있다. 프로세서(130)는 수신된 메모리(120)에 저장된 ID 정보 중 제1 ID 정보와 동일한 ID 정보를 식별하고, 식별된 ID 정보에 대응되는 스케쥴 정보를 식별함으로써 수신된 제1 ID 정보에 대응되는 제1 스케쥴 정보를 식별할 수 있다. 또한, 프로세서(130)는 수신된 메모리(120)에 저장된 ID 정보 중 제2 ID 정보와 동일한 ID 정보를 식별하고, 식별된 ID 정보에 대응되는 스케쥴 정보를 식별함으로써 수신된 제2 ID 정보에 대응되는 제2 스케쥴 정보를 식별할 수 있다.
이어서, 일 실시 예에 따라 제어 방법은 식별된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다. 일 예에 따라, 프로세서(130)는 식별된 제1 스케쥴 정보 및 제2 스케쥴 정보를 비교하여 제1 스케쥴 정보와 제2 스케쥴 정보가 일치하는 경우, 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되는 것으로 식별할 수 있다. 이어서, 프로세서(130)는 제1 스케쥴 정보에 대응되는 제1 컨텐츠 및 제2 스케쥴 정보에 대응되는 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다.
다만, 이에 한정되는 것은 아니며, 일 실시 예에 따라 프로세서(130)는 메모리(120)에 저장된 시차 정보에 기초하여 업데이트된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되는지 여부를 식별할 수도 있다. 이는 하기의 도 6을 통해 자세히 설명하도록 한다.
도 6은 일 실시 예에 따른 시차 정보를 고려하여 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 메모리(120)에는 복수의 국가 타입 각각에 대응되는 시차(Time difference) 정보가 저장되어 있을 수 있다. 여기서, 시차는 지구상의 두 지점의 지방시(local time)의 차이를 의미하며, 시차 정보는 복수의 국가 타입 각각에 대응되는 시차의 크기에 대한 정보이다. 일 실시 예에 따라, 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 스케쥴 정보를 업데이트할 수 있다.
도 6에 따르면, 일 실시 예에 따라 제어 방법은 식별된 제1 스케쥴 정보 및 식별된 제2 스케쥴 정보 각각에 대응되는 국가 타입 정보와 메모리(120)에 저장된 시차 정보에 기초하여 제1 스케쥴 정보 및 제2 스케쥴 정보를 업데이트할 수 있다(S610).
일 예에 따라, 제1 컨텐츠에 대응되는 제1 스케쥴 정보가 “09:00 ? 11:00”이고 제1 컨텐츠에 대응되는 국가 타입 정보는 “A”이며, 제2 컨텐츠에 대응되는 제2 스케쥴 정보가 “14:00 ? 15:00”이고 제2 컨텐츠에 대응되는 국가 타입 정보는 “B”인 경우를 상정한다. 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 A 국가에 대응되는 시차 정보가 “2:00”이고, B 국가에 대응되는 시차 정보가 “-3:00”인 것으로 식별할 수 있다. 프로세서(130)는 이에 기초하여 제1 스케쥴 정보를 “11:00 ? 13:00”으로 업데이트할 수 있고, 제2 스케쥴 정보를 “11:00 ? 13:00”으로 업데이트할 수 있다.
이어서, 일 실시 예에 따라 제어 방법은 업데이트된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다(S620). 일 예에 따라, 프로세서(130)는 업데이트된 제1 스케쥴 정보(“11:00 ? 13:00”) 및 제2 스케쥴 정보(“11:00 ? 13:00”)가 매칭됨에 따라, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다.
이에 따라, 상이한 국가에서 동시에 방송되는 동일한 컨텐츠의 국가 코드 또는 컨텐츠 ID가 상이한 경우에도, 전자 장치(100)는 핑거 프린트 정보 및 컨텐츠의 스케쥴 정보를 이용하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별할 수 있게 되며, 이에 기초하여 동일한 컨텐츠를 수신하는 디바이스가 포함된 단일한 채팅 룸을 제공할 수 있게 된다. 이에 따라 상이한 국가의 사용자들이 동일한 채팅 룸 내에서 채팅할 수 있게 된다.
한편, 일 실시 예에 따라, 프로세서(130)는 도시 정보를 포함하는 국가 타입 정보를 수신할 수 있고, 메모리(120)에는 도시 각각에 대응되는 시차 정보가 저장되어 있을 수 있다. 일 예에 따라, 프로세서(130)는 “미국” 및 “뉴욕”에 대응되는 국가 타입 정보가 포함된 제1 컨텐츠 정보를 수신할 수 있으며, “미국” 및 “로스 앤젤레스”에 대응되는 국가 타입 정보가 포함된 제2 컨텐츠 정보를 수신할 수도 있다. 메모리(120)에는 “뉴욕” 및 “로스 앤젤레스” 각각에 대응되는 시차 정보가 저장되어 있을 수 있으며, 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 제1 컨텐츠 정보 및 제2 컨텐츠 정보에 포함된 스케쥴 정보를 업데이트할 수도 있다.
일 실시 예에 따라, 프로세서(130)는 동일한 컨텐츠에 대응되는 복수의 채팅 룸 중 어느 하나를 선택하기 위한 UI를 제공할 수 있다. 일 예에 따라, 복수의 컨텐츠 중 제3 컨텐츠 및 제4 컨텐츠는 동일한 컨텐츠 및 대응되는 국가는 동일하나, 상이한 도시 정보를 포함하는 경우를 상정한다. 프로세서(130)는 메모리(120)에 저장된 정보에 기초하여 제3 컨텐츠 및 제4 컨텐츠 사이의 시차가 기 설정된 값 이상인 것으로 식별되면, 제3 컨텐츠 및 제4 컨텐츠에 대한 상이한 채팅 룸을 제공할 수 있고, 상이한 채팅 룸 중 어느 하나를 선택하기 위한 UI 정보를 디바이스로 전송할 수 있다.
예를 들어, “미국” 및 “뉴욕”에 대응되는 국가 타입 정보가 포함된 제3 컨텐츠 정보가 수신되고, “미국” 및 “로스 앤젤레스”에 대응되는 국가 타입 정보가 포함된 제4 컨텐츠 정보가 수신된 경우를 상정한다. 프로세서(130)는 제3 컨텐츠 및 제4 컨텐츠가 동일한 경우, 메모리(120)에 저장된 정보에 기초하여 제3 컨텐츠 및 제4 컨텐츠 사이의 시차가 기 설정된 값 이상인 것으로 식별되면, 제3 컨텐츠 및 제4 컨텐츠에 대한 상이한 채팅 룸을 제공할 수 있고, 상이한 채팅 룸 중 어느 하나를 선택하기 위한 UI 정보를 디바이스로 전송할 수 있다.
이에 따르면, 전자 장치(100)는 동일한 국가 내에서도 상이한 시간대에 속하는 경우 복수의 타입의 채팅 룸을 제공할 수 있으며, 이에 따라 사용자는 시차를 고려하여 복수의 채팅 룸 중 어느 하나를 선택할 수 있게 된다.
도 7은 일 실시 예에 따른 영상 프레임 정보에 기초하여 동일 컨텐츠인지 여부를 식별하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 특징 정보는 핑거 프린트 정보 또는 영상 프레임 정보 중 적어도 하나를 포함할 수 있다. 한편, 일 실시 예에 따라 컨텐츠 정보는 컨텐츠 각각에 대응되는 영상 데이터를 포함하며, 프로세서(130)는 식별된 영상 데이터에 기초하여 컨텐츠에 대응되는 영상 프레임 정보를 식별함으로써 컨텐츠에 대응되는 특징 정보를 획득할 수 있다.
도 7에 따르면, 먼저 일 실시 예에 따라 제어 방법은 제1 컨텐츠 및 제2 컨텐츠가 방송 중인지 여부를 식별할 수 있다(S710). 일 예에 따라, 프로세서(130)는 수신된 컨텐츠 정보의 타입에 기초하여 컨텐츠가 재생 중인지 여부를 식별할 수 있다. 예를 들어, 프로세서(130)는 수신된 컨텐츠 정보에 포함된 영상 데이터가 프리뷰 데이터인 경우, 수신된 컨텐츠는 아직 방송되기 이전인 것으로 식별할 수 있다. 또는, 예를 들어 프로세서(130)는 수신된 컨텐츠 정보에 포함된 영상 데이터가 실시간 방송 데이터인 경우, 수신된 컨텐츠가 현재 방송 중인 것으로 식별할 수도 있다.
이어서, 일 실시 예에 따라 제어 방법은 제1 컨텐츠 및 제2 컨텐츠가 재생 중인 것으로 식별되면(Y), 제1 컨텐츠에 대응되는 제1 영상 프레임 정보가 제2 컨텐츠에 대응되는 제2 영상 프레임 정보와 기 설정된 값 이상의 유사도를 갖는지 여부를 식별할 수 있다(S720).
일 예에 따라, 프로세서(130)는 수신된 제1 컨텐츠 정보에 포함된 영상 데이터 및 수신된 제2 컨텐츠 정보에 포함된 영상 데이터가 실시간 방송 데이터인 경우, 제1 컨텐츠 및 제2 컨텐츠가 방송 중인 것으로 식별할 수 있다. 이어서, 프로세서(130)는 수신된 제1 컨텐츠에 대응되는 영상 데이터에 기초하여 제1 영상 프레임 정보를 획득하고, 수신된 제2 컨텐츠에 대응되는 영상 데이터에 기초하여 제2 영상 프레임 정보를 획득할 수 있다.
이 경우, 영상 프레임 정보는 영상 데이터가 수신된 시점에서의 영상 데이터에 대응되는 영상 프레임 정보일 수 있으나 이에 한정되는 것은 아니며, 영상 데이터에 포함된 복수의 프레임 중 기 설정된 순서로 출력되는 영상 프레임을 영상 데이터에 대응되는 영상 프레임 정보로 식별할 수도 있다.
일 예에 따라, 프로세서(130)는 획득된 제1 컨텐츠에 대응되는 제1 영상 프레임 정보가 제2 컨텐츠에 대응되는 제2 영상 프레임 정보와 기 설정된 값 이상의 유사도를 갖는지 여부를 식별할 수 있다. 예를 들어, 프로세서(130)는 획득된 제1 및 제2 프레임 정보를 픽셀 단위로 비교하여 유사도를 획득할 수 있으며, 이에 기초하여 제1 영상 프레임 정보가 제2 영상 프레임 정보와 기 설정된 값 이상의 유사도를 갖는지 여부를 식별할 수 있다.
이어서, 제1 영상 프레임 정보 및 제2 영상 프레임 정보가 기 설정된 값 이상의 유사도를 갖는 것으로 식별되면(Y), 일 실시 예에 따라 제어 방법은 메모리(120)에 저장된 정보에 기초하여 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 제2 ID 정보에 대응되는 제2 스케쥴 정보를 식별할 수 있다(S730).
이어서, 일 실시 예에 따라 제어 방법은 식별된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다(S740).
이에 따라, 전자 장치(100)는 컨텐츠가 현재 재생 중인 경우에도, 영상 프레임 정보 및 컨텐츠의 스케쥴 정보를 이용하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별할 수 있게 되며, 이에 기초하여 동일한 컨텐츠를 수신하는 디바이스가 포함된 단일한 채팅 룸을 제공할 수 있게 된다.
도 8a 및 8b는 일 실시 예에 따른 채팅 서비스를 제공하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따르면, 프로세서(130)는 통신 인터페이스(110)를 통해 제공된 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 수신된 텍스트 정보 및 적어도 하나의 디바이스 각각에 대응되는 토글(Toggle) 정보에 기초하여 채팅 서비스를 제공할 수 있다. 텍스트 정보는 적어도 하나의 디바이스로부터 수신된 채팅 메시지에 대응되는 텍스트 정보이다.
한편, 토글 정보는 디바이스에 제공되는 텍스트의 타입을 식별하기 위한 사용자 명령에 관한 정보이다. 예를 들어, 디바이스는 디바이스에서 제공되는 언어와 상이한 언어의 텍스트 정보(또는, 텍스트)를 수신할지 여부에 관한 사용자의 명령이 수신되는지 여부를 식별하고, 긍정 피드백에 대응되는 사용자 명령이 수신되면 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신하기 위한 토글 정보를 식별할 수 있다.
또는, 예를 들어 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신할지 여부에 관한 긍정 피드백이 수신되면, 디바이스는 수신된 상이한 언어의 텍스트에 대한 번역을 수행할지 여부에 관한 사용자의 명령이 수신되는지 여부를 식별할 수 있다. 사용자로부터 긍정 피드백에 대응되는 사용자 명령이 수신되면, 디바이스는 번역된 텍스트를 수신하기 위한 토글 정보를 식별할 수 있다.
도 8a에 따르면, 먼저, 일 실시 예에 따라 제어 방법은 적어도 하나의 디바이스 중 제1 디바이스에 대응되는 토글(Toggle) 정보가 수신되는지 여부를 식별할 수 있다(S810).
일 예에 따라, 프로세서(130)는 제공된 채팅 룸에 대응되는 적어도 하나의 디바이스 중 제1 디바이스로부터 토글 정보를 수신할 수 있다. 이 경우, 토글 정보는 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신할지 여부에 대한 토글 정보 및 번역된 텍스트를 수신할지 여부에 대한 토글 정보를 포함할 수 있다.
이어서, 일 실시 예에 따라 토글 정보가 수신되면(Y), 제어 방법은 적어도 하나의 디바이스로부터 수신된 텍스트 정보 중 제1 디바이스로부터 수신된 텍스트 정보와 상이한 언어 타입의 텍스트 정보를 제1 디바이스로 제공할지 여부를 식별할 수 있다(S820). 일 예에 따라, 프로세서(130)는 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신하기 위한 토글 정보가 수신되면, 적어도 하나의 디바이스로부터 수신된 텍스트 중 제1 디바이스로부터 수신된 텍스트와 상이한 언어의 텍스트를 제1 디바이스로 제공할 수 있다.
일 실시 예에 따라, 제어 방법은 상이한 언어 타입의 텍스트 정보를 제1 디바이스로 제공하지 않는 것으로 식별되면(N), 제1 디바이스로부터 수신된 텍스트 정보와 동일한 언어 타입의 텍스트 정보만 제1 디바이스로 제공할 수 있다(S830). 일 예에 따라, 프로세서(130)는 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트는 수신하지 않기 위한 토글 정보가 수신되면, 적어도 하나의 디바이스로부터 수신된 텍스트 중 제1 디바이스로부터 수신된 텍스트와 동일한 언어의 텍스트만 제1 디바이스로 제공할 수 있다.
한편, 일 실시 예에 따라 제어 방법은 상이한 언어 타입의 텍스트를 제1 디바이스로 제공하는 것으로 식별되면(Y), 상이한 언어 타입의 텍스트를 번역하여 제1 디바이스로 제공할지 여부를 식별할 수 있다(S840). 일 예에 따라, 프로세서(130)는 제1 디바이스로부터 번역된 텍스트를 수신할지 여부에 대한 토글 정보가 수신되면, 이에 기초하여 적어도 하나의 디바이스로부터 수신된 텍스트 중 제1 디바이스에 대응되는 언어와 상이한 언어의 텍스트를 번역하여 제1 디바이스로 제공할지 여부를 식별할 수 있다.
일 실시 예에 따라, 제어 방법은 상이한 언어의 텍스트를 번역하여 제1 디바이스로 제공하는 것으로 식별되면(Y), 번역된 텍스트 정보를 제1 디바이스로 제공할 수 있다(S850). 한편, 일 실시 예에 따라 상이한 언어의 텍스트를 번역하지 않고 제1 디바이스로 제공하는 것으로 식별되면(N), 제어 방법은 상이한 언어의 텍스트를 제1 디바이스로 제공할 수 있다(S860).
일 예에 따라, 먼저 프로세서(130)는 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 수신된 텍스트를 상이한 언어의 텍스트로 번역하여 저장할 수 있다. 예를 들어, 프로세서(130)는 수신된 텍스트가 한국어 텍스트인 경우, 이를 영어, 프랑스어를 포함한 상이한 타입의 언어로 번역하여 저장할 수 있다. 프로세서(130)는 통신 인터페이스(110)를 통해 제1 디바이스로부터 번역된 텍스트를 수신하기 위한 토글 정보가 수신되면, 메모리(120)에 저장된 정보에 기초하여 기 저장된 텍스트 중 제1 디바이스에 대응되는 언어의 텍스트를 식별하고, 이를 제1 디바이스로 제공할 수 있다. 예를 들어, 프로세서(130)는 제1 디바이스에 대응되는 언어가 한국어인 경우, 메모리(120)에 저장된 정보에 기초하여 적어도 하나의 디바이스로부터 수신된 텍스트가 한국어로 번역된 텍스트를 통신 인터페이스(110)를 통해 제1 디바이스로 제공할 수 있다.
한편, 일 예에 따라 프로세서(130)는 상이한 언어의 텍스트를 번역하지 않고 제1 디바이스로 제공하는 것으로 식별되면, 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 수신되는 상이한 언어의 텍스트를 제1 디바이스로 제공할 수 있다.
이에 따라, 전자 장치(100)는 동일한 컨텐츠를 시청하는 상이한 국가의 사용자들이 동일한 채팅 룸에서 채팅하는 경우, 사용자 개개인의 특성을 고려하여 채팅 서비스를 제공할 수 있게 되어, 사용자의 만족도가 높아질 수 있다.
도 8b에 따르면, 일 실시 예에 따라 프로세서(130)는 외부 디바이스(미도시)로부터 텍스트 정보(80, 또는 텍스트)를 수신할 수 있다. 일 예에 따라, 프로세서(130)는 단일한 채팅 룸에 대응되는 적어도 하나의 디바이스 중 제1 디바이스로부터 “안녕하세요!”에 대응되는 한국어 텍스트를 수신하고, 단일한 채팅 룸에 대응되는 적어도 하나의 디바이스 중 제2 디바이스로부터 “Spoiler Alert!” 에 대응되는 영어 텍스트를 수신할 수 있다.
일 실시 예에 따라 프로세서(130)는 수신된 적어도 하나의 타입의 토글 정보에 기초하여 채팅 룸에 대응되는 적어도 하나의 디바이스로 텍스트 정보를 제공할 수 있다. 일 예에 따라, 프로세서(130)는 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신할지 여부에 대한 토글 정보 및 번역된 텍스트를 수신할지 여부에 대한 토글 정보 중 적어도 하나에 기초하여 제1 다바이스로 텍스트 정보(또는, 텍스트)를 제공할 수 있다.
예를 들어, 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어의 텍스트를 수신하지 않기 위한 토글 정보가 수신되면, 프로세서(130)는 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어인 “Spoiler Alert!”에 대응되는 텍스트를 제외한 텍스트 정보(810)를 제1 디바이스로 제공할 수 있다.
또는, 예를 들어 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어의 텍스트를 수신하기 위한 토글 정보 및 제1 디바이스에서 제공되는 언어인 한국어로 번역된 텍스트를 수신하기 위한 토글 정보가 제1 디바이스로부터 수신되면, 프로세서(130)는 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어인 “Spoiler Alert!”가 번역된 텍스트 “스포 금지!”가 포함된 텍스트 정보(820)를 제1 디바이스로 제공할 수도 있다. 이 경우, 번역된 텍스트는 메모리(120)에 기 저장되어 있을 수 있다.
또는, 예를 들어, 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어의 텍스트를 수신하기 위한 토글 정보 및 제1 디바이스에서 제공되는 언어와 상이한 언어의 텍스트를 수신하기 위한 토글 정보가 수신되면, 프로세서(130)는 제1 디바이스에서 제공되는 언어인 한국어와 상이한 언어인 “Spoiler Alert!”가 번역되지 않은 텍스트가 포함된 텍스트 정보(830)를 제1 디바이스로 제공할 수 있다.
도 2로 돌아와서, 일 실시 예에 따라 프로세서(130)는 통신 상태 정보에 기초하여 채팅 서비스를 제공할 수 있다. 여기서, 통신 상태 정보는 송수신되는 신호의 타입(예를 들어, 디지털(Digital) 신호 또는 아날로그(Analog) 신호) 또는 신호를 송수신하는 방법에 관한 정보(예를 들어, 위성(satellite)을 이용한 신호의 송수신 방법 또는 유선(cable)을 이용한 신호의 송수신 방법) 중 적어도 하나를 포함할 수 있다.
일 예에 따라, 프로세서(130)는 제공된 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 적어도 하나의 디바이스 각각에 대응되는 통신 상태 정보가 수신되면, 수신된 통신 상태 정보에 기초하여 채팅 서비스를 제공할 수 있다. 일 예에 따라, 메모리(120)에는 통신 상태에 대응되는 딜레이(delay) 정보가 저장되어 있을 수 있으며, 여기서 딜레이 정보는 통신 상태에 따라 송수신되는 신호가 딜레이되는 시간의 크기 또는 비율 중 적어도 하나에 대한 정보를 의미한다. 예를 들어, 프로세서(130)는 수신된 텍스트에 기초하여 제1 디바이스의 통신 상태 정보를 식별하고, 메모리(120)에 저장된 정보에 기초하여 식별된 통신 상태 정보에 대응되는 딜레이 정보를 제1 디바이스의 딜레이 정보로 식별할 수 있다. 이어서, 프로세서(130)는 채팅 룸에 대응되는 적어도 하나의 디바이스 중 제1 디바이스로 식별된 딜레이 시간 크기만큼 우선적으로 텍스트를 제공할 수도 있다.
한편, 일 실시 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 외부 디바이스로부터 복수의 컨텐츠 각각에 대응되는 메타 데이터를 획득하여 저장할 수 있다. 일 예에 따라, 일 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 외부 서버(미도시)를 포함하는 외부 디바이스로부터 복수의 컨텐츠 각각에 대응되는 메타 데이터를 획득하여 저장할 수 있다. 다만, 이에 한정되는 것은 아니며 프로세서(130)는 복수의 외부 서버(미도시)로부터 복수의 컨텐츠 각각에 대응되는 ID 정보 및 스케쥴 정보가 각각 수신되면, 복수의 컨텐츠에 대응되는 ID 정보 및 스케쥴 정보를 맵핑하여 메모리(120)에 저장할 수도 있다.
한편, 일 실시 예에 따라, 프로세서(130)는 복수의 컨텐츠 각각에 대응되는 채널 정보에 기초하여 채팅 룸을 제공할 수 있다. 여기서, 채널 정보는 컨텐츠가 현재 방송되거나 방송될 예정인 방송 채널(Broadcasting Channel)의 타입 정보를 의미한다. 일 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 외부 디바이스로부터 수신된 복수의 컨텐츠 각각에 대응되는 채널 정보에 기초하여 채팅 룸에 대응되는 채널 정보가 포함된 채팅 룸을 제공할 수 있다. 이 경우, 프로세서(130)는 통신 인터페이스(110)를 통해 외부 디바이스로부터 복수의 컨텐츠 각각에 대응되는 메타 데이터 및 복수의 컨텐츠에 대응되는 채널 정보를 각각 수신할 수도 있다.
도 9는 일 실시 예에 따른 핑거 프린트 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 9에 따르면, 일 실시 예에 따라 프로세서(130)는 획득된 컨텐츠 정보에 기초하여 핑거 프린트 정보를 획득할 수 있다.
일 예에 따라, 프로세서(130)는 획득된 컨텐츠 정보에 포함된 컨텐츠의 영상 데이터(910 또는, Target Video Stream)를 VFP(Video Finger-Printing) 모듈에 입력하여 획득된 컨텐츠에 대한 핑거 프린트 정보를 획득할 수 있다. 이 경우, 영상 데이터(910)는 복수의 영상 프레임을 포함할 수 있다.
일 예에 따라 VFP 모듈(920)은 먼저 복수의 영상 프레임이 포함된 영상 데이터(910)가 입력되면, 획득된 복수의 영상 프레임을 복수의 그룹으로 그룹핑할 수 있다. 예를 들어, VFP 모듈(920)은 획득된 복수의 영상 프레임 중 제1 영상 프레임과의 유사도가 기 설정된 값 이상인 영상 프레임을 식별하여 이를 제1 그룹으로 그룹핑할 수 있다.
이어서, VFP 모듈(920)은 제1 그룹을 포함한 복수의 그룹 각각으로부터 키 프레임(Key Frame)을 추출하고, 추출된 복수의 키 프레임에 대한 정보를 포함하는 핑거 프린트 정보를 출력할 수 있다. 프로세서(130)는 VFP 모듈(920)로부터 출력된 핑거 프린트 정보를 획득할 수 있다.
일 예에 따라, 프로세서(130)는 획득된 핑거 프린트 정보와 핑거 프린트 정보에 대응되는 컨텐츠 정보를 메모리(120)에 저장할 수 있다. 예를 들어, 프로세서(130)는 획득된 핑거 프린트 정보에 대응되는 컨텐츠 정보(예를 들어, 컨텐츠의 ID 정보 또는 컨텐츠의 타이틀(Title) 정보)가 맵핑된 핑거 프린트 데이터베이스(930, 또는 Finger Print Database)를 획득하고, 이를 메모리(120)에 저장할 수 있다.
일 예에 따라, 프로세서(130)는 영상 데이터가 수신되면, 이를 VFP 모듈에 입력하여 수신된 영상 데이터에 대한 핑거 프린트 정보를 획득하고, 메모리(120)에 저장된 핑거 프린트 데이터베이스(930)에 기초하여 획득된 핑거 프린트와 매칭되는 컨텐츠 정보를 획득할 수 있다. 이에 따라, 프로세서(130)는 획득된 영상 데이터의 컨텐츠 정보를 획득할 수도 있다.
도 10은 일 실시 예에 따른 채팅 룸 제공 방법을 설명하기 위한 도면이다.
도 10에 따르면, 일 실시 예에 따라 전자 장치(100)는 방송 수신 모듈(1010), 특징 정보 추출 여부 식별 모듈(1020), 컨텐츠 데이터 수집 모듈(1030), 특징 정보 추출 모듈(1040), 동일 컨텐츠 식별 모듈(1050) 및 채팅 룸 제공 모듈(1060)을 포함할 수 있다.
먼저, 방송 수신 모듈(1010)은 통신 인터페이스(110)를 통해 외부 디바이스(미도시)로부터 적어도 하나의 방송 컨텐츠를 수신할 수 있다. 이 경우, 방송 컨텐츠는 상이한 국가에서 방송되는 동일한 컨텐츠를 포함할 수 있으며, 일 예에 따라 방송 컨텐츠에 대응되는 컨텐츠 정보 또한 수신될 수 있다. 특징 정보 추출 여부 식별 모듈(1020)은 수신된 방송 컨텐츠 및 이에 대응되는 컨텐츠 정보에 기초하여 수신된 방송 컨텐츠의 특징 정보를 추출할지 여부를 식별할 수 있다. 예를 들어, 추출 여부 식별 모듈(1020)은 복수의 컨텐츠에 포함된 제1 컨텐츠에 대응되는 제1 식별 정보 및 제2 컨텐츠에 대응되는 제2 식별 정보에 기초하여 제1 식별 정보 및 제2 식별 정보가 매칭되는지 여부를 식별하여, 특징 정보를 추출할지 여부를 식별할 수 있다.
한편, 컨텐츠 데이터 수집 모듈(1030)은 복수의 컨텐츠 각각에 대응되는 메타 데이터를 수집할 수 있다. 일 예에 따라, 컨텐츠 데이터 수집 모듈(1030)은 통신 인터페이스(110)를 통해 수신된 복수의 컨텐츠 각각에 대응되는 ID 정보 및 이에 대응되는 스케쥴 정보를 맵핑하여 메모리(120)에 저장할 수 있다.
특징 정보 추출 모듈(1040)은 특징 정보 추출 여부 식별 모듈(1020)을 통해 특징 정보를 추출할 것으로 식별되면, 획득된 컨텐츠 정보에 포함된 영상 데이터로부터 특징 정보(예를 들어, 핑거 프린트 정보)를 추출할 수 있다.
동일 컨텐츠 식별 모듈(1050)은 컨텐츠 데이터 수집 모듈(1030)을 통해 획득된 메타 데이터 및 특징 정보 추출 모듈(1040)을 통해 획득된 특징 정보에 기초하여 수신된 복수의 컨텐츠 중 동일 컨텐츠를 식별할 수 있다. 예를 들어, 동일 컨텐츠 식별 모듈(1050)은 특징 정보 추출 모듈(1040)을 통해 복수의 컨텐츠 중 제1 컨텐츠에 대응되는 제1 핑거 프린트 정보 및 복수의 컨텐츠 중 제2 컨텐츠에 대응되는 제2 핑거 프린트 정보가 획득되면, 제1 핑거 프린트 정보 및 제2 핑거 프린트 정보가 기 설정된 값 이상의 유사도를 갖는지 식별할 수 있다. 동일 컨텐츠 식별 모듈(1050)은 제1 핑거 프린트 정보와 제2 핑거 프린트 정보가 기 설정된 값 이상의 유사도를 갖는 것으로 식별되면, 컨텐츠 데이터 수집 모듈(1030)을 통해 획득된 메타 데이터에 기초하여 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 제2 ID 정보에 대응되는 제2 스케쥴 정보를 식별할 수 있다. 동일 컨텐츠 식별 모듈(1050)은 식별된 제1 스케쥴 정보 및 제2 스케쥴 정보가 매칭되면, 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠인 것으로 식별할 수 있다.
채팅 룸 제공 모듈(1060)은 동일 컨텐츠 식별 모듈(1050)을 통해 제1 컨텐츠 및 제2 컨텐츠가 동일 컨텐츠로 식별되면, 제1 컨텐츠 및 제2 컨텐츠에 대한 단일한 채팅 룸(Chatting Room)을 제공할 수 있다. 예를 들어, 채팅 룸 제공 모듈(1060)은 제1 컨텐츠를 수신하는 적어도 하나의 디바이스 및 제2 컨텐츠를 수신하는 적어도 하나의 디바이스를 동일 그룹으로 그룹핑하고, 그룹핑된 복수의 디바이스에 대하여 채팅 서비스를 제공할 수 있다.
도 11은 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
도 11에 따르면, 전자 장치(100')는 통신 인터페이스(110), 메모리(120), 하나 이상의 프로세서(130), 마이크(140), 스피커(150), 디스플레이(160), 사용자 인터페이스(170) 및 적어도 하나의 센서(180)를 포함할 수 있다. 도 11에 도시된 구성 중 도 2에 도시된 구성과 중복된 구성에 대해서는 자세한 설명을 생략하도록 한다.
마이크(140)는 소리를 획득하여 전기 신호로 변환하는 모듈을 의미할 수 있으며, 콘덴서 마이크, 리본 마이크, 무빙코일 마이크, 압전소자 마이크, 카본 마이크, MEMS(Micro Electro Mechanical System) 마이크일 수 있다. 또한, 무지향성, 양지향성, 단일지향성, 서브 카디오이드(Sub Cardioid), 슈퍼 카디오이드(Super Cardioid), 하이퍼 카디오이드(Hyper Cardioid)의 방식으로 구현될 수 있다.
전자 장치(100')가 마이크(140)를 통해 수신된 사용자 음성 신호에 대응되는 동작을 수행하는 다양한 실시 예가 있을 수 있다.
일 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 디스플레이(160)를 제어할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A컨텐츠를 표시하도록 디스플레이(160)를 제어할 수 있다.
다른 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 전자 장치(100')와 연결된 외부 디스플레이 장치를 제어할 수 있다. 구체적으로, 전자 장치(100')는 사용자 음성 신호에 대응되는 동작이 외부 디스플레이 장치에서 수행되도록 외부 디스플레이 장치를 제어하기 위한 제어 신호를 제공하고, 제공된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 여기서, 전자 장치(100')는 외부 디스플레이 장치를 제어하기 위한 원격 제어 어플리케이션을 저장할 수 있다. 그리고, 전자 장치(100')는 제공된 제어 신호를 블루투스, 와이파이 또는 적외선 중 적어도 하나의 통신 방법을 이용하여 외부 디스플레이 장치에 전송할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A 컨텐츠가 외부 디스플레이 장치에서 표시되도록 제어하기 위한 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 여기서, 전자 장치(100')는 스마트폰, AI 스피커 등 원격 제어 어플리케이션을 설치할 수 있는 다양한 단말 장치를 의미할 수 있다.
또 다른 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 전자 장치(100')와 연결된 외부 디스플레이 장치를 제어하기 위하여 원격 제어 장치를 이용할 수 있다. 구체적으로, 전자 장치(100')는 사용자 음성 신호에 대응되는 동작이 외부 디스플레이 장치에서 수행되도록 외부 디스플레이 장치를 제어하기 위한 제어 신호를 원격 제어 장치에 전송할 수 있다. 그리고, 원격 제어 장치는 전자 장치(100')로부터 수신된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A 컨텐츠가 외부 디스플레이 장치에서 표시되도록 제어하기 위한 제어 신호를 원격 제어 장치에 전송하고, 원격 제어 장치는 수신된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다.
스피커(150)는, 고음역대 소리 재생을 위한 트위터, 중음역대 소리 재생을 위한 미드레인지, 저음역대 소리 재생을 위한 우퍼, 극저음역대 소리 재생을 위한 서브우퍼, 공진을 제어하기 위한 인클로저, 스피커에 입력되는 전기 신호 주파수를 대역 별로 나누는 크로스오버 네트워크 등으로 이루어질 수 있다.
스피커(150)는, 음향 신호를 전자 장치(100')의 외부로 출력할 수 있다. 스피커(150)는 멀티미디어 재생, 녹음 재생, 각종 알림음, 음성 메시지 등을 출력할 수 있다. 전자 장치(100')는 스피커(150)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(150)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다.
디스플레이(160)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(160) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(160)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다. 프로세서(130)는 상술한 다양한 실시 예에 따라 획득된 출력 영상을 출력하도록 디스플레이(160)를 제어할 수 있다. 여기서, 출력 영상은, 4K 또는 8K 이상의 고해상도 영상일 수 있다.
한편, 다른 실시 예에 따라, 전자 장치(100')는 디스플레이(160)를 포함하지 않을 수 있다. 전자 장치(100')는 외부 디스플레이 장치와 연결될 수 있으며, 전자 장치(100')에 저장된 이미지 또는 컨텐츠를 외부 디스플레이 장치에 전송할 수 있다. 구체적으로, 전자 장치(100')는 외부 디스플레이 장치에서 이미지 또는 컨텐츠가 표시되도록 제어하기 위한 제어 신호와 함께 이미지 또는 컨텐츠를 외부 디스플레이 장치에 전송할 수 있다.
여기서, 외부 디스플레이 장치는 전자 장치(100')와 통신 인터페이스(110) 또는 입출력 인터페이스(190)를 통해 연결될 수 있다. 예를 들어, 전자 장치(100')는 STB(Set Top Box)와 같이 디스플레이를 포함하지 않을 수 있다. 또한, 전자 장치(100')는 텍스트 정보 등의 간단한 정보만을 표시할 수 있는 소형 디스플레이만을 포함할 수 있다. 여기서, 전자 장치(100')는 이미지 또는 컨텐츠를 통신 인터페이스(110)를 통해 유선 또는 무선으로 외부 디스플레이 장치에 전송하거나 입출력 인터페이스(190)를 통해 외부 디스플레이 장치에 전송할 수 있다.
사용자 인터페이스(170)는 전자 장치(100')가 사용자와 인터렉션(Interaction)을 수행하기 위한 구성이다. 예를 들어 사용자 인터페이스(170)는 터치 센서, 모션 센서, 버튼, 조그(Jog) 다이얼, 스위치, 마이크 또는 스피커 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.
적어도 하나의 센서(180, 이하 센서)는 다양한 타입의 복수의 센서를 포함할 수 있다. 센서(180)는 물리량을 계측하거나 전자 장치(100')의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서(180)는 카메라를 포함할 수 있으며, 카메라는 오브젝트에 의해 반사되어 수신되는 가시광 기타 광학 신호를 이미지 센서로 포커싱하는 렌즈 및 가시광 기타 광학 신호를 감지할 수 있는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 복수의 픽셀로 구분되는 2D의 픽셀 어레이를 포함할 수 있다.
입출력 인터페이스(190)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 중 어느 하나의 인터페이스일 수 있다. 입출력 인터페이스(190)는 오디오 및 비디오 신호 중 적어도 하나를 입출력 할 수 있다. 구현 예에 따라, 입출력 인터페이스(190)는 오디오 신호만을 입출력하는 포트와 비디오 신호만을 입출력하는 포트를 별개의 포트로 포함하거나, 오디오 신호 및 비디오 신호를 모두 입출력하는 하나의 포트로 구현될 수 있다. 한편, 전자 장치(100')는 입출력 인터페이스(190)를 통해 오디오 및 비디오 신호 중 적어도 하나를 외부 장치(예를 들어, 외부 디스플레이 장치 또는 외부 스피커)에 전송할 수 있다. 구체적으로, 입출력 인터페이스(190)에 포함된 출력 포트가 외부 장치와 연결될 수 있으며, 전자 장치(100')는 오디오 및 비디오 신호 중 적어도 하나를 출력 포트를 통해 외부 장치에 전송할 수 있다.
상술한 다양한 실시 예에 따르면, 전자 장치는 수신된 복수의 컨텐츠 각각의 특징 정보를 고려하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 동일한 컨텐츠에 대응되는 디바이스에 대한 단일한 채팅 룸을 제공하고, 제공된 채팅 룸에 포함된 디바이스 각각의 특성을 고려하여 채팅 서비스를 제공할 수 있다. 이에 따라 사용자의 만족도가 향상될 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 설치 가능한 어플리케이션 형태로 구현될 수 있다. 또는 상술한 본 개시의 다양한 실시 예들에 따른 방법들은 딥 러닝 기반의 학습된 신경망(또는 심층 학습된 신경망) 즉, 학습 네트워크 모델을 이용하여 수행될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들은 로봇에 구비된 임베디드 서버, 또는 로봇의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 디스플레이 장치(예: 디스플레이 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 제공 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 제공될 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (15)

  1. 전자 장치에 있어서,
    통신 인터페이스;
    제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)가 저장된 메모리; 및
    상기 통신 인터페이스를 통해 수신된 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 수신된 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하고,
    상기 수신된 제1 컨텐츠 정보 및 제2 컨텐츠 정보, 상기 획득된 특징 정보 및 상기 메모리에 저장된 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 하나 이상의 프로세서;를 포함하는, 전자 장치.
  2. 제1항에 있어서,
    상기 메타 데이터는,
    복수의 컨텐츠 각각에 대응되는 ID 정보 및 스케쥴 정보 중 적어도 하나를 포함하고,
    상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보는,
    상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 국가 타입 정보 및 ID 정보 중 적어도 하나를 포함하며,
    상기 하나 이상의 프로세서는,
    상기 제1 컨텐츠 정보에 포함된 제1 국가 타입 정보 및 제1 ID 정보를 상기 제2 컨텐츠 정보에 포함된 제2 국가 타입 정보 및 제2 ID 정보와 대응되는 타입 별로 비교하여 상기 제1 컨텐츠 정보와 상기 제2 컨텐츠 정보가 매칭되는지 여부를 식별하는, 전자 장치.
  3. 제2항에 있어서,
    상기 특징 정보는,
    컨텐츠에 대응되는 핑거 프린트(Finger-Print) 정보 또는 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대응되는 영상 프레임 정보 중 적어도 하나를 포함하며,
    상기 하나 이상의 프로세서는,
    상기 제1 컨텐츠에 대응되는 제1 핑거 프린트 정보가 상기 제2 컨텐츠에 대응되는 제2 핑거 프린트 정보와 기 설정된 값 이상의 유사도를 갖으면, 상기 메모리에 저장된 정보에 기초하여 식별된 상기 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 상기 제2 ID 정보에 대응되는 제2 스케쥴 정보가 매칭되면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠인 것으로 식별하는, 전자 장치.
  4. 제3항에 있어서,
    상기 메모리는,
    상기 국가 타입 정보에 포함된 복수의 국가 타입 각각에 대응되는 시차(Time difference) 정보를 더 포함하며,
    상기 하나 이상의 프로세서는,
    상기 식별된 제1 스케쥴 정보 및 상기 식별된 제2 스케쥴 정보 각각에 대응되는 국가 타입 정보와 상기 메모리에 저장된 시차 정보에 기초하여 업데이트된 상기 제1 스케쥴 정보 및 상기 제2 스케쥴 정보가 매칭되면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠인 것으로 식별하는, 전자 장치.
  5. 제3항에 있어서,
    상기 컨텐츠 정보는 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 영상 데이터를 포함하며,
    상기 하나 이상의 프로세서는,
    상기 제1 컨텐츠에 대응되는 영상 데이터에 기초하여 획득된 제1 영상 프레임 정보와 상기 제2 컨텐츠에 대응되는 영상 데이터에 기초하여 획득된 제2 영상 프레임 정보가 기 설정된 값 이상의 유사도를 가지고 상기 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 상기 제2 ID 정보에 대응되는 제2 스케쥴 정보가 매칭되면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠인 것으로 식별하는, 전자 장치.
  6. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 통신 인터페이스를 통해 상기 제공된 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 수신된 텍스트 정보 및 상기 적어도 하나의 디바이스 각각에 대응되는 토글(Toggle) 정보에 기초하여 채팅 서비스를 제공하는, 전자 장치.
  7. 제6항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 적어도 하나의 디바이스 중 제1 디바이스에 대응되는 토글(Toggle) 정보가 수신되면, 상기 수신된 제1 토글 정보에 기초하여 상기 적어도 하나의 디바이스로부터 수신된 텍스트 정보 중 상기 제1 디바이스로부터 수신된 텍스트 정보와 상이한 언어 타입의 텍스트 정보를 상기 제1 디바이스로 제공하는 것으로 식별되면, 상기 제1 토글 정보에 기초하여 상기 상이한 언어 타입의 텍스트 정보를 번역하여 상기 제1 디바이스로 제공할지 여부를 식별하는, 전자 장치.
  8. 제6항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 제공된 채팅 룸에 대응되는 적어도 하나의 디바이스로부터 상기 적어도 하나의 디바이스 각각에 대응되는 통신 상태 정보가 수신되면, 수신된 상기 통신 상태 정보에 기초하여 채팅 서비스를 제공하는, 전자 장치.
  9. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 통신 인터페이스를 통해 외부 서버로부터 수신된 상기 복수의 컨텐츠 각각에 대응되는 채널 정보에 기초하여 상기 채팅 룸에 대응되는 채널 정보가 포함된 채팅 룸을 제공하는, 전자 장치.
  10. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 통신 인터페이스를 통해 외부 서버로부터 상기 복수의 컨텐츠 각각에 대응되는 메타 데이터를 획득하여 저장하는, 전자 장치.
  11. 전자 장치의 제어 방법에 있어서,
    제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 중 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하는 단계;
    상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보, 상기 획득된 특징 정보 및 메모리에 저장된 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 단계;를 포함하는, 제어 방법.
  12. 제11항에 있어서,
    상기 메타 데이터는,
    복수의 컨텐츠 각각에 대응되는 ID 정보 및 스케쥴 정보 중 적어도 하나를 포함하고,
    상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보는,
    상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 국가 타입 정보 및 ID 정보 중 적어도 하나를 포함하며,
    상기 특징 정보를 획득하는 단계는,
    상기 제1 컨텐츠 정보에 포함된 제1 국가 타입 정보 및 제1 ID 정보를 상기 제2 컨텐츠 정보에 포함된 제2 국가 타입 정보 및 제2 ID 정보와 대응되는 타입 별로 비교하여 상기 제1 컨텐츠 정보와 상기 제2 컨텐츠 정보가 매칭되는지 여부를 식별하는 단계;를 더 포함하는, 제어 방법.
  13. 제12항에 있어서,
    상기 특징 정보는,
    컨텐츠에 대응되는 핑거 프린트(Finger-Print) 정보 또는 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대응되는 영상 프레임 정보 중 적어도 하나를 포함하며,
    상기 채팅 룸을 제공하는 단계는,
    상기 제1 컨텐츠에 대응되는 제1 핑거 프린트 정보가 상기 제2 컨텐츠에 대응되는 제2 핑거 프린트 정보와 기 설정된 값 이상의 유사도를 갖으면, 상기 메모리에 저장된 정보에 기초하여 식별된 상기 제1 ID 정보에 대응되는 제1 스케쥴 정보 및 상기 제2 ID 정보에 대응되는 제2 스케쥴 정보가 매칭되면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠인 것으로 식별하는 단계;를 포함하는, 제어 방법.
  14. 제13항에 있어서,
    상기 메모리는,
    상기 국가 타입 정보에 포함된 복수의 국가 타입 각각에 대응되는 시차(Time difference) 정보를 더 포함하며,
    상기 제어 방법은,
    상기 식별된 제1 스케쥴 정보 및 상기 식별된 제2 스케쥴 정보 각각에 대응되는 국가 타입 정보와 상기 메모리에 저장된 시차 정보에 기초하여 업데이트된 상기 제1 스케쥴 정보 및 상기 제2 스케쥴 정보가 매칭되면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠인 것으로 식별하는, 제어 방법.
  15. 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은,
    제1 컨텐츠 및 제2 컨텐츠를 포함하는 복수의 컨텐츠 중 상기 제1 컨텐츠에 대한 제1 컨텐츠 정보 및 상기 제2 컨텐츠에 대한 제2 컨텐츠 정보가 매칭되지 않으면, 상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 각각에 대응되는 특징 정보를 획득하는 단계; 및
    상기 제1 컨텐츠 정보 및 상기 제2 컨텐츠 정보, 상기 획득된 특징 정보 및 메모리에 저장된 복수의 컨텐츠 각각에 대응되는 메타 데이터(Metadata)에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠가 동일 컨텐츠이면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠에 대한 채팅 룸(Chatting Room)을 제공하는 단계;를 포함하는, 컴퓨터 판독 가능 기록 매체.
PCT/KR2023/016667 2022-11-15 2023-10-25 전자 장치 및 이의 제어 방법 WO2024106790A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/405,229 US20240163520A1 (en) 2022-11-15 2024-01-05 Electronic apparatus and method for controlling thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0152878 2022-11-15
KR1020220152878A KR20240071129A (ko) 2022-11-15 2022-11-15 전자 장치 및 이의 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/405,229 Continuation US20240163520A1 (en) 2022-11-15 2024-01-05 Electronic apparatus and method for controlling thereof

Publications (1)

Publication Number Publication Date
WO2024106790A1 true WO2024106790A1 (ko) 2024-05-23

Family

ID=91085073

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/016667 WO2024106790A1 (ko) 2022-11-15 2023-10-25 전자 장치 및 이의 제어 방법

Country Status (2)

Country Link
KR (1) KR20240071129A (ko)
WO (1) WO2024106790A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120091987A (ko) * 2011-02-10 2012-08-20 엘지전자 주식회사 전자 장치 및 원격으로 컨텐츠를 동시시청하기 위한 방법
KR20170063077A (ko) * 2015-11-30 2017-06-08 한국전자통신연구원 미디어 콘텐츠 식별 방법
KR20180050943A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 스트리밍 서비스를 제공하는 방법 및 이를 사용하는 전자 장치
KR20210153347A (ko) * 2020-06-10 2021-12-17 리모트솔루션주식회사 공유 콘텐츠 제공 및 활용 방법과 그 시스템
KR20220140187A (ko) * 2021-04-09 2022-10-18 주식회사 씨제이이엔엠 사용자 단말기를 이용한 콘텐츠 탐색 기반의 부가서비스 제공 방법 및 이를 위한 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120091987A (ko) * 2011-02-10 2012-08-20 엘지전자 주식회사 전자 장치 및 원격으로 컨텐츠를 동시시청하기 위한 방법
KR20170063077A (ko) * 2015-11-30 2017-06-08 한국전자통신연구원 미디어 콘텐츠 식별 방법
KR20180050943A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 스트리밍 서비스를 제공하는 방법 및 이를 사용하는 전자 장치
KR20210153347A (ko) * 2020-06-10 2021-12-17 리모트솔루션주식회사 공유 콘텐츠 제공 및 활용 방법과 그 시스템
KR20220140187A (ko) * 2021-04-09 2022-10-18 주식회사 씨제이이엔엠 사용자 단말기를 이용한 콘텐츠 탐색 기반의 부가서비스 제공 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
KR20240071129A (ko) 2024-05-22

Similar Documents

Publication Publication Date Title
WO2015167158A1 (en) User terminal device, method for controlling user terminal device and multimedia system thereof
WO2018080180A1 (en) System and method for providing augmented reality service associated with broadcasting
WO2021137437A1 (en) Display apparatus and control method thereof
WO2018131806A1 (en) Electronic apparatus and method of operating the same
WO2019231138A1 (en) Image display apparatus and operating method of the same
WO2017146518A1 (en) Server, image display apparatus, and method of operating the image display apparatus
WO2024106790A1 (ko) 전자 장치 및 이의 제어 방법
WO2020111744A1 (ko) 전자 장치 및 그 제어 방법
WO2017026817A1 (ko) 통역음성 정보를 제공하는 방법, 이를 운용하는 맞춤형 통역 서버 및 시스템
WO2015190780A1 (ko) 사용자 단말 및 이의 제어 방법
WO2019035617A1 (en) DISPLAY APPARATUS AND METHOD FOR PROVIDING CONTENT THEREFOR
WO2021256760A1 (ko) 이동 가능한 전자장치 및 그 제어방법
WO2021182750A1 (en) Display apparatus and method thereof
WO2017065522A1 (en) Display apparatus and the controlling method thereof
WO2020184856A1 (ko) 방송 수신 장치 및 그 동작방법
WO2021080154A1 (ko) 전자 장치 및 그 제어 방법
WO2024106732A1 (ko) 전자 장치 및 이의 제어 방법
WO2024101679A1 (ko) 전자 장치 및 이의 제어 방법
WO2020060070A1 (en) Electronic device and control method thereof
WO2024043439A1 (ko) 전자 장치 및 그 ui 제공 방법
US20240163520A1 (en) Electronic apparatus and method for controlling thereof
WO2022092599A1 (ko) 전자 장치, 시스템 및 그 제어 방법
WO2024106688A1 (ko) 전자 장치 및 그 캡쳐 이미지 획득 방법
WO2024076017A1 (ko) 전자 장치 및 이의 제어 방법
WO2022149711A1 (ko) 디스플레이 장치 및 이의 제어 방법