WO2024106732A1 - 전자 장치 및 이의 제어 방법 - Google Patents

전자 장치 및 이의 제어 방법 Download PDF

Info

Publication number
WO2024106732A1
WO2024106732A1 PCT/KR2023/014398 KR2023014398W WO2024106732A1 WO 2024106732 A1 WO2024106732 A1 WO 2024106732A1 KR 2023014398 W KR2023014398 W KR 2023014398W WO 2024106732 A1 WO2024106732 A1 WO 2024106732A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
information
content
contents
identified
Prior art date
Application number
PCT/KR2023/014398
Other languages
English (en)
French (fr)
Inventor
장진화
곽종원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024106732A1 publication Critical patent/WO2024106732A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/41Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas
    • H04H60/43Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas for identifying broadcast channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/41Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas
    • H04H60/44Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas for identifying broadcast stations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Definitions

  • the processor may generate second metadata including program information, broadcaster information, and broadcast channel information corresponding to each of a plurality of second contents included in the broadcast signal received through the communication interface, and the obtained first metadata. Based on the similarity between the plurality of second contents, content that is the same as at least one of the plurality of first contents may be identified.
  • a control method of an electronic device includes first metadata including program information, broadcaster information, and broadcast channel information corresponding to each of a plurality of first contents provided by at least one content provider. It may include the step of acquiring.
  • the control method is based on the similarity between the obtained first metadata and second metadata including program information, broadcaster information, and broadcast channel information corresponding to each of a plurality of second contents included in the broadcast signal, It may include identifying content that is the same as at least one of the plurality of first contents among the plurality of second contents.
  • the control method may include managing the plurality of first contents and the plurality of second contents based on an identification result.
  • the operation includes at least one It may include obtaining first metadata including program information, broadcaster information, and broadcast channel information corresponding to each of a plurality of first contents provided by the content provider.
  • the operation may include managing the plurality of first contents and the plurality of second contents based on the identification result.
  • FIG. 1 is a diagram schematically illustrating a control method of an electronic device according to an embodiment.
  • Figure 3 is a flowchart explaining a control method of an electronic device according to an embodiment.
  • 5A to 5C are diagrams for explaining a method of managing first content and second content according to an embodiment.
  • an electronic device may provide a UI 10 including a plurality of contents.
  • the electronic device may be implemented as a server, but is not limited to this.
  • Electronic devices may be implemented as various devices that can provide content corresponding to user input, such as smart TVs, tablets, monitors, smart phones, desktop computers, laptop computers, etc.
  • an electronic device may receive a real-time broadcast signal containing a plurality of contents from at least one content provider.
  • the same content may exist among the received content, and the electronic device may provide the UI 10 in which the same content is provided repeatedly.
  • the electronic device when a plurality of “A” contents (11-1 and 11-2) are received among the plurality of received contents, the electronic device receives a plurality of “A” contents (11-1 and 11-2). If it is not identified as the same content, a problem may occur where the user is provided with the UI 10 where the same “A” content is provided in duplicate. Accordingly, the electronic device must be able to identify the same content among a plurality of received contents and provide a UI in which information about the content identified as the same content is not provided in duplicate.
  • the same content among the plurality of contents is identified by considering different types of information included in the metadata corresponding to the plurality of contents received from the real-time broadcast signal, and the memory is updated based on this, so that the received content
  • Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
  • the electronic device 100 may include a communication interface 110, a memory 120, and one or more processors 130.
  • the electronic device 100 may be implemented as a server.
  • an external server may transmit information to the electronic device 100 in various ways.
  • an external server (or servers) may transmit text information corresponding to the user's voice signal to the electronic device 100.
  • the external server may be a server that performs a voice recognition function that converts the user's voice signal into text information.
  • the electronic device 100 may perform overall operations on its own. Alternatively, according to one embodiment, the electronic device 100 may perform an operation to identify content, and other operations may be performed by an external server. Alternatively, the electronic device 100 may perform content management operations, and other operations may be performed by an external server.
  • the subject of the operations described may change depending on the implementation example.
  • the external server may transmit at least one of text information corresponding to the user's voice signal or search result information corresponding to the text information to the electronic device 100.
  • the external server may be a server that performs a search result provision function that provides search result information corresponding to text information in addition to a voice recognition function that converts the user's voice signal into text information.
  • an external server may be a server that performs both a voice recognition function and a search result provision function.
  • the external server may perform only the voice recognition function and the search result provision function may be performed by a separate server.
  • the external server can transmit text information to a separate server and obtain search results corresponding to the text information from the separate server.
  • the electronic device 100 can communicate with external devices and external servers in various ways.
  • communication modules for communication with external devices and external servers may be implemented in the same way.
  • the electronic device 100 can communicate with an external device using a Bluetooth module, and can also communicate with an external server using a Bluetooth module.
  • communication modules for communication with external devices and external servers may be implemented separately.
  • the electronic device 100 may communicate with an external device using a Bluetooth module and communicate with an external server using an Ethernet modem or a Wi-Fi module.
  • the communication interface 110 can input and output various types of data.
  • the communication interface 110 includes AP-based Wi-Fi (Wireless LAN network), Bluetooth, Zigbee, wired/wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/European Broadcasting Union), Optical , external devices (e.g., source devices), external storage media (e.g., USB memory), and external servers (e.g., web hard drives) and various types of data through communication methods such as coaxial, etc. Can send and receive.
  • the communication interface 110 may use the same communication module (eg, Wi-Fi module) to communicate with an external device such as a remote control device and an external server.
  • an external device such as a remote control device and an external server.
  • the communication interface 110 may use different communication modules to communicate with external devices and external servers, such as remote control devices.
  • the communication interface 110 may use at least one of an Ethernet module or a Wi-Fi module to communicate with an external server, and may use a Bluetooth module to communicate with an external device such as a remote control device.
  • this is only an example, and the communication interface 110 may use at least one communication module among various communication modules when communicating with a plurality of external devices or external servers.
  • the memory 120 may store data necessary for various embodiments.
  • the memory 120 may be implemented as a memory embedded in the electronic device 100 or as a memory detachable from the electronic device 100 depending on the data storage purpose. For example, in the case of data for driving the electronic device 100, it is stored in the memory embedded in the electronic device 100, and in the case of data for the expansion function of the electronic device 100, it is attached and detachable to the electronic device 100. This can be stored in available memory.
  • volatile memory e.g., dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory Examples: one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g. NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD).
  • a memory card eg, compact flash (CF)
  • CF compact flash
  • USB port (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to the USB port (for example, it may be implemented in a form such as USB memory).
  • the memory 120 includes program information, broadcasting operator information, and broadcasting channel information corresponding to each of a plurality of first contents provided by at least one content provider received from an external server (not shown).
  • First metadata may be stored.
  • Content provider refers to a business operator that provides digital or analog signals corresponding to content, and provides electronic signals through at least one of the following: signals using satellites or signals using cables.
  • Content may be provided to the device 100.
  • the first content may be a video type content, but the content is not limited thereto.
  • the first metadata may include a plurality of metadata corresponding to each of a plurality of first contents received from an external server (not shown), and the plurality of metadata may include program information and broadcaster information. and broadcast channel information.
  • program information refers to information about the features of the program corresponding to the content.
  • the program information includes the title of the program, the description of the program, and the running time of the program. ), information about whether it is a paid program, information about the program genre, and program rating information.
  • the processor 130 receives program information corresponding to each of the plurality of first contents from an external server (not shown) through the communication interface 110, broadcasting operator information, broadcasting channel information, and information on whether it is a paid program. 1 Metadata can be received and stored in the memory 120.
  • broadcasting operator information is information about the content provider corresponding to each content
  • broadcasting channel information is information for identifying the broadcasting channel corresponding to each content.
  • broadcast channel information may include at least one of broadcast channel identifier information, channel name information, channel number information, channel frequency information, and channel picture quality information.
  • the channel identifier information may include DVB Triplet information (e.g., at least one of transport_stream_id, service_id, and original_network_id) for the DVB (Digital Video Broadcasting) type, and at least one of the ASTC (Advanced Television Systems Committee) type. It may include at least one of information about the Physical Transmission Channel (information corresponding to the frequency), Major channel number, and Minor channel number.
  • the channel identifier information may include at least one of channel frequency information and channel number information, but is not limited thereto.
  • the channel name information is information about the name of the channel through which the content is broadcast
  • the channel frequency information is information about the frequency of the channel through which the content is broadcast (for example, 701 MHz or identification information corresponding to the frequency).
  • Channel picture quality information is information about the picture quality of a channel through which content is broadcast (eg, Ultra-High-Definition Television (UHD)/High Dynamic Range (HDR) 1.5).
  • image address information corresponding to each of a plurality of first contents may be stored in the memory 120.
  • the video address information refers to address information through which video data corresponding to the first content can be obtained, including URL (Uniform Resource Locator) information where the video data of the content is stored.
  • the processor 130 may obtain image data corresponding to each of the plurality of first contents based on image address information stored in the memory 120.
  • trailer image information corresponding to each of a plurality of first contents may be stored in the memory 120 .
  • Trailer video data refers to a preview video or summary video corresponding to content.
  • trailer video data is video data (or teaser video) corresponding to a video with a running time less than a preset size corresponding to the first content. (teaser) video).
  • processors 130 are electrically connected to the communication interface 110 and the memory 120 and control the overall operation of the electronic device 100.
  • the processor 130 may be comprised of one or multiple processors. Specifically, the processor 130 may perform the operation of the electronic device 100 according to various embodiments of the present disclosure by executing at least one instruction stored in the memory 120.
  • the processor 130 may include a digital signal processor (DSP), a microprocessor, a graphics processing unit (GPU), an artificial intelligence (AI) processor, and a neural processor (NPU) that process digital image signals.
  • DSP digital signal processor
  • GPU graphics processing unit
  • AI artificial intelligence
  • NPU neural processor
  • the processor 130 may include one or more of a controller, an application processor (AP), a communication processor (CP), or an ARM processor.
  • SoC System on Chip
  • SoC System on Chip
  • LSI large scale integration
  • ASIC application specific integrated circuit
  • FPGA Field Programmable Gate Array
  • the processor 130 may be implemented as a digital signal processor (DSP), a microprocessor, or a time controller (TCON). However, it is not limited to this, and the central processing unit ( central processing unit (CPU), micro controller unit (MCU), micro processing unit (MPU), controller, application processor (AP), or communication processor (CP), ARM processor Additionally, the processor 130 may be implemented as a System on Chip (SoC) with a built-in processing algorithm, a large scale integration (LSI), or an FPGA (FPGA). It can also be implemented in the form of a Field Programmable gate array.
  • SoC System on Chip
  • LSI large scale integration
  • FPGA field Programmable gate array
  • the processor 130 may compare first metadata and second metadata.
  • the processor 130 provides program information, broadcaster information, and broadcast channel information corresponding to each of a plurality of second contents included in the real-time broadcast signal (or broadcast signal) received through the communication interface 110.
  • the second metadata including may be compared with the first metadata.
  • the second metadata may include a plurality of metadata corresponding to each of a plurality of second contents received from an external server, and the plurality of metadata includes program information, broadcaster information, and broadcast channel information. It can be included.
  • the second content may be a video type content, but is not limited thereto.
  • the processor 130 may receive second metadata and image data corresponding to each of the plurality of second contents through the communication interface 110.
  • the first metadata and the second metadata may be text information, but are not limited thereto.
  • the processor 130 may compare the first metadata stored in the memory 120 and the second metadata received through the communication interface 110 for each corresponding type.
  • the processor 130 identifies at least one second metadata that matches broadcaster information and broadcast channel information included in the first metadata among the second metadata corresponding to each of the plurality of second contents, and , the program information included in the identified second metadata may be compared with the program information included in the first metadata.
  • a specific method of comparing the first metadata and the second metadata will be described in detail with reference to FIG. 4.
  • the processor 130 may identify content that is the same as at least one of the plurality of first contents among the plurality of second contents.
  • the processor 130 may identify content that is the same as at least one of the plurality of first contents among the plurality of second contents based on the similarity between the first metadata and the second metadata. For example, when any one of the second metadata is identified as having a similarity of more than a preset value to one of the first metadata, the processor 130 generates a first metadata corresponding to one of the first metadata. The content and the second content corresponding to one of the second metadata can be identified as the same content.
  • any one of the second metadata may have a similarity greater than a preset value with at least one of the first metadata.
  • the processor 130 may manage a plurality of first contents and a plurality of second contents based on the identification result. According to one example, if content that is the same as at least one of the plurality of first contents is identified among the plurality of second contents based on the similarity of the first metadata and the second metadata, the processor 130 stores the identified content in at least one of the plurality of second contents.
  • the second metadata corresponding to the identified second content can be updated based on common key information included in the corresponding first metadata.
  • the common key information refers to identification information for identifying each of a plurality of contents, and has different common key information depending on each of the plurality of contents.
  • the common key information corresponding to specific content exists, at least one metadata corresponding to the specific content may include the same common key information.
  • the processor 130 determines the common content included in the first metadata corresponding to one of the first contents.
  • Key information may be identified, and the second metadata may be updated so that the identified common key information is included in the second metadata corresponding to any one of the second content. This will be explained in detail through FIGS. 5A to 5C.
  • Figure 3 is a flowchart explaining a control method of an electronic device according to an embodiment.
  • the control method stores second metadata corresponding to each of a plurality of second contents included in a real-time broadcast signal to each of a plurality of first contents provided by at least one content provider. It can be compared with the first metadata (S310).
  • the processor 130 first generates at least one second metadata that matches broadcaster information and broadcast channel information included in the first metadata among the second metadata corresponding to each of the plurality of second contents. can be identified.
  • the broadcaster information and broadcast channel information included in the first metadata corresponding to one of the plurality of first contents are “Broadcaster 1” and “Channel 1”, respectively.
  • the processor 130 compares the second metadata corresponding to the received plurality of second contents, and selects “Broadcaster 1” and “Broadcaster 1” and broadcast channel information among the second metadata corresponding to the plurality of second contents, respectively.
  • the second metadata which is “Channel 1”, can be identified.
  • the processor 130 may compare program information included in the identified second metadata with program information included in the first metadata. For example, the processor 130 may obtain similarity between the first metadata and the second metadata by comparing program information included in the identified second metadata and program information included in the first metadata. The specific method for obtaining similarity will be described in detail with reference to FIGS. 5A to 5C.
  • the processor 130 may preferentially compare each of the broadcast operator information and broadcast channel information included in the first metadata and the second metadata and then compare each program information, but is not limited to this.
  • any one of broadcasting operator information, broadcasting channel information, and program information may be compared with priority, or broadcasting operator information, broadcasting channel information, and program information may be compared without priority.
  • control method may identify content that is the same as at least one of the plurality of first contents among the plurality of second contents based on the similarity between the first metadata and the second metadata (S320).
  • the processor 130 selects any one of the second metadata corresponding to a plurality of second contents and has a similarity of more than a preset value to the first metadata corresponding to one of the first contents.
  • the processor 130 selects any one of the second metadata corresponding to a plurality of second contents and has a similarity of more than a preset value to the first metadata corresponding to one of the first contents.
  • control method may manage a plurality of first contents and a plurality of second contents based on the identification result (S330).
  • the processor 130 selects the first content Identify common key information included in the first metadata corresponding to any one of the content, and update the second metadata so that the identified common key information is included in the second metadata corresponding to any one of the second content. there is. Subsequently, the processor 130 may store the updated second metadata in the memory 120 .
  • the processor 130 can identify whether the same content as the content stored in the memory 120 exists among a plurality of content received from a real-time broadcast signal, and based on this, select the same content among the received content. Metadata corresponding to the identified content can be stored in the memory 120. Accordingly, different types of metadata corresponding to the same content can be stored, and the probability that the electronic device 100 can identify duplicate content among received content increases.
  • FIG. 4 is a diagram illustrating a method of comparing first metadata and second metadata according to an embodiment.
  • the memory 120 includes program information, broadcaster information, and broadcast information corresponding to each of a plurality of first contents provided by at least one content provider received from an external server (not shown).
  • First metadata 400 including channel information may be stored.
  • the first metadata 400 may include a plurality of metadata 401 to 403 corresponding to each of a plurality of first contents received from an external server, and a plurality of metadata included in the first metadata.
  • the metadata may include program information, broadcaster information, common key information, and broadcast channel information, respectively.
  • the program information is at least one of title information (“Title”), description information (“Description”), running time information (“Time”), and information about whether the content is paid (“Free?”) may include.
  • Title information included in the first metadata 401 corresponding to content A may be “Title 1”
  • description information may be “A”
  • running time information may be “C”.
  • the first metadata corresponding to each of the plurality of first contents may include broadcasting operator information and broadcasting channel information.
  • broadcaster information included in the first metadata 401 corresponding to content A may be “Broadcaster 1” and broadcast channel information may be “Channel 1”.
  • the memory 120 may store first metadata including program information, broadcasting operator information, and broadcasting channel information corresponding to each of a plurality of first contents (e.g., content A to content N).
  • the first metadata may include a plurality of metadata.
  • Each of the plurality of metadata may include at least one of program information, broadcasting operator information, and broadcasting channel information.
  • the processor 130 generates a second meta message including program information, broadcaster information, and broadcast channel information corresponding to each of the plurality of second contents included in the real-time broadcast signal through the communication interface 110.
  • Data 410 may be received.
  • the second metadata 410 may include a plurality of metadata 411 to 413 corresponding to each of a plurality of second contents received from an external server (not shown), and the second metadata
  • the plurality of metadata 411 to 413 included may include program information, broadcasting operator information, and broadcasting channel information, respectively.
  • the processor 130 compares the first metadata and the second metadata to identify content that is the same as the first content corresponding to the first metadata among the second content corresponding to the second metadata. You can.
  • the processor 130 may include at least one piece of second metadata 410 that matches the broadcast operator information and broadcast channel information included in the first metadata 400, respectively, corresponding to each of the plurality of second contents.
  • Second metadata can be identified.
  • the processor 130 compares each of the plurality of metadata included in the received second metadata 410 with each of the plurality of metadata included in the first metadata 400, At least one second metadata matching the broadcast operator information and broadcast channel information included in 400 may be identified.
  • the processor 130 determines whether the broadcaster information (Broadcaster 1) and the broadcast channel information (Channel 1) of any one of the second metadata 411 are any of the first metadata. By comparing one (401) broadcast operator information (Broadcaster 1) and broadcast channel information (Channel 1), the broadcast operator information and broadcast channel information included in one of the second metadata (411) are among the first metadata. It can be identified as matching the broadcasting operator information and broadcasting channel information included in any one (401).
  • the processor 130 divides at least one of broadcast channel identifier information, channel name information, channel number information, channel frequency information, and channel picture quality information included in broadcast channel information into corresponding types. Of course, comparisons are possible.
  • the processor 130 may identify whether the channel name information of one of the second metadata 411 matches the channel name information of one of the first metadata 401. Or, for example, the processor 130 may send broadcast channel identifier information, channel name information, channel number information, channel frequency information, and channel picture quality information included in the broadcast channel information of any one of the second metadata 411 to the first metadata. It is also possible to identify whether it matches each of the broadcast channel identifier information, channel name information, channel number information, channel frequency information, and channel picture quality information included in the broadcast channel information of any one of the metadata 401.
  • the processor 130 selects the broadcast channel of any one of the second metadata 411 when each of the broadcast channel identifier information, channel name information, channel number information, channel frequency information, and channel picture quality information matches.
  • the information may be identified as matching broadcast channel information of any one of the first metadata (401).
  • the processor 130 compares the program information included in the identified second metadata with the program information included in the first metadata, and corresponds to the second metadata having a similarity of more than a preset value.
  • the second content may be identified as the same content as the first content corresponding to the first metadata.
  • the processor 130 may compare program information included in the identified at least one second metadata and program information included in the first metadata matched with the identified at least one second metadata for each corresponding type. . Subsequently, the processor 130 may identify the second content corresponding to the second metadata having a similarity greater than a preset value as the same content as the first content corresponding to the first metadata.
  • the broadcast operator information and broadcast channel information included in any one of the second metadata 411 are identified as matching the broadcast operator information and broadcast channel information included in any one of the first metadata 401.
  • the processor 130 compares the program information included in one of the second metadata 411 with the program information included in one of the first metadata 401 for each corresponding type, and selects one of the second metadata.
  • the title information (“Title 1”) included in one 411 and the title information (“Title 1”) included in one of the first metadata 401 may be identified as matching.
  • the processor 130 may identify the second content (content A) corresponding to the second metadata as the same content as the first content (content A) corresponding to the first metadata.
  • the processor 130 may identify the first metadata and the second metadata that is greater than or equal to a preset similarity value based on information about whether the content included in the program information is paid. .
  • the electronic device 100 may identify metadata that matches the first metadata stored in the memory 120 among the second metadata corresponding to each of the plurality of received second contents, and Based on this, it is possible to identify content that is the same as the first content among a plurality of second content.
  • 5A to 5C are diagrams for explaining a method of managing first content and second content according to an embodiment.
  • the processor 130 compares the program information included in the first metadata and the program information included in the second metadata to generate second content corresponding to the second metadata having a similarity of more than a preset value. can be identified as the same content as the first content corresponding to the first metadata.
  • the processor 130 may identify the number of matching types by comparing the program information included in the identified second metadata and the program information included in the first metadata for each corresponding type.
  • program information may include at least one of title information, description information, and running time information.
  • title information is title information corresponding to the content
  • description information is text information containing a description of the content.
  • Running time information is information about the playback time of content.
  • the processor 130 may identify the identified second metadata as having a similarity greater than or equal to a preset value with the first metadata.
  • the preset number may be, for example, 1, but it is not limited to this and, of course, may be changed based on user input.
  • the processor 130 may identify the second content corresponding to the second metadata having a similarity of more than a preset value as the same content as the first content corresponding to the matched first metadata. .
  • the processor 130 combines each of the plurality of metadata 511 and 512 included in the received second metadata 510 into a plurality of metadata included in the first metadata 500. By comparing each of the metadata 501 to 503, identify any second metadata 512 that matches the broadcasting operator information and broadcast channel information included in any one of the first metadata 500 (501). can do. Additionally, the processor 130 may identify another second metadata 511 that matches the broadcaster information and broadcast channel information included in the other 502 of the first metadata 500.
  • the processor 130 may use title information, description information, and running time information included in any one of the identified second metadata 512 and any one of the first metadata 501. By comparing title information, description information, and running time information for each corresponding type, two types (description information and running time information) can be identified as matching. In addition, the processor 130 may use title information, description information, and running time information included in another identified second metadata 511 and title information and description information included in one first metadata 502. And by comparing the running time information for each corresponding type, it can be identified that one type (title information) matches.
  • the processor 130 selects one second metadata 512 and the other second metadata 511 where the number of matched types is a preset number of one or more. It can be identified as having a similarity greater than a preset value with the first metadata 501 and the other metadata 502.
  • the processor 130 combines the second content (content A) corresponding to any second metadata 512 with a similarity of more than a preset value to any one of the first metadata 501. It can be identified as the same content as the first content (content A) corresponding to .
  • the processor 130 divides the second content (content A) corresponding to any second metadata 511 having a similarity of more than a preset value into the first content corresponding to any one of the first metadata 502. It can be identified as the same content as the content (Content A).
  • the processor 130 may update the second metadata corresponding to the second content identified as the same content and store it in the memory 120.
  • the processor 130 when the second content that is the same as any one of the plurality of first contents among the plurality of second contents is identified, the processor 130 operates the common key (Common key) included in the first metadata corresponding to any one of the plurality of second contents.
  • the second metadata corresponding to the identified second content may be updated based on the Key) information.
  • the processor (130) sets the second metadata 512 so that the common key information (Key A) included in any identified first metadata 501 is included in the second metadata 512 corresponding to the second content identified as the same content.
  • updated second metadata 512-1 can be obtained.
  • the processor 130 By updating the second metadata so that the common key information (Key A) included in another first metadata 502 is included in the second metadata 511 corresponding to the second content identified as the same content, Another updated second metadata 511-1 can be obtained.
  • the processor 130 may store the updated second metadata in the memory 120 .
  • the processor 130 may store one of the updated second metadata 512-1 and the other updated second metadata 511-1 in the memory 120.
  • the processor 130 can obtain updated first metadata 500-1 including a plurality of updated second metadata.
  • the processor 130 provides updated first metadata and first metadata corresponding to each of a plurality of third contents provided by at least one content provider received from an external server (not shown). 3 By comparing metadata, content that is the same as at least one of the plurality of first contents among the plurality of third contents can be identified.
  • the third content may be a video type content, but is not limited thereto.
  • the third metadata may include a plurality of metadata corresponding to each of a plurality of third contents received from an external server, and the plurality of metadata may include program information, broadcaster information, and broadcast channel information. may include each.
  • the memory 120 may store updated first metadata 500-1 including a plurality of updated second metadata 511-1 and 512-1.
  • the processor 130 may receive third metadata 520 corresponding to each of a plurality of third contents provided by at least one content provider through the communication interface 110.
  • the processor 130 combines each of the plurality of metadata 521 and 522 included in the received third metadata 520 with the plurality of metadata included in the updated first metadata 500-1. In comparison with each of (501 to 503, 511-1, and 512-1), broadcaster information and broadcast channel information included in at least some (501 and 512-1) of the updated first metadata (500-1); Any matching third metadata 522 can be identified. In addition, the processor 130 generates another third metadata 521 that matches the broadcaster information and broadcast channel information included in at least some of the updated first metadata 500-1 (502 and 511-1). ) can be identified.
  • the processor 130 stores title information, description information, and running time information included in any identified third metadata 522 to the matched first metadata 501 and 512-1.
  • the included title information, description information, and running time information are compared for each corresponding type, so that one type (running time information) is matched with any one matched first metadata 501, and the other matched first metadata 501 is matched. It can be identified that two types (title information and running type information) match the first metadata 512-1.
  • the processor 130 determines that any one of the identified third metadata 522 and the matched first metadata 501 and 512-1 has a similarity value greater than or equal to a preset value.
  • the third content corresponding to one third metadata 522 can be identified as the same content (content A) as the second content corresponding to the matched first metadata 501 and 512-1.
  • the content corresponding to each of the matched first metadata 501 and 512-1 is the same content (content A).
  • the processor 130 stores title information, description information, and running time information included in another identified third metadata 521 to the matched first metadata 502 and 511-1.
  • the processor 130 compares each type corresponding to the included title information, description information, and running time information, two types (title information and running time information) are matched with one matched first metadata 502, and the other type is matched with the first metadata 502. It can be identified that three types (title information, description information, and running type information) are matched with the matched first metadata 511-1.
  • the processor 130 determines that the third content corresponding to any one of the identified third metadata 521 is the same as the first content corresponding to the matched first metadata 502 and 511-1 ( It can be identified as content A).
  • the content corresponding to each of the matched first metadata 502 and 511-1 is the same content (content A).
  • the processor 130 updates the updated first metadata and third metadata corresponding to each of a plurality of third contents provided by at least one content provider received from an external server (not shown).
  • the comparison can be made excluding the broadcast channel information included in each.
  • the processor 130 selects the program included in the updated first metadata.
  • the program information and broadcaster information included in the information and broadcaster information and the third metadata corresponding to each of the plurality of third contents provided by at least one content provider received from an external server (not shown) are typed correspondingly. By comparing each, any third metadata that matches the broadcaster information and program information included in the updated first metadata may be identified.
  • the electronic device 100 can identify content that is the same as at least one of the plurality of first contents among the plurality of third contents.
  • the processor 130 compares the program information included in the second metadata and the program information included in the first metadata by corresponding type using text information included in the program information. You can. According to one example, the processor 130 may compare program information included in the second metadata and program information included in the first metadata for each corresponding type through a learned neural network model.
  • the processor 130 identifies the similarity between title information, which is text information included in program information corresponding to first metadata, and title information, which is text information included in program information corresponding to second metadata. , If the similarity is identified as being greater than or equal to a preset value, it can be identified that the title information corresponding to the first metadata and the title information corresponding to the second metadata are matched.
  • the processor 130 identifies the similarity between the text corresponding to the description information included in the first metadata and the text corresponding to the description information included in the second metadata, and sets the similarity to a preset value. If it is identified as being abnormal, it may be identified that the description information corresponding to the first metadata and the description information corresponding to the second metadata match.
  • the processor 130 identifies the similarity between the text corresponding to the running time information included in the first metadata and the text corresponding to the running time information included in the second metadata, and determines the similarity. If it is identified as being more than the set value, it may be identified that the running time information corresponding to the first metadata and the running time information corresponding to the second metadata match.
  • the processor 130 obtains a similarity value through a learned neural network model and compares the program information included in the identified second metadata with the program information included in the first metadata to obtain a similarity value.
  • the second content corresponding to the second metadata having a similarity value greater than or equal to the similarity value may be identified as the same content as at least one of the plurality of first contents.
  • the electronic device 100 may include an artificial intelligence model (or artificial neural network model or learning network model) composed of at least one neural network layer.
  • Artificial neural networks may include deep neural networks (DNN), such as Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) or Deep Q-Networks, etc., but are not limited to the above examples.
  • DNN deep neural networks
  • the memory 120 may store a neural network model learned using first metadata for learning and second metadata for learning that matches the first metadata for learning as learning data.
  • the processor 130 receives first metadata corresponding to each of a plurality of first contents provided by at least one content provider received from an external server (not shown) and the communication interface 110.
  • the learned neural network model can be obtained by inputting it into the neural network model.
  • the processor 130 receives first metadata corresponding to each of a plurality of first contents provided by at least one content provider received from an external server (not shown) and the communication interface 110.
  • a reference similarity value may be obtained by inputting a plurality of metadata including second metadata corresponding to each of a plurality of second contents included in the real-time broadcast signal into the learned neural network model.
  • the processor 130 identifies the similarity between the title information corresponding to the first metadata and the title information corresponding to the second metadata, and when the identified similarity is identified as being equal to or greater than the obtained reference similarity value, the processor 130 It can be identified that the title information corresponding to the first metadata and the title information corresponding to the second metadata match.
  • the processor 130 identifies the similarity between the description information corresponding to the first metadata and the description information corresponding to the second metadata, and when the identified similarity is identified as being equal to or greater than the obtained reference similarity value, It can be identified that the description information corresponding to the first metadata and the description information corresponding to the second metadata match.
  • the electronic device 100 can identify whether program information including title information, description information, and running time information included in metadata matches through the obtained standard similarity value.
  • Figures 6A to 6C are diagrams to explain a control method when broadcast channel information does not match, according to an embodiment.
  • the processor 130 identifies that the broadcast channel information included in the received second metadata 610 and the broadcast channel information included in the first metadata 600 do not match. If so, broadcasting channel information corresponding to the second metadata 610 can be obtained from video data included in the real-time broadcasting signal using a preset algorithm.
  • the processor 130 stores broadcast channel information (“Channel 3”) included in the received second metadata 610 and broadcast channel information (“Channel 1”) included in the first metadata 600. and “Channel 2”) are identified as not matching, broadcast channel information of content corresponding to the video data can be obtained from the video data through an optical character recognition (OCR) algorithm.
  • OCR optical character recognition
  • the Optical Character Recognition (OCR) algorithm is an algorithm that extracts text information by analyzing image-type data.
  • the processor 130 may receive image data corresponding to each of a plurality of second contents included in the real-time broadcast signal received through the communication interface 110. If the processor 130 identifies that the broadcast channel information included in the received second metadata 610 and the broadcast channel information included in the first metadata 600 do not match, the processor 130 uses an OCR algorithm to retrieve the image data. Broadcast channel information 60 corresponding to the second content can be obtained.
  • the processor 130 may obtain “Channel 1”, which is text information corresponding to the broadcast channel information 60 of the second content, using an OCR algorithm, and the acquired broadcast channel information 60 is included. If possible, the second metadata 610 can be updated. However, the present invention is not limited to this, and according to one example, the processor 130 may obtain title information corresponding to the second content from image data using an OCR algorithm.
  • the processor 130 uses an OCR algorithm that allows image data corresponding to the relatively upper side of the received image to have a greater weight, and selects broadcast channel information 60 corresponding to the second content from the image data. ) can be obtained.
  • broadcast channel information or title information often exists relatively on the upper side of the video, and the processor 130 uses an OCR algorithm to give video data corresponding to the relatively upper side a greater weight.
  • Broadcast channel information 60 corresponding to the second content can be obtained from.
  • the processor 130 compares the acquired broadcast channel information (“Channel 1”) with the broadcast channel information included in the first metadata 600, and determines the obtained broadcast channel information.
  • the second metadata 610-1 including (“Channel 1”) can be identified as matching the broadcast operator information and broadcast channel information included in any one of the first metadata 600 (601). .
  • the processor 130 selects a plurality of first contents from among the plurality of second contents based on the similarity between one of the first metadata 601 and the updated second metadata 610-1. It is possible to identify content that is identical to at least one of the content, and manage a plurality of first content and a plurality of second content based on the identification result.
  • the processor 130 uses the video data to identify content that is the same as at least one of the plurality of first contents among the second content. You can do it.
  • FIGS. 7A to 7C are diagrams to explain a control method when the similarity is less than a preset value, according to an embodiment.
  • the processor 130 compares the program information included in the identified second metadata with the program information included in the first metadata, and if it is identified as having a similarity less than a preset value, performs a preset algorithm. Using this method, title information and description information corresponding to the second metadata identified from the video data included in the real-time broadcast signal can be obtained. According to one example, the processor 130 compares the program information included in the identified second metadata with the program information included in the first metadata, and if the number of matching types is less than one, uses a preset algorithm. Thus, title information and description information corresponding to the second metadata identified from the video data included in the real-time broadcast signal can be obtained. However, it is not limited to this, and of course, the similarity may change depending on user input.
  • the processor 130 first identifies any one first metadata 701 that matches the broadcast channel information and broadcast operator information included in the received second metadata 710. You can. Subsequently, according to one example, the processor 130 may compare program information included in the identified second metadata 710 with program information included in any one of the first metadata 701.
  • the processor 130 includes program information including title information, description information, and running time information corresponding to the identified second metadata 710 in any one of the first metadata 701.
  • program information including title information, description information, and running time information corresponding to the identified second metadata 710 in any one of the first metadata 701.
  • the processor 130 may obtain program information of content corresponding to the image data from the image data through an optical character recognition (OCR) algorithm.
  • OCR optical character recognition
  • the processor 130 may receive image data corresponding to each of a plurality of second contents included in a real-time broadcast signal received through the communication interface 110. If the program information included in the received second metadata 710 and the program information included in any one of the first metadata 701 are identified as having a similarity less than a preset value, the processor 130 performs an OCR algorithm. Title information 70 corresponding to the second content can be obtained from video data using . Alternatively, although not shown in FIG. 7C, the processor 130 may obtain description information corresponding to the second content from image data using an OCR algorithm.
  • the processor 130 may acquire “Title 1”, which is text information corresponding to the title information 70 of the second content, using an OCR algorithm, and create a second content to include the obtained program information 70.
  • 2 Metadata 710 can be updated.
  • the processor 130 obtains description information corresponding to the second content from the image data using an OCR algorithm, and creates the second metadata 710 to include the obtained information. You can also update it.
  • the processor 130 extracts program information 70 corresponding to the second content from the image data using an OCR algorithm that allows image data corresponding to the relatively upper side of the received image to have a greater weight. can be obtained.
  • the processor 130 compares program information including at least one of the obtained title information or description information with program information included in the first metadata,
  • the second content corresponding to the second metadata having similarity may be identified as the same content as the first content corresponding to the first metadata.
  • the processor 130 when the second metadata 710-1 is updated so that at least one of the obtained title information or description information includes updated program information, the processor 130 operates the updated second metadata 710-1. By comparing the program information in 1) by type corresponding to any one of the first metadata 701, it can be identified that the number of matching types is 1 (title information). Accordingly, the processor 130 may identify the updated second metadata 710-1 as having a similarity greater than or equal to a preset value with any one of the first metadata 701.
  • the processor 130 may determine the similarity between any one of the first metadata 701 and the updated second metadata 710-1 to be greater than or equal to a preset value. It is possible to identify the corresponding second content as being the same as the first content corresponding to any one first metadata, and to manage a plurality of first contents and a plurality of second contents based on the identification result.
  • the processor 130 may identify content that is the same as at least one of the plurality of first contents among the second content using the image data even when the first metadata and the program information among the second metadata do not match. It becomes possible.
  • the processor 130 may identify the same content using image address information corresponding to the content.
  • the memory 120 may further include image address information corresponding to each of the plurality of first contents.
  • the video address information refers to address information through which video data corresponding to the first content can be obtained, including URL (Uniform Resource Locator) information where the video data of the content is stored.
  • URL Uniform Resource Locator
  • the present invention is not limited to this, and trailer image data corresponding to each of a plurality of first contents may be stored in the memory 120 .
  • the trailer video data may be video data (or teaser video) with a running time less than a preset size corresponding to the content.
  • the second metadata 710-1 containing at least one of title information or description information obtained using a preset algorithm is less than the preset value of any one of the first metadata 701.
  • the processor 130 compares the video data included in the real-time broadcast signal and the video data obtained based on the video address information to identify the second metadata 710-1. It is possible to identify whether the second content corresponding to the second metadata is the same content as the first content corresponding to the first metadata.
  • the processor 130 obtains image data of the first content corresponding to one piece of first metadata 701 based on the image address information stored in the memory 120, and converts it into second metadata ( Is the second content corresponding to the second metadata 710-1_ identified by comparing with the image data corresponding to 710-1 the same content as the first content corresponding to any one of the first metadata 701?
  • the processor 130 extracts an image frame from each image data, compares them, and determines that the second content corresponding to the identified second metadata is the first metadata. 1 It is possible to identify whether the content is the same as the content.
  • Figure 8 is a diagram for explaining a method of providing UI according to an embodiment.
  • the processor 130 may provide a UI in which information about content identified as the same content is not repeatedly provided based on the identification result.
  • the processor 130 determines that the second content corresponding to the second metadata is converted into the first content corresponding to the first metadata based on the program information, broadcasting operator information, and broadcasting channel information included in the second metadata. If the content is identified as the same content, a UI that does not overlap the second content and the first content can be provided.
  • the second content 80-1 corresponding to the second metadata is identified as the same content even though the first content 80-2 corresponding to the first metadata is the same content. There may be cases where this does not work.
  • a UI 80 in which the first content 80-2 and the second content 80-1 are displayed may be provided, and the user may be exposed to the same content overlappingly, which may reduce satisfaction. .
  • the second content 80-1 corresponding to the second metadata is the first content corresponding to the first metadata based on the program information, broadcasting operator information, and broadcasting channel information included in the metadata.
  • the processor 130 determines that the first content (80-2) and the second content (80-1) identified as the same content are single content.
  • the UI 800 indicated by 810 can be provided.
  • the processor 130 A UI 800 containing information about a single content 810 and broadcaster information 810-1 and 810-2 corresponding to each content can be provided. That is, the processor 130 may provide a UI that includes at least one of broadcast operator information or broadcast channel information corresponding to a plurality of contents identified as the same content.
  • users can select content by considering broadcasting operator or broadcasting channel information, and user satisfaction can be improved.
  • Figure 9 is a block diagram showing the detailed configuration of an electronic device according to an embodiment.
  • the electronic device 100' includes a communication interface 110, a memory 120, one or more processors 130, a microphone 140, a speaker 150, a display 160, and a user interface 170. And it may include at least one sensor 180.
  • a communication interface 110 includes a communication interface 110, a memory 120, one or more processors 130, a microphone 140, a speaker 150, a display 160, and a user interface 170. And it may include at least one sensor 180.
  • FIG. 9 detailed descriptions of configurations that overlap with those shown in FIG. 2 will be omitted.
  • the microphone 140 may refer to a module that acquires sound and converts it into an electrical signal, and may be a condenser microphone, ribbon microphone, moving coil microphone, piezoelectric element microphone, carbon microphone, or MEMS (Micro Electro Mechanical System) microphone. Additionally, it can be implemented in omni-directional, bi-directional, uni-directional, sub-cardioid, super-cardioid, and hyper-cardioid ways.
  • the electronic device 100' performs an operation corresponding to a user voice signal received through the microphone 140.
  • the electronic device 100 ′ may control the display 160 based on a user voice signal received through the microphone 140 . For example, when a user voice signal for displaying A content is received, the electronic device 100' may control the display 160 to display A content.
  • the electronic device 100' may control an external display device connected to the electronic device 100' based on a user's voice signal received through the microphone 140. Specifically, the electronic device 100' may generate a control signal to control the external display device so that an operation corresponding to the user's voice signal is performed on the external display device, and transmit the generated control signal to the external display device.
  • the electronic device 100' may store a remote control application for controlling an external display device. Additionally, the electronic device 100' may transmit the generated control signal to an external display device using at least one communication method among Bluetooth, Wi-Fi, or infrared.
  • the electronic device 100' may transmit a control signal for controlling display of content A on the external display device to the external display device.
  • the electronic device 100' may refer to various terminal devices that can install a remote control application, such as a smartphone or AI speaker.
  • the electronic device 100' may use a remote control device to control an external display device connected to the electronic device 100' based on the user's voice signal received through the microphone 140. Specifically, the electronic device 100' may transmit a control signal for controlling the external display device to the remote control device so that an operation corresponding to the user's voice signal is performed on the external display device. Additionally, the remote control device may transmit the control signal received from the electronic device 100' to an external display device. For example, when a user voice signal for displaying content A is received, the electronic device 100' transmits a control signal for controlling display of content A on an external display device to the remote control device, and the remote control device The received control signal can be transmitted to an external display device.
  • the speaker 150 includes a tweeter for reproducing high-pitched sounds, a midrange for reproducing mid-range sounds, a woofer for reproducing low-pitched sounds, a subwoofer for reproducing extremely low-pitched sounds, an enclosure for controlling resonance, and an input to the speaker. It may be composed of a crossover network that divides the electrical signal frequencies into bands.
  • the speaker 150 may output an acoustic signal to the outside of the electronic device 100'.
  • the speaker 150 can output multimedia playback, recording playback, various notification sounds, voice messages, etc.
  • the electronic device 100' may include an audio output device such as the speaker 150, or may include an output device such as an audio output terminal.
  • the speaker 150 can provide acquired information, information processed and produced based on the acquired information, response results to the user's voice, or operation results, etc. in voice form.
  • the display 160 may be implemented as a display including a self-emitting device or a display including a non-emitting device and a backlight.
  • a display including a self-emitting device or a display including a non-emitting device and a backlight.
  • LCD Liquid Crystal Display
  • OLED Organic Light Emitting Diodes
  • LED Light Emitting Diodes
  • micro LED micro LED
  • Mini LED Plasma Display Panel
  • QD Quantum dot
  • QLED Quantum dot light-emitting diodes
  • the display 160 may also include a driving circuit and a backlight unit that may be implemented in the form of a-si TFT, low temperature poly silicon (LTPS) TFT, or organic TFT (OTFT).
  • LTPS low temperature poly silicon
  • OFT organic TFT
  • the display 160 is implemented as a touch screen combined with a touch sensor, a flexible display, a rollable display, a 3D display, a display in which a plurality of display modules are physically connected, etc. It can be.
  • the processor 130 may control the display 160 to output the output image obtained according to the various embodiments described above.
  • the output image may be a high-resolution image of 4K or 8K or higher.
  • the electronic device 100' may not include the display 160.
  • the electronic device 100' can be connected to an external display device and can transmit images or content stored in the electronic device 100' to the external display device.
  • the electronic device 100' may transmit an image or content to an external display device along with a control signal for controlling the image or content to be displayed on the external display device.
  • the external display device may be connected to the electronic device 100' through a communication interface 110 or an input/output interface (not shown).
  • the electronic device 100' may not include a display like a set top box (STB).
  • the electronic device 100' may include only a small display capable of displaying only simple information such as text information.
  • the electronic device 100' may transmit images or content to an external display device wired or wirelessly through the communication interface 110, or may transmit the image or content to an external display device through an input/output interface (not shown).
  • the user interface 170 is a configuration that allows the electronic device 100' to interact with a user.
  • the user interface 170 may include at least one of a touch sensor, a motion sensor, a button, a jog dial, a switch, a microphone, or a speaker, but is not limited thereto.
  • At least one sensor 180 may include a plurality of sensors of various types.
  • the sensor 180 may measure a physical quantity or detect the operating state of the electronic device 100' and convert the measured or sensed information into an electrical signal.
  • the sensor 180 may include a camera, and the camera may include a lens that focuses visible light and other optical signals reflected by an object and received into an image sensor, and an image sensor that can detect visible light and other optical signals.
  • the image sensor may include a 2D pixel array divided into a plurality of pixels.
  • the electronic device 100' may include an input/output interface (not shown).
  • Input/output interfaces include HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP (Display Port), Thunderbolt, and VGA (Video Graphics Array) port. , it may be any one of an RGB port, D-SUB (D-subminiature), or DVI (Digital Visual Interface).
  • the input/output interface (not shown) can input and output at least one of audio and video signals.
  • the input/output interface may include a port that inputs and outputs only audio signals and a port that inputs and outputs only video signals as separate ports, or may be implemented as a single port that inputs and outputs both audio signals and video signals.
  • the electronic device 100' may transmit at least one of audio and video signals to an external device (eg, an external display device or an external speaker) through an input/output interface (not shown).
  • an output port included in the input/output interface (not shown) may be connected to an external device, and the electronic device 100' may transmit at least one of an audio and video signal to the external device through the output port.
  • the electronic device 100' can identify whether the same content as the content stored in the memory 120 exists among a plurality of content received through a real-time broadcast signal, etc., and the received content based on this. Metadata corresponding to content identified as the same content can be stored in the memory 120.
  • the methods according to various embodiments of the present disclosure described above may be implemented in the form of an application that can be installed on an existing robot.
  • the methods according to various embodiments of the present disclosure described above may be performed using a deep learning-based learned neural network (or deep learned neural network), that is, a learning network model.
  • the methods according to various embodiments of the present disclosure described above may be implemented only by upgrading software or hardware for an existing robot.
  • the various embodiments of the present disclosure described above can also be performed through an embedded server provided in the robot or an external server of the robot.
  • the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media (e.g., a computer).
  • the device is a device capable of calling instructions stored from a storage medium and operating according to the called instructions, and may include a display device (eg, display device A) according to the disclosed embodiments.
  • the processor may perform the function corresponding to the instruction directly or using other components under the control of the processor.
  • Instructions may contain code generated or executed by a compiler or interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium does not contain signals and is tangible, and does not distinguish whether the data is stored semi-permanently or temporarily in the storage medium.
  • the methods according to various embodiments described above may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed on a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or online through an application store (e.g. Play StoreTM).
  • an application store e.g. Play StoreTM
  • at least a portion of the computer program product may be at least temporarily stored or created temporarily in a storage medium such as the memory of a manufacturer's server, an application store server, or a relay server.
  • each component e.g., module or program
  • each component may be composed of a single or multiple entities, and some of the sub-components described above may be omitted, or other sub-components may be omitted. Additional components may be included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or at least some operations may be executed in a different order, omitted, or other operations may be added. You can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 통신 인터페이스 및 서버로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하고, 통신 인터페이스를 통해 수신된 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터와 획득한 제1 메타데이터 간의 유사도에 기초하여, 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하고, 식별 결과에 기초하여 복수의 제1 컨텐츠 및 복수의 제2 컨텐츠를 관리하는 프로세서를 포함한다.

Description

전자 장치 및 이의 제어 방법
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 컨텐츠에 대응되는 다양한 타입의 정보를 고려하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 이에 기초하여 동일한 컨텐츠가 중복하여 노출되지 않도록 관리하는 전자 장치 및 이의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 기기가 개발 및 보급되고 있다. 특히, 디스플레이를 통해 사용자에게 컨텐츠를 제공하는 전자 장치에 대한 기술 개발이 활발해지고 있다.
최근 다양한 컨텐츠 프로바이더로부터 컨텐츠를 제공받고, 이에 기초하여 사용자에게 컨텐츠를 제공하는 서비스가 발전하고 있다. 상이한 컨텐츠 프로바이더로부터 다양한 타입의 컨텐츠가 수신됨에 따라 사용자에게 보다 폭 넓은 컨텐츠를 제공할 수 있다는 장점이 있다. 다만, 복수의 컨텐츠 프로바이더로부터 독립적으로 컨텐츠를 수신하는 경우, 동일한 컨텐츠가 중복되어 수신될 수 있으며, 이에 따라 복수의 컨텐츠 중 동일한 컨텐츠를 식별하는 방법이 중요하다.
본 개시의 일 실시 예에 따른 전자 장치는, 통신 인터페이스 및 서버로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 통신 인터페이스를 통해 수신된 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터와 상기 획득한 제1 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다.
상기 프로세서는, 식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리할 수 있다.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하는 단계를 포함할 수 있다.
상기 제어 방법은, 상기 획득된 제1 메타데이터 및 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하는 단계를 포함할 수 있다.
상기 제어 방법은, 식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리하는 단계를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은, 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하는 단계를 포함할 수 있다.
상기 동작은, 상기 획득한 제1 메타데이터 및 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하는 단계를 포함할 수 있다.
상기 동작은, 식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리하는 단계를 포함할 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시 예에 따른 제1 메타데이터 및 제2 메타데이터를 비교하는 방법을 설명하기 위한 도면이다.
도 5a 내지 5c는 일 실시 예에 따른 제1 컨텐츠 및 제2 컨텐츠를 관리하는 방법을 설명하기 위한 도면이다.
도 6a 내지 6c는 일 실시 예에 따른 방송 채널 정보가 매칭되지 않는 경우의 제어 방법을 설명하기 위한 도면이다.
도 7a 내지 7c는 일 실시 예에 따른 기 설정된 값 미만의 유사도를 가지는 경우의 제어 방법을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 UI 제공 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 설명하기 위한 도면이다.
도 1에 따르면, 일 실시 예에 따라 전자 장치는 복수의 컨텐츠가 포함된 UI(10)를 제공할 수 있다. 일 예에 따라, 전자 장치는 서버로 구현될 수 있으나, 이에 한정되는 것은 아니다. 전자 장치는 예를 들어, 스마트 TV, 태블릿, 모니터, 스마트 폰, 데스크톱 컴퓨터, 랩톱 컴퓨터 등과 같이 사용자 입력에 대응되는 컨텐츠를 제공할 수 있는 다양한 장치로 구현될 수도 있다.
한편, 일 실시 예에 따라 전자 장치는 적어도 하나의 컨텐츠 프로바이더로부터 복수의 컨텐츠가 포함된 실시간 방송 신호를 수신할 수 있다. 이 경우, 수신된 컨텐츠 중에서 동일한 컨텐츠가 존재할 수 있으며, 전자 장치는 동일한 컨텐츠가 중복 제공되는 UI(10)를 제공할 수 있다.
일 예에 따라, 수신된 복수의 컨텐츠 중 복수의 “A” 컨텐츠(11-1 및 11-2)가 수신된 경우, 전자 장치가 복수의 “A” 컨텐츠(11-1 및 11-2)를 동일한 컨텐츠로 식별하지 못한다면, 사용자는 동일한 “A” 컨텐츠가 중복 제공되는 UI(10)를 제공받는 문제가 발생할 수 있다. 이에, 전자 장치는 수신된 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 동일한 컨텐츠로 식별된 컨텐츠에 대한 정보가 중복 제공되지 않는 UI를 제공할 수 있어야 한다.
이에 따라, 이하에서는 실시간 방송 신호로부터 수신된 복수의 컨텐츠에 대응되는 메타데이터에 포함된 상이한 타입의 정보를 고려하여 복수의 컨텐츠 중 동일한 컨텐츠를 식별하고, 이에 기초하여 메모리를 업데이트함으로써, 수신된 컨텐츠 중 중복된 컨텐츠를 식별할 수 있는 다양한 방법에 대하여 설명하도록 한다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 2에 따르면, 전자 장치(100)는 통신 인터페이스(110), 메모리(120) 및 하나 이상의 프로세서(130)를 포함할 수 있다.
일 실시 예에 따라 전자 장치(100)는 서버로 구현될 수 있다. 한편, 외부 서버는 다양한 방식으로 전자 장치(100)에 정보를 전송할 수 있다. 일 실시 예에 따라, 외부 서버(또는, 서버)는 사용자 음성 신호에 대응되는 텍스트 정보를 전자 장치(100)에 전송할 수 있다. 구체적으로, 외부 서버는 사용자 음성 신호를 텍스트 정보로 변환하는 음성 인식 기능을 수행하는 서버일 수 있다.
일 실시 예에 따라, 전자 장치(100)는 전반적인 동작을 자체적으로 수행할 수 있다. 또는, 일 실시 예에 따라, 전자 장치(100)는 컨텐츠를 식별하는 동작을 수행하고, 이외의 동작은 외부 서버에서 수행할 수 있다. 또는, 전자 장치(100)는 컨텐츠를 관리하는 동작을 수행하고, 이외의 동작은 외부 서버에서 수행할 수도 있다. 여기서, 설명된 동작들은 구현 예에 따라 동작 주체가 변경될 수 있다.
다른 실시 예에 따라, 외부 서버는 사용자 음성 신호에 대응되는 텍스트 정보 또는 텍스트 정보에 대응되는 검색 결과 정보 중 적어도 하나를 전자 장치(100)에 전송할 수 있다. 구체적으로, 외부 서버는 사용자 음성 신호를 텍스트 정보로 변환하는 음성 인식 기능 이외에 텍스트 정보에 대응되는 검색 결과 정보를 제공하는 검색 결과 제공 기능을 수행하는 서버일 수 있다. 일 예로, 외부 서버는 음성 인식 기능 및 검색 결과 제공 기능을 모두 수행하는 서버일 수 있다. 다른 예로, 외부 서버는 음성 인식 기능만을 수행하고 검색 결과 제공 기능은 별도의 서버에서 수행될 수 있다. 외부 서버는 검색 결과를 획득하기 위하여 별도의 서버에 텍스트 정보를 전송하고 별도의 서버로부터 텍스트 정보에 대응되는 검색 결과를 획득할 수 있다.
한편, 전자 장치(100)는 다양한 방식으로 외부 장치 및 외부 서버와 통신 연결할 수 있다. 일 실시 예에 따라, 외부 장치 및 외부 서버와의 통신을 위한 통신 모듈이 동일하게 구현될 수 있다. 예를 들어, 전자 장치(100)는 외부 장치와는 블루투스 모듈을 이용하여 통신하고, 외부 서버도 역시 블루투스 모듈을 이용하여 통신할 수 있다.
다른 실시 예에 따라, 외부 장치 및 외부 서버와의 통신을 위한 통신 모듈은 별개로 구현될 수 있다. 예를 들어, 전자 장치(100)는 외부 장치와는 블루투스 모듈을 이용하여 통신하고, 외부 서버와는 이더넷 모뎀 또는 와이파이 모듈을 이용하여 통신할 수 있다.
통신 인터페이스(110)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(110)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다.
일 예에 따라 통신 인터페이스(110)는 원격 제어 장치와 같은 외부 장치 및 외부 서버와 통신하기 위해 동일한 통신 모듈(예를 들어, 와이파이 모듈)을 이용할 수 있다.
일 예에 따라 통신 인터페이스(110)는 원격 제어 장치와 같은 외부 장치 및 외부 서버와 통신하기 위해 상이한 통신 모듈을 이용할 수 있다. 예를 들어, 통신 인터페이스(110)는 외부 서버와 통신하기 위해 이더넷 모듈 또는 와이파이 모듈 중 적어도 하나를 이용할 수 있고, 원격 제어 장치와 같은 외부 장치와 통신하기 위해 블루투스 모듈을 이용할 수도 있다. 다만 이는 일 실시 예에 불과하며 통신 인터페이스(110)는 복수의 외부 장치 또는 외부 서버와 통신하는 경우 다양한 통신 모듈 중 적어도 하나의 통신 모듈을 이용할 수 있다.
메모리(120)는 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(120)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위 한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다.
한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 실시 예에 따라, 메모리(120)에는 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터가 저장되어 있을 수 있다. 컨텐츠 프로바이더는 컨텐츠에 대응되는 디지털(Digital) 신호 또는 아날로그(Analog) 신호를 제공하는 사업자를 의미하며, 위성(satellite)을 이용한 신호 또는 유선(cable)을 이용한 신호 중 적어도 하나의 방법을 통하여 전자 장치(100)로 컨텐츠를 제공할 수 있다. 일 예에 따라 제1 컨텐츠는 영상 타입의 컨텐츠일 수 있으나, 이에 한정되는 것은 아니다.
한편, 일 예에 따라 제1 메타데이터는 외부 서버(미도시)로부터 수신된 복수의 제1 컨텐츠 각각에 대응되는 복수의 메타데이터를 포함할 수 있으며, 복수의 메타데이터는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함할 수 있다. 한편, 프로그램 정보는 컨텐츠에 대응되는 프로그램의 특징(feature)에 대한 정보를 의미하며, 일 예에 따라 프로그램 정보는 프로그램의 타이틀(Title), 프로그램의 디스크립션(Description), 프로그램의 러닝 타임(Running time), 유료 프로그램인지 여부에 대한 정보, 프로그램 장르에 대한 정보, 프로그램의 등급 정보 중 적어도 하나를 포함할 수 있다. 프로세서(130)는 통신 인터페이스(110)를 통해 외부 서버(미도시)로부터 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보, 방송 채널 정보 및 유료 프로그램인지 여부에 대한 정보를 포함하는 제1 메타데이터를 수신하여, 이를 메모리(120)에 저장할 수 있다.
한편, 방송 사업자 정보는 컨텐츠 각각에 대응되는 컨텐츠 제공 사업자에 대한 정보이며, 방송 채널 정보는 컨텐츠 각각에 대응되는 방송 채널을 식별하기 위한 정보이다. 일 예에 따라 방송 채널 정보는 방송 채널 식별자 정보, 채널 이름 정보, 채널 번호 정보, 채널 주파수 정보 및 채널 화질 정보 중 적어도 하나를 포함할 수 있다. 채널 식별자 정보는 DVB(Digital Video Broadcasting) 타입의 경우 DVB Triplet 정보(예를 들어, transport_stream_id, service_id, original_network_id 중 적어도 하나)를 포함할 수 있으며, ASTC(Advanced Television Systems Committee) 중 적어도 하나) 타입의 경우 Physical Transmission Channel(주파수에 대응되는 정보), Major channel number, Minor channel number에 대한 정보 중 적어도 하나를 포함할 수 있다. 일 예에 따라, 채널 식별자 정보에는 채널 주파수 정보, 채널 번호 정보 중 적어도 하나가 포함될 수 있으나, 이에 한정되는 것은 아니다.
한편, 채널 이름 정보는 켄텐츠가 방송되는 채널의 이름에 대한 정보이며, 채널 주파수 정보는 컨텐츠가 방송되는 채널의 주파수(예를 들어, 701MHz 또는 주파수에 대응되는 식별 정보)에 대한 정보이다. 채널 화질 정보는 컨텐츠가 방송되는 채널의 화질에 대한 정보(예를 들어, UHD(Ultra-High-Definition Television)/HDR(High Dynamic Range) 1.5)이다.
한편, 일 실시 예에 따라 메모리(120)에는 복수의 제1 컨텐츠 각각에 대응되는 영상 어드레스(address) 정보가 저장되어 있을 수 있다. 여기서, 영상 어드레스 정보는 컨텐츠의 영상 데이터가 저장된 URL(Uniform Resource Locator) 정보를 포함하는 제1 컨텐츠에 대응되는 영상 데이터를 획득할 수 있는 주소 정보를 의미한다. 일 예에 따라, 프로세서(130)는 메모리(120)에 저장된 영상 어드레스 정보에 기초하여 복수의 제1 컨텐츠 각각에 대응되는 영상 데이터를 획득할 수 있다. 한편, 이에 한정되지 않으며 메모리(120)에는 복수의 제1 컨텐츠 각각에 대응되는 트레일러(trailer) 영상 정보가 저장되어 있을 수 있다. 트레일러 영상 데이터는 컨텐츠에 대응되는 예고 영상 또는 요약 영상을 의미하며, 일 예에 따라 트레일러 영상 데이터는 제1 컨텐츠에 대응되는 기 설정된 크기 미만의 러닝 타임을 가지는 영상에 대응되는 영상 데이터(또는, 티저(teaser) 영상)일 수 있다.
하나 이상의 프로세서(130)(이하, 프로세서)는 통신 인터페이스(110) 및 메모리(120)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수 있다. 구체적으로, 프로세서(130)는 메모리(120)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 본 개시의 다양한 실시 예에 따른 전자 장치(100)의 동작을 수행할 수 있다.
일 실시 예에 따라 프로세서(130)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, NPU (Neural Processing Unit), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, ASIC(application specific integrated circuit), FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
일 실시 예에 따라 프로세서(130)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
일 실시 예에 따라, 프로세서(130)는 제1 메타데이터 및 제2 메타데이터를 비교할 수 있다.
일 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 수신된 실시간 방송 신호(또는, 방송 신호)에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터를 제1 메타데이터와 비교할 수 있다.
일 예에 따라, 제2 메타데이터는 외부 서버로부터 수신된 복수의 제2 컨텐츠 각각에 대응되는 복수의 메타데이터를 포함할 수 있으며, 복수의 메타데이터는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함할 수 있다. 한편, 제2 컨텐츠는 영상 타입의 컨텐츠일 수 있으나, 이에 한정되는 것은 아니다. 프로세서(130)는 통신 인터페이스(110)를 통해 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 및 영상 데이터를 수신할 수 있다. 일 예에 따라 제1 메타데이터 및 제2 메타데이터는 텍스트 정보일 수 있으나, 이에 한정되는 것은 아니다.
일 예에 따라, 프로세서(130)는 메모리(120)에 저장된 제1 메타데이터 및 통신 인터페이스(110)를 통해 수신된 제2 메타데이터를 대응되는 타입 별로 비교할 수 있다.
예를 들어, 프로세서(130)는 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 중 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별하고, 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교할 수 있다. 제1 메타데이터 및 제2 메타데이터를 비교하는 구체적인 방법에 대하여는 도4를 통해 자세히 설명하도록 한다.
일 실시 예에 따라, 프로세서(130)는 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다.
일 예에 따라, 프로세서(130)는 제1 메타데이터 및 제2 메타데이터의 유사도에 기초하여 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다. 예를 들어, 프로세서(130)는 제2 메타데이터 중 어느 하나가 제1 메타데이터 중 어느 하나와 기 설정된 값 이상의 유사도를 갖는 것으로 식별되는 경우, 상기 어느 하나의 제1 메타데이터에 대응되는 제1 컨텐츠와 상기 어느 하나의 제2 메타데이터에 대응되는 제2 컨텐츠가 동일한 컨텐츠인 것으로 식별할 수 있다.
다만, 이에 한정되는 것은 아니며 제2 메타데이터 중 어느 하나는 제1 메타데이터 중 적어도 하나와 기 설정된 값 이상의 유사도를 가질 수도 있음은 물론이다.
한편, 일 실시 예에 따라 프로세서(130)는 식별 결과에 기초하여 복수의 제1 컨텐츠 및 복수의 제2 컨텐츠를 관리할 수 있다. 일 예에 따라, 프로세서(130)는 제1 메타데이터 및 제2 메타데이터의 유사도에 기초하여 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠가 식별되면, 식별된 적어도 하나에 대응되는 제1 메타데이터에 포함된 공통 키(Common Key) 정보에 기초하여 식별된 제2 컨텐츠에 대응되는 제2 메타데이터를 업데이트할 수 있다.
여기서, 공통 키 정보는 복수의 컨텐츠 각각을 식별하기 위한 식별 정보를 의미하며, 복수의 컨텐츠 각각에 따라 상이한 공통 키 정보를 가진다. 예를 들어, 특정 컨텐츠에 대응되는 공통 키 정보가 존재하는 경우, 특정 컨텐츠에 대응되는 적어도 하나의 메타데이터에는 동일한 공통 키 정보가 포함되어 있을 수 있다.
일 예에 따라, 프로세서(130)는 제2 컨텐츠 중 어느 하나가 복수의 제1 컨텐츠 중 어느 하나와 동일한 컨텐츠로 식별된 경우, 제1 컨텐츠 중 어느 하나에 대응되는 제1 메타데이터에 포함된 공통 키 정보를 식별하고, 식별된 공통 키 정보가 제2 컨텐츠 중 어느 하나에 대응되는 제2 메타데이터에 포함되도록 제2 메타데이터를 업데이트할 수 있다. 이에 도 5a 내지 5c를 통해 자세히 설명하도록 한다.
도 3은 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 3에 따르면, 일 실시 예에 따라 제어 방법은 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터를 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 제1 메타데이터와 비교할 수 있다(S310).
일 예에 따라, 먼저 프로세서(130)는 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 중 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별할 수 있다.
예를 들어, 복수의 제1 컨텐츠 중 어느 하나에 대응되는 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보가 각각 “Broadcaster 1” 및 “Channel 1”인 경우를 상정한다. 프로세서(130)는 수신된 복수의 제2 컨텐츠에 대응되는 제2 메타데이터와 비교하여, 복수의 제2 컨텐츠에 대응되는 제2 메타데이터 중 방송 사업자 정보 및 방송 채널 정보가 각각 “Broadcaster 1” 및 “Channel 1”인 제2 메타데이터를 식별할 수 있다.
이어서, 일 예에 따라 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교할 수 있다. 예를 들어, 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보 및 제1 메타데이터에 포함된 프로그램 정보를 비교하여 제1 메타데이터 및 제2 메타데이터의 유사도를 획득할 수 있다. 유사도를 획득하는 구체적인 방법에 대하여는 도 5a 내지 5c를 통해 자세히 설명하도록 한다.
한편, 일 예에 따라 프로세서(130)는 제1 메타데이터 및 제2 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보 각각을 우선적으로 비교한 후 프로그램 정보 각각을 비교할 수 있으나, 이에 한정되는 것은 아니며 방송 사업자 정보, 방송 채널 정보 및 프로그램 정보 중 어느 하나를 우선적으로 비교할 수 있으며, 또는 방송 사업자 정보, 방송 채널 정보 및 프로그램 정보를 우선 순위 없이 비교할 수도 있음은 물론이다.
이어서, 일 실시 예에 따라 제어 방법은 제1 메타데이터 및 제2 메타데이터의 유사도에 기초하여 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다(S320).
일 예에 따라, 프로세서(130)는 복수의 제2 컨텐츠에 대응되는 제2 메타데이터 중 제1 컨텐츠 중 어느 하나에 대응되는 제1 메타데이터와 기 설정된 값 이상의 유사도를 가지는 어느 하나의 제2 메타데이터가 식별되면, 식별된 어느 하나의 제2 메타데이터에 대응되는 제2 컨텐츠와 제1 메타데이터에 대응되는 제1 컨텐츠 중 어느 하나가 동일한 컨텐츠인 것으로 식별할 수 있다.
이어서, 일 실시 예에 따라 제어 방법은 식별 결과에 기초하여 복수의 제1 컨텐츠 및 복수의 제2 컨텐츠를 관리할 수 있다(S330).
일 예에 따라, 프로세서(130)는 식별된 어느 하나의 제2 메타데이터에 대응되는 제2 컨텐츠와 제1 메타데이터에 대응되는 제1 컨텐츠 중 어느 하나가 동일한 컨텐츠인 것으로 식별되면, 제1 컨텐츠 중 어느 하나에 대응되는 제1 메타데이터에 포함된 공통 키 정보를 식별하고, 식별된 공통 키 정보가 제2 컨텐츠 중 어느 하나에 대응되는 제2 메타데이터에 포함되도록 제2 메타데이터를 업데이트할 수 있다. 이어서, 프로세서(130)는 업데이트된 제2 메타데이터를 메모리(120)에 저장할 수 있다.
상술한 실시 예에 따르면, 프로세서(130)는 실시간 방송 신호로부터 수신된 복수의 컨텐츠 중 메모리(120)에 저장된 컨텐츠와 동일한 컨텐츠가 존재하는지 식별할 수 있고, 이에 기초하여 수신된 컨텐츠 중 동일한 컨텐츠로 식별된 컨텐츠에 대응되는 메타데이터를 메모리(120)에 저장할 수 있게 된다. 이에 따라, 동일한 컨텐츠에 대응되는 상이한 타입의 메타데이터가 저장될 수 있으며, 전자 장치(100)는 수신된 컨텐츠 중 중복된 컨텐츠를 식별할 수 있는 확률이 올라가게 된다.
도 4는 일 실시 예에 따른 제1 메타데이터 및 제2 메타데이터를 비교하는 방법을 설명하기 위한 도면이다.
도 4에 따르면, 일 실시 예에 따라 메모리(120)에는 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터(400)가 저장되어 있을 수 있다.
일 예에 따라, 제1 메타데이터(400)는 외부 서버로부터 수신된 복수의 제1 컨텐츠 각각에 대응되는 복수의 메타데이터(401 내지 403)를 포함할 수 있으며, 제1 메타데이터에 포함된 복수의 메타데이터는 프로그램 정보, 방송 사업자 정보, 공통 키 정보 및 방송 채널 정보를 각각 포함할 수 있다.
일 예에 따라, 프로그램 정보는 타이틀 정보(“Title”), 디스크립션 정보(“Description”), 러닝타임 정보(“Time”) 및 컨텐츠가 유료인지 여부에 대한 정보(“Free?”) 중 적어도 하나를 포함할 수 있다. 예를 들어, 컨텐츠 A에 대응되는 제1 메타데이터(401)에 포함된 타이틀 정보는 “Title 1”, 디스크립션 정보는 “A”, 러닝 타임 정보는 “C”일 수 있다.
한편, 일 예에 따라 복수의 제1 컨텐츠 각각에 대응되는 제1 메타데이터에는 방송 사업자 정보 및 방송 채널 정보가 포함되어 있을 수 있다. 예를 들어, 컨텐츠 A에 대응되는 제1 메타데이터(401)에 포함된 방송 사업자 정보는 “Broadcaster 1”이며, 방송 채널 정보는 “Channel 1”일 수 있다.
즉, 메모리(120)에는 복수의 제1 컨텐츠(예를 들어, 컨텐츠 A 내지 컨텐츠 N) 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터가 저장되어 있을 수 있으며, 제1 메타데이터는 복수의 메타데이터를 포함할 수 있다. 복수의 메타데이터 각각은 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보 중 적어도 하나를 포함할 수 있다.
한편, 일 실시 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터(410)를 수신할 수 있다.
일 예에 따라, 제2 메타데이터(410)는 외부 서버(미도시)로부터 수신된 복수의 제2 컨텐츠 각각에 대응되는 복수의 메타데이터(411 내지 413)를 포함할 수 있으며, 제2 메타데이터에 포함된 복수의 메타데이터(411 내지 413)는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 각각 포함할 수 있다. 한편, 일 예에 따라 어느 하나의 컨텐츠에 대응되는 복수의 메타데이터가 존재할 수 있다. 예를 들어, 도 4에 도시된 바와 다르게, 메모리(120)에는 어느 하나의 컨텐츠에 대응되는 복수의 메타데이터가 존재할 수도 있음은 물론이다.
일 실시 예에 따라, 프로세서(130)는 제1 메타데이터 및 제2 메타데이터를 비교하여 제2 메타데이터에 대응되는 제2 컨텐츠 중 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠를 식별할 수 있다.
일 예에 따라, 프로세서(130)는 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터(410) 중 제1 메타데이터(400)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별할 수 있다. 예를 들어, 프로세서(130)는 수신된 제2 메타데이터(410)에 포함된 복수의 메타데이터 각각을 제1 메타데이터(400)에 포함된 복수의 메타데이터 각각과 비교하여, 제1 메타데이터(400)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별할 수 있다.
도 4에 도시된 바에 따르면, 예를 들어, 프로세서(130)는 제2 메타데이터 중 어느 하나(411)의 방송 사업자 정보(Broadcaster 1) 및 방송 채널 정보(Channel 1)가 제1 메타데이터 중 어느 하나(401)의 방송 사업자 정보(Broadcaster 1) 및 방송 채널 정보(Channel 1)를 비교하여, 제2 메타데이터 중 어느 하나(411)에 포함된 방송 사업자 정보 및 방송 채널 정보가 제1 메타데이터 중 어느 하나(401) 에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 것으로 식별할 수 있다.
다만 이에 한정되는 것은 아니며, 일 예에 따라 프로세서(130)는 방송 채널 정보에 포함된 방송 채널 식별자 정보, 채널 이름 정보, 채널 번호 정보, 채널 주파수 정보 및 채널 화질 정보 중 적어도 하나를 대응되는 타입 별로 비교할 수도 있음은 물론이다.
예를 들어, 프로세서(130)는 제2 메타데이터 중 어느 하나(411)의 채널 이름 정보가 제1 메타데이터 중 어느 하나(401)의 채널 이름 정보와 매칭되는지 여부를 식별할 수도 있다. 또는, 예를 들어 프로세서(130)는 제2 메타데이터 중 어느 하나(411)의 방송 채널 정보에 포함된 방송 채널 식별자 정보, 채널 이름 정보, 채널 번호 정보, 채널 주파수 정보 및 채널 화질 정보를 제1 메타데이터 중 어느 하나(401)의 방송 채널 정보에 포함된 방송 채널 식별자 정보, 채널 이름 정보, 채널 번호 정보, 채널 주파수 정보 및 채널 화질 정보 각각과 매칭되는지 여부를 식별할 수도 있다. 이 경우, 일 예에 따라 프로세서(130)는 방송 채널 식별자 정보, 채널 이름 정보, 채널 번호 정보, 채널 주파수 정보 및 채널 화질 정보 각각이 매칭되면, 제2 메타데이터 중 어느 하나(411)의 방송 채널 정보가 제1 메타데이터 중 어느 하나(401)의 방송 채널 정보와 매칭되는 것으로 식별할 수도 있다.
한편, 일 실시 예에 따라 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교하여, 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별할 수 있다.
일 예에 따라, 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터(410) 중 제1 메타데이터(400)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터가 식별된 경우를 상정한다. 프로세서(130)는 식별된 적어도 하나의 제2 메타데이터에 포함된 프로그램 정보와, 식별된 적어도 하나의 제2 메타데이터와 매칭된 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교할 수 있다. 이어서, 프로세서(130)는 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별할 수 있다.
예를 들어, 제2 메타데이터 중 어느 하나(411)에 포함된 방송 사업자 정보 및 방송 채널 정보가 제1 메타데이터 중 어느 하나(401)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 것으로 식별된 경우를 상정한다. 프로세서(130)는 제2 메타데이터 중 어느 하나(411)에 포함된 프로그램 정보와 제1 메타데이터 중 어느 하나(401)에 포함된 프로그램 정보를 대응되는 타입 별로 비교하여, 제2 메타데이터 중 어느 하나(411)에 포함된 타이틀 정보(“Title 1”)와 제1 메타데이터 중 어느 하나(401)에 포함된 타이틀 정보(“Title 1”)가 매칭되는 것으로 식별할 수 있다. 이어서, 프로세서(130)는 제2 메타데이터에 대응되는 제2 컨텐츠(컨텐츠 A)를 제1 메타데이터에 대응되는 제1 컨텐츠(컨텐츠 A)와 동일한 컨텐츠로 식별할 수 있다.
또는, 일 실시 예에 따라 프로세서(130)는 프로그램 정보에 포함된 컨텐츠가 유료인지 여부에 대한 정보에 기초하여 제1 메타데이터와 기 설정된 유사도 값 이상인 제2 메타데이터를 식별할 수도 있음은 물론이다.
상술한 예에 따르면, 전자 장치(100)는 수신된 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 중 메모리(120)에 저장된 제1 메타데이터와 매칭되는 메타데이터를 식별할 수 있고, 이에 기초하여 복수의 제2 컨텐츠 중 제1 컨텐츠와 동일한 컨텐츠를 식별할 수 있게 된다.
도 5a 내지 5c는 일 실시 예에 따른 제1 컨텐츠 및 제2 컨텐츠를 관리하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따르면, 프로세서(130)는 제1 메타데이터에 포함된 프로그램 정보 및 제2 메타데이터에 포함된 프로그램 정보를 비교하여 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별할 수 있다.
일 예에 따라 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보와 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교하여 매칭되는 타입의 개수를 식별할 수 있다. 일 예에 따라, 프로그램 정보는 타이틀 정보, 디스크립션(Description) 정보 및 러닝 타임(Running time) 정보 중 적어도 하나를 포함할 수 있다. 여기서, 타이틀 정보는 컨텐츠에 대응되는 타이틀 정보이며, 디스크립션 정보는 컨텐츠에 대한 설명이 포함된 텍스트 정보이다. 러닝 타임 정보는 컨텐츠의 재생 시간에 대한 정보이다.
일 예에 따라 프로세서(130)는 매칭된 타입의 개수가 기 설정된 개수 이상인 것으로 식별되면, 식별된 제2 메타데이터가 제1 메타데이터와 기 설정된 값 이상의 유사도를 가지는 것으로 식별할 수 있다. 기 설정된 개수는 예를 들어 1개일 수 있으나, 이에 한정되는 것은 아니며 사용자 입력에 기초하여 변경될 수도 있음은 물론이다.
이어서, 일 예에 따라 프로세서(130)는 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 매칭된 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별할 수 있게 된다.
도 5a에 따르면, 일 실시 예에 따라 프로세서(130)는 수신된 제2 메타데이터(510)에 포함된 복수의 메타데이터(511 및 512) 각각을 제1 메타데이터(500)에 포함된 복수의 메타데이터(501 내지 503) 각각과 비교하여, 제1 메타데이터(500) 중 어느 하나(501)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 어느 하나의 제2 메타데이터(512)를 식별할 수 있다. 또한, 프로세서(130)는 제1 메타데이터(500) 중 다른 하나(502)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 다른 하나의 제2 메타데이터(511)를 식별할 수 있다.
이어서, 일 실시 예에 따라 프로세서(130)는 식별된 어느 하나의 제2 메타데이터(512)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보와 어느 하나의 제1 메타데이터(501)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 대응되는 타입 별로 비교하여, 2개의 타입(디스크립션 정보 및 러닝 타임 정보)이 매칭되는 것으로 식별할 수 있다. 또한, 프로세서(130)는 식별된 다른 하나의 제2 메타데이터(511)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보와 어느 하나의 제1 메타데이터(502)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 대응되는 타입 별로 비교하여, 1개의 타입(타이틀 정보)이 매칭되는 것으로 식별할 수 있다.
이어서, 일 실시 예에 따라 프로세서(130)는 매칭된 타입의 개수가 기 설정된 개수인 1개 이상인 어느 하나의 제2 메타데이터(512) 및 다른 하나의 제2 메타데이터(511)가 각각 어느 하나의 제1 메타데이터(501) 및 다른 하나의 메타데이터(502)와 기 설정된 값 이상의 유사도를 가지는 것으로 식별할 수 있다.
이어서, 일 실시 예에 따라 프로세서(130)는 기 설정된 값 이상의 유사도를 가지는 어느 하나의 제2 메타데이터(512)에 대응되는 제2 컨텐츠(컨텐츠 A)를 어느 하나의 제1 메타데이터(501)에 대응되는 제1 컨텐츠(컨텐츠 A)와 동일한 컨텐츠로 식별할 수 있게 된다. 또한, 프로세서(130)는 기 설정된 값 이상의 유사도를 가지는 어느 하나의 제2 메타데이터(511)에 대응되는 제2 컨텐츠(컨텐츠 A)를 어느 하나의 제1 메타데이터(502)에 대응되는 제1 컨텐츠(컨텐츠 A)와 동일한 컨텐츠로 식별할 수 있게 된다.
한편, 일 실시 예에 따라 프로세서(130)는 동일한 컨텐츠로 식별된 제2 컨텐츠에 대응되는 제2 메타데이터를 업데이트하여 메모리(120)에 저장할 수 있다.
먼저, 일 예에 따라 프로세서(130)는 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 어느 하나와 동일한 제2 컨텐츠가 식별되면, 어느 하나에 대응되는 제1 메타데이터에 포함된 공통 키(Common Key) 정보에 기초하여 식별된 제2 컨텐츠에 대응되는 제2 메타데이터를 업데이트할 수 있다.
도 5b에 따르면, 예를 들어 어느 하나의 제2 메타데이터(512)에 대응되는 제2 컨텐츠가 어느 하나의 제1 메타데이터(501)에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별된 경우, 프로세서(130)는 식별된 어느 하나의 제1 메타데이터(501)에 포함된 공통 키 정보(Key A)가 동일한 컨텐츠로 식별된 제2 컨텐츠에 대응되는 제2 메타데이터(512)에 포함되도록 제2 메타데이터를 업데이트하여, 업데이트된 제2 메타데이터(512-1)를 획득할 수 있다. 또한, 다른 하나의 제2 메타데이터(511)에 대응되는 제2 컨텐츠가 다른 하나의 제1 메타데이터(502)에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별된 경우, 프로세서(130)는 식별된 다른 하나의 제1 메타데이터(502)에 포함된 공통 키 정보(Key A)가 동일한 컨텐츠로 식별된 제2 컨텐츠에 대응되는 제2 메타데이터(511)에 포함되도록 제2 메타데이터를 업데이트하여, 업데이트된 다른 하나의 제2 메타데이터(511-1)를 획득할 수 있다.
이어서, 일 예에 따라 프로세서(130)는 업데이트된 제2 메타데이터를 메모리(120)에 저장할 수 있다. 예를 들어, 프로세서(130)는 업데이트된 어느 하나의 제2 메타데이터(512-1) 및 업데이트된 다른 하나의 제2 메타데이터(511-1)를 메모리(120)에 저장할 수 있다.
이에 따라, 프로세서(130)는 복수의 업데이트된 제2 메타데이터가 포함된 업데이트된 제1 메타데이터(500-1)를 획득할 수 있게 된다.
도 5c에 따르면, 일 실시 예에 따라 프로세서(130)는 업데이트된 제1 메타데이터와 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제3 컨텐츠 각각에 대응되는 제3 메타데이터를 비교하여, 복수의 제3 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다. 일 예에 따라 제3 컨텐츠는 영상 타입의 컨텐츠일 수 있으나, 이에 한정되는 것은 아니다. 한편, 일 예에 따라 제3 메타데이터는 외부 서버로부터 수신된 복수의 제3 컨텐츠 각각에 대응되는 복수의 메타데이터를 포함할 수 있으며, 복수의 메타데이터는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 각각 포함할 수 있다.
일 예에 따라, 메모리(120)에는 복수의 업데이트된 제2 메타데이터(511-1 및 512-1)가 포함된 업데이트된 제1 메타데이터(500-1)가 저장되어 있을 수 있다. 프로세서(130)는 통신 인터페이스(110)를 통해 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제3 컨텐츠 각각에 대응되는 제3 메타데이터(520)를 수신할 수 있다.
일 예에 따라 프로세서(130)는 수신된 제3 메타데이터(520)에 포함된 복수의 메타데이터(521 및 522) 각각을 업데이트된 제1 메타데이터(500-1)에 포함된 복수의 메타데이터(501 내지 503, 511-1 및 512-1) 각각과 비교하여, 업데이트된 제1 메타데이터(500-1) 중 적어도 일부(501 및 512-1)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 어느 하나의 제3 메타데이터(522)를 식별할 수 있다. 또한, 프로세서(130)는 업데이트된 제1 메타데이터(500-1) 중 적어도 일부(502 및 511-1)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 다른 하나의 제3 메타데이터(521)를 식별할 수 있다.
먼저, 일 예에 따라 프로세서(130)는 식별된 어느 하나의 제3 메타데이터(522)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 매칭된 제1 메타데이터(501 및 512-1)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 대응되는 타입 별로 각각 비교하여, 어느 하나의 매칭된 제1 메타데이터(501)와는 1개의 타입(러닝 타임 정보)이 매칭되고, 다른 하나의 매칭된 제1 메타데이터(512-1)와는 2개의 타입(타이틀 정보 및 러닝 타입 정보)이 매칭되는 것으로 식별할 수 있다.
이에 따라, 프로세서(130)는 식별된 어느 하나의 제3 메타데이터(522) 및 매칭된 제1 메타데이터(501 및 512-1) 중 어느 하나의 유사도가 기 설정된 값 이상임에 따라, 식별된 어느 하나의 제3 메타데이터(522)에 대응되는 제3 컨텐츠가 매칭된 제1 메타데이터(501 및 512-1)에 대응되는 제2 컨텐츠와 동일한 컨텐츠(컨텐츠 A)인 것으로 식별할 수 있다. 여기서, 매칭된 제1 메타데이터(501 및 512-1) 각각에 대응되는 컨텐츠는 동일한 컨텐츠(컨텐츠 A)이다.
또한, 일 예에 따라 프로세서(130)는 식별된 다른 하나의 제3 메타데이터(521)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 매칭된 제1 메타데이터(502 및 511-1)에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보와 대응되는 타입 별로 각각 비교하여, 어느 하나의 매칭된 제1 메타데이터(502)와는 2개의 타입(타이틀 정보 및 러닝 타임 정보)이 매칭되고, 다른 하나의 매칭된 제1 메타데이터(511-1)와는 3개의 타입(타이틀 정보, 디스크립션 정보 및 러닝 타입 정보)이 매칭되는 것으로 식별할 수 있다.
이에 따라, 프로세서(130)는 식별된 어느 하나의 제3 메타데이터(521)에 대응되는 제3 컨텐츠가 매칭된 제1 메타데이터(502 및 511-1)에 대응되는 제1 컨텐츠와 동일한 컨텐츠(컨텐츠 A)인 것으로 식별할 수 있다. 여기서, 매칭된 제1 메타데이터(502 및 511-1) 각각에 대응되는 컨텐츠는 동일한 컨텐츠(컨텐츠 A)이다.
한편, 일 실시 예에 따라 프로세서(130)는 업데이트된 제1 메타데이터와 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제3 컨텐츠 각각에 대응되는 제3 메타데이터를 비교하는 경우, 각각에 포함된 방송 채널 정보를 제외하고 비교할 수 있다.
일 예에 따라, 컨텐츠 프로바이더에 의해 제공된 복수의 제3 컨텐츠 각각에 대응되는 제3 메타데이터에 방송 채널 정보가 포함되어 있지 않는 경우, 프로세서(130)는 업데이트된 제1 메타데이터에 포함된 프로그램 정보 및 방송 사업자 정보와 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제3 컨텐츠 각각에 대응되는 제3 메타데이터에 포함된 프로그램 정보 및 방송 사업자 정보를 대응되는 타입 별로 비교하여, 업데이트된 제1 메타데이터에 포함된 방송 사업자 정보 및 프로그램 정보와 매칭되는 어느 하나의 제3 메타데이터를 식별할 수도 있다.
이에 따라, 제3 컨텐츠에 방송 채널 정보가 포함되어 있지 않은 경우에도, 전자 장치(100)는 복수의 제3 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있다.
도 2로 돌아와서, 일 실시 예에 따라 프로세서(130)는 프로그램 정보에 포함된 텍스트 정보를 이용하여 제2 메타데이터에 포함된 프로그램 정보와 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교할 수 있다. 일 예에 따라, 프로세서(130)는 학습된 신경망 모델을 통해 제2 메타데이터에 포함된 프로그램 정보와 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교할 수 있다.
일 예에 따라, 프로세서(130)는 제1 메타데이터에 대응되는 프로그램 정보에 포함된 텍스트 정보인 타이틀 정보와 제2 메타데이터에 대응되는 프로그램 정보에 포함된 텍스트 정보인 타이틀 정보의 유사도를 식별하여, 유사도가 기 설정된 값 이상인 것으로 식별되면 제1 메타데이터에 대응되는 타이틀 정보와 제2 메타데이터에 대응되는 타이틀 정보가 매칭되는 것으로 식별할 수 있다.
또는, 일 예에 따라, 프로세서(130)는 제1 메타데이터에 포함된 디스크립션 정보에 대응되는 텍스트와 제2 메타데이터에 포함된 디스크립션 정보에 대응되는 텍스트의 유사도를 식별하여, 유사도가 기 설정된 값 이상인 것으로 식별되면 제1 메타데이터에 대응되는 디스크립션 정보와 제2 메타데이터에 대응되는 디스크립션 정보가 매칭되는 것으로 식별할 수도 있다.
또는, 일 예에 따라, 프로세서(130)는 제1 메타데이터에 포함된 러닝 타임 정보에 대응되는 텍스트와 제2 메타데이터에 포함된 러닝 타임 정보에 대응되는 텍스트의 유사도를 식별하여, 유사도가 기 설정된 값 이상인 것으로 식별되면 제1 메타데이터에 대응되는 러닝 타임 정보와 제2 메타데이터에 대응되는 러닝 타임 정보가 매칭되는 것으로 식별할 수도 있다.
한편, 일 실시 예에 따라 프로세서(130)는 학습된 신경망 모델을 통해 유사도 값을 획득하고, 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교하여 획득된 유사도 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠로 식별할 수도 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 적어도 하나의 신경망 레이어로 구성되는 인공 지능 모델(또는 인공 신경망 모델 또는 학습 네트워크 모델)을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.
일 예에 따라, 메모리(120)에는 학습용 제1 메타데이터 및 학습용 제1 메타데이터와 매칭되는 학습용 제2 메타데이터를 학습 데이터로 이용하여 학습된 신경망 모델이 저장되어 있을 수 있다. 일 예에 따라, 프로세서(130)는 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 제1 메타데이터 및 통신 인터페이스(110)를 통해 수신된 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터가 수신되면, 이를 신경망 모델에 입력하여 학습된 신경망 모델을 획득할 수 있다.
일 예에 따라, 프로세서(130)는 외부 서버(미도시)로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 제1 메타데이터 및 통신 인터페이스(110)를 통해 수신된 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터를 포함하는 복수의 메타데이터를 학습된 신경망 모델에 입력하여 기준 유사도 값을 획득할 수 있다.
일 예에 따라, 프로세서(130)는 제1 메타데이터에 대응되는 타이틀 정보와 제2 메타데이터에 대응되는 타이틀 정보의 유사도를 식별하고, 식별된 유사도가 획득된 기준 유사도 값 이상인 것으로 식별되면, 제1 메타데이터에 대응되는 타이틀 정보와 제2 메타데이터에 대응되는 타이틀 정보가 매칭되는 것으로 식별할 수 있다.
또는, 일 예에 따라 프로세서(130)는 제1 메타데이터에 대응되는 디스크립션 정보와 제2 메타데이터에 대응되는 디스크립션 정보의 유사도를 식별하고, 식별된 유사도가 획득된 기준 유사도 값 이상인 것으로 식별되면, 제1 메타데이터에 대응되는 디스크립션 정보와 제2 메타데이터에 대응되는 디스크립션 정보가 매칭되는 것으로 식별할 수 있다.
이에 따라, 전자 장치(100)는 획득된 기준 유사도 값을 통해 메타데이터에 포함된 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 포함하는 프로그램 정보가 매칭되는지 여부를 식별할 수 있게 된다.
도 6a 내지 6c는 일 실시 예에 따른 방송 채널 정보가 매칭되지 않는 경우의 제어 방법을 설명하기 위한 도면이다.
도 6a에 따르면, 일 실시 예에 따라 프로세서(130)는 수신된 제2 메타데이터(610)에 포함된 방송 채널 정보와 제1 메타데이터(600)에 포함된 방송 채널 정보가 매칭되지 않는 것으로 식별되면, 기 설정된 알고리즘을 이용하여 실시간 방송 신호에 포함된 영상 데이터로부터 제2 메타데이터(610)에 대응되는 방송 채널 정보를 획득할 수 있다.
일 예에 따라, 프로세서(130)는 수신된 제2 메타데이터(610)에 포함된 방송 채널 정보(“Channel 3”)와 제1 메타데이터(600)에 포함된 방송 채널 정보(“Channel 1” 및 “Channel 2”)가 매칭되지 않는 것으로 식별되면, 광학 문자 인식(Optical Character Recognition, OCR) 알고리즘을 통해 영상 데이터로부터 영상 데이터에 대응되는 컨텐츠의 방송 채널 정보를 획득할 수 있다. 광학 문자 인식(Optical Character Recognition, OCR) 알고리즘은 이미지 타입의 데이터를 분석하여 텍스트 정보를 추출하는 알고리즘이다.
도 6c에 따르면, 일 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 수신된 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 영상 데이터를 수신할 수 있다. 프로세서(130)는 수신된 제2 메타데이터(610)에 포함된 방송 채널 정보와 제1 메타데이터(600)에 포함된 방송 채널 정보가 매칭되지 않는 것으로 식별되면, OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 방송 채널 정보(60)를 획득할 수 있다.
예를 들어, 프로세서(130)는 OCR 알고리즘을 이용하여 제2 컨텐츠의 방송 채널 정보(60)에 대응되는 텍스트 정보인 “Channel 1”을 획득할 수 있고, 획득된 방송 채널 정보(60)가 포함되도록 제2 메타데이터(610)를 업데이트할 수 있다. 다만, 이에 한정되는 것은 아니며 일 예에 따라 프로세서(130)는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 타이틀 정보를 획득할 수도 있다.
이 경우, 일 예에 따라 프로세서(130)는 수신된 영상의 상대적으로 상측에 대응되는 영상 데이터가 더 큰 가중치를 갖도록 하는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 방송 채널 정보(60)를 획득할 수 있다. 도 6c와 같이 방송 채널 정보 또는 타이틀 정보는 영상의 상대적으로 상측에 존재하는 경우가 많으며, 프로세서(130)는 상대적으로 상측에 대응되는 영상 데이터가 더 큰 가중치를 갖도록 하는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 방송 채널 정보(60)를 획득할 수 있다.
한편, 도 6b에 따르면 일 실시 예에 따라 프로세서(130)는 획득된 방송 채널 정보(“Channel 1”)를 제1 메타데이터(600)에 포함된 방송 채널 정보와 비교하여, 획득된 방송 채널 정보(“Channel 1”)를 포함하는 제2 메타데이터(610-1)가 제1 메타데이터(600) 중 어느 하나(601)에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 것으로 식별할 수 있다.
이어서, 일 실시 예에 따라 프로세서(130)는 제1 메타데이터 중 어느 하나(601) 및 업데이트된 제2 메타데이터(610-1)의 유사도에 기초하여 복수의 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하고, 식별 결과에 기초하여 복수의 제1 컨텐츠 및 복수의 제2 컨텐츠를 관리할 수 있게 된다.
이에 따라, 프로세서(130)는 제2 메타데이터 중 제1 메타데이터와 방송 채널 정보가 일치하지 않는 경우에도, 영상 데이터를 활용하여 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있게 된다.
도 7a 내지 7c는 일 실시 예에 따른 기 설정된 값 미만의 유사도를 가지는 경우의 제어 방법을 설명하기 위한 도면이다.
일 실시 예에 따라 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교하여 기 설정된 값 미만의 유사도를 가지는 것으로 식별되면, 기 설정된 알고리즘을 이용하여 실시간 방송 신호에 포함된 영상 데이터로부터 식별된 제2 메타데이터에 대응되는 타이틀 정보 및 디스크립션 정보를 획득할 수 있다. 일 예에 따라, 프로세서(130)는 식별된 제2 메타데이터에 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교하여 매칭되는 타입의 개수가 1개 미만인 경우, 기 설정된 알고리즘을 이용하여 실시간 방송 신호에 포함된 영상 데이터로부터 식별된 제2 메타데이터에 대응되는 타이틀 정보 및 디스크립션 정보를 획득할 수 있다. 다만, 이에 한정되는 것은 아니며, 유사도는 사용자 입력에 따라 변경될 수 있음은 물론이다.
도 7a에 따르면, 일 예에 따라 먼저 프로세서(130)는 수신된 제2 메타데이터(710)에 포함된 방송 채널 정보 및 방송 사업자 정보와 매칭되는 어느 하나의 제1 메타데이터(701)을 식별할 수 있다. 이어서, 일 예에 따라 프로세서(130)는 식별된 제2 메타데이터(710)에 포함된 프로그램 정보를 어느 하나의 제1 메타데이터(701)에 포함된 프로그램 정보와 비교할 수 있다.
이어서, 일 예에 따라 프로세서(130)는 식별된 제2 메타데이터(710)에 대응되는 타이틀 정보, 디스크립션 정보 및 러닝 타임 정보를 포함하는 프로그램 정보를 어느 하나의 제1 메타데이터(701)에 포함된 프로그램 정보와 대응되는 타입 별로 비교하여, 매칭되는 타입의 개수가 0인 것으로 식별하고, 이에 식별된 제2 메타데이터(710)에 포함된 프로그램 정보가 어느 하나의 제1 메타데이터(701)에 포함된 프로그램 정보와 기 설정된 값 미만의 유사도를 가지는 것으로 식별할 수 있다.
이어서, 일 예에 따라 프로세서(130)는 광학 문자 인식(Optical Character Recognition, OCR) 알고리즘을 통해 영상 데이터로부터 영상 데이터에 대응되는 컨텐츠의 프로그램 정보를 획득할 수 있다.
도 7c에 따르면, 일 예에 따라 프로세서(130)는 통신 인터페이스(110)를 통해 수신된 실시간 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 영상 데이터를 수신할 수 있다. 프로세서(130)는 수신된 제2 메타데이터(710)에 포함된 프로그램 정보와 어느 하나의 제1 메타데이터(701)에 포함된 프로그램 정보가 기 설정된 값 미만의 유사도를 가지는 것으로 식별되면, OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 타이틀 정보(70)를 획득할 수 있다. 또는, 도 7c에는 도시되지 않았으나 프로세서(130)는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 디스크립션 정보를 획득할 수도 있다.
예를 들어, 프로세서(130)는 OCR 알고리즘을 이용하여 제2 컨텐츠의 타이틀 정보(70)에 대응되는 텍스트 정보인 “Title 1”을 획득할 수 있고, 획득된 프로그램 정보(70)가 포함되도록 제2 메타데이터(710)를 업데이트할 수 있다. 다만, 이에 한정되는 것은 아니며 일 예에 따라 프로세서(130)는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 디스크립션 정보를 획득하고, 획득된 정보가 포함되도록 제2 메타데이터(710)를 업데이트할 수도 있다.
이 경우, 일 예에 따라 프로세서(130)는 수신된 영상의 상대적으로 상측에 대응되는 영상 데이터가 더 큰 가중치를 갖도록 하는 OCR 알고리즘을 이용하여 영상 데이터로부터 제2 컨텐츠에 대응되는 프로그램 정보(70)를 획득할 수 있다.
한편, 도 7b에 따르면, 일 실시 예에 따라 프로세서(130)는 획득된 타이틀 정보 또는 디스크립션 정보 중 적어도 하나가 포함된 프로그램 정보를 제1 메타데이터에 포함된 프로그램 정보와 비교하여, 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별할 수 있다.
일 예에 따라, 프로세서(130)는 획득된 타이틀 정보 또는 디스크립션 정보 중 적어도 하나가 업데이트된 프로그램 정보를 포함하도록 제2 메타데이터(710-1)가 업데이트되면, 업데이트된 제2 메타데이터(710-1)의 프로그램 정보를 어느 하나의 제1 메타데이터(701)와 대응되는 타입 별로 비교하여, 매칭되는 타입의 개수가 1개(타이틀 정보)인 것으로 식별할 수 있다. 이에 따라, 프로세서(130)는 업데이트된 제2 메타데이터(710-1)가 어느 하나의 제1 메타데이터(701)와 기 설정된 값 이상의 유사도를 갖는 것으로 식별할 수 있다.
이어서, 일 예에 따라 프로세서(130)는 어느 하나의 제1 메타데이터(701) 및 업데이트된 제2 메타데이터(710-1)의 유사도가 기 설정된 값 이상임에 따라, 업데이트된 제2 메타데이터에 대응되는 제2 컨텐츠가 어느 하나의 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠인 것으로 식별하고, 식별 결과에 기초하여 복수의 제1 컨텐츠 및 복수의 제2 컨텐츠를 관리할 수 있게 된다.
이에 따라, 프로세서(130)는 제2 메타데이터 중 제1 메타데이터와 프로그램 정보가 일치하지 않는 경우에도, 영상 데이터를 활용하여 제2 컨텐츠 중 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별할 수 있게 된다.
한편, 일 실시 예에 따라 프로세서(130)는 컨텐츠에 대응되는 영상 어드레스(Address) 정보를 이용하여 동일한 컨텐츠를 식별할 수도 있다. 일 예에 따라 메모리(120)는 복수의 제1 컨텐츠 각각에 대응되는 영상 어드레스(Address) 정보를 더 포함할 수 있다. 여기서, 영상 어드레스 정보는 컨텐츠의 영상 데이터가 저장된 URL(Uniform Resource Locator) 정보를 포함하는 제1 컨텐츠에 대응되는 영상 데이터를 획득할 수 있는 주소 정보를 의미한다. 다만, 이에 한정되지 않으며 메모리(120)에는 복수의 제1 컨텐츠 각각에 대응되는 트레일러(Trailer) 영상 데이터가 저장되어 있을 수 있다. 여기서, 트레일러 영상 데이터는 일 예에 따라 컨텐츠에 대응되는 기 설정된 크기 미만의 러닝 타임을 가지는 영상 데이터(또는, 티저(teaser) 영상)일 수 있다.
일 예에 따라, 기 설정된 알고리즘을 이용하여 획득된 타이틀 정보 또는 디스크립션 정보 중 적어도 하나가 포함된 제2 메타데이터(710-1)가 어느 하나의 제1 메타데이터(701)와 기 설정된 값 미만의 유사도를 가지는 것으로 식별된 경우를 상정한다. 프로세서(130)는 제2 메타데이터(710-1)가 기 설정된 값 미만의 유사도를 가지는 것으로 식별되면, 실시간 방송 신호에 포함된 영상 데이터 및 영상 어드레스 정보에 기초하여 획득된 영상 데이터를 비교하여 식별된 제2 메타데이터에 대응되는 제2 컨텐츠가 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠인지 식별할 수 있다.
예를 들어, 프로세서(130)는 메모리(120)에 저장된 영상 어드레스 정보에 기초하여 어느 하나의 제1 메타데이터(701)에 대응되는 제1 컨텐츠의 영상 데이터를 획득하고, 이를 제2 메타데이터(710-1)에 대응되는 영상 데이터와 비교하여 식별된 제2 메타데이터(710-1_에 대응되는 제2 컨텐츠가 어느 하나의 제1 메타데이터(701)에 대응되는 제1 컨텐츠와 동일한 컨텐츠인지 식별할 수 있다. 일 예에 따라, 프로세서(130)는 각각의 영상 데이터로부터 영상 프레임을 추출하고, 이를 비교하여 식별된 제2 메타데이터에 대응되는 제2 컨텐츠가 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠인지 식별할 수 있다.
도 8은 일 실시 예에 따른 UI 제공 방법을 설명하기 위한 도면이다.
도 8에 따르면, 일 실시 예에 따라, 프로세서(130)는 식별 결과에 기초하여 동일한 컨텐츠로 식별된 컨텐츠에 대한 정보가 중복 제공되지 않는 UI를 제공할 수 있다.
일 예에 따라, 프로세서(130)는 제2 메타데이터에 포함된 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보에 기초하여 제2 메타데이터에 대응되는 제2 컨텐츠가 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠인 것으로 식별되면, 제2 컨텐츠 및 제1 컨텐츠가 중복 제공되지 않는 UI를 제공할 수 있다.
도 8의 상측 도면과 같이, 제2 메타데이터에 대응되는 제2 컨텐츠(80-1)가 제1 메타데이터에 대응되는 제1 컨텐츠(80-2)가 동일한 컨텐츠임에도 불구하고 동일한 컨텐츠인 것으로 식별되지 않는 경우가 존재할 수 있다. 이 경우, 제1 컨텐츠(80-2)와 제2 컨텐츠(80-1)가 각각 표시되는 UI(80)가 제공될 수 있으며, 이에 사용자는 동일한 컨텐츠가 중복되어 노출되므로, 만족도가 떨어질 수 있다.
한편, 일 예에 따라 메타데이터에 포함된 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보에 기초하여 제2 메타데이터에 대응되는 제2 컨텐츠(80-1)가 제1 메타데이터에 대응되는 제1 컨텐츠(80-2)가 동일한 컨텐츠가 식별되면, 도 8의 하측 도면과 같이 프로세서(130)는 동일한 컨텐츠로 식별된 제1 컨텐츠(80-2) 및 제2 컨텐츠(80-1)가 단일한 컨텐츠(810)로 표시된 UI(800)를 제공할 수 있게 된다.
이 경우, 일 예에 따라 프로세서(130)는 식별된 제1 컨텐츠(80-2) 및 제2 컨텐츠(80-1)가 상이한 방송 사업자 정보 또는 방송 채널 정보를 포함하는 경우, 프로세서(130)는 단일한 컨텐츠(810)에 대한 정보 및 각각의 컨텐츠에 대응되는 방송 사업자 정보(810-1 및 810-2)가 포함된 UI(800)를 제공할 수 있다. 즉, 프로세서(130)는 동일한 컨텐츠로 식별된 복수의 컨텐츠에 대응되는 방송 사업자 정보 또는 방송 채널 정보 중 적어도 하나가 포함된 UI를 제공할 수 있다.
이에 따라, 사용자는 방송 사업자 또는 방송 채널 정보를 고려하여 컨텐츠를 선택할 수 있게 되며, 사용자의 만족도가 향상될 수 있다.
도 9는 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
도 9에 따르면, 전자 장치(100')는 통신 인터페이스(110), 메모리(120), 하나 이상의 프로세서(130), 마이크(140), 스피커(150), 디스플레이(160), 사용자 인터페이스(170) 및 적어도 하나의 센서(180)를 포함할 수 있다. 도 9에 도시된 구성 중 도 2에 도시된 구성과 중복된 구성에 대해서는 자세한 설명을 생략하도록 한다.
마이크(140)는 소리를 획득하여 전기 신호로 변환하는 모듈을 의미할 수 있으며, 콘덴서 마이크, 리본 마이크, 무빙코일 마이크, 압전소자 마이크, 카본 마이크, MEMS(Micro Electro Mechanical System) 마이크일 수 있다. 또한, 무지향성, 양지향성, 단일지향성, 서브 카디오이드(Sub Cardioid), 슈퍼 카디오이드(Super Cardioid), 하이퍼 카디오이드(Hyper Cardioid)의 방식으로 구현될 수 있다.
전자 장치(100')가 마이크(140)를 통해 수신된 사용자 음성 신호에 대응되는 동작을 수행하는 다양한 실시 예가 있을 수 있다.
일 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 디스플레이(160)를 제어할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A컨텐츠를 표시하도록 디스플레이(160)를 제어할 수 있다.
다른 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 전자 장치(100')와 연결된 외부 디스플레이 장치를 제어할 수 있다. 구체적으로, 전자 장치(100')는 사용자 음성 신호에 대응되는 동작이 외부 디스플레이 장치에서 수행되도록 외부 디스플레이 장치를 제어하기 위한 제어 신호를 생성하고, 생성된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 여기서, 전자 장치(100')는 외부 디스플레이 장치를 제어하기 위한 원격 제어 어플리케이션을 저장할 수 있다. 그리고, 전자 장치(100')는 생성된 제어 신호를 블루투스, 와이파이 또는 적외선 중 적어도 하나의 통신 방법을 이용하여 외부 디스플레이 장치에 전송할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A 컨텐츠가 외부 디스플레이 장치에서 표시되도록 제어하기 위한 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 여기서, 전자 장치(100')는 스마트폰, AI 스피커 등 원격 제어 어플리케이션을 설치할 수 있는 다양한 단말 장치를 의미할 수 있다.
또 다른 예로, 전자 장치(100')는 마이크(140)를 통해 수신된 사용자 음성 신호에 기초하여 전자 장치(100')와 연결된 외부 디스플레이 장치를 제어하기 위하여 원격 제어 장치를 이용할 수 있다. 구체적으로, 전자 장치(100')는 사용자 음성 신호에 대응되는 동작이 외부 디스플레이 장치에서 수행되도록 외부 디스플레이 장치를 제어하기 위한 제어 신호를 원격 제어 장치에 전송할 수 있다. 그리고, 원격 제어 장치는 전자 장치(100')로부터 수신된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다. 예를 들어, A 컨텐츠를 표시하기 위한 사용자 음성 신호가 수신되면, 전자 장치(100')는 A 컨텐츠가 외부 디스플레이 장치에서 표시되도록 제어하기 위한 제어 신호를 원격 제어 장치에 전송하고, 원격 제어 장치는 수신된 제어 신호를 외부 디스플레이 장치에 전송할 수 있다.
스피커(150)는, 고음역대 소리 재생을 위한 트위터, 중음역대 소리 재생을 위한 미드레인지, 저음역대 소리 재생을 위한 우퍼, 극저음역대 소리 재생을 위한 서브우퍼, 공진을 제어하기 위한 인클로저, 스피커에 입력되는 전기 신호 주파수를 대역 별로 나누는 크로스오버 네트워크 등으로 이루어질 수 있다.
스피커(150)는, 음향 신호를 전자 장치(100')의 외부로 출력할 수 있다. 스피커(150)는 멀티미디어 재생, 녹음 재생, 각종 알림음, 음성 메시지 등을 출력할 수 있다. 전자 장치(100')는 스피커(150)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(150)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다.
디스플레이(160)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(160) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(160)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다. 프로세서(130)는 상술한 다양한 실시 예에 따라 획득된 출력 영상을 출력하도록 디스플레이(160)를 제어할 수 있다. 여기서, 출력 영상은, 4K 또는 8K 이상의 고해상도 영상일 수 있다.
한편, 다른 실시 예에 따라, 전자 장치(100')는 디스플레이(160)를 포함하지 않을 수 있다. 전자 장치(100')는 외부 디스플레이 장치와 연결될 수 있으며, 전자 장치(100')에 저장된 이미지 또는 컨텐츠를 외부 디스플레이 장치에 전송할 수 있다. 구체적으로, 전자 장치(100')는 외부 디스플레이 장치에서 이미지 또는 컨텐츠가 표시되도록 제어하기 위한 제어 신호와 함께 이미지 또는 컨텐츠를 외부 디스플레이 장치에 전송할 수 있다.
여기서, 외부 디스플레이 장치는 전자 장치(100')와 통신 인터페이스(110) 또는 입출력 인터페이스(미도시)를 통해 연결될 수 있다. 예를 들어, 전자 장치(100')는 STB(Set Top Box)와 같이 디스플레이를 포함하지 않을 수 있다. 또한, 전자 장치(100')는 텍스트 정보 등의 간단한 정보만을 표시할 수 있는 소형 디스플레이만을 포함할 수 있다. 여기서, 전자 장치(100')는 이미지 또는 컨텐츠를 통신 인터페이스(110)를 통해 유선 또는 무선으로 외부 디스플레이 장치에 전송하거나 입출력 인터페이스(미도시)를 통해 외부 디스플레이 장치에 전송할 수 있다.
사용자 인터페이스(170)는 전자 장치(100')가 사용자와 인터렉션(Interaction)을 수행하기 위한 구성이다. 예를 들어 사용자 인터페이스(170)는 터치 센서, 모션 센서, 버튼, 조그(Jog) 다이얼, 스위치, 마이크 또는 스피커 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.
적어도 하나의 센서(180, 이하 센서)는 다양한 타입의 복수의 센서를 포함할 수 있다. 센서(180)는 물리량을 계측하거나 전자 장치(100')의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서(180)는 카메라를 포함할 수 있으며, 카메라는 오브젝트에 의해 반사되어 수신되는 가시광 기타 광학 신호를 이미지 센서로 포커싱하는 렌즈 및 가시광 기타 광학 신호를 감지할 수 있는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 복수의 픽셀로 구분되는 2D의 픽셀 어레이를 포함할 수 있다.
한편, 일 실시 예에 따라 전자 장치(100')는 입출력 인터페이스(미도시)를 포함할 수도 있다. 입출력 인터페이스(미도시)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 중 어느 하나의 인터페이스일 수 있다. 입출력 인터페이스(미도시)는 오디오 및 비디오 신호 중 적어도 하나를 입출력 할 수 있다. 구현 예에 따라, 입출력 인터페이스(미도시)는 오디오 신호만을 입출력하는 포트와 비디오 신호만을 입출력하는 포트를 별개의 포트로 포함하거나, 오디오 신호 및 비디오 신호를 모두 입출력하는 하나의 포트로 구현될 수 있다. 한편, 전자 장치(100')는 입출력 인터페이스(미도시)를 통해 오디오 및 비디오 신호 중 적어도 하나를 외부 장치(예를 들어, 외부 디스플레이 장치 또는 외부 스피커)에 전송할 수 있다. 구체적으로, 입출력 인터페이스(미도시)에 포함된 출력 포트가 외부 장치와 연결될 수 있으며, 전자 장치(100')는 오디오 및 비디오 신호 중 적어도 하나를 출력 포트를 통해 외부 장치에 전송할 수 있다.
상술한 실시 예에 따르면, 전자 장치(100')는 실시간 방송 신호 등을 통해 수신된 복수의 컨텐츠 중 메모리(120)에 저장된 컨텐츠와 동일한 컨텐츠가 존재하는지 식별할 수 있고, 이에 기초하여 수신된 컨텐츠 중 동일한 컨텐츠로 식별된 컨텐츠에 대응되는 메타데이터를 메모리(120)에 저장할 수 있게 된다.
이에 따라, 메모리(120)에는 동일한 컨텐츠에 대응되는 상이한 타입의 메타데이터가 저장될 수 있으며, 전자 장치(100')는 수신된 컨텐츠 중 중복된 컨텐츠를 보다 용이하게 식별할 수 있게 되며, 이에 사용자는 중복되는 컨텐츠를 제공받을 확률이 감소하게 된다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 설치 가능한 어플리케이션 형태로 구현될 수 있다. 또는 상술한 본 개시의 다양한 실시 예들에 따른 방법들은 딥 러닝 기반의 학습된 신경망(또는 심층 학습된 신경망) 즉, 학습 네트워크 모델을 이용하여 수행될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 로봇에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. 또한, 상술한 본 개시의 다양한 실시 예들은 로봇에 구비된 임베디드 서버, 또는 로봇의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 디스플레이 장치(예: 디스플레이 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (15)

  1. 전자 장치에 있어서,
    통신 인터페이스; 및
    서버로부터 수신된 적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하고,
    상기 통신 인터페이스를 통해 수신된 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터와 상기 획득한 제1 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하고,
    식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 중 상기 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터에 포함된 프로그램 정보를 상기 제1 메타데이터에 포함된 프로그램 정보와 비교하여, 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 상기 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로그램 정보는,
    타이틀 정보, 디스크립션(Description) 정보 및 러닝 타임(Running time) 정보 중 적어도 하나를 포함하며,
    상기 프로세서는,
    상기 식별된 제2 메타데이터에 포함된 프로그램 정보와 상기 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교하여 매칭되는 타입의 개수가 기 설정된 개수 이상이면, 상기 식별된 제2 메타데이터가 상기 제1 메타데이터와 기 설정된 값 이상의 유사도를 가지는 것으로 식별하는, 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 수신된 제2 메타데이터에 포함된 방송 채널 정보와 상기 제1 메타데이터에 포함된 방송 채널 정보가 매칭되지 않으면, 기 설정된 알고리즘을 이용하여 상기 방송 신호에 포함된 영상 데이터로부터 획득한 상기 제2 메타데이터에 대응되는 방송 채널 정보를 상기 제1 메타데이터에 포함된 방송 채널 정보와 비교하여 상기 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별하는, 전자 장치.
  5. 제2항에 있어서,
    학습용 제1 메타데이터 및 상기 학습용 제1 메타데이터와 매칭되는 학습용 제2 메타데이터를 학습 데이터로 이용하여 학습된 신경망 모델을 저장하는 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 학습된 신경망 모델로부터 출력되는 유사도 값을 획득하고,
    상기 식별된 제2 메타데이터에 포함된 프로그램 정보를 상기 제1 메타데이터에 포함된 프로그램 정보와 비교하여 상기 획득된 유사도 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠로 식별하는, 전자 장치.
  6. 제2항에 있어서,
    상기 프로세서는,
    상기 식별된 제2 메타데이터에 포함된 프로그램 정보와 상기 제1 메타데이터에 포함된 프로그램 정보가 기 설정된 값 미만의 유사도이면, 기 설정된 알고리즘을 이용하여 상기 방송 신호에 포함된 영상 데이터로부터 상기 식별된 제2 메타데이터에 대응되는 타이틀 정보 또는 디스크립션 정보 중 적어도 하나를 획득하고,
    상기 획득된 타이틀 정보 또는 디스크립션 정보 중 적어도 하나가 포함된 프로그램 정보를 상기 제1 메타데이터에 포함된 프로그램 정보와 비교하여, 상기 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 상기 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별하는, 전자 장치.
  7. 제6항에 있어서,
    상기 복수의 제1 컨텐츠 각각에 대응되는 영상 어드레스(Address) 정보를 저장하는 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 획득된 타이틀 정보 및 디스크립션 정보를 상기 제1 메타데이터에 포함된 컨텐츠 정보와 대응되는 타입 별로 비교하여 상기 식별된 제2 메타데이터가 상기 기 설정된 값 미만의 유사도를 가지는지 여부를 식별하고,
    상기 기 설정된 값 미만의 유사도를 가지는 것으로 식별되면, 상기 방송 신호에 포함된 영상 데이터 및 상기 영상 어드레스 정보에 기초하여 획득된 영상 데이터를 비교하여 상기 식별된 제2 메타데이터에 대응되는 제2 컨텐츠가 상기 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠인지 식별하는, 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 식별 결과에 기초하여 동일한 컨텐츠로 식별된 컨텐츠에 대한 정보가 중복 제공되지 않는 UI를 제공하는, 전자 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 어느 하나와 동일한 제2 컨텐츠가 있으면, 상기 어느 하나에 대응되는 제1 메타데이터에 포함된 공통 키(Common Key) 정보에 기초하여 상기 식별된 제2 컨텐츠에 대응되는 제2 메타데이터를 업데이트하고,
    상기 업데이트된 제2 메타데이터를 메모리에 저장하는, 전자 장치.
  10. 전자 장치의 제어 방법에 있어서,
    적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하는 단계;
    상기 획득된 제1 메타데이터 및 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하는 단계; 및
    식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리하는 단계;를 포함하는, 제어 방법.
  11. 제10항에 있어서,
    상기 식별하는 단계는,
    상기 복수의 제2 컨텐츠 각각에 대응되는 제2 메타데이터 중 상기 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터에 포함된 프로그램 정보를 상기 제1 메타데이터에 포함된 프로그램 정보와 비교하는 단계; 및
    상기 제1 메타데이터에 포함된 프로그램 정보와 기 설정된 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 상기 제1 메타데이터에 대응되는 제1 컨텐츠와 동일한 컨텐츠로 식별하는, 제어 방법.
  12. 제11항에 있어서,
    상기 프로그램 정보는,
    타이틀 정보, 디스크립션(Description) 정보 및 러닝 타임(Running time) 정보 중 적어도 하나를 포함하며,
    상기 동일한 컨텐츠로 식별하는 단계는,
    상기 식별된 제2 메타데이터에 포함된 프로그램 정보와 상기 제1 메타데이터에 포함된 프로그램 정보를 대응되는 타입 별로 비교하여 매칭되는 타입의 개수가 기 설정된 개수 이상인 것으로 식별되면, 상기 식별된 제2 메타데이터가 상기 제1 메타데이터와 기 설정된 값 이상의 유사도를 가지는 것으로 식별하는 단계;를 더 포함하는, 제어 방법.
  13. 제11항에 있어서,
    상기 제2 메타데이터에 포함된 방송 채널 정보와 상기 제1 메타데이터에 포함된 방송 채널 정보가 매칭되지 않으면, 기 설정된 알고리즘을 이용하여 상기 방송 신호에 포함된 영상 데이터로부터 획득한 상기 제2 메타데이터에 대응되는 방송 채널 정보를 상기 제1 메타데이터에 포함된 방송 채널 정보와 비교하여 상기 제1 메타데이터에 포함된 방송 사업자 정보 및 방송 채널 정보와 매칭되는 적어도 하나의 제2 메타데이터를 식별하는 단계;를 더 포함하는, 제어 방법.
  14. 제11항에 있어서,
    상기 제1 컨텐츠와 동일한 컨텐츠로 식별하는 단계는,
    학습용 제1 메타데이터 및 상기 학습용 제1 메타데이터와 매칭되는 학습용 제2 메타데이터를 학습 데이터로 이용하여 학습된 신경망 모델로부터 출력되는 유사도 값을 획득하는 단계; 및
    상기 식별된 제2 메타데이터에 포함된 프로그램 정보를 상기 제1 메타데이터에 포함된 프로그램 정보와 비교하여 상기 획득된 유사도 값 이상의 유사도를 가지는 제2 메타데이터에 대응되는 제2 컨텐츠를 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠로 식별하는 단계;를 포함하는, 제어 방법.
  15. 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 기록 매체에 있어서, 상기 동작은,
    적어도 하나의 컨텐츠 프로바이더에 의해 제공된 복수의 제1 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제1 메타데이터를 획득하는 단계;
    상기 획득한 제1 메타데이터 및 방송 신호에 포함된 복수의 제2 컨텐츠 각각에 대응되는 프로그램 정보, 방송 사업자 정보 및 방송 채널 정보를 포함하는 제2 메타데이터 간의 유사도에 기초하여, 상기 복수의 제2 컨텐츠 중 상기 복수의 제1 컨텐츠 중 적어도 하나와 동일한 컨텐츠를 식별하는 단계; 및
    식별 결과에 기초하여 상기 복수의 제1 컨텐츠 및 상기 복수의 제2 컨텐츠를 관리하는 단계;를 포함하는, 컴퓨터 판독 가능 기록 매체.
PCT/KR2023/014398 2022-11-15 2023-09-21 전자 장치 및 이의 제어 방법 WO2024106732A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220152954A KR20240071156A (ko) 2022-11-15 2022-11-15 전자 장치 및 이의 제어 방법
KR10-2022-0152954 2022-11-15

Publications (1)

Publication Number Publication Date
WO2024106732A1 true WO2024106732A1 (ko) 2024-05-23

Family

ID=91084965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/014398 WO2024106732A1 (ko) 2022-11-15 2023-09-21 전자 장치 및 이의 제어 방법

Country Status (2)

Country Link
KR (1) KR20240071156A (ko)
WO (1) WO2024106732A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310094A (ja) * 2003-10-06 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> キーワード拡張装置と方法およびコンテンツ検索システムならびにコンテンツ情報提供システムと方法およびグループ化条件決定装置と方法ならびにプログラム
US20110082886A1 (en) * 2009-10-06 2011-04-07 Canon Kabushiki Kaisha Information processing apparatus and information processing method
KR20140044156A (ko) * 2012-10-04 2014-04-14 한양대학교 에리카산학협력단 중복 뉴스 탐지 시스템 및 중복 뉴스 탐지 방법
JP2018092324A (ja) * 2016-12-01 2018-06-14 日本放送協会 コンテンツ同定装置及びプログラム
KR20200092465A (ko) * 2019-01-07 2020-08-04 삼성전자주식회사 추천 컨텐츠 리스트 제공 방법 및 그에 따른 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005310094A (ja) * 2003-10-06 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> キーワード拡張装置と方法およびコンテンツ検索システムならびにコンテンツ情報提供システムと方法およびグループ化条件決定装置と方法ならびにプログラム
US20110082886A1 (en) * 2009-10-06 2011-04-07 Canon Kabushiki Kaisha Information processing apparatus and information processing method
KR20140044156A (ko) * 2012-10-04 2014-04-14 한양대학교 에리카산학협력단 중복 뉴스 탐지 시스템 및 중복 뉴스 탐지 방법
JP2018092324A (ja) * 2016-12-01 2018-06-14 日本放送協会 コンテンツ同定装置及びプログラム
KR20200092465A (ko) * 2019-01-07 2020-08-04 삼성전자주식회사 추천 컨텐츠 리스트 제공 방법 및 그에 따른 전자 장치

Also Published As

Publication number Publication date
KR20240071156A (ko) 2024-05-22

Similar Documents

Publication Publication Date Title
WO2014163279A1 (en) Image display device and control method thereof
WO2018131806A1 (en) Electronic apparatus and method of operating the same
WO2021137437A1 (en) Display apparatus and control method thereof
WO2021118278A1 (en) Display device and operating method of the same
WO2016024824A1 (en) Display apparatus and method of controlling the same
WO2020080675A1 (en) Remote control apparatus and control method thereof
WO2018128343A1 (en) Electronic apparatus and method of operating the same
WO2016080585A1 (en) System and method for providing cloud based user interfaces
WO2024106732A1 (ko) 전자 장치 및 이의 제어 방법
WO2018016760A1 (ko) 전자 장치 및 그의 제어 방법
WO2021132868A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2020184856A1 (ko) 방송 수신 장치 및 그 동작방법
WO2020262920A1 (en) Display apparatus and the control method thereof
WO2017065522A1 (en) Display apparatus and the controlling method thereof
WO2020145647A1 (en) Electronic apparatus and operating method of the same
WO2024106790A1 (ko) 전자 장치 및 이의 제어 방법
WO2022149711A1 (ko) 디스플레이 장치 및 이의 제어 방법
WO2024117469A1 (ko) 스트리밍을 지원하는 전자 장치 및 그 제어 방법
WO2024076017A1 (ko) 전자 장치 및 이의 제어 방법
WO2024101679A1 (ko) 전자 장치 및 이의 제어 방법
WO2016108431A1 (ko) 화면 공유 시스템 및 화면 공유 방법과 관리서버 및 관리서버의 운영방법
WO2022065681A1 (ko) 디스플레이 장치 및 그 제어 방법
WO2022146108A1 (ko) 전자 장치 및 그 동작 방법
WO2024071982A1 (ko) 오디오를 출력하는 전자 장치 및 이의 제어 방법
WO2024053851A1 (ko) 전자 장치 및 이의 제어 방법