KR102551681B1 - Method and apparatus for outputting content with adjusted volume - Google Patents

Method and apparatus for outputting content with adjusted volume Download PDF

Info

Publication number
KR102551681B1
KR102551681B1 KR1020210051303A KR20210051303A KR102551681B1 KR 102551681 B1 KR102551681 B1 KR 102551681B1 KR 1020210051303 A KR1020210051303 A KR 1020210051303A KR 20210051303 A KR20210051303 A KR 20210051303A KR 102551681 B1 KR102551681 B1 KR 102551681B1
Authority
KR
South Korea
Prior art keywords
content
information
characteristic information
electronic device
volume
Prior art date
Application number
KR1020210051303A
Other languages
Korean (ko)
Other versions
KR20220144676A (en
Inventor
우장훈
장경준
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020210051303A priority Critical patent/KR102551681B1/en
Publication of KR20220144676A publication Critical patent/KR20220144676A/en
Application granted granted Critical
Publication of KR102551681B1 publication Critical patent/KR102551681B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand

Abstract

적절한 음량으로 컨텐츠를 출력하기 위해, 출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 컨텐츠의 제1 특징 정보를 생성하고, 컨텐츠의 음향에 대한 제2 특징 정보를 생성하고, 제1 특징 정보 및 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 컨텐츠의 타겟 음량을 결정하고, 타겟 음량으로 컨텐츠를 출력한다.
In order to output the content at an appropriate volume, first characteristic information of the content is generated based on content information associated with the content to be output, second characteristic information about sound of the content is generated, and the first characteristic information and the second characteristic are generated. Based on at least one of the pieces of information, a target volume of the content is determined through a volume model, and the content is output at the target volume.

Description

음량이 조절된 컨텐츠를 출력하는 방법 및 장치{METHOD AND APPARATUS FOR OUTPUTTING CONTENT WITH ADJUSTED VOLUME}Method and device for outputting volume-adjusted content {METHOD AND APPARATUS FOR OUTPUTTING CONTENT WITH ADJUSTED VOLUME}

아래의 실시예들은 컨텐츠를 출력하는 기술에 관한 것이고, 구체적으로 음량이 조절된 컨텐츠를 출력하는 기술에 관한 것이다.The following embodiments relate to a technology for outputting content, and specifically, to a technology for outputting content with an adjusted volume.

특허등록공고 제10-0679034(2007.02.06)에는 자동 음량 조절 방법에 관한 것이고, 공개 발명의 자동 음량 조절 방법은 컨텐츠 입력원으로부터 컨텐츠를 입력 받고, 입력 받은 컨텐츠에 포함된 오디오 신호를 자동 음량 조절 기능을 갖는 티브이에게 전송하고, 컨텐츠 입력원이 변경되는 경우 컨텐츠 입력원이 변경되었다는 정보를 티브이에게 전송하는 구성을 개시한다.Patent Registration Publication No. 10-0679034 (2007.02.06) relates to an automatic volume control method, and the automatic volume control method of the disclosed invention receives content from a content input source and automatically adjusts the audio signal included in the input content. Disclosed is a structure that transmits information to a TV having a function and, when a content input source is changed, transmits information indicating that the content input source has been changed to the TV.

종래의 기술은 TV 입력단에서 입력별로 음량 편차를 자동으로 조정하는 기능을 제공할 수 있으나, 연결된 단일 입력 신호 내의 컨텐츠는 서로 다른 조건의 음량으로 제작되어 있어 실시간으로 음량이 조정되기 어렵고, 하나의 채널 내의 음량 변화는 수용이 불가할 수 있다.Conventional technology can provide a function of automatically adjusting the volume deviation for each input at the TV input terminal, but it is difficult to adjust the volume in real time because the content within a single connected input signal is produced with different volumes under different conditions, and it is difficult to adjust the volume in one channel Volume changes within may be unacceptable.

일 실시예는 전자 장치에 의해 수행되는, 컨텐츠 출력 방법을 제공할 수 잇다.An embodiment may provide a method of outputting content performed by an electronic device.

일 실시예는 음량이 조절된 컨텐츠를 출력하는 전자 장치를 제공할 수 있다.An embodiment may provide an electronic device that outputs content whose volume is adjusted.

다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges are not limited to the above-described technical challenges, and other technical challenges may exist.

일 측면에 따른, 전자 장치에 의해 수행되는, 컨텐츠 출력 방법은, 출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 상기 컨텐츠의 제1 특징 정보를 생성하는 단계, 상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계, 상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계, 및 상기 타겟 음량으로 상기 컨텐츠를 출력하는 단계를 포함한다.According to an aspect, a method of outputting content, performed by an electronic device, includes generating first characteristic information of content based on content information related to content to be output, and providing second characteristic information about sound of the content. generating, determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information, and outputting the content at the target volume.

상기 전자 장치는 디스플레이와 연결되는 셋탑 박스(set-top box)일 수 잇다.The electronic device may be a set-top box connected to a display.

상기 컨텐츠 정보는 상기 컨텐츠의 타겟 유형을 포함하고, 상기 타겟 유형은 실시간 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 동영상 컨텐츠 중 어느 하나일 수 있다.The content information includes a target type of the content, and the target type may be any one of real-time broadcasting content, advertising content, video on demand (VOD) content, and streaming video content.

상기 컨텐츠 정보는 상기 컨텐츠의 장르 정보를 포함할 수 있다.The content information may include genre information of the content.

상기 컨텐츠 정보는 상기 전자 장치에 의해 실행되는 상기 컨텐츠를 재생하는 애플리케이션에 대한 정보를 포함할 수 있다.The content information may include information about an application that reproduces the content executed by the electronic device.

상기 컨텐츠 정보는 상기 컨텐츠의 메타 데이터일 수 있다.The content information may be meta data of the content.

상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계는, 상기 음향에 대한 음향 정보로부터 사람의 목소리를 식별하는 단계, 상기 음향 정보로부터 배경음을 식별하는 단계, 및 상기 목소리 및 상기 배경음 중 적어도 하나에 기초하여 상기 제2 특징 정보를 생성하는 단계를 포함할 수 있다.The generating of the second characteristic information about the sound of the content may include identifying a human voice from the sound information about the sound, identifying a background sound from the sound information, and at least one of the voice and the background sound. It may include generating the second characteristic information based on.

상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계는, 상기 컨텐츠가 변경되지 않은 경우, 실시간으로 생성되는 제2 특징 정보에 기초하여 상기 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 실시간으로 결정하는 단계를 포함할 수 있다.Determining the target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information may include based on the second characteristic information generated in real time when the content is not changed. and determining a target volume of the content in real time through the volume model.

다른 일 측면에 따른, 전자 장치는, 컨텐츠를 출력하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 상기 컨텐츠의 제1 특징 정보를 생성하는 단계, 상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계, 상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계, 및 상기 타겟 음량으로 상기 컨텐츠를 출력하는 단계를 수행한다.According to another aspect, an electronic device includes a memory in which a program for outputting content is recorded, and a processor that executes the program, wherein the program includes a first layer of the content based on content information related to content to be output. Generating feature information; Generating second feature information about the sound of the content; Determining a target volume of the content through a volume model based on at least one of the first feature information and the second feature information and outputting the content at the target volume.

상기 전자 장치는 디스플레이와 연결되는 셋탑 박스(set-top box)일 수 있다.The electronic device may be a set-top box connected to a display.

상기 컨텐츠 정보는 상기 컨텐츠의 타겟 유형을 포함하고, 상기 타겟 유형은 실시간 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 동영상 컨텐츠 중 어느 하나일 수 있다.The content information includes a target type of the content, and the target type may be any one of real-time broadcasting content, advertising content, video on demand (VOD) content, and streaming video content.

상기 컨텐츠 정보는 상기 전자 장치에 의해 실행되는 상기 컨텐츠를 재생하는 애플리케이션에 대한 정보를 포함할 수 있다.The content information may include information about an application that reproduces the content executed by the electronic device.

상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계는, 상기 음향에 대한 음향 정보로부터 사람의 목소리를 식별하는 단계, 상기 음향 정보로부터 배경음을 식별하는 단계, 및 상기 목소리 및 상기 배경음 중 적어도 하나에 기초하여 상기 제2 특징 정보를 생성하는 단계를 포함할 수 있다.The generating of the second characteristic information about the sound of the content may include identifying a human voice from the sound information about the sound, identifying a background sound from the sound information, and at least one of the voice and the background sound. It may include generating the second characteristic information based on.

전자 장치에 의해 수행되는, 컨텐츠 출력 방법이 제공될 수 잇다.A method of outputting content performed by an electronic device may be provided.

음량이 조절된 컨텐츠를 출력하는 전자 장치가 제공될 수 있다.An electronic device that outputs content whose volume is adjusted may be provided.

도 1은 일 예에 따른 컨텐츠 출력 시스템을 도시한다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 컨텐츠 출력 방법의 흐름도이다.
도 4는 일 예에 따른 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 방법의 흐름도이다.
도 5는 일 예에 따른 음량 모델을 통해 타겟 음량을 결정하는 방법의 흐름도이다.
1 illustrates a content output system according to an example.
2 is a configuration diagram of an electronic device according to an embodiment.
3 is a flowchart of a method for outputting content according to an exemplary embodiment.
4 is a flowchart of a method of generating second characteristic information about sound of content according to an example.
5 is a flowchart of a method of determining a target volume through a volume model according to an example.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed and implemented in various forms. Therefore, the form actually implemented is not limited only to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, but one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 예에 따른 컨텐츠 출력 시스템을 도시한다.1 illustrates a content output system according to an example.

일 측면에 따르면, 컨텐츠 출력 시스템은 전자 장치(120) 및 디스플레이(130)를 포함한다. 전자 장치(120)는 컨텐츠 공급 사업자가 제공하는 케이블 망 및 인터넷과 연결될 수 있다. 예를 들어, 전자 장치(120)는 셋탑 박스(set-top box)일 수 있다. 예를 들어, 디스플레이(130)는 텔레비전(TV) 또는 모니터일 수 있고, 기재된 실시예로 한정되지 않는다.According to one aspect, the content output system includes an electronic device 120 and a display 130 . The electronic device 120 may be connected to a cable network and the Internet provided by a content provider. For example, the electronic device 120 may be a set-top box. For example, display 130 may be a television (TV) or monitor, and is not limited to the described embodiment.

전자 장치(120)는 연결된 케이블 망 또는 인터넷을 통해 컨텐츠를 수신하고, 디스플레이(130)를 통해 컨텐츠를 출력할 수 있다. 예를 들어, 전자 장치(120)가 출력하는 컨텐츠의 유형은 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 컨텐츠를 포함할 수 있고, 기재된 실시예로 한정되지 않는다.The electronic device 120 may receive content through a connected cable network or the Internet, and output the content through the display 130 . For example, the type of content output by the electronic device 120 may include broadcast content, advertising content, video on demand (VOD) content, and streaming content, and is not limited to the described embodiment.

일 측면에 따르면, 사용자(110)는 리모컨(112)을 이용하여 전자 장치(120)를 제어하는 조작 신호를 전자 장치(120)로 전송할 수 있다. 전자 장치(120)는 조작 신호에 대응하는 컨텐츠를 수신 및 출력할 수 있다. 예를 들어, 조작 신호가 실시간 방송 채널의 변경인 경우, 변경된 채널에 대응하는 새로운 컨텐츠가 출력될 수 있다. 다른 예로, 조작 신호가 전자 장치(120)에 의해 실행되는 애플리케이션의 변경인 경우, 변경된 애플리케이션에 대응하는 새로운 컨텐츠가 출력될 수 있다.According to one aspect, the user 110 may transmit a manipulation signal for controlling the electronic device 120 to the electronic device 120 using the remote controller 112 . The electronic device 120 may receive and output content corresponding to the manipulation signal. For example, when the manipulation signal is a change of a real-time broadcasting channel, new content corresponding to the changed channel may be output. As another example, when the manipulation signal is a change of an application executed by the electronic device 120, new content corresponding to the changed application may be output.

다른 일 측면에 따르면, 사용자(110)가 채널을 변경하지 않더라도, 동일한 애플리케이션 또는 채널에서 출력되는 컨텐츠가 출력의 종료에 따라 새로운 컨텐츠로 변경될 수 있다.According to another aspect, even if the user 110 does not change the channel, content output from the same application or channel may be changed to new content upon completion of output.

각각의 컨텐츠는 제작 환경에 따라 서로 다른 기본 음량을 가지고 있어서, 새로운 컨텐츠가 출력되는 경우 이전의 컨텐츠의 음량과 크게 다를 수도 있다. 이에 따라, 새로운 컨텐츠가 출력되는 경우 사용자가 음량을 조절해야하는 번거로움이 발생할 수 있다.Since each content has a different basic volume depending on the production environment, when new content is output, the volume of the previous content may be significantly different. Accordingly, when new content is output, the user may have to adjust the volume, which may cause inconvenience.

전자 장치(120)는 전자 장치(120)를 통해 새로운 컨텐츠가 출력되는 경우, 컨텐츠의 적정한 음량을 결정하고, 결정된 음량으로 컨텐츠를 출력할 수 있다. 아래에서 도 2 내지 도 5를 참조하여 음량이 조절된 컨텐츠를 출력하는 방법에 대해, 상세히 설명된다.When new content is output through the electronic device 120, the electronic device 120 may determine an appropriate volume of the content and output the content at the determined volume. Below, a method of outputting content whose volume is adjusted will be described in detail with reference to FIGS. 2 to 5 .

도 2는 일 실시예에 따른 전자 장치의 구성도이다.2 is a configuration diagram of an electronic device according to an embodiment.

전자 장치(200)는 통신부(210), 프로세서(220), 및 메모리(230)를 포함한다. 예를 들어, 전자 장치(200)는 도 1을 참조하여 전술된 전자 장치(120)일 수 있다.The electronic device 200 includes a communication unit 210, a processor 220, and a memory 230. For example, the electronic device 200 may be the electronic device 120 described above with reference to FIG. 1 .

통신부(210)는 프로세서(220), 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may transmit/receive data by being connected to another external device. Hereinafter, the expression “transmitting and receiving “A” may indicate transmitting and receiving “information or data indicating A”.

통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as circuitry within the electronic device 200 . For example, the communication unit 210 may include an internal bus and an external bus. As another example, the communication unit 210 may be an element that connects the electronic device 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 may receive data from an external device and transmit the data to the processor 220 and the memory 230 .

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes data received by the communication unit 210 and data stored in the memory 230 . A “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for executing desired operations. For example, desired operations may include codes or instructions included in a program. For example, a data processing unit implemented in hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , Application-Specific Integrated Circuit (ASIC), and Field Programmable Gate Array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.Processor 220 executes computer readable code (eg, software) stored in memory (eg, memory 230 ) and instructions invoked by processor 220 .

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 애플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 컨텐츠를 출력할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220 . For example, the memory 230 may store a program (or application or software). The stored program may be a set of syntaxes coded to output content and executable by the processor 220 .

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, the memory 230 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, a hard disk drive, and an optical disk drive.

메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores a command set (eg, software) for operating the electronic device 200 . A set of instructions for operating the electronic device 200 is executed by the processor 220 .

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 5를 참조하여 상세히 설명된다.The communication unit 210, the processor 220, and the memory 230 will be described in detail with reference to FIGS. 3 to 5 below.

도 3은 일 실시예에 따른 컨텐츠 출력 방법의 흐름도이다.3 is a flowchart of a method for outputting content according to an exemplary embodiment.

아래의 단계들(310 내지 350)은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행된다.Steps 310 to 350 below are performed by the electronic device 200 described above with reference to FIG. 2 .

단계(310)에서, 전자 장치(200)는 새로운 컨텐츠를 수신한다. 예를 들어, 전자 장치(200)와 연결된 케이블 망 및 인터넷을 통해 새로운 컨텐츠가 수신될 수 있다.In step 310, the electronic device 200 receives new content. For example, new content may be received through a cable network connected to the electronic device 200 and the Internet.

일 측면에 따르면, 사용자가 조작 신호를 입력한 경우, 조작 신호에 대응하는 새로운 컨텐츠가 수신될 수 있다.According to one aspect, when a user inputs a manipulation signal, new content corresponding to the manipulation signal may be received.

다른 일 측면에 따르면, 사용자의 조작 신호가 없는 경우에도 기존의 컨텐츠의 출력이 종료된 경우 새로운 컨텐츠의 출력을 위해 새로운 컨텐츠가 수신될 수 있다. 예를 들어, 실시간 방송 채널의 편성에 기초하여 새로운 컨텐츠가 수신될 수 있다. 다른 예로, 현재의 애플리케이션에 대한 설정(예를 들어, 연관 컨텐츠 자동 재생 기능 등)에 기초하여 복수의 컨텐츠들이 이어서 출력되기 위해 새로운 컨텐츠가 수신될 수 있다.According to another aspect, new content may be received to output new content when the output of the existing content ends even when there is no user manipulation signal. For example, new content may be received based on the organization of real-time broadcasting channels. As another example, new content may be received so that a plurality of pieces of content are subsequently output based on a setting for a current application (eg, a function for automatically playing related content).

단계(320)에서, 전자 장치(200)는 출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 컨텐츠의 제1 특징 정보를 생성한다.In step 320, the electronic device 200 generates first characteristic information of the content based on content information associated with the content to be output.

예를 들어, 컨텐츠 정보는 컨텐츠의 타겟 유형을 포함하고, 타겟 유형은 실시간 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 동영상 컨텐츠 중 어느 하나일 수 있다.For example, the content information includes a target type of content, and the target type may be any one of real-time broadcasting content, advertising content, video on demand (VOD) content, and streaming video content.

다른 예로, 컨텐츠 정보는 컨텐츠의 장르 정보를 포함할 수 있다. 장르 정보는 컨텐츠의 내용(예를 들어, 영화, 스포츠, 음악 연주 등)에 대한 정보일 수 있다.As another example, content information may include genre information of content. Genre information may be information about content (eg, movies, sports, music performance, etc.).

또 다른 예로, 컨텐츠 정보는 컨텐츠의 메타 데이터를 포함할 수 있다.As another example, content information may include metadata of content.

또 다른 예로, 컨텐츠 정보는 자동 컨텐츠 인식(Auto Content Recognition; ACR)을 통해 전자 장치(200)에 의해 생성될 수 있다.As another example, content information may be generated by the electronic device 200 through Auto Content Recognition (ACR).

또 다른 예로, 컨텐츠 정보는 컨텐츠를 재생하기 위해 이용되는 애플리케이션에 대한 정보를 포함할 수 있다. 전자 장치(200)는 다양한 종류의 컨텐츠들을 출력하기 위해, 다양한 컨텐츠 제공 플랫폼들에 대응하는 애플리케이션들을 실행시킬 수 있고, 특정 애플리케이션을 통해 컨텐츠를 출력할 수 있다.As another example, content information may include information about an application used to reproduce content. The electronic device 200 may execute applications corresponding to various content providing platforms and output content through a specific application in order to output various types of content.

단계(330)에서, 전자 장치(200)는 컨텐츠의 음향에 대한 제2 특징 정보를 생성한다.In step 330, the electronic device 200 generates second characteristic information about the sound of the content.

예를 들어, 컨텐츠의 음향은 PCM(Pulse Code Modulation) 신호 또는 엠팩(MPEG) 신호에 기초하여 출력될 수 있다. 출력된 음향에 대해 제2 특징 정보가 생성될 수 있다. 예를 들어, 음향 내의 사람의 목소리 및 배경음 등이 구별적으로 인식되고, 이에 기초하여 제2 특징 정보가 생성될 수 있다.For example, the sound of content may be output based on a PCM (Pulse Code Modulation) signal or an MPEG (MPEG) signal. Second feature information may be generated for the output sound. For example, a person's voice and a background sound in the sound may be discriminatively recognized, and based on this, second feature information may be generated.

컨텐츠의 음향은 컨텐츠의 재생에 따라 지속적으로 변화한다. 이에 따라, 컨텐츠의 재생에 따른 특정 시간 구간에 대해 제2 특징 정보가 계속적 생성될 수 있다. 제2 특징 정보는 컨텐츠의 진행 정도에 따라 달라질 수 있다. 다시 말하자면, 컨텐츠가 변경되지 않더라도 컨텐츠의 진행 정도에 따라 생성되는 제2 특징 정보는 달라질 수 있다.The sound of the content continuously changes according to the reproduction of the content. Accordingly, the second feature information may be continuously generated for a specific time interval according to content reproduction. The second feature information may vary according to the progress of the content. In other words, even if the content is not changed, the second characteristic information generated according to the progress of the content may be changed.

제2 특징 정보를 생성하는 방법에 대해, 아래에서 도 4를 참조하여 상세히 설명된다.A method of generating the second feature information will be described in detail below with reference to FIG. 4 .

단계(340)에서, 전자 장치(200)는 제1 특징 정보 및 제2 특징 정보에 기초하여 음량 모델을 통해 컨텐츠의 타겟 음량을 결정한다. 예를 들어, 음량 모델은 미리 훈련된 신경망(neural network)에 기초하여 구현되는 모델일 수 있다.In operation 340, the electronic device 200 determines a target volume of the content through a volume model based on the first characteristic information and the second characteristic information. For example, the volume model may be a model implemented based on a pre-trained neural network.

일 측면에 따르면, 복수의 음량 모델들을 중 제1 특징 정보에 기초하여 타겟 음량 모델일 결정되고, 제2 특징 정보 및 타겟 음량 모델에 기초하여 타겟 음량이 결정될 수 있다. 서로 다른 음량 모델들은 서로 다른 방식으로 각각 훈련된 신경망들에 기초하여 구현될 수 있다. 일 측면에 따르면, 복수의 음량 모델들 중 타겟 음량 모델을 결정하기 위한 분류 모델이 이용될 수도 있다. 예를 들어, 제1 특징 정보 및 제2 특징 정보는 해당 모델의 신경망의 입력으로 이용되는 파라미터들로 구성될 수 있다.According to one aspect, a target volume model may be determined based on first feature information among a plurality of volume models, and a target volume may be determined based on second feature information and the target volume model. Different loudness models may be implemented based on neural networks trained in different ways. According to one aspect, a classification model for determining a target volume model among a plurality of volume models may be used. For example, the first feature information and the second feature information may be composed of parameters used as inputs of a neural network of a corresponding model.

컨텐츠의 유형 및 출력 환경과 관련이 있는 제1 특징 정보에 기초하여 먼저 음량 모델이 결정되고, 결정된 음량 모델에 따라 컨텐츠의 음향과 관련이 있는 제2 특징 정보에 기초하여 컨텐츠의 출력 음량이 결정될 수 있다. 상기의 방식에 따르면, 제1 특징 정보가 달라지지 않는다면(즉, 동일한 컨텐츠가 계속적으로 출력되는 동안), 동일한 음량 모델이 계속적으로 이용되지만 생성되는 제2 특징 정보가 컨텐츠의 재생 정도에 따라 달라지므로, 컨텐츠가 출력되는 동안 제2 특징 정보에 기초하여 계속적으로 음량이 조절될 수 있다.A volume model may be first determined based on first characteristic information related to the type of content and an output environment, and an output volume of the content may be determined based on second characteristic information related to the sound of the content according to the determined volume model. there is. According to the above method, if the first feature information does not change (that is, while the same content is continuously output), the same volume model is continuously used, but the generated second feature information varies according to the reproduction degree of the content. , Volume can be continuously adjusted based on the second feature information while the content is being output.

타겟 음량을 결정하기 위해 복수의 음량 모델들이 이용되는 방법에 대해, 아래에서 도 5를 참조하여 상세히 설명된다.How the plurality of loudness models are used to determine the target loudness is described in detail with reference to FIG. 5 below.

다른 일 측면에 따르면, 전자 장치(130)는 미리 훈련된 음량 모델에 제1 특징 정보 및 제2 특징 정보를 적용함으로써 컨텐츠의 타겟 음량을 결정할 수 있다. 상기의 실시예의 음량 모델은 단일 모델일 수 있다.According to another aspect, the electronic device 130 may determine the target volume of the content by applying the first feature information and the second feature information to a previously trained volume model. The volume model in the above embodiment may be a single model.

단계(340)에서, 전자 장치(200)는 타겟 음량으로 컨텐츠를 출력한다. 결정된 타겟 음량은 적절한 음량을 나타낼 수 있으므로, 사용자가 컨텐츠 시청에 집중할 수 있다.In step 340, the electronic device 200 outputs content at the target volume. Since the determined target volume may represent an appropriate volume, the user may concentrate on viewing the content.

도 4는 일 예에 따른 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 방법의 흐름도이다.4 is a flowchart of a method of generating second characteristic information about sound of content according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(330)는 아래의 단계들(410 내지 430)을 포함할 수 있다.According to one aspect, the step 330 described above with reference to FIG. 3 may include the following steps 410 to 430.

단계(410)에서, 전자 장치(200)는 컨텐츠의 음향에 대한 음향 정보로부터 사람의 목소리를 식별한다.In step 410, the electronic device 200 identifies a human voice from acoustic information about the sound of content.

단계(420)에서, 전자 장치(200)는 컨텐츠의 음향에 대한 음향 정보로부터 배경음을 식별한다. 추가적으로, 식별된 배경음의 유형도 함께 결정될 수 있다. 예를 들어, 배경음이 음악인지, 소음인지 등이 유형으로서 결정될 수 있다.In step 420, the electronic device 200 identifies the background sound from sound information about the sound of the content. Additionally, the type of identified background sound may also be determined together. For example, whether the background sound is music or noise may be determined as the type.

단계들(410 및 420)을 통해 사람의 목소리 및 배경음이 식별되는 것으로 설명되었으나, 사람의 목소리 및 배경음 이외에 설정된 다양한 객체들에 대한 소리가 식별될 수 있다. Although it has been described that the human voice and the background sound are identified through the steps 410 and 420, sounds for various objects other than the human voice and the background sound may be identified.

단계(430)에서, 전자 장치(200)는 음향 정보로부터 식별된 객체에 기초하여 제2 특징 정보를 생성할 수 있다. 예를 들어, 제2 특징 정보는 미리 설정된 개수의 요소들을 갖는 벡터의 형태일 수 있고, 각각의 요소는 해당 요소의 객체가 식별되었는지 여부를 이진법(binary)의 형태로 나타낼 수 있다.In step 430, the electronic device 200 may generate second feature information based on the object identified from the acoustic information. For example, the second characteristic information may be in the form of a vector having a preset number of elements, and each element may indicate whether the object of the corresponding element has been identified in a binary form.

도 5는 일 예에 따른 음량 모델을 통해 타겟 음량을 결정하는 방법의 흐름도이다.5 is a flowchart of a method of determining a target volume through a volume model according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(340)는 아래의 단계들(510 내지 520)을 포함할 수 있다.According to one aspect, step 340 described above with reference to FIG. 3 may include steps 510 to 520 below.

단계(510)에서, 전자 장치(200)는 복수의 음량 모델들 중 제1 특징 정보 및 제2 특징 정보에 기초하여 타겟 음량 모델을 결정한다. 예를 들어, 타겟 음량 모델을 결정하기 위해 제1 특징 정보 및 제2 특징 정보 중 적어도 하나가 이용될 수 있다.In step 510, the electronic device 200 determines a target volume model based on first feature information and second feature information among a plurality of volume models. For example, at least one of first characteristic information and second characteristic information may be used to determine a target volume model.

이용되는 음량 모델이 단일 모델인 경우에는 단계(510)가 수행되지 않을 수 있다.If the volume model used is a single model, step 510 may not be performed.

단계(520)에서, 전자 장치(200)는 제1 특징 정보 및 제2 특징 정보에 기초하여 타겟 음량 모델을 통해 컨텐츠의 타겟 음량을 결정한다.In operation 520, the electronic device 200 determines a target volume of the content through a target volume model based on the first characteristic information and the second characteristic information.

일 측면에 따르면, 제2 특징 정보는 다양한 객체들에 대한 소리에 관한 것이므로, 객체 별로 적정한 후보 음량이 결정되고, 복수의 후보 음량들 중 최종적으로 타겟 음량이 결정될 수 있다. 예를 들어, 소음에 대한 후보 음량을 고려하여 음량을 낮추게 되어, 사용자에게 사람의 목소리가 잘 들리지 않는 경우를 방지하기 위해 사람의 목소리에 대한 후보 음량이 소음에 대한 후보 음량을 보다 우선적으로 고려될 수 있다.According to one aspect, since the second characteristic information relates to sounds of various objects, an appropriate candidate volume for each object may be determined, and a target volume may be finally determined among a plurality of candidate volumes. For example, in order to lower the volume in consideration of the candidate volume for noise, the candidate volume for the human voice may be prioritized over the candidate volume for the noise in order to prevent a case where the user cannot hear the human voice well. can

예를 들어, 제2 특징 정보가 벡터의 형태로 나타나는 경우, 벡터의 요소들에 기초하여 복수의 후보 음량들 중 타겟 음량이 결정될 수 있다. 상기의 실시예에서 사람의 목소리가 식별됨을 나타내는 벡터의 요소가 1(즉, 검출됨)인 경우에는, 소음을 나타내는 요소가 1인 경우라도, 사람의 목소리에 대한 후보 음량이 타겟 음량으로 결정될 수 있다.For example, when the second feature information is represented in the form of a vector, a target volume may be determined from among a plurality of candidate volumes based on elements of the vector. In the above embodiment, when the element of the vector representing that human voice is identified is 1 (ie, detected), even when the element representing noise is 1, the candidate volume for the human voice can be determined as the target volume. there is.

제2 특징 정보는 컨텐츠가 재생되는 동안 계속적으로 생성되므로, 결정되는 타겟 음량은 시간에 따라 지속적으로 변경될 수 있다. 이에 따라, 사용자는 균질화된 컨텐츠의 음량으로 컨텐츠를 집중하여 시청할 수 있다.Since the second characteristic information is continuously generated while content is reproduced, the determined target volume may be continuously changed over time. Accordingly, the user can concentrate on watching the content with the volume of the homogenized content.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. may be Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리
200: electronic device
210: communication department
220: processor
230: memory

Claims (14)

전자 장치에 의해 수행되는, 컨텐츠 출력 방법은,
출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 상기 컨텐츠의 제1 특징 정보를 생성하는 단계;
상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계;
상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계; 및
상기 타겟 음량으로 상기 컨텐츠를 출력하는 단계
를 포함하고,
상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계는,
상기 제1 특징 정보에 기초하여 서로 다른 방식으로 각각 훈련된 복수의 음량 모델들 중 타겟 음량 모델을 결정하는 단계; 및
상기 결정된 타겟 음량 모델에 따라 상기 제2 특징 정보에 기초하여 상기 컨텐츠의 상기 타겟 음량을 결정하는 단계
를 포함하는,
컨텐츠 출력 방법.
The content output method, performed by the electronic device,
generating first characteristic information of the content based on content information associated with the content to be output;
generating second characteristic information about the sound of the content;
determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information; and
outputting the content at the target volume;
including,
Determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information,
determining a target volume model among a plurality of volume models each trained in a different manner based on the first feature information; and
Determining the target volume of the content based on the second characteristic information according to the determined target volume model
including,
How to output content.
제1항에 있어서,
상기 전자 장치는 디스플레이와 연결되는 셋탑 박스(set-top box)인,
컨텐츠 출력 방법.
According to claim 1,
The electronic device is a set-top box connected to a display,
How to output content.
제1항에 있어서,
상기 컨텐츠 정보는 상기 컨텐츠의 타겟 유형을 포함하고,
상기 타겟 유형은 실시간 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 동영상 컨텐츠 중 어느 하나인,
컨텐츠 출력 방법.
According to claim 1,
The content information includes a target type of the content,
The target type is any one of real-time broadcast content, advertising content, video on demand (VOD) content, and streaming video content.
How to output content.
제1항에 있어서,
상기 컨텐츠 정보는 상기 컨텐츠의 장르 정보를 포함하는,
컨텐츠 출력 방법.
According to claim 1,
The content information includes genre information of the content,
How to output content.
제1항에 있어서,
상기 컨텐츠 정보는 상기 전자 장치에 의해 실행되는 상기 컨텐츠를 재생하는 애플리케이션에 대한 정보를 포함하는,
컨텐츠 출력 방법.
According to claim 1,
The content information includes information about an application that reproduces the content executed by the electronic device.
How to output content.
제1항에 있어서,
상기 컨텐츠 정보는 상기 컨텐츠의 메타 데이터인,
컨텐츠 출력 방법.
According to claim 1,
The content information is metadata of the content,
How to output content.
제1항에 있어서,
상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계는,
상기 음향에 대한 음향 정보로부터 사람의 목소리를 식별하는 단계;
상기 음향 정보로부터 배경음을 식별하는 단계; 및
상기 목소리 및 상기 배경음 중 적어도 하나에 기초하여 상기 제2 특징 정보를 생성하는 단계
를 포함하는,
컨텐츠 출력 방법.
According to claim 1,
Generating second characteristic information about the sound of the content,
identifying a human voice from acoustic information about the sound;
identifying a background sound from the sound information; and
generating the second feature information based on at least one of the voice and the background sound;
including,
How to output content.
제1항에 있어서,
상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계는,
상기 컨텐츠가 변경되지 않은 경우, 실시간으로 생성되는 제2 특징 정보에 기초하여 상기 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 실시간으로 결정하는 단계
를 포함하는,
컨텐츠 출력 방법.
According to claim 1,
Determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information,
determining a target volume of the content in real time through the volume model based on second feature information generated in real time when the content is not changed;
including,
How to output content.
하드웨어와 결합되어 제1항 내지 제8항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable recording medium in order to execute the method of any one of claims 1 to 8 in combination with hardware.
전자 장치는,
컨텐츠를 출력하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
출력될 컨텐츠와 연관된 컨텐츠 정보에 기초하여 상기 컨텐츠의 제1 특징 정보를 생성하는 단계;
상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계;
상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계; 및
상기 타겟 음량으로 상기 컨텐츠를 출력하는 단계
를 수행하고,
상기 제1 특징 정보 및 상기 제2 특징 정보 중 적어도 하나에 기초하여 음량 모델을 통해 상기 컨텐츠의 타겟 음량을 결정하는 단계는,
상기 제1 특징 정보에 기초하여 서로 다른 방식으로 각각 훈련된 복수의 음량 모델들 중 타겟 음량 모델을 결정하는 단계; 및
상기 결정된 타겟 음량 모델에 따라 상기 제2 특징 정보에 기초하여 상기 컨텐츠의 상기 타겟 음량을 결정하는 단계
를 포함하는,
전자 장치.
electronic devices,
a memory in which a program outputting content is recorded; and
Processor that executes the above program
including,
said program,
generating first characteristic information of the content based on content information associated with the content to be output;
generating second characteristic information about the sound of the content;
determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information; and
outputting the content at the target volume;
and
Determining a target volume of the content through a volume model based on at least one of the first characteristic information and the second characteristic information,
determining a target volume model among a plurality of volume models each trained in a different manner based on the first feature information; and
Determining the target volume of the content based on the second characteristic information according to the determined target volume model
including,
electronic device.
제10항에 있어서,
상기 전자 장치는 디스플레이와 연결되는 셋탑 박스(set-top box)인,
전자 장치.
According to claim 10,
The electronic device is a set-top box connected to a display,
electronic device.
제10항에 있어서,
상기 컨텐츠 정보는 상기 컨텐츠의 타겟 유형을 포함하고,
상기 타겟 유형은 실시간 방송 컨텐츠, 광고 컨텐츠, VOD(video on demand) 컨텐츠 및 스트리밍 동영상 컨텐츠 중 어느 하나인,
전자 장치.
According to claim 10,
The content information includes a target type of the content,
The target type is any one of real-time broadcast content, advertising content, video on demand (VOD) content, and streaming video content.
electronic device.
제10항에 있어서,
상기 컨텐츠 정보는 상기 전자 장치에 의해 실행되는 상기 컨텐츠를 재생하는 애플리케이션에 대한 정보를 포함하는,
전자 장치.
According to claim 10,
The content information includes information about an application that reproduces the content executed by the electronic device.
electronic device.
제10항에 있어서,
상기 컨텐츠의 음향에 대한 제2 특징 정보를 생성하는 단계는,
상기 음향에 대한 음향 정보로부터 사람의 목소리를 식별하는 단계;
상기 음향 정보로부터 배경음을 식별하는 단계; 및
상기 목소리 및 상기 배경음 중 적어도 하나에 기초하여 상기 제2 특징 정보를 생성하는 단계
를 포함하는,
전자 장치.
According to claim 10,
Generating second characteristic information about the sound of the content,
identifying a human voice from acoustic information about the sound;
identifying a background sound from the sound information; and
generating the second feature information based on at least one of the voice and the background sound;
including,
electronic device.
KR1020210051303A 2021-04-20 2021-04-20 Method and apparatus for outputting content with adjusted volume KR102551681B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210051303A KR102551681B1 (en) 2021-04-20 2021-04-20 Method and apparatus for outputting content with adjusted volume

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210051303A KR102551681B1 (en) 2021-04-20 2021-04-20 Method and apparatus for outputting content with adjusted volume

Publications (2)

Publication Number Publication Date
KR20220144676A KR20220144676A (en) 2022-10-27
KR102551681B1 true KR102551681B1 (en) 2023-07-06

Family

ID=83810256

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210051303A KR102551681B1 (en) 2021-04-20 2021-04-20 Method and apparatus for outputting content with adjusted volume

Country Status (1)

Country Link
KR (1) KR102551681B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027352A (en) * 2000-07-04 2002-01-25 Sony Corp Digital broadcast receiver
KR101958664B1 (en) * 2017-12-11 2019-03-18 (주)휴맥스 Method and apparatus for providing various audio environment in multimedia contents playback system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102546212B1 (en) * 2016-01-05 2023-06-22 삼성전자주식회사 Method for Outputting Sound and Electronic Device supporting the same
KR102253524B1 (en) * 2019-09-02 2021-05-20 네이버 주식회사 Method and system for applying loudness normalization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027352A (en) * 2000-07-04 2002-01-25 Sony Corp Digital broadcast receiver
KR101958664B1 (en) * 2017-12-11 2019-03-18 (주)휴맥스 Method and apparatus for providing various audio environment in multimedia contents playback system

Also Published As

Publication number Publication date
KR20220144676A (en) 2022-10-27

Similar Documents

Publication Publication Date Title
US11792464B2 (en) Determining context to initiate interactivity
US10999649B2 (en) Auto-summarizing video content system and method
RU2526746C1 (en) Audio stream mixing with dialogue level normalisation
US9959872B2 (en) Multimodal speech recognition for real-time video audio-based display indicia application
US20200379722A1 (en) Apparatus and method for providing various audio environments in multimedia content playback system
KR102458962B1 (en) Method and apparatus for controlling audio signal for applying audio zooming effect in virtual reality
US8948894B2 (en) Method of selectively inserting an audio clip into a primary audio stream
CN111641865B (en) Playing control method of audio and video stream, television equipment and readable storage medium
JP2018195934A (en) Information processing unit, and information processing method
US11190840B2 (en) Systems and methods for applying behavioral-based parental controls for media assets
US9930402B2 (en) Automated audio adjustment
US11949960B2 (en) Selective playback of audio at normal speed during trick play operations
US10027994B2 (en) Interactive audio metadata handling
KR102551681B1 (en) Method and apparatus for outputting content with adjusted volume
US11423920B2 (en) Methods and systems for suppressing vocal tracks
KR102356229B1 (en) Operating Method Of IoT Server For IoT Linkage Service And IoT Server Of Thereof
US10346126B2 (en) User preference selection for audio encoding
KR101388386B1 (en) Apparatus and method for scheduling vod channel
US10255947B2 (en) Mitigating drift in audiovisual assets
KR102370161B1 (en) Operating Method Of IoT Server For IoT Linkage Service And IoT Server Of Thereof
JP7217905B1 (en) Systems, methods, and computer readable media for classifying live streaming data
US20220417693A1 (en) Computer system for processing audio content and method thereof
US20240021216A1 (en) Automation of Media Content Playback
US11026039B2 (en) Arrangement for distributing head related transfer function filters
TW201946475A (en) Audio playback apparatus and signal processing method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right