KR102598242B1 - Electronic apparatus and method for controlling thereof - Google Patents

Electronic apparatus and method for controlling thereof Download PDF

Info

Publication number
KR102598242B1
KR102598242B1 KR1020210157811A KR20210157811A KR102598242B1 KR 102598242 B1 KR102598242 B1 KR 102598242B1 KR 1020210157811 A KR1020210157811 A KR 1020210157811A KR 20210157811 A KR20210157811 A KR 20210157811A KR 102598242 B1 KR102598242 B1 KR 102598242B1
Authority
KR
South Korea
Prior art keywords
music
information
playlist
detailed information
voice
Prior art date
Application number
KR1020210157811A
Other languages
Korean (ko)
Other versions
KR20230071524A (en
Inventor
손명규
김현덕
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020210157811A priority Critical patent/KR102598242B1/en
Publication of KR20230071524A publication Critical patent/KR20230071524A/en
Application granted granted Critical
Publication of KR102598242B1 publication Critical patent/KR102598242B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4825End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • H04N21/8113Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format

Abstract

본 발명은 전자 장치 및 이의 제어 방법에 관한 것으로, 사용자 인터페이스, 통신 인터페이스, 스피커, 메모리 및 프로세서를 포함하고, 프로세서는, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고, 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고, 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고, 키워드에 기초하여 음악에 대한 상세 정보를 획득하기 위해 추출된 키워드를 검색 서버에 전송하고, 검색 서버로부터 재생목록에 포함된 음악에 대한 상세 정보를 수신하고, 획득된 상세 정보에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력한다.The present invention relates to an electronic device and a control method thereof, including a user interface, a communication interface, a speaker, a memory, and a processor, where the processor enters a radio mode when a preset user command is input, and the radio When entering the mode, meta information about the music included in the playlist is obtained, keywords included in the obtained meta information are extracted, and keywords extracted to obtain detailed information about the music based on the keywords is sent to the search server, detailed information about the music included in the playlist is received from the search server, and a description of the music included in the playlist and the music included in the playlist are output based on the obtained detailed information. .

Description

전자 장치 및 이의 제어 방법 {ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THEREOF}Electronic device and method for controlling the same {ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THEREOF}

본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는, 재생목록에 포함된 음악을 재생하면서 라디오를 듣는 것처럼 음악에 대한 설명을 사용자에게 함께 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more specifically, to an electronic device and a control method thereof that provide a description of the music to the user as if listening to the radio while playing music included in a playlist. .

음악을 감상하는 방식은 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 재생하거나 라디오를 청취하는 방식으로 나누어진다. Methods of listening to music include playing music included in a playlist stored on an electronic device or server or listening to the radio.

전자 장치 또는 서버에 저장된 재생목록은 개인의 기호에 따라 스스로 음악을 선정하여 편성한 것이거나, 제3자가 편성하여 온라인 상으로 공유된 것이거나, 음악 스트리밍 서비스 제공 업체에서 기간 별, 장르 별, 국가 별 인기 순으로 정렬된 음악 차트일 수 있다. 사용자는 전자 장치 또는 서버에 저장된 재생목록에 포함된 음악을 전자 장치에 다운로드 받아 재생하거나, 온라인 상으로 실시간 스트리밍을 통해 음악을 감상할 수 있다. 이 경우, 사용자는 원하는 음악을 기호에 맞게 선별적으로 감상할 수 있지만 음악에 대한 설명을 별도로 들을 수 없어 음악에 대한 정보를 얻기 위해 개인이 스스로 웹 검색을 통해 정보를 찾아야만 한다는 단점이 있다.Playlists stored on electronic devices or servers may be music that has been selected and organized by individuals according to their preferences, organized by a third party and shared online, or organized by a music streaming service provider by period, genre, or country. It could be a music chart sorted by star popularity. Users can download and play music included in a playlist stored on an electronic device or server on an electronic device, or listen to music online through real-time streaming. In this case, the user can selectively listen to the music they want according to their preference, but there is a disadvantage that the individual cannot listen to a separate explanation of the music, so to obtain information about the music, the individual must find the information through a web search on their own.

이와 달리 라디오를 통해 음악을 감상하는 경우, 전자 장치를 통해 라디오 신호를 수신하여 브로드캐스팅되는 라디오 방송을 청취한다. 라디오 방식으로 음악을 감상하는 경우, 라디오 방송 진행자가 음악에 대한 설명을 함께 전달해주어 음악의 아티스트, 명성, 배경지식을 들을 수 있으나, 개인이 듣고 싶지 않은 음악도 들어야 한다는 불편함이 있다.In contrast, when listening to music through the radio, radio signals are received through an electronic device and the broadcasted radio broadcast is listened to. When listening to music through the radio, the radio broadcaster provides an explanation of the music so you can hear about the artist, reputation, and background knowledge of the music. However, there is the inconvenience of having to listen to music that the individual does not want to listen to.

따라서, 개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 함께 들을 수 있는 방법의 모색이 요청된다.Therefore, there is a need to find a way to selectively listen to music according to individual preferences while simultaneously listening to information related to the music being listened to as if listening to the radio.

본 개시는 상술한 문제를 해결하기 위해 고안된 것으로, 본 개시의 목적은 재생목록에 포함된 음악을 감상하면서 동시에 음악에 대한 설명을 각 음악의 재생 전후에 함께 제공하는 전자 장치 및 이의 제어 방법을 제공함에 있다.The present disclosure is designed to solve the above-described problem, and the purpose of the present disclosure is to provide an electronic device and a control method for the same that provide a description of the music before and after playing each piece of music while listening to music included in a playlist. It is in

상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는, 사용자 인터페이스, 통신 인터페이스, 스피커, 메모리 및 프로세서를 포함하고, 상기 프로세서는, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하고, 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.The electronic device according to this embodiment for achieving the above-described purpose includes a user interface, a communication interface, a speaker, a memory, and a processor, and the processor switches to radio mode when a preset user command is input. When entering the radio mode, meta information about music included in the playlist is obtained, keywords included in the obtained meta information are extracted, and detailed information about the music is based on the keywords. Transmitting the extracted keyword to a search server to obtain information, receiving detailed information about music included in the playlist from the search server, and music included in the playlist based on the obtained detailed information A description of and music included in the playlist can be output.

한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신할 수 있다.Meanwhile, the processor may receive a description of the music included in the playlist and detailed information about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.

한편, 상기 프로세서는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력할 수 있다.Meanwhile, the processor inputs the received detailed information into a natural language synthesis neural network model to synthesize descriptions of music included in the playlist into natural language in text format, and converts the synthesized natural language in text format into voice. Can be printed.

한편, 상기 프로세서는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고, 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.Meanwhile, the processor identifies the type of voice to be output based on the genre of the music extracted from the meta information about the music included in the playlist, and converts the natural language in the synthesized text format into the identified type of voice. It is converted and output, and the type of voice may be one of a male voice, a female voice, and a celebrity voice.

한편, 상기 프로세서는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하고, 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력할 수 있다.Meanwhile, the processor identifies previously output detailed information among the received detailed information, and provides a description of music included in the playlist and the playlist based on detailed information different from the identified previously output detailed information. You can output music included in .

한편, 상기 프로세서는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입할 수 있다.Meanwhile, if the preset user command is input while outputting the first music included in the playlist, the processor may enter the radio mode starting with the second music to be output after the first music.

한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.

한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.

본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계, 상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계, 상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계, 상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계, 상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 상세 정보를 수신하는 단계 및 상기 획득된 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.A method of controlling an electronic device according to an embodiment of the present disclosure includes the steps of entering a radio mode when a preset user command is input, and when entering the radio mode, metadata for music included in a playlist. Obtaining information, extracting a keyword included in the obtained meta information, transmitting the extracted keyword to a search server to obtain detailed information about the music based on the keyword, Receiving detailed information about music included in the playlist from the search server and outputting a description of the music included in the playlist and the music included in the playlist based on the obtained detailed information. may include.

한편, 상기 상세 정보를 수신하는 단계는, 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 상세 정보를 수신하는 단계를 포함할 수 있다.Meanwhile, the step of receiving the detailed information includes receiving a description of the music included in the playlist and detailed information about a plurality of music included in the playlist before starting to output the music included in the playlist. It may include steps.

한편, 상기 출력하는 단계는, 상기 수신된 상세 정보를 자연어 합성 신경망 모델에 입력하여 상기 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하는 단계 및 상기 합성된 텍스트 형식의 자연어를 음성으로 변환하여 출력하는 단계를 포함할 수 있다.Meanwhile, the output step includes inputting the received detailed information into a natural language synthesis neural network model to synthesize a description of music included in the playlist into natural language in text format, and converting the synthesized natural language in text format into voice. It may include the step of converting and outputting.

한편, 상기 출력하는 단계는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계 및 상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계를 포함하고, 상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나일 수 있다.Meanwhile, the output step includes identifying the type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist, and converting the natural language in the synthesized text format into the identified It includes the step of converting and outputting a type of voice, and the type of voice may be one of a male voice, a female voice, and a celebrity voice.

한편, 상기 출력하는 단계는, 상기 수신된 상세 정보 중 기 출력된 상세 정보를 식별하는 단계 및 상기 식별된 기 출력된 상세 정보와 상이한 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악을 출력하는 단계를 포함할 수 있다.Meanwhile, the output step includes identifying previously output detailed information among the received detailed information, and a description of music included in the playlist based on detailed information different from the identified previously output detailed information. It may include outputting music included in the playlist.

한편, 상기 라디오 모드로 진입하는 단계는, 상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.Meanwhile, in the step of entering the radio mode, if the preset user command is input while outputting the first music included in the playlist, the radio mode is entered starting from the second music to be output after the first music. A control method comprising:

한편, 상기 키워드는, 상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드일 수 있다.Meanwhile, the keyword may be a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.

한편, 상기 상세 정보는, 상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보일 수 있다.Meanwhile, the detailed information may be information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.

개인의 선호도에 맞게 선별적으로 음악을 감상하면서도 마치 라디오를 청취하는 것처럼 감상하는 음악에 관련된 정보를 음악 재생 전후에 함께 들을 수 있다.While listening to music selectively according to individual preferences, you can also listen to information related to the music you are listening to before and after playing the music, just like listening to the radio.

도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.
도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.
도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.
도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.
1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.
FIG. 2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.
FIG. 3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.
FIG. 4 is a diagram illustrating a natural language synthesis neural network model according to various embodiments of the present disclosure.
FIG. 5 is a diagram illustrating a description of music included in a playlist synthesized in natural language in text format, according to an embodiment of the present disclosure.
FIG. 6 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.

본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Since these embodiments can be modified in various ways and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of the present disclosure. In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description thereof will be omitted.

덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In addition, the following examples may be modified into various other forms, and the scope of the technical idea of the present disclosure is not limited to the following examples. Rather, these embodiments are provided to make the present disclosure more faithful and complete and to completely convey the technical idea of the present disclosure to those skilled in the art.

본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in this disclosure are merely used to describe specific embodiments and are not intended to limit the scope of rights. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “have,” “may have,” “includes,” or “may include” refer to the presence of the corresponding feature (e.g., component such as numerical value, function, operation, or part). , and does not rule out the existence of additional features.

본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In the present disclosure, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) it may refer to all cases including both at least one A and at least one B.

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as “first,” “second,” “first,” or “second,” used in the present disclosure can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as “connected to,” it should be understood that a certain component can be connected directly to another component or connected through another component (e.g., a third component).

반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.On the other hand, when a component (e.g., a first component) is said to be "directly connected" or "directly connected" to another component (e.g., a second component), It may be understood that no other components (e.g., third components) exist between the elements.

본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. The expression “configured to” used in the present disclosure may mean, for example, “suitable for,” “having the capacity to,” depending on the situation. ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware.

대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or as a combination of hardware and software. Additionally, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented with at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.

한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다. Meanwhile, various elements and areas in the drawing are schematically drawn. Accordingly, the technical idea of the present invention is not limited by the relative sizes or spacing drawn in the attached drawings.

이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the attached drawings, embodiments according to the present disclosure will be described in detail so that those skilled in the art can easily implement them.

본 개시의 일 실시 예에 따른 전자 장치(200)는 모바일 기기, 웨어러블 기기, 스마트 폰, CD 플레이어, DVD 플레이어, 카세트 플레이어, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿, 스피커, TV 등과 같이 오디오 미디어 컨텐츠를 제공할 수 있는 다양한 장치로 구현될 수 있다. 전자 장치(200)는 상술한 기기에 한정되지 않으며, 전자 장치(200)는 상술한 기기들의 둘 이상의 기능을 갖춘 전자 장치(200)로 구현될 수 있다. The electronic device 200 according to an embodiment of the present disclosure includes a mobile device, a wearable device, a smart phone, a CD player, a DVD player, a cassette player, a media box (e.g., Samsung HomeSyncTM, Apple TVTM, or Google TVTM), and a desktop computer. , It can be implemented in various devices that can provide audio media content, such as laptop computers, tablets, speakers, TVs, etc. The electronic device 200 is not limited to the above-mentioned devices, and the electronic device 200 may be implemented as an electronic device 200 having two or more functions of the above-mentioned devices.

또한, 전자 장치(200)는 다른 외부 장치 등과 연결되어 하나 이상의 기능 수행을 위한 동작을 할 수 있다.Additionally, the electronic device 200 may be connected to other external devices and operate to perform one or more functions.

도 1은 본 개시의 일 실시 예에 따른, 전자 장치와 서버를 설명하기 위한 도면이다.1 is a diagram for explaining an electronic device and a server according to an embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(200)는 서버(100)와 통신 연결을 수행하여 정보를 송신 또는 수신하여 하나 이상의 기능을 수행할 수 있으며, 서버는 검색 서버일 수 있다. 예를 들어, 전자 장치(200)는 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 전자 장치(200)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Referring to FIG. 1, the electronic device 200 may perform one or more functions by transmitting or receiving information through a communication connection with the server 100, and the server may be a search server. For example, in order to obtain detailed information about music, the electronic device 200 may perform a web search operation by transmitting keywords extracted from meta information included in music to the server 100. The electronic device 100 may receive detailed information about music from the server 100. However, without being limited to the above-described embodiment, the electronic device 200 receives detailed description data about music synthesized in natural language in text format from the server 100 based on detailed information about music obtained as a result of a web search. You may.

도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성요소를 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining components of an electronic device according to an embodiment of the present disclosure.

사용자 인터페이스(210)는 버튼(button), 레버(lever), 스위치(switch), 터치(Touch)형 인터페이스 등을 포함할 수 있고, 터치형 인터페이스는 정전 용량 변화를 감지하는 스위치, 레버 등일 수 있고, 디스플레이(미도시) 화면 상에서 사용자의 터치로 입력을 받는 방식으로도 구현될 수 있다. 또한, 사용자 인터페이스(210)는 사용자의 신체와 전자 장치(200) 사이의 직접적인 접촉이 없는 경우라도 사용자의 제스처를 인식하여 사용자 명령을 입력 받는 식으로 이루어질 수 있다.The user interface 210 may include buttons, levers, switches, touch-type interfaces, etc., and the touch-type interface may be switches, levers, etc. that detect changes in capacitance. , It can also be implemented by receiving input through the user's touch on the display screen (not shown). Additionally, the user interface 210 may recognize a user's gesture and receive a user command even when there is no direct contact between the user's body and the electronic device 200.

프로세서(250)는 사용자 인터페이스(210)를 통해 라디오 모드와 관련된 일체의 동작에 대한 사용자 명령을 입력 받을 수 있다. 구체적으로, 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 입력을 수신하여 라디오 모드로 진입하거나 라디오 모드를 해제할 수 있고, 라디오 모드를 일시적으로 정지시킬 수 있다.The processor 250 may receive user commands for all operations related to the radio mode through the user interface 210. Specifically, the processor 250 may receive user input through the user interface 210 to enter or exit the radio mode, and may temporarily stop the radio mode.

통신 인터페이스(220)는 무선 통신 인터페이스, 유선 통신 인터페이스 또는 입력 인터페이스를 포함할 수 있다. 무선 통신 인터페이스는, 무선 통신 기술이나 이동 통신 기술을 이용하여 각종 외부 장치와 통신을 수행할 수 있다. 이러한 무선 통신 기술로는, 예를 들어, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth Low Energy), 캔(CAN) 통신, 와이 파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 초광대역 통신(UWB, ultrawide band), 지그비(zigbee), 적외선 통신(IrDA, infrared Data Association) 또는 엔에프씨(NFC, Near Field Communication) 등이 포함될 수 있으며, 이동 통신 기술 로는, 3GPP, 와이맥스(Wi-Max), LTE(Long Term Evolution), 5G 등이 포함될 수 있다. 무선 통신 인터페이스는 전자기파를 외부로 송신하거나 또는 외부에서 전달된 전자기파를 수신할 수 있는 안테나, 통신 칩 및 기판 등을 이용하여 구현될 수 있다. Communication interface 220 may include a wireless communication interface, a wired communication interface, or an input interface. The wireless communication interface can communicate with various external devices using wireless communication technology or mobile communication technology. These wireless communication technologies include, for example, Bluetooth, Bluetooth Low Energy, CAN communication, Wi-Fi, Wi-Fi Direct, and ultra-wideband communication. (UWB, ultrawide band), Zigbee, IrDA (infrared Data Association), or NFC (Near Field Communication) may be included, and mobile communication technologies include 3GPP and Wi-Max. , LTE (Long Term Evolution), 5G, etc. may be included. A wireless communication interface can be implemented using an antenna, a communication chip, a board, etc. that can transmit electromagnetic waves to the outside or receive electromagnetic waves transmitted from the outside.

유선 통신 인터페이스는 유선 통신 네트워크를 기반으로 각종 외부 장치와 통신을 수행할 수 있다. 여기서, 유선 통신 네트워크는, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷(Ethernet) 케이블 등 물리적인 케이블을 이용하여 구현될 수 있다.The wired communication interface can communicate with various external devices based on a wired communication network. Here, the wired communication network may be implemented using physical cables such as, for example, a pair cable, a coaxial cable, an optical fiber cable, or an Ethernet cable.

무선 통신 인터페이스 및 유선 통신 인터페이스는 실시 예에 따라 어느 하나가 생략될 수도 있다. 따라서, 전자 장치(200)는 무선 통신 인터페이스 만을 포함하거나 유선 통신 인터페이스 만을 포함할 수 있다. 뿐만 아니라, 전자 장치(200)는 무선 통신 인터페이스에 의한 무선 접속과 유선 통신 인터페이스에 의한 유선 접속을 모두 지원하는 통합된 통신 인터페이스를 구비할 수도 있다.Either the wireless communication interface or the wired communication interface may be omitted depending on the embodiment. Accordingly, the electronic device 200 may include only a wireless communication interface or only a wired communication interface. In addition, the electronic device 200 may be equipped with an integrated communication interface that supports both wireless connection using a wireless communication interface and wired connection using a wired communication interface.

전자 장치(200)는 한 가지 방식의 통신 연결을 수행하는 한 개의 통신 인터페이스(220)를 포함하는 경우에 국한되지 않고, 복수의 통신 인터페이스(220)를 포함할 수 있다.The electronic device 200 is not limited to including one communication interface 220 that performs a single type of communication connection, and may include a plurality of communication interfaces 220.

본 개시의 다양한 실시 예에 따른 프로세서(250)는 통신 인터페이스(220)를 통해 서버 또는 외부 전자 장치와 통신을 수행할 수 있다.The processor 250 according to various embodiments of the present disclosure may communicate with a server or an external electronic device through the communication interface 220.

구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 서버(100)와 통신 연결을 수행할 수 있으며, 서버(100)는 검색 서버일 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 음악에 대한 상세 정보를 획득하기 위해 음악에 포함되어 있는 메타 정보로부터 추출한 키워드를 서버(100)로 전송하여 웹 검색 동작을 수행할 수 있다. 전자 장치(100)는 서버(100)로부터 음악에 대한 상세 정보를 수신할 수 있다. 다만, 상술한 실시 예에 국한되지 않고, 프로세서(250)는 웹 검색 결과 획득된 음악에 대한 상세 정보에 기초하여 서버(100)에서 텍스트 형식의 자연어로 합성된 음악에 대한 상세 설명 데이터를 수신할 수도 있다.Specifically, the processor 250 may establish a communication connection with the server 100 through the communication interface 220, and the server 100 may be a search server. The processor 250 may perform a web search operation by transmitting keywords extracted from meta information included in the music to the server 100 to obtain detailed information about the music through the communication interface 220. The electronic device 100 may receive detailed information about music from the server 100. However, without being limited to the above-described embodiment, the processor 250 may receive detailed description data about music synthesized in natural language in text format from the server 100 based on detailed information about the music obtained as a result of a web search. It may be possible.

프로세서(250)는 통신 인터페이스(220)를 통해 외부 전자 장치(미도시)와 통신 연결을 수행하여 정보를 전송하거나 수신할 수 있다. 구체적으로, 프로세서(250)는 통신 인터페이스(220)를 통해 하나 이상의 외부 컴퓨터, TV, 스피커 등과 통신 연결을 수행하여 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The processor 250 may transmit or receive information by performing a communication connection with an external electronic device (not shown) through the communication interface 220. Specifically, the processor 250 performs a communication connection with one or more external computers, TVs, speakers, etc. through the communication interface 220 to provide a text format obtained based on music sounds included in the playlist or detailed information about the music. A description of music made up of synthesized natural language can be output.

스피커(230)는 고음역대 소리 재생을 위한 트위터, 중음역대 소리 재생을 위한 미드레인지, 저음역대 소리 재생을 위한 우퍼, 극저음역대 소리 재생을 위한 서브우퍼, 공진을 제어하기 위한 인클로저, 스피커에 입력되는 전기 신호 주파수를 대역 별로 나누는 크로스오버 네트워크 등으로 이루어질 수 있다.The speaker 230 includes a tweeter for reproducing high-pitched sounds, a midrange for reproducing mid-range sounds, a woofer for reproducing low-pitched sounds, a subwoofer for reproducing extremely low-pitched sounds, an enclosure for controlling resonance, and an input signal to the speaker. It may be comprised of a crossover network that divides the electrical signal frequency into bands.

스피커(230)는, 음향 신호를 전자 장치(200)의 외부로 출력할 수 있다. 스피커(230)는 멀티미디어 재생, 녹음 재생, 각종 알림음, 음성 메시지 등을 출력할 수 있다. 전자 장치(200)는 스피커(230)와 같은 오디오 출력 장치를 포함할 수 있으나, 오디오 출력 단자와 같은 출력 장치를 포함할 수 있다. 특히, 스피커(230)는 획득한 정보, 획득한 정보에 기초하여 가공·생산한 정보, 사용자 음성에 대한 응답 결과 또는 동작 결과 등을 음성 형태로 제공할 수 있다.The speaker 230 may output an acoustic signal to the outside of the electronic device 200. The speaker 230 can output multimedia playback, recording playback, various notification sounds, voice messages, etc. The electronic device 200 may include an audio output device such as the speaker 230, or may include an output device such as an audio output terminal. In particular, the speaker 230 can provide acquired information, information processed and produced based on the acquired information, response results to the user's voice, or operation results, etc. in voice form.

프로세서(250)는 스피커(230)를 통해 재생목록에 포함된 음악 소리 또는 음악에 대한 상세 정보에 기초하여 획득되는 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명을 출력할 수 있다.The processor 250 may output, through the speaker 230, a description of the music composed of natural language synthesized in a text format obtained based on music sounds included in the playlist or detailed information about the music.

메모리(240)는 각종 프로그램이나 데이터를 일시적 또는 비일시적으로 저장하고, 프로세서(120)의 호출에 따라서 저장된 정보를 프로세서(250)에 전달한다. 또한, 메모리(240)는, 프로세서(250)의 연산, 처리 또는 제어 동작 등에 필요한 각종 정보를 전자적 포맷으로 저장할 수 있다.The memory 240 temporarily or non-temporarily stores various programs or data, and transmits the stored information to the processor 250 according to a call from the processor 120. Additionally, the memory 240 can store various information necessary for calculation, processing, or control operations of the processor 250 in an electronic format.

메모리(240)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 통상적인 롬, 이피롬(EPROM), 이이피롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 컴팩트 디스크(CD), 디브이디(DVD) 또는 레이저 디스크 등과 같은 광 기록 매체(optical media), 자기테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.The memory 240 may include, for example, at least one of a main memory and an auxiliary memory. The main memory may be implemented using semiconductor storage media such as ROM and/or RAM. ROM may include, for example, conventional ROM, EPROM, EEPROM, and/or MASK-ROM. RAM may include, for example, DRAM and/or SRAM. Auxiliary storage devices include flash memory devices, SD (Secure Digital) cards, solid state drives (SSDs), hard disk drives (HDDs), magnetic drums, compact disks (CDs), and DVDs. ) or an optical recording medium such as a laser disk, magnetic tape, magneto-optical disk, and/or floppy disk, etc. may be implemented using at least one storage medium capable of storing data permanently or semi-permanently.

메모리(240)는 재생목록에 포함된 음악, 음악에 대한 메타 정보, 음악에 대한 메타 정보로부터 추출된 키워드, 음악에 대한 상세 정보, 자연어 합성 신경망 모델, 텍스트 형식으로 합성된 자연어로 이루어진 음악에 대한 설명 데이터를 저장할 수 있다.The memory 240 includes music included in the playlist, meta information about the music, keywords extracted from the meta information about the music, detailed information about the music, a natural language synthesis neural network model, and music composed of natural language synthesized in text format. Description data can be saved.

프로세서(250)는 전자 장치(200)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(160)는 상술한 바와 메모리(240)를 포함하는 전자 장치(200)의 구성과 연결되며, 상술한 바와 같은 메모리(240)에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 전자 장치(200)의 동작을 전반적으로 제어할 수 있다. 특히, 프로세서(250)는 하나의 프로세서(250)로 구현될 수 있을 뿐만 아니라 복수의 프로세서(250)로 구현될 수 있다.The processor 250 controls the overall operation of the electronic device 200. Specifically, the processor 160 is connected to the configuration of the electronic device 200 including the memory 240 as described above, and executes at least one instruction stored in the memory 240 as described above, thereby controlling the electronic device ( 200) can be controlled overall. In particular, the processor 250 may be implemented not only as one processor 250 but also as a plurality of processors 250.

프로세서(250)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(250)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다. Processor 250 may be implemented in various ways. For example, the processor 250 may include an application specific integrated circuit (ASIC), an embedded processor, a microprocessor, hardware control logic, a hardware finite state machine (FSM), and a digital signal processor. Processor, DSP).

한편, 본 개시에서 프로세서(250)는 디지털 신호를 처리하는 중앙처리장치 (central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(160)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형 태로 구현될 수도 있다. 프로세서(250)는 메모리(240)에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다. 뿐만 아니라, 프로세서(250)는 인공지능 기능을 수행하기 위하여, 별도의 AI 전용 프로세서인 GPU(graphics-processing unit), NPU(Neural Processing Unit), VPU(Visual Processing UniT) 중 적어도 하나를 포함할 수 있다.Meanwhile, in the present disclosure, the processor 250 includes a central processing unit (CPU), a micro controller unit (MCU), a micro processing unit (MPU), a controller, and an application processor that process digital signals. It may include one or more of a processor (AP), a communication processor (CP), or an ARM processor, or may be defined by that term. Additionally, the processor 160 may be implemented as a System on Chip (SoC) with a built-in processing algorithm, large scale integration (LSI), or may be implemented in the form of a Field Programmable Gate Array (FPGA). The processor 250 can perform various functions by executing computer executable instructions stored in the memory 240. In addition, in order to perform artificial intelligence functions, the processor 250 may include at least one of a separate AI-specific processor: GPU (graphics-processing unit), NPU (Neural Processing Unit), and VPU (Visual Processing Unit). there is.

구체적인 프로세서(250)의 전자 장치(200)의 제어 방법은 도 3 내지 5와 함께 구체적으로 설명한다.A specific method of controlling the electronic device 200 by the processor 250 will be described in detail with reference to FIGS. 3 to 5.

프로세서(250)는 사용자 인터페이스(210)를 통해 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다.When a preset user command is input through the user interface 210, the processor 250 may enter radio mode.

여기서 라디오 모드란 음악을 재생하면서 마치 라디오를 듣는 것처럼 음악에 대한 정보를 자연어의 형태로 음악 재생 전후에 함께 출력하는 동작 모드이다.Here, the radio mode is an operation mode that outputs information about the music in the form of natural language before and after playing the music, as if listening to the radio.

프로세서(250)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입하도록 전자 장치(200)를 제어할 수 있다.If a preset user command is input while outputting the first music included in the playlist, the processor 250 may control the electronic device 200 to enter the radio mode starting from the second music to be output after the first music. there is.

라디오 모드로 진입되면, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다.When entering the radio mode, the processor 250 can obtain meta information about music included in the playlist.

도 3은 본 개시의 다양한 실시 예에 따른, 음악 데이터에 포함되어 있는 메타 정보를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining meta information included in music data according to various embodiments of the present disclosure.

도 3을 참조하면, 음악 데이터(300)에는 음악의 제목을 나타내는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 등에 관한 메타 정보가 포함될 수 있으나, 이에 국한되지 않고 음악과 관련된 다양한 메타 정보를 포함할 수 있다.Referring to FIG. 3, the music data 300 includes a song name 310 indicating the title of the music, a name of the singer 320, and a genre 330 of the music (e.g., ballad, hip-hop, rock, soul, children's song, classical music, Opera, jazz) and the year of music release (340) may be included, but are not limited to this and may include various meta information related to music.

프로세서(250)는 획득된 메타 정보에 포함된 키워드를 추출할 수 있다. 메타 정보로부터 추출된 키워드는 곡명(310), 음악의 가수명(320), 음악의 장르(330)(예: 발라드, 힙합, 락, 소울, 동요, 클래식, 오페라, 재즈) 및 음악의 발표년도(340) 중 적어도 하나에 관련된 것일 수 있다.The processor 250 may extract keywords included in the obtained meta information. Keywords extracted from meta information include the song name (310), the name of the music artist (320), the genre of the music (330) (e.g. ballad, hip-hop, rock, soul, children's song, classical music, opera, jazz), and the year of music release ( It may be related to at least one of 340).

예를 들어, 프로세서(250)는 음악에 대한 메타 정보 중 곡명(310)인 "Hey Jude" 가수명(320)인 "Beatles", 발표년도(340)인 "1968년"로부터 키워드를 추출할 수 있다.For example, the processor 250 may extract keywords from “Hey Jude,” which is the song name (310), “Beatles,” which is the singer’s name (320), and “1968,” which is the year of release (340), among the meta information about music. .

프로세서(250)는 추출된 키워드에 기초하여 음악에 대한 상세 정보를 획득하기 위해 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 추출된 키워드를 검색 서버(100)에 전송할 수 있다. 프로세서(250)는 통신 인터페이스(220)를 통해 검색 서버(100)와 통신 연결을 수행하여 키워드에 기초한 검색을 통해 획득된 음악에 대한 상세 정보를 검색 서버(100)로부터 수신할 수 있다.The processor 250 may perform a communication connection with the search server 100 through the communication interface 220 to obtain detailed information about music based on the extracted keywords and transmit the extracted keywords to the search server 100. there is. The processor 250 may perform a communication connection with the search server 100 through the communication interface 220 and receive detailed information about music obtained through a keyword-based search from the search server 100.

상세 정보는, 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나일 수 있다.The detailed information may be at least one of music song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information.

예를 들어, 획득된 상세 정보는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보,"대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보일 수 있다.For example, the details obtained include release date information such as "August 26, 1968" in written form or in the form of a list of words, album information "Single Track", and lyricist and composer information "Paul McCartney". ,It could be historical information,"one of the greatest songs in the history of popular music."

여기서, 프로세서(250)는 라디오 모드인 상태에서 음악이 재생되는 동안 실시간으로 재생목록에 포함된 개개의 음악에 대한 상세 정보를 획득할 수 있다. 다만 이에 국한되지 않고, 프로세서(250)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악 또는 재생목록에 포함된 전체 음악에 대한 상세 정보를 수신할 수 있다. 이 경우 음악의 재생이 시작되기 전에 미리 음악에 대한 상세 정보를 획득할 수 있기 때문에 음악 재생 중 정보 처리로 인한 딜레이가 발생하는 현상을 방지할 수 있다.Here, the processor 250 can obtain detailed information about individual music included in the playlist in real time while music is being played in radio mode. However, without being limited thereto, the processor 250 provides a description of the music included in the playlist and a plurality of music included in the playlist or all music included in the playlist before starting to output the music included in the playlist. You can receive detailed information about In this case, since detailed information about the music can be obtained in advance before music playback begins, delays due to information processing during music playback can be prevented.

예를 들어, 프로세서(250)는 "Hey Jude", "My heart will go on", "Let it be"로 이루어진 재생목록에 포함된 음악을 재생하는 동안 실시간으로 개개의 음악에 대한 상세 정보 획득 동작을 수행할 수 있지만, 재생목록에 포함된 음악 재생 및 음악에 대한 설명 출력을 시작하기 전에 재생목록에 포함된 "Hey Jude", "My heart will go on", "Let it be"모든 곡에 대한 상세 정보를 사전에 획득할 수도 있다.For example, the processor 250 operates to obtain detailed information about each piece of music in real time while playing music included in a playlist consisting of “Hey Jude,” “My heart will go on,” and “Let it be.” However, before starting to play the music included in the playlist and output descriptions for the music, Detailed information can also be obtained in advance.

프로세서(250)는 수신된 음악에 대한 상세 정보를 자연어 합성 신경망 모델에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성할 수 있다.The processor 250 may input detailed information about the received music into a natural language synthesis neural network model and synthesize a description of the music included in the playlist in natural language in text format.

도 4는 본 개시의 다양한 실시 예에 따른, 자연어 합성 신경망 모델을 설명하기 위한 도면이며, 도 5는 본 개시의 일 실시 예에 따른, 텍스트 형식의 자연어로 합성된 재생목록에 포함된 음악에 대한 설명을 나타낸 도면이다.FIG. 4 is a diagram illustrating a natural language synthesis neural network model according to various embodiments of the present disclosure, and FIG. 5 is a diagram for music included in a playlist synthesized in natural language in text format according to an embodiment of the present disclosure. This is a drawing showing the explanation.

도 4를 참조하면, 프로세서(250)는 음악에 대한 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 실제 라디오 DJ가 방송을 통해 청취자에게 전달해주는 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.Referring to FIG. 4, the processor 250 inputs detailed information about the music 410 into the natural language synthesis neural network model 420, and provides a detailed description of the music delivered to listeners by an actual radio DJ through broadcasting in text. Natural language 430 in text format can be obtained.

예를 들어, 프로세서(250)는 문어체 형태로 이루어지거나 단어의 나열 형태로 이루어진 "1968년 8월 26일"이라는 발매 날짜 정보, "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보, 대중 음악 역사상 가장 위대한 명곡 중 하나"라는 역사 정보 등의 음악 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다. 다만, 이에 국한되지 않고, 프로세서(250)는 음악 데이터(300)로부터 획득한 메타정보인 "Hey Jude"라는 곡명 정보, "Beatles"라는 가수명 정보를 상세 정보(410)와 함께 자연어 합성 신경망 모델(420)에 입력하여 음악에 대한 상세 설명을 텍스트로 나타낸 텍스트 형식의 자연어(430)를 획득할 수 있다.For example, the processor 250 stores release date information such as “August 26, 1968,” album information “Single Track,” and lyricist and composer information “Paul McCartney,” which are in written form or in the form of a list of words. , one of the greatest masterpieces in the history of popular music,” input detailed music information (410), such as historical information, into the natural language synthesis neural network model (420) to obtain a natural language (430) in text format expressing a detailed description of the music in text. However, the processor 250 is not limited to this, and the processor 250 converts the meta information obtained from the music data 300, such as the song name information “Hey Jude” and the singer name information “Beatles”, into natural language along with the detailed information 410. By inputting it into the synthetic neural network model 420, natural language 430 in a text format expressing a detailed description of music can be obtained.

구체적으로 도 5를 참조하면, 프로세서(250)는 자연어 합성 신경망 모델(420)을 통해 "이번 곡은 Beatles의 Hey Jude 입니다."(510), "으로"(520), "했습니다."(530), "이 곡은"(540), "자주 꼽힙니다."(550) 등의 구어체 표현이 포함된 텍스트 형식으로 이루어진 자연어 형태의 음악에 대한 설명 데이터를 획득할 수 있다.Specifically, referring to FIG. 5, the processor 250 uses the natural language synthesis neural network model 420 to display “This song is Hey Jude by the Beatles” (510), “To” (520), and “I did it” (530). ), “This song is” (540), and “It is often chosen” (550).

여기서, 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 인공 지능 모델은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 인공 지능 모델은, 일 예로, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공 지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.Here, a neural network model can be designed to simulate the human brain structure on a computer. An artificial intelligence model may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes can each form a connection relationship to simulate synaptic activity in which neurons send and receive signals through synapses. The artificial intelligence model may include, for example, a neural network model or a deep learning model developed from a neural network model. In a deep learning model, multiple network nodes are located at different depths (or layers) and can exchange data according to convolutional connections. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as artificial intelligence models, but are not limited thereto.

구체적으로, 신경망 모델은 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.Specifically, the neural network model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.

신경망 모델은 학습 알고리즘을 포함할 수 있다. 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다.A neural network model may include a learning algorithm. For example, it may include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. An artificial intelligence model may include multiple artificial neural network layers.

또한 본 개시에 따른 자연어 합성 신경망 모델(420)은 자연어 처리(NLP, Natural Language Processing)를 위한 ELMo(Embedding from Language Model), BERT(Bidirectional Encoder Representation of Transformer)일 수 있다.Additionally, the natural language synthesis neural network model 420 according to the present disclosure may be ELMo (Embedding from Language Model) or BERT (Bidirectional Encoder Representation of Transformer) for Natural Language Processing (NLP).

프로세서(250)는 상술한 바와 같이 상세 정보(410)에 기초하여 획득된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 음성으로 변환하여 재생하는 음악 출력 전후에 함께 출력할 수 있다.As described above, the processor 250 can convert a description of music in natural language 430 in text format obtained based on the detailed information 410 into voice and output it together before and after outputting the music being played.

여기서, 프로세서(250)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성의 목소리, 여성의 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별할 수 있고, 합성된 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있다. Here, the processor 250 can identify the type of voice to be output, such as a male voice, a female voice, a celebrity voice, etc., based on the genre of music 330 extracted from meta information about music included in the playlist. In addition, a description of music made up of natural language 430 in a synthesized text format can be converted into an identified type of voice and output.

예를 들어, 프로세서(250)는 음악의 장르(330)가 "발라드"인 경우, 음성의종류를 중저음의 남자 연예인 목소리로 식별할 수 있고, 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 중저음의 남자 연예인 목소리로 출력할 수 있다.For example, if the genre of music 330 is “ballad,” the processor 250 can identify the type of voice as a male celebrity voice with a mid-low pitch, and provide a description of the music in natural language 430 in text format. can be output as a low-pitched male celebrity voice.

다만, 이에 국한되지 않고 프로세서(250)는 사용자 인터페이스(210)를 통해 사용자 명령을 입력 받아 출력할 음성의 종류를 식별하여 텍스트 형식의 자연어(430)로 이루어진 음악에 대한 설명을 식별된 종류의 음성으로 변환하여 출력할 수 있음은 물론이다.However, not limited to this, the processor 250 receives a user command through the user interface 210, identifies the type of voice to be output, and provides a description of the music in natural language 430 in text format using the identified type of voice. Of course, it can be converted to and output.

본 개시의 또 다른 실시 예에 따른 프로세서(250)는 수신된 상세 정보(410) 중 텍스트 형식의 자연어(430)로 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The processor 250 according to another embodiment of the present disclosure identifies detailed information 410 that has been previously output in natural language 430 in text format among the received detailed information 410, and identifies the previously output detailed information ( A description of the music included in the playlist and the music included in the playlist can be output based on detailed information 410 that is different from 410).

예를 들어, 프로세서(250)는"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 기 출력된 상세 정보(410)인지 여부를 식별할 수 있다.For example, the processor 250 may identify whether the album information “Single Track” and the lyricist and composer information “Paul McCartney” are already printed detailed information 410.

여기서, 프로세서(250)는 기 출력된 상세 정보(410)에 기초한 음악에 대한 설명을 메모리(240) 또는 서버(100)에 저장하도록 제어하고, 저장된 기 출력된 상세 정보(410)에 기초하여 현재 출력할 음악에 대한 설명이 기 출력된 상세 정보(410)에 대한 것인지 식별할 수 있다.Here, the processor 250 controls to store a description of music based on the previously output detailed information 410 in the memory 240 or the server 100, and based on the stored previously output detailed information 410, the current It is possible to identify whether the description of the music to be output refers to the detailed information 410 that has already been output.

"싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보가 이전에 기 출력된 상세 정보(410)인 것으로 식별되면 프로세서(250)는 "싱글 트랙"이라는 앨범 정보, "폴 매카트니"라는 작사 및 작곡자 정보를 출력하지 않고 그와 상이한 상세 정보(410)에 기초하여 획득된 음악에 대한 설명을 출력함으로써 같은 내용을 반복하여 사용자에게 제공하여 사용자에게 피로감을 주는 문제점을 방지할 수 있다.If the album information called "Single Track" and the lyricist and composer information called "Paul McCartney" are identified as previously printed detailed information 410, the processor 250 processes the album information called "Single Track" and the lyricist and composer information called "Paul McCartney". By outputting a description of the music obtained based on detailed information 410 that is different from the lyricist and composer information, it is possible to prevent the problem of causing fatigue to the user by repeatedly providing the same content to the user.

상술한 바와 같이 프로세서(250)는 재생목록에 포함된 음악 및 음악에 대한 설명을 함께 출력함으로써 사용자의 선호도에 맞춰 편성된 재생목록에 포함된 음악을 마치 라디오를 청취하면서 듣는 것과 같은 체험을 제공할 수 있다.As described above, the processor 250 outputs the music included in the playlist and a description of the music together, providing an experience similar to listening to music included in a playlist organized according to the user's preferences as if listening to the radio. You can.

도 6은 본 개시의 일 실시 예에 따른, 전자 장치의 동작을 설명하기 위한 흐름도이다.FIG. 6 is a flowchart for explaining the operation of an electronic device according to an embodiment of the present disclosure.

전자 장치(200)는 기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입할 수 있다(S610). 여기서, 전자 장치(100)는 기 설정된 사용자 명령이 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 제1 음악 다음으로 출력할 제2 음악부터 라디오 모드로 진입할 수 있다.When a preset user command is input, the electronic device 200 may enter the radio mode (S610). Here, if a preset user command is input while outputting the first music included in the playlist, the electronic device 100 may enter the radio mode starting with the second music to be output after the first music.

라디오 모드로 진입되면, 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보를 획득할 수 있다(S620).When entering the radio mode, the electronic device 200 can obtain meta information about music included in the playlist (S620).

전자 장치(200)는 획득된 메타 정보에 포함된 키워드(Keyword)를 추출할 수 있다(S630). 여기서, 키워드는, 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명(310), 가수명(320), 장르(330) 및 발표년도(340) 중 적어도 하나에 관련된 키워드일 수 있다.The electronic device 200 may extract a keyword included in the acquired meta information (S630). Here, the keyword may be a keyword related to at least one of the song name 310, singer name 320, genre 330, and release year 340 extracted from meta information about music included in the playlist.

전자 장치(200)는 키워드에 기초하여 음악에 대한 상세 정보(410)를 획득하기 위해 추출된 키워드를 검색 서버(100)에 전송할 수 있다(S640).The electronic device 200 may transmit the extracted keyword to the search server 100 to obtain detailed information 410 about music based on the keyword (S640).

전자 장치(200)는 검색 서버(100)로부터 재생목록에 포함된 음악에 대한 상세 정보(410)를 수신할 수 있다(S650). 여기서, 전자 장치(200)는 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악의 출력을 시작하기 전에 재생목록에 포함된 복수의 음악에 대한 상세 정보(410)를 수신할 수 있다.The electronic device 200 may receive detailed information 410 about music included in the playlist from the search server 100 (S650). Here, the electronic device 200 may receive a description of the music included in the playlist and detailed information 410 about a plurality of music included in the playlist before starting to output the music included in the playlist. .

전자 장치(200)는 획득된 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다(S660). 여기서 전자 장치(200)는 수신된 상세 정보(410)를 자연어 합성 신경망 모델(420)에 입력하여 재생목록에 포함된 음악에 대한 설명을 텍스트 형식의 자연어로 합성하고, 합성된 텍스트 형식의 자연어(430)를 음성으로 변환하여 출력할 수 있다. 또한 전자 장치(200)는 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 음악의 장르(330)에 기초하여, 남성 목소리, 여성 목소리, 연예인 목소리 등과 같은 출력할 음성의 종류를 식별하고, 합성된 텍스트 형식의 자연어(430)를 식별된 종류의 음성으로 변환하여 출력할 수 있다. 전자 장치(200)는 수신된 상세 정보(410) 중 기 출력된 상세 정보(410)를 식별하고, 식별된 기 출력된 상세 정보(410)와 상이한 상세 정보(410)에 기초하여 재생목록에 포함된 음악에 대한 설명 및 재생목록에 포함된 음악을 출력할 수 있다.The electronic device 200 may output a description of the music included in the playlist and the music included in the playlist based on the acquired detailed information 410 (S660). Here, the electronic device 200 inputs the received detailed information 410 into the natural language synthesis neural network model 420 to synthesize the description of the music included in the playlist in natural language in text format, and natural language in the synthesized text format ( 430) can be converted to voice and output. In addition, the electronic device 200 identifies the type of voice to be output, such as a male voice, a female voice, a celebrity voice, etc., based on the genre of music 330 extracted from meta information about music included in the playlist, and synthesized Natural language 430 in text format can be converted into an identified type of voice and output. The electronic device 200 identifies previously output detailed information 410 among the received detailed information 410 and includes it in the playlist based on detailed information 410 that is different from the identified previously output detailed information 410. You can output a description of the music and the music included in the playlist.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been shown and described, but the present disclosure is not limited to the specific embodiments described above, and may be used in the technical field pertaining to the disclosure without departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical ideas or perspectives of the present disclosure.

200: 전자 장치
210: 사용자 인터페이스
220: 통신 인터페이스
230: 스피커
240: 메모리
250: 프로세서
200: electronic device
210: User interface
220: communication interface
230: speaker
240: memory
250: processor

Claims (16)

전자 장치에 있어서,
사용자 인터페이스;
통신 인터페이스;
스피커;
메모리; 및
프로세서;를 포함하고,
상기 프로세서는,
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하고,
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하고,
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하고,
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하고,
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하고,
상기 제1 상세 정보를 자연어 합성 신경망 모델에 입력하여, 상기 재생목록에 포함된 상기 음악에 대한 설명을 문장 형식의 제2 상세 정보로 합성하고,
상기 제2 상세 정보를 음성으로 변환한 결과인 상기 음악에 대한 음성 설명 및 상기 재생목록에 포함된 상기 음악을 동시에 출력하는, 전자 장치.
In electronic devices,
user interface;
communication interface;
speaker;
Memory; and
Including a processor;
The processor,
When a preset user command is entered, it enters Radio Mode,
When entering the radio mode, obtain meta information about music included in the playlist,
Extract keywords included in the obtained meta information,
Transmitting the extracted keywords to a search server to obtain detailed information about the music based on the keywords,
Receiving first detailed information in text format about music included in the playlist from the search server,
Inputting the first detailed information into a natural language synthesis neural network model to synthesize the description of the music included in the playlist into second detailed information in the form of a sentence,
An electronic device that simultaneously outputs a voice description of the music, which is a result of converting the second detailed information into voice, and the music included in the playlist.
제1항에 있어서,
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는, 전자 장치.
According to paragraph 1,
The processor,
An electronic device that receives a description of the music included in the playlist and first detailed information in text format about a plurality of pieces of music included in the playlist before starting to output the music included in the playlist.
삭제delete 제1 항에 있어서,
상기 프로세서는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하고,
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 전자 장치.
According to claim 1,
The processor,
Identifying the type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist,
Converting and outputting the natural language in the synthesized text format into the identified type of voice,
The type of voice is one of a male voice, a female voice, and a celebrity voice.
제1항에 있어서,
상기 프로세서는,
상기 수신된 제1 상세 정보 중 기 출력된 상세 정보를 식별하고,
상기 기 출력된 상세 정보를 제외한 제1 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 상기 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는, 전자 장치.
According to paragraph 1,
The processor,
Identify previously output detailed information among the received first detailed information,
An electronic device that simultaneously outputs the audio description of music included in the playlist and the music included in the playlist based on first detailed information excluding the previously output detailed information.
제1항에 있어서,
상기 프로세서는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는, 전자 장치.
According to paragraph 1,
The processor,
If the preset user command is input while outputting the first music included in the playlist, the electronic device enters the radio mode starting with the second music to be output after the first music.
제1항에 있어서,
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 전자 장치.
According to paragraph 1,
The above keywords are,
An electronic device that is a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
제1항에 있어서,
상기 텍스트 형식의 제1 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 전자 장치.
According to paragraph 1,
The first detailed information in the text format is,
An electronic device that is information about at least one of song title information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
전자 장치의 제어 방법에 있어서,
기 설정된 사용자 명령이 입력되면, 라디오 모드(Radio Mode)로 진입하는 단계;
상기 라디오 모드로 진입되면, 재생목록에 포함된 음악에 대한 메타 정보를 획득하는 단계;
상기 획득된 메타 정보에 포함된 키워드(Keyword)를 추출하는 단계;
상기 키워드에 기초하여 상기 음악에 대한 상세 정보를 획득하기 위해 상기 추출된 키워드를 검색 서버에 전송하는 단계;
상기 검색 서버로부터 상기 재생목록에 포함된 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는 단계;
상기 제1 상세 정보를 자연어 합성 신경망 모델에 입력하여, 상기 재생목록에 포함된 상기 음악에 대한 설명을 문장 형식의 제2 상세 정보로 합성하는 단계; 및
상기 제2 상세 정보를 음성으로 변환한 결과인 상기 음악에 대한 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는 단계;를 포함하는 제어 방법.
In a method of controlling an electronic device,
Entering a radio mode when a preset user command is input;
Upon entering the radio mode, obtaining meta information about music included in the playlist;
Extracting keywords included in the obtained meta information;
transmitting the extracted keyword to a search server to obtain detailed information about the music based on the keyword;
Receiving first detailed information in text format about music included in the playlist from the search server;
Inputting the first detailed information into a natural language synthesis neural network model to synthesize the description of the music included in the playlist into second detailed information in the form of a sentence; and
A control method comprising simultaneously outputting a voice description of the music, which is a result of converting the second detailed information into voice, and music included in the playlist.
제9항에 있어서,
상기 상세 정보를 수신하는 단계는,
상기 재생목록에 포함된 음악에 대한 설명 및 상기 재생목록에 포함된 음악의 출력을 시작하기 전에 상기 재생목록에 포함된 복수의 음악에 대한 텍스트 형식의 제1 상세 정보를 수신하는 단계;를 포함하는 제어 방법.
According to clause 9,
The step of receiving the detailed information is,
Receiving a description of the music included in the playlist and first detailed information in text format about a plurality of music included in the playlist before starting to output the music included in the playlist; comprising: Control method.
삭제delete 제9 항에 있어서,
상기 출력하는 단계는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출한 상기 음악의 장르에 기초하여, 출력할 음성의 종류를 식별하는 단계; 및
상기 합성된 텍스트 형식의 자연어를 상기 식별된 종류의 음성으로 변환하여 출력하는 단계;를 포함하고,
상기 음성의 종류는 남성의 목소리, 여성의 목소리, 연예인 목소리 중 하나인, 제어 방법.
According to clause 9,
The output step is,
identifying a type of voice to be output based on the genre of the music extracted from meta information about the music included in the playlist; and
Converting the natural language in the synthesized text format into the identified type of voice and outputting it,
The type of voice is one of a male voice, a female voice, and a celebrity voice.
제9항에 있어서,
상기 출력하는 단계는,
상기 수신된 제1 상세 정보 중 기 출력된 상세 정보를 식별하는 단계; 및
상기 기 출력된 상세 정보를 제외한 제1 상세 정보에 기초하여 상기 재생목록에 포함된 음악에 대한 상기 음성 설명 및 상기 재생목록에 포함된 음악을 동시에 출력하는 단계;를 포함하는 제어 방법.
According to clause 9,
The output step is,
identifying previously output detailed information among the received first detailed information; and
A control method comprising simultaneously outputting the audio description of the music included in the playlist and the music included in the playlist based on first detailed information excluding the previously output detailed information.
제9항에 있어서,
상기 라디오 모드로 진입하는 단계는,
상기 기 설정된 사용자 명령이 상기 재생목록에 포함된 제1 음악을 출력하는 동안 입력되면, 상기 제1 음악 다음으로 출력할 제2 음악부터 상기 라디오 모드로 진입하는 단계;를 포함하는, 제어 방법.
According to clause 9,
The step of entering the radio mode is,
If the preset user command is input while outputting the first music included in the playlist, entering the radio mode starting with the second music to be output after the first music.
제9항에 있어서,
상기 키워드는,
상기 재생목록에 포함된 음악에 대한 메타 정보로부터 추출된 곡명, 가수명, 장르 및 발표년도 중 적어도 하나에 관련된 키워드인, 제어 방법.
According to clause 9,
The above keywords are,
A control method that is a keyword related to at least one of the song name, singer name, genre, and release year extracted from meta information about music included in the playlist.
제9항에 있어서,
상기 텍스트 형식의 제1 상세 정보는,
상기 음악의 곡명 정보, 가수명 정보, 발매 날짜 정보, 앨범 정보, 작사 및 작곡자 정보, 관련 아티스트 정보 및 역사 정보 중 적어도 하나에 대한 정보인, 제어 방법.
According to clause 9,
The first detailed information in the text format is,
A control method, which is information about at least one of song name information, singer name information, release date information, album information, lyricist and composer information, related artist information, and history information of the music.
KR1020210157811A 2021-11-16 2021-11-16 Electronic apparatus and method for controlling thereof KR102598242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210157811A KR102598242B1 (en) 2021-11-16 2021-11-16 Electronic apparatus and method for controlling thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210157811A KR102598242B1 (en) 2021-11-16 2021-11-16 Electronic apparatus and method for controlling thereof

Publications (2)

Publication Number Publication Date
KR20230071524A KR20230071524A (en) 2023-05-23
KR102598242B1 true KR102598242B1 (en) 2023-11-03

Family

ID=86544189

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210157811A KR102598242B1 (en) 2021-11-16 2021-11-16 Electronic apparatus and method for controlling thereof

Country Status (1)

Country Link
KR (1) KR102598242B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120076482A (en) * 2010-11-26 2012-07-09 삼성전자주식회사 Method and apparatus for searching contents in a communication system
KR102369985B1 (en) * 2015-09-04 2022-03-04 삼성전자주식회사 Display arraratus, background music providing method thereof and background music providing system
US10261964B2 (en) * 2016-01-04 2019-04-16 Gracenote, Inc. Generating and distributing playlists with music and stories having related moods
WO2020222338A1 (en) * 2019-05-02 2020-11-05 엘지전자 주식회사 Artificial intelligence device for providing image information, and method therefor

Also Published As

Publication number Publication date
KR20230071524A (en) 2023-05-23

Similar Documents

Publication Publication Date Title
US10318637B2 (en) Adding background sound to speech-containing audio data
US10381016B2 (en) Methods and apparatus for altering audio output signals
US10062367B1 (en) Vocal effects control system
WO2020113733A1 (en) Animation generation method and apparatus, electronic device, and computer-readable storage medium
US20210272569A1 (en) Voice feedback for user interface of media playback device
JP2017054121A (en) Apparatus and method for controlling sound, and apparatus and method for training genre recognition model
US20170060520A1 (en) Systems and methods for dynamically editable social media
JP2019091014A (en) Method and apparatus for reproducing multimedia
US11915687B1 (en) Systems and methods for generating labeled data to facilitate configuration of network microphone devices
KR20190093492A (en) Smart speaker with music recognition
US20160117144A1 (en) Collaborative and interactive queuing of content via electronic messaging and based on attribute data
US20120308014A1 (en) Audio playback device and method
KR20170136200A (en) Method and system for generating playlist using sound source content and meta information
JP2023527473A (en) AUDIO PLAYING METHOD, APPARATUS, COMPUTER-READABLE STORAGE MEDIUM AND ELECTRONIC DEVICE
WO2022160603A1 (en) Song recommendation method and apparatus, electronic device, and storage medium
JP2011003193A (en) Multimedia identification system and method
KR102598242B1 (en) Electronic apparatus and method for controlling thereof
KR20130103243A (en) Method and apparatus for providing music selection service using speech recognition
US20170039026A1 (en) Auditory Transition System
Razlogova Provincializing Spotify: Radio, algorithms and conviviality
WO2023010949A1 (en) Method and apparatus for processing audio data
CN108062353A (en) Play the method and electronic equipment of multimedia file
KR102480265B1 (en) Electronic apparatus for performing equalization according to genre of audio sound
US20210165628A1 (en) Systems and methods for selecting and sharing audio presets
US20230376760A1 (en) Steering for Unstructured Media Stations

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant