KR20160004914A - Method and device for playing multimedia - Google Patents

Method and device for playing multimedia Download PDF

Info

Publication number
KR20160004914A
KR20160004914A KR1020150084338A KR20150084338A KR20160004914A KR 20160004914 A KR20160004914 A KR 20160004914A KR 1020150084338 A KR1020150084338 A KR 1020150084338A KR 20150084338 A KR20150084338 A KR 20150084338A KR 20160004914 A KR20160004914 A KR 20160004914A
Authority
KR
South Korea
Prior art keywords
music
information
images
electronic device
story line
Prior art date
Application number
KR1020150084338A
Other languages
Korean (ko)
Other versions
KR102396375B1 (en
Inventor
쳉빈 젱
위시앙 샨
요우신 첸
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP15175311.8A priority Critical patent/EP2963651A1/en
Priority to US14/792,045 priority patent/US10565754B2/en
Publication of KR20160004914A publication Critical patent/KR20160004914A/en
Priority to KR1020220055711A priority patent/KR102527281B1/en
Application granted granted Critical
Publication of KR102396375B1 publication Critical patent/KR102396375B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Disclosed are a device and a method which include: acquiring music information on music played in an electronic device; acquiring story line on the music based on the music information; and displaying an image by acquiring one or more images based on the story line.

Description

멀티미디어 재생 방법 및 그 디바이스{METHOD AND DEVICE FOR PLAYING MULTIMEDIA}[0001] METHOD AND DEVICE FOR PLAYING MULTIMEDIA [0002]

본 개시는 멀티미디어 재생 방법 및 그 디바이스에 관한 것으로, 더욱 상세하게는 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 디스플레이하는 방법 및 디바이스에 관한 것이다.The present disclosure relates to a method and device for multimedia playback, and more particularly to a method and device for displaying an image associated with a music while the music is playing in an electronic device.

멀티미디어 재생을 위한 장치들로서 디지털 오디오 플레이어, 스마트 폰, 태블릿 PC, 및 스마트 TV 등과 같은 전자 디바이스들이 사용자들에게 널리 사용되고 있다. 이러한 전자 디바이스들은 음악, 이미지, 비디오 등 다양한 멀티미디어 파일들을 재생할 수 있다.As devices for multimedia playback, electronic devices such as digital audio players, smart phones, tablet PCs, and smart TVs are widely used by users. Such electronic devices can reproduce various multimedia files such as music, image, and video.

또한, 전자 디바이스에 멀티미디어 파일들이 저장되어 있지 않더라도, 인터넷 등을 통해 스트리밍 미디어 (streaming media) 가 전자 디바이스에서 재생될 수도 있다. 네트워크 기술의 발전에 따라, 개인이 전자 디바이스를 통해 액세스할 수 있는 디지털 멀티미디어의 종류 및 양은 날이 갈수록 방대해지고 있다.Also, even if the multimedia files are not stored in the electronic device, streaming media may be reproduced in the electronic device via the Internet or the like. With advances in network technology, the types and amounts of digital multimedia that individuals can access through electronic devices are becoming increasingly vast.

전자 디바이스에서 음악이 재생되는 경우, 사용자가 더 많은 시청각 경험을 하고, 해당 음악을 더 잘 이해할 수 있도록, 해당 전자 디바이스는 해당 음악의 앨범 커버, 가사, 태그 정보 등 해당 음악과 관련된 이미지나 텍스트를 디스플레이하도록 구현될 수 있다.When the music is played back on the electronic device, the electronic device sends an image or text associated with the music such as album cover, lyrics, and tag information of the music to the user so that the user can enjoy a more audiovisual experience and better understand the music Display.

그러나, 해당 음악의 앨범 커버는 해당 음악에 대한 사용자의 이해를 증진시키는데 충분하지 않은 문제가 있다.However, there is a problem that the album cover of the music is not enough to enhance the user's understanding of the music.

또한, 해당 음악의 가사나 태그 정보는 사용자에게 텍스트로 디스플레이되므로, 사용자 입장에서 텍스트를 인식하여 이해하는 것은 매우 번거롭고 시간 소모가 큰 (time consuming) 문제가 있다.In addition, since the lyrics and tag information of the music are displayed as text to the user, it is very cumbersome and time consuming to recognize and understand text on the part of the user.

사용자는 풍부한 시청각 경험과 해당 음악에 대한 깊은 이해를 위해, 전자 디바이스를 통해 해당 음악의 뮤직 비디오와 같은 비디오를 감상할 수도 있다. 그러나, 전자 디바이스에서 해당 음악의 뮤직 비디오와 같은 비디오 파일이 재생되는 경우, 비디오 파일들은 일반적으로 파일 크기가 커서, 해당 전자 디바이스의 디스크 용량을 낭비하는 문제가 있다.The user can enjoy a video such as a music video of the music through an electronic device for a rich audiovisual experience and a deep understanding of the music. However, when a video file such as a music video of a corresponding music is played back in an electronic device, the video files generally have a large file size, which causes a problem of wasting disk capacity of the corresponding electronic device.

이러한 비디오 파일들이 인터넷 등을 통해 전자 디바이스에서 스트리밍으로 재생되는 경우, 디스크 용량을 낭비하는 문제는 해결될 수 있다. 그러나, 해당 전자 디바이스가 이동 통신망을 통해 인터넷에 연결된 경우, 사용자에게 데이터 사용량의 부담을 가중시키는 문제가 대두될 수 있다. 사용자에게 데이터 사용량의 부담이 미미하더라도, 인터넷 연결 속도나 연결 상태에 따라, 해당 비디오 파일은 원활하게 재생되지 않는 문제가 발생할 수 있다. 해당 비디오 파일이 원활하게 재생되지 않는 경우, 본래 사용자가 감상하려 했던 음악도 원활하게 재생되지 않아 사용자의 불편을 야기할 수도 있다.When these video files are played back streaming from an electronic device via the Internet or the like, the problem of wasting disk capacity can be solved. However, when the electronic device is connected to the Internet through a mobile communication network, a problem of increasing the burden of data usage on the user may arise. There is a problem that the video file may not be reproduced smoothly depending on the connection speed of the Internet and the connection state even if the load of the data usage is small to the user. If the video file does not play smoothly, the music that the user originally intended to listen to may not play smoothly, which may cause inconvenience to the user.

따라서, 전자 디바이스에서 음악이 재생되는 동안, 사용자에게 풍부한 시청각 경험을 제공하면서, 해당 음악에 대한 사용자의 이해도를 증진시킬 수 있는 기술이 요구되고 있다.Accordingly, there is a need for a technique that can enhance the user's understanding of the music while providing a rich audiovisual experience to the user while the music is being played back in the electronic device.

다양한 실시예들은, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 디스플레이하는 방법 및 디바이스를 제공할 수 있다.Various embodiments may provide a method and device for displaying an image associated with the music while the music is being played on the electronic device.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득하는 단계, 상기 음악정보에 기초하여 상기 음악에 대한 스토리라인을 획득하는 단계, 상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계 및 상기 하나 이상의 이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.As a technical means for achieving the above-mentioned technical object, a first aspect of the present disclosure provides a method for reproducing music, comprising: acquiring music information about music reproduced in an electronic device; acquiring a story line for the music based on the music information The method comprising the steps of: acquiring one or more images based on the storyline; and displaying the one or more images.

또한, 상기 음악정보는 상기 음악의 메타정보를 포함하고, 상기 스토리라인은 상기 메타정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.In addition, the music information may include meta information of the music, and the story line may be obtained based on the meta information.

또한, 상기 음악정보는 상기 음악의 오디오 지문 (audio fingerprint) 정보를 포함하고, 상기 스토리라인은 상기 오디오 지문 정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.In addition, the music information may include audio fingerprint information of the music, and the story line may be obtained based on the audio fingerprint information.

또한, 상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계는In addition, the step of acquiring one or more images based on the story line

상기 스토리라인에 기초하여 하나 이상의 키워드를 선택하는 단계를 포함하고, 상기 하나 이상의 이미지는 상기 선택된 하나 이상의 키워드에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.And selecting one or more keywords based on the storyline, wherein the one or more images are obtained based on the selected one or more keywords.

또한, 상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계는In addition, the step of acquiring one or more images based on the story line

상기 선택된 하나 이상의 키워드에 기초하여 복수의 후보 이미지를 획득하는 단계 및 미리 결정된 기준에 기초하여 상기 복수의 후보 이미지 간의 우선순위를 결정하는 단계를 포함하고, 상기 하나 이상의 이미지는 상기 복수의 후보 이미지 중에서 상기 우선순위에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.The method comprising: obtaining a plurality of candidate images based on the selected one or more keywords; and determining a priority between the plurality of candidate images based on a predetermined criterion, wherein the one or more images are selected from the plurality of candidate images And the multimedia data is obtained based on the priority.

또한, 미리 결정된 기준에 기초하여 상기 복수의 후보 이미지 간의 우선순위를 결정하는 단계는In addition, the step of determining the priority among the plurality of candidate images based on a predetermined criterion

상기 복수의 후보 이미지의 시맨틱 정보를 획득하는 단계를 포함하고, 상기 우선순위는 상기 복수의 후보 이미지의 시맨틱 정보와 상기 스토리라인에 기초하여 선택된 키워드 간의 유사도에 의해 결정되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.Wherein the priority order is determined by the similarity between the semantic information of the plurality of candidate images and the keyword selected based on the story line. Can be provided.

또한, 상기 스토리라인은 텍스트로 구성된 하나 이상의 문장을 포함하고, 상기 하나 이상의 이미지는 상기 하나 이상의 문장에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.In addition, the story line may include one or more sentences composed of text, and the one or more images may be obtained based on the one or more sentences.

또한, 상기 하나 이상의 문장은 유사성에 기초하여 하나 이상의 문단을 구성하고, 상기 음악은 상기 하나 이상의 문단과 대응되는 하나 이상의 음악 세그먼트로 구분되고, 상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.The one or more sentences constitute one or more paragraphs based on similarity, and the music is divided into one or more music segments corresponding to the one or more paragraphs, and the one or more images are displayed on the display The multimedia playback method according to the present invention can provide a multimedia playback method.

또한, 상기 스토리라인은 상기 음악의 가사이고, 상기 음악정보는 상기 가사에 대한 가사정보를 포함하고, 상기 하나 이상의 이미지는 상기 가사정보에 기초하여 디스플레이되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.In addition, the story line may be a lyric of the music, the music information may include lyric information about the lyric, and the at least one image may be displayed based on the lyric information. have.

또한, 상기 스토리라인에 기초하여, 정서정보를 획득하는 단계를 더 포함하고, 상기 하나 이상의 이미지는 상기 정서정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.The method may further include acquiring emotion information based on the storyline, wherein the one or more images are acquired based on the emotion information.

또한, 상기 하나 이상의 이미지는 상기 정서정보에 기초하여 렌더링되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.In addition, the at least one image may be rendered based on the emotion information.

또한, 상기 스토리라인은 시간정보, 공간정보, 및 인물정보 중 적어도 하나에 기초하여 하나 이상의 단락으로 구분되고, 상기 음악은 상기 하나 이상의 단락과 대응되는 하나 이상의 음악 세그먼트로 구분되고, 상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 방법을 제공할 수 있다.Further, the story line is divided into one or more paragraphs based on at least one of time information, spatial information, and person information, the music is divided into one or more music segments corresponding to the one or more paragraphs, May be displayed based on the one or more music segments.

또한, 본 개시의 제2 측면은, 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득하고, 상기 음악정보에 기초하여 상기 음악에 대한 스토리라인을 획득하고, 상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 제어부 및 상기 하나 이상의 이미지를 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.The second aspect of the present disclosure also relates to a method for obtaining music information about music to be played back in an electronic device, acquiring a story line for the music based on the music information, And a display unit for displaying the at least one image.

또한, 상기 음악정보는 상기 음악의 메타정보를 포함하고, 상기 스토리라인은 상기 메타정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.Further, the music information may include meta information of the music, and the story line may be obtained based on the meta information.

또한, 상기 음악정보는 상기 음악의 오디오 지문 (audio fingerprint) 정보를 포함하고, 상기 스토리라인은 상기 오디오 지문 정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.Further, the music information may include audio fingerprint information of the music, and the story line may be obtained based on the audio fingerprint information.

또한, 상기 제어부는 상기 스토리라인에 기초하여 하나 이상의 키워드를 선택하고, 상기 하나 이상의 이미지는 상기 선택된 하나 이상의 키워드에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.Further, the control unit may select one or more keywords based on the story line, and the one or more images may be obtained based on the selected one or more keywords.

또한, 상기 스토리라인은 일련의 텍스트로 구성된 하나 이상의 문장을 포함하고, 상기 하나 이상의 이미지는 상기 하나 이상의 문장에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.Further, the storyline may include one or more sentences composed of a series of texts, and the one or more images may be obtained based on the one or more sentences.

또한, 상기 제어부는 상기 스토리라인에 기초하여 상기 음악과 관련된 정서정보를 더 획득하고, 상기 하나 이상의 이미지는 상기 정서정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.The controller may further acquire emotion information related to the music based on the storyline, and the one or more images may be obtained based on the emotion information.

또한, 상기 스토리라인은 시간정보, 공간정보, 및 인물정보 중 적어도 하나에 기초하여 하나 이상의 단락으로 구분되고, 상기 음악은 상기 하나 이상의 단락과 대응되는 하나 이상의 음악 세그먼트로 구분되고, 상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 디바이스를 제공할 수 있다.Further, the story line is divided into one or more paragraphs based on at least one of time information, spatial information, and person information, the music is divided into one or more music segments corresponding to the one or more paragraphs, Is displayed on the basis of the at least one music segment.

또한, 본 개시의 제3 측면은 제1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능 매체를 제공할 수 있다.In addition, the third aspect of the present disclosure can provide a computer-readable medium having recorded thereon a program for causing a computer to execute the method of the first aspect.

도 1은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.
도 2 및 도 3은 일 실시예에 따른 전자 디바이스의 블록도이다.
도 4는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.
도 5는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악의 스토리라인에 포함된 키워드를 이용하여 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.
도 6은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악에 대한 설명을 이용하여 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.
도 7은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악의 가사를 이용하여 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.
도 8은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 복수의 후보 이미지를 이용하여 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.
도 9는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 렌더링하여 디스플레이하는 방법의 흐름도이다.
1 is a diagram illustrating an example in which an image related to music is displayed while music is being reproduced in an electronic device, according to an embodiment.
Figures 2 and 3 are block diagrams of an electronic device according to one embodiment.
4 is a flow diagram of a method for displaying an image associated with the music while the music is playing in the electronic device, according to one embodiment.
FIG. 5 is a flowchart illustrating a method of displaying an image related to a music using a keyword included in a story line of the music while the music is being reproduced in the electronic device according to an exemplary embodiment.
FIG. 6 is a diagram illustrating an example of displaying an image related to a corresponding music using a description of the music while the music is being reproduced in the electronic device according to an embodiment.
7 is a diagram illustrating an example in which an image related to a corresponding music is displayed using lyrics of the music while the music is being reproduced in the electronic device according to an embodiment.
FIG. 8 is a flowchart of a method of displaying an image related to music using a plurality of candidate images related to the music while the music is being reproduced in the electronic device, according to an embodiment.
9 is a flow diagram of a method for rendering and displaying an image associated with a music piece during playback of music in an electronic device, according to an embodiment.

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification.

본 명세서에서 사용되는 용어는 다양한 실시예에 따른 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서 전반에 걸친 내용을 토대로 정의되어야 한다.As used herein, the terminology used herein is intended to encompass all commonly used generic terms that are possible in light of the functionality of the various embodiments, which may vary depending upon the intent or circumstance of the skilled artisan, the emergence of new technology, and the like. In addition, in certain cases, there may be a term arbitrarily selected by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding embodiment. Accordingly, the terms used in the present specification should be defined based on the meaning of the term, not on the name of a simple term, and on the contents throughout the specification.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수개의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 특히, 명세서상에 기재된 숫자들은 이해를 돕기 위한 예로서, 본 발명은 명세서상에 기재된 숫자들에 의해 한정되어서는 안 된다.The singular expressions include plural expressions unless the context clearly indicates otherwise. It is to be understood that the terms "comprises", "having", and the like in the specification are intended to specify the presence of stated features, integers, steps, operations, elements, parts or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof. In particular, the numbers set forth in the specification are intended to be illustrative, and the invention should not be limited by the numbers set forth in the specification.

또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Also, the terms " part, "" module," etc. in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.

명세서 전체에서 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서 이하에서 언급되는 "제1 구성요소"는 실시예의 기술적 사상 내에서 "제2 구성요소"일 수도 있음은 물론이다.Although "first "," second "and the like are used throughout the specification to describe various components, it goes without saying that these components are not limited by these terms. These terms are used only to distinguish one component from another. It goes without saying that the "first component" mentioned below may be a "second component" within the technical concept of the embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described and the present invention will be described in detail.

명세서 전체에서 전자 디바이스는 음악 재생이 가능한 디바이스고, 스마트폰, 태블릿, 휴대폰, PDA (personal digital assistant), 미디어 플레이어, 오디오 플레이어, 디지털 오디오 플레이어, PMP (Portable Multimedia Player), 전자책 단말기, 디지털방송용 단말기, PC (Personal Computer), 노트북 (laptop), 마이크로 서버, GPS (global positioning system) 장치, 네비게이션, 키오스크, MP3 플레이어, 스마트 TV, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다.In the entire specification, the electronic device is a device capable of playing music, a smart phone, a tablet, a mobile phone, a personal digital assistant (PDA), a media player, an audio player, a digital audio player, a portable multimedia player (PMP) A mobile terminal, a personal computer (PC), a laptop, a micro server, a global positioning system (GPS) device, a navigation device, a kiosk, an MP3 player, a smart TV, a digital camera and other mobile or non-mobile computing devices It does not.

명세서 전체에서 음악은 해당 음악이 기록된 오디오 파일을 의미할 수도 있다. 전자 디바이스는 멀티미디어 재생 애플리케이션을 구동하여 오디오 파일을 재생할 수 있고, 오디오 파일이 재생됨으로써, 해당 오디오 파일로 기록된 음악이 재생될 수 있다. 이러한 멀티미디어 재생 애플리케이션은 전자 디바이스에 기본적으로 설치되거나, 사용자에 의해 별도로 설치될 수도 있다.Music throughout the specification may mean an audio file in which the music is recorded. The electronic device can reproduce the audio file by driving the multimedia reproduction application, and the music recorded in the audio file can be reproduced by reproducing the audio file. Such a multimedia playback application may be installed basically in an electronic device, or may be installed separately by a user.

오디오 파일의 포맷은 전자 디바이스를 통해 재생 가능한 포맷들을 모두 포함한다. 오디오 파일의 포맷은 비압축 오디오 포맷 (Uncompressed audio format), 손실 압축 오디오 포맷 (Lossy compressed audio format), 비손실 압축 오디오 포맷 (Lossless compressed audio format) 등을 포함할 수 있다.The format of the audio file includes all the formats that can be reproduced via the electronic device. The format of the audio file may include an uncompressed audio format, a lossy compressed audio format, a lossless compressed audio format, and the like.

예를 들어, 비압축 오디오 포맷은 WAV 또는 AIFF (Audio Interchange File Format) 등의 확장자로 저장될 수 있고, 손실 압축 오디오 포맷은 MP3 또는 AAC (Advanced Audio Codec) 등의 확장자로 저장될 수 있고, 비손실 압축 오디오 포맷은 FLAC (Free Lossless Audio Codec) 또는 Monkey's Audio 의 APE 등의 확장자로 저장될 수 있다. 그러나, 오디오 파일의 포맷은 이에 제한되지 않고 다양한 확장자를 가질 수 있다.For example, the uncompressed audio format may be stored as an extension such as WAV or AIFF (Audio Interchange File Format), and the lossy compressed audio format may be stored as an extension such as MP3 or AAC (Advanced Audio Codec) The lossy compressed audio format can be stored as extensions such as Free Lossless Audio Codec (FLAC) or APE of Monkey's Audio. However, the format of the audio file is not limited to this and may have various extensions.

명세서 전체에서 멀티미디어 재생 디바이스는 음악의 재생 및/또는 이미지의 디스플레이가 가능한 전자 디바이스고, 전술된 전자 디바이스들 중 음악의 재생 및/또는 이미지의 디스플레이가 가능한 전자 디바이스들은 모두 멀티미디어 재생 디바이스로 지칭될 수 있다.Throughout the specification, the multimedia playback device is an electronic device capable of playing music and / or displaying images, and all of the electronic devices capable of playing music and / or displaying images of the above-described electronic devices can be referred to as multimedia playback devices have.

명세서 전체에서 음악의 스토리라인은 해당 음악에 대한 서사적 설명 (narrative description) 을 의미하며, 음악의 스토리라인은 서사적 설명을 위해 하나 이상의 이미지, 하나 이상의 비디오, 및/또는 텍스트로 구성될 수 있다.Throughout the specification, the story line of the music means a narrative description of the music, and the story line of the music can consist of one or more images, one or more videos, and / or text for narrative explanation.

도 1은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.1 is a diagram illustrating an example in which an image related to music is displayed while music is played back in an electronic device, according to an embodiment.

도 1에서 하나의 동일한 전자 디바이스에서 음악이 재생되고, 해당 음악과 관련된 이미지가 디스플레이되는 것으로 도시되었으나, 일 전자 디바이스에서 음악이 재생되고, 또 다른 전자 디바이스에서 해당 음악과 관련된 이미지가 디스플레이되도록 구현될 수도 있다.Although music is reproduced in one and the same electronic device in Fig. 1 and an image related to the music is displayed, it is possible to realize that music is reproduced in one electronic device and images related to the music are displayed in another electronic device It is possible.

전자 디바이스에서 멀티미디어 재생 애플리케이션 (100) 이 구동되어, 음악이 재생될 수 있다. 여기서, 음악의 재생은 해당 음악의 오디오 파일의 재생을 의미한다.The multimedia playback application 100 may be driven in the electronic device, and the music may be played back. Here, the reproduction of the music means the reproduction of the audio file of the music.

도 1을 참조하면, 멀티미디어 재생 애플리케이션은 재생되는 음악과 관련된 이미지를 표시하는 이미지 윈도우 (110), 멀티미디어 재생 애플리케이션의 제어를 위한 컨트롤러 (120), 및 재생되는 음악에 대한 음악정보를 표시하는 정보 윈도우 (130) 를 포함할 수 있다.1, the multimedia playback application includes an image window 110 for displaying an image related to the music to be played back, a controller 120 for controlling the multimedia playback application, and an information window for displaying music information about the music being played (130).

도 1을 참조하면, 전자 디바이스에서 음악이 재생되는 경우, 이미지 윈도우 (110) 를 통해 해당 음악과 관련된 이미지들 (110A, 110B, 110C, 및 110D) 이 디스플레이될 수 있다. 해당 음악과 관련된 이미지들 (110A, 110B, 110C, 및 110D) 은 해당 음악의 스토리라인에 기초하여 획득될 수도 있다.Referring to FIG. 1, when music is reproduced in an electronic device, images 110A, 110B, 110C, and 110D related to the music can be displayed through the image window 110. FIG. The images 110A, 110B, 110C, and 110D related to the music may be acquired based on the story line of the music.

전자 디바이스는 전자 디바이스 외부의 서버로부터 음악의 스토리라인을 획득할 수 있다.The electronic device can acquire a story line of music from a server outside the electronic device.

음악의 스토리라인에 기초하여 획득된 이미지가 디스플레이됨으로써, 해당 음악을 감상하는 사용자는 보다 용이하게 해당 음악을 이해할 수 있다. 또한, 사용자에게 풍부한 시청각 경험이 주어질 수도 있다.By displaying the acquired image based on the storyline of the music, the user who enjoys the music can understand the music more easily. In addition, a rich audiovisual experience may be given to the user.

전자 디바이스는 음악을 재생하고, 해당 음악과 관련된 이미지를 디스플레이하는 것에 불과하므로, 해당 음악과 관련된 비디오를 재생하는 것보다 전자 디바이스의 리소스를 덜 소비하는 효과가 있다. 또한, 전자 디바이스가 이동 통신망을 통해 인터넷에 연결되어 음악 또는 이미지를 스트리밍 재생하는 경우, 사용자의 데이터 사용량의 부담을 경감시키는 효과도 있다.Since the electronic device only reproduces music and displays an image related to the music, it has an effect of consuming less resources of the electronic device than playing the video related to the music. In addition, when the electronic device is connected to the Internet through the mobile communication network and streaming music or images, there is an effect of reducing the burden of data usage by the user.

도 2 및 도 3은 일 실시예에 따른 전자 디바이스의 블록도이다.Figures 2 and 3 are block diagrams of an electronic device according to one embodiment.

도 2에 도시된 바와 같이, 전자 디바이스 (1000) 는 디스플레이부 (1210), 및 제어부 (1300) 를 포함한다. 그러나, 도 2에 도시된 구성 요소 모두가 전자 디바이스 (1000) 의 필수 구성 요소인 것은 아니다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 디바이스 (1000) 가 구현될 수도 있고, 도 2에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 디바이스 (1000) 가 구현될 수도 있다.As shown in Fig. 2, the electronic device 1000 includes a display portion 1210, and a control portion 1300. Fig. However, not all of the components shown in Fig. 2 are essential components of the electronic device 1000. The electronic device 1000 may be implemented by more components than the components shown in Fig. 2, and the electronic device 1000 may be implemented by fewer components than those shown in Fig.

제어부 (1300) 는 통상적으로 전자 디바이스 (1000) 의 전반적인 동작을 제어함으로써, 전자 디바이스 (1000) 의 기능을 수행한다.The control unit 1300 typically performs the functions of the electronic device 1000 by controlling the overall operation of the electronic device 1000.

구체적으로, 제어부 (1300) 는 전자 디바이스 (1000) 또는 전자 디바이스 (1000) 와 별개의 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득한다.Specifically, the control unit 1300 acquires music information about music reproduced in the electronic device 1000 or the electronic device separate from the electronic device 1000.

전자 디바이스 (1000) 에서 음악이 재생되는 경우, 해당 음악은 전자 디바이스 (1000) 의 음향출력부 (1220) 를 통해 출력될 수 있다. 이때, 해당 음악의 오디오 파일은 전자 디바이스 (1000) 의 저장부 (1700) 에 미리 저장되어 있거나, 전자 디바이스 (1000) 의 통신부 (1500) 를 통해 외부 서버로부터 수신되어 재생될 수 있다.When music is reproduced in the electronic device 1000, the music may be output through the sound output unit 1220 of the electronic device 1000. At this time, the audio file of the music may be stored in advance in the storage unit 1700 of the electronic device 1000 or may be received from the external server through the communication unit 1500 of the electronic device 1000 and reproduced.

음악정보는 전자 디바이스 (1000) 의 저장부 (1700) 에 미리 저장되어 있거나, 전자 디바이스 (1000) 의 통신부 (1500) 를 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The music information may be stored in advance in the storage unit 1700 of the electronic device 1000 or may be obtained by being received from an external server through the communication unit 1500 of the electronic device 1000. [

음악정보는 음악이 기록된 오디오 파일의 파일명일 수 있다. 해당 오디오 파일의 메타정보가 기록되어 있지 않은 경우, 해당 오디오 파일의 파일명 자체가 음악정보로 이용되어 해당 음악의 스토리라인이 획득될 수 있다.The music information may be a file name of an audio file in which music is recorded. If the meta information of the audio file is not recorded, the file name of the audio file itself is used as music information, and the story line of the music can be acquired.

음악정보는 음악이 기록된 오디오 파일의 메타정보일 수 있다. 메타정보는 해당 음악의 제목, 가수, 작곡가, 작사가, 연주자, 장르, 재생 시간, 앨범, 작곡가, 음악 세그먼트, 가사, 및 해당 음악에 대한 설명 (description) 중 적어도 하나에 대한 정보를 포함할 수 있다. 해당 오디오 파일의 메타정보가 완전히 기록되어 있지 않은 경우, 오디오 파일의 메타정보는 해당 오디오 파일의 파일명 및/또는 이미 기록되어 있는 메타정보에 기초하여 검색 엔진 등에서 검색됨으로써 획득될 수도 있다. 여기서, 검색 엔진은 질의에 응답하여 오디오 파일의 메타정보를 제공할 수 있다.The music information may be meta information of an audio file in which music is recorded. The meta information may include information about at least one of a title, an artist, a composer, a lyricist, a player, a genre, a playing time, an album, a composer, a music segment, lyrics, have. If the meta information of the audio file is not completely recorded, the meta information of the audio file may be obtained by searching the search engine or the like based on the file name of the audio file and / or the meta information already recorded. Here, the search engine may provide meta information of the audio file in response to the query.

음악정보는 음악이 기록된 오디오 파일에 대응되는 가사정보일 수 있다. 오디오 파일이 재생되는 경우, 전자 디바이스 (1000) 는 해당 오디오 파일에 대응되는 가사정보를 로드하고, 해당 가사정보에 포함된 가사를 디스플레이할 수 있다.The music information may be the lyric information corresponding to the audio file in which the music is recorded. When the audio file is reproduced, the electronic device 1000 can load the lyrics information corresponding to the audio file and display the lyrics contained in the lyrics information.

가사정보는 LRC 확장자의 가사 파일로부터 획득될 수 있다. 가사정보는 가사를 구성하는 각 문장들의 시작시점과 관련된 정보를 포함할 수 있다. 오디오 파일이 재생되고, 해당 오디오 파일에 대응되는 가사정보가 로드되는 경우, 전자 디바이스 (1000) 는 해당 오디오 파일에 대응되는 가사정보를 로드하고, 가사정보에 포함된 각 문장들의 시작시점에 기초하여 각 문장들이 스크롤되어 디스플레이되도록 구현될 수 있다. 여기서, 오디오 파일의 재생 시간에 따라 음악의 가사가 디스플레이될 수 있으므로, 사용자는 재생 중인 음악의 가사를 보다 용이하게 이해할 수 있다.The lyric information can be obtained from the lyric file of the LRC extension. The lyric information may include information related to the starting point of each sentence constituting the lyrics. When the audio file is played back and the lyric information corresponding to the audio file is loaded, the electronic device 1000 loads the lyric information corresponding to the audio file, and based on the start time of each sentence included in the lyric information Each sentence can be scrolled and displayed. Here, the lyrics of the music can be displayed according to the reproduction time of the audio file, so that the user can more easily understand the lyrics of the music being reproduced.

음악정보는 음악의 오디오 지문 (audio fingerprint) 정보일 수 있다. 음악의 오디오 지문 정보는 해당 음악의 특징에 관한 정보를 의미하고, 음악의 식별 및/또는 검색을 위해 사용될 수 있다.The music information may be audio fingerprint information of the music. The audio fingerprint information of the music means information on the characteristics of the music, and can be used for identification and / or searching of music.

전자 디바이스 (1000) 에서 음악이 재생되는 경우, 전자 디바이스 (1000) 는 해당 음악이 기록된 오디오 파일을 분석하여 오디오 지문 정보를 획득할 수 있다.When the music is reproduced in the electronic device 1000, the electronic device 1000 can analyze the audio file in which the music is recorded to obtain audio fingerprint information.

전자 디바이스 (1000) 와 별개의 전자 디바이스에서 음악이 재생되는 경우, 전자 디바이스 (1000) 는 마이크로폰 (1620) 을 통해 해당 음악을 녹음하여 오디오 데이터를 생성하고, 생성된 오디오 데이터의 오디오 신호를 분석하여 오디오 지문 정보를 획득할 수 있다.When the music is reproduced in the electronic device separate from the electronic device 1000, the electronic device 1000 records the music through the microphone 1620 to generate audio data, analyzes the audio signal of the generated audio data Audio fingerprint information can be obtained.

구체적으로, 오디오 지문 정보는 오디오 신호를 FFT (Fast Fourier Transform) 방식을 사용하여 주파수 도메인으로 변환한 후 생성된 전력 스펙트럼 (power spectrum) 을 이용하여 획득될 수 있으며, 이에 제한되지 않고 다양한 방법들을 통해 획득될 수 있다.Specifically, the audio fingerprint information may be acquired using a power spectrum generated after converting an audio signal into a frequency domain using an FFT (Fast Fourier Transform) method, ≪ / RTI >

전자 디바이스 (1000) 는 획득된 오디오 지문 정보를 오디오 DB로 송신하고, 오디오 DB에서 DB 매칭을 통해 해당 오디오 지문 정보에 의해 식별되는 오디오 파일의 메타정보를 획득할 수도 있다. 여기서, 오디오 DB는 전자 디바이스 (1000) 의 저장부 (1700) 또는 외부 서버에 저장될 수 있으며, 다양한 오디오 파일들의 오디오 지문 정보와 메타정보를 포함할 수 있다. 오디오 파일의 메타정보는 해당 오디오 파일에 기록된 음악의 제목, 가수, 작곡가, 작사가, 연주자, 장르, 재생 시간, 앨범, 작곡가, 음악 세그먼트, 가사 및 해당 음악에 대한 설명 (description) 중 적어도 하나에 대한 정보를 포함할 수 있다.The electronic device 1000 may transmit the acquired audio fingerprint information to the audio DB and acquire meta information of the audio file identified by the corresponding audio fingerprint information through DB matching in the audio DB. Here, the audio DB may be stored in the storage unit 1700 of the electronic device 1000 or an external server, and may include audio fingerprint information and meta information of various audio files. The meta information of the audio file includes at least one of a title, an artist, a composer, a lyricist, a player, a genre, a playing time, an album, a composer, a music segment, lyrics, Lt; / RTI >

제어부 (1300) 는 획득된 음악정보에 기초하여 재생되는 음악에 대한 스토리라인을 획득한다.The control unit 1300 acquires a story line for the music to be reproduced based on the acquired music information.

음악의 스토리라인은 해당 음악에 대한 서사적 설명 (narrative description) 을 의미하며, 음악의 스토리라인은 서사적 설명을 위해 하나 이상의 이미지, 하나 이상의 비디오, 및/또는 텍스트로 구성될 수 있다.The story line of the music means a narrative description of the music, and the story line of the music may consist of one or more images, one or more videos, and / or text for narrative explanation.

음악에 대한 스토리라인은 전자 디바이스 (1000) 의 저장부 (1700) 에 미리 저장되어 있거나, 전자 디바이스 (1000) 의 통신부 (1500) 를 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The story line for music may be stored in advance in the storage unit 1700 of the electronic device 1000 or may be obtained by being received from an external server through the communication unit 1500 of the electronic device 1000. [

음악에 대한 스토리라인은 해당 음악이 기록된 오디오 파일의 메타정보에 기초하여 검색 엔진 등에서 검색됨으로써 획득될 수도 있다. 여기서, 검색 엔진은 질의에 응답하여 음악에 대한 스토리라인을 제공할 수 있다.The story line for the music may be obtained by searching the search engine or the like based on the meta information of the audio file in which the music is recorded. Here, the search engine may provide a story line for the music in response to the query.

제어부 (1300) 는 획득된 스토리라인에 기초하여 하나 이상의 이미지를 획득한다.The control unit 1300 acquires one or more images based on the acquired story lines.

하나 이상의 이미지는 전자 디바이스 (1000) 의 저장부 (1700) 에 미리 저장되어 있거나, 전자 디바이스 (1000) 의 통신부 (1500) 를 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.One or more images may be stored in advance in the storage unit 1700 of the electronic device 1000 or may be obtained by being received from an external server via the communication unit 1500 of the electronic device 1000. [

음악의 스토리라인이 하나 이상의 이미지로 구성된 경우, 해당 음악과 관련된 이미지는 음악의 스토리라인을 구성하는 하나 이상의 이미지 중에서 획득될 수 있다.If the story line of the music is composed of more than one image, the image associated with the music can be obtained from one or more images constituting the story line of the music.

음악의 스토리라인이 하나 이상의 비디오로 구성된 경우, 해당 음악과 관련된 이미지는 음악의 스토리라인을 구성하는 하나 이상의 비디오의 프레임들 중에서 획득될 수 있다. 전자 디바이스 (1000) 에서 해당 음악과 관련된 이미지를 음악의 스토리라인을 구성하는 하나 이상의 비디오의 프레임들 중에서 획득하는 방법은 도 4와 함께 후술한다.If the story line of music is composed of more than one video, the image associated with the music may be obtained from one or more frames of video that constitute the storyline of the music. A method of acquiring an image related to the music in the electronic device 1000 from one or more frames of video that constitute a story line of music will be described later with reference to FIG.

음악의 스토리라인이 텍스트로 구성된 경우, 해당 음악과 관련된 이미지는 음악의 스토리라인을 구성하는 텍스트에 기초하여 획득될 수 있다. 전자 디바이스 (1000) 에서 해당 음악과 관련된 이미지를 음악의 스토리라인을 구성하는 텍스트에 기초하여 획득하는 방법은 도 5와 함께 후술한다.When the story line of the music is composed of text, the image related to the music can be obtained based on the text constituting the story line of the music. A method of acquiring an image related to the music in the electronic device 1000 based on a text constituting a story line of music will be described later with reference to Fig.

디스플레이부 (1210) 는 획득된 하나 이상의 이미지를 디스플레이할 수 있다.The display unit 1210 can display the acquired one or more images.

음악의 스토리라인에 기초하여 획득된 이미지가 전자 디바이스 (1000) 의 디스플레이부 (1210) 를 통해 디스플레이됨으로써, 해당 음악을 감상하는 사용자는 보다 깊이 해당 음악을 이해할 수 있다. 또한, 사용자에게 풍부한 시청각 경험이 주어질 수도 있다.An image obtained based on the storyline of music is displayed through the display unit 1210 of the electronic device 1000, so that a user who enjoys the music can understand the music more deeply. In addition, a rich audiovisual experience may be given to the user.

도 2에 도시된 구성 요소 모두가 전자 디바이스 (1000) 의 필수 구성 요소인 것은 아니다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 디바이스 (1000) 가 구현될 수도 있고, 예를 들어, 도 3에 도시된 바와 같이, 일 실시예에 따른 전자 디바이스 (1000) 는 전술된 디스플레이부 (1210) 및 제어부 (1300) 이외에 사용자 입력 수신부 (1100), 출력부 (1200), 센싱부 (1400), 통신부 (1500), A/V 입력부 (1600), 및 저장부 (1700) 를 더 포함할 수도 있다.All of the components shown in Fig. 2 are not essential components of the electronic device 1000. The electronic device 1000 may be implemented by more components than the components shown in FIG. 2, for example, as shown in FIG. 3, an electronic device 1000, according to one embodiment, The input unit 1100, the output unit 1200, the sensing unit 1400, the communication unit 1500, the A / V input unit 1600, and the storage unit 1700 in addition to the control unit 1210 and the control unit 1300 .

이하에서는 전자 디바이스 (1000) 의 각 구성 요소들을 상세히 설명한다.Hereinafter, each component of the electronic device 1000 will be described in detail.

사용자 입력 수신부 (1100) 는 사용자가 전자 디바이스 (1000) 를 제어하기 위해 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 수신부 (1100) 에는 키 패드 (key pad), 돔 스위치 (dome switch), 터치 패드 (접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 특히, 터치 패드가 디스플레이부 (1210) 와 레이어 구조를 구성하여, 터치 스크린 또는 터치 스크린 디스플레이로 구성되는 경우, 사용자 입력 수신부 (1100) 는 입력 장치 이외에 출력 장치로도 사용될 수 있다.The user input receiving unit 1100 means a means for the user to input data in order to control the electronic device 1000. For example, the user input receiving unit 1100 may include a key pad, a dome switch, a touch pad (contact type capacitance type, pressure type resistive type, infrared ray detection type, surface ultrasonic wave type, A fatigue strength measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto. In particular, when the touch pad constitutes a layer structure with the display unit 1210 and is configured as a touch screen or a touch screen display, the user input receiving unit 1100 may be used as an output device in addition to the input device.

터치 패드는 직접 터치 (real-touch) 뿐만 아니라 근접 터치 (proximity touch) 도 검출될 수 있도록 구성될 수 있으며, 본 명세서에서 설명의 편의상 직접 터치 (real-touch) 및 근접 터치 (proximity touch) 는 모두 "터치"로 지칭될 수 있다.The touch pad can be configured not only to detect a real-touch but also to detect a proximity touch. For convenience of description, the touch-pad can be configured to detect both a real-touch and a proximity touch Can be referred to as "touch ".

본 명세서에서 "직접 터치 (real-touch)"는 화면에 포인터 (pointer) 가 물리적으로 터치된 상태에서 발생되는 입력을 의미하고, "근접 터치 (proximity-touch)"는 포인터 (pointer) 가 화면에 물리적으로 터치되지 않더라도, 해당 화면으로부터 소정 거리만큼 접근된 상태에서 발생되는 입력을 의미한다.In the present specification, the term "real-touch" refers to an input generated when a pointer is physically touched on the screen, and "proximity-touch" Refers to an input that is generated in a state in which it is approached by a predetermined distance from the screen even if it is not physically touched.

본 명세서에서 "포인터 (pointer)"는 디스플레이된 화면의 특정 부분을 직접 터치하거나 근접 터치하기 위한 도구를 말한다. 그 일례로 스타일러스 펜, 손가락 등이 있다.As used herein, the term " pointer "refers to a tool for directly touching or touching a specific portion of a displayed screen. Examples include stylus pens and fingers.

출력부 (1200) 는 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부 (1200) 는 디스플레이부 (1210), 음향 출력부 (1220), 및 진동 모터 (1230) 를 포함할 수 있다.The output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210, an acoustic output unit 1220, and a vibration motor 1230 .

디스플레이부 (1210) 는 전자 디바이스 (1000) 에서 처리되는 정보를 디스플레이한다. 예를 들어, 디스플레이부 (1210) 는 전자 디바이스 (1000) 에서 구동되는 운영 체제의 실행 화면과 운영 체제에서 구동되는 애플리케이션의 실행 화면 등을 디스플레이할 수 있다.The display unit 1210 displays information processed in the electronic device 1000. [ For example, the display unit 1210 may display an execution screen of an operating system running on the electronic device 1000 and an execution screen of an application running on the operating system.

한편, 디스플레이부 (1210) 와 터치패드가 레이어 구조를 구성하여 터치 스크린으로 구성되는 경우, 디스플레이부 (1210) 는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부 (1210) 는 액정 디스플레이 (liquid crystal display), 박막 트랜지스터 액정 디스플레이 (thin film transistor-liquid crystal display), 유기 발광 다이오드 (organic light-emitting diode), 플렉시블 디스플레이 (flexible display), 3차원 디스플레이 (3D display), 전기영동 디스플레이 (electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 전자 디바이스 (1000) 의 구현 형태에 따라 전자 디바이스 (1000) 는 디스플레이부 (1210) 를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부 (1210) 는 힌지 (hinge) 를 이용하여 마주보게 배치될 수 있다.Meanwhile, when the display unit 1210 and the touch pad constitute a layer structure to constitute a touch screen, the display unit 1210 can be used as an input device in addition to the output device. The display unit 1210 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display A 3D display, and an electrophoretic display. According to the embodiment of the electronic device 1000, the electronic device 1000 may include two or more display units 1210. At this time, the two or more display units 1210 may be arranged to face each other using a hinge.

음향 출력부 (1220) 는 통신부 (1500) 로부터 수신되거나 저장부 (1700) 에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부 (1220) 는 전자 디바이스 (1000) 에서 수행되는 기능과 관련된 음향 신호를 출력한다. 이러한 음향 출력부 (1220) 에는 스피커 (speaker), 버저 (Buzzer) 등이 포함될 수 있다.The audio output unit 1220 outputs audio data received from the communication unit 1500 or stored in the storage unit 1700. Further, the sound output unit 1220 outputs an acoustic signal related to the function performed in the electronic device 1000. [ The sound output unit 1220 may include a speaker, a buzzer, and the like.

진동 모터 (1230) 는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터 (1230) 는 오디오 데이터 또는 비디오 데이터의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터 (1230) 는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 1230 can output a vibration signal. For example, the vibration motor 1230 can output a vibration signal corresponding to an output of audio data or video data. In addition, the vibration motor 1230 may output a vibration signal when a touch is input to the touch screen.

제어부 (1300) 는 통상적으로 전자 디바이스 (1000) 의 전반적인 동작을 제어함으로써, 전자 디바이스 (1000) 의 기능을 수행할 수 있다. 예를 들어, 제어부 (1300) 는, 저장부 (1700) 에 저장된 프로그램들을 실행함으로써, 사용자 입력 수신부 (1100), 출력부 (1200), 센싱부 (1400), 통신부 (1500), A/V 입력부 (1600) 등을 전반적으로 제어할 수 있다.The control unit 1300 can perform the functions of the electronic device 1000 by controlling the overall operation of the electronic device 1000. [ For example, the control unit 1300 may include a user input receiving unit 1100, an output unit 1200, a sensing unit 1400, a communication unit 1500, and an A / V input unit 1100, by executing programs stored in the storage unit 1700. [ (1600), and the like.

센싱부 (1400) 는 전자 디바이스 (1000) 의 상태 또는 전자 디바이스 (1000) 주변의 상태를 감지하고, 감지된 정보를 제어부 (1300) 로 전달할 수 있다.The sensing unit 1400 may sense a state of the electronic device 1000 or a state around the electronic device 1000 and may transmit sensed information to the control unit 1300. [

센싱부 (1400) 는 지자기 센서 (Magnetic sensor) (1410), 가속도 센서 (Acceleration sensor) (1420), 온/습도 센서 (1430), 적외선 센서 (1440), 자이로스코프 센서 (1450), 위치 센서 (예컨대, GPS) (1460), 기압 센서 (1470), 근접 센서 (1480), 및 RGB 센서 (illuminance sensor) (1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1400 includes a magnetic sensor 1410, an acceleration sensor 1420, an on / humidity sensor 1430, an infrared sensor 1440, a gyroscope sensor 1450, a position sensor (GPS) 1460, an air pressure sensor 1470, a proximity sensor 1480, and an RGB sensor (illuminance sensor) 1490. However, the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

통신부 (1500) 는 전자 디바이스 (1000) 와 외부 장치 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부 (1500) 는, 근거리 통신부 (1510), 이동 통신부 (1520), 방송 수신부 (1530) 를 포함할 수 있다.The communication unit 1500 may include one or more components that allow communication between the electronic device 1000 and an external device. For example, the communication unit 1500 may include a local communication unit 1510, a mobile communication unit 1520, and a broadcast receiving unit 1530.

근거리 통신부 (short-range wireless communication unit) (1510) 는 블루투스 통신부, BLE (Bluetooth Low Energy) 통신부, 근거리 무선 통신부 (Near Field Communication unit), WLAN (와이파이) 통신부, 지그비 (Zigbee) 통신부, 적외선 (IrDA, infrared Data Association) 통신부, WFD (Wi-Fi Direct) 통신부, UWB (ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The short-range wireless communication unit 1510 includes a Bluetooth communication unit, a Bluetooth low energy communication unit, a near field communication unit, a WLAN communication unit, a Zigbee communication unit, an IrDA , an infrared data association communication unit, a WFD (Wi-Fi Direct) communication unit, an UWB (ultra wideband) communication unit, an Ant + communication unit, and the like.

이동 통신부 (1520) 는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 1520 transmits and receives a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신부 (1530) 는 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 디바이스 (1000) 가 방송 수신부 (1530) 를 포함하지 않을 수도 있다.The broadcast receiver 1530 receives broadcast signals and / or broadcast-related information from outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The electronic device 1000 may not include the broadcast receiver 1530 according to the embodiment.

A/V (Audio/Video) 입력부 (1600) 는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라 (1610) 와 마이크로폰 (1620) 등이 포함될 수 있다. 카메라 (1610) 은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 비디오 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부 (1300) 또는 별도의 이미지 처리부를 통해 처리될 수 있다.The A / V (Audio / Video) input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610, a microphone 1620, and the like. The camera 1610 can obtain an image frame such as a still image or a video through the image sensor in a video communication mode or a photographing mode. The image captured through the image sensor can be processed through the control unit 1300 or a separate image processing unit.

카메라 (1610) 에서 처리된 화상 프레임은 저장부 (1700) 에 미리 저장되어 있거나 통신부 (1500) 를 통하여 외부로 전송될 수 있다. 카메라 (1610) 는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 1610 may be stored in advance in the storage unit 1700 or may be transmitted to the outside through the communication unit 1500. More than one camera 1610 may be provided according to the configuration of the terminal.

마이크로폰 (1620) 은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰 (1620) 은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰 (1620) 는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음 (noise) 를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. 마이크로폰 (1620) 은 전술된 제어부 (1300) 에 의해 제공된 문제 콘텐트에 대응하는 사용자의 음성 답변 입력을 수신할 수 있다.The microphone 1620 receives an external acoustic signal and processes it as electrical voice data. For example, the microphone 1620 may receive acoustic signals from an external device or speaker. The microphone 1620 may use various noise reduction algorithms to remove noise generated in receiving an external sound signal. The microphone 1620 may receive a user ' s voice response input corresponding to the problem content provided by the control unit 1300 described above.

저장부 (1700) 는, 제어부 (1300) 의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 디바이스 (1000) 로 입력되거나 전자 디바이스 (1000) 로부터 출력되는 데이터를 저장할 수도 있다.The storage unit 1700 may store a program for processing and controlling the control unit 1300 and may store data input to or output from the electronic device 1000. [

저장부 (1700) 는 플래시 메모리 타입 (flash memory type), 하드디스크 타입 (hard disk type), 멀티미디어 카드 마이크로 타입 (multimedia card micro type), 카드 타입의 메모리 (예를 들어 SD 또는 XD 메모리 등), 램 (RAM, Random Access Memory) SRAM (Static Random Access Memory), 롬 (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 저장부 (1700) 는 메모리로 지칭될 수도 있다.The storage unit 1700 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) A disk, and / or an optical disk. The storage unit 1700 may be referred to as a memory.

저장부 (1700) 에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈 (1710), 터치 스크린 모듈 (1720), 알림 모듈 (1730) 등으로 분류될 수 있다.Programs stored in the storage unit 1700 can be classified into a plurality of modules according to their functions. For example, the programs can be classified into a UI module 1710, a touch screen module 1720, a notification module 1730, have.

UI 모듈 (1710) 은, 애플리케이션 별로 전자 디바이스 (1000) 와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈 (1720) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부 (1300) 로 전달할 수 있다. 일 실시예에 따른 터치 스크린 모듈 (1720) 은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈 (1720) 은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1710 can provide a specialized UI, a GUI, and the like that are interlocked with the electronic device 1000 for each application. The touch screen module 1720 senses a touch gesture on the user's touch screen and can transmit information on the touch gesture to the control unit 1300. [ The touch screen module 1720 according to one embodiment can recognize and analyze the touch code. The touch screen module 1720 may be configured as separate hardware including a controller.

터치 패드가 사용자의 터치를 감지하기 위해 터치 패드의 내부 또는 주변에 다양한 센서가 구비될 수 있다. 이러한 다양한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided inside or around the touch pad to detect a user's touch. An example of such various sensors is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object with a degree or more that a person feels. The tactile sensor can detect various information such as the roughness of the contact surface, the rigidity of the contact object, and the temperature of the contact point.

또한, 이러한 다양한 센서의 일례로 근접 센서가 있다. 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.In addition, proximity sensors are examples of such various sensors. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

또한, 이러한 다양한 센서의 일례로 압력 감지 (force touch) 센서가 있다. 터치 패드를 터치하는 압력의 크기에 따라, 전자 디바이스 (1000) 에서 서로 다른 기능이 수행될 수 있어, 터치 패드를 통해 인가될 수 있는 제스처 (gesture) 입력이 더욱 다양화될 수 있다.An example of such various sensors is a force touch sensor. Different functions can be performed in the electronic device 1000 according to the magnitude of the pressure of touching the touch pad, so that gesture input that can be applied through the touch pad can be further diversified.

제스처 입력은 다양한 방식으로 구현될 수 있는데, 그 중 "탭 (tap)"은 터치 패드 상에서 포인터가 한 번 터치된 후 터치 패드로부터 포인터가 떨어지면서 인가되는 입력 방식을 의미하며, "더블 탭 (double tap)"이란 두 번, "멀티플 탭 (multiple tap)"은 세 번 이상의 터치가 소정 시간 내에 인가되는 입력 방식을, "롱 탭 (long tap)"이란 소정 시간 이상 또는 특정 이벤트가 발생할 때까지 터치 상태를 유지하여 인가되는 입력 방식, 즉, 길게 탭 하는 입력 방식을 의미한다. 또한, "드래그 (drag)"는 사용자가 포인터를 이용하여 터치 패드를 터치한 후, 터치 패드와 포인터가 터치된 상태를 유지하면서 포인터를 터치 패드 상에서 다른 위치로 이동시키는 동작을 의미하며, "스와이프 (swipe)"는 기본적으로 "드래그"와 마찬가지로, 사용자가 포인터를 이용하여 터치 패드를 터치한 후, 터치 패드와 포인터가 터치된 상태를 유지하면서 포인터를 터치 패드 상에서 다른 위치로 이동시키는 동작을 의미하나, 이동 속도가 비교적 "드래그"보다 빠른 동작을 의미한다.The gesture input can be implemented in a variety of ways, among which "tap" means the input method in which the pointer is touched off the touchpad once the pointer is touched on the touchpad, and the "double quot; tap "means that an input method in which three or more touches are applied within a predetermined time is referred to as " multiple tap" Means an input method applied while maintaining a state, that is, a long tapping method. Also, "drag" means an operation of moving the pointer from the touch pad to another position while the touch pad and the pointer remain touched after the user touches the touch pad using the pointer. Swipe "is basically the same as" drag ", in which the user touches the touch pad using the pointer and then moves the pointer to another position on the touch pad while keeping the touch pad and the pointer touched Meaning, however, means that the movement speed is relatively faster than "drag".

알림 모듈 (1730) 은 전자 디바이스 (1000) 의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 디바이스 (1000) 에서 발생되는 이벤트의 예로는 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈 (1730) 은 디스플레이부 (1210) 를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부 (1220) 를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터 (1230) 를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module 1730 may generate a signal for notifying the occurrence of an event of the electronic device 1000. [ Examples of events generated in the electronic device 1000 include signal reception, message reception, key signal input, schedule notification, and the like. The notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210 or may output a notification signal in the form of an audio signal through the sound output unit 1220, It is possible to output a notification signal in the form of a vibration signal.

또한, 도 2 및 도 3에 도시된 전자 디바이스 (1000) 의 각 구성들 중 일부 또는 전부는 적어도 하나의 하드웨어 프로세서에 의해 구현될 수 있다. 예를 들어, 전자 디바이스 (1000) 의 메인 프로세서 외의 별도의 프로세서를 통하여, 전자 디바이스 (1000) 의 각 구성들 중 일부 또는 전부가 구현될 수 있다.In addition, some or all of the respective configurations of the electronic device 1000 shown in Figs. 2 and 3 may be implemented by at least one hardware processor. For example, some or all of the configurations of the electronic device 1000 may be implemented through a separate processor other than the main processor of the electronic device 1000. [

또한, 도 2 및 도 3에 도시된 전자 디바이스 (1000) 의 각 구성들 중 일부는 적어도 하나의 소프트웨어 프로그램에 의해 구현될 수 있다. 예를 들어, 전자 디바이스 (1000) 의 일부 기능은 운영 체제 (Operating System) 프로그램에 의해 구현되고, 일부 기능은 애플리케이션 프로그램에 의해 구현될 수 있다. 이에 따라, 전자 디바이스 (1000) 의 기능들은 적어도 하나의 하드웨어 및 적어도 하나의 소프트웨어에 의해 구현될 수 있으며, 소프트웨어에 의해 구현되는 전자 디바이스 (1000) 의 기능들은, 전자 디바이스 (1000) 에 설치된 운영 체제 및 애플리케이션에 의해 실행될 수 있다.In addition, some of the respective configurations of the electronic device 1000 shown in Figs. 2 and 3 may be implemented by at least one software program. For example, some functions of the electronic device 1000 may be implemented by an Operating System program, and some functions may be implemented by an application program. Accordingly, the functions of the electronic device 1000 may be implemented by at least one piece of hardware and at least one piece of software, and the functions of the electronic device 1000 implemented by the software may be implemented by operating system And an application.

일 실시예에 따른 전자 디바이스 (1000) 는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부 (permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키 (key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체 (예컨대, ROM (read-only memory), RAM (random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체 (예컨대, 시디롬 (CD-ROM), 디브이디 (DVD: Digital Versatile Disc) ) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.The electronic device 1000 according to one embodiment includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, A user interface device such as a button, and the like. Methods implemented with software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.

도 4는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.4 is a flow diagram of a method for displaying an image associated with the music while the music is playing in the electronic device, according to one embodiment.

설명의 편의상 도 1을 참조하여 설명한다. 도 1을 참조하면, 전자 디바이스에서 멀티미디어 재생 애플리케이션 (100) 이 구동되어, 음악이 재생될 수 있다. 여기서, 음악의 재생은 해당 음악의 오디오 파일의 재생을 의미한다.Will be described with reference to Fig. 1 for convenience of explanation. Referring to FIG. 1, a multimedia playback application 100 may be driven in an electronic device, and music may be played back. Here, the reproduction of the music means the reproduction of the audio file of the music.

단계 S100에서 전자 디바이스는 해당 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득한다.In step S100, the electronic device acquires music information about music reproduced in the electronic device.

음악정보는 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The music information may be pre-stored in the electronic device or may be obtained by being received from an external server via the Internet or the like.

음악정보는 음악이 기록된 오디오 파일의 메타정보일 수 있다. 메타정보는 해당 음악의 제목, 가수, 작곡가, 작사가, 연주자, 장르, 재생 시간, 앨범, 작곡가, 음악 세그먼트, 가사, 및 해당 음악에 대한 설명 (description) 중 적어도 하나에 대한 정보를 포함할 수 있다.The music information may be meta information of an audio file in which music is recorded. The meta information may include information about at least one of a title, an artist, a composer, a lyricist, a player, a genre, a playing time, an album, a composer, a music segment, lyrics, have.

예를 들어 도 1의 정보 윈도우 (130) 에 도시된 바와 같이, 전자 디바이스는 음악의 가수 및 제목 (MOBB-Chenzao) 을 획득할 수 있다. 전자 디바이스는 음악의 가수 및 제목 이외에도 정보 윈도우 (130) 에 도시되지 않은 다양한 메타정보를 획득할 수도 있다.For example, as shown in the information window 130 of FIG. 1, the electronic device can obtain the music's number and title (MOBB-Chenzao). The electronic device may acquire various meta information not shown in the information window 130 in addition to the song's title and music title.

한편, 전자 디바이스는 해당 전자 디바이스와 다른 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득하도록 구현될 수도 있다.On the other hand, the electronic device may be implemented to acquire music information about music reproduced in the electronic device and other electronic devices.

이때, 음악정보는 오디오 지문 정보일 수 있고, 전자 디바이스는 해당 음악을 녹음하여 오디오 데이터를 생성하고, 생성된 오디오 데이터의 오디오 신호를 분석하여 오디오 지문 정보를 획득할 수 있다.At this time, the music information may be audio fingerprint information, the electronic device may record the music to generate audio data, and analyze audio signals of the generated audio data to obtain audio fingerprint information.

단계 S110에서 전자 디바이스는 단계 S100에서 획득된 음악정보에 기초하여 해당 음악에 대한 스토리라인을 획득한다.In step S110, the electronic device acquires a story line for the music based on the music information obtained in step S100.

음악에 대한 스토리라인은 하나 이상의 이미지, 하나 이상의 비디오, 및/또는 텍스트로 구성될 수 있다.A story line for music can consist of one or more images, one or more videos, and / or text.

음악에 대한 스토리라인은 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The story line for music can be pre-stored in the electronic device or can be obtained by being received from an external server via the Internet or the like.

음악에 대한 스토리라인은 해당 음악이 기록된 오디오 파일의 메타정보에 기초하여 검색 엔진 등에서 검색됨으로써 획득될 수도 있다. 여기서, 검색 엔진은 질의에 응답하여 음악에 대한 스토리라인을 제공할 수 있다. 예를 들어, 검색 엔진은 질의에 응답하여 음악에 대한 뮤직비디오를 제공할 수 있다.The story line for the music may be obtained by searching the search engine or the like based on the meta information of the audio file in which the music is recorded. Here, the search engine may provide a story line for the music in response to the query. For example, a search engine may provide a music video for music in response to a query.

도 1을 참조하면, 전자 디바이스는 음악의 가수 및 제목 (MOBB-CHENZAO) 에 기초하여, 해당 음악과 관련된 비디오, 예컨대, 뮤직 비디오를 획득할 수 있다. 즉, 해당 음악에 대한 스토리라인은 해당 음악의 뮤직 비디오로 구성된다.Referring to FIG. 1, an electronic device can acquire a video, e.g., a music video, related to the music, based on the music's number and title (MOBB-CHENZAO). That is, the story line for the music is composed of the music video of the music.

단계 S120에서 전자 디바이스는 단계 S110에서 획득된 스토리라인에 기초하여 하나 이상의 이미지를 획득한다.In step S120, the electronic device acquires one or more images based on the storyline obtained in step S110.

이미지는 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The image may be pre-stored in the electronic device, or may be obtained by being received from an external server via the Internet or the like.

음악의 스토리라인이 하나 이상의 비디오로 구성된 경우, 스토리라인을 구성하는 하나 이상의 비디오의 프레임들 중에서 해당 음악과 관련된 이미지가 획득될 수 있다.When the story line of the music is composed of one or more videos, an image related to the music among the frames of one or more videos constituting the story line can be obtained.

예를 들어, 도 1을 참조하면, 전자 디바이스는 뮤직 비디오를 구성하는 프레임들 중에서 하나 이상의 이미지를 획득할 수 있다. 이때, 전자 디바이스는 뮤직 비디오를 구성하는 프레임들 중에서 소정 시간 간격으로 하나 이상의 이미지를 획득할 수도 있다. 예컨대, 뮤직 비디오를 구성하는 프레임들 중에서 10초 간격으로 하나 이상의 이미지를 획득할 수 있다. 도 1의 정보 윈도우 (130) 에 도시된 바와 같이, 전자 디바이스에서 재생되는 음악의 재생 시간은 3:59이고, 해당 음악의 뮤직 비디오의 재생 시간도 3:59로 동일한 경우, 뮤직 비디오에서 0:00에서의 제1 프레임, 0:10에서의 제2 프레임, 0:20에서의 제3 프레임, …, 및 3:50에서의 제24 프레임이 획득될 수 있다.For example, referring to FIG. 1, an electronic device may obtain one or more images from frames that make up a music video. At this time, the electronic device may acquire one or more images at predetermined time intervals among the frames constituting the music video. For example, one or more images may be acquired at intervals of 10 seconds among the frames constituting the music video. As shown in the information window 130 of FIG. 1, when the reproduction time of the music reproduced in the electronic device is 3:59 and the reproduction time of the music video of the music is also equal to 3:59, The first frame at 00, the second frame at 0:10, the third frame at 0:20, ... , And a 24th frame at 3:50 can be obtained.

단계 S130에서 전자 디바이스는 단계 S120에서 획득된 하나 이상의 이미지를 디스플레이한다.In step S130, the electronic device displays the one or more images obtained in step S120.

예를 들어, 도 1을 참조하면, 전자 디바이스는 획득된 이미지들 (110A, 110B, 110C, 110D) 을 디스플레이할 수 있다.For example, referring to FIG. 1, an electronic device may display acquired images 110A, 110B, 110C, and 110D.

전자 디바이스는 재생되는 음악에 맞추어, 획득된 이미지들 (110A, 110B, 110C, 110D) 을 디스플레이하도록 구현될 수도 있다. 예를 들어, 뮤직 비디오로부터 소정의 시간 간격으로 획득된 프레임들은 전자 디바이스에서 프레임 순서대로 해당 소정의 시간 간격으로 디스플레이될 수 있다.The electronic device may be configured to display the acquired images 110A, 110B, 110C, and 110D in accordance with the music being played back. For example, frames obtained at predetermined time intervals from the music video may be displayed in the electronic device at the predetermined time intervals in frame order.

예를 들어, 도 1을 참조하면, 전자 디바이스에서 재생되는 음악의 재생 시간이 3:59이고, 해당 음악 재생 후 10초가 경과한 경우, 뮤직 비디오에서 0:10에서의 제2 프레임이 전자 디바이스에서 디스플레이될 수 있다. 따라서, 정보 윈도우 (130) 에 도시된 바와 같이 0:12 재생 시점에서 해당 뮤직 비디오의 제2 프레임 (110A) 이 디스플레이되는 중일 수 있다. 마찬가지로, 0:46, 1:51, 및 2:33 재생 시점에서 뮤직 비디오의 제5 프레임 (110B), 제13 프레임 (110C), 및 제18 프레임 (110D) 이 각각 디스플레이되는 중일 수 있다.For example, referring to FIG. 1, if the playing time of the music played on the electronic device is 3:59 and ten seconds have elapsed after playing the music, the second frame at 0:10 in the music video Can be displayed. Accordingly, as shown in the information window 130, the second frame 110A of the corresponding music video may be displayed at the 0:12 playback time point. Likewise, the fifth frame 110B, the thirteenth frame 110C, and the eighteenth frame 110D of the music video may be displayed at the time of 0:46, 1:51, and 2:33 playback, respectively.

만약 해당 음악의 재생 시간 및 해당 음악의 뮤직 비디오의 재생 시간이 서로 상이한 경우, 전자 디바이스는 두 재생 시간의 비율에 기초하여 이미지들을 디스플레이할 수 있다. 예를 들어, 뮤직 비디오의 재생 시간이 7:58로, 음악 재생 시간인 3:59의 2배인 경우, 10초 간격으로 획득된 이미지들을 전자 디바이스에서 5초 간격으로 디스플레이될 수 있다.If the playing time of the music and the playing time of the music video of the music are different from each other, the electronic device can display images based on the ratio of the two playing times. For example, if the playback time of the music video is 7:58 and the music playback time is 2:59, images acquired at intervals of 10 seconds can be displayed at intervals of 5 seconds in the electronic device.

전자 디바이스는 음악을 재생하고, 해당 음악과 관련된 이미지를 디스플레이하는 것에 불과하므로, 해당 음악과 관련된 비디오를 재생하는 것보다 전자 디바이스의 리소스를 덜 소비하는 효과가 있다. 또한, 전자 디바이스가 이동 통신망을 통해 인터넷에 연결되어 음악 또는 이미지를 스트리밍 재생하는 경우, 사용자의 데이터 사용량의 부담을 경감시키는 효과도 있다.Since the electronic device only reproduces music and displays an image related to the music, it has an effect of consuming less resources of the electronic device than playing the video related to the music. In addition, when the electronic device is connected to the Internet through the mobile communication network and streaming music or images, there is an effect of reducing the burden of data usage by the user.

도 5는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악의 스토리라인에 포함된 키워드를 이용하여 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.FIG. 5 is a flowchart illustrating a method of displaying an image related to a music using a keyword included in a story line of the music while the music is being reproduced in the electronic device according to an exemplary embodiment.

설명의 편의상 도 6을 참조하여 설명한다.6 for convenience of explanation.

도 6은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악에 대한 설명을 이용하여 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.FIG. 6 is a diagram illustrating an example of displaying an image related to a corresponding music using a description of the music while the music is being reproduced in the electronic device according to an embodiment.

단계 S200, S210, S230, 및 S240은 각각 도 4에서 전술된 단계 S100, S110, S120, 및 S130과 유사하므로, 중복되는 설명은 생략한다.Steps S200, S210, S230, and S240 are similar to steps S100, S110, S120, and S130 described above in FIG. 4, respectively, and thus redundant description is omitted.

단계 S200에서 전자 디바이스는 해당 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득한다.In step S200, the electronic device acquires music information about music reproduced in the electronic device.

음악정보는 음악이 기록된 오디오 파일의 메타정보일 수 있다. 메타정보는 해당 음악의 제목, 가수, 작곡가, 작사가, 연주자, 장르, 재생 시간, 앨범, 작곡가, 음악 세그먼트, 가사, 및 해당 음악에 대한 설명 (description) 중 적어도 하나를 포함할 수 있다.The music information may be meta information of an audio file in which music is recorded. The meta information may include at least one of a title, an artist, a composer, a lyricist, a player, a genre, a playing time, an album, a composer, a music segment, lyrics, and a description of the music.

예를 들어 도 6의 정보 윈도우 (230) 에 도시된 바와 같이, 전자 디바이스는 음악의 작곡가 및 제목 (Beethoven - Symphony No. 5) 을 획득할 수 있다. 전자 디바이스는 음악의 가수 및 제목 이외에도 정보 윈도우 (230) 에 도시되지 않은 다양한 메타정보를 획득할 수도 있다.For example, as shown in the information window 230 of FIG. 6, the electronic device may obtain a music composer and title (Beethoven - Symphony No. 5). The electronic device may acquire various meta information not shown in the information window 230 in addition to the song number and title of the music.

단계 S210에서 전자 디바이스는 단계 S200에서 획득된 음악정보에 기초하여 해당 음악에 대한 스토리라인을 획득한다.In step S210, the electronic device acquires a story line for the music based on the music information obtained in step S200.

음악에 대한 스토리라인은 하나 이상의 이미지, 하나 이상의 비디오, 및/또는 텍스트로 구성될 수 있다.A story line for music can consist of one or more images, one or more videos, and / or text.

음악에 대한 스토리라인은 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The story line for music can be pre-stored in the electronic device or can be obtained by being received from an external server via the Internet or the like.

음악에 대한 스토리라인은 해당 음악이 기록된 오디오 파일의 메타정보로서 저장될 수 있다. 음악에 대한 스토리라인은 메타정보에 포함된 정보 중 해당 음악에 대한 설명 및/또는 해당 음악의 가사를 포함할 수 있다.The story line for the music can be stored as meta information of the audio file in which the music is recorded. The story line for the music may include a description of the music and / or lyrics of the music included in the meta information.

예를 들어, 전자 디바이스는 음악의 작곡가 및 제목 (Beethoven - Symphony No. 5) 이외에도 정보 윈도우 (230) 에 도시되지 않은 다양한 메타정보를 획득할 수도 있고, 획득된 메타정보에 포함된 정보 중 해당 음악에 대한 설명을 획득할 수 있다. 이때, 해당 음악에 대한 설명은 해당 음악을 구성하는 음악 세그먼트들 각각에 대한 설명을 포함할 수 있다.For example, the electronic device may acquire various meta information not shown in the information window 230 in addition to the music composer and title (Beethoven - Symphony No. 5) Can be obtained. At this time, the description of the music may include a description of each of the music segments constituting the music.

음악 세그먼트들은 하나의 음악 내에서 음악적으로 서로 구별되는 부분들로서, 악식 (樂式, musical form) 에 의해 구별되는 부분들일 수도 있다.The music segments may be portions distinguished musically from each other in one piece of music and may be portions distinguished by musical form.

예를 들어, 대중 음악은 일반적으로 인트로 (intro), 절 (verse), 프리코러스 (pre-chorus), 코러스 (chorus), 브릿지 (bridge), 아우트로 (outro), 싸비 (sabi), 훅 (hook), 애드립 (ad lib), 허밍 (humming), 스캣 (scat) 등의 음악 세그먼트들로 구별될 수 있다.For example, popular music generally includes intro, verse, pre-chorus, chorus, bridge, outro, sabi, hook, ad lib, humming, scat, and the like.

예를 들어, 교향곡 (symphony) 은 일반적으로 4개의 악장으로 구분되며, 각 악장은 빠른 템포의 소나타 알레그로 (sonata allegro) 형식 (form), 느린 템포의 ABA 또는 주제와 변주 (theme and variation) 형식, 중간/빠른 템포의 미뉴에트 또는 스케르초 (scherzo) 형식, 및 빠른 템포의 소나타 또는 론도 형식 등을 가질 수 있다. 또한, 각 악장은 복수의 단락으로 구분될 수 있다. 교향곡인 음악의 음악 세그먼트는 해당 교향곡의 각 악장일 수 있고, 각 단락일 수도 있다.For example, a symphony is generally divided into four movements, each of which has a sonata allegro form with a fast tempo, an ABA or theme and variation with a slow tempo, A mid / fast tempo minuet or scherzo type, and a fast tempo sonata or rondo type. In addition, each movement can be divided into a plurality of paragraphs. The music segment of a symphony music can be each movement of the symphony, or it can be each paragraph.

베토벤의 5번 교향곡의 경우, 4개의 악장들로 구분되며, 4개의 악장은 4개의 음악 세그먼트에 대응될 수 있다. 메타정보에 포함된 음악 세그먼트 정보는 각 음악 세그먼트의 시작시점에 대한 정보를 포함할 수 있다. 예를 들어, 베토벤의 5번 교향곡 오디오 파일의 총 재생 시간이 34:25이고, 해당 오디오 파일에서 제1 악장은 00:00에 시작하고, 제2 악장은 8:25에 시작하고, 제3 악장은 16:00에 시작하고, 제4 악장은 24:44에 시작하는 경우, 각 음악 세그먼트의 시작시점은 00:00, 8:25, 16:00, 및 24:44일 수 있다.Beethoven's Symphony No. 5 is divided into four movements, and four movements can correspond to four music segments. The music segment information included in the meta information may include information on the starting point of each music segment. For example, if Beethoven's fifth symphony audio file has a total play time of 34:25, the first move in the audio file starts at 00:00, the second move starts at 8:25, Start at 16:00, and the fourth movement starts at 24:44, the start time of each music segment may be 00:00, 8:25, 16:00, and 24:44.

4개의 악장들은 각각 '몸부림 (Struggle)', '희망 (Hope)', '의심 (Doubt)', 및 '승리 (Victory)'라는 별칭을 가지고 있다. 따라서, 베토벤의 5번 교향곡의 스토리라인은 4개 악장들과 악장의 별칭에 대한 설명을 포함할 수 있다.Each of the four movements has an alias, "Struggle", "Hope", "Doubt", and "Victory". Thus, the story line of Beethoven's Symphony No. 5 may contain a description of the four movements and the alias of the movement.

음악에 대한 스토리라인이 해당 음악에 대한 설명 및/또는 해당 음악의 가사만을 포함하는 경우, 해당 스토리라인은 텍스트로 구성된다.If the story line for the music includes only the description of the music and / or the lyrics of the music, the story line is composed of text.

한편, 음악에 대한 스토리라인은 해당 음악의 음악정보, 예를 들어, 해당 음악이 기록된 오디오 파일의 메타정보에 기초하여 검색 엔진 등에서 검색됨으로써 획득될 수도 있다. 여기서 검색 엔진은 질의에 응답하여 음악에 대한 설명 및/또는 음악의 가사를 제공할 수 있다. 따라서, 전자 디바이스는 검색 엔진으로부터 제공된 음악에 대한 설명 및/또는 음악의 가사를 획득할 수 있다.On the other hand, the story line for music may be obtained by searching in a search engine or the like based on music information of the music, for example, meta information of the audio file in which the music is recorded. Where the search engine may provide a description of the music and / or lyrics of the music in response to the query. Thus, the electronic device can obtain a description of the music provided from the search engine and / or the lyrics of the music.

검색 엔진이 질의에 응답하여, 음악에 대한 설명 및/또는 음악의 가사뿐만 아니라, 다양한 콘텐트를 제공하는 경우, 전자 디바이스는 다양한 콘텐트 중 미리 결정된 조건에 기초하여 음악에 대한 스토리라인을 선택하도록 구현될 수도 있다.If the search engine provides a variety of content, as well as a description of the music and / or lyrics of the music, in response to the query, the electronic device may be configured to select a story line for the music based on predetermined ones of the various content It is possible.

예를 들어, 미리 결정된 조건은 콘텐트 간의 순위 (order) 일 수 있다. 즉, 다양한 콘텐트 중 검색 엔진이 가장 높은 순위를 부여한 (highest rated) 콘텐트가 음악에 대한 스토리라인으로 선택될 수 있다.For example, the predetermined condition may be an order between the contents. That is, the highest rated content among the various contents may be selected as a story line for the music.

예를 들어, 미리 결정된 조건은 콘텐트의 중복 횟수 또는 중복 비율일 수 있다. 즉, 다양한 콘텐트 중 검색 엔진이 가장 많이 중복하여 제공한 콘텐트가 음악에 대한 스토리라인으로 선택될 수 있다.For example, the predetermined condition may be the number of duplication or redundancy of the content. That is, the content provided most frequently by the search engine among various contents can be selected as a story line for music.

전자 디바이스는 복수의 검색 엔진으로부터 음악에 대한 스토리라인을 선택할 수도 있다. 나아가, 전자 디바이스는 복수의 검색 엔진으로부터 제공된 콘텐트들 중 미리 결정된 조건에 기초하여 음악에 대한 스토리라인을 선택하도록 구현될 수도 있다. 예를 들어, 미리 결정된 조건은 콘텐트의 중복 횟수 또는 중복 비율일 수 있다. 즉, 복수의 검색 엔진이 가장 많이 중복하여 제공한 콘텐트가 음악에 대한 스토리라인으로 선택될 수 있다.The electronic device may also select story lines for music from a plurality of search engines. Furthermore, the electronic device may be configured to select a story line for music based on predetermined ones of the contents provided from a plurality of search engines. For example, the predetermined condition may be the number of duplication or redundancy of the content. That is, the content provided by the plurality of search engines in duplicate can be selected as a story line for the music.

전자 디바이스는 전술된 조건들의 조합에 기초하여, 다양한 콘텐트 중 음악에 대한 스토리라인을 선택할 수도 있다.The electronic device may select a storyline for music from various content based on a combination of the conditions described above.

단계 S220에서 전자 디바이스는 단계 S210에서 획득된 스토리라인에 기초하여 하나 이상의 키워드를 획득한다.In step S220, the electronic device obtains one or more keywords based on the storyline obtained in step S210.

음악에 대한 스토리라인이 해당 음악에 대한 설명 및/또는 해당 음악의 가사만을 포함하는 경우, 해당 스토리라인은 텍스트로 구성된다.If the story line for the music includes only the description of the music and / or the lyrics of the music, the story line is composed of text.

텍스트로 구성된 스토리라인은 키워드를 획득하기 위해 분석될 수 있다. 스토리라인의 분석 결과, 스토리라인에서 단어의 품사, 단어의 출현 횟수, 문맥 등에 기초하여 키워드가 선택될 수 있다. 예를 들어, 스토리라인에서 명사, 동사 및/또는 자주 사용되는 단어 등이 키워드로 선택될 수 있으나, 이에 제한되지 않고, 다양한 기준에 기초하여 키워드가 선택될 수 있다.Story lines composed of text can be analyzed to obtain keywords. As a result of the analysis of the story line, the keyword can be selected based on the part of the word in the story line, the number of occurrences of the word, the context, and the like. For example, nouns, verbs, and / or frequently used words may be selected as keywords in the story line, but the present invention is not limited thereto, and keywords can be selected based on various criteria.

텍스트로 구성된 스토리라인에 기초하여, 전자 디바이스는 하나 이상의 키워드를 획득할 수 있다. 예를 들어, 전자 디바이스에서 베토벤의 5번 교향곡이 재생되는 경우, 전자 디바이스는 베토벤의 5번 교향곡의 스토리라인에 기초하여, '몸부림 (Struggle)', '희망 (Hope)', '의심 (Doubt)', 및 '승리 (Victory)'란 키워드를 획득할 수 있다.Based on the story line composed of text, the electronic device can acquire one or more keywords. For example, when Beethoven's Symphony No. 5 is reproduced on an electronic device, the electronic device is based on the story line of Beethoven's Symphony No. 5, which is called "Struggle," "Hope," "Doubt ) &Quot;, and " Victory ".

단계 S230에서 전자 디바이스는 단계 S220에서 획득된 키워드에 기초하여 하나 이상의 이미지를 획득한다.In step S230, the electronic device obtains one or more images based on the keywords obtained in step S220.

하나 이상의 이미지는 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The one or more images may be stored in advance in the electronic device, or may be obtained by being received from an external server via the Internet or the like.

하나 이상의 이미지가 전자 디바이스에 미리 저장되어 있는 경우, 복수의 이미지가 전자 디바이스의 저장부의 이미지 데이터 베이스에 저장되어 있어, 이미지 데이터 베이스로부터 키워드에 기초하여 하나 이상의 이미지가 획득될 수 있다. 여기서, 이미지 데이터 베이스는 이미지, 이미지의 제목, 이미지의 설명 등을 저장할 수 있다. 전자 디바이스는 획득된 키워드를 이용하여 이미지 데이터 베이스를 검색할 수 있다. 전자 디바이스는 이미지 데이터 베이스의 검색 결과, 키워드와 매칭되는 제목이나 설명을 갖는 하나 이상의 이미지를 획득할 수 있다.When one or more images are pre-stored in the electronic device, a plurality of images are stored in the image database of the storage unit of the electronic device, so that one or more images can be obtained based on the keywords from the image database. Here, the image database can store images, titles of images, descriptions of images, and the like. The electronic device can search the image database using the acquired keyword. The electronic device may obtain one or more images having a title or description matched with the search result of the image database, the keyword.

인터넷 등을 통해 외부 서버로부터 하나 이상의 이미지를 수신하여 획득하는 경우, 전자 디바이스는 검색 엔진을 이용하여 하나 이상의 이미지를 획득할 수 있다. 여기서, 검색 엔진은 각 키워드에 기초한 질의에 응답하여 이미지를 제공할 수 있다.When receiving and acquiring one or more images from an external server via the Internet or the like, the electronic device can acquire one or more images using a search engine. Here, the search engine may provide an image in response to a query based on each keyword.

도 6을 참조하면, 단계 S220에서 획득된 키워드인 '몸부림 (Struggle)', '희망 (Hope)', '의심 (Doubt)', 및 '승리 (Victory)' 각각에 대응되는 4개의 이미지 (210A, 210B, 210C, 210D) 가 획득될 수 있다.Referring to FIG. 6, four images 210A corresponding to the keywords 'Struggle', 'Hope', 'Doubt', and 'Victory' , 210B, 210C, 210D can be obtained.

단계 S240에서 전자 디바이스는 단계 S230에서 획득된 이미지를 디스플레이한다.In step S240, the electronic device displays the image obtained in step S230.

예를 들어, 도 6을 참조하면, 전자 디바이스는 획득된 4개의 이미지 (210A, 210B, 210C, 210D) 를 디스플레이할 수 있다.For example, referring to FIG. 6, the electronic device may display the acquired four images 210A, 210B, 210C, and 210D.

전자 디바이스는 재생되는 음악에 맞추어, 획득된 4개의 이미지 (210A, 210B, 210C, 210D) 를 디스플레이하도록 구현될 수도 있다. 예를 들어, 재생되는 음악의 총 재생 시간을 4등분하는 4개의 시간 범위 각각 동안 4개의 이미지 (210A, 210B, 210C, 210D) 가 각각 디스플레이될 수 있다.The electronic device may be implemented to display the four acquired images 210A, 210B, 210C and 210D in accordance with the music being reproduced. For example, four images 210A, 210B, 210C, and 210D may be respectively displayed during each of four time ranges that divide the total playing time of the music being played into quarters.

전자 디바이스는 재생되는 음악의 음악 세그먼트에 맞추어, 획득된 4개의 이미지 (210A, 210B, 210C, 210D) 를 디스플레이하도록 구현될 수도 있다. 예를 들어, 재생되는 음악의 음악 세그먼트와 획득된 4개의 이미지 (210A, 210B, 210C, 210D) 가 각각 대응되어, 어느 음악 세그먼트가 재생되는 경우, 해당 음악 세그먼트에 대응되는 이미지가 디스플레이될 수 있다. 즉, 제1 음악 세그먼트의 시작시점부터 제1 음악 세그먼트의 다음에 위치하는 제2 음악 세그먼트의 시작시점까지의 시간 범위 동안 제1 음악 세그먼트에 대응되는 이미지가 디스플레이될 수 있다.The electronic device may be implemented to display the acquired four images 210A, 210B, 210C, and 210D in accordance with the music segment of the music being played back. For example, the music segment of the music to be reproduced corresponds to the acquired four images 210A, 210B, 210C and 210D, so that when any music segment is reproduced, an image corresponding to the music segment can be displayed . That is, the image corresponding to the first music segment can be displayed during the time range from the start point of the first music segment to the start point of the second music segment next to the first music segment.

전자 디바이스는 재생되는 음악과 대응되는 뮤직 비디오나 별도의 설명 이미지가 없더라도, 텍스트를 포함하는 스토리라인을 이용하여, 이미지를 획득하여 디스플레이할 수 있다. 따라서, 사용자는 보다 용이하게 음악을 이해할 수 있고, 전자 디바이스는 텍스트를 이용하여 이미지를 획득하여 디스플레이하므로, 전자 디바이스의 리소스를 절약할 수 있는 효과도 있다.The electronic device can acquire and display an image using a story line including text even if there is no music video corresponding to the music to be reproduced or a separate explanation image. Therefore, the user can understand the music more easily, and the electronic device acquires and displays the image using the text, thereby saving the resources of the electronic device.

도 7은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악의 가사를 이용하여 해당 음악과 관련된 이미지가 디스플레이되는 일례를 도시한 도면이다.7 is a diagram illustrating an example in which an image related to a corresponding music is displayed using lyrics of the music while the music is being reproduced in the electronic device according to an embodiment.

음악에 대한 스토리라인은 해당 음악의 음악정보, 예를 들어, 해당 음악이 기록된 오디오 파일의 메타정보에 기초하여 검색 엔진 등에서 검색됨으로써 획득될 수도 있다. 여기서 검색 엔진은 질의에 응답하여 음악에 대한 설명 및/또는 음악의 가사를 제공할 수 있다. 따라서, 전자 디바이스는 검색 엔진으로부터 제공된 음악에 대한 설명 및/또는 음악의 가사를 획득할 수 있다.The story line for the music may be obtained by searching in a search engine or the like based on music information of the music, for example, meta information of the audio file in which the music is recorded. Where the search engine may provide a description of the music and / or lyrics of the music in response to the query. Thus, the electronic device can obtain a description of the music provided from the search engine and / or the lyrics of the music.

음악에 대한 스토리라인이 해당 음악에 대한 설명 및/또는 해당 음악의 가사만을 포함하는 경우, 해당 스토리라인은 텍스트로 구성된다. 여기서, 스토리라인은 텍스트로 구성된 하나 이상의 문장을 포함할 수 있다. 하나 이상의 문장은 마침표, 물음표, 및 느낌표 등과 같은 구두점을 기준으로 구별되거나, 문법 분석을 통해 구별될 수 있다.If the story line for the music includes only the description of the music and / or the lyrics of the music, the story line is composed of text. Here, the story line may include one or more sentences composed of text. One or more sentences can be distinguished by punctuation, such as punctuation marks, question marks, and exclamation points, or by grammatical analysis.

예를 들어, "어스 (The Earth)"라는 가수의 "함께 노래 부르자(Let's sing together)"란 노래의 가사가 "나는 근심에 빠져있고 (I'm in times of trouble) 그녀는 내게 다가와 (She comes to me), 말했지 앞을 보라고 (Saying looking ahead to), 함께 노래 부르자 (Let's sing together)"란 내용을 포함하는 경우, 해당 가사는 4개의 문장들을 포함한다.For example, the lyrics of the song "Let's sing together" by the singer "The Earth" is "I'm in times of trouble" She comes to me, Saying looking ahead to, Let's sing together, "the lyrics include four sentences.

가사에서 각 문장은 문법 분석을 통해 구별될 수 있다, 예컨대, 하나의 동사를 기준으로 구분되는 하나의 구절이 하나의 문장일 수 있다.Each sentence in the lyric can be distinguished by grammatical analysis, for example, one verse separated by one verb can be a sentence.

스토리라인에 구두점이 포함된 경우, 구두점을 기준으로 각 문장이 구별될 수도 있다.If the story line contains punctuation, each sentence can be distinguished by punctuation.

전자 디바이스는 스토리라인을 구성하는 하나 이상의 문장에 기초하여 하나 이상의 이미지를 획득할 수 있다.The electronic device may obtain one or more images based on one or more sentences comprising the story line.

하나 이상의 이미지는 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.The one or more images may be stored in advance in the electronic device, or may be obtained by being received from an external server via the Internet or the like.

하나 이상의 이미지가 전자 디바이스에 미리 저장되어 있는 경우, 복수의 이미지가 전자 디바이스의 저장부의 이미지 데이터 베이스에 저장되어 있어, 이미지 데이터 베이스로부터 스토리라인을 구성하는 각 문장 또는 각 문장의 키워드에 기초하여 하나 이상의 이미지가 획득될 수 있다. 여기서, 이미지 데이터 베이스는 이미지, 이미지의 제목, 이미지의 설명 등을 저장할 수 있다. 전자 디바이스는 스토리라인을 구성하는 각 문장 또는 각 문장의 키워드를 이용하여 이미지 데이터 베이스를 검색할 수 있다. 전자 디바이스는 이미지 데이터 베이스의 검색 결과, 스토리라인을 구성하는 각 문장 또는 각 문장의 키워드와 매칭되는 제목이나 설명을 갖는 하나 이상의 이미지를 획득할 수 있다.When one or more images are pre-stored in the electronic device, a plurality of images are stored in the image database of the storage unit of the electronic device, and one from the image database, based on each sentence constituting the story line or each sentence keyword The above image can be obtained. Here, the image database can store images, titles of images, descriptions of images, and the like. The electronic device can search an image database using each sentence constituting the story line or keyword of each sentence. The electronic device can acquire one or more images having a title or description matching the search result of the image database, each sentence constituting the story line, or the keyword of each sentence.

인터넷 등을 통해 외부 서버로부터 하나 이상의 이미지를 수신하여 획득하는 경우, 전자 디바이스는 검색 엔진을 이용하여 하나 이상의 이미지를 획득할 수 있다. 여기서, 검색 엔진은 스토리라인을 구성하는 각 문장 또는 각 문장의 키워드에 기초한 질의에 응답하여 이미지를 제공할 수 있다.When receiving and acquiring one or more images from an external server via the Internet or the like, the electronic device can acquire one or more images using a search engine. Here, the search engine may provide an image in response to a query based on each sentence or keyword of each sentence constituting the story line.

도 7을 참조하면, 어스 (The Earth) 의 "함께 노래 부르자(Let's sing together)" 의 가사를 구성하는 각 문장에 대응되는 이미지 (310A, 310B, 310C, 310D) 가 획득될 수 있다. 전자 디바이스는 획득된 이미지 (310A, 310B, 310C, 310D) 를 디스플레이할 수 있다.Referring to FIG. 7, images 310A, 310B, 310C, and 310D corresponding to each sentence constituting the lyrics of "Let's sing together" of the Earth can be obtained. The electronic device can display the acquired images 310A, 310B, 310C, 310D.

한편, 메타정보는 가사정보를 포함할 수 있다. 따라서, 오디오 파일이 재생되고, 해당 오디오 파일에 대응되는 가사정보가 로드되는 경우, 전자 디바이스는 해당 오디오 파일에 대응되는 가사정보를 로드하고, 가사정보에 포함된 각 문장들의 시작시점에 기초하여 각 문장들이 스크롤되어 디스플레이되도록 구현될 수 있다. 나아가, 전자 디바이스는 각 문장의 시작시점에 맞추어 각 문장에 대응되는 이미지를 디스플레이할 수도 있다. 따라서, 오디오 파일의 재생 시간에 따라 음악의 가사 및 가사에 대응되는 이미지가 디스플레이될 수 있으므로, 사용자는 재생 중인 음악을 보다 용이하게 이해할 수 있다.On the other hand, the meta information may include the lyric information. Therefore, when the audio file is played back and the lyric information corresponding to the audio file is loaded, the electronic device loads the lyric information corresponding to the audio file, and based on the start time of each sentence included in the lyric information, Sentences can be scrolled and displayed. Furthermore, the electronic device may display an image corresponding to each sentence at the start of each sentence. Accordingly, the image corresponding to the lyrics and lyrics of the music can be displayed according to the reproduction time of the audio file, so that the user can more easily understand the music being reproduced.

일 실시예에서, 스토리라인을 구성하는 하나 이상의 문장은 하나 이상의 단락을 구성할 수 있다. 전자 디바이스는 스토리라인을 구성하는 문장들 간의 유사도에 기초하여 단락을 구별할 수 있다. 문장들 간의 유사도는 잘 알려진 유사도 산출 방법에 의해 산출될 수 있다.In one embodiment, one or more sentences comprising the story line may constitute one or more paragraphs. The electronic device can distinguish paragraphs based on the similarity between the sentences constituting the story line. The similarity between sentences can be calculated by a well - known similarity calculation method.

현재, 알려진 유사도 산출 방법은 다섯 개의 범주, 즉, 문자 매칭 방법, TF-IDF (term frequency-inverse document frequency) 벡터 방법, 확률적 방법, 문장 구조 방법 및 의미 확장 방법으로 나누어질 수 있다. 문자 매칭 방법은 두 문장 안에 있는 동일한 단어 수에 따라 문장의 유사도를 산출한다. 전형적인 예는, 자카드 유사도 계수 (Jaccard Similarity Coefficient) 방법이다. TF-IDF 벡터 방법은 문장을 TF-IDF 벡터로 나타내고, 두 벡터의 코사인 값을 유사도로 사용한다. 확률적 방법은 언어 모델 프레임워크를 도입하고 확률을 이용하여 두 문장의 유사도를 획득한다. 문장 구조 방법에서, 문장은 문장 템플릿의 매칭 접근에 따라 다른 성분들로 분할되고, 유사도는 성분의 구조에 기초하여 산출된다.At present, the known similarity calculation method can be divided into five categories: a character matching method, a TF-IDF (vector term vector-inverse document frequency) method, a probabilistic method, a sentence structure method and a semantic extension method. The character matching method calculates the similarity of sentences according to the same number of words in two sentences. A typical example is the Jaccard Similarity Coefficient method. The TF-IDF vector method expresses the sentence as a TF-IDF vector and uses the cosine value of the two vectors as the degree of similarity. The probabilistic method introduces a language model framework and obtains the similarity of two sentences using probabilities. In the sentence structure method, the sentence is divided into different components according to the matching approach of the sentence template, and the similarity is calculated based on the structure of the components.

예컨대, 첫 번째 문장의 유사도값이 미리 결정된 경우, 첫 번째 문장과 두 번째 문장을 이용하여 산출된 유사도에 따른 유사도값을 두 번째 문장이 가질 수 있다. 즉, 자기 문장과 이전 문장을 이용하여 유사도가 산출됨으로써, 모든 문장이 유사도값을 가질 수 있다. 모든 문장의 유사도값은 유사도값 시퀀스를 형성할 수 있다.For example, if the similarity value of the first sentence is predetermined, the second sentence can have a similarity value according to the similarity calculated using the first sentence and the second sentence. That is, similarity is calculated by using the own sentence and the previous sentence, so that all sentences can have the similarity value. The similarity value of all sentences can form a similarity value sequence.

유사도값 시퀀스에 대해 임계값이 설정될 수 있다. 또한, 유사도값 시퀀스에서 각각의 유사도값은 임계값과 비교될 수 있다. 어느 유사도값이 임계값보다 큰 경우, 해당 유사도값을 갖는 문장과 그 이전 문장 사이의 유사도는 비교적 높은 것으로 판단될 수 있다. 유사도값이 임계값보다 낮은 경우, 해당 유사도값을 갖는 문장과 이전 문장 사이의 유사도는 비교적 낮은 것으로 판단될 수 있다. 유사도값이 임계값보다 낮은 경우, 해당 유사도값을 갖는 문장은 이전 문장이 속한 단락의 다음 단락에 속하며, 해당 유사도값을 갖는 문장은 해당 다음 단락의 첫 번째 문장이 된다.A threshold value may be set for the similarity value sequence. In addition, each similarity value in the similarity value sequence can be compared with a threshold value. If a similarity value is larger than the threshold value, the similarity between the sentence having the similarity value and the previous sentence can be judged to be relatively high. If the similarity value is lower than the threshold value, the similarity between the sentence having the similarity value and the previous sentence can be judged to be relatively low. If the similarity value is lower than the threshold value, the sentence having the similarity value belongs to the next paragraph of the paragraph to which the previous sentence belongs, and the sentence having the similarity value is the first sentence of the next paragraph.

임계값은 사용자 또는 백엔드 서버의 관리자에 의해 설정되거나, 디폴트값으로 설정될 수 있다. 디폴트값은 다음의 통계적 방법에 의해 획득될 수 있다. 먼저, 다양한 유형의 복수의 음악이 선택되고, 각 음악에 대한 스토리라인이 획득되면, 각 스토리라인의 단락의 수가 확정된다. 그리고, X개의 단락을 포함하는 임의의 스토리라인에 대해 유사도값 시퀀스가 획득되고, 유사도값 시퀀스에 포함된 유사도값은 작은 값부터 큰 값으로 나열되어, X번째 유사도값이 해당 스토리라인에 대해 임계값으로 설정될 수 있다. 각 스토리라인에 대한 임계값의 평균이 디폴트값으로 결정될 수 있다.The threshold may be set by the user or by the administrator of the back-end server, or may be set to a default value. The default value can be obtained by the following statistical method. First, when a plurality of types of music are selected and a story line for each music is acquired, the number of paragraphs of each story line is determined. The similarity value sequence is obtained for any story line including X paragraphs, and the similarity value values included in the similarity value sequence are listed from a small value to a large value, and the Xth similarity value is set to a critical value Lt; / RTI > An average of the threshold values for each story line can be determined as a default value.

일 실시예에서, 음악은 다음의 방법을 이용하여 음악 세그먼트로 구분될 수도 있다. 먼저, 음악으로부터 소정의 시간 간격으로 샘플이 추출된다. 예를 들어, 소정의 시간 간격은 10 ms 간격일 수 있다. 그리고, 추출된 샘플의 특성이 분석된다. 예를 들어, 샘플의 특성은 시간 영역 및 주파수 영역 특성, 기본 주파수 특성 및 MFCC (Mel Frequency Cepstral Coefficients) 특성 등을 포함할 수 있다. 추출된 샘플은 분류 장치를 이용하여, 어느 음악 세그먼트에 속할지 결정된다. 예를 들어, 분류 장치는 벡터 지원 장치 (support vector device) 일 수 있다. 샘플의 특성에 기초한 음악 샘플 분류 기술은 연구 및 응용이 이루어지고 있는 분야로, 여기서 반복하여 서술하지 않는다.In one embodiment, music may be separated into music segments using the following method. First, samples are extracted from music at predetermined time intervals. For example, the predetermined time interval may be a 10 ms interval. Then, the characteristics of the extracted sample are analyzed. For example, the characteristics of the sample may include time domain and frequency domain characteristics, fundamental frequency characteristics, and Mel Frequency Cepstral Coefficients (MFCC) characteristics. Using the classifier, the extracted sample is determined to which music segment it belongs. For example, the classification device may be a support vector device. The music sample classification technique based on the characteristics of the sample is an area in which research and application is performed, and is not repeated herein.

음악의 메타정보에 포함된 가사정보 및 음악 세그먼트 정보를 이용하여, 가사의 문장 및/또는 단락과 해당 음악의 음악 세그컨트가 연관될 수 있다. 가사정보는 가사를 구성하는 각 문장들의 시작시점과 관련된 정보를 포함할 수 있고, 음악 세그먼트 정보는 각 음악 세그먼트의 시작시점에 대한 정보를 포함할 수 있다. 따라서, 어느 음악 세그먼트의 시작시점과 해당 음악 세그먼트의 다음 음악 세그먼트의 시작시점 사이의 시작시점을 갖는 문장들은 해당 음악 세그먼트와 연관될 수 있다. 전술된 유사도 산출 방법에 기초하여, 가사가 단락으로 구분된 경우, 단락과 해당 음악의 음악 세그컨트가 연관될 수 있다.A sentence and / or paragraph of the lyrics and the music segment of the music may be associated using the lyrics information and the music segment information included in the meta information of the music. The lyric information may include information related to the starting point of each sentence constituting the lyrics, and the music segment information may include information on the starting point of each music segment. Thus, sentences having a start time point between a start point of a music segment and a start point of a next music segment of the music segment may be associated with the music segment. On the basis of the above-described similarity calculation method, if the lyrics are divided into paragraphs, a paragraph and a music segment of the music may be associated.

음악의 스토리라인의 단락은 다른 방법으로 음악 세그먼트와 연관될 수 있다. 예를 들어, 대중 음악의 경우, 해당 대중 음악의 단락은 다음의 방법을 통해 음악 세그먼트와 연관될 수 있다. 설명의 편의를 위해, 해당 대중 음악은 인트로 (intro), 절 (verse), 코러스 (chorus), 및 브릿지 (bridge) 음악 세그먼트를 포함하는 것으로 가정한다. 대중 음악의 인트로 및 브릿지는 일반적으로 가사가 없으므로, 코러스 음악 세그먼트 및 브릿지 음악 세그먼트는 스토리라인의 단락과 연관되지 않을 수 있다. 그리고, 음악의 스토리라인이 M개의 단락으로 구성된 경우, 스토리라인의 마지막 단락은 대중 음악의 코러스 음악 세그먼트와 연관되고, 스토리라인에서 마지막 단락을 제외한 M-1 개의 단락이 절 음악 세그먼트와 연관될 수 있다.The paragraph of the story line of the music can be associated with the music segment in other ways. For example, in the case of pop music, the paragraph of the pop music may be associated with the music segment in the following way. For convenience of explanation, it is assumed that the popular music includes an intro, a verse, a chorus, and a bridge music segment. Since the intro and bridge of popular music generally have no lyrics, the chorus music segment and the bridge music segment may not be associated with a paragraph of the story line. And, if the music story line is composed of M paragraphs, the last paragraph of the story line is associated with the chorus music segment of popular music, and M-1 paragraphs excluding the last paragraph in the story line can be associated with the music segment have.

음악 세그먼트는 서브 세그먼트로 구분될 수도 있다. 상기 예에서, 절 음악 세그먼트는 서브 세그먼트로 구분될 수 있다. 먼저, 절 음악 세그먼트로부터 소정의 시간 간격으로 샘플이 추출된다. 예를 들어, 소정의 시간 간격은 10 ms 간격일 수 있다. 절 음악세그먼트로부터 추출된 모든 샘플들은 샘플 시퀀스를 형성한다.The music segment may be divided into sub-segments. In this example, the clause music segment may be divided into sub-segments. First, samples are extracted at predetermined time intervals from the music segment. For example, the predetermined time interval may be a 10 ms interval. All samples extracted from the music segment form a sample sequence.

예컨대, 샘플 시퀀스에서 첫 번째 샘플의 유사도값이 미리 결정된 경우, 첫 번째 샘플과 두 번째 샘플을 이용하여 산출된 유사도에 따른 유사도값을 두 번째 샘플이 가질 수 있다. 즉, 자기 샘플과 이전 샘플을 이용하여 유사도가 산출됨으로써, 모든 샘플이 유사도값을 가질 수 있다. 모든 샘플의 유사도값은 샘플 유사도값 시퀀스를 형성할 수 있다.For example, if the similarity value of the first sample in the sample sequence is predetermined, the second sample may have a similarity value according to the similarity calculated using the first sample and the second sample. That is, the similarity is calculated using the magnetic sample and the previous sample, so that all the samples can have the similarity value. The similarity values of all samples may form a sequence of sample similarity value values.

샘플 유사도값 시퀀스에 포함된 샘플 유사도값은 작은 값부터 큰 값으로 나열되어, M-1번째 샘플 유사도값이 임계값으로 설정될 수 있다. 임계값은 사용자 또는 백엔드 서버의 관리자에 의해 설정되거나, 디폴트값으로 설정될 수도 있다. 샘플 시퀀스에 포함된 각 샘플의 샘플 유사도값과 임계값이 비교되어, 절 음악 세그먼트가 M-1개의 서브 세그먼트로 구분될 수 있다. 예컨대, 어느 샘플의 샘플 유사도값이 임계값보다 큰 경우, 해당 샘플 유사도값을 갖는 샘플과 그 이전 샘플 사이의 유사도는 비교적 높은 것으로 판단될 수 있다. 샘플 유사도값이 임계값보다 낮은 경우, 해당 샘플 유사도값을 갖는 샘플과 이전 샘플 사이의 유사도는 비교적 낮은 것으로 판단될 수 있다. 샘플 유사도값이 임계값보다 낮은 경우, 해당 샘플 유사도값을 갖는 샘플은 이전 샘플이 속한 서브 세그먼트의 다음 서브 세그먼트에 속하며, 해당 샘플 유사도값을 갖는 샘플은 해당 다음 서브 세그먼트의 첫 번째 샘플이 된다. M-1개의 서브 세그먼트는 스토리라인에서 마지막 단락을 제외한 M-1 개의 단락과 연관될 수 있다.The sample similarity value included in the sample similarity value sequence is sorted from a small value to a large value so that the (M-1) th sample similarity value can be set as a threshold value. The threshold value may be set by the user or the administrator of the back-end server, or may be set to a default value. The sample similarity value of each sample included in the sample sequence is compared with a threshold value so that the clause music segment can be divided into M-1 sub-segments. For example, when the sample similarity value of a sample is larger than the threshold value, the similarity between the sample having the corresponding sample similarity value and the previous sample can be determined to be relatively high. If the sample similarity value is lower than the threshold value, the similarity between the sample having the corresponding sample similarity value and the previous sample can be judged to be relatively low. If the sample similarity value is lower than the threshold value, the sample having the corresponding sample similarity value belongs to the next sub-segment of the sub-segment to which the previous sample belongs, and the sample having the corresponding sample similarity value becomes the first sample of the next sub- M-1 sub-segments may be associated with M-1 paragraphs except the last paragraph in the story line.

전자 디바이스에서 음악의 음악 세그먼트들은 연속적으로 재생될 수 있다. 어느 음악 세그먼트가 재생될 때, 전자 디바이스는 해당 음악 세그먼트와 연관된 단락에 포함된 각 문장에 대응되는 이미지를 디스플레이할 수 있다. 대중 음악의 인트로 및 브릿지는 일반적으로 가사가 없으므로, 코러스 음악 세그먼트 및 브릿지 음악 세그먼트는 스토리라인의 단락과 연관되지 않을 수 있다. 이처럼, 스토리라인의 단락과 연관되지 않은 음악 세그먼트가 재생되는 경우, 디폴트 이미지가 디스플레이될 수 있다. 디폴트 이미지는 재생되는 음악의 앨범 커버일 수 있다.Music segments of music in an electronic device can be played back continuously. When a music segment is played back, the electronic device can display an image corresponding to each sentence included in a paragraph associated with the music segment. Since the intro and bridge of popular music generally have no lyrics, the chorus music segment and the bridge music segment may not be associated with a paragraph of the story line. As such, when a music segment not associated with a paragraph of a story line is reproduced, a default image can be displayed. The default image may be an album cover of the music being played.

음악이 음악 세그먼트로 구분되고, 음악 세그먼트가 서브 세그먼트로 구분되어, 서브 세그먼트가 재생되는 동안 해당 서브 세그먼트에 대응되는 이미지가 디스플레이될 수 있다. 따라서, 음악이 재생되는 동안 보다 정치 (精緻) 하게 이미지가 디스플레이되고, 해당 음악에 대한 사용자의 이해도를 더욱 증진시킬 수 있다.Music is divided into music segments, music segments are divided into sub-segments, and images corresponding to the sub-segments can be displayed while the sub-segments are being reproduced. Therefore, the image is displayed more precisely while the music is being reproduced, and the user's understanding of the music can be further enhanced.

도 8은 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 복수의 후보 이미지를 이용하여 해당 음악과 관련된 이미지를 디스플레이하는 방법의 흐름도이다.FIG. 8 is a flowchart of a method of displaying an image related to music using a plurality of candidate images related to the music while the music is being reproduced in the electronic device, according to an embodiment.

단계 S300, S310, S320, S330, 및 S360은 도 5에서 전술된 S200, S210, S220, S230, 및 S240 과 유사하므로, 중복되는 설명은 생략한다.Steps S300, S310, S320, S330, and S360 are similar to S200, S210, S220, S230, and S240 described above in FIG. 5, and thus redundant description is omitted.

단계 S300에서 전자 디바이스는 해당 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득한다.In step S300, the electronic device acquires music information about music reproduced in the electronic device.

단계 S310에서 전자 디바이스는 단계 S300에서 획득된 음악정보에 기초하여 해당 음악에 대한 스토리라인을 획득한다.In step S310, the electronic device acquires the story line for the music based on the music information obtained in step S300.

단계 S320에서 전자 디바이스는 단계 S310에서 획득된 스토리라인에 기초하여 하나 이상의 키워드를 획득한다.In step S320, the electronic device obtains one or more keywords based on the storyline obtained in step S310.

단계 S330에서 전자 디바이스는 단계 S320에서 획득된 하나 이상의 키워드에 기초하여 복수의 후보 이미지를 획득한다.In step S330, the electronic device obtains a plurality of candidate images based on the one or more keywords obtained in step S320.

전자 디바이스는 하나의 키워드에 대응되는 복수의 후보 이미지를 획득할 수 있다.The electronic device can acquire a plurality of candidate images corresponding to one keyword.

복수의 후보 이미지는 전자 디바이스에 미리 저장되어 있거나, 인터넷 등을 통해 외부 서버로부터 수신됨으로써 획득될 수 있다.A plurality of candidate images may be previously stored in the electronic device, or may be obtained by being received from an external server via the Internet or the like.

인터넷 등을 통해 외부 서버로부터 복수의 후보 이미지를 수신하여 획득하는 경우, 전자 디바이스는 검색 엔진을 이용하여 복수의 후보 이미지를 획득할 수 있다. 여기서, 검색 엔진은 키워드에 기초한 질의에 응답하여 복수의 후보 이미지를 제공할 수 있다.When receiving and acquiring a plurality of candidate images from an external server via the Internet or the like, the electronic device can acquire a plurality of candidate images using a search engine. Here, the search engine may provide a plurality of candidate images in response to a query based on the keyword.

전자 디바이스는 복수의 검색 엔진으로부터 복수의 후보 이미지를 획득할 수도 있다.The electronic device may obtain a plurality of candidate images from a plurality of search engines.

단계 S340에서 전자 디바이스는 미리 결정된 기준에 기초하여, 단계 S330에서 획득된 복수의 후보 이미지 간의 우선순위를 결정한다.In step S340, the electronic device determines a priority among the plurality of candidate images obtained in step S330, based on a predetermined criterion.

예를 들어, 미리 결정된 기준은 복수의 후보 이미지 간의 순위 (order) 일 수 있다. 즉, 복수의 후보 이미지 중 검색 엔진으로부터 높은 순위를 부여받은 (highly rated) 후보 이미지는 검색 엔진으로부터 낮은 순위를 부여받은 (lowly rated) 후보 이미지보다 우선순위가 높다.For example, the predetermined criteria may be an order among a plurality of candidate images. That is, a candidate image that is highly ranked from a search engine among a plurality of candidate images has a higher priority than a candidate image that is lowly rated from a search engine.

예를 들어, 미리 결정된 기준은 후보 이미지의 중복 횟수 또는 중복 비율일 수 있다. 즉, 복수의 후보 이미지 중 검색 엔진이 더 많이 중복하여 제공한 후보 이미지일수록 우선순위가 높다.For example, the predetermined criterion may be the number of duplicates or the overlap ratio of the candidate image. That is, the higher the priority of the candidate image provided by the search engine than the plurality of candidate images is, the higher the priority is.

예를 들어, 미리 결정된 기준은 후보 이미지와 키워드 간의 유사도일 수 있다. 후보 이미지는 시맨틱 (semantic) 분석을 통해, 후보 이미지의 의미에 대한 시맨틱 정보가 획득될 수 있고, 시맨틱 정보 및 키워드 간의 유사도가 판단될 수 있다. 시맨틱 분석 및 유사도 비교는 현재 연구 및 적용이 잘 이루어지고 있으므로 여기에서 설명하지 않는다.For example, the predetermined criterion may be the similarity between the candidate image and the keyword. Semantic information on the meaning of the candidate image can be obtained through the semantic analysis of the candidate image, and the similarity between the semantic information and the keyword can be determined. Semantic analysis and similarity comparisons are not discussed here because they are well researched and applied.

전자 디바이스가 복수의 검색 엔진으로부터 복수의 후보 이미지를 획득하는 경우, 전자 디바이스는 미리 결정된 기준에 기초하여, 복수의 검색 엔진으로부터 제공된 복수의 후보 이미지 간의 우선순위를 결정하도록 구현될 수도 있다. 예를 들어, 미리 결정된 기준은 후보 이미지의 중복 횟수 또는 중복 비율일 수 있다. 즉, 복수의 검색 엔진이 가장 많이 중복하여 제공한 후보 이미지일수록 우선순위가 높다.When an electronic device acquires a plurality of candidate images from a plurality of search engines, the electronic device may be configured to determine a priority among a plurality of candidate images provided from a plurality of search engines, based on a predetermined criterion. For example, the predetermined criterion may be the number of duplicates or the overlap ratio of the candidate image. That is, the candidate images provided by the plurality of search engines in the most overlapped manner have higher priority.

전자 디바이스는 전술된 기준들을 조합에 기초하여 복수의 후보 이미지 간의 우선순위를 결정할 수도 있다.The electronic device may determine a priority among a plurality of candidate images based on a combination of the above-described criteria.

단계 S350에서 전자 디바이스는 단계 S340에서 결정된 우선순위에 기초하여, 복수의 후보 이미지 중에서 하나 이상의 이미지를 획득한다.In step S350, the electronic device obtains one or more images from among the plurality of candidate images, based on the priority determined in step S340.

전자 디바이스는 하나의 키워드에 대응되는 복수의 후보 이미지 중에서 우선순위가 가장 높은 하나 이미지를 획득할 수 있다. 즉, 하나의 키워드는 하나의 이미지에 대응된다.The electronic device can obtain an image having one of the highest priority among a plurality of candidate images corresponding to one keyword. That is, one keyword corresponds to one image.

전자 디바이스는 하나의 키워드에 복수의 이미지가 대응되도록, 복수의 후보 이미지 중에서 우선순위가 가장 높은 순서대로 복수의 이미지를 획득할 수도 있다. 복수의 후보 이미지 중에서 획득되는 이미지의 개수는 해당 키워드에 대응되는 음악 세그먼트의 재생시간에 비례하도록 구현될 수도 있다.The electronic device may acquire a plurality of images in order of highest priority among a plurality of candidate images so that a plurality of images correspond to one keyword. The number of images obtained from the plurality of candidate images may be implemented so as to be proportional to the reproduction time of the music segment corresponding to the keyword.

단계 S360에서 전자 디바이스는 단계 S350에서 획득된 하나 이상의 이미지를 디스플레이한다.In step S360, the electronic device displays the one or more images obtained in step S350.

음악의 스토리라인의 키워드에 더욱 적합한 이미지가 디스플레이될 수 있으므로, 음악을 감상하는 사용자는 해당 음악을 더 용이하게 이해할 수 있다.An image more suitable for the keyword of the story line of the music can be displayed, so that the user who enjoys the music can understand the music more easily.

도 9는 일 실시예에 따른, 전자 디바이스에서 음악이 재생되는 동안, 해당 음악과 관련된 이미지를 렌더링하여 디스플레이하는 방법의 흐름도이다.9 is a flow diagram of a method for rendering and displaying an image associated with a music piece during playback of music in an electronic device, according to an embodiment.

단계 S400, S410, S420, 및 S440은 각각 도 4에서 전술된 단계 S100, S110, S120, 및 S130과 유사하므로, 중복되는 설명은 생략한다.Steps S400, S410, S420, and S440 are similar to steps S100, S110, S120, and S130 described above in Fig. 4, respectively, and thus redundant description is omitted.

단계 S400에서 전자 디바이스는 해당 전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득한다.In step S400, the electronic device acquires music information about music reproduced in the electronic device.

단계 S410에서 전자 디바이스는 단계 S400에서 획득된 음악정보에 기초하여 해당 음악에 대한 스토리라인을 획득한다.In step S410, the electronic device acquires a story line for the music based on the music information obtained in step S400.

단계 S420에서 전자 디바이스는 단계 S410에서 획득된 스토리라인에 기초하여 정서정보 및 하나 이상의 이미지를 획득한다.In step S420, the electronic device obtains emotion information and one or more images based on the storyline obtained in step S410.

음악의 스토리라인이 텍스트로 구성된 경우, 스토리라인에 기초하여 하나 이상의 키워드가 획득되고, 각 키워드에 대응되는 정서정보가 단어 정서 데이터베이스를 통해 획득될 수 있다. 단어 정서 데이터베이스는 단어와 해당 단어의 정서정보를 한 쌍으로 저장할 수 있고, 각 키워드와 단어 정서 데이터베이스에 저장된 단어들 간의 DB 매칭을 통해, 전자 디바이스는 각 키워드에 대응되는 정서정보를 획득할 수 있다. 예를 들어, "근심 (trouble)"이란 단어는 부정적이므로, 단어 정서 데이터베이스는 "근심 (trouble)"이란 단어와 "부정적"을 표상하는 정서정보를 한 쌍으로 저장할 수 있다. 정서정보는 텍스트, 코드, 기호, 숫자 등으로 이루어질 수 있으며, 그 조합에 의해 다양한 정서를 표상할 수 있다.When the story line of music is composed of text, one or more keywords are acquired based on the story line, and emotion information corresponding to each keyword can be acquired through the word emotion database. The word emotion database can store the words and the emotion information of the corresponding words in a pair and the electronic device can acquire emotion information corresponding to each keyword through DB matching between the words stored in the word emotion database . For example, since the word "trouble" is negative, the word emotion database may store a pair of emotional information representing the word " trouble "and the word" negative ". Emotion information can be composed of text, code, symbol, number, etc., and various emotions can be represented by the combination.

음악의 스토리라인이 하나 이상의 이미지로 구성된 경우, 해당 하나 이상의 이미지는 시맨틱 (semantic) 분석을 통해, 해당 하나 이상의 이미지의 의미에 대한 시맨틱 정보가 획득될 수 있고, 시맨틱 정보에 대응되는 정서정보가 단어 정서 데이터베이스를 통해 획득될 수 있다. 각 시맨틱 정보와 단어 정서 데이터베이스에 저장된 단어들 간의 DB 매칭을 통해, 전자 디바이스는 각 이미지에 대응되는 정서정보를 획득할 수 있다.When the story line of the music is composed of one or more images, the semantic information about the meaning of the one or more images can be obtained through the semantic analysis of the one or more images, and the emotion information corresponding to the semantic information Can be obtained through the emotion database. Through the DB matching between the respective semantic information and the words stored in the word emotion database, the electronic device can acquire emotion information corresponding to each image.

단어 정서 데이터베이스는 전자 디바이스에 미리 저장되어 있거나, 외부 서버에 미리 저장되어 있을 수 있다.The word emotion database may be pre-stored in the electronic device, or may be pre-stored in an external server.

단계 S430에서 전자 디바이스는 단계 S420에서 획득된 정서정보에 기초하여, 단계 S420에서 획득된 하나 이상의 이미지를 렌더링한다.In step S430, the electronic device renders the one or more images obtained in step S420 based on the emotion information obtained in step S420.

이미지를 렌더링하는 것은 해당 이미지를 본 사용자에게 특정 정서를 일으키기 위해, 해당 이미지의 색조, 채도, 명도, 대비, 및/또는 투명도 등을 조정하거나, 해당 이미지에 그래픽 효과를 주는 것을 의미한다.Rendering an image means adjusting the hue, saturation, brightness, contrast, and / or transparency of the image or giving a graphic effect to the image in order to generate a certain emotion for the user who viewed the image.

예를 들어, 획득된 정서정보가 부정적인 정서를 표상하는 경우, 이미지를 본 사용자에게 부정적인 정서를 일으키기 위해, 전자 디바이스는 획득된 이미지의 명도를 낮추거나, 채도를 낮출 수 있다.For example, if the acquired emotion information represents a negative emotion, the electronic device may lower the brightness of the acquired image or lower the saturation to cause a negative emotion to the user who viewed the image.

예를 들어, 획득된 정서정보가 긍정적인 정서를 표상하는 경우, 이미지를 본 사용자에게 긍정적인 정서를 일으키기 위해, 전자 디바이스는 획득된 이미지의 명도를 높이거나, 채도를 높일 수 있다.For example, if the acquired emotion information represents a positive emotion, the electronic device may increase the brightness of the acquired image, or increase the saturation, in order to generate a positive emotion for the user who viewed the image.

단계 S440에서 전자 디바이스는 단계 S430에서 렌더링된 하나 이상의 이미지를 디스플레이한다.In step S440, the electronic device displays one or more images rendered in step S430.

이미지가 렌더링되어 디스플레이되므로, 사용자는 재생되는 음악의 스토리라인을 보다 감동적으로 감상할 수 있다.Since the image is rendered and displayed, the user can enjoy the story line of the music to be played more sensitively.

일 실시예에 따르면, 스토리라인은 시간정보, 공간정보, 및 인물정보 중 적어도 하나에 기초하여 하나 이상의 단락으로 구분되고, 음악은 하나 이상의 단락과 대응되는 하나 이상의 음악 세그먼트로 구분될 수 있다.According to one embodiment, a story line is divided into one or more paragraphs based on at least one of time information, spatial information, and person information, and the music may be divided into one or more music segments corresponding to one or more paragraphs.

시간정보는 텍스트로 구성된 스토리라인에서 시간과 관련된 단어를 의미한다. 예를 들어, 시간과 관련된 단어는 아침, 정오, 밤, 봄, 여름, 가을, 겨울 등일 수 있다. 스토리라인이 "가을"이란 시간정보를 포함하는 경우, "가을"이 포함된 문장은 해당 문장의 이전 문장이 속한 단락의 다음 단락에 속한다.Time information refers to time related words in a story line composed of text. For example, the words related to time may be morning, noon, night, spring, summer, autumn, winter, and the like. If the story line contains the time information "fall", the sentence containing "fall" belongs to the next paragraph of the paragraph to which the previous sentence of that sentence belongs.

공간정보는 텍스트로 구성된 스토리라인에서 공간과 관련된 단어를 의미한다. 예를 들어, 공간과 관련된 단어는 산, 건물, 바다, 방, 집 등일 수 있다. 스토리라인이 "산"이란 공간정보를 포함하는 경우, "산"이 포함된 문장은 해당 문장의 이전 문장이 속한 단락의 다음 단락에 속한다.Spatial information is a space-related word in a story line composed of text. For example, words related to space can be mountain, building, sea, room, house, and so on. If the story line contains spatial information called "mountain", the sentence containing "mountain" belongs to the next paragraph of the paragraph to which the previous sentence of that sentence belongs.

인물정보는 텍스트로 구성된 스토리라인에서 인물과 관련된 단어를 의미한다. 예를 들어, 인물과 관련된 단어는 너, 당신, 나, 저, 그, 그녀, 인물의 이름 등일 수 있다. 스토리라인이 "그녀"란 인물정보를 포함하는 경우, "그녀"가 포함된 문장은 해당 문장의 이전 문장이 속한 단락의 다음 단락에 속한다.The character information means a word related to a person in a story line composed of text. For example, a word related to a person can be the name of you, you, me, me, him, her, and so on. If the story line contains person information "her", the sentence containing "her" belongs to the next paragraph of the paragraph to which the previous sentence of the sentence belongs.

스토리라인의 구분된 단락들은 스토리라인의 '기', '승', '전', 및 '결'에 연관될 수 있다. 스토리라인이 4개의 단락으로 구분되는 경우, 4개의 단락은 각각 스토리라인의 '기', '승', '전', 및 '결' 각각에 연관될 수 있다. 스토리라인이 3개의 단락으로 구분되는 경우, 3개의 단락 중 첫 번째 단락은 '기'에 연관되고, 두 번째 단락은 '승' 및 '전'에 연관되고, 세 번째 단락은 '결'에 연관될 수 있다. 스토리라인이 2개의 단락으로 구분되는 경우, 첫 번째 단락은 '기' 및 '승'에 연관되고, 두 번째 단락은 '전' 및 '결'에 연관될 수 있다. 스토리라인이 5개 이상의 단락으로 구분되는 경우, 첫 번째 단락은 '기'에 연관되고, 마지막 단락은 '결'에 연관되고, 나머지 단락들의 앞 단락들과 뒷 단락들이 동일하게 각각 '승' 및 '전'에 연관될 수 있다.The separated paragraphs of the storyline can be related to the 'period', 'win', 'former', and 'final' of the storyline. If the story line is divided into four paragraphs, then each of the four paragraphs may be associated with each of the 'period', 'win', 'former', and 'outcome' of the story line, respectively. If the story line is divided into three paragraphs, the first of the three paragraphs is associated with a period, the second paragraph is associated with a 'w' and 'before', the third paragraph is associated with a ' . If the storyline is divided into two paragraphs, the first paragraph may be associated with 'period' and 'w', and the second paragraph may be associated with 'former' and 'final'. If the story line is divided into five or more paragraphs, the first paragraph is associated with the period, the last paragraph is associated with the word, and the preceding and following paragraphs of the remaining paragraphs are equally divided into & Can be associated with 'before'.

음악의 스토리라인의 단락은 다른 방법으로 음악 세그먼트와 연관될 수 있다. 예를 들어, 대중 음악의 경우, 해당 대중 음악의 단락은 다음의 방법을 통해 음악 세그먼트와 연관될 수 있다. 설명의 편의를 위해, 해당 대중 음악은 인트로 (intro), 절 (verse), 코러스 (chorus), 및 브릿지 (bridge) 음악 세그먼트를 포함하는 것으로 가정한다. 스토리라인의 '기', '승', '전', 및 '결'은 인트로 (intro), 절 (verse), 코러스 (chorus), 및 브릿지 (bridge) 음악 세그먼트에 연관될 수 있다.The paragraph of the story line of the music can be associated with the music segment in other ways. For example, in the case of pop music, the paragraph of the pop music may be associated with the music segment in the following way. For convenience of explanation, it is assumed that the popular music includes an intro, a verse, a chorus, and a bridge music segment. The 'period', 'win', 'previous', and 'final' of the storyline can be associated with the intro, verse, chorus, and bridge music segments.

전자 디바이스에서 음악의 음악 세그먼트들은 연속적으로 재생될 수 있다. 해당 음악 세그먼트는 연관된 '기', '승', '전', 또는 '결'에 대응되고, '기', '승', '전', 또는 '결'은 스토리라인의 각 단락에 대응되므로, 어느 음악 세그먼트가 재생될 때, 전자 디바이스는 해당 음악 세그먼트에 대응되는 단락에 포함된 각 문장과 대응되는 이미지를 디스플레이할 수 있다.Music segments of music in an electronic device can be played back continuously. The corresponding music segment corresponds to the associated 'period', 'win', 'previous', or' result ', and' period ',' win ',' previous', or ' , When a music segment is reproduced, the electronic device can display an image corresponding to each sentence included in the paragraph corresponding to the music segment.

본 명세서에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 본 발명에서 전체적으로 병합하여 나타낸 것과 동일하게 본 발명에 병합될 수 있다.All publications, including publications, patent applications, patents, and the like, cited herein are incorporated herein by reference in their entirety as if each cited document were individually and specifically incorporated or represented in its entirety by incorporation herein .

본 발명의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 본 발명의 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 본 발명은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.In order to facilitate understanding of the present invention, reference will be made to the preferred embodiments shown in the drawings, and specific terminology is used to describe the embodiments of the present invention. However, the present invention is not limited to the specific terminology, Lt; / RTI > may include all elements commonly conceivable by those skilled in the art.

본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직 (logic), 룩업 테이블 (look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바 (Java), 어셈블러 (assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. ‘메커니즘’, ‘요소’, ‘수단’, ‘구성’과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들 (routines) 의 의미를 포함할 수 있다.The present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, the present invention may include integrated circuit configurations, such as memory, processing, logic, look-up tables, etc., that may perform various functions by control of one or more microprocessors or other control devices Can be adopted. Similar to the components of the present invention that may be implemented with software programming or software components, the present invention may be implemented as a combination of C, C ++, and C ++, including various algorithms implemented with data structures, processes, routines, , Java (Java), assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Further, the present invention can employ conventional techniques for electronic environment setting, signal processing, and / or data processing. Terms such as "mechanism," "element," "means," and "configuration" may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, ‘필수적인’, ‘중요하게’ 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly referred to as " essential ", " important ", etc., it may not be a necessary component for application of the present invention.

본 명세서 및 특허청구범위에서 ‘상기’의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 명세서에서 '범위 (range)'가 적용된 발명은 상기 범위에 속하는 개별적인 값이 적용된 발명을 포함하는 것으로서, 이에 반하는 기재가 없다면, 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어 (예들 들어, 등등) 의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms < RTI ID = 0.0 > and / or < / RTI > like terms used in the specification and claims may refer to both singular and plural. The scope of the present invention is defined by the appended claims. The scope of the present invention is defined by the appended claims rather than by the description preceding them. It is like. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the present invention only in detail and is not to be limited by the scope of the claims, It is not. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.

Claims (20)

전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득하는 단계;
상기 음악정보에 기초하여 상기 음악에 대한 스토리라인을 획득하는 단계;
상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계; 및
상기 하나 이상의 이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 멀티미디어 재생 방법.
The method comprising the steps of: acquiring music information about music reproduced in an electronic device;
Obtaining a story line for the music based on the music information;
Obtaining one or more images based on the story line; And
And displaying the at least one image.
제1 항에 있어서,
상기 음악정보는 상기 음악의 메타정보를 포함하고,
상기 스토리라인은 상기 메타정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
Wherein the music information includes meta information of the music,
Wherein the story line is obtained based on the meta information.
제1 항에 있어서,
상기 음악정보는 상기 음악의 오디오 지문 (audio fingerprint) 정보를 포함하고,
상기 스토리라인은 상기 오디오 지문 정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
Wherein the music information includes audio fingerprint information of the music,
Wherein the story line is obtained based on the audio fingerprint information.
제1 항에 있어서,
상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계는
상기 스토리라인에 기초하여 하나 이상의 키워드를 선택하는 단계를 포함하고,
상기 하나 이상의 이미지는 상기 선택된 하나 이상의 키워드에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
The step of acquiring one or more images based on the story line
Selecting one or more keywords based on the storyline,
Wherein the one or more images are obtained based on the one or more selected keywords.
제4 항에 있어서,
상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 단계는
상기 선택된 하나 이상의 키워드에 기초하여 복수의 후보 이미지를 획득하는 단계; 및
미리 결정된 기준에 기초하여 상기 복수의 후보 이미지 간의 우선순위를 결정하는 단계를 포함하고,
상기 하나 이상의 이미지는 상기 복수의 후보 이미지 중에서 상기 우선순위에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
5. The method of claim 4,
The step of acquiring one or more images based on the story line
Obtaining a plurality of candidate images based on the selected one or more keywords; And
Determining a priority between the plurality of candidate images based on a predetermined criterion,
Wherein the one or more images are obtained based on the priority among the plurality of candidate images.
제5 항에 있어서,
미리 결정된 기준에 기초하여 상기 복수의 후보 이미지 간의 우선순위를 결정하는 단계는
상기 복수의 후보 이미지의 시맨틱 정보를 획득하는 단계를 포함하고,
상기 우선순위는 상기 복수의 후보 이미지의 시맨틱 정보와 상기 스토리라인에 기초하여 선택된 키워드 간의 유사도에 의해 결정되는 것을 특징으로 하는 멀티미디어 재생 방법.
6. The method of claim 5,
Wherein determining the priority among the plurality of candidate images based on a predetermined criterion comprises:
And obtaining semantic information of the plurality of candidate images,
Wherein the priority is determined by the similarity between the semantic information of the plurality of candidate images and the keyword selected based on the story line.
제1 항에 있어서,
상기 스토리라인은 텍스트로 구성된 하나 이상의 문장을 포함하고,
상기 하나 이상의 이미지는 상기 하나 이상의 문장에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
The story line includes one or more sentences composed of text,
Wherein the one or more images are obtained based on the one or more sentences.
제7 항에 있어서,
상기 하나 이상의 문장은 유사성에 기초하여 하나 이상의 문단을 구성하고,
상기 음악은 상기 하나 이상의 문단과 대응되는 하나 이상의 음악 세그먼트로 구분되고,
상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 방법.
8. The method of claim 7,
Wherein the one or more sentences comprise one or more paragraphs based on similarity,
Wherein the music is divided into one or more music segments corresponding to the one or more paragraphs,
Wherein the one or more images are displayed based on the one or more music segments.
제7 항에 있어서,
상기 스토리라인은 상기 음악의 가사이고,
상기 음악정보는 상기 가사에 대한 가사정보를 포함하고,
상기 하나 이상의 이미지는 상기 가사정보에 기초하여 디스플레이되는 것을 특징으로 하는 멀티미디어 재생 방법.
8. The method of claim 7,
The story line is the lyrics of the music,
Wherein the music information includes lyrics information about the lyrics,
Wherein the one or more images are displayed based on the lyric information.
제1 항에 있어서,
상기 스토리라인에 기초하여, 정서정보를 획득하는 단계를 더 포함하고,
상기 하나 이상의 이미지는 상기 정서정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
Further comprising the step of acquiring emotion information based on the storyline,
Wherein the at least one image is obtained based on the emotion information.
제10 항에 있어서,
상기 하나 이상의 이미지는 상기 정서정보에 기초하여 렌더링되는 것을 특징으로 하는 멀티미디어 재생 방법.
11. The method of claim 10,
Wherein the one or more images are rendered based on the emotion information.
제1 항에 있어서,
상기 스토리라인은 시간정보, 공간정보, 및 인물정보 중 적어도 하나에 기초하여 하나 이상의 단락으로 구분되고,
상기 음악은 상기 하나 이상의 단락과 대응되는 하나 이상의 음악 세그먼트로 구분되고,
상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 방법.
The method according to claim 1,
Wherein the story line is divided into one or more paragraphs based on at least one of time information, spatial information, and person information,
Wherein the music is divided into one or more music segments corresponding to the one or more paragraphs,
Wherein the one or more images are displayed based on the one or more music segments.
전자 디바이스에서 재생되는 음악에 대한 음악정보를 획득하고,
상기 음악정보에 기초하여 상기 음악에 대한 스토리라인을 획득하고,
상기 스토리라인에 기초하여 하나 이상의 이미지를 획득하는 제어부; 및
상기 하나 이상의 이미지를 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 하는 멀티미디어 재생 디바이스.
Acquiring music information about music reproduced in the electronic device,
Acquiring a story line for the music based on the music information,
A control unit for acquiring one or more images based on the story line; And
And a display unit for displaying the one or more images.
제13 항에 있어서,
상기 음악정보는 상기 음악의 메타정보를 포함하고,
상기 스토리라인은 상기 메타정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
Wherein the music information includes meta information of the music,
Wherein the story line is obtained based on the meta information.
제13 항에 있어서,
상기 음악정보는 상기 음악의 오디오 지문 (audio fingerprint) 정보를 포함하고,
상기 스토리라인은 상기 오디오 지문 정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
Wherein the music information includes audio fingerprint information of the music,
Wherein the story line is obtained based on the audio fingerprint information.
제13 항에 있어서,
상기 제어부는 상기 스토리라인에 기초하여 하나 이상의 키워드를 선택하고,
상기 하나 이상의 이미지는 상기 선택된 하나 이상의 키워드에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
Wherein the control unit selects one or more keywords based on the story line,
Wherein the one or more images are obtained based on the one or more selected keywords.
제13 항에 있어서,
상기 스토리라인은 일련의 텍스트로 구성된 하나 이상의 문장을 포함하고,
상기 하나 이상의 이미지는 상기 하나 이상의 문장에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
The story line includes one or more sentences composed of a series of texts,
Wherein the one or more images are obtained based on the one or more sentences.
제13 항에 있어서,
상기 제어부는 상기 스토리라인에 기초하여 상기 음악과 관련된 정서정보를 더 획득하고,
상기 하나 이상의 이미지는 상기 정서정보에 기초하여 획득되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
Wherein the control unit further obtains emotion information related to the music based on the story line,
Wherein the at least one image is obtained based on the emotion information.
제13 항에 있어서,
상기 스토리라인은 시간정보, 공간정보, 및 인물정보 중 적어도 하나에 기초하여 하나 이상의 단락으로 구분되고,
상기 음악은 상기 하나 이상의 단락과 대응되는 하나 이상의 음악 세그먼트로 구분되고,
상기 하나 이상의 이미지는 상기 하나 이상의 음악 세그먼트에 기초하여 디스플레이 되는 것을 특징으로 하는 멀티미디어 재생 디바이스.
14. The method of claim 13,
Wherein the story line is divided into one or more paragraphs based on at least one of time information, spatial information, and person information,
Wherein the music is divided into one or more music segments corresponding to the one or more paragraphs,
Wherein the one or more images are displayed based on the one or more music segments.
제1 항 내지 제12 항 중 어느 한 항의 멀티미디어 재생 방법을 구현하기 위한 프로그램이 기록된, 컴퓨터로 판독 가능한 기록 매체.13. A computer-readable recording medium on which a program for implementing the multimedia reproducing method according to any one of claims 1 to 12 is recorded.
KR1020150084338A 2014-07-03 2015-06-15 Method and device for playing multimedia KR102396375B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15175311.8A EP2963651A1 (en) 2014-07-03 2015-07-03 Method and device for playing multimedia
US14/792,045 US10565754B2 (en) 2014-07-03 2015-07-06 Method and device for playing multimedia
KR1020220055711A KR102527281B1 (en) 2014-07-03 2022-05-04 Method and device for playing multimedia

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410314821.2A CN105224581B (en) 2014-07-03 2014-07-03 The method and apparatus of picture are presented when playing music
CN201410314821.2 2014-07-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220055711A Division KR102527281B1 (en) 2014-07-03 2022-05-04 Method and device for playing multimedia

Publications (2)

Publication Number Publication Date
KR20160004914A true KR20160004914A (en) 2016-01-13
KR102396375B1 KR102396375B1 (en) 2022-05-10

Family

ID=54993550

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150084338A KR102396375B1 (en) 2014-07-03 2015-06-15 Method and device for playing multimedia

Country Status (2)

Country Link
KR (1) KR102396375B1 (en)
CN (1) CN105224581B (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930485A (en) * 2016-04-28 2016-09-07 深圳市金立通信设备有限公司 Audio media playing method, communication device and network system
CN106851362A (en) * 2016-12-15 2017-06-13 咪咕音乐有限公司 The player method and device of a kind of content of multimedia
CN108205550B (en) * 2016-12-16 2021-03-12 北京酷我科技有限公司 Audio fingerprint generation method and device
CN110521213B (en) * 2017-03-23 2022-02-18 韩国斯诺有限公司 Story image making method and system
CN109802987B (en) * 2018-09-11 2021-05-18 北京京东方技术开发有限公司 Content push method for display device, push device and display equipment
CN109446350B (en) * 2018-11-09 2022-03-15 腾讯音乐娱乐科技(深圳)有限公司 Multimedia playing method, device, terminal and storage medium
CN109615682A (en) * 2018-12-07 2019-04-12 北京微播视界科技有限公司 Animation producing method, device, electronic equipment and computer readable storage medium
CN109817242A (en) * 2019-01-30 2019-05-28 北京雷石天地电子技术有限公司 A kind of audio matching method and device
CN110209844B (en) * 2019-05-17 2021-08-31 腾讯音乐娱乐科技(深圳)有限公司 Multimedia data matching method, device and storage medium
CN111596841B (en) * 2020-04-28 2021-09-07 维沃移动通信有限公司 Image display method and electronic equipment
CN111935537A (en) * 2020-06-30 2020-11-13 百度在线网络技术(北京)有限公司 Music video generation method and device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060008897A (en) * 2003-04-14 2006-01-27 코닌클리케 필립스 일렉트로닉스 엔.브이. Method and apparatus for summarizing a music video using content analysis
KR20080043129A (en) * 2006-11-13 2008-05-16 삼성전자주식회사 Method for recommending photo using music of mood and system thereof
KR20110121830A (en) * 2010-05-03 2011-11-09 삼성전자주식회사 Apparatus and method for automatically producing music video in mobile communication terminal
JP2012220582A (en) * 2011-04-05 2012-11-12 Sony Corp Music playback device, music playback method, program, and data creation device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0230097D0 (en) * 2002-12-24 2003-01-29 Koninkl Philips Electronics Nv Method and system for augmenting an audio signal
US20090307207A1 (en) * 2008-06-09 2009-12-10 Murray Thomas J Creation of a multi-media presentation
US8676869B2 (en) * 2008-07-18 2014-03-18 Sony Corporation Adaptive display for enhancing audio playback
JP5306114B2 (en) * 2009-08-28 2013-10-02 Kddi株式会社 Query extraction device, query extraction method, and query extraction program
WO2012177229A1 (en) * 2011-06-21 2012-12-27 Echostar Ukraine, L.L.C. Apparatus, systems and methods for identifying image objects using audio commentary

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060008897A (en) * 2003-04-14 2006-01-27 코닌클리케 필립스 일렉트로닉스 엔.브이. Method and apparatus for summarizing a music video using content analysis
KR20080043129A (en) * 2006-11-13 2008-05-16 삼성전자주식회사 Method for recommending photo using music of mood and system thereof
KR20110121830A (en) * 2010-05-03 2011-11-09 삼성전자주식회사 Apparatus and method for automatically producing music video in mobile communication terminal
JP2012220582A (en) * 2011-04-05 2012-11-12 Sony Corp Music playback device, music playback method, program, and data creation device

Also Published As

Publication number Publication date
CN105224581B (en) 2019-06-21
CN105224581A (en) 2016-01-06
KR102396375B1 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
KR102527281B1 (en) Method and device for playing multimedia
KR102396375B1 (en) Method and device for playing multimedia
US10417344B2 (en) Exemplar-based natural language processing
US11947873B2 (en) Virtual assistant for media playback
US11069347B2 (en) Intelligent automated assistant for media exploration
AU2017100581B4 (en) Intelligent automated assistant for media exploration
US10885091B1 (en) System and method for content playback
JP2022084707A (en) Extended remote digital assistant service
JP5855223B2 (en) Synchronized content playback management
US10467287B2 (en) Systems and methods for automatically suggesting media accompaniments based on identified media content
US20180052824A1 (en) Task identification and completion based on natural language query
US20140201276A1 (en) Accumulation of real-time crowd sourced data for inferring metadata about entities
JP5359534B2 (en) Information processing apparatus and method, and program
US20100017381A1 (en) Triggering of database search in direct and relational modes
EP3593346B1 (en) Graphical data selection and presentation of digital content
US20210183379A1 (en) Detection of story reader progress for pre-caching special effects
US11526671B2 (en) Reading progress estimation based on phonetic fuzzy matching and confidence interval
US11830497B2 (en) Multi-domain intent handling with cross-domain contextual signals
US20230089870A1 (en) Audio recognition method, electronic device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant