KR102614762B1 - Electronic Picture Frame, Method and Computer Program for Driving Thereof - Google Patents

Electronic Picture Frame, Method and Computer Program for Driving Thereof Download PDF

Info

Publication number
KR102614762B1
KR102614762B1 KR1020210089940A KR20210089940A KR102614762B1 KR 102614762 B1 KR102614762 B1 KR 102614762B1 KR 1020210089940 A KR1020210089940 A KR 1020210089940A KR 20210089940 A KR20210089940 A KR 20210089940A KR 102614762 B1 KR102614762 B1 KR 102614762B1
Authority
KR
South Korea
Prior art keywords
source data
metadata
target image
sound source
plate
Prior art date
Application number
KR1020210089940A
Other languages
Korean (ko)
Other versions
KR20230009207A (en
Inventor
박영우
김수빈
장상수
문진영
한민주
육기철
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020210089940A priority Critical patent/KR102614762B1/en
Publication of KR20230009207A publication Critical patent/KR20230009207A/en
Application granted granted Critical
Publication of KR102614762B1 publication Critical patent/KR102614762B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1605Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Abstract

본 발명의 일 실시예에 따른 전자 액자는 타겟 영상을 디스플레이하는 디스플레이부; 상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및 상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는, 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고, 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며, 상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력한다.An electronic picture frame according to an embodiment of the present invention includes a display unit that displays a target image; a speaker unit that reproduces a target sound source related to the target image; and a processor that controls output of content through the display unit and the speaker unit, wherein the processor obtains first metadata of the target image including a shooting time of the target image from a user terminal, and the first Receive first source data including sound source data having second metadata whose relevance to metadata satisfies a predetermined standard, and link the first source data with the target video according to a predetermined playback rule to create a first source data. 1 Output data is generated, and the target image and the target sound source according to the first output data are output using the display unit and the speaker unit.

Description

전자 액자, 이의 구동 방법 및 컴퓨터 프로그램 {Electronic Picture Frame, Method and Computer Program for Driving Thereof}Electronic Picture Frame, Method and Computer Program for Driving Thereof}

본 발명은 전자 액자, 이의 구동 방법 및 컴퓨터 프로그램에 관한 것으로, 더 상세하게는 영상의 메타 데이터를 이용하여 영상 및 연관 음악을 함께 디스플레이하는 전자 액자, 이의 구동 방법 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to an electronic picture frame, a method of driving the same, and a computer program, and more specifically, to an electronic picture frame, a method of driving the same, and a computer program that displays an image and associated music together using metadata of the image.

최근 전자 기술의 발달로 인해 사용자에게 영상 및 음악 등의 다양한 컨텐츠를 제공하는 기술 또한 다양해지고 발전하는 추세이다. 특히 디지털 액자 또는 전자 액자는 사용자가 제공 받기를 원하는 영상을 슬라이드쇼 등의 다양한 출력 형태로, 또는 영상과 음원을 함께 출력하여 컨텐츠를 효과적으로 전달할 수 있다. Due to the recent development of electronic technology, technologies for providing various contents such as videos and music to users are also becoming more diverse and evolving. In particular, a digital picture frame or electronic picture frame can effectively deliver content by outputting the video the user wants to receive in various output formats such as a slideshow, or by outputting the video and sound together.

그러나, 디지털 액자를 통해 제공되는 음원은 주로 영상과 독립적으로 선택되어 영상과의 연관성이 낮아 컨텐츠의 전달력에 한계가 있다. 이에 컨텐츠를 사용자 맞춤형으로 가공하여 더 효과적으로 전달하는 기술에 대한 필요성이 증대되고 있다.However, the sound source provided through the digital picture frame is mainly selected independently from the video and has a low correlation with the video, limiting the ability to transmit content. Accordingly, the need for technology to process content in a customized manner and deliver it more effectively is increasing.

본 발명의 실시예들은 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 전달할 수 있는 전자 액자 및 그 구동 방법을 제공하고자 한다.Embodiments of the present invention use a speaker-combined electronic picture frame to display an image and related music together based on metadata about the time when the image was captured, thereby providing a rich recall experience for a specific point in time to provide user-customized content. The goal is to provide an electronic picture frame that can effectively transmit information and a method of driving it.

본 발명의 일 실시예에 따른 전자 액자는 타겟 영상을 디스플레이하는 디스플레이부; 상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및 상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는, 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고, 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며, 상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력한다.An electronic picture frame according to an embodiment of the present invention includes a display unit that displays a target image; a speaker unit that reproduces a target sound source related to the target image; and a processor that controls output of content through the display unit and the speaker unit, wherein the processor obtains first metadata of the target image including a shooting time of the target image from a user terminal, and the first Receive first source data including sound source data having second metadata whose relevance to metadata satisfies a predetermined standard, and link the first source data with the target video according to a predetermined playback rule to create a first source data. 1 Output data is generated, and the target image and the target sound source according to the first output data are output using the display unit and the speaker unit.

상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고, 상기 제1 출력 데이터를 생성할 때, 상기 프로세서는 상기 제1 메타 데이터 및 상기 제2 메타 데이터를 시간적 관점에서 연동할 수 있다.The second metadata includes information on the date and time at which the sound source data was reproduced, the number of reproductions of the sound source data corresponding to the reproduced date and time, and when generating the first output data, the processor 1 metadata and the second metadata can be linked from a time perspective.

상기 프로세서는, 상기 제1 소스 데이터를 수신하는 단계에 있어서, 상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나, 상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다.In the step of receiving the first source data, the first source data is received from the user terminal and is selected based on the user's playback record, or the first source data is received from the user terminal and It is received from another service server and can be selected based on the playback records of the user and users other than the user.

상기 프로세서는, 상기 제1 출력 데이터를 생성하는 단계에 있어서, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 상기 타겟 음원을 선택하고, 상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하고, 상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성할 수 있다.In the step of generating the first output data, the processor selects the target sound source from the first source data according to the playback rule, and applies the playback rule to the target sound source to determine the playback order and playback time. And the playback mode may be set differently to generate second source data, and the first output data may be generated by linking the second source data with the target image.

상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며, 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출될 수 있다.The electronic picture frame includes a first plate and a second plate disposed to face the first plate, the first plate is provided to slide through a sliding member with respect to the second plate, and the first plate and the At least a portion of the speaker unit may be exposed through a sliding operation of at least one of the second plates.

상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고, 상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함할 수 있다.The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate, and the sensing unit generates a voltage by a magnet portion and a magnetic field applied according to the movement of the magnet portion. It may include a Hall sensor.

상기 프로세서는, 상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하고, 상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하도록 제어할 수 있다.The processor generates an output control signal based on the voltage generated by the sensing unit, displays the target image through the display unit and plays the target sound source through the speaker unit according to the output control signal. .

본 발명의 일 실시예에 따른 하는 전자 액자의 구동 방법은 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하는 단계; 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하는 단계; 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하는 단계; 및 디스플레이부 및 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 타겟 음원을 출력하는 단계;를 포함한다.A method of driving an electronic picture frame according to an embodiment of the present invention includes obtaining first metadata of the target image including the shooting time of the target image from a user terminal; Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion; generating first output data by linking the first source data with the target image according to a predetermined playback rule; and outputting the target image and target sound source according to the first output data using a display unit and a speaker unit.

상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 시각에 관한 정보, 상기 재생된 시각에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고, 상기 제1 출력 데이터를 생성하는 단계에서, 상기 제1 메타 데이터 및 상기 제2 메타 데이터는 시간적 관점에서 연동될 수 있다.The second metadata includes information about the time at which the sound source data was reproduced, the number of reproductions of the sound source data corresponding to the reproduced time, and in the step of generating the first output data, the first metadata Data and the second metadata may be linked from a time perspective.

상기 제1 소스 데이터를 수신하는 단계에서, 상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나, 상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다.In the step of receiving the first source data, the first source data is received from the user terminal and is selected based on the user's playback record, or the first source data is received from a service server different from the user terminal. As such, the selection may be made based on the playback records of the user and users other than the user.

상기 제1 출력 데이터를 생성하는 단계는, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택하는 단계; 상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하는 단계; 및 상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는 단계를 포함할 수 있다.Generating the first output data may include selecting a target sound source from the first source data according to the playback rule; generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode; and generating the first output data by linking the second source data with the target image.

상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며, 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출될 수 있다.The electronic picture frame includes a first plate and a second plate disposed to face the first plate, the first plate is provided to slide with respect to the second plate through a sliding member, and the first plate and the At least a portion of the speaker unit may be exposed through a sliding operation of at least one of the second plates.

상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고, 상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함할 수 있다.The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate, and the sensing unit generates a voltage by a magnet portion and a magnetic field applied according to the movement of the magnet portion. It may include a Hall sensor.

상기 제1 출력 데이터를 출력하는 단계는, 상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계; 및 상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하는 단계;를 포함할 수 있다.Outputting the first output data may include generating an output control signal based on the voltage generated by the sensing unit; and displaying the target image through the display unit and reproducing the target sound source through the speaker unit according to the output control signal.

한편, 본 발명의 일 실시예에 따른 컴퓨터 프로그램은 상술한 방법을 컴퓨터를 이용하여 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다.Meanwhile, a computer program according to an embodiment of the present invention may be stored in a computer-readable storage medium in order to execute the above-described method using a computer.

본 발명의 실시예들에 따르면, 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 제공할 수 있다.According to embodiments of the present invention, a speaker-combined electronic picture frame is used to display an image and music related to it based on metadata about the time when the image was captured, thereby providing a rich recollection experience for a specific point in time to the user. Customized content can be provided effectively.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 전달 시스템의 구성을 간략히 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 전자 액자의 구성의 다측면도이다.
도 3은 본 발명의 일 실시예에 따른 전자 액자의 구성을 분해하여 바라본 사시도이다.
도 4는 본 발명의 일 실시예에 따른 전자 액자의 구성을 분해하여 그 내부 구성을 상면에서 바라본 상면도이다.
도 5는 본 발명의 일 실시예에 따른 전자 액자의 물리적 구동을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자 액자의 컨텐츠 디스플레이를 위한 구동 방법을 설명하기 위한 순서도이다.
1 is a diagram briefly illustrating the configuration of a content delivery system according to an embodiment of the present invention.
Figure 2 is a multi-side view of the configuration of an electronic picture frame according to an embodiment of the present invention.
Figure 3 is an exploded perspective view of the structure of an electronic picture frame according to an embodiment of the present invention.
Figure 4 is a top view of the internal structure of the electronic picture frame according to an embodiment of the present invention, disassembled and viewed from the top.
Figure 5 is a diagram for explaining the physical operation of an electronic picture frame according to an embodiment of the present invention.
Figure 6 is a flowchart for explaining a driving method for displaying content of an electronic picture frame according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. In the following examples, singular terms include plural terms unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean that the features or components described in the specification exist, and do not exclude in advance the possibility of adding one or more other features or components. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.

이하의 실시예에서, 영역, 구성 요소, 부, 블록, 모듈 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록, 모듈 등이 개재되어 있는 경우도 포함한다.In the following embodiments, when a part such as a region, component, unit, block, module, etc. is said to be on or on another part, it is not only the case that it is directly on top of the other part, but also the other area, component, or module in between. , blocks, modules, etc. are included.

이하의 실시예에서, 영역, 구성 요소, 부, 블록, 모듈 등이 연결되었다고 할 때, 영역, 구성 요소, 부, 블록, 모듈들이 직접적으로 연결된 경우뿐만 아니라 영역, 구성 요소, 부, 블록, 모듈들 중간에 다른 영역, 구성 요소, 부, 블록, 모듈들이 개재되어 간접적으로 연결된 경우도 포함한다. 예컨대, 본 명세서에서 영역, 구성 요소, 부, 블록, 모듈 등이 전기적으로 연결되었다고 할 때, 영역, 구성 요소, 부, 블록, 모듈 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록, 모듈 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.In the following embodiments, when areas, components, parts, blocks, modules, etc. are connected, not only are the areas, components, parts, blocks, and modules directly connected, but also the areas, components, parts, blocks, and modules are connected. This also includes cases where other areas, components, parts, blocks, and modules are interposed and indirectly connected. For example, in this specification, when areas, components, parts, blocks, modules, etc. are said to be electrically connected, not only are the areas, components, parts, blocks, modules, etc. directly electrically connected, but also other areas in between, It also includes cases where components, parts, blocks, modules, etc. are indirectly electrically connected.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 전달 시스템(1000)의 구성을 간략히 도시한 구성도이다.Figure 1 is a configuration diagram briefly illustrating the configuration of a content delivery system 1000 according to an embodiment of the present invention.

본 발명의 컨텐츠 전달 시스템(1000)은 전자 액자(100), 사용자 단말(200) 및 서비스 서버(300)를 이용하여 구현될 수 있다. 실시예에 따라서 컨텐츠 전달 시스템(1000)은 서비스 서버(300)를 이용하지 않고 전자 액자(100) 및 사용자 단말(200)만을 이용하여 구현될 수도 있다. 본 발명의 전자 액자(100)는 무선 또는 유선 통신 방식을 이용하여 네트워크(400)를 통해 사용자 단말(200) 및/또는 서비스 서버(300)와 통신할 수 있다.The content delivery system 1000 of the present invention can be implemented using an electronic photo frame 100, a user terminal 200, and a service server 300. Depending on the embodiment, the content delivery system 1000 may be implemented using only the electronic photo frame 100 and the user terminal 200 without using the service server 300. The electronic picture frame 100 of the present invention can communicate with the user terminal 200 and/or the service server 300 through the network 400 using a wireless or wired communication method.

이하에서, '메타 데이터'라 함은 사진(image), 동영상을 포함하는 영상 데이터나 음원 데이터에 관한 다양하고 세부적인 정보를 담는 데이터를 의미한다. Hereinafter, 'metadata' refers to data containing various and detailed information about video data or sound source data, including photos (images) and videos.

영상 데이터의 메타 데이터는 영상 획득 당시의 촬영환경에 관한 다양한 정보를 포함할 수 있다. 예를 들어, 영상의 메타 데이터(이하에서, 제1 메타 데이터로 지칭할 수 있음)는 촬영 시점, 촬영 위치, 영상 크기(용량), 해상도, 재확인 횟수, 그 영상이 획득된 장치에 관한 장치 사양, 장치 설정 정보, 그 장치에 저장된 파일 형식, 방향 정보 및 아티스트/저작권 정보 등을 포함할 수 있다. Metadata of video data may include various information about the shooting environment at the time of video acquisition. For example, the metadata of the image (hereinafter referred to as first metadata) may include the shooting time, shooting location, image size (capacity), resolution, number of re-checks, and device specifications regarding the device on which the image was acquired. , device settings information, file formats stored on the device, orientation information, and artist/copyright information, etc.

음원의 메타 데이터는 음원 생성/재생 당시의 다양한 정보를 포함할 수 있다. 예를 들어, 음원의 메타 데이터(이하에서, 제2 메타 데이터로 지칭할 수 있음)는 음악 앨범이나 개별곡의 아티스트, 장르, 발표 시간, 곡의 길이(파일 크기) 및 파일 형식 등을 포함할 수 있다. 특히 본 발명의 제2 메타 데이터는 해당 음원의 사용자 단말(200) 및/또는 서비스 서버(300)를 통해 그 음원을 들었던 재생 일시(날짜, 시각), 재생/스트리밍 시간, 재생 횟수를 포함할 수 있다.Metadata of a sound source may include various information at the time of sound source creation/playback. For example, metadata of a sound source (hereinafter referred to as second metadata) may include the artist, genre, release time, song length (file size), and file format of a music album or individual song. You can. In particular, the second metadata of the present invention may include the play date (date, time), play/streaming time, and number of plays when the sound source was heard through the user terminal 200 and/or service server 300 of the sound source. there is.

본 발명의 실시예들에 따른 전자 액자(100) 및 그 구동 방법은 특정 시점에 촬영된 이미지(image), 동영상을 포함하는 영상 컨텐츠와, 상기 특정 시점을 메타 데이터로 공유하는 음원 컨텐츠를 함께 출력하여 풍부한 회상 경험을 제공함으로써, 상기 컨텐츠를 제공한 사용자가 특정 시점에 관하여 사진을 통한 순간적이고 단편적인 회상을 넘어 음악 감상 이력을 통한 입체적인 회상이 가능한 이점이 있다. The electronic picture frame 100 and its driving method according to embodiments of the present invention output video content including images and videos taken at a specific point in time, and sound source content sharing the specific point in time as metadata. By providing a rich reminiscence experience, there is an advantage in that the user who provided the content can have a three-dimensional recollection through music listening history beyond instantaneous and fragmentary recollection through photos regarding a specific point in time.

본 발명의 전자 액자(100)는 통신부(110), 프로세서(120), 메모리(130) 및 입출력 장치를 포함할 수 있다. 입출력 장치는 일 예로 디스플레이(140) 및 스피커(150)를 포함할 수 있다.The electronic picture frame 100 of the present invention may include a communication unit 110, a processor 120, a memory 130, and an input/output device. The input/output device may include a display 140 and a speaker 150, for example.

통신부(110)는 네트워크(400)를 통해 전자 액자(100)가 다양한 유형의 통신 방식에 따라 다양한 유형의 사용자 단말(200) 등의 외부 장치 및/또는 서비스 서버(300) 등의 외부 서버와 통신하기 위한 기능을 제공할 수 있다. 일 예로 전자 액자(100)의 프로세서(120)가 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(110)의 제어에 따라 네트워크(400)를 통해 외부 장치 및/또는 서버로 전달될 수 있다. The communication unit 110 communicates with external devices such as various types of user terminals 200 and/or external servers such as the service server 300 according to various types of communication methods through the network 400. Functions for doing so can be provided. As an example, a request generated by the processor 120 of the electronic photo frame 100 according to a program code stored in a recording device such as memory 130 is sent to an external device and/or through the network 400 under the control of the communication unit 110. Can be passed on to the server.

본 발명의 프로세서(120)는 사용자 단말(200)로부터 디스플레이할 타겟 영상의 촬영 시각(일시)을 포함한 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와 관련된 제2 메타 데이터를 가지는 음원 데이터를 제1 소스 데이터를 수신할 수 있다. 이후, 상기 타겟 영상과 상기 제1 소스 데이터를 소정의 기준에 따라 융합하여 제1 출력 데이터를 생성한 후, 후술하는 디스플레이(140) 및 스피커(150)를 이용하여 상기 제1 출력 데이터를 출력할 수 있다. The processor 120 of the present invention obtains first metadata including the shooting time (date and time) of the target image to be displayed from the user terminal 200, and generates sound source data having second metadata related to the first metadata. First source data may be received. Thereafter, the target image and the first source data are fused according to a predetermined standard to generate first output data, and then the first output data is output using the display 140 and speaker 150, which will be described later. You can.

프로세서(120)는 촬영 시기, 재생 시기 등의 시간적 관점의 메타 데이터를 공유하는 서로 다른 형태의 디지털 컨텐츠를 결합함으로써 사용자에게 특정 시점에 관하여 풍부한 회상 경험을 제공하여 사용자 맞춤형 컨텐츠를 효과적으로 전달할 수 있다. 본 발명의 프로세서(120)를 이용한 전자 액자(100)의 영상 및 음원의 메타 데이터를 활용한 컨텐츠의 출력 방법에 관하여는 후술하는 도 6에서 더 상세히 설명한다.The processor 120 can effectively deliver user-customized content by combining different types of digital content that share temporal metadata, such as shooting time and playback time, to provide the user with a rich recall experience regarding a specific point in time. The method of outputting content using the metadata of the image and sound source of the electronic photo frame 100 using the processor 120 of the present invention will be described in more detail with reference to FIG. 6 described later.

프로세서(120)는 메모리(130)에 저장된 각종 프로그램을 이용하여 전자 액자(100)를 전반적으로 제어하는 동작을 수행할 수 있다. 프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 통신부(110) 또는 메모리(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 프로세서(120)는 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 포함할 수 있으나, 이에 한정되지 않는다.The processor 120 may perform an operation to generally control the electronic picture frame 100 using various programs stored in the memory 130. The processor 120 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processor 120 by the communication unit 110 or the memory 130. For example, the processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 130. The processor 120 includes a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), and a field programmable gate array (FPGA). ) may include processing devices such as, but are not limited to this.

메모리(130)는 전자 액자(100)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리(130)는 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 130 functions to temporarily or permanently store data processed by the electronic picture frame 100. The memory 130 may include a non-permanent mass storage device such as RAM (Random Access Memory), ROM (Read Only Memory), and a disk drive, but the scope of the present invention is not limited thereto. .

디스플레이부(140)는 출력 장치의 일 예로서, 사진(image), 동영상 또는 이들의 모음으로 구성되는 슬라이드쇼 등의 영상 컨텐츠를 디스플레이할 수 있다.The display unit 140 is an example of an output device and can display video content such as photos (images), videos, or a slideshow consisting of a collection of these.

스피커부(150)는 출력 장치의 다른 예로서, 상기 영상 컨텐츠와 함께 재생될 음원 데이터를 출력할 수 있다.The speaker unit 150 is another example of an output device and can output sound source data to be played along with the video content.

본 도면에서는 전자 액자(100)의 각 구성요소들을 별개의 구성요소로 도시하였으나, 실시예에 따라서 각 구성요소는 필요에 따라 하나의 모듈로 통합하여 구현될 수도 있고, 별개의 모듈로 구현될 수 있음은 물론이다.In this drawing, each component of the electronic picture frame 100 is shown as a separate component, but depending on the embodiment, each component may be integrated into one module or implemented as a separate module, if necessary. Of course it exists.

사용자 단말(200)은 사용자의 조작에 따라 전자 액자(100)를 통해 출력할 영상 컨텐츠 및/또는 이와 연관된 음원 컨텐츠를 전자 액자(100)에 전송할 수 있다. 사용자 단말(200)은 컴퓨터 장치로 구현되는 고정형 단말 또는 이동형 단말일 수 있다. 사용자 단말(200)은 일 예로 스마트폰, 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 테블릿 PC 등일 수 있으나, 이에 한정되지 않는다. 실시예에 따라서, 사용자는 사용자 단말(200)의 프로세서를 통해 전자 액자(100)를 통해 출력될 출력 데이터를 제어할 수 있다.The user terminal 200 may transmit image content and/or sound source content related thereto to be output through the electronic photo frame 100 to the electronic photo frame 100 according to the user's operation. The user terminal 200 may be a fixed terminal or a mobile terminal implemented as a computer device. The user terminal 200 may be, for example, a smartphone, mobile phone, navigation device, computer, laptop, digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), tablet PC, etc., but is not limited thereto. Depending on the embodiment, the user may control output data to be output through the electronic photo frame 100 through the processor of the user terminal 200.

서비스 서버(300)는 전자 액자(100) 및 사용자 단말(200)과 별도로 구비되는 외부 서버로서, 일 예로 음원 스트리밍 서버일 수 있다. 서비스 서버(300)는 디지털 음원을 사용자 단말(200)(또는 전자 액자(100)) 등의 스트리밍 장치로 제공하는 역할을 할 수 있다. 서비스 서버(300)에는 다수의 사용자들의 음원 스트리밍 기록에 관한 데이터베이스가 저장될 수 있고, 이러한 데이터베이스는 네트워크(400)를 통해 전자 액자(100) 및/또는 사용자 단말(200)로 전송되어 전자 액자(100)의 컨텐츠 제공에 활용될 수 있다. The service server 300 is an external server provided separately from the electronic photo frame 100 and the user terminal 200, and may be a music streaming server, for example. The service server 300 may serve to provide digital sound sources to a streaming device such as the user terminal 200 (or the electronic picture frame 100). The service server 300 may store a database regarding music streaming records of multiple users, and this database is transmitted to the electronic picture frame 100 and/or the user terminal 200 through the network 400 to display the electronic picture frame ( 100) can be used to provide content.

본 도면에는 도시되어 있지 않으나 사용자 단말(200) 및 서비스 서버(300) 또한 통신부, 프로세서 및 메모리를 포함할 수 있으며, 각 구성요소는 전자 액자(100)의 각 구성요소와 대응하는 기능을 가질 수 있다. 일 예로, 사용자 단말(200), 서비스 서버(300) 또한 각각의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 콘텐츠, 파일 등이 각각의 통신부와 네트워크(400)를 거쳐 전자 액자(100)의 통신부(110)를 통해 전자 액자(100)로 수신될 수 있다.Although not shown in this drawing, the user terminal 200 and the service server 300 may also include a communication unit, a processor, and memory, and each component may have a function corresponding to each component of the electronic picture frame 100. there is. As an example, the user terminal 200, the service server 300, and control signals, commands, contents, files, etc. provided according to the control of each processor are transmitted to the electronic picture frame 100 through each communication unit and the network 400. It can be received by the electronic picture frame 100 through the communication unit 110.

네트워크(400)는 일 예로, PAN(Personal Area Network), LAN(Local Area Network), CAN(Campus Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network), BBN(Broad Band Network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. The network 400 may include, for example, a Personal Area Network (PAN), a Local Area Network (LAN), a Campus Area Network (CAN), a Metropolitan Area Network (MAN), a Wide Area Network (WAN), a Broad Band Network (BBN), It may include one or more arbitrary networks such as the Internet.

본 발명의 컨텐츠 전달 시스템(1000)은 도 1에 도시된 구성 요소들 외에 다른 구성요소를 더 포함할 수도 있음은 물론이다.Of course, the content delivery system 1000 of the present invention may further include other components in addition to those shown in FIG. 1.

이하에서는, 도 2 내지 도 4를 사용하여 본 발명의 일 실시예에 따른 전자 액자(100)의 물리적 구성에 관하여 설명한다. 이하에서, 디스플레이부(30)는 도 1에서 설명한 디스플레이부(140)에 대응하는 구성이고, 스피커부(40)는 도 1에서 설명한 스피커부(150)에 대응하는 구성이다.Hereinafter, the physical configuration of the electronic photo frame 100 according to an embodiment of the present invention will be described using FIGS. 2 to 4. Hereinafter, the display unit 30 corresponds to the display unit 140 described in FIG. 1, and the speaker unit 40 corresponds to the speaker unit 150 described in FIG. 1.

도 2는 본 발명의 일 실시예에 따른 전자 액자(100)의 구성의 다측면도이다. 100a는 전자 액자(100)의 전면도이고, 100b는 전자 액자(100)의 일 측면도이고, 100c는 전자 액자(100)의 후면도이며, 100d는 전자 액자(100)의 상면도이다. Figure 2 is a multi-side view of the configuration of the electronic photo frame 100 according to an embodiment of the present invention. 100a is a front view of the electronic photo frame 100, 100b is a side view of the electronic photo frame 100, 100c is a rear view of the electronic photo frame 100, and 100d is a top view of the electronic photo frame 100.

도 2의 100a 내지 100d를 함께 참조하면, 전자 액자(10)는 상부 플레이트(10) 및 이의 하부에 배치되어 조립되는 하부 플레이트(20)을 포함할 수 있다. 상부 플레이트(10) 및 하부 플레이트(20)이 본 도면을 기준으로 제1 방향(D1) 및 제2 방향(D2)의 D1-D2 평면과 나란하게 배치된 것을 기준으로 설명한다. 이하, 상부 플레이트(10)를 제1 플레이트, 하부 플레이트(20)를 제2 플레이트로 지칭하여 설명할 수도 있다. 상부 플레이트(10)와 하부 플레이트(20)는 전자 액자(100)로의 최종 조립 상태에서 서로 마주보도록 배치될 수 있다.Referring to 100a to 100d of FIG. 2 together, the electronic picture frame 10 may include an upper plate 10 and a lower plate 20 disposed and assembled below the upper plate 10. The description will be based on the fact that the upper plate 10 and the lower plate 20 are arranged parallel to the D1-D2 plane in the first direction D1 and the second direction D2 based on the drawing. Hereinafter, the upper plate 10 may be referred to as a first plate and the lower plate 20 may be referred to as a second plate. The upper plate 10 and the lower plate 20 may be arranged to face each other in the final assembled state into the electronic picture frame 100.

상부 플레이트(10)과 하부 플레이트(20) 사이에는 디스플레이부(30)가 게재되어 두 패널(10, 20)이 조립되면서 상부 플레이트(10)의 뚫린 공간으로 디스플레이부(30)가 노출될 수 있다. 상부 플레이트(10) 상에는 가운데 영역이 일부 뚫린 상부 프레임(11)이 위치하여 디스플레이부(30)의 노출 면적을 결정할 수 있다. 디스플레이부(30)는 하부 플레이트(20)의 내부, 특히 하부 플레이트(20)의 제3 방향(D3)으로 돌출된 돌출부(201)의 내부에 수납된 채로 상부 플레이트(10)과 조립될 수 있다. 상부 플레이트(10)은 하부 플레이트(20)을 기준으로 일 방향, 일 예로 제1 방향(D1)으로 슬라이딩될 수 있는데, 이에 관하여는 후술하는 도면에서 더 상세히 살펴본다.The display unit 30 is placed between the upper plate 10 and the lower plate 20, and when the two panels 10 and 20 are assembled, the display unit 30 may be exposed through the open space of the upper plate 10. . An upper frame 11 with a central area partially open is positioned on the upper plate 10 to determine the exposed area of the display unit 30. The display unit 30 may be assembled with the upper plate 10 while being accommodated inside the lower plate 20, particularly within the protrusion 201 protruding in the third direction D3 of the lower plate 20. . The upper plate 10 may slide in one direction, for example, in the first direction D1, with respect to the lower plate 20, which will be described in more detail in the drawings described later.

도 3은 본 발명의 일 실시예에 따른 전자 액자(100)의 구성을 분해하여 바라본 사시도이고, 도 4는 본 발명의 일 실시예에 따른 전자 액자(100)의 구성을 분해하여 그 내부 구성을 상면에서 바라본 상면도이다. Figure 3 is an exploded perspective view of the electronic picture frame 100 according to an embodiment of the present invention, and Figure 4 is an exploded view of the internal structure of the electronic picture frame 100 according to an embodiment of the present invention. This is a top view from the top.

도 3 및 도 4를 함께 참조하면, 전자 액자(100)는 상부 플레이트(10), 상부 프레임(11), 하부 플레이트(20), 디스플레이부(30), 스피커부(40) 및 슬라이딩부(50)를 포함할 수 있고, 실시예에 따라서 홀 센서(Hall sensor)(61) 및 마그넷 부(62)를 포함하는 감지 유닛(60)을 더 포함할 수 있다.Referring to FIGS. 3 and 4 together, the electronic picture frame 100 includes an upper plate 10, an upper frame 11, a lower plate 20, a display unit 30, a speaker unit 40, and a sliding unit 50. ) and, depending on the embodiment, may further include a sensing unit 60 including a Hall sensor 61 and a magnet portion 62.

상부 플레이트(10)는 전자 액자(100)의 상부에 위치하는 플레이트로서, 상부 프레임(11) 및 제1 슬라이딩 부재(51)가 그 내부에 조립될 수 있도록 내부 홈들이 형성되어 있을 수 있다. 상부 플레이트(10) 및 상부 프레임(11)은 중앙부 일부분이 그 하부에 배치되는 디스플레이부(30)가 외부에서 볼 때 노출되도록 뚫려 있다. 상부 플레이트(10)는 제1 방향(D1)으로 제1 가로 폭(w1)을 가질 수 있다.The top plate 10 is a plate located on the top of the electronic picture frame 100, and may have internal grooves formed so that the top frame 11 and the first sliding member 51 can be assembled therein. The upper plate 10 and the upper frame 11 have a central portion opened so that the display unit 30 disposed below is exposed when viewed from the outside. The upper plate 10 may have a first horizontal width w1 in the first direction D1.

하부 플레이트(20)는 상부 플레이트(10)의 하부에 위치하여 전자 액자(100)의 하부면을 구성한다. 하부 플레이트(20)는 일 방향(D3)으로 소정의 두께를 갖고, 그 내부에는 싱글 보드 컴퓨터(Single-board Computer; 이하, 'SBC'로 지칭한다.)(21), 버튼 센서(22), 디스플레이부(30), 스피커부(40), 복수의 제2 슬라이딩 부재(52) 및 감지 유닛(60) 등의 다양한 부품들이 내장될 수 있는 내부 홈들이 형성되어 있을 수 있다. 하부 플레이트(20)는 제1 방향(D1)으로 제2 가로 폭(w2)을 가질 수 있다.The lower plate 20 is located below the upper plate 10 and forms the lower surface of the electronic picture frame 100. The lower plate 20 has a predetermined thickness in one direction (D3), and inside it is a single-board computer (hereinafter referred to as 'SBC') 21, a button sensor 22, Internal grooves in which various components such as the display unit 30, the speaker unit 40, the plurality of second sliding members 52, and the sensing unit 60 can be installed may be formed. The lower plate 20 may have a second horizontal width w2 in the first direction D1.

상부 플레이트(10)는 하부 플레이트(20)에 대하여 후술하는 슬라이딩 부(50)를 통하여 슬라이딩 되도록 구비될 수 있다. The upper plate 10 may be provided to slide with respect to the lower plate 20 through a sliding portion 50, which will be described later.

도 4를 참조하면, 도 4에 도시된 상부 플레이트(10)는 중앙선(cl) 쪽 일 측을 기준으로 이와 대향하는 타 측이 하부 플레이트(20) 쪽으로 접혀 전자 액자(100)로 조립될 수 있다. 가령, 두 플레이트(10, 20)는 중앙선(cl)을 기준으로 접혀 상부 플레이트(10)의 일 측 경계선(l1)과 하부 플레이트(20)의 일 측 경계선(l2)이 겹치도록 전자 액자(100)가 조립될 수 있다.Referring to FIG. 4, the upper plate 10 shown in FIG. 4 can be assembled into an electronic picture frame 100 by folding the other side opposite to the central line cl toward the lower plate 20. . For example, the two plates (10, 20) are folded about the center line (cl) so that one side border (l1) of the upper plate (10) and one side border (l2) of the lower plate (20) overlap the electronic picture frame (100). ) can be assembled.

제1 가로 폭(w1)은 제2 가로 폭(w2)보다 크고, 일 예로, 제1 가로 폭(w1)은 제2 가로 폭(w2)과 후술하는 스피커 부(40)의 가로 폭(ws)의 합보다 크거나 같을 수 있다 (w2=w1+ws).The first horizontal width (w1) is greater than the second horizontal width (w2), and as an example, the first horizontal width (w1) is equal to the second horizontal width (w2) and the horizontal width (ws) of the speaker unit 40, which will be described later. It can be greater than or equal to the sum of (w2=w1+ws).

SBC(21)는 도 1에서 전술한 통신부(110), 프로세서(120) 및 메모리(130)를 포함하여, 이들 구성에 대응하는 구성일 수 있다. SBC(21)는 일 예로 SBC의 형태로 구비될 수 있으나, SBC(21)의 구비 형태는 본 발명을 한정하지 않는다. SBC(21)는 후술하는 디스플레이부(30), 스피커부(40) 각각의 프로세서와 유무선으로 연결되어 각 장치들(30, 40)을 통한 컨텐츠의 출력을 제어할 수 있다.The SBC 21 may include the communication unit 110, processor 120, and memory 130 described above in FIG. 1, and may have a configuration corresponding to these configurations. The SBC 21 may be provided in the form of an SBC, for example, but the form of the SBC 21 does not limit the present invention. The SBC 21 is connected wired or wirelessly to the processors of the display unit 30 and the speaker unit 40, which will be described later, and can control the output of content through the respective devices 30 and 40.

디스플레이부(30)는 상부 플레이트(10) 및 하부 플레이트(20) 사이, 또는 하부 플레이트(20)의 내부에 삽입되고, 그 적어도 일부가 전자 액자(100)의 전면(본 도면에서는 D3 방향)으로 노출되어 사용자에게 컨텐츠가 시각적으로 제공되도록 한다. 디스플레이부(30)는 SBC(21)의 제어를 통해 본 발명의 실시예들에 따라 생성된 제1 출력 데이터에 따른 타겟 영상을 디스플레이할 수 있다.The display unit 30 is inserted between the upper plate 10 and the lower plate 20 or inside the lower plate 20, and at least a portion thereof is directed to the front of the electronic picture frame 100 (direction D3 in this drawing). It is exposed so that the content is visually provided to the user. The display unit 30 may display a target image according to the first output data generated according to embodiments of the present invention through control of the SBC 21.

스피커 부(40)는 스피커 장치(41), 스피커 덮개(42) 및 스피커 보넷(43) 등의 다양한 스피커 부재를 포함할 수 있다. 스피커 부(40)는 상부 플레이트(10)가 하부 플레이트(20)에 대하여 슬라이딩 동작을 통해 상대적으로 이동하는 경우 그 적어도 일부 또는 전부가 노출될 수 있다.The speaker unit 40 may include various speaker members such as a speaker device 41, a speaker cover 42, and a speaker bonnet 43. At least part or all of the speaker unit 40 may be exposed when the upper plate 10 moves relative to the lower plate 20 through a sliding motion.

스피커 장치(41)는 SBC(21)의 제어를 통해 본 발명의 실시예들에 따라 생성된 제1 출력 데이터에 따른 타겟 음원을 재생할 수 있다.The speaker device 41 can reproduce a target sound source according to the first output data generated according to embodiments of the present invention through control of the SBC 21.

스피커 덮개(42)는 스피커 장치(41)의 일 면에 스피커 장치(41)를 덮도록 두 플레이트(10, 20) 사이에 조립되어 스피커 장치(41)를 통해 출력되는 음원 데이터를 사용자에게 더 효과적으로 전달하는 역할을 할 수 있다. 또한, 스피커 덮개(42)는 슬라이딩 부(50)에 의해 상부 플레이트(10)가 하부 플레이트(20)를 기준으로 소정의 범위만큼 슬라이딩하는 경우 사용자에게 노출되는 부분일 수 있다.The speaker cover 42 is assembled between the two plates 10 and 20 to cover one side of the speaker device 41, so that the sound source data output through the speaker device 41 can be transmitted to the user more effectively. It can play a role in conveying. Additionally, the speaker cover 42 may be a part exposed to the user when the upper plate 10 slides by a predetermined range relative to the lower plate 20 by the sliding portion 50.

스피커 부(40)는 제1 방향(D1)으로 제3 가로 폭(ws)을 가질 수 있다.The speaker unit 40 may have a third horizontal width ws in the first direction D1.

슬라이딩부(50)는 상부 플레이트(10)와 조립되는 제1 슬라이딩 부재(51) 및 하부 플레이트(20)와 조립되는 제2 슬라이딩 부재(52)를 포함할 수 있다. 본 도면에서는 제1 슬라이딩 부재(51)는 한 개, 제2 슬라이딩 부재(52)는 복수 개인 예시를 도시하였으나, 각 슬라이딩 부재(51, 52)의 개수는 본 발명을 한정하지 않는다. 일 예로 제2 슬라이딩 부재(52)는 복수 개로 형성되어 서로 조립될 수 있다. 여기서 도 4를 참조하면, 상부에 배치되는 제1 슬라이딩 부재(51)는 그 하부에 배치되는 제2 슬라이딩 부재(52)(또는 복수의 제2 슬라이딩 부재(52)의 전체 조립 부재)보다 제3 방향(D3)으로 바라볼 때 그 최외측 테두리에 의한 면적이 더 클 수 있다. 이와 같이 상부의 제1 슬라이딩 부재(51)가 하부의 제2 슬라이딩 부재(52)를 덮은 채로 일 방향(D1)으로 슬라이딩하여 슬라이딩 동작을 용이하게 구현할 수 있다. 또한, 전자 액자(100)의 외관상 보기에도 더 깔금한 미감을 제공할 수 있다. 실시예에 따라서, 제1 슬라이딩 부재(51)이 제2 슬라이딩 부재(52)보다 그 전체 면적이 작을 수도 있다. 이 경우 제1 슬라이딩 부재(51)가 제2 슬라이딩 부재(52)의 내부에 조립된 채로 일 방향(D1)으로 슬라이딩될 수 있다.The sliding part 50 may include a first sliding member 51 assembled with the upper plate 10 and a second sliding member 52 assembled with the lower plate 20. In this drawing, an example of one first sliding member 51 and a plurality of second sliding members 52 is shown, but the number of each sliding member 51 and 52 does not limit the present invention. For example, the second sliding member 52 may be formed in plural pieces and assembled together. Here, referring to FIG. 4, the first sliding member 51 disposed at the upper portion is third than the second sliding member 52 (or the entire assembly member of the plurality of second sliding members 52) disposed at the lower portion. When viewed in the direction D3, the area by the outermost edge may be larger. In this way, the sliding operation can be easily implemented by sliding in one direction D1 while the upper first sliding member 51 covers the lower second sliding member 52. Additionally, the external appearance of the electronic picture frame 100 can be provided with a more clean aesthetic. Depending on the embodiment, the total area of the first sliding member 51 may be smaller than that of the second sliding member 52. In this case, the first sliding member 51 may slide in one direction D1 while being assembled inside the second sliding member 52.

다시 도 4를 참조하면, 제1 슬라이딩 부재(51)는 상부 플레이트(10)의 일 방향(일 예로 D2 방향)의 양 측 각각에 구비될 수 있고, 마찬가지로 제2 슬라이딩 부재(52) 또한 하부 플레이트(20)의 일 방향(일 예로 D2 방향)의 양 측 각각에 구비될 수 있다. 슬라이딩 부재(51, 52)가 일 방향으로 양 측 각각에 구비됨으로써 전자 액자(100)의 슬라이딩 동작을 더 용이하고 안정적으로 조작할 수 있다. 실시예에 따라서, 슬라이딩 부재(51, 52)는 각각의 플레이트(10, 20)에서 일 방향의 일 측에만 구비될 수도 있음은 물론이다.Referring again to FIG. 4, the first sliding member 51 may be provided on both sides of one direction (for example, D2 direction) of the upper plate 10, and similarly, the second sliding member 52 may also be provided on the lower plate. It may be provided on both sides of one direction (for example, the D2 direction) of (20). Since sliding members 51 and 52 are provided on both sides in one direction, the sliding operation of the electronic picture frame 100 can be operated more easily and stably. Of course, depending on the embodiment, the sliding members 51 and 52 may be provided on only one side of each plate 10 and 20 in one direction.

여기서 도 5를 함께 참조하여 본 발명의 전자 액자(100)의 슬라이딩 동작에 관하여 설명한다. 도 5는 본 발명의 일 실시예에 따른 전자 액자(100)의 물리적 구동을 설명하기 위한 도면이다.Here, the sliding operation of the electronic photo frame 100 of the present invention will be described with reference to FIG. 5. Figure 5 is a diagram for explaining the physical operation of the electronic picture frame 100 according to an embodiment of the present invention.

도 5를 함께 참조하면, 사용자는 전자 액자(100)에 대하여 하부 플레이트(20)가 고정된 상태에서 슬라이딩 부재(50)를 이용하여 상부 플레이트(10)를 슬라이딩하여 이동시킬 수 있다. 전자 액자(100)의 슬라이딩 동작 전에는 도 2의 전면도(100a)에 도시된 바와 같이 전면에서 보면 디스플레이부(30)가 노출된 상부 플레이트(10)만 보일 수 있다. 도 5에 도시된 슬라이딩 동작 후에는 상부 플레이트(10)의 일 측으로 하부 플레이트(20)의 적어도 일부, 또는 스피커 부(40)의 적어도 일부 또는 전체가 전면에 노출될 수 있다. 이때 상부 플레이트(10)의 슬라이딩 폭에 따라 스피커 부(40)의 노출 폭 또한 달라질 수 있다. Referring to FIG. 5 , a user may slide and move the upper plate 10 using the sliding member 50 while the lower plate 20 is fixed to the electronic picture frame 100. Before the sliding operation of the electronic picture frame 100, only the upper plate 10 with the display unit 30 exposed can be seen when viewed from the front, as shown in the front view 100a of FIG. 2. After the sliding operation shown in FIG. 5, at least a portion of the lower plate 20 on one side of the upper plate 10, or at least a portion or the entire speaker unit 40 may be exposed to the front. At this time, the exposure width of the speaker unit 40 may also vary depending on the sliding width of the upper plate 10.

이상에서는 상부 플레이트(10)가 슬라이딩하는 것을 예시로 들어 설명하였으나, 본 발명의 슬라이딩 동작은 두 플레이트(10, 20) 간의 상대적인 이동을 의미하는 것으로 하부 플레이트(20)가 슬라이딩할 수도 있음은 물론이다. 즉, 본 발명의 전자 액자(100)의 슬라이딩 동작은 상부 플레이트(10) 및 하부 플레이트(20) 중 적어도 하나의 이동에 의해 구현될 수 있다.In the above, the sliding of the upper plate 10 has been described as an example, but the sliding operation of the present invention means relative movement between the two plates 10 and 20, so of course the lower plate 20 can also slide. . That is, the sliding operation of the electronic picture frame 100 of the present invention can be implemented by moving at least one of the upper plate 10 and the lower plate 20.

전자 액자(100)의 슬라이딩 동작 여부에 따라 전자 액자(100)를 통해 출력되는 출력 컨텐츠가 상이할 수 있다. 가령, 도 1의 전면도(100a)와 같은 닫힌 모드(closed mode)에서는 디스플레이부(30)를 통해 영상 컨텐츠만 디스플레이되고, 도 5와 같이 슬라이딩 된 열린 모드(opened mode)에서는 디스플레이부(30)를 통해서는 영상 컨텐츠가 디스플레이되고 스피커부(40)를 통해서는 음원 컨텐츠가 재생되어 영상 및 음원이 함께 출력될 수 있다.The output content output through the electronic photo frame 100 may vary depending on whether the electronic photo frame 100 is in a sliding operation. For example, in a closed mode, such as the front view 100a of FIG. 1, only image content is displayed through the display unit 30, and in a sliding open mode, as shown in FIG. 5, the display unit 30 Video content is displayed through and sound source content is played through the speaker unit 40, so that the video and sound source can be output together.

다시, 도 3 및 도 4를 참조하면, 본 발명의 감지 유닛(60)은 홀 센서(Hall sensor)(61) 및 마그넷 부(62)를 포함할 수 있다. 홀 센서(61) 및 마그넷 부(62)는 각각 상부 플레이트(10)나 하부 플레이트(20)에 부착되어 일 플레이트(10, 20)의 슬라이딩 등의 플레이트들(10, 20) 간의 상대적인 움직임을 감지할 수 있다.Referring again to FIGS. 3 and 4, the sensing unit 60 of the present invention may include a Hall sensor 61 and a magnet portion 62. The Hall sensor 61 and the magnet portion 62 are attached to the upper plate 10 or the lower plate 20, respectively, and detect relative movement between the plates 10 and 20, such as sliding of one plate 10 and 20. can do.

홀 센서(61)는 홀 효과(Hall Effect)를 이용한 센서로서, 홀 효과에 의한 자기장 변화를 측정하여 대상체의 회전 속도, 이동 방향 등의 움직임을 감지하는 역할을 할 수 있다. 홀 효과란 전류가 흐르는 도체에 자기장을 인가하면 전류의 진행 방향에 수직 방향으로 전압(기전력)이 발생하는 효과를 의미한다. The Hall sensor 61 is a sensor that uses the Hall Effect, and can serve to detect movements such as the rotation speed and direction of movement of an object by measuring changes in the magnetic field due to the Hall Effect. The Hall effect refers to the effect in which a voltage (electromotive force) is generated in a direction perpendicular to the direction of current flow when a magnetic field is applied to a conductor through which a current flows.

홀 센서(61)는 플레이트들(10, 20)의 슬라이딩 동작 시 움직임을 효과적으로 감지할 수 있도록 플레이트들(10, 20)의 일 경계부에 부착될 수 있다. 일 예로, 홀 센서(61)는 도 3에 도시된 제2 방향(D2)과 나란한 기준선(bl) 또는 도 4에 도시된 중앙선(cl) 부근에 부착될 수 있다. 도 4에서는 홀 센서(61)가 싱글보드 컴퓨터(SBC)(21)의 일 측에 부착된 예시를 도시하였으나, 홀 센서(61)의 부착 위치는 플레이트들(10, 20) 간의 상대적인 움직임을 용이하게 감지할 수 있는 범위 내에서 다양하게 설계 변경될 수 있음은 물론이다.The Hall sensor 61 may be attached to one boundary of the plates 10 and 20 to effectively detect movement during the sliding operation of the plates 10 and 20. For example, the Hall sensor 61 may be attached near the reference line bl parallel to the second direction D2 shown in FIG. 3 or the center line cl shown in FIG. 4 . Figure 4 shows an example in which the Hall sensor 61 is attached to one side of the single board computer (SBC) 21. However, the attachment position of the Hall sensor 61 facilitates relative movement between the plates 10 and 20. Of course, the design can be changed in various ways within the range that can be easily detected.

마그넷 부(62)는 전술한 홀 센서(61)에 자기장을 인가하여 홀 센서(61)에 의한 기전력을 발생시킴으로써 플레이트(10, 20)의 움직임을 감지하는 역할을 할 수 있다. 마그넷 부(62)는 적어도 하나 이상의 자석을 포함할 수 있다. 마그넷 부(62)는 홀 센서(61)와 마찬가지로 플레이트들(10, 20)의 일 경계부에 부착될 수 있으며, 일 예로 도 3의 기준선(bl) 또는 도 4의 중앙선(cl) 부근에 배치될 수 있다. 일 예로 마그넷 부(62)는 스피커부(40)의 일 면에 부착될 수 있으나, 마그넷 부(62)의 부착 위치는 플레이트들(10, 20) 간의 상대적인 움직임을 용이하게 감지할 수 있는 범위 내에서 다양하게 설계 변경될 수 있음은 물론이다.The magnet unit 62 may serve to detect the movement of the plates 10 and 20 by applying a magnetic field to the Hall sensor 61 described above and generating electromotive force by the Hall sensor 61. The magnet unit 62 may include at least one magnet. The magnet portion 62 may be attached to one boundary of the plates 10 and 20 like the Hall sensor 61, and may be placed, for example, near the reference line bl in FIG. 3 or the center line cl in FIG. 4. You can. As an example, the magnet unit 62 may be attached to one side of the speaker unit 40, but the attachment position of the magnet unit 62 is within a range where the relative movement between the plates 10 and 20 can be easily detected. Of course, the design can be changed in various ways.

본 발명의 프로세서(120)는 감지 유닛(60)에 의해 발생한 전압을 기초로 출력 제어 신호를 생성할 수 있다. 상기 출력 제어 신호에 따라 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하도록 제어할 수 있다. 실시예에 따라서, 타겟 영상과 타겟 음원을 포함하는 제1 출력 데이터의 출력은 상기 감지 유닛(60)에 의한 감지에 의하지 않고 다른 제어에 의해 동작할 수도 있음은 물론이다. 예를 들어, 전자 액자(100)가 포함하는 다른 입출력 인터페이스를 통해 리모컨 등의 다른 외부 단말로부터의 제어신호를 입력받아 전자 액자(100)를 통한 컨텐츠의 출력을 제어할 수 있다.The processor 120 of the present invention can generate an output control signal based on the voltage generated by the sensing unit 60. According to the output control signal, the target image can be displayed through the display unit 30 and the target sound source can be played through the speaker unit 40. Depending on the embodiment, it goes without saying that the output of the first output data including the target image and the target sound source may be operated by other controls rather than detection by the detection unit 60. For example, the output of content through the electronic photo frame 100 can be controlled by receiving a control signal from another external terminal such as a remote control through another input/output interface included in the electronic photo frame 100.

홀 센서(61)와 마그넷 부(62)의 상대적인 움직임으로 인해 발생한 전압은 전류와 자기장의 세기에 비례하므로, 감지 유닛(60)은 플레이트들(10, 20)의 슬라이딩 동작을 다양한 방식으로 감지할 수 있다. 예를 들어, 전술한 도 5에서 설명한 슬라이딩 동작의 속도, 상부 플레이트(10)의 일 경계부 위치나 스피커 부(40)의 노출 폭에 따른 슬라이딩 정도에 따라 감지 유닛(60)에 의한 전압, 전류 세기가 달라질 수 있다. 이에 따라 스피커 부(40)에서 출력되는 음량, 소리 크기 등의 출력 성능을 제어할 수 있다. 가령 전자 액자(100)의 프로세서(120) 등을 통해 슬라이딩 동작 정도에 따라 스피커 부(40)의 노출 폭이 클수록 스피커 부(40)를 통해 출력되는 음량이 크도록 설정할 수 있다.Since the voltage generated due to the relative movement of the Hall sensor 61 and the magnet portion 62 is proportional to the strength of the current and magnetic field, the sensing unit 60 can detect the sliding motion of the plates 10 and 20 in various ways. You can. For example, the voltage and current intensity by the sensing unit 60 depending on the speed of the sliding operation described in FIG. 5, the position of one boundary of the upper plate 10, or the degree of sliding according to the exposed width of the speaker unit 40. may vary. Accordingly, output performance such as volume and sound level output from the speaker unit 40 can be controlled. For example, the processor 120 of the electronic picture frame 100 can set the volume output through the speaker unit 40 to be larger as the exposure width of the speaker unit 40 increases depending on the degree of sliding operation.

도 6은 본 발명의 일 실시예에 따른 전자 액자(100)의 컨텐츠 디스플레이를 위한 구동 방법을 설명하기 위한 순서도이다. 본 발명의 전자 액자(100)의 구동 방법은 도 1에서 설명한 컨텐츠 전달 시스템(1000)이 포함하는 사용자 단말(200) 및/또는 서비스 서버(300)를 함께 이용하여 구현될 수 있다.FIG. 6 is a flowchart illustrating a driving method for displaying content of the electronic picture frame 100 according to an embodiment of the present invention. The method of driving the electronic picture frame 100 of the present invention can be implemented by using the user terminal 200 and/or the service server 300 included in the content delivery system 1000 described in FIG. 1.

이하에서, S100, S200, S300 단계는 전자 액자(100)의 프로세서(120)에 의해 수행될 수 있고, S400 단계는 프로세서(120)의 제어에 의해 출력장치(130, 140)(도 1 참고)에 의해 수행될 수 있다. 본 발명의 일 실시예에 따른 전자 액자의 구동 방법은 후술하는 단계들을 포함할 수 있다.Hereinafter, steps S100, S200, and S300 may be performed by the processor 120 of the electronic picture frame 100, and step S400 may be performed by the output devices 130 and 140 (see FIG. 1) under the control of the processor 120. It can be performed by . A method of driving an electronic picture frame according to an embodiment of the present invention may include steps described later.

먼저, 전자 액자(100)는 사용자 단말(200)로부터 타겟 영상의 촬영 시각(일시)을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득할 수 있다(S100). 이때 사용자 단말(200)은 타겟 영상 및 이의 메타데이터인 제1 메타 데이터를 전자 액자(200)로 전송할 수 있다 (S101). 제1 메타 데이터는 타겟 영상의 촬영 시각(일시)에 대한 정보를 포함한다.First, the electronic picture frame 100 may obtain first metadata of the target image including the shooting time (date and time) of the target image from the user terminal 200 (S100). At this time, the user terminal 200 may transmit the target image and first metadata, which is its metadata, to the electronic picture frame 200 (S101). The first metadata includes information about the shooting time (date and time) of the target image.

이후, 전자 액자(100)는 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신할 수 있다(S200). Thereafter, the electronic photo frame 100 may receive first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined standard (S200).

상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시/기간에 관한 정보, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함할 수 있다.The second metadata may include information about the time/period on which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time.

가령, 프로세서(120)가 획득한 일 타겟 영상의 제1 메타 데이터 중 그 촬영 일시가 '20xx년 3월 10일'이라고 가정한다. 프로세서(120)는 상기 ‘20xx년 3월 10일’의 일시를 기준으로 소정의 기준을 만족하는 제2 메타 데이터를 결정할 수 있다. 소정의 기준은 제1 메타 데이터와 동일한 일시의 재생 기록 유무, 또는 동일한 일시에 몇 회 이상의 재생 기록 유무 등일 수 있다. For example, assume that the shooting date and time among the first metadata of the target image acquired by the processor 120 is 'March 10, 20xx'. The processor 120 may determine second metadata that satisfies a predetermined standard based on the date and time of ‘March 10, 20xx’. The predetermined standard may be the presence or absence of playback and recording at the same date and time as the first metadata, or the presence or absence of playback and recording several or more times at the same date and time.

또 다른 실시예로서, S200 단계는 다음 단계들을 포함할 수 있다. 상기 제1 메타 데이터로부터 소정의 기간 범위로 확장된 제1 확장 메타 데이터를 추출할 수 있다. 이후 상기 제1 확장 메타 데이터와의 관련성이 소정의 기준을 만족하는 상기 제2 메타 데이터를 가지는 음원 데이터를 포함하는 상기 제1 소스 데이터를 수신할 수 있다. 가령, 전술한 제1 메타 데이터의‘20xx년 3월 10일’의 기준 일시로부터 전후 일주일, 전후 한 달 등의 소정의 기간 범위로 확장된 제1 확장 메타 데이터를 추출할 수 있다. 소정의 기간 범위가 전후 일주일일 때 제1 확장 메타 데이터는 ‘20xx년 3월 10일’ 로부터 전후 일주일의 기간을 포함한 ‘20xx년 3월 3일’부터 ‘20xx년 3월 17일’의 기간일 수 있다. 이후, 상기 제1 확장 메타 데이터를 기준으로 소정의 기준을 만족하는 제2 메타 데이터를 결정할 수 있다. As another example, step S200 may include the following steps. First extended metadata extended to a predetermined period of time can be extracted from the first metadata. Thereafter, the first source data including sound source data having the second metadata satisfying a predetermined criterion in relation to the first extended metadata may be received. For example, the first extended metadata that extends from the standard date and time of ‘March 10, 20xx’ of the above-described first metadata to a predetermined period of time, such as a week before or after, or a month before or after, can be extracted. When the predetermined period range is one week before and after, the first extended metadata is the period from 'March 3, 20xx' to 'March 17, 20xx', including the period of one week before and after 'March 10, 20xx'. You can. Thereafter, second metadata that satisfies a predetermined criterion may be determined based on the first extended metadata.

제1 소스 데이터는 제2 메타 데이터를 만족하는 음원 데이터로서, 가령 전술한 제1 메타 데이터 또는 제1 확장 메타 데이터를 만족하는 재생 일시/기간, 상기 재생 일시/기간 내의 재생 횟수의 제2 메타 데이터를 가지는 음원 데이터일 수 있다.The first source data is sound source data that satisfies the second metadata, for example, the playback date/period that satisfies the above-described first metadata or the first extended metadata, and the second metadata of the number of plays within the playback date/period. It may be sound source data having .

전술한 제1 확장 메타 데이터, 제2 메타 데이터를 결정하는 소정의 기준은 다양한 기준으로 프로세서(120) 상에 미리 설정될 수 있다. Predetermined criteria for determining the above-described first extended metadata and second metadata may be set in advance on the processor 120 based on various criteria.

한편, 프로세서(120)는 전술한 제1 소스 데이터를 서비스 서버(300)로부터 수신할 수도 있고(S210), 사용자 단말(200)로부터 수신할 수도 있고(S220), 본 도면에는 도시하지 않았으나 서비스 서버(300) 및 사용자 단말(200) 모두로부터 수신할 수도 있다.Meanwhile, the processor 120 may receive the above-described first source data from the service server 300 (S210), may receive it from the user terminal 200 (S220), or may receive the first source data from the service server 300 (S220). It may also be received from both 300 and the user terminal 200.

S210 단계의 경우, 프로세서(120)는 서비스 서버(300)로 제2 메타 데이터를 가지는 제1 소스 데이터를 요청하고(S201), 서비스 서버(300)는 해당 제1 소스 데이터를 프로세서(120)로 전송할 수 있다(S202). 이때 제1 소스 데이터는 전자 액자(100)(또는 사용자 단말(200))의 사용자뿐만 아니라 서비스 서버(300)의 DB에 저장된 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다. 예를 들어, 타겟 영상이 촬영된 제1 메타 데이터에 따른 기간에 사용자가 재생한 음원이 재생될 수도 있고, 상기 기간에 사용자 외의 다른 사용자들도 많이 들었던 그 시기에 유행했던 음원들이 재생될 수도 있다.In step S210, the processor 120 requests first source data having second metadata from the service server 300 (S201), and the service server 300 sends the first source data to the processor 120. Can be transmitted (S202). At this time, the first source data may be selected based on the playback records of not only the user of the electronic picture frame 100 (or the user terminal 200) but also other users stored in the DB of the service server 300. For example, sound sources played by the user may be played during the period according to the first metadata in which the target image was captured, and sound sources that were popular at that time, which were also listened to by many users other than the user, may be played during the period. .

S220 단계의 경우, 프로세서(120)는 사용자 단말(200)로 제2 메타 데이터를 가지는 제1 소스 데이터를 요청하고(S203), 사용자 단말(200)은 해당 제1 소스 데이터를 프로세서(120)로 전송할 수 있다(S204). 이때 제1 소스 데이터는 사용자의 재생 기록에 기초하여 선택되어, 전자 액자(100)의 컨텐츠 출력 시 사용자 맞춤형 음원이 출력될 수 있다.In step S220, the processor 120 requests first source data having second metadata from the user terminal 200 (S203), and the user terminal 200 sends the first source data to the processor 120. Can be transmitted (S204). At this time, the first source data is selected based on the user's playback record, so that a user-customized sound source can be output when the content of the electronic picture frame 100 is output.

이후, 프로세서(120)는 제1 소스 데이터를 소정의 재생 규칙에 따라 타겟 영상과 연동하여 제1 출력 데이터를 생성할 수 있다(S300). S300 단계에서의 연동은 제1 메타 데이터와 제2 메타 데이터의 시간적 관점에서의 연동, 즉 전술한 것과 같이 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 제2 메타 데이터가 포함하는 재생된 일시에 대한 정보의 연동을 의미할 수 있다. Thereafter, the processor 120 may generate first output data by linking the first source data with the target image according to a predetermined playback rule (S300). Linkage in step S300 is linkage of the first metadata and the second metadata from a temporal perspective, that is, as described above, information on the shooting date and time of the target image included in the first metadata and the second metadata include This may mean linking information about the date and time of playback.

S300 단계는 구체적으로 다음 단계들을 포함할 수 있다. Step S300 may specifically include the following steps.

먼저, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택할 수 있다. 가령, 타겟 영상에 상기 제1 소스 데이터의 모든 음원 데이터를 리스트 업하여 연동할 수도 있고, 실시예에 따라서 제1 소스 데이터 중 일부의 음원 데이터만 연동할 수도 있다. 이때 제1 소스 데이터 중 타겟 영상에 연동되어 저장된 음원 데이터를 타겟 음원이라 할 수 있다.First, a target sound source can be selected from the first source data according to the playback rule. For example, all sound source data of the first source data may be listed and linked to the target image, or depending on the embodiment, only some sound source data of the first source data may be linked. At this time, sound source data stored in conjunction with the target image among the first source data may be referred to as the target sound source.

이후, 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성할 수 있다. 상기 소정의 재생 규칙은 제2 메타 데이터의 기간 내에서 재생 횟수에 따라 음원 데이터의 개수를 결정하거나, 상기 재생 횟수에 따라 내림차순으로 음원 데이터의 재생 순서를 결정하거나, 선택된 음원 데이터의 재생 구간을 결정하는 등 다양한 규칙을 포함할 수 있다. Thereafter, the playback rule can be applied to the target sound source and the playback order, playback time, and playback mode can be set differently to generate second source data. The predetermined playback rule determines the number of sound source data according to the number of plays within the period of the second meta data, determines the playback order of the sound source data in descending order according to the playback number, or determines the playback section of the selected sound source data. It can contain various rules, such as:

이후, 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성할 수 있다. Thereafter, the first output data may be generated by linking the second source data with the target image.

S300 단계 이후, 디스플레이부(140) 및 스피커부(150)를 이용하여 상기 제1 출력 데이터에 따른 타겟 영상 및 타겟 음원을 출력할 수 있다(S400). 이때, 제1 소스 데이터를 수신하는 단계(S200)와 같이 프로세서(120)는 전술한 제2 소스 데이터를 서비스 서버(300)로부터 수신할 수도 있고(S410), 사용자 단말(200)로부터 수신할 수도 있고(S420), 본 도면에는 도시하지 않았으나 서비스 서버(300) 및 사용자 단말(200) 모두로부터 수신할 수도 있다.After step S300, the target image and target sound source according to the first output data can be output using the display unit 140 and the speaker unit 150 (S400). At this time, like the step of receiving the first source data (S200), the processor 120 may receive the above-described second source data from the service server 300 (S410) or from the user terminal 200. (S420), and although not shown in this drawing, it may be received from both the service server 300 and the user terminal 200.

S410 단계의 경우, 프로세서(120)는 서비스 서버(300)로 제1 출력 데이터에 따른 제2 소스 데이터를 요청하고(S401), 서비스 서버(300)는 해당 제2 소스 데이터를 프로세서(120)로 전송할 수 있다(S402). S420 단계의 경우, 프로세서(120)는 사용자 단말(200)로 제1 출력 데이터에 따른 제2 소스 데이터를 요청하고(S403), 사용자 단말(200)는 해당 제2 소스 데이터를 프로세서(120)로 전송할 수 있다(S404).In step S410, the processor 120 requests second source data according to the first output data to the service server 300 (S401), and the service server 300 sends the second source data to the processor 120. Can be transmitted (S402). In step S420, the processor 120 requests second source data according to the first output data to the user terminal 200 (S403), and the user terminal 200 sends the second source data to the processor 120. Can be transmitted (S404).

이하, 출력 단계(S400)에 관하여 전술한 도 3 내지 도 5를 함께 참조하여 전자 액자(100)의 물리적 구동과 연관된 측면에서 설명한다. 전술한 설명과 중복되는 내용은 설명을 생략하거나 간단히 한다.Hereinafter, the output step (S400) will be described in terms of physical operation of the electronic photo frame 100 with reference to FIGS. 3 to 5 described above. Contents that overlap with the above description will be omitted or simplified.

전자 액자(100)는 상부 플레이트(10) 및 제2 플레이트(20) 중 적어도 하나의 슬라이딩 동작을 통해 스피커부(40)의 적어도 일부가 노출되도록 구비될 수 있다. 이때 전자 액자(100)는 플레이트들(10, 20) 간의 슬라이딩 동작을 감지하는 감지 유닛(60)을 포함하고, 감지 유닛(60)은 마그넷 부(62) 및 상기 마그넷 부(62)의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(61)를 포함할 수 있다. The electronic picture frame 100 may be provided so that at least a portion of the speaker unit 40 is exposed through a sliding operation of at least one of the upper plate 10 and the second plate 20. At this time, the electronic picture frame 100 includes a sensing unit 60 that detects the sliding motion between the plates 10 and 20, and the sensing unit 60 detects the magnet portion 62 and the movement of the magnet portion 62. It may include a Hall sensor 61 that generates a voltage by a magnetic field applied accordingly.

이때 S400 단계는, 감지 유닛(60)에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계, 및 상기 출력 제어 신호에 따라 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하는 단계를 포함할 수 있다.At this time, step S400 includes generating an output control signal based on the voltage by the sensing unit 60, displaying the target image through the display unit 30 according to the output control signal, and displaying the target image through the speaker unit 40. It may include the step of playing the target sound source.

전자 액자(100)가 감지 유닛(60)을 통해 전자 액자(100)의 두 플레이트(10, 20) 간의 슬라이딩 동작을 감지할 수 있다. 상기 감지 여부에 따라 프로세서(120)는 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하도록 제어할 수 있다.The electronic photo frame 100 may detect a sliding motion between the two plates 10 and 20 of the electronic photo frame 100 through the sensing unit 60 . Depending on whether or not the detection occurs, the processor 120 can control the target image to be displayed through the display unit 30 and the target sound source to be played through the speaker unit 40.

이와 같이, 본 발명의 실시예들에 따르면 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 제공할 수 있다. 구체적으로, 영상이 획득된 촬영 시기를 기준으로 영상과 그 당시 사용자가 재생했던 음원, 또는 그 당시 유행했던 음원을 결합하여 함께 제공함으로써, 영상만을 디스플레이하거나 사용자 이력과 무관한 음악을 출력하던 것과 대비하여 특정 과거 시점에 대한 단편적 전달을 넘어 입체적인 컨텐츠 전달이 가능한 이점이 있다. As such, according to embodiments of the present invention, an image and related music are displayed together based on metadata about the time when the image was captured using a speaker-combined electronic picture frame, thereby providing a rich experience of recalling a specific point in time. This allows you to effectively provide customized content to users. Specifically, based on the shooting time when the video was acquired, the video and the sound source played by the user at that time, or the sound source that was popular at the time, are combined and provided together, in contrast to displaying only the video or outputting music unrelated to the user's history. This has the advantage of being able to deliver three-dimensional content beyond fragmentary delivery of a specific past point in time.

이상 설명된 본 발명의 실시예들에 따른 프로세서(120)의 동작은 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The operations of the processor 120 according to the embodiments of the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded on a computer-readable medium. It can be. At this time, the medium may be one that stores a program executable on a computer. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the embodiments described above, and the scope of the claims described below as well as all scopes equivalent to or equivalently modified from the scope of the claims are included in the spirit of the present invention. It would be said to fall into the category.

100: 전자 액자
120: 프로세서
200: 사용자 단말
300: 서비스 서버
10: 상부 플레이트
20: 하부 플레이트
30: 디스플레이부
40: 스피커부
50: 슬라이딩 부
60: 감지 유닛
100: Electronic picture frame
120: processor
200: user terminal
300: service server
10: upper plate
20: lower plate
30: Display unit
40: speaker unit
50: sliding part
60: detection unit

Claims (15)

타겟 영상을 디스플레이하는 디스플레이부;
상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및
상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는,
사용자 단말로부터 타겟 영상의 촬영 일시에 대한 정보를 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고,
상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고,
상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며,
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보와, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고,
상기 제1 출력 데이터를 생성할 때, 상기 프로세서는 상기 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 상기 제2 메타 데이터가 포함하는 재생된 일시에 관한 정보를 연동하며,
상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력하는, 전자 액자.
A display unit that displays a target image;
a speaker unit that reproduces a target sound source related to the target image; and
A processor that controls output of content through the display unit and the speaker unit, wherein the processor includes,
Obtaining first metadata of the target image including information on the shooting date and time of the target image from the user terminal,
Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion,
Generating first output data by linking the first source data with the target image according to a predetermined playback rule,
The second metadata includes information on the date and time at which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time,
When generating the first output data, the processor links information on the capture date and time of the target image included in the first metadata with information on the playback date and time included in the second metadata,
An electronic photo frame that outputs the target image and the target sound source according to the first output data using the display unit and the speaker unit.
삭제delete 제1항에 있어서,
상기 프로세서는, 상기 제1 소스 데이터를 수신하는 단계에 있어서,
상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나,
상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택되는, 전자 액자.
According to paragraph 1,
In receiving the first source data, the processor
The first source data is received from the user terminal and is selected based on the user's playback record, or
The first source data is received from a service server different from the user terminal, and is selected based on the playback records of the user and users other than the user.
제1항에 있어서,
상기 프로세서는, 상기 제1 출력 데이터를 생성하는 단계에 있어서,
상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 상기 타겟 음원을 선택하고,
상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하고,
상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는, 전자 액자.
According to paragraph 1,
In generating the first output data, the processor
Selecting the target sound source from the first source data according to the playback rule,
Generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode,
An electronic picture frame that generates the first output data by linking the second source data with the target image.
제1항에 있어서,
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며,
상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출되는, 전자 액자.
According to paragraph 1,
The electronic picture frame includes a first plate and a second plate disposed to face the first plate, and the first plate is provided to slide with respect to the second plate through a sliding member,
An electronic picture frame in which at least a portion of the speaker unit is exposed through a sliding operation of at least one of the first plate and the second plate.
제5항에 있어서,
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고,
상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함하는, 전자 액자.
According to clause 5,
The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate,
The sensing unit is an electronic picture frame including a magnet unit and a Hall sensor that generates voltage by a magnetic field applied according to movement of the magnet unit.
제6항에 있어서,
상기 프로세서는,
상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하고,
상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하도록 제어하는, 전자 액자.
According to clause 6,
The processor,
Generating an output control signal based on the voltage generated by the sensing unit,
An electronic picture frame that controls to display the target image through the display unit and reproduce the target sound source through the speaker unit according to the output control signal.
사용자 단말로부터 타겟 영상의 촬영 일시에 대한 정보를 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하는 단계;
상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하는 단계;
상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하는 단계; 및
디스플레이부 및 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 타겟 음원을 출력하는 단계;를 포함하고,
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보와, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하며,
상기 제1 출력 데이터를 생성하는 단계는, 상기 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 상기 제2 메타 데이터가 포함하는 재생된 일시에 관한 정보를 연동하여 상기 제1 출력 데이터를 생성하는 단계인, 전자 액자의 구동 방법.
Obtaining first metadata of the target image including information on the shooting date and time of the target image from a user terminal;
Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion;
generating first output data by linking the first source data with the target image according to a predetermined playback rule; and
A step of outputting the target image and the target sound source according to the first output data using a display unit and a speaker unit,
The second metadata includes information on the date and time at which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time,
The step of generating the first output data includes linking information on the capture date and time of the target image included in the first metadata with information on the playback date and time included in the second metadata to generate the first output data. A method of driving an electronic picture frame, which is a step of generating a.
삭제delete 제8항에 있어서,
상기 제1 소스 데이터를 수신하는 단계에서,
상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나,
상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택되는, 전자 액자의 구동 방법.
According to clause 8,
In receiving the first source data,
The first source data is received from the user terminal and is selected based on the user's playback record, or
The first source data is received from a service server different from the user terminal, and is selected based on the playback records of the user and users other than the user.
제8항에 있어서,
상기 제1 출력 데이터를 생성하는 단계는,
상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택하는 단계;
상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하는 단계; 및
상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는 단계;
를 포함하는, 전자 액자의 구동 방법.
According to clause 8,
The step of generating the first output data is,
selecting a target sound source from the first source data according to the playback rule;
generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode; and
generating the first output data by linking the second source data with the target image;
A method of driving an electronic picture frame, including.
제8항에 있어서,
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며,
상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출되는, 전자 액자의 구동 방법.
According to clause 8,
The electronic picture frame includes a first plate and a second plate disposed to face the first plate, and the first plate is provided to slide with respect to the second plate through a sliding member,
A method of driving an electronic picture frame, wherein at least a portion of the speaker unit is exposed through a sliding operation of at least one of the first plate and the second plate.
제12항에 있어서,
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고,
상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함하는, 전자 액자의 구동 방법.
According to clause 12,
The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate,
The sensing unit includes a magnet unit and a Hall sensor that generates voltage by a magnetic field applied according to movement of the magnet unit.
제13항에 있어서,
상기 제1 출력 데이터를 출력하는 단계는,
상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계; 및
상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하는 단계;를 포함하는, 전자 액자의 구동 방법.
According to clause 13,
The step of outputting the first output data is,
generating an output control signal based on the voltage generated by the sensing unit; and
A method of driving an electronic photo frame comprising: displaying the target image through the display unit and reproducing the target sound source through the speaker unit according to the output control signal.
컴퓨터를 이용하여 제8항 및 제10항 내지 제14항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable storage medium to execute the method of any one of claims 8 and 10 to 14 using a computer.
KR1020210089940A 2021-07-08 2021-07-08 Electronic Picture Frame, Method and Computer Program for Driving Thereof KR102614762B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210089940A KR102614762B1 (en) 2021-07-08 2021-07-08 Electronic Picture Frame, Method and Computer Program for Driving Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210089940A KR102614762B1 (en) 2021-07-08 2021-07-08 Electronic Picture Frame, Method and Computer Program for Driving Thereof

Publications (2)

Publication Number Publication Date
KR20230009207A KR20230009207A (en) 2023-01-17
KR102614762B1 true KR102614762B1 (en) 2023-12-15

Family

ID=85111529

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210089940A KR102614762B1 (en) 2021-07-08 2021-07-08 Electronic Picture Frame, Method and Computer Program for Driving Thereof

Country Status (1)

Country Link
KR (1) KR102614762B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080103125A (en) * 2007-05-23 2008-11-27 삼성전자주식회사 Digital frame apparatus for displaying image using synchronized bgm and method thereof
KR101370911B1 (en) * 2007-10-23 2014-03-10 엘지전자 주식회사 thin type projector
WO2015074203A1 (en) * 2013-11-21 2015-05-28 华为终端有限公司 Picture displaying method, apparatus and terminal device
KR20200045390A (en) * 2018-10-22 2020-05-04 삼성전자주식회사 A display apparatus and a method of operating the display apparatus

Also Published As

Publication number Publication date
KR20230009207A (en) 2023-01-17

Similar Documents

Publication Publication Date Title
US9940970B2 (en) Video remixing system
US20130343727A1 (en) System and method for semi-automatic video editing
JP2010541415A (en) Compositing multimedia event presentations
US9558784B1 (en) Intelligent video navigation techniques
US9564177B1 (en) Intelligent video navigation techniques
US11641500B2 (en) Method and system for customized content
US20210144418A1 (en) Providing video recommendation
KR20220122952A (en) Method, system and recording medium for providing sound source of internet cartoon content
US10741213B1 (en) Systems and methods for modifying video edits
US9575960B1 (en) Auditory enhancement using word analysis
JP5306555B1 (en) System capable of providing a plurality of digital contents and method using the same
US8180469B1 (en) Method and system for linking two or more portions of digital media data for playback
KR102614762B1 (en) Electronic Picture Frame, Method and Computer Program for Driving Thereof
JP6602423B2 (en) Content providing server, content providing terminal, and content providing method
KR102046411B1 (en) Method and system for generating playlist using user play log of multimedia content
KR101684577B1 (en) Method of providing tag-based list of content and apparatus for the same
JP6234080B2 (en) System capable of providing a plurality of digital contents and method using the same
KR102244130B1 (en) Method and system for improving user experience in movie search
KR102493886B1 (en) Method for storing mood information during the taking pictures and playing thereof
Duester ‘There’sa lot of freedom you can have with that kind of thing’: vinyl and cassette split releases in the digital age
KR102433344B1 (en) Methods and devices that support user and musician team formation
KR102228375B1 (en) Method and system for reproducing multiple streaming contents
KR101970292B1 (en) Method and apparatus for post sharing service
Gilmour Spotify for Dummies
McCullough Sound mobility: Smartphones and tablets as ubiquitous polymedia music production studios

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant