KR102614762B1 - Electronic Picture Frame, Method and Computer Program for Driving Thereof - Google Patents
Electronic Picture Frame, Method and Computer Program for Driving Thereof Download PDFInfo
- Publication number
- KR102614762B1 KR102614762B1 KR1020210089940A KR20210089940A KR102614762B1 KR 102614762 B1 KR102614762 B1 KR 102614762B1 KR 1020210089940 A KR1020210089940 A KR 1020210089940A KR 20210089940 A KR20210089940 A KR 20210089940A KR 102614762 B1 KR102614762 B1 KR 102614762B1
- Authority
- KR
- South Korea
- Prior art keywords
- source data
- metadata
- target image
- sound source
- plate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000004590 computer program Methods 0.000 title claims description 10
- 230000033001 locomotion Effects 0.000 claims description 22
- 230000033458 reproduction Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005355 Hall effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 239000004020 conductor Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
- G06F1/1605—Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/638—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9038—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
Abstract
본 발명의 일 실시예에 따른 전자 액자는 타겟 영상을 디스플레이하는 디스플레이부; 상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및 상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는, 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고, 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며, 상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력한다.An electronic picture frame according to an embodiment of the present invention includes a display unit that displays a target image; a speaker unit that reproduces a target sound source related to the target image; and a processor that controls output of content through the display unit and the speaker unit, wherein the processor obtains first metadata of the target image including a shooting time of the target image from a user terminal, and the first Receive first source data including sound source data having second metadata whose relevance to metadata satisfies a predetermined standard, and link the first source data with the target video according to a predetermined playback rule to create a first source data. 1 Output data is generated, and the target image and the target sound source according to the first output data are output using the display unit and the speaker unit.
Description
본 발명은 전자 액자, 이의 구동 방법 및 컴퓨터 프로그램에 관한 것으로, 더 상세하게는 영상의 메타 데이터를 이용하여 영상 및 연관 음악을 함께 디스플레이하는 전자 액자, 이의 구동 방법 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to an electronic picture frame, a method of driving the same, and a computer program, and more specifically, to an electronic picture frame, a method of driving the same, and a computer program that displays an image and associated music together using metadata of the image.
최근 전자 기술의 발달로 인해 사용자에게 영상 및 음악 등의 다양한 컨텐츠를 제공하는 기술 또한 다양해지고 발전하는 추세이다. 특히 디지털 액자 또는 전자 액자는 사용자가 제공 받기를 원하는 영상을 슬라이드쇼 등의 다양한 출력 형태로, 또는 영상과 음원을 함께 출력하여 컨텐츠를 효과적으로 전달할 수 있다. Due to the recent development of electronic technology, technologies for providing various contents such as videos and music to users are also becoming more diverse and evolving. In particular, a digital picture frame or electronic picture frame can effectively deliver content by outputting the video the user wants to receive in various output formats such as a slideshow, or by outputting the video and sound together.
그러나, 디지털 액자를 통해 제공되는 음원은 주로 영상과 독립적으로 선택되어 영상과의 연관성이 낮아 컨텐츠의 전달력에 한계가 있다. 이에 컨텐츠를 사용자 맞춤형으로 가공하여 더 효과적으로 전달하는 기술에 대한 필요성이 증대되고 있다.However, the sound source provided through the digital picture frame is mainly selected independently from the video and has a low correlation with the video, limiting the ability to transmit content. Accordingly, the need for technology to process content in a customized manner and deliver it more effectively is increasing.
본 발명의 실시예들은 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 전달할 수 있는 전자 액자 및 그 구동 방법을 제공하고자 한다.Embodiments of the present invention use a speaker-combined electronic picture frame to display an image and related music together based on metadata about the time when the image was captured, thereby providing a rich recall experience for a specific point in time to provide user-customized content. The goal is to provide an electronic picture frame that can effectively transmit information and a method of driving it.
본 발명의 일 실시예에 따른 전자 액자는 타겟 영상을 디스플레이하는 디스플레이부; 상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및 상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는, 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고, 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며, 상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력한다.An electronic picture frame according to an embodiment of the present invention includes a display unit that displays a target image; a speaker unit that reproduces a target sound source related to the target image; and a processor that controls output of content through the display unit and the speaker unit, wherein the processor obtains first metadata of the target image including a shooting time of the target image from a user terminal, and the first Receive first source data including sound source data having second metadata whose relevance to metadata satisfies a predetermined standard, and link the first source data with the target video according to a predetermined playback rule to create a first source data. 1 Output data is generated, and the target image and the target sound source according to the first output data are output using the display unit and the speaker unit.
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고, 상기 제1 출력 데이터를 생성할 때, 상기 프로세서는 상기 제1 메타 데이터 및 상기 제2 메타 데이터를 시간적 관점에서 연동할 수 있다.The second metadata includes information on the date and time at which the sound source data was reproduced, the number of reproductions of the sound source data corresponding to the reproduced date and time, and when generating the first output data, the processor 1 metadata and the second metadata can be linked from a time perspective.
상기 프로세서는, 상기 제1 소스 데이터를 수신하는 단계에 있어서, 상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나, 상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다.In the step of receiving the first source data, the first source data is received from the user terminal and is selected based on the user's playback record, or the first source data is received from the user terminal and It is received from another service server and can be selected based on the playback records of the user and users other than the user.
상기 프로세서는, 상기 제1 출력 데이터를 생성하는 단계에 있어서, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 상기 타겟 음원을 선택하고, 상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하고, 상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성할 수 있다.In the step of generating the first output data, the processor selects the target sound source from the first source data according to the playback rule, and applies the playback rule to the target sound source to determine the playback order and playback time. And the playback mode may be set differently to generate second source data, and the first output data may be generated by linking the second source data with the target image.
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며, 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출될 수 있다.The electronic picture frame includes a first plate and a second plate disposed to face the first plate, the first plate is provided to slide through a sliding member with respect to the second plate, and the first plate and the At least a portion of the speaker unit may be exposed through a sliding operation of at least one of the second plates.
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고, 상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함할 수 있다.The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate, and the sensing unit generates a voltage by a magnet portion and a magnetic field applied according to the movement of the magnet portion. It may include a Hall sensor.
상기 프로세서는, 상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하고, 상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하도록 제어할 수 있다.The processor generates an output control signal based on the voltage generated by the sensing unit, displays the target image through the display unit and plays the target sound source through the speaker unit according to the output control signal. .
본 발명의 일 실시예에 따른 하는 전자 액자의 구동 방법은 사용자 단말로부터 타겟 영상의 촬영 시각을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하는 단계; 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하는 단계; 상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하는 단계; 및 디스플레이부 및 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 타겟 음원을 출력하는 단계;를 포함한다.A method of driving an electronic picture frame according to an embodiment of the present invention includes obtaining first metadata of the target image including the shooting time of the target image from a user terminal; Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion; generating first output data by linking the first source data with the target image according to a predetermined playback rule; and outputting the target image and target sound source according to the first output data using a display unit and a speaker unit.
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 시각에 관한 정보, 상기 재생된 시각에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고, 상기 제1 출력 데이터를 생성하는 단계에서, 상기 제1 메타 데이터 및 상기 제2 메타 데이터는 시간적 관점에서 연동될 수 있다.The second metadata includes information about the time at which the sound source data was reproduced, the number of reproductions of the sound source data corresponding to the reproduced time, and in the step of generating the first output data, the first metadata Data and the second metadata may be linked from a time perspective.
상기 제1 소스 데이터를 수신하는 단계에서, 상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나, 상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다.In the step of receiving the first source data, the first source data is received from the user terminal and is selected based on the user's playback record, or the first source data is received from a service server different from the user terminal. As such, the selection may be made based on the playback records of the user and users other than the user.
상기 제1 출력 데이터를 생성하는 단계는, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택하는 단계; 상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하는 단계; 및 상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는 단계를 포함할 수 있다.Generating the first output data may include selecting a target sound source from the first source data according to the playback rule; generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode; and generating the first output data by linking the second source data with the target image.
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며, 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출될 수 있다.The electronic picture frame includes a first plate and a second plate disposed to face the first plate, the first plate is provided to slide with respect to the second plate through a sliding member, and the first plate and the At least a portion of the speaker unit may be exposed through a sliding operation of at least one of the second plates.
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고, 상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함할 수 있다.The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate, and the sensing unit generates a voltage by a magnet portion and a magnetic field applied according to the movement of the magnet portion. It may include a Hall sensor.
상기 제1 출력 데이터를 출력하는 단계는, 상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계; 및 상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하는 단계;를 포함할 수 있다.Outputting the first output data may include generating an output control signal based on the voltage generated by the sensing unit; and displaying the target image through the display unit and reproducing the target sound source through the speaker unit according to the output control signal.
한편, 본 발명의 일 실시예에 따른 컴퓨터 프로그램은 상술한 방법을 컴퓨터를 이용하여 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다.Meanwhile, a computer program according to an embodiment of the present invention may be stored in a computer-readable storage medium in order to execute the above-described method using a computer.
본 발명의 실시예들에 따르면, 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 제공할 수 있다.According to embodiments of the present invention, a speaker-combined electronic picture frame is used to display an image and music related to it based on metadata about the time when the image was captured, thereby providing a rich recollection experience for a specific point in time to the user. Customized content can be provided effectively.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 전달 시스템의 구성을 간략히 도시한 구성도이다.
도 2는 본 발명의 일 실시예에 따른 전자 액자의 구성의 다측면도이다.
도 3은 본 발명의 일 실시예에 따른 전자 액자의 구성을 분해하여 바라본 사시도이다.
도 4는 본 발명의 일 실시예에 따른 전자 액자의 구성을 분해하여 그 내부 구성을 상면에서 바라본 상면도이다.
도 5는 본 발명의 일 실시예에 따른 전자 액자의 물리적 구동을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자 액자의 컨텐츠 디스플레이를 위한 구동 방법을 설명하기 위한 순서도이다.1 is a diagram briefly illustrating the configuration of a content delivery system according to an embodiment of the present invention.
Figure 2 is a multi-side view of the configuration of an electronic picture frame according to an embodiment of the present invention.
Figure 3 is an exploded perspective view of the structure of an electronic picture frame according to an embodiment of the present invention.
Figure 4 is a top view of the internal structure of the electronic picture frame according to an embodiment of the present invention, disassembled and viewed from the top.
Figure 5 is a diagram for explaining the physical operation of an electronic picture frame according to an embodiment of the present invention.
Figure 6 is a flowchart for explaining a driving method for displaying content of an electronic picture frame according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. In the following examples, singular terms include plural terms unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean that the features or components described in the specification exist, and do not exclude in advance the possibility of adding one or more other features or components. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.
이하의 실시예에서, 영역, 구성 요소, 부, 블록, 모듈 등의 부분이 다른 부분 위에 또는 상에 있다고 할 때, 다른 부분의 바로 위에 있는 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록, 모듈 등이 개재되어 있는 경우도 포함한다.In the following embodiments, when a part such as a region, component, unit, block, module, etc. is said to be on or on another part, it is not only the case that it is directly on top of the other part, but also the other area, component, or module in between. , blocks, modules, etc. are included.
이하의 실시예에서, 영역, 구성 요소, 부, 블록, 모듈 등이 연결되었다고 할 때, 영역, 구성 요소, 부, 블록, 모듈들이 직접적으로 연결된 경우뿐만 아니라 영역, 구성 요소, 부, 블록, 모듈들 중간에 다른 영역, 구성 요소, 부, 블록, 모듈들이 개재되어 간접적으로 연결된 경우도 포함한다. 예컨대, 본 명세서에서 영역, 구성 요소, 부, 블록, 모듈 등이 전기적으로 연결되었다고 할 때, 영역, 구성 요소, 부, 블록, 모듈 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 다른 영역, 구성 요소, 부, 블록, 모듈 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.In the following embodiments, when areas, components, parts, blocks, modules, etc. are connected, not only are the areas, components, parts, blocks, and modules directly connected, but also the areas, components, parts, blocks, and modules are connected. This also includes cases where other areas, components, parts, blocks, and modules are interposed and indirectly connected. For example, in this specification, when areas, components, parts, blocks, modules, etc. are said to be electrically connected, not only are the areas, components, parts, blocks, modules, etc. directly electrically connected, but also other areas in between, It also includes cases where components, parts, blocks, modules, etc. are indirectly electrically connected.
도 1은 본 발명의 일 실시예에 따른 컨텐츠 전달 시스템(1000)의 구성을 간략히 도시한 구성도이다.Figure 1 is a configuration diagram briefly illustrating the configuration of a
본 발명의 컨텐츠 전달 시스템(1000)은 전자 액자(100), 사용자 단말(200) 및 서비스 서버(300)를 이용하여 구현될 수 있다. 실시예에 따라서 컨텐츠 전달 시스템(1000)은 서비스 서버(300)를 이용하지 않고 전자 액자(100) 및 사용자 단말(200)만을 이용하여 구현될 수도 있다. 본 발명의 전자 액자(100)는 무선 또는 유선 통신 방식을 이용하여 네트워크(400)를 통해 사용자 단말(200) 및/또는 서비스 서버(300)와 통신할 수 있다.The
이하에서, '메타 데이터'라 함은 사진(image), 동영상을 포함하는 영상 데이터나 음원 데이터에 관한 다양하고 세부적인 정보를 담는 데이터를 의미한다. Hereinafter, 'metadata' refers to data containing various and detailed information about video data or sound source data, including photos (images) and videos.
영상 데이터의 메타 데이터는 영상 획득 당시의 촬영환경에 관한 다양한 정보를 포함할 수 있다. 예를 들어, 영상의 메타 데이터(이하에서, 제1 메타 데이터로 지칭할 수 있음)는 촬영 시점, 촬영 위치, 영상 크기(용량), 해상도, 재확인 횟수, 그 영상이 획득된 장치에 관한 장치 사양, 장치 설정 정보, 그 장치에 저장된 파일 형식, 방향 정보 및 아티스트/저작권 정보 등을 포함할 수 있다. Metadata of video data may include various information about the shooting environment at the time of video acquisition. For example, the metadata of the image (hereinafter referred to as first metadata) may include the shooting time, shooting location, image size (capacity), resolution, number of re-checks, and device specifications regarding the device on which the image was acquired. , device settings information, file formats stored on the device, orientation information, and artist/copyright information, etc.
음원의 메타 데이터는 음원 생성/재생 당시의 다양한 정보를 포함할 수 있다. 예를 들어, 음원의 메타 데이터(이하에서, 제2 메타 데이터로 지칭할 수 있음)는 음악 앨범이나 개별곡의 아티스트, 장르, 발표 시간, 곡의 길이(파일 크기) 및 파일 형식 등을 포함할 수 있다. 특히 본 발명의 제2 메타 데이터는 해당 음원의 사용자 단말(200) 및/또는 서비스 서버(300)를 통해 그 음원을 들었던 재생 일시(날짜, 시각), 재생/스트리밍 시간, 재생 횟수를 포함할 수 있다.Metadata of a sound source may include various information at the time of sound source creation/playback. For example, metadata of a sound source (hereinafter referred to as second metadata) may include the artist, genre, release time, song length (file size), and file format of a music album or individual song. You can. In particular, the second metadata of the present invention may include the play date (date, time), play/streaming time, and number of plays when the sound source was heard through the
본 발명의 실시예들에 따른 전자 액자(100) 및 그 구동 방법은 특정 시점에 촬영된 이미지(image), 동영상을 포함하는 영상 컨텐츠와, 상기 특정 시점을 메타 데이터로 공유하는 음원 컨텐츠를 함께 출력하여 풍부한 회상 경험을 제공함으로써, 상기 컨텐츠를 제공한 사용자가 특정 시점에 관하여 사진을 통한 순간적이고 단편적인 회상을 넘어 음악 감상 이력을 통한 입체적인 회상이 가능한 이점이 있다. The electronic picture frame 100 and its driving method according to embodiments of the present invention output video content including images and videos taken at a specific point in time, and sound source content sharing the specific point in time as metadata. By providing a rich reminiscence experience, there is an advantage in that the user who provided the content can have a three-dimensional recollection through music listening history beyond instantaneous and fragmentary recollection through photos regarding a specific point in time.
본 발명의 전자 액자(100)는 통신부(110), 프로세서(120), 메모리(130) 및 입출력 장치를 포함할 수 있다. 입출력 장치는 일 예로 디스플레이(140) 및 스피커(150)를 포함할 수 있다.The
통신부(110)는 네트워크(400)를 통해 전자 액자(100)가 다양한 유형의 통신 방식에 따라 다양한 유형의 사용자 단말(200) 등의 외부 장치 및/또는 서비스 서버(300) 등의 외부 서버와 통신하기 위한 기능을 제공할 수 있다. 일 예로 전자 액자(100)의 프로세서(120)가 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(110)의 제어에 따라 네트워크(400)를 통해 외부 장치 및/또는 서버로 전달될 수 있다. The
본 발명의 프로세서(120)는 사용자 단말(200)로부터 디스플레이할 타겟 영상의 촬영 시각(일시)을 포함한 제1 메타 데이터를 획득하고, 상기 제1 메타 데이터와 관련된 제2 메타 데이터를 가지는 음원 데이터를 제1 소스 데이터를 수신할 수 있다. 이후, 상기 타겟 영상과 상기 제1 소스 데이터를 소정의 기준에 따라 융합하여 제1 출력 데이터를 생성한 후, 후술하는 디스플레이(140) 및 스피커(150)를 이용하여 상기 제1 출력 데이터를 출력할 수 있다. The
프로세서(120)는 촬영 시기, 재생 시기 등의 시간적 관점의 메타 데이터를 공유하는 서로 다른 형태의 디지털 컨텐츠를 결합함으로써 사용자에게 특정 시점에 관하여 풍부한 회상 경험을 제공하여 사용자 맞춤형 컨텐츠를 효과적으로 전달할 수 있다. 본 발명의 프로세서(120)를 이용한 전자 액자(100)의 영상 및 음원의 메타 데이터를 활용한 컨텐츠의 출력 방법에 관하여는 후술하는 도 6에서 더 상세히 설명한다.The
프로세서(120)는 메모리(130)에 저장된 각종 프로그램을 이용하여 전자 액자(100)를 전반적으로 제어하는 동작을 수행할 수 있다. 프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 통신부(110) 또는 메모리(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 프로세서(120)는 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 포함할 수 있으나, 이에 한정되지 않는다.The
메모리(130)는 전자 액자(100)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 메모리(130)는 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
디스플레이부(140)는 출력 장치의 일 예로서, 사진(image), 동영상 또는 이들의 모음으로 구성되는 슬라이드쇼 등의 영상 컨텐츠를 디스플레이할 수 있다.The
스피커부(150)는 출력 장치의 다른 예로서, 상기 영상 컨텐츠와 함께 재생될 음원 데이터를 출력할 수 있다.The
본 도면에서는 전자 액자(100)의 각 구성요소들을 별개의 구성요소로 도시하였으나, 실시예에 따라서 각 구성요소는 필요에 따라 하나의 모듈로 통합하여 구현될 수도 있고, 별개의 모듈로 구현될 수 있음은 물론이다.In this drawing, each component of the
사용자 단말(200)은 사용자의 조작에 따라 전자 액자(100)를 통해 출력할 영상 컨텐츠 및/또는 이와 연관된 음원 컨텐츠를 전자 액자(100)에 전송할 수 있다. 사용자 단말(200)은 컴퓨터 장치로 구현되는 고정형 단말 또는 이동형 단말일 수 있다. 사용자 단말(200)은 일 예로 스마트폰, 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 테블릿 PC 등일 수 있으나, 이에 한정되지 않는다. 실시예에 따라서, 사용자는 사용자 단말(200)의 프로세서를 통해 전자 액자(100)를 통해 출력될 출력 데이터를 제어할 수 있다.The
서비스 서버(300)는 전자 액자(100) 및 사용자 단말(200)과 별도로 구비되는 외부 서버로서, 일 예로 음원 스트리밍 서버일 수 있다. 서비스 서버(300)는 디지털 음원을 사용자 단말(200)(또는 전자 액자(100)) 등의 스트리밍 장치로 제공하는 역할을 할 수 있다. 서비스 서버(300)에는 다수의 사용자들의 음원 스트리밍 기록에 관한 데이터베이스가 저장될 수 있고, 이러한 데이터베이스는 네트워크(400)를 통해 전자 액자(100) 및/또는 사용자 단말(200)로 전송되어 전자 액자(100)의 컨텐츠 제공에 활용될 수 있다. The
본 도면에는 도시되어 있지 않으나 사용자 단말(200) 및 서비스 서버(300) 또한 통신부, 프로세서 및 메모리를 포함할 수 있으며, 각 구성요소는 전자 액자(100)의 각 구성요소와 대응하는 기능을 가질 수 있다. 일 예로, 사용자 단말(200), 서비스 서버(300) 또한 각각의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 콘텐츠, 파일 등이 각각의 통신부와 네트워크(400)를 거쳐 전자 액자(100)의 통신부(110)를 통해 전자 액자(100)로 수신될 수 있다.Although not shown in this drawing, the
네트워크(400)는 일 예로, PAN(Personal Area Network), LAN(Local Area Network), CAN(Campus Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network), BBN(Broad Band Network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. The
본 발명의 컨텐츠 전달 시스템(1000)은 도 1에 도시된 구성 요소들 외에 다른 구성요소를 더 포함할 수도 있음은 물론이다.Of course, the
이하에서는, 도 2 내지 도 4를 사용하여 본 발명의 일 실시예에 따른 전자 액자(100)의 물리적 구성에 관하여 설명한다. 이하에서, 디스플레이부(30)는 도 1에서 설명한 디스플레이부(140)에 대응하는 구성이고, 스피커부(40)는 도 1에서 설명한 스피커부(150)에 대응하는 구성이다.Hereinafter, the physical configuration of the
도 2는 본 발명의 일 실시예에 따른 전자 액자(100)의 구성의 다측면도이다. 100a는 전자 액자(100)의 전면도이고, 100b는 전자 액자(100)의 일 측면도이고, 100c는 전자 액자(100)의 후면도이며, 100d는 전자 액자(100)의 상면도이다. Figure 2 is a multi-side view of the configuration of the
도 2의 100a 내지 100d를 함께 참조하면, 전자 액자(10)는 상부 플레이트(10) 및 이의 하부에 배치되어 조립되는 하부 플레이트(20)을 포함할 수 있다. 상부 플레이트(10) 및 하부 플레이트(20)이 본 도면을 기준으로 제1 방향(D1) 및 제2 방향(D2)의 D1-D2 평면과 나란하게 배치된 것을 기준으로 설명한다. 이하, 상부 플레이트(10)를 제1 플레이트, 하부 플레이트(20)를 제2 플레이트로 지칭하여 설명할 수도 있다. 상부 플레이트(10)와 하부 플레이트(20)는 전자 액자(100)로의 최종 조립 상태에서 서로 마주보도록 배치될 수 있다.Referring to 100a to 100d of FIG. 2 together, the
상부 플레이트(10)과 하부 플레이트(20) 사이에는 디스플레이부(30)가 게재되어 두 패널(10, 20)이 조립되면서 상부 플레이트(10)의 뚫린 공간으로 디스플레이부(30)가 노출될 수 있다. 상부 플레이트(10) 상에는 가운데 영역이 일부 뚫린 상부 프레임(11)이 위치하여 디스플레이부(30)의 노출 면적을 결정할 수 있다. 디스플레이부(30)는 하부 플레이트(20)의 내부, 특히 하부 플레이트(20)의 제3 방향(D3)으로 돌출된 돌출부(201)의 내부에 수납된 채로 상부 플레이트(10)과 조립될 수 있다. 상부 플레이트(10)은 하부 플레이트(20)을 기준으로 일 방향, 일 예로 제1 방향(D1)으로 슬라이딩될 수 있는데, 이에 관하여는 후술하는 도면에서 더 상세히 살펴본다.The
도 3은 본 발명의 일 실시예에 따른 전자 액자(100)의 구성을 분해하여 바라본 사시도이고, 도 4는 본 발명의 일 실시예에 따른 전자 액자(100)의 구성을 분해하여 그 내부 구성을 상면에서 바라본 상면도이다. Figure 3 is an exploded perspective view of the
도 3 및 도 4를 함께 참조하면, 전자 액자(100)는 상부 플레이트(10), 상부 프레임(11), 하부 플레이트(20), 디스플레이부(30), 스피커부(40) 및 슬라이딩부(50)를 포함할 수 있고, 실시예에 따라서 홀 센서(Hall sensor)(61) 및 마그넷 부(62)를 포함하는 감지 유닛(60)을 더 포함할 수 있다.Referring to FIGS. 3 and 4 together, the
상부 플레이트(10)는 전자 액자(100)의 상부에 위치하는 플레이트로서, 상부 프레임(11) 및 제1 슬라이딩 부재(51)가 그 내부에 조립될 수 있도록 내부 홈들이 형성되어 있을 수 있다. 상부 플레이트(10) 및 상부 프레임(11)은 중앙부 일부분이 그 하부에 배치되는 디스플레이부(30)가 외부에서 볼 때 노출되도록 뚫려 있다. 상부 플레이트(10)는 제1 방향(D1)으로 제1 가로 폭(w1)을 가질 수 있다.The
하부 플레이트(20)는 상부 플레이트(10)의 하부에 위치하여 전자 액자(100)의 하부면을 구성한다. 하부 플레이트(20)는 일 방향(D3)으로 소정의 두께를 갖고, 그 내부에는 싱글 보드 컴퓨터(Single-board Computer; 이하, 'SBC'로 지칭한다.)(21), 버튼 센서(22), 디스플레이부(30), 스피커부(40), 복수의 제2 슬라이딩 부재(52) 및 감지 유닛(60) 등의 다양한 부품들이 내장될 수 있는 내부 홈들이 형성되어 있을 수 있다. 하부 플레이트(20)는 제1 방향(D1)으로 제2 가로 폭(w2)을 가질 수 있다.The
상부 플레이트(10)는 하부 플레이트(20)에 대하여 후술하는 슬라이딩 부(50)를 통하여 슬라이딩 되도록 구비될 수 있다. The
도 4를 참조하면, 도 4에 도시된 상부 플레이트(10)는 중앙선(cl) 쪽 일 측을 기준으로 이와 대향하는 타 측이 하부 플레이트(20) 쪽으로 접혀 전자 액자(100)로 조립될 수 있다. 가령, 두 플레이트(10, 20)는 중앙선(cl)을 기준으로 접혀 상부 플레이트(10)의 일 측 경계선(l1)과 하부 플레이트(20)의 일 측 경계선(l2)이 겹치도록 전자 액자(100)가 조립될 수 있다.Referring to FIG. 4, the
제1 가로 폭(w1)은 제2 가로 폭(w2)보다 크고, 일 예로, 제1 가로 폭(w1)은 제2 가로 폭(w2)과 후술하는 스피커 부(40)의 가로 폭(ws)의 합보다 크거나 같을 수 있다 (w2=w1+ws).The first horizontal width (w1) is greater than the second horizontal width (w2), and as an example, the first horizontal width (w1) is equal to the second horizontal width (w2) and the horizontal width (ws) of the
SBC(21)는 도 1에서 전술한 통신부(110), 프로세서(120) 및 메모리(130)를 포함하여, 이들 구성에 대응하는 구성일 수 있다. SBC(21)는 일 예로 SBC의 형태로 구비될 수 있으나, SBC(21)의 구비 형태는 본 발명을 한정하지 않는다. SBC(21)는 후술하는 디스플레이부(30), 스피커부(40) 각각의 프로세서와 유무선으로 연결되어 각 장치들(30, 40)을 통한 컨텐츠의 출력을 제어할 수 있다.The
디스플레이부(30)는 상부 플레이트(10) 및 하부 플레이트(20) 사이, 또는 하부 플레이트(20)의 내부에 삽입되고, 그 적어도 일부가 전자 액자(100)의 전면(본 도면에서는 D3 방향)으로 노출되어 사용자에게 컨텐츠가 시각적으로 제공되도록 한다. 디스플레이부(30)는 SBC(21)의 제어를 통해 본 발명의 실시예들에 따라 생성된 제1 출력 데이터에 따른 타겟 영상을 디스플레이할 수 있다.The
스피커 부(40)는 스피커 장치(41), 스피커 덮개(42) 및 스피커 보넷(43) 등의 다양한 스피커 부재를 포함할 수 있다. 스피커 부(40)는 상부 플레이트(10)가 하부 플레이트(20)에 대하여 슬라이딩 동작을 통해 상대적으로 이동하는 경우 그 적어도 일부 또는 전부가 노출될 수 있다.The
스피커 장치(41)는 SBC(21)의 제어를 통해 본 발명의 실시예들에 따라 생성된 제1 출력 데이터에 따른 타겟 음원을 재생할 수 있다.The
스피커 덮개(42)는 스피커 장치(41)의 일 면에 스피커 장치(41)를 덮도록 두 플레이트(10, 20) 사이에 조립되어 스피커 장치(41)를 통해 출력되는 음원 데이터를 사용자에게 더 효과적으로 전달하는 역할을 할 수 있다. 또한, 스피커 덮개(42)는 슬라이딩 부(50)에 의해 상부 플레이트(10)가 하부 플레이트(20)를 기준으로 소정의 범위만큼 슬라이딩하는 경우 사용자에게 노출되는 부분일 수 있다.The
스피커 부(40)는 제1 방향(D1)으로 제3 가로 폭(ws)을 가질 수 있다.The
슬라이딩부(50)는 상부 플레이트(10)와 조립되는 제1 슬라이딩 부재(51) 및 하부 플레이트(20)와 조립되는 제2 슬라이딩 부재(52)를 포함할 수 있다. 본 도면에서는 제1 슬라이딩 부재(51)는 한 개, 제2 슬라이딩 부재(52)는 복수 개인 예시를 도시하였으나, 각 슬라이딩 부재(51, 52)의 개수는 본 발명을 한정하지 않는다. 일 예로 제2 슬라이딩 부재(52)는 복수 개로 형성되어 서로 조립될 수 있다. 여기서 도 4를 참조하면, 상부에 배치되는 제1 슬라이딩 부재(51)는 그 하부에 배치되는 제2 슬라이딩 부재(52)(또는 복수의 제2 슬라이딩 부재(52)의 전체 조립 부재)보다 제3 방향(D3)으로 바라볼 때 그 최외측 테두리에 의한 면적이 더 클 수 있다. 이와 같이 상부의 제1 슬라이딩 부재(51)가 하부의 제2 슬라이딩 부재(52)를 덮은 채로 일 방향(D1)으로 슬라이딩하여 슬라이딩 동작을 용이하게 구현할 수 있다. 또한, 전자 액자(100)의 외관상 보기에도 더 깔금한 미감을 제공할 수 있다. 실시예에 따라서, 제1 슬라이딩 부재(51)이 제2 슬라이딩 부재(52)보다 그 전체 면적이 작을 수도 있다. 이 경우 제1 슬라이딩 부재(51)가 제2 슬라이딩 부재(52)의 내부에 조립된 채로 일 방향(D1)으로 슬라이딩될 수 있다.The sliding
다시 도 4를 참조하면, 제1 슬라이딩 부재(51)는 상부 플레이트(10)의 일 방향(일 예로 D2 방향)의 양 측 각각에 구비될 수 있고, 마찬가지로 제2 슬라이딩 부재(52) 또한 하부 플레이트(20)의 일 방향(일 예로 D2 방향)의 양 측 각각에 구비될 수 있다. 슬라이딩 부재(51, 52)가 일 방향으로 양 측 각각에 구비됨으로써 전자 액자(100)의 슬라이딩 동작을 더 용이하고 안정적으로 조작할 수 있다. 실시예에 따라서, 슬라이딩 부재(51, 52)는 각각의 플레이트(10, 20)에서 일 방향의 일 측에만 구비될 수도 있음은 물론이다.Referring again to FIG. 4, the first sliding
여기서 도 5를 함께 참조하여 본 발명의 전자 액자(100)의 슬라이딩 동작에 관하여 설명한다. 도 5는 본 발명의 일 실시예에 따른 전자 액자(100)의 물리적 구동을 설명하기 위한 도면이다.Here, the sliding operation of the
도 5를 함께 참조하면, 사용자는 전자 액자(100)에 대하여 하부 플레이트(20)가 고정된 상태에서 슬라이딩 부재(50)를 이용하여 상부 플레이트(10)를 슬라이딩하여 이동시킬 수 있다. 전자 액자(100)의 슬라이딩 동작 전에는 도 2의 전면도(100a)에 도시된 바와 같이 전면에서 보면 디스플레이부(30)가 노출된 상부 플레이트(10)만 보일 수 있다. 도 5에 도시된 슬라이딩 동작 후에는 상부 플레이트(10)의 일 측으로 하부 플레이트(20)의 적어도 일부, 또는 스피커 부(40)의 적어도 일부 또는 전체가 전면에 노출될 수 있다. 이때 상부 플레이트(10)의 슬라이딩 폭에 따라 스피커 부(40)의 노출 폭 또한 달라질 수 있다. Referring to FIG. 5 , a user may slide and move the
이상에서는 상부 플레이트(10)가 슬라이딩하는 것을 예시로 들어 설명하였으나, 본 발명의 슬라이딩 동작은 두 플레이트(10, 20) 간의 상대적인 이동을 의미하는 것으로 하부 플레이트(20)가 슬라이딩할 수도 있음은 물론이다. 즉, 본 발명의 전자 액자(100)의 슬라이딩 동작은 상부 플레이트(10) 및 하부 플레이트(20) 중 적어도 하나의 이동에 의해 구현될 수 있다.In the above, the sliding of the
전자 액자(100)의 슬라이딩 동작 여부에 따라 전자 액자(100)를 통해 출력되는 출력 컨텐츠가 상이할 수 있다. 가령, 도 1의 전면도(100a)와 같은 닫힌 모드(closed mode)에서는 디스플레이부(30)를 통해 영상 컨텐츠만 디스플레이되고, 도 5와 같이 슬라이딩 된 열린 모드(opened mode)에서는 디스플레이부(30)를 통해서는 영상 컨텐츠가 디스플레이되고 스피커부(40)를 통해서는 음원 컨텐츠가 재생되어 영상 및 음원이 함께 출력될 수 있다.The output content output through the
다시, 도 3 및 도 4를 참조하면, 본 발명의 감지 유닛(60)은 홀 센서(Hall sensor)(61) 및 마그넷 부(62)를 포함할 수 있다. 홀 센서(61) 및 마그넷 부(62)는 각각 상부 플레이트(10)나 하부 플레이트(20)에 부착되어 일 플레이트(10, 20)의 슬라이딩 등의 플레이트들(10, 20) 간의 상대적인 움직임을 감지할 수 있다.Referring again to FIGS. 3 and 4, the
홀 센서(61)는 홀 효과(Hall Effect)를 이용한 센서로서, 홀 효과에 의한 자기장 변화를 측정하여 대상체의 회전 속도, 이동 방향 등의 움직임을 감지하는 역할을 할 수 있다. 홀 효과란 전류가 흐르는 도체에 자기장을 인가하면 전류의 진행 방향에 수직 방향으로 전압(기전력)이 발생하는 효과를 의미한다. The
홀 센서(61)는 플레이트들(10, 20)의 슬라이딩 동작 시 움직임을 효과적으로 감지할 수 있도록 플레이트들(10, 20)의 일 경계부에 부착될 수 있다. 일 예로, 홀 센서(61)는 도 3에 도시된 제2 방향(D2)과 나란한 기준선(bl) 또는 도 4에 도시된 중앙선(cl) 부근에 부착될 수 있다. 도 4에서는 홀 센서(61)가 싱글보드 컴퓨터(SBC)(21)의 일 측에 부착된 예시를 도시하였으나, 홀 센서(61)의 부착 위치는 플레이트들(10, 20) 간의 상대적인 움직임을 용이하게 감지할 수 있는 범위 내에서 다양하게 설계 변경될 수 있음은 물론이다.The
마그넷 부(62)는 전술한 홀 센서(61)에 자기장을 인가하여 홀 센서(61)에 의한 기전력을 발생시킴으로써 플레이트(10, 20)의 움직임을 감지하는 역할을 할 수 있다. 마그넷 부(62)는 적어도 하나 이상의 자석을 포함할 수 있다. 마그넷 부(62)는 홀 센서(61)와 마찬가지로 플레이트들(10, 20)의 일 경계부에 부착될 수 있으며, 일 예로 도 3의 기준선(bl) 또는 도 4의 중앙선(cl) 부근에 배치될 수 있다. 일 예로 마그넷 부(62)는 스피커부(40)의 일 면에 부착될 수 있으나, 마그넷 부(62)의 부착 위치는 플레이트들(10, 20) 간의 상대적인 움직임을 용이하게 감지할 수 있는 범위 내에서 다양하게 설계 변경될 수 있음은 물론이다.The
본 발명의 프로세서(120)는 감지 유닛(60)에 의해 발생한 전압을 기초로 출력 제어 신호를 생성할 수 있다. 상기 출력 제어 신호에 따라 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하도록 제어할 수 있다. 실시예에 따라서, 타겟 영상과 타겟 음원을 포함하는 제1 출력 데이터의 출력은 상기 감지 유닛(60)에 의한 감지에 의하지 않고 다른 제어에 의해 동작할 수도 있음은 물론이다. 예를 들어, 전자 액자(100)가 포함하는 다른 입출력 인터페이스를 통해 리모컨 등의 다른 외부 단말로부터의 제어신호를 입력받아 전자 액자(100)를 통한 컨텐츠의 출력을 제어할 수 있다.The
홀 센서(61)와 마그넷 부(62)의 상대적인 움직임으로 인해 발생한 전압은 전류와 자기장의 세기에 비례하므로, 감지 유닛(60)은 플레이트들(10, 20)의 슬라이딩 동작을 다양한 방식으로 감지할 수 있다. 예를 들어, 전술한 도 5에서 설명한 슬라이딩 동작의 속도, 상부 플레이트(10)의 일 경계부 위치나 스피커 부(40)의 노출 폭에 따른 슬라이딩 정도에 따라 감지 유닛(60)에 의한 전압, 전류 세기가 달라질 수 있다. 이에 따라 스피커 부(40)에서 출력되는 음량, 소리 크기 등의 출력 성능을 제어할 수 있다. 가령 전자 액자(100)의 프로세서(120) 등을 통해 슬라이딩 동작 정도에 따라 스피커 부(40)의 노출 폭이 클수록 스피커 부(40)를 통해 출력되는 음량이 크도록 설정할 수 있다.Since the voltage generated due to the relative movement of the
도 6은 본 발명의 일 실시예에 따른 전자 액자(100)의 컨텐츠 디스플레이를 위한 구동 방법을 설명하기 위한 순서도이다. 본 발명의 전자 액자(100)의 구동 방법은 도 1에서 설명한 컨텐츠 전달 시스템(1000)이 포함하는 사용자 단말(200) 및/또는 서비스 서버(300)를 함께 이용하여 구현될 수 있다.FIG. 6 is a flowchart illustrating a driving method for displaying content of the
이하에서, S100, S200, S300 단계는 전자 액자(100)의 프로세서(120)에 의해 수행될 수 있고, S400 단계는 프로세서(120)의 제어에 의해 출력장치(130, 140)(도 1 참고)에 의해 수행될 수 있다. 본 발명의 일 실시예에 따른 전자 액자의 구동 방법은 후술하는 단계들을 포함할 수 있다.Hereinafter, steps S100, S200, and S300 may be performed by the
먼저, 전자 액자(100)는 사용자 단말(200)로부터 타겟 영상의 촬영 시각(일시)을 포함한 상기 타겟 영상의 제1 메타 데이터를 획득할 수 있다(S100). 이때 사용자 단말(200)은 타겟 영상 및 이의 메타데이터인 제1 메타 데이터를 전자 액자(200)로 전송할 수 있다 (S101). 제1 메타 데이터는 타겟 영상의 촬영 시각(일시)에 대한 정보를 포함한다.First, the
이후, 전자 액자(100)는 상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신할 수 있다(S200). Thereafter, the
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시/기간에 관한 정보, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함할 수 있다.The second metadata may include information about the time/period on which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time.
가령, 프로세서(120)가 획득한 일 타겟 영상의 제1 메타 데이터 중 그 촬영 일시가 '20xx년 3월 10일'이라고 가정한다. 프로세서(120)는 상기 ‘20xx년 3월 10일’의 일시를 기준으로 소정의 기준을 만족하는 제2 메타 데이터를 결정할 수 있다. 소정의 기준은 제1 메타 데이터와 동일한 일시의 재생 기록 유무, 또는 동일한 일시에 몇 회 이상의 재생 기록 유무 등일 수 있다. For example, assume that the shooting date and time among the first metadata of the target image acquired by the
또 다른 실시예로서, S200 단계는 다음 단계들을 포함할 수 있다. 상기 제1 메타 데이터로부터 소정의 기간 범위로 확장된 제1 확장 메타 데이터를 추출할 수 있다. 이후 상기 제1 확장 메타 데이터와의 관련성이 소정의 기준을 만족하는 상기 제2 메타 데이터를 가지는 음원 데이터를 포함하는 상기 제1 소스 데이터를 수신할 수 있다. 가령, 전술한 제1 메타 데이터의‘20xx년 3월 10일’의 기준 일시로부터 전후 일주일, 전후 한 달 등의 소정의 기간 범위로 확장된 제1 확장 메타 데이터를 추출할 수 있다. 소정의 기간 범위가 전후 일주일일 때 제1 확장 메타 데이터는 ‘20xx년 3월 10일’ 로부터 전후 일주일의 기간을 포함한 ‘20xx년 3월 3일’부터 ‘20xx년 3월 17일’의 기간일 수 있다. 이후, 상기 제1 확장 메타 데이터를 기준으로 소정의 기준을 만족하는 제2 메타 데이터를 결정할 수 있다. As another example, step S200 may include the following steps. First extended metadata extended to a predetermined period of time can be extracted from the first metadata. Thereafter, the first source data including sound source data having the second metadata satisfying a predetermined criterion in relation to the first extended metadata may be received. For example, the first extended metadata that extends from the standard date and time of ‘March 10, 20xx’ of the above-described first metadata to a predetermined period of time, such as a week before or after, or a month before or after, can be extracted. When the predetermined period range is one week before and after, the first extended metadata is the period from 'March 3, 20xx' to 'March 17, 20xx', including the period of one week before and after 'March 10, 20xx'. You can. Thereafter, second metadata that satisfies a predetermined criterion may be determined based on the first extended metadata.
제1 소스 데이터는 제2 메타 데이터를 만족하는 음원 데이터로서, 가령 전술한 제1 메타 데이터 또는 제1 확장 메타 데이터를 만족하는 재생 일시/기간, 상기 재생 일시/기간 내의 재생 횟수의 제2 메타 데이터를 가지는 음원 데이터일 수 있다.The first source data is sound source data that satisfies the second metadata, for example, the playback date/period that satisfies the above-described first metadata or the first extended metadata, and the second metadata of the number of plays within the playback date/period. It may be sound source data having .
전술한 제1 확장 메타 데이터, 제2 메타 데이터를 결정하는 소정의 기준은 다양한 기준으로 프로세서(120) 상에 미리 설정될 수 있다. Predetermined criteria for determining the above-described first extended metadata and second metadata may be set in advance on the
한편, 프로세서(120)는 전술한 제1 소스 데이터를 서비스 서버(300)로부터 수신할 수도 있고(S210), 사용자 단말(200)로부터 수신할 수도 있고(S220), 본 도면에는 도시하지 않았으나 서비스 서버(300) 및 사용자 단말(200) 모두로부터 수신할 수도 있다.Meanwhile, the
S210 단계의 경우, 프로세서(120)는 서비스 서버(300)로 제2 메타 데이터를 가지는 제1 소스 데이터를 요청하고(S201), 서비스 서버(300)는 해당 제1 소스 데이터를 프로세서(120)로 전송할 수 있다(S202). 이때 제1 소스 데이터는 전자 액자(100)(또는 사용자 단말(200))의 사용자뿐만 아니라 서비스 서버(300)의 DB에 저장된 다른 사용자들의 재생 기록에 기초하여 선택될 수 있다. 예를 들어, 타겟 영상이 촬영된 제1 메타 데이터에 따른 기간에 사용자가 재생한 음원이 재생될 수도 있고, 상기 기간에 사용자 외의 다른 사용자들도 많이 들었던 그 시기에 유행했던 음원들이 재생될 수도 있다.In step S210, the
S220 단계의 경우, 프로세서(120)는 사용자 단말(200)로 제2 메타 데이터를 가지는 제1 소스 데이터를 요청하고(S203), 사용자 단말(200)은 해당 제1 소스 데이터를 프로세서(120)로 전송할 수 있다(S204). 이때 제1 소스 데이터는 사용자의 재생 기록에 기초하여 선택되어, 전자 액자(100)의 컨텐츠 출력 시 사용자 맞춤형 음원이 출력될 수 있다.In step S220, the
이후, 프로세서(120)는 제1 소스 데이터를 소정의 재생 규칙에 따라 타겟 영상과 연동하여 제1 출력 데이터를 생성할 수 있다(S300). S300 단계에서의 연동은 제1 메타 데이터와 제2 메타 데이터의 시간적 관점에서의 연동, 즉 전술한 것과 같이 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 제2 메타 데이터가 포함하는 재생된 일시에 대한 정보의 연동을 의미할 수 있다. Thereafter, the
S300 단계는 구체적으로 다음 단계들을 포함할 수 있다. Step S300 may specifically include the following steps.
먼저, 상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택할 수 있다. 가령, 타겟 영상에 상기 제1 소스 데이터의 모든 음원 데이터를 리스트 업하여 연동할 수도 있고, 실시예에 따라서 제1 소스 데이터 중 일부의 음원 데이터만 연동할 수도 있다. 이때 제1 소스 데이터 중 타겟 영상에 연동되어 저장된 음원 데이터를 타겟 음원이라 할 수 있다.First, a target sound source can be selected from the first source data according to the playback rule. For example, all sound source data of the first source data may be listed and linked to the target image, or depending on the embodiment, only some sound source data of the first source data may be linked. At this time, sound source data stored in conjunction with the target image among the first source data may be referred to as the target sound source.
이후, 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성할 수 있다. 상기 소정의 재생 규칙은 제2 메타 데이터의 기간 내에서 재생 횟수에 따라 음원 데이터의 개수를 결정하거나, 상기 재생 횟수에 따라 내림차순으로 음원 데이터의 재생 순서를 결정하거나, 선택된 음원 데이터의 재생 구간을 결정하는 등 다양한 규칙을 포함할 수 있다. Thereafter, the playback rule can be applied to the target sound source and the playback order, playback time, and playback mode can be set differently to generate second source data. The predetermined playback rule determines the number of sound source data according to the number of plays within the period of the second meta data, determines the playback order of the sound source data in descending order according to the playback number, or determines the playback section of the selected sound source data. It can contain various rules, such as:
이후, 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성할 수 있다. Thereafter, the first output data may be generated by linking the second source data with the target image.
S300 단계 이후, 디스플레이부(140) 및 스피커부(150)를 이용하여 상기 제1 출력 데이터에 따른 타겟 영상 및 타겟 음원을 출력할 수 있다(S400). 이때, 제1 소스 데이터를 수신하는 단계(S200)와 같이 프로세서(120)는 전술한 제2 소스 데이터를 서비스 서버(300)로부터 수신할 수도 있고(S410), 사용자 단말(200)로부터 수신할 수도 있고(S420), 본 도면에는 도시하지 않았으나 서비스 서버(300) 및 사용자 단말(200) 모두로부터 수신할 수도 있다.After step S300, the target image and target sound source according to the first output data can be output using the
S410 단계의 경우, 프로세서(120)는 서비스 서버(300)로 제1 출력 데이터에 따른 제2 소스 데이터를 요청하고(S401), 서비스 서버(300)는 해당 제2 소스 데이터를 프로세서(120)로 전송할 수 있다(S402). S420 단계의 경우, 프로세서(120)는 사용자 단말(200)로 제1 출력 데이터에 따른 제2 소스 데이터를 요청하고(S403), 사용자 단말(200)는 해당 제2 소스 데이터를 프로세서(120)로 전송할 수 있다(S404).In step S410, the
이하, 출력 단계(S400)에 관하여 전술한 도 3 내지 도 5를 함께 참조하여 전자 액자(100)의 물리적 구동과 연관된 측면에서 설명한다. 전술한 설명과 중복되는 내용은 설명을 생략하거나 간단히 한다.Hereinafter, the output step (S400) will be described in terms of physical operation of the
전자 액자(100)는 상부 플레이트(10) 및 제2 플레이트(20) 중 적어도 하나의 슬라이딩 동작을 통해 스피커부(40)의 적어도 일부가 노출되도록 구비될 수 있다. 이때 전자 액자(100)는 플레이트들(10, 20) 간의 슬라이딩 동작을 감지하는 감지 유닛(60)을 포함하고, 감지 유닛(60)은 마그넷 부(62) 및 상기 마그넷 부(62)의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(61)를 포함할 수 있다. The
이때 S400 단계는, 감지 유닛(60)에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계, 및 상기 출력 제어 신호에 따라 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하는 단계를 포함할 수 있다.At this time, step S400 includes generating an output control signal based on the voltage by the
전자 액자(100)가 감지 유닛(60)을 통해 전자 액자(100)의 두 플레이트(10, 20) 간의 슬라이딩 동작을 감지할 수 있다. 상기 감지 여부에 따라 프로세서(120)는 디스플레이부(30)를 통해 타겟 영상을 디스플레이하고 스피커부(40)를 통해 타겟 음원을 재생하도록 제어할 수 있다.The
이와 같이, 본 발명의 실시예들에 따르면 스피커 결합형 전자 액자를 이용하여 영상의 촬영 시기에 관한 메타 데이터를 기초로 영상과 이와 관련된 음악을 함께 디스플레이함으로써, 특정 시점에 대한 회상 경험을 풍부하게 전달하여 사용자 맞춤형 컨텐츠를 효과적으로 제공할 수 있다. 구체적으로, 영상이 획득된 촬영 시기를 기준으로 영상과 그 당시 사용자가 재생했던 음원, 또는 그 당시 유행했던 음원을 결합하여 함께 제공함으로써, 영상만을 디스플레이하거나 사용자 이력과 무관한 음악을 출력하던 것과 대비하여 특정 과거 시점에 대한 단편적 전달을 넘어 입체적인 컨텐츠 전달이 가능한 이점이 있다. As such, according to embodiments of the present invention, an image and related music are displayed together based on metadata about the time when the image was captured using a speaker-combined electronic picture frame, thereby providing a rich experience of recalling a specific point in time. This allows you to effectively provide customized content to users. Specifically, based on the shooting time when the video was acquired, the video and the sound source played by the user at that time, or the sound source that was popular at the time, are combined and provided together, in contrast to displaying only the video or outputting music unrelated to the user's history. This has the advantage of being able to deliver three-dimensional content beyond fragmentary delivery of a specific past point in time.
이상 설명된 본 발명의 실시예들에 따른 프로세서(120)의 동작은 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. The operations of the
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.
따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the embodiments described above, and the scope of the claims described below as well as all scopes equivalent to or equivalently modified from the scope of the claims are included in the spirit of the present invention. It would be said to fall into the category.
100: 전자 액자
120: 프로세서
200: 사용자 단말
300: 서비스 서버
10: 상부 플레이트
20: 하부 플레이트
30: 디스플레이부
40: 스피커부
50: 슬라이딩 부
60: 감지 유닛100: Electronic picture frame
120: processor
200: user terminal
300: service server
10: upper plate
20: lower plate
30: Display unit
40: speaker unit
50: sliding part
60: detection unit
Claims (15)
상기 타겟 영상과 관련된 타겟 음원을 재생하는 스피커부; 및
상기 디스플레이부 및 상기 스피커부를 통한 컨텐츠의 출력을 제어하는 프로세서;를 포함하고, 상기 프로세서는,
사용자 단말로부터 타겟 영상의 촬영 일시에 대한 정보를 포함한 상기 타겟 영상의 제1 메타 데이터를 획득하고,
상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하고,
상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하며,
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보와, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하고,
상기 제1 출력 데이터를 생성할 때, 상기 프로세서는 상기 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 상기 제2 메타 데이터가 포함하는 재생된 일시에 관한 정보를 연동하며,
상기 디스플레이부 및 상기 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 상기 타겟 음원을 출력하는, 전자 액자.A display unit that displays a target image;
a speaker unit that reproduces a target sound source related to the target image; and
A processor that controls output of content through the display unit and the speaker unit, wherein the processor includes,
Obtaining first metadata of the target image including information on the shooting date and time of the target image from the user terminal,
Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion,
Generating first output data by linking the first source data with the target image according to a predetermined playback rule,
The second metadata includes information on the date and time at which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time,
When generating the first output data, the processor links information on the capture date and time of the target image included in the first metadata with information on the playback date and time included in the second metadata,
An electronic photo frame that outputs the target image and the target sound source according to the first output data using the display unit and the speaker unit.
상기 프로세서는, 상기 제1 소스 데이터를 수신하는 단계에 있어서,
상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나,
상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택되는, 전자 액자.According to paragraph 1,
In receiving the first source data, the processor
The first source data is received from the user terminal and is selected based on the user's playback record, or
The first source data is received from a service server different from the user terminal, and is selected based on the playback records of the user and users other than the user.
상기 프로세서는, 상기 제1 출력 데이터를 생성하는 단계에 있어서,
상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 상기 타겟 음원을 선택하고,
상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하고,
상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는, 전자 액자.According to paragraph 1,
In generating the first output data, the processor
Selecting the target sound source from the first source data according to the playback rule,
Generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode,
An electronic picture frame that generates the first output data by linking the second source data with the target image.
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며,
상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출되는, 전자 액자.According to paragraph 1,
The electronic picture frame includes a first plate and a second plate disposed to face the first plate, and the first plate is provided to slide with respect to the second plate through a sliding member,
An electronic picture frame in which at least a portion of the speaker unit is exposed through a sliding operation of at least one of the first plate and the second plate.
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고,
상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함하는, 전자 액자.According to clause 5,
The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate,
The sensing unit is an electronic picture frame including a magnet unit and a Hall sensor that generates voltage by a magnetic field applied according to movement of the magnet unit.
상기 프로세서는,
상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하고,
상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하도록 제어하는, 전자 액자.According to clause 6,
The processor,
Generating an output control signal based on the voltage generated by the sensing unit,
An electronic picture frame that controls to display the target image through the display unit and reproduce the target sound source through the speaker unit according to the output control signal.
상기 제1 메타 데이터와의 관련성이 소정의 기준을 만족하는 제2 메타 데이터를 가지는 음원 데이터를 포함하는 제1 소스 데이터를 수신하는 단계;
상기 제1 소스 데이터를 소정의 재생 규칙에 따라 상기 타겟 영상과 연동하여 제1 출력 데이터를 생성하는 단계; 및
디스플레이부 및 스피커부를 이용하여 상기 제1 출력 데이터에 따른 상기 타겟 영상 및 타겟 음원을 출력하는 단계;를 포함하고,
상기 제2 메타 데이터는, 상기 음원 데이터가 재생된 일시에 관한 정보와, 상기 재생된 일시에 대응하는 상기 음원 데이터의 재생 횟수를 포함하며,
상기 제1 출력 데이터를 생성하는 단계는, 상기 제1 메타 데이터가 포함하는 타겟 영상의 촬영 일시에 대한 정보와 상기 제2 메타 데이터가 포함하는 재생된 일시에 관한 정보를 연동하여 상기 제1 출력 데이터를 생성하는 단계인, 전자 액자의 구동 방법.Obtaining first metadata of the target image including information on the shooting date and time of the target image from a user terminal;
Receiving first source data including sound source data having second metadata whose relevance to the first metadata satisfies a predetermined criterion;
generating first output data by linking the first source data with the target image according to a predetermined playback rule; and
A step of outputting the target image and the target sound source according to the first output data using a display unit and a speaker unit,
The second metadata includes information on the date and time at which the sound source data was reproduced, and the number of reproductions of the sound source data corresponding to the reproduced date and time,
The step of generating the first output data includes linking information on the capture date and time of the target image included in the first metadata with information on the playback date and time included in the second metadata to generate the first output data. A method of driving an electronic picture frame, which is a step of generating a.
상기 제1 소스 데이터를 수신하는 단계에서,
상기 제1 소스 데이터는 상기 사용자 단말로부터 수신되는 것으로서, 사용자의 재생 기록에 기초하여 선택되거나,
상기 제1 소스 데이터는 상기 사용자 단말과 다른 서비스 서버로부터 수신되는 것으로서, 상기 사용자 및 상기 사용자 외에 다른 사용자들의 재생 기록에 기초하여 선택되는, 전자 액자의 구동 방법.According to clause 8,
In receiving the first source data,
The first source data is received from the user terminal and is selected based on the user's playback record, or
The first source data is received from a service server different from the user terminal, and is selected based on the playback records of the user and users other than the user.
상기 제1 출력 데이터를 생성하는 단계는,
상기 제1 소스 데이터로부터 상기 재생 규칙에 따라 타겟 음원을 선택하는 단계;
상기 타겟 음원에 대하여 상기 재생 규칙을 적용하여 재생 순서, 재생 시간 및 재생 모드를 달리 설정하여 제2 소스 데이터를 생성하는 단계; 및
상기 제2 소스 데이터를 상기 타겟 영상과 연동하여 상기 제1 출력 데이터를 생성하는 단계;
를 포함하는, 전자 액자의 구동 방법.According to clause 8,
The step of generating the first output data is,
selecting a target sound source from the first source data according to the playback rule;
generating second source data by applying the playback rule to the target sound source and setting different playback order, playback time, and playback mode; and
generating the first output data by linking the second source data with the target image;
A method of driving an electronic picture frame, including.
상기 전자 액자는 제1 플레이트 및 상기 제1 플레이트와 마주보도록 배치되는 제2 플레이트를 포함하고, 상기 제1 플레이트는 상기 제2 플레이트에 대하여 슬라이딩 부재를 통하여 슬라이딩 되도록 구비되며,
상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 통해 상기 스피커부의 적어도 일부가 노출되는, 전자 액자의 구동 방법.According to clause 8,
The electronic picture frame includes a first plate and a second plate disposed to face the first plate, and the first plate is provided to slide with respect to the second plate through a sliding member,
A method of driving an electronic picture frame, wherein at least a portion of the speaker unit is exposed through a sliding operation of at least one of the first plate and the second plate.
상기 전자 액자는 상기 제1 플레이트 및 상기 제2 플레이트 중 적어도 하나의 슬라이딩 동작을 감지하는 감지 유닛을 포함하고,
상기 감지 유닛은 마그넷 부 및 상기 마그넷 부의 움직임에 따라 인가되는 자기장에 의해 전압을 발생시키는 홀 센서(Hall sensor)를 포함하는, 전자 액자의 구동 방법.According to clause 12,
The electronic picture frame includes a sensing unit that detects a sliding motion of at least one of the first plate and the second plate,
The sensing unit includes a magnet unit and a Hall sensor that generates voltage by a magnetic field applied according to movement of the magnet unit.
상기 제1 출력 데이터를 출력하는 단계는,
상기 감지 유닛에 의한 전압을 기초로 출력 제어 신호를 생성하는 단계; 및
상기 출력 제어 신호에 따라 상기 디스플레이부를 통해 상기 타겟 영상을 디스플레이하고 상기 스피커부를 통해 상기 타겟 음원을 재생하는 단계;를 포함하는, 전자 액자의 구동 방법.According to clause 13,
The step of outputting the first output data is,
generating an output control signal based on the voltage generated by the sensing unit; and
A method of driving an electronic photo frame comprising: displaying the target image through the display unit and reproducing the target sound source through the speaker unit according to the output control signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210089940A KR102614762B1 (en) | 2021-07-08 | 2021-07-08 | Electronic Picture Frame, Method and Computer Program for Driving Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210089940A KR102614762B1 (en) | 2021-07-08 | 2021-07-08 | Electronic Picture Frame, Method and Computer Program for Driving Thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230009207A KR20230009207A (en) | 2023-01-17 |
KR102614762B1 true KR102614762B1 (en) | 2023-12-15 |
Family
ID=85111529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210089940A KR102614762B1 (en) | 2021-07-08 | 2021-07-08 | Electronic Picture Frame, Method and Computer Program for Driving Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102614762B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080103125A (en) * | 2007-05-23 | 2008-11-27 | 삼성전자주식회사 | Digital frame apparatus for displaying image using synchronized bgm and method thereof |
KR101370911B1 (en) * | 2007-10-23 | 2014-03-10 | 엘지전자 주식회사 | thin type projector |
WO2015074203A1 (en) * | 2013-11-21 | 2015-05-28 | 华为终端有限公司 | Picture displaying method, apparatus and terminal device |
KR20200045390A (en) * | 2018-10-22 | 2020-05-04 | 삼성전자주식회사 | A display apparatus and a method of operating the display apparatus |
-
2021
- 2021-07-08 KR KR1020210089940A patent/KR102614762B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230009207A (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9940970B2 (en) | Video remixing system | |
US20130343727A1 (en) | System and method for semi-automatic video editing | |
JP2010541415A (en) | Compositing multimedia event presentations | |
US9558784B1 (en) | Intelligent video navigation techniques | |
US9564177B1 (en) | Intelligent video navigation techniques | |
US11641500B2 (en) | Method and system for customized content | |
US20210144418A1 (en) | Providing video recommendation | |
KR20220122952A (en) | Method, system and recording medium for providing sound source of internet cartoon content | |
US10741213B1 (en) | Systems and methods for modifying video edits | |
US9575960B1 (en) | Auditory enhancement using word analysis | |
JP5306555B1 (en) | System capable of providing a plurality of digital contents and method using the same | |
US8180469B1 (en) | Method and system for linking two or more portions of digital media data for playback | |
KR102614762B1 (en) | Electronic Picture Frame, Method and Computer Program for Driving Thereof | |
JP6602423B2 (en) | Content providing server, content providing terminal, and content providing method | |
KR102046411B1 (en) | Method and system for generating playlist using user play log of multimedia content | |
KR101684577B1 (en) | Method of providing tag-based list of content and apparatus for the same | |
JP6234080B2 (en) | System capable of providing a plurality of digital contents and method using the same | |
KR102244130B1 (en) | Method and system for improving user experience in movie search | |
KR102493886B1 (en) | Method for storing mood information during the taking pictures and playing thereof | |
Duester | ‘There’sa lot of freedom you can have with that kind of thing’: vinyl and cassette split releases in the digital age | |
KR102433344B1 (en) | Methods and devices that support user and musician team formation | |
KR102228375B1 (en) | Method and system for reproducing multiple streaming contents | |
KR101970292B1 (en) | Method and apparatus for post sharing service | |
Gilmour | Spotify for Dummies | |
McCullough | Sound mobility: Smartphones and tablets as ubiquitous polymedia music production studios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |