KR102435244B1 - An apparatus for providing a producing service of transformed multimedia contents using matching of video resources - Google Patents

An apparatus for providing a producing service of transformed multimedia contents using matching of video resources Download PDF

Info

Publication number
KR102435244B1
KR102435244B1 KR1020210179466A KR20210179466A KR102435244B1 KR 102435244 B1 KR102435244 B1 KR 102435244B1 KR 1020210179466 A KR1020210179466 A KR 1020210179466A KR 20210179466 A KR20210179466 A KR 20210179466A KR 102435244 B1 KR102435244 B1 KR 102435244B1
Authority
KR
South Korea
Prior art keywords
language
content
data
resource
conversion
Prior art date
Application number
KR1020210179466A
Other languages
Korean (ko)
Other versions
KR102435244B9 (en
Inventor
이수민
Original Assignee
주식회사 웨인힐스브라이언트에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨인힐스브라이언트에이아이 filed Critical 주식회사 웨인힐스브라이언트에이아이
Priority to KR1020210179466A priority Critical patent/KR102435244B1/en
Application granted granted Critical
Publication of KR102435244B1 publication Critical patent/KR102435244B1/en
Publication of KR102435244B9 publication Critical patent/KR102435244B9/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The present invention relates to a device for providing multimedia conversion content production service using video resource matching of audio information. The service providing device according to an embodiment of the present invention comprises: a voice data processing module collecting voice data of a first language; an input unit converting the voice data of the first language received from the voice data processing module into a text sentence of the first language according to text recognition, obtaining the converted text sentence as conversion target data, and processing the identification of the format of the conversion target data; a target language setting unit configured to set a target language corresponding to the conversion target data; an element information extraction unit extracting element information corresponding to the target language from the conversion target data; a content composition/conversion unit configured to obtain multimedia converted content by synthesizing and converting multimedia content based on the target language-based image resource matching corresponding to the element information; and an output unit outputting the multimedia converted contents. The present invention is to easily and quickly create multimedia conversion contents based on target data without the need for a separate specialized tool or expert participation.

Description

음성 정보의 영상 리소스 매칭을 이용한 멀티미디어 변환 콘텐츠 제작 서비스 제공 장치{AN APPARATUS FOR PROVIDING A PRODUCING SERVICE OF TRANSFORMED MULTIMEDIA CONTENTS USING MATCHING OF VIDEO RESOURCES}Device for providing multimedia conversion contents production service using video resource matching of audio information

본 발명은 서비스 제공 장치에 관한 것이다. 보다 구체적으로, 본 발명은 음성 정보로부터 변환된 텍스트의 영상 리소스 매칭을 이용한 멀티미디어 변환 콘텐츠 제작 서비스 제공 장치에 관한 것이다.The present invention relates to a service providing apparatus. More specifically, the present invention relates to an apparatus for providing a multimedia conversion content production service using image resource matching of text converted from voice information.

최근 영상 및 콘텐츠 제작기술의 발달로, 개인화된 다양한 멀티미디어 콘텐츠들이 제작되고 있으며, 소셜 네트워킹 서비스 등을 통해 유통 및 소비되고 있다. 유튜브로 대표되는 멀티미디어 콘텐츠 공유 서비스는 그 제작자 및 사용자가 기하급수적으로 증가되고 있으며, 영상 콘텐츠 제작을 위한 다양한 전문화 툴 또한 사용자 편의성 측면에서 개발되고 있다.With the recent development of video and content production technology, various personalized multimedia contents are being produced and distributed and consumed through social networking services. In the multimedia content sharing service represented by YouTube, the number of creators and users is increasing exponentially, and various specialized tools for video content production are also being developed in terms of user convenience.

그러나, 아직까지도 이러한 전문화 툴의 사용이 편리하지만은 못한 실정이다. 고품질의 멀티미디어 콘텐츠 제작을 위하여는, 전문화 툴을 잘 사용하는 전문가의 시간 및 기술 인력이 투입되어야 하며, 제작을 위한 자료 공수의 어려움 및 이에 따른 제작 비용이 소요되고 있는 실정이다.However, it is still not convenient to use these specialized tools. In order to produce high-quality multimedia contents, the time and technical manpower of experts who use specialized tools well must be invested, and the difficulty of manufacturing data for production and production costs are incurred accordingly.

특히, 이러한 문제점은 기존의 텍스트 포맷 문서들을 정보전달력을 높이기 위해 멀티미디어 콘텐츠로 전환하는 작업에서 더욱 크게 나타난다. 통상의 보고서와 같은 텍스트 문서를 영상 콘텐츠로 제작하려면, 관련 영상 자료의 수집, 전문화 툴의 사용, 전문가의 기술 인력 및 시간 비용이 과도하게 소요되게 된다.In particular, this problem is more pronounced in the work of converting existing text format documents into multimedia contents to enhance information delivery power. In order to produce a text document such as a normal report as video content, collection of related video data, use of specialized tools, technical personnel and time costs of experts are excessively required.

또한, 텍스트 포맷 문서를 사전 제작하는 데에도 시간 및 비용이 들어갈 수 있으며, 전문화된 텍스트 작업 인력이 있어야 영상 콘텐츠를 만들 수 있다는 문제점이 있다.In addition, time and money may be required to pre-produce a text format document, and there is a problem in that it is necessary to have a specialized text worker to create video content.

본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, 멀티미디어 콘텐츠 포맷이 아닌 음성 정보로부터 자동 변환된 텍스트 정보를 포함하는 대상 데이터를 사전 설정 및 학습된 분석 프로세스에 따라 리소스 매칭, 변환 및 가공 처리하여, 별도의 전문적인 툴 또는 전문가 참여 없이도 쉽고 용이하면서 빠르게 대상 데이터 기반의 멀티미디어 변환 콘텐츠를 제작할 수 있는 변환 콘텐츠 제작 서비스 제공 방법 및 그 장치를 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and resource matching, conversion, and processing processing according to preset and learned analysis process for target data including text information automatically converted from voice information rather than multimedia content format Accordingly, an object of the present invention is to provide a method and an apparatus for providing a converted content creation service that can easily, easily, and quickly produce multimedia converted content based on target data without a separate professional tool or expert participation.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 서비스 제공 장치의 동작 방법에 있어서, 제1 언어의 음성 데이터를 수집하는 단계; 상기 제1 언어의 음성 데이터로부터 변환 대상 데이터를 획득하는 단계; 상기 변환 대상 데이터에 대응하는 타겟 언어가 설정되면, 상기 대상 데이터로부터 상기 타겟 언어에 대응되는 요소 정보를 추출하는 단계; 상기 요소 정보의 상기 타겟 언어 기반 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 단계; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method for operating a service providing apparatus, the method comprising: collecting voice data of a first language; obtaining conversion target data from the voice data of the first language; when a target language corresponding to the conversion target data is set, extracting element information corresponding to the target language from the target data; performing multimedia content synthesis and conversion processing based on the target language-based image resource matching of the element information to obtain multimedia converted content; and outputting the multimedia conversion content.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 서비스 제공 장치에 있어서, 제1 언어의 음성 데이터를 수집하는 음성 데이터 처리 모듈; 상기 변환 대상 데이터에 대응하는 타겟 언어를 설정하는 타겟 언어 설정부; 상기 대상 데이터로부터 상기 타겟 언어에 대응되는 요소 정보를 추출하는 요소 정보 추출부; 상기 요소 정보에 대응하는 상기 타겟 언어 기반 영상 리소스 매칭을 기반으로 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 콘텐츠 합성 변환부; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 출력부를 포함한다.In addition, an apparatus according to an embodiment of the present invention for solving the above problems, a service providing apparatus, comprising: a voice data processing module for collecting voice data of a first language; a target language setting unit configured to set a target language corresponding to the conversion target data; an element information extraction unit for extracting element information corresponding to the target language from the target data; a content synthesizing and converting unit for obtaining multimedia converted content by performing multimedia content synthesizing and converting processing based on the target language-based image resource matching corresponding to the element information; and an output unit for outputting the multimedia conversion content.

한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 상기 프로그램이 기록된 기록 매체로 구현될 수 있다.On the other hand, the method according to an embodiment of the present invention for solving the above problems may be implemented as a program for executing the method in a computer and a recording medium in which the program is recorded.

본 발명의 실시 예에 따르면, 제1 언어의 음성 데이터가 수집되어 상기 변환 대상 데이터로 획득되고, 타겟 언어가 설정되면, 대상 데이터로부터 요소 정보를 추출하고, 요소 정보에 대응하는 타겟 언어 기반 영상 리소스 매칭을 기반으로 제작 인터페이스를 제공할 수 있으며, 제작 인터페이스에 대한 사용자 입력에 따라, 멀티미디어 콘텐츠 합성 및 변환 서비스를 수행함으로써, 대상 데이터로부터 변환되는 멀티미디어 영상 변환 콘텐츠 제작을 편리하게 한다.According to an embodiment of the present invention, when voice data of a first language is collected and obtained as the conversion target data, and a target language is set, element information is extracted from the target data, and a target language-based video resource corresponding to the element information It is possible to provide a production interface based on matching, and by performing multimedia content synthesis and conversion service according to a user input to the production interface, it is convenient to produce multimedia image conversion content converted from target data.

이에 따라, 본 발명의 실시 예에 따른 서비스 제공 장치는, 멀티미디어 콘텐츠 포맷이 아닌 통상의 문서나 음성과 같은 대상 데이터를, 사전 설정 및 학습된 분석 프로세스에 따라 타겟 언어를 기반으로 리소스 매칭, 변환 및 가공 처리할 수 있으며, 별도의 전문적인 툴, 번역가 또는 전문가 참여 없이도 쉽고 용이하면서 빠르게 대상 데이터 기반의 글로벌한 멀티미디어 변환 콘텐츠를 제작할 수 있게 한다.Accordingly, the service providing apparatus according to an embodiment of the present invention performs resource matching, conversion, and resource matching based on a target language according to a preset and learned analysis process for target data such as a normal document or voice rather than a multimedia content format. It can be processed, and it enables the creation of global multimedia conversion contents based on the target data easily, easily and quickly without the participation of a separate professional tool, translator or expert.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 서비스 제공 장치의 동작을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 합성 변환된 영상 멀티미디어 콘텐츠 예시도이다.
도 5는 본 발명의 실시 예에 따른 입력 데이터로부터 멀티미디어 콘텐츠 데이터로 변환되는 과정을 예시적으로 설명하기 위한 도면이다.
도 6 내지 도 7은 본 발명의 실시 예에 따른 리소스 데이터베이스를 설명하기 위한 도면이다.
도 9은 본 발명의 실시 예에 따른 제작 인터페이스를 보다 구체적으로 설명하기 위한 도면이다.
1 is a conceptual diagram schematically illustrating an entire system according to an embodiment of the present invention.
2 is a block diagram illustrating a service providing apparatus according to an embodiment of the present invention in more detail.
3 is a flowchart illustrating an operation of a service providing apparatus according to an embodiment of the present invention.
4 is an exemplary diagram of synthesized-converted video multimedia content according to an embodiment of the present invention.
5 is a diagram for explaining a process of converting input data into multimedia content data according to an embodiment of the present invention.
6 to 7 are diagrams for explaining a resource database according to an embodiment of the present invention.
9 is a view for explaining in more detail a manufacturing interface according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. Further, it is to be understood that all conditional terms and examples listed herein are, in principle, expressly intended solely for the purpose of enabling the concept of the present invention to be understood, and not limited to such specifically enumerated embodiments and states. should be

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Moreover, it is to be understood that all detailed description reciting the principles, aspects, and embodiments of the invention, as well as specific embodiments, are intended to cover structural and functional equivalents of such matters. It is also to be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on a computer-readable medium and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the clear use of terms presented as processor, control or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above-described objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, when it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating an entire system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따른 시스템은, 서비스 제공 장치(100), 사용자 단말(200) 및 멀티미디어 콘텐츠 서버(300)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment of the present invention may include a service providing apparatus 100 , a user terminal 200 , and a multimedia content server 300 .

본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 사용자 단말(200)로부터의 변환 대상 데이터를 입력 데이터로 처리하고, 이에 대응하는 요소 정보의 리소스 매칭 기반 멀티미디어 콘텐츠 변환을 수행할 수 있으며, 변환된 멀티미디어 콘텐츠는 멀티미디어 콘텐츠 서버(300)로 출력되어 하나 이상의 서비스 이용자 단말로 배포될 수 있다.The service providing apparatus 100 according to an embodiment of the present invention may process the conversion target data from the user terminal 200 as input data, and perform resource matching-based multimedia content conversion of element information corresponding thereto, The converted multimedia content may be output to the multimedia content server 300 and distributed to one or more service user terminals.

나아가, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 음성 데이터 처리 모듈(210)을 더 포함할 수 있으며, 음성 데이터 처리 모듈(210)은 사용자 단말(200)로 입력되거나, 별도 외부 장치에서 입력된 제1 언어의 음성 데이터를 수집하여 서비스 제공 장치(100)로 전달하는 기능을 수행할 수 있다.Furthermore, the service providing apparatus 100 according to an embodiment of the present invention may further include a voice data processing module 210 , and the voice data processing module 210 may be input to the user terminal 200 or a separate external device. A function of collecting voice data of the first language input from the device and transmitting it to the service providing device 100 may be performed.

이에 따라, 변환 대상 데이터는 상기 제1 언어의 음성 데이터로부터 획득될 수 있는 바, 이 경우 서비스 제공 장치(100)는 상기 변환 대상 데이터에 대응하는 타겟 언어가 설정되면, 상기 대상 데이터로부터 상기 타겟 언어에 대응되는 요소 정보를 추출하고, 상기 요소 정보의 상기 타겟 언어 기반 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하며, 상기 멀티미디어 변환 콘텐츠는 멀티미디어 콘텐츠 서버(300)로 출력되어, 하나 이상의 서비스 이용자 단말 또는 사용자 단말(200)로 배포될 수 있다.Accordingly, the conversion target data may be obtained from the voice data of the first language. In this case, the service providing apparatus 100 sets the target language corresponding to the conversion target data from the target data. Extracting element information corresponding to , and performing multimedia content synthesis and conversion processing based on the target language-based image resource matching of the element information to obtain multimedia converted content, wherein the multimedia converted content is a multimedia content server (300) It may be output as , and distributed to one or more service user terminals or user terminals 200 .

이를 위해, 보다 구체적으로, 서비스 제공 장치(100)는, 사용자 단말(200)로부터 변환 대상 데이터가 입력되면, 상기 대상 데이터로부터 요소 정보를 추출하고, 상기 요소 정보에 대응하는 영상 리소스 매칭을 기반으로 사용자 단말(200)로의 제작 인터페이스를 제공하며, 상기 제작 인터페이스에 대한 사용자 입력에 따라, 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하며, 상기 멀티미디어 변환 콘텐츠를 멀티미디어 콘텐츠 서버(300)로 출력한다.To this end, more specifically, the service providing apparatus 100, when the conversion target data is input from the user terminal 200, extracts element information from the target data, and based on image resource matching corresponding to the element information Provides a production interface to the user terminal 200, performs multimedia content synthesis and conversion processing according to a user input to the production interface to obtain multimedia conversion content, and transfers the multimedia conversion content to the multimedia content server 300 output as

또한, 서비스 제공 장치(100)는, 사용자 단말(200)로부터 음성 데이터 처리 모듈(210)을 통해 입력된 제1 언어의 음성 데이터가 획득되면, 상기 음성 데이터에 기초하여 변환 대상 데이터를 획득하고, 상기 변환 대상 데이터에 대응하는 타겟 언어가 설정되면, 상기 대상 데이터로부터 상기 타겟 언어에 대응되는 요소 정보를 추출하고, 상기 요소 정보에 대응하는 타겟 언어 기반 영상 리소스 매칭을 기반으로 사용자 단말(200)로의 제작 인터페이스를 제공하며, 상기 제작 인터페이스에 대한 사용자 입력에 따라, 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하며, 상기 멀티미디어 변환 콘텐츠를 멀티미디어 콘텐츠 서버(300)로 출력한다.In addition, the service providing apparatus 100, when the voice data of the first language input through the voice data processing module 210 is obtained from the user terminal 200, acquires conversion target data based on the voice data, When a target language corresponding to the transformation target data is set, element information corresponding to the target language is extracted from the target data, and based on target language-based image resource matching corresponding to the element information, to the user terminal 200 It provides a production interface, performs multimedia content synthesis and conversion processing according to a user input to the production interface, obtains multimedia converted content, and outputs the multimedia converted content to the multimedia content server 300 .

이에 따라, 입력 대상 데이터로부터 변환 출력된 멀티미디어 변환 콘텐츠는 멀티미디어 콘텐츠 서버(300)를 통해 하나 이상의 다른 사용자 단말로 배포될 수 있으며, 멀티미디어 콘텐츠 서버(300)는 멀티미디어 변환 콘텐츠 기반의 다양한 정보 제공 서비스를 처리할 수 있다.Accordingly, the multimedia converted content converted from the input target data may be distributed to one or more other user terminals through the multimedia content server 300, and the multimedia content server 300 provides various information providing services based on the multimedia converted content. can be processed

이러한 사용자 단말(200), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 네트워크를 통해 유선 또는 무선으로 연결될 수 있으며, 네트워크간 상호간 통신을 위해 각 사용자 단말(200), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 인터넷 네트워크, LAN, WAN, PSTN(Public Switched Telephone Network), PSDN(Public Switched Data Network), 케이블 TV 망, WIFI, 이동 통신망 및 기타 무선 통신망 등을 통하여 데이터를 송수신할 수 있다. 사용자 단말(200), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 각 통신망에 상응하는 프로토콜로 통신하기 위한 각각의 통신 모듈을 포함할 수 있다.The user terminal 200, the service providing apparatus 100, and the multimedia content server 300 may be connected by wire or wirelessly through a network, and each user terminal 200 and the service providing apparatus 100 may be connected to each other for communication between networks. ) and the multimedia content server 300 transmit and receive data through an Internet network, LAN, WAN, PSTN (Public Switched Telephone Network), PSDN (Public Switched Data Network), cable TV network, WIFI, mobile communication network and other wireless communication networks, etc. can do. The user terminal 200 , the service providing apparatus 100 , and the multimedia content server 300 may include respective communication modules for communicating with a protocol corresponding to each communication network.

그리고, 본 명세서에서 설명되는 사용자 단말(200)에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있으나, 본 발명은 이에 한정되지 아니하며 그 이외에 사용자 입력 및 정보 표시 등이 가능한 다양한 장치일 수 있다.In addition, the user terminal 200 described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, and the like. may be included, but the present invention is not limited thereto, and may be various devices capable of user input and information display other than that.

이와 같은 시스템에 있어서, 사용자 단말(200)은 서비스 제공 장치(100)로부터 입력 데이터의 리소스 매칭 기반 멀티미디어 콘텐츠 변환 서비스를 제공받을 수 있으며, 변환된 멀티미디어 콘텐츠 데이터에 기반한 부가 정보 서비스를 제공받을 수 있다.In such a system, the user terminal 200 may receive a multimedia content conversion service based on resource matching of input data from the service providing device 100 , and may receive an additional information service based on the converted multimedia content data. .

특히, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 요소 정보 추출에 있어서, 사전 설정된 자연어 처리 알고리즘에 따라, 변환 대상 입력 데이터의 패턴 및 통계적 유사성에 따른 핵심 요소 정보를 텍스트 기반으로 추출할 수 있으며, 추출된 텍스트 기반의 요소 정보를 이용한 영상, 이미지, 텍스트, 자막, 애니메이션, 글꼴(색상, 크기, 폰트) 및 오디오를 프레임 병합 레이어별로 최적화 매칭시키는 리소스 매칭 처리를 수행할 수 있으며, 매칭 처리된 요소 정보를 이용한 제작 인터페이스 제공 및 사용자 입력에 따른 상기 프레임 병합 레이어 기반의 최적화된 멀티미디어 변환 콘텐츠를 생성할 수 있다.In particular, in extracting element information, the service providing apparatus 100 according to an embodiment of the present invention extracts key element information according to a pattern and statistical similarity of input data to be converted based on text according to a preset natural language processing algorithm. resource matching processing that optimizes matching video, image, text, subtitle, animation, font (color, size, font) and audio by frame merge layer using the extracted text-based element information, It is possible to provide a production interface using matching-processed element information and to generate optimized multimedia conversion content based on the frame merging layer according to a user input.

이에 따라, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 다양한 포맷의 시장 보고서, 통계 보고서, 기업 소개서, 상업 광고지, 이력서, 자기 소개서 등과 같은 일반적 문서나 이미지 데이터가 입력되더라도, 요소 분석을 통해 추출된 요소 정보와 영상 콘텐츠 리소스 매칭을 처리함으로써, 최적화된 프레임 병합에 의한 멀티미디어 영상 콘텐츠가 쉽고 빠르게 제작될 수 있는 바, 멀티미디어 영상 콘텐츠 제작에 소요되는 전문인력과 비용, 시간 등을 크게 절감할 수 있으며, 영상 편집에 대한 비전문가라 하더라도 서비스 제공 장치(100)의 매칭 제안에 따른 일반 문서 기반의 멀티미디어 영상 콘텐츠 제작을 가능하게 한다.Accordingly, the service providing apparatus 100 according to an embodiment of the present invention analyzes elements even when general documents or image data such as market reports, statistical reports, company introductions, commercial flyers, resumes, and self-introductions in various formats are input. By processing element information and video content resource matching extracted through Even non-experts in image editing enable the production of general document-based multimedia image content according to the matching proposal of the service providing apparatus 100 .

나아가, 제1 언어의 음성 데이터 인식을 기반으로 변환 대상 데이터가 획득된 경우, 다양한 타겟 언어로의 영상 콘텐츠 리소스 매칭을 처리할 수 있으므로, 하나의 언어로 입력받은 변환 대상 데이터에 대하여, 다양한 국가별 문화에 알맞는 멀티미디어 변환 콘텐츠가 생성될 수 있게 된다. 이는 영상 편집에 대한 비전문가일 뿐만 아니라, 특정 국가별 언어 및 문화에 대한 지식이 없는 사용자라 하더라도, 각 국가별 언어 또는 문화에 맞는 글로벌한 멀티미디어 변환 콘텐츠를 쉽고 용이하게 제작할 수 있게 하는 효과가 있다.Furthermore, when conversion target data is obtained based on voice data recognition of the first language, image content resource matching in various target languages can be processed, so that for conversion target data input in one language, various countries Multimedia conversion content suitable for culture can be created. This has the effect of making it possible to easily and easily create global multimedia conversion contents suitable for each country's language or culture, not only for non-experts in video editing, but also for users without knowledge of the language and culture of each country.

도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 설명하기 위한 블록도이다.2 is a block diagram illustrating in more detail an apparatus for providing a service according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 대상 데이터 입력부(110), 타겟 언어 설정부(117), 요소 정보 추출부(120), 영상 리소스 매칭부(130), 제작 인터페이스 제공부(140), 콘텐츠 합성 변환부(150), 학습 데이터베이스(160), 리소스 데이터베이스(180) 및 출력부(170)를 포함한다.Referring to FIG. 2 , the service providing apparatus 100 according to an embodiment of the present invention includes a target data input unit 110 , a target language setting unit 117 , an element information extraction unit 120 , and an image resource matching unit 130 . ), a production interface providing unit 140 , a content synthesis conversion unit 150 , a learning database 160 , a resource database 180 , and an output unit 170 .

먼저, 입력부(110)는, 멀티미디어 콘텐츠 변환을 위한 대상 데이터를 사용자 단말(200)로부터 입력받아 요소 정보 추출부(120)로 전달한다.First, the input unit 110 receives target data for multimedia content conversion from the user terminal 200 and transmits it to the element information extraction unit 120 .

입력부(110)는, 사용자 단말(200)로부터 대상 데이터를 입력받기 위한 하나 이상의 입력 인터페이스를 포함할 수 있다. 예를 들어, 상기 대상 데이터는 사용자 단말(200)로부터 입력된 문서 데이터일 수 있으며, 보고서, 기업 소개서, 자기 소개서, 상업 광고문서 등 다양한 포맷의 데이터를 포함할 수 있다. 나아가 대상 데이터는 특정 사이트로부터 추출되는 뉴스 기사 문서이거나, 소셜 미디어(SNS) 문서 등도 포함될 수 있다.The input unit 110 may include one or more input interfaces for receiving target data from the user terminal 200 . For example, the target data may be document data input from the user terminal 200 , and may include data in various formats, such as a report, a company introduction, a self-introduction letter, and a commercial advertisement document. Furthermore, the target data may be a news article document extracted from a specific site, or may include a social media (SNS) document.

또한, 입력부(110)는 음성 데이터 처리 모듈(210)로부터 수신된 제1 언어의 음성 데이터를 텍스트 인식에 따라 상기 제1 언어의 텍스트 문장으로 변환하며, 상기 변환된 텍스트 문장을 상기 변환 대상 데이터로 획득할 수도 있다.In addition, the input unit 110 converts the voice data of the first language received from the voice data processing module 210 into a text sentence of the first language according to text recognition, and converts the converted text sentence into the conversion target data. may be obtained.

예를 들어, 상기 대상 데이터는 음성 데이터 처리 모듈(210)를 통해 입력된 사용자의 제1 언어의 음성 데이터일 수 있으며, 기업 소개 음성 데이터, 자기 소개 음성 데이터, 상업 광고 음성 데이터, 보고 음성 데이터 등 다양한 포맷의 음성 데이터를 포함할 수 있다. 나아가, 제1 언어의 음성 데이터는 특정 사이트에서 추출되는 동영상의 음성 데이터이거나, 소셜 미디어(SNS)에서 획득되는 음성 데이터 등도 포함될 수 있다.For example, the target data may be voice data of the user's first language input through the voice data processing module 210, company introduction voice data, self-introduction voice data, commercial advertisement voice data, report voice data, etc. It may include voice data in various formats. Furthermore, the voice data of the first language may be voice data of a video extracted from a specific site, or may include voice data acquired from social media (SNS).

그리고, 입력부(110)는, 사용자 단말(200)로부터 입력된 대상 데이터의 포맷식별을 처리할 수 있으며, 포맷 식별 정보는 요소 정보 추출부(120)로 전달될 수있다.In addition, the input unit 110 may process the format identification of the target data input from the user terminal 200 , and the format identification information may be transmitted to the element information extraction unit 120 .

포맷 식별 정보는 예를 들어, 문서 타입을 나타낼 수 있으며, 소설, 수필, 뉴스 기사, 기안서, 기획서, 계획서, 영업보고서, 결산보고서, 회의 보고서 등의 다양한 문서 타입이 예시될 수 있다.The format identification information may indicate, for example, a document type, and various document types such as novels, essays, news articles, drafts, plans, plans, sales reports, settlement reports, and conference reports may be exemplified.

또한, 포맷 식별 정보는 예를 들어, 음성 데이터 타입을 나타낼 수 있으며, 기업 소개 발표, 자기 소개, 상업 광고, 대면 보고, 노래, 뮤직비디오, 기자회견 등의 다양한 음성 데이터 타입이 예시될 수 있다.In addition, the format identification information may indicate, for example, a voice data type, and various voice data types such as company introduction announcement, self-introduction, commercial advertisement, face-to-face report, song, music video, and press conference may be exemplified.

또한, 입력부(110)는 대상 데이터에 대응하는 주요 요소 데이터를 더 입력받을 수도 있다. 주요 요소 데이터는 예를 들어, 사용자 단말(200)에서 입력된 핵심 키워드, 음성 데이터 종류, 보고서 종류, 기업 특성 정보, 주요 기업명, 주요 회사명, 주요 인물명 등이 예시될 수 있으며, 요소 정보 추출부(120)의 요소 정보 추출시 주요 요소 데이터에 대응하는 가중치가 할당될 수 있다.Also, the input unit 110 may further receive main element data corresponding to the target data. The main element data may include, for example, a key keyword input from the user terminal 200, a type of voice data, a report type, company characteristic information, a main company name, a main company name, a main person name, etc., and the element information extraction unit When the element information of (120) is extracted, a weight corresponding to the main element data may be assigned.

요소 정보 추출부(120)는, 입력된 대상 데이터를 영상 리소스가 매칭 가능한 하나 이상의 요소 데이터로 구분하기 위한 요소 정보를 추출할 수 있다.The element information extraction unit 120 may extract element information for classifying the input target data into one or more element data matching the image resource.

여기서, 요소 정보 추출은 사전 설정된 자연어 처리 알고리즘을 이용하여, 대상 데이터로부터 텍스트 포맷의 요소 데이터를 추출하고, 추출된 요소 정보를 영상 리소스 매칭부(130)로 전달한다.Here, the element information extraction extracts element data in a text format from the target data using a preset natural language processing algorithm, and transmits the extracted element information to the image resource matching unit 130 .

특히, 요소 정보 추출부(120)는, 대상 데이터의 주요 요소 데이터와 포맷 식별 정보에 기초하여, 영상 리소스에 매칭하기 위한 상기 대상 데이터의 자연어 처리 프로세스를 결정할 수 있다. 여기서, 상기 자연어 처리 프로세스는 딥러닝 프로세스에 의해 사전 학습된 텍스트 요약 프로세스가 예시될 수 있다.In particular, the element information extractor 120 may determine a natural language processing process of the target data for matching with an image resource, based on main element data and format identification information of the target data. Here, the natural language processing process may be exemplified by a text summary process previously learned by a deep learning process.

이에 따라, 요소 정보 추출부(120)는 텍스트 요약 프로세스를 수행하여, 대상 데이터로부터 중요한 문장 또는 단어를 추출하고, 하나 이상의 요약 문장을 합성하여 요소 정보로서 출력할 수 있다.Accordingly, the element information extraction unit 120 may perform a text summary process, extract important sentences or words from the target data, synthesize one or more summary sentences, and output it as element information.

또한, 요소 정보 추출부(120)는, 텍스트 요약 프로세스를 결정함에 있어서, 대상 데이터의 포맷 식별 정보에 따라 서로 다른 하나 이상의 언어모델을 적용할 수 있다. 언어모델은 추출 모델 또는 합성 모델이 예시될 수 있으며, 기업 특성 및 문서의 종류에 따라 서로 다른 모델이 결정될 수 있다.Also, in determining the text summary process, the element information extractor 120 may apply one or more different language models according to the format identification information of the target data. An extraction model or a synthesis model may be exemplified as the language model, and different models may be determined according to the characteristics of the company and the type of document.

예를 들어, 요소 정보 추출부(120)는, 대상 데이터에 대응하여 입력된 주요 요소 정보에 대기업이나 중견기업 정보가 포함된 경우, 보고서 또는 약관과 같은 대량 문서의 포맷 식별 정보에 대응하여, 대상 데이터에 대한 추출 모델을 적용하여, 원문에서의 중요한 문장 정보를 요소 정보로서 그대로 추출할 수 있다.For example, the element information extraction unit 120, when large or medium-sized company information is included in the main element information input in response to the target data, in response to the format identification information of a mass document such as a report or terms and conditions, the target By applying the extraction model to the data, important sentence information in the original text can be extracted as element information.

또한, 요소 정보 추출부(120)는, 대상 데이터에 대응하여 입력된 주요 요소 정보에 소상공인, 스타트업 또는 크리에이터 정보 등이 포함된 경우, 뉴스칼럼, 강의자료, 라이프스타일 자료 등과 같은 소량 문서의 포맷 식별 정보에 대응하여, 대상 데이터에 대한 합성 모델을 적용하여, 원문에서의 중요한 키워드 정보가 선별되어 하나의 요약 문장으로서 합성된 문장 정보를 요소 정보로서 추출할 수도 있다.In addition, the element information extraction unit 120, when the main element information input in response to the target data includes small business, startup, or creator information, the format of a small document such as a news column, lecture material, lifestyle material, etc. Corresponding to the identification information, by applying a synthesis model to the target data, important keyword information in the original text is selected, and sentence information synthesized as one summary sentence may be extracted as element information.

이에 따라, 본 발명의 실시 예에 따른 요소 정보는 대상 데이터로부터 추출 또는 합성 언어 모델에 기초하여 획득되는 하나 이상의 중요 문장 정보를 포함할 수 있다. 이러한 문장 정보는 하나의 영상 리소스 매칭 프레임의 레이어 단위에 대응할 수 있으며, 각 문장 정보별로 적절한 리소스 매칭이 처리되어 하나의 영상 프레임 레이어 단위를 구성할 수 있다.Accordingly, element information according to an embodiment of the present invention may include one or more important sentence information extracted from target data or obtained based on a synthetic language model. Such sentence information may correspond to a layer unit of one image resource matching frame, and appropriate resource matching may be processed for each sentence information to constitute one image frame layer unit.

그리고, 영상 리소스 매칭부(130)는, 학습 데이터베이스(160) 및 리소스 데이터베이스(180)에 기초하여, 상기 요소 정보에 대응하여 최적화된 리소스 매칭 처리를 수행하며, 리소스 매칭 정보를 콘텐츠 합성 변환부(150) 및 제작 인터페이스 제공부(140)로 전달한다.And, the image resource matching unit 130, based on the learning database 160 and the resource database 180, performs an optimized resource matching process in response to the element information, and converts the resource matching information into a content synthesis and conversion unit ( 150) and the manufacturing interface providing unit 140 .

보다 구체적으로, 영상 리소스 매칭부(130)는, 요소 정보에 대응하는 콘텐츠 합성 변환을 위한 리소스 매칭 처리를 수행하는 바, 콘텐츠 합성 변환을 위한 리소스는 사전 설정된 프레임 레이어 단위 내에서 처리되는 배경 영상, 배경 이미지, 배경 음악, 레이아웃, 모션, 애니메이션 등의 다양한 콘텐츠를 포함할 수 있고, 리소스 데이터베이스(180)에서 사전 저장되어 있을 수 있다.More specifically, the image resource matching unit 130 performs resource matching processing for content synthesizing transformation corresponding to element information, and the resource for content synthesizing transformation is a background image processed within a preset frame layer unit; It may include various contents such as a background image, background music, layout, motion, animation, and the like, and may be pre-stored in the resource database 180 .

또한, 리소스 데이터베이스(180)는 외부 네트워크를 통해 연결된 다양한 콘텐츠 서버로부터 수신되는 리소스 콘텐츠 데이터를 저장 및 관리할 수도 있다. 여기서 리소스 콘텐츠 데이터는 콘텐츠 속성 정보, 콘텐츠 식별 정보, 콘텐츠 링크 정보 및 콘텐츠 데이터 정보 중 적어도 하나를 포함할 수 있으며, 매칭된 리소스 정보는 제작 인터페이스 제공부(140) 또는 콘텐츠 합성 변환부(150)로 전달될 수 있다.In addition, the resource database 180 may store and manage resource content data received from various content servers connected through an external network. Here, the resource content data may include at least one of content attribute information, content identification information, content link information, and content data information, and the matched resource information is sent to the production interface providing unit 140 or the content synthesis conversion unit 150 . can be transmitted.

나아가, 상기 리소스 데이터베이스(180)는 각 국가 및 언어별로 분류 구성되는 복수의 리소스 데이터베이스(180)를 포함할 수 있다. 이 경우, 콘텐츠 합성 변환시 설정된 타겟 언어에 대응하는 국가 및 언어에 적합한 리소스 콘텐츠 데이터들이 추출되어 영상 리소스 매칭부(130)에서 매칭 처리될 수 있다.Furthermore, the resource database 180 may include a plurality of resource databases 180 classified and configured for each country and language. In this case, resource content data suitable for a country and a language corresponding to a target language set during content synthesis and conversion may be extracted and matched by the image resource matching unit 130 .

또한, 영상 리소스 매칭부(130)는 리소스 데이터베이스(180)로부터 요소 정보에 대응하는 보다 적절한 콘텐츠를 매칭시키기 위해, 학습 데이터베이스(160)를 구축 및 활용할 수 있다. 학습 데이터베이스(160)는 리소스 콘텐츠와 요소 정보간 관계 정보를 학습하는 관계 학습 모델을 구축할 수 있으며, 특히 대상 데이터의 종류 및 주요 요소 정보에 대응하여 보다 적합한 리소스 콘텐츠가 매칭될 수 있도록 하는 가중치 변수가 설정될 수 있다. 이에 따라, 영상 리소스 매칭부(130)는 학습 데이터베이스(160)를 활용하여, 요소 정보에 대응하는 최적의 리소스 콘텐츠가 매칭되는 매칭 정보를 산출할 수 있으며, 산출된 매칭 정보는 제작 인터페이스 제공부(140) 및 콘텐츠 합성 변환부(150)로 전달될 수 있다.In addition, the image resource matching unit 130 may build and utilize the learning database 160 in order to match more appropriate content corresponding to the element information from the resource database 180 . The learning database 160 may build a relationship learning model for learning relationship information between resource content and element information, and in particular, a weight variable that allows more suitable resource content to be matched in response to the type of target data and main element information. can be set. Accordingly, the image resource matching unit 130 may calculate matching information in which the optimal resource content corresponding to the element information is matched by using the learning database 160 , and the calculated matching information is provided by the production interface providing unit ( 140) and the content synthesis conversion unit 150 .

예를 들어, 영상 리소스 매칭부(130)는, 요소 정보의 문장 정보에 대응하여, 일정 시간 단위로 구분되는 영상 프레임 레이어 단위별 배경, 음향, 글자 유형, 타겟 언어 등을 학습 데이터베이스(160)에 기초하여 사전 구축된 리소스 데이터베이스(180)와 매칭할 수 있다.For example, the image resource matching unit 130, in response to the sentence information of the element information, the background, sound, character type, target language, etc. for each image frame layer unit divided by a predetermined time unit to the learning database 160 Based on the pre-built resource database 180 can be matched.

학습 데이터베이스(160)는 각 문장 정보의 대분류 카테고리와 세부 분류 카테고리를 정의할 수 있으며, 대분류와 세부 분류의 딥러닝 학습 결과의 연관성을 분석하여, 상기 매칭된 배경, 음향 또는 글자 유형이 대상 문서의 포맷에 대응하는 비즈니스 목적 등과 확률적으로 얼마나 연관성을 가지고 있는지를 산술적으로 분석할 수 있다.The learning database 160 may define a large classification category and a detailed classification category of each sentence information, and analyze the correlation between the large classification and the deep learning learning result of the detailed classification, and the matched background, sound, or character type of the target document It is possible to arithmetically analyze how probabilistically it is related to the business purpose corresponding to the format.

이에 따라, 영상 리소스 매칭부(130)는 가장 최적화된 연관성이 산출되는 배경, 음향, 글자 유형, 타겟 언어 등의 리소스 콘텐츠들을 상기 영상 프레임 레이어 단위에 매칭하는 매칭 정보로서 획득할 수 있게 된다.Accordingly, the image resource matching unit 130 may acquire resource contents such as background, sound, character type, and target language for which the most optimized correlation is calculated as matching information for matching the image frame layer unit.

또한, 예를 들어, 본 발명의 실시 예에 따른 영상 리소스 매칭부(130)는, 요소 정보의 문장을 묘사하는 이미지 또는 오디오 리소스 콘텐츠를 직접 생성하거나, 리소스 데이터베이스(180)에서 검색할 수 있으며, 생성 또는 검색된 리소스 콘텐츠는 제작 인터페이스 제공부(140) 및 콘텐츠 합성 변환부(150)로 전달될 수 있다.In addition, for example, the video resource matching unit 130 according to an embodiment of the present invention may directly create an image or audio resource content depicting a sentence of element information, or search in the resource database 180, The generated or searched resource content may be transmitted to the production interface providing unit 140 and the content synthesis converting unit 150 .

그리고, 제작 인터페이스 제공부(140)는, 매칭 정보에 기초하여 영상 리소스 매칭부(130)에서 매칭된 콘텐츠를 합성 변환할 수 있는 제작 인터페이스를 구성하고, 사용자 단말(200)로 제공한다.In addition, the production interface providing unit 140 configures a production interface capable of synthesizing and converting the content matched by the image resource matching unit 130 based on the matching information, and provides it to the user terminal 200 .

제작 인터페이스 제공부(140)는, 사용자 단말(200)에서 실행되는 인터페이스 어플리케이션으로 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보를 전달하거나, 별도의 API를 통해 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보를 사용자 단말(200)로 전달하거나, 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보에 기초한 실시간 웹 제작 인터페이스를 구성하여 사용자 단말(200)로 제공할 수도 있다.The production interface providing unit 140 transmits the resource content data and resource matching information to an interface application executed in the user terminal 200, or transmits the resource content data and resource matching information to the user terminal 200 through a separate API. ), or may be provided to the user terminal 200 by configuring a real-time web production interface based on the resource content data and resource matching information.

이에 따라, 사용자 단말(200)에서는 자신이 입력한 대상 데이터에 대응하여, 요소 정보가 추출되어 영상 리소스가 매칭된 리소스 콘텐츠를 확인할 수 있으며, 적절한 편집 및 가공을 처리하고, 합성 변환 명령을 입력할 수 있다. 또한, 사용자 단말(200)의 설정에 따라서는 사용자 단말(200)에서의 별도의 편집이나 가공 없이 바로 콘텐츠 합성 변환부(150)로의 변환 요청이 입력될 수도 있다.Accordingly, in the user terminal 200, in response to the target data input by the user, element information is extracted and it is possible to check the resource content matched with the image resource, process appropriate editing and processing, and input a synthesis conversion command. can Also, depending on the settings of the user terminal 200 , a conversion request to the content synthesis and conversion unit 150 may be directly input without separate editing or processing in the user terminal 200 .

콘텐츠 합성 변환부(150)는, 리소스 콘텐츠 데이터 및 리소스 매칭 정보와, 사용자 단말(200)의 입력 정보에 기초하여 상기 대상 데이터를 멀티미디어 변환 콘텐츠로 합성 및 변환 처리한다.The content synthesis and conversion unit 150 synthesizes and converts the target data into multimedia converted content based on the resource content data, resource matching information, and input information of the user terminal 200 .

이에 따라, 멀티미디어 변환 콘텐츠는, 대상 데이터에 대응하여 영상, 음향, 이미지, 애니메이션, 자막, 폰트 중 적어도 하나가 합성 및 변환 처리된 멀티미디어 데이터를 포함할 수 있다. 합성 및 변환 처리된 멀티미디어 변환 콘텐츠는 제작 인터페이스 제공부(140)로 제공될 수 있으며, 제작 인터페이스 제공부(140)의 확인 또는 업로드 입력에 따라 출력부(170)로 전달될 수 있다.Accordingly, the multimedia conversion content may include multimedia data in which at least one of an image, a sound, an image, an animation, a subtitle, and a font is synthesized and converted according to the target data. The synthesized and converted multimedia content may be provided to the production interface providing unit 140 , and may be transmitted to the output unit 170 according to the confirmation or upload input of the production interface providing unit 140 .

출력부(170)는, 최종적으로 결정된 멀티미디어 변환 콘텐츠를 대상 데이터의 변환 콘텐츠로서 출력할 수 있으며, 이는 멀티미디어 콘텐츠 서버(300)로 제공되어, 대상 데이터 기반의 다양한 정보 제공 서비스에 이용될 수 있고, 소셜 네트워크 서비스를 통해 하나 이상의 다른 사용자 단말들로 공유될 수도 있다.The output unit 170 may output the finally determined multimedia conversion content as converted content of the target data, which is provided to the multimedia content server 300, and may be used for various information providing services based on the target data, It may be shared to one or more other user terminals through a social network service.

예를 들어, 정보 제공 서비스는, 뉴스 기사, 보고서, 소설, 수필, 블로그 등의 다양한 문서 데이터를 활용한 멀티미디어 콘텐츠 변환 서비스를 포함할 수 있으며, 이에 기초한 멀티미디어 콘텐츠 스트리밍 서비스 등이 예시될 수 있다.For example, the information providing service may include a multimedia content conversion service using various document data such as news articles, reports, novels, essays, and blogs, and a multimedia content streaming service based thereon may be exemplified.

또한, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는 장문의 내용으로 구성된 보고서 데이터뿐만 아니라, 비교적 단문들로 구성된 각종의 소식지나 온라인 댓글, SNS 데이터 등도 요소 정보 추출에 따른 영상 리소스 매칭 처리를 통해 멀티미디어 콘텐츠로 합성 변환할 수도 있다.In addition, the service providing apparatus 100 according to an embodiment of the present invention processes image resource matching according to element information extraction not only for report data composed of long sentences, but also various newsletters composed of relatively short sentences, online comments, SNS data, etc. It can also be synthesized and converted into multimedia content through

나아가, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 제1 언어로 구성된 음성 데이터에 대응하여, 각 국가별 타겟 언어에 대응하는 리소스 매칭 처리를 통해 글로벌한 멀티미디어 콘텐츠로 합성 변환 처리를 수행할 수 있게 된다. 예를 들어, 한국어 음성 데이터가 변환되어 대상 데이터로 입력되더라도, 타겟 언어인 베트남어나 영어에 대응되는 각 국가별 이미지, 뮤직, 비디오 콘텐츠 리소스 데이터베이스가 활용되어 각 국가나 언어에 대응하는 영상 리소스 매칭 처리가 수행될 수 있게 된다.Furthermore, the service providing apparatus 100 according to an embodiment of the present invention performs synthesis conversion processing into global multimedia content through resource matching processing corresponding to the target language for each country in response to voice data configured in a first language. be able to perform For example, even if Korean voice data is converted and input as target data, the image, music, and video content resource database for each country corresponding to the target language, Vietnamese or English, is utilized to process image resource matching corresponding to each country or language. can be performed.

나아가, 상기 콘텐츠 합성 변환부(150)는 상기 제1 언어의 음성 데이터를 텍스트로 변환한 대상 데이터를 상기 타겟 언어로 번역 처리하고, 번역 처리된 데이터를 다시 사용자 설정에 따른 음성 또는 자막 데이터로 변환하여, 상기 합성 변환된 멀티미디어 콘텐츠에 합성 처리할 수도 있으며, 이에 따라 멀티미디어 콘텐츠는 제1 언어가 아닌 타겟 언어로 구성된 음성 설명 정보 또는 자막 설명 정보가 합성된 상태로 출력될 수도 있다.Furthermore, the content synthesis and conversion unit 150 translates target data obtained by converting voice data of the first language into text into the target language, and converts the translated data back into voice or subtitle data according to user settings. Thus, the synthesis-converted multimedia content may be synthesized, and accordingly, the multimedia content may be output in a state in which voice description information or subtitle description information composed of a target language other than the first language is synthesized.

도 3은 본 발명의 실시 예에 따른 서비스 제공 장치의 동작을 설명하기 위한 흐름도이다.3 is a flowchart illustrating an operation of a service providing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 먼저 서비스 제공 장치(100)는 변환 대상 데이터를 사용자 단말(200)로부터 입력받거나, 음성 데이터 처리 모듈(210)의 음성 데이터 수신에 대응하는 인식 변환 처리에 따라 변환 대상 데이터를 획득한다(S101).Referring to FIG. 3 , first, the service providing apparatus 100 receives conversion target data from the user terminal 200 or converts the conversion target data according to a recognition conversion process corresponding to the voice data reception of the voice data processing module 210 . Acquire (S101).

그리고, 서비스 제공 장치(100)는 대상 데이터로부터 요소 정보를 추출한다(S103).Then, the service providing apparatus 100 extracts element information from the target data (S103).

이후, 서비스 제공 장치(100)는, 요소 정보에 대응하는 영상 리소스 매칭을 처리한다(S105).Thereafter, the service providing apparatus 100 processes image resource matching corresponding to the element information ( S105 ).

그리고, 서비스 제공 장치(100)는, 매칭된 영상 리소스 콘텐츠에 기반한 제작 인터페이스를 사용자 단말(200)로 제공한다(S107).Then, the service providing apparatus 100 provides a production interface based on the matched image resource content to the user terminal 200 (S107).

이후, 서비스 제공 장치(100)는 제작 인터페이스에 대한 사용자 입력에 따라 미디어 콘텐츠 합성 및 변환 처리를 수행한다(S109).Thereafter, the service providing apparatus 100 performs media content synthesis and conversion processing according to a user input to the production interface (S109).

그리고, 서비스 제공 장치(100)는 변환된 멀티미디어 콘텐츠를 출력 및 배포한다(S111).Then, the service providing apparatus 100 outputs and distributes the converted multimedia content (S111).

도 4는 본 발명의 실시 예에 따른 합성 변환된 영상 멀티미디어 콘텐츠 예시도이며, 도 5는 본 발명의 실시 예에 따른 입력 데이터로부터 멀티미디어 콘텐츠 데이터로 변환되는 과정을 예시적으로 설명하기 위한 도면이다.4 is a diagram illustrating synthesis-converted video multimedia content according to an embodiment of the present invention, and FIG. 5 is a diagram for explaining a process of converting input data into multimedia content data according to an embodiment of the present invention.

먼저, 도 4를 참조하면, 앞서 설명한 바와 같이, 요소 정보 추출부(120)는, 제1 언어로 입력된 대상 데이터로부터 주요 문장으로서 "멋진 바닷가에 가서 해변 모래 바위 위의 물개들과 멋진 배들을 보았다"와 같은 문장을 요소 정보로서 추출할 수 있다.First, referring to FIG. 4 , as described above, the element information extracting unit 120, as the main sentence from the target data input in the first language, says, "Go to a wonderful beach and collect seals and wonderful ships on the beach sand rocks. Sentences such as "I saw" can be extracted as element information.

그리고, 영상 리소스 매칭부(130)는, 타겟 언어가 영어로 설정되면, 타겟 언어데 대응하여 각 요소 정보의 단어 키워드에 대응하는 가장 적합한 리소스 콘텐츠를 학습 데이터베이스(160)에 기초하여 각 국가 및 언어별로 분류된 리소스 데이터베이스(180)로부터 획득할 수 있다. 예를 들어, 바닷가 키워드에 대응하는 미국 해변 영상 리소스와, 해변 모래 바위 키워드에 대응하는 바위 영상 리소스와, 물개 키워드에 대응하는 물개 영상 리소스와, 배 키워드에 대응하는 미국 배 영상 리소스가 매칭될 수 있다.Then, the image resource matching unit 130, when the target language is set to English, corresponding to the target language, the most suitable resource content corresponding to the word keyword of each element information based on the learning database 160 each country and language It can be obtained from the resource database 180 classified by each. For example, the US beach image resource corresponding to the beach keyword, the rock image resource corresponding to the beach sand and rock keyword, the seal image resource corresponding to the seal keyword, and the US ship image resource corresponding to the ship keyword may be matched. have.

또한, 영상 리소스 매칭부(130)는 요소 정보의 문장 정보에 대응하는 자막, 글꼴 및 폰트 리소스를 매칭할 수 있으며, 상기 문장 정보를 음성 변환한 오디오를 음향 리소스로서 매칭 처리할 수 있다. 또한, 영상 리소스 매칭부(130)는 문장 정보에 대응하는 애니메이션 정보를 매칭 처리할 수 있다.Also, the image resource matching unit 130 may match subtitle, font, and font resources corresponding to the sentence information of the element information, and may perform matching processing with audio converted from the sentence information as an audio resource. In addition, the image resource matching unit 130 may match the animation information corresponding to the sentence information.

이에 따라, 콘텐츠 합성 변환부(150)는, 사전 설정된 시간 구간의 영상 프레임 레이어 단위에 대응하여, 상기 영상 리소스, 자막, 글꼴 및 폰트 리소스, 음향 리소스가 레이아웃 및 애니메이션 정보에 따라 매칭 및 변환된 영상 멀티미디어 콘텐츠를 생성할 수 있게 되는 것이다.Accordingly, the content synthesis and transformation unit 150 corresponds to the image frame layer unit of the preset time section, the image resource, subtitle, font and font resource, the sound resource is matched and converted according to the layout and animation information It will be possible to create multimedia content.

예를 들어, 프레임 레이어 단위 구간의 영상에는 자막으로 출력되는 하나의 문장과 관련된 멀티미디어 콘텐츠가 재생될 수 있으며, 콘텐츠 합성 변환부(150)는, 프레임 레이어 단위 구간의 영상 내에 자막, 영상 및 이미지들을 함께 배열하며, 사전 설정된 타이밍에 음향이 출력되도록 합성 및 변환할 수 있다. 영상 리소스 매칭부(130)는, 머신 러닝 기술, 딥러닝 기술 등을 통해 콘텐츠 합성 변환부(150)의 적절한 콘텐츠 데이터 조합, 애니메이션 효과 및 배열을 매칭할 수 있다.For example, multimedia content related to one sentence output as a caption may be played in an image of a frame layer unit section, and the content synthesis and conversion unit 150 converts subtitles, images, and images into an image of a frame layer unit section. Arranged together, they can be synthesized and converted so that the sound is output at a preset timing. The image resource matching unit 130 may match an appropriate content data combination, animation effect, and arrangement of the content synthesis and transformation unit 150 through machine learning technology, deep learning technology, or the like.

또한, 콘텐츠 합성 변환부(150)는, 텍스트 요소별 부분 이미지 콘텐츠들을 매칭하고, 매칭된 부분 이미지들간 경계 처리를 수행하여 하나의 이미지로 융합 처리할 수 있으며, 융합된 이미지를 이용한 이미지 프레임 세트를 구축할 수 있다.In addition, the content synthesis and conversion unit 150 may match partial image contents for each text element, perform boundary processing between the matched partial images, and converge them into one image, and generate an image frame set using the fused image. can be built

나아가, 콘텐츠 합성 변환부(150)는, 텍스트 요소를 정제하고, 텍스트 요소별 출력 타이밍을 설정할 수 있으며, 출력 타이밍에 상기 이미지 프레임 세트를 매칭시킬 수 있다. 그리고, 콘텐츠 합성 변환부(150)는, 텍스트 요소별 출력 타이밍과 동기화된 합성 자막을 삽입하거나, 상기 합성 자막의 TTS 음성을 병합하거나, 상기 TTS 음성에 대한 사용자 설정에 따라 음성 특징을 부여하는 후처리를 더 수행할 수 있다. 이에 따라, 제1 언어의 음성 데이터에 대응한 멀티미디어 콘텐츠라 하더라도, 각 타겟 언어별로 적절한 멀티미디어 콘텐츠가 융합 및 변환 합성될 수 있다.Furthermore, the content synthesis and conversion unit 150 may refine text elements, set output timing for each text element, and match the image frame set to output timing. Then, the content synthesis conversion unit 150 inserts a synthesized subtitle synchronized with the output timing for each text element, merges the TTS voice of the synthesized subtitle, or assigns a voice characteristic to the TTS voice according to a user setting. Further processing may be performed. Accordingly, even for multimedia content corresponding to voice data in the first language, appropriate multimedia content for each target language may be fused, transformed, and synthesized.

이러한 매칭 프로세스는 도 5를 참조하면 보다 구체적으로 이해될 수 있다. 도 5(A)에 도시된 바와 같이, 제1 언어의 음성 데이터 또는 텍스트로 구성된 대상 데이터는 입력부(110)로 입력되어 요소 정보 추출부(120)에 의한 타겟 언어 기반 요소 정보 추출 처리가 수행될 수 있다.This matching process can be understood in more detail with reference to FIG. 5 . As shown in FIG. 5A , target data composed of voice data or text of a first language is input to the input unit 110 and the target language-based element information extraction processing by the element information extraction unit 120 is performed. can

요소 정보 추출 처리에 따라, 도 5(B)에 도시된 바와 같이 하나 이상의 핵심 문장 데이터들이 요소 정보로서 추출될 수 있는 바, 영상 리소스 매칭부(130)는, 추출된 요소 정보에 대응하여 도 4에 도시된 바와 같은 매칭 프로세스를 바탕으로 도 5(C)와 같이 리소스 데이터베이스(180)에 저장 또는 링크된 하나 이상의 영상, 음향 또는 이미지와의 리소스 콘텐츠 매칭을 처리할 수 있다.According to the element information extraction process, one or more core sentence data may be extracted as element information as shown in FIG. Based on the matching process as shown in FIG. 5(C), resource content matching with one or more images, sounds, or images stored or linked in the resource database 180 may be processed.

여기서, 리소스 데이터베이스(180)는 서비스 제공 장치(100) 내부 또는 외부 데이터베이스일 수 있으며, 도 5(C)와 같이 잘 알려진 서비스 업체들의 리소스 콘텐츠 서비스 제공 서버들을 이용할 수도 있다.Here, the resource database 180 may be an internal or external database of the service providing apparatus 100 , and may use resource content service providing servers of well-known service providers as shown in FIG. 5C .

그리고, 도 5(D)에 도시된 바와 같이, 영상 리소스 매칭부(130)의 매칭 정보에 기초하여 콘텐츠 합성 변환부(150)에서 합성 변환된 멀티미디어 콘텐츠는 출력부(170)를 통해 멀티미디어 콘텐츠 서버(300)로 전달될 수 있으며, 다른 사용자들에게 배포 및 공유될 수 있다.And, as shown in FIG. 5(D), the multimedia content synthesized and converted in the content synthesis and conversion unit 150 based on the matching information of the image resource matching unit 130 is transmitted through the output unit 170 to the multimedia content server. 300, and may be distributed and shared with other users.

도 6 내지 도 7은 본 발명의 실시 예에 따른 리소스 데이터베이스를 설명하기 위한 도면이다.6 to 7 are diagrams for explaining a resource database according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는, 인터페이스부(185), 논리 모델 관리부(181), 물리 환경 관리부(183), 메타스토어 데이터베이스(183) 및 데이터 저장부(184)를 포함한다.Referring to FIG. 6 , the resource database 180 according to an embodiment of the present invention includes an interface unit 185 , a logical model management unit 181 , a physical environment management unit 183 , a metastore database 183 , and a data storage unit. (184).

본 발명의 실시 예에 따르면, 리소스 데이터베이스(180)는 메타 정보를 기반으로 하는 미디어 콘텐츠 데이터를 분류 및 라벨링 처리하여, 학습 데이터베이스(160)에서 분석할 수 있는 형태로 로드하게 할 수 있으며, 리소스 콘텐츠 데이터의 공유를 용이하게 한다.According to an embodiment of the present invention, the resource database 180 may classify and label media content data based on meta information, and load it in a form that can be analyzed in the learning database 160, and the resource content Facilitate data sharing.

이를 위해, 리소스 데이터베이스(180)는 리소스 콘텐츠 데이터의 전처리를 통해 중복데이터 제거, 누락데이터 보정 및 이상데이터 감지를 수행할 수 있으며, 전처리된 데이터의 스케일링 프로세스를 수행하고, 잘 알려진 Long Short-Term Memory models(LSTM) 등의 알고리즘을 이용한 학습 데이터베이스(160)를 구축할 수 있도록 하는 데이터 분류 처리를 수행할 수 있다.To this end, the resource database 180 may perform redundant data removal, missing data correction, and abnormal data detection through pre-processing of resource content data, perform a scaling process of pre-processed data, and a well-known Long Short-Term Memory It is possible to perform data classification processing to build the learning database 160 using an algorithm such as models (LSTM).

보다 구체적으로, 인터페이스부(185)는 각 관리부(181, 182)에서 분류 및 저장된 리소스 콘텐츠 데이터의 분산 입출력 인터페이스 처리를 수행한다.More specifically, the interface unit 185 performs distributed input/output interface processing of resource content data classified and stored in each of the management units 181 and 182 .

논리 모델 관리부(181)는 메타스토어 데이터베이스(183)를 통해 리소스 콘텐츠를 분류 저장 및 관리할 수 있다. 여기서, 메타스토어 데이터베이스(183)는 물리 환경 관리부(182)에서 물리적으로 저장된 데이터 저장부(184)의 빅데이터 기반 콘텐츠 데이터를 색인하기 위한 메타데이터를 저장 및 관리할 수 있다. 메타데이터는 예를 들어, 사용자별 분류 정보, 기능별 분류 정보 또는 저장 분류 정보 중 적어도 하나를 포함할 수 있으며, 각 분류 정보는 물리적으로 분산 저장된 데이터 저장부(184)의 저장구조에 대응될 수 있다.The logical model manager 181 may classify, store, and manage resource contents through the metastore database 183 . Here, the metastore database 183 may store and manage metadata for indexing the big data-based content data of the data storage unit 184 physically stored in the physical environment management unit 182 . The metadata may include, for example, at least one of classification information for each user, classification information for each function, and storage classification information, and each classification information may correspond to a storage structure of the physically distributed and stored data storage unit 184 . .

예를 들어, 데이터 저장부(184)는 리소스 콘텐츠로서, 애니메이션, 배경이미지, 음향, 폰트(글꼴), 레이아웃 정보 등이 저장될 수 있다.For example, the data storage unit 184 may store animation, background image, sound, font (font), layout information, etc. as resource content.

도 7은 본 발명의 실시 예에 따라 저장되는 리소스 콘텐츠 포맷의 예시로서, 비디오, 음향, 이미지 등의 데이터 종류 정보, 식별자 정보, 태그 정보, URL 정보, 가상 호스팅 URL 정보 등을 포함하는 것을 예시하고 있다.7 is an example of a resource content format stored according to an embodiment of the present invention, illustrating that data type information such as video, sound, image, etc., identifier information, tag information, URL information, virtual hosting URL information, and the like are included. have.

메타스토어 데이터베이스(183)는 아래의 표 1과 같은 메타데이터를 분류 정보로서 저장 및 관리할 수 있다. The metastore database 183 may store and manage metadata as shown in Table 1 below as classification information.

데이터 구분Data classification 메타 정보1Meta information 1 메타 정보2meta information 2 메타 정보3meta information 3 타입type 애니메이션animation /store/store /data/data /animaion/animation 배경이미지background image /image/image 음향acoustic /sound/sound 폰트(글꼴)Font (font) /log/log /realtime/realtime 레이아웃 정보Layout information /batch/batch

표 1에 도시된 바와 같이, 데이터 구분에 따라 메타 정보는 각 분류 정보들에 의해 구분될 수 있으며, 따라서 필요한 리소스는 메타 정보를 이용하여 색인될 수 있다.이에 따라, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는, 물리적으로 분산 저장되는 빅데이터 구조의 데이터 저장부(184)를 관리할 수 있으며, 필요한 리소스 콘텐츠를 메타스토어 데이터베이스(183)의 메타 정보를 이용하여 색인할 수 있다.As shown in Table 1, meta information may be classified by each classification information according to data classification, and thus, necessary resources may be indexed using meta information. Accordingly, according to an embodiment of the present invention, The resource database 180 may manage the data storage unit 184 of a big data structure that is physically distributed and stored, and may index necessary resource contents using meta information of the metastore database 183 .

따라서, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는 저장만을 목적으로 하는 것이 아니라, 저장된 데이터를 분석할 수 있는 형태로 로드하고 다양한 분석환경에서 필요데이터를 공유하는 측면을 고려하여 구축될 수 있으며, 나아가 SQL 기반으로의 데이터 정보 조회를 가능하게 하여 그 데이터 접근의 편의성 및 신속성을 높일 수 있다.Therefore, the resource database 180 according to an embodiment of the present invention is not only for the purpose of storage, but it can be built in consideration of the aspect of loading stored data in a form that can be analyzed and sharing necessary data in various analysis environments. Furthermore, by enabling SQL-based data information inquiry, it is possible to increase the convenience and speed of data access.

도 9은 본 발명의 실시 예에 따른 제작 인터페이스를 보다 구체적으로 설명하기 위한 도면이다.9 is a view for explaining in more detail a manufacturing interface according to an embodiment of the present invention.

도 9를 참조하면 본 발명의 실시 예에 따른 제작 인터페이스는, 사용자 단말(200)을 통해 출력되는 그래픽 유저 인터페이스를 포함할 수 있으며, 대상 데이터 입력 인터페이스(201)와, 영상 편집 인터페이스(204)와, 자막 편집 인터페이스와(202), 음원 및 언어 편집 인터페이스(203)를 포함할 수 있다.Referring to FIG. 9 , the production interface according to an embodiment of the present invention may include a graphic user interface output through the user terminal 200 , and includes a target data input interface 201 , an image editing interface 204 , and , a subtitle editing interface 202 , and a sound source and language editing interface 203 .

그리고, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 대상 데이터 입력 인터페이스(201)를 통해 특정 문서의 텍스트 데이터를 입력받을 수 있으며, 입력된 텍스트 데이터는 요약하기 버튼 입력 등에 따라, 요소 정보 추출부(120)에서의 요소 정보 추출 처리에 이용될 수 있다.In addition, the service providing apparatus 100 according to an embodiment of the present invention may receive text data of a specific document through the target data input interface 201, and the input text data is an element according to a summary button input, etc. It may be used for element information extraction processing in the information extraction unit 120 .

그리고, 추출된 요소 정보에 기초한 영상 리소스 매칭부(130)의 매칭 처리에 따른 추천 리소스 콘텐츠가 각 영상 편집 인터페이스(204)와, 자막 편집 인터페이스와(102), 음원 및 언어 편집 인터페이스(203)에 추천 아이템으로서 제안될 수 있다. 사용자 단말(200)에서는 이에 따라, 추천받은 리소스 콘텐츠를 선택함으로써 멀티미디어 변환 콘텐츠를 생성하게 할 수 있다.Then, the recommended resource content according to the matching processing of the image resource matching unit 130 based on the extracted element information is transmitted to each image editing interface 204, subtitle editing interface 102, and sound source and language editing interface 203. It may be proposed as a recommended item. Accordingly, the user terminal 200 may generate the multimedia conversion content by selecting the recommended resource content.

사용자 단말(200) 사용자는 각 편집 인터페이스들에서 리소스 콘텐츠를 선택하고, 출력 인터페이스(205)를 통해 영상 변환 및 SNS 업로드를 입력할 수 있으며, 이에 따라, 콘텐츠 합성 변환부(150)에서의 변환 처리가 수행되고, 그 결과가 사용자 단말(200)로 출력되거나, 멀티미디어 콘텐츠 서버(300)에 업로드되어, 사전 설정된 SNS 계정을 통해 공유될 수 있다.A user of the user terminal 200 may select resource content in each of the editing interfaces, and input image conversion and SNS upload through the output interface 205 , and accordingly, conversion processing in the content synthesis conversion unit 150 . is performed, and the result may be output to the user terminal 200 or uploaded to the multimedia content server 300 and shared through a preset SNS account.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. 이에 따라, 사용자 단말(100)은 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the above-described method according to various embodiments of the present invention may be implemented as a program and provided to each server or device in a state stored in various non-transitory computer readable media. Accordingly, the user terminal 100 may access the server or device and download the program.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (3)

서비스 제공 장치에 있어서,
제1 언어의 음성 데이터를 수집하는 음성 데이터 처리 모듈; 상기 음성 데이터 처리 모듈로부터 수신된 제1 언어의 음성 데이터를 텍스트 인식에 따라 상기 제1 언어의 텍스트 문장으로 변환하며, 상기 변환된 텍스트 문장을 변환 대상 데이터로 획득함과 아울러 변환 대상 데이터의 포맷 식별을 처리하는 입력부; 상기 변환 대상 데이터에 대응하는 타겟 언어를 설정하는 타겟 언어 설정부; 상기 변환 대상 데이터로부터 상기 타겟 언어에 대응되는 요소 정보를 추출하는 요소 정보 추출부; 상기 요소 정보에 대응하는 영상 리소스 매칭을 기반으로 제작 인터페이스를 제공하는 인터페이스 제공부; 및 상기 제작 인터페이스에 대한 사용자 입력에 따라, 상기 요소 정보에 대응하는 상기 타겟 언어 기반 영상 리소스 매칭을 기반으로 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 콘텐츠 합성 변환부; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 출력부를 포함하되,
상기 요소 정보 추출부는,
상기 변환 대상 데이터로부터 영상 리소스를 매칭하기 위한 하나 이상의 문장 정보를 추출하되, 문장 정보를 추출하기 위하여 상기 변환 대상 데이터의 텍스트 요약 프로세스를 수행하며, 상기 텍스트 요약 프로세스는 상기 변환 대상 데이터의 상기 포맷 식별 정보에 따라 결정된 서로 다른 언어모델을 이용하는 프로세스이며, 상기 언어모델은 추출 모델 또는 합성 모델을 포함하고,
상기 영상 리소스 매칭은, 상기 요소 정보에 대응하여, 일정 시간 단위로 구분되는 영상 프레임 레이어 단위별 리소스 콘텐츠를 사전 구축된 리소스 데이터베이스와 매칭하는 프로세스를 포함하고, 상기 리소스 콘텐츠는 상기 요소 정보에 매칭가능한 영상, 배경, 이미지, 음향, 글자 유형 또는 애니메이션 중 적어도 하나를 포함하는
서비스 제공 장치.
In the service providing device,
a voice data processing module for collecting voice data of the first language; Converts the voice data of the first language received from the voice data processing module into a text sentence of the first language according to text recognition, obtains the converted text sentence as the transformation target data, and identifies the format of the transformation target data an input unit for processing; a target language setting unit configured to set a target language corresponding to the conversion target data; an element information extraction unit for extracting element information corresponding to the target language from the conversion target data; an interface providing unit that provides a production interface based on image resource matching corresponding to the element information; and a content synthesizing/converting unit configured to obtain multimedia converted content by performing multimedia content synthesizing and converting processing based on the target language-based image resource matching corresponding to the element information according to a user input to the production interface; and an output unit for outputting the multimedia conversion content,
The element information extraction unit,
Extracting one or more sentence information for matching an image resource from the transformation target data, and performing a text summary process of the transformation target data to extract sentence information, wherein the text summary process identifies the format of the transformation target data It is a process using different language models determined according to information, wherein the language model includes an extraction model or a synthesis model,
The image resource matching includes a process of matching resource content for each image frame layer unit divided by a predetermined time unit with a pre-built resource database in response to the element information, wherein the resource content can match the element information At least one of video, background, image, sound, text type, or animation
Service providing device.
제1항에 있어서,
상기 제1 언어 및 상기 타겟 언어는 서로 상이라고,
상기 타겟 언어는, 상기 영상 리소스 매칭을 위해, 영상 리소스 분류 정보에 따라 각각 설정 가능한
서비스 제공 장치.
According to claim 1,
the first language and the target language are on each other;
The target language can be set according to the image resource classification information for the image resource matching.
Service providing device.
제1항에 있어서,
상기 타겟 언어는 복수의 언어 중 사용자에 의해 선택된 하나 이상의 언어를 포함하고,
상기 영상 리소스는, 상기 선택된 하나 이상의 언어에 대응하는 국가별 리소스 데이터베이스로부터 추출되는 것을 특징으로 하는
서비스 제공 장치.
According to claim 1,
The target language includes one or more languages selected by a user among a plurality of languages,
The video resource, characterized in that extracted from the resource database for each country corresponding to the selected one or more languages
Service providing device.
KR1020210179466A 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources KR102435244B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210179466A KR102435244B1 (en) 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210035632A KR102347228B1 (en) 2021-03-19 2021-03-19 A method for providing a producing service of transformed multimedia contents using matching of video resources and an apparatus using it
KR1020210179466A KR102435244B1 (en) 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210035632A Division KR102347228B1 (en) 2021-03-19 2021-03-19 A method for providing a producing service of transformed multimedia contents using matching of video resources and an apparatus using it

Publications (2)

Publication Number Publication Date
KR102435244B1 true KR102435244B1 (en) 2022-08-24
KR102435244B9 KR102435244B9 (en) 2022-10-21

Family

ID=79342269

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020210035632A KR102347228B1 (en) 2021-03-19 2021-03-19 A method for providing a producing service of transformed multimedia contents using matching of video resources and an apparatus using it
KR1020210179465A KR102435243B1 (en) 2021-03-19 2021-12-15 A method for providing a producing service of transformed multimedia contents using matching of video resources
KR1020210179464A KR102435242B1 (en) 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources
KR1020210179466A KR102435244B1 (en) 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020210035632A KR102347228B1 (en) 2021-03-19 2021-03-19 A method for providing a producing service of transformed multimedia contents using matching of video resources and an apparatus using it
KR1020210179465A KR102435243B1 (en) 2021-03-19 2021-12-15 A method for providing a producing service of transformed multimedia contents using matching of video resources
KR1020210179464A KR102435242B1 (en) 2021-03-19 2021-12-15 An apparatus for providing a producing service of transformed multimedia contents using matching of video resources

Country Status (2)

Country Link
KR (4) KR102347228B1 (en)
WO (1) WO2022196904A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035502A (en) * 2017-09-25 2019-04-03 주식회사 와이드플래닛 How to provide content creation services through ai-based content matching and its content creation server
KR102177768B1 (en) * 2020-01-23 2020-11-11 장형순 System for providing cloud based cusomized multimedia production service using voice mix
KR20200142282A (en) * 2019-06-12 2020-12-22 삼성전자주식회사 Electronic apparatus for providing content translation service and controlling method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4003940B2 (en) * 2002-06-07 2007-11-07 日本放送協会 VIDEO-RELATED CONTENT GENERATION DEVICE, VIDEO-RELATED CONTENT GENERATION METHOD, AND VIDEO-RELATED CONTENT GENERATION PROGRAM
KR102206838B1 (en) * 2019-01-21 2021-01-25 박준희 System for publishing book by matching images and texts

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035502A (en) * 2017-09-25 2019-04-03 주식회사 와이드플래닛 How to provide content creation services through ai-based content matching and its content creation server
KR20200142282A (en) * 2019-06-12 2020-12-22 삼성전자주식회사 Electronic apparatus for providing content translation service and controlling method thereof
KR102177768B1 (en) * 2020-01-23 2020-11-11 장형순 System for providing cloud based cusomized multimedia production service using voice mix

Also Published As

Publication number Publication date
WO2022196904A1 (en) 2022-09-22
KR102435243B9 (en) 2022-10-21
KR102435243B1 (en) 2022-08-24
KR102435244B9 (en) 2022-10-21
KR102347228B1 (en) 2022-01-04
KR102347228B9 (en) 2022-10-21
KR102435242B1 (en) 2022-08-24
KR102435242B9 (en) 2022-10-21

Similar Documents

Publication Publication Date Title
US20240107127A1 (en) Video display method and apparatus, video processing method, apparatus, and system, device, and medium
CN104735468B (en) A kind of method and system that image is synthesized to new video based on semantic analysis
CN112749326B (en) Information processing method, information processing device, computer equipment and storage medium
JP2020005309A (en) Moving image editing server and program
WO2019245033A1 (en) Moving image editing server and program
KR20220130863A (en) Apparatus for Providing Multimedia Conversion Content Creation Service Based on Voice-Text Conversion Video Resource Matching
CN109960721A (en) Multiple Compression based on source contents constructs content
KR102575507B1 (en) Article writing soulution using artificial intelligence and device using the same
CN111814496B (en) Text processing method, device, equipment and storage medium
CN112632950A (en) PPT generation method, device, equipment and computer-readable storage medium
KR20220079029A (en) Method for providing automatic document-based multimedia content creation service
KR20220079073A (en) Production interface device for multimedia conversion content production service providing device
CN116977992A (en) Text information identification method, apparatus, computer device and storage medium
KR102435244B1 (en) An apparatus for providing a producing service of transformed multimedia contents using matching of video resources
CN115718904A (en) Text processing method and device
CN114662002A (en) Object recommendation method, medium, device and computing equipment
KR20220130862A (en) A an apparatus for providing a producing service of transformed multimedia contents
KR20220130861A (en) Method of providing production service that converts audio into multimedia content based on video resource matching
KR20220130859A (en) A method of providing a service that converts voice information into multimedia video contents
KR20220130864A (en) A system for providing a service that produces voice data into multimedia converted contents
KR20220130860A (en) A method of providing a service that converts voice information into multimedia video contents
KR20220079012A (en) A method for providing producing content service of transform documents into multimedia contents
US20230308731A1 (en) Method for providing service of producing multimedia conversion content by using image resource matching, and apparatus thereof
KR20220079024A (en) Program recording medium for providing services that convert documents into multimedia contents
KR20220079019A (en) A program for providing multimedia contents production service

Legal Events

Date Code Title Description
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]