KR20230163045A - A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment - Google Patents

A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment Download PDF

Info

Publication number
KR20230163045A
KR20230163045A KR1020220062579A KR20220062579A KR20230163045A KR 20230163045 A KR20230163045 A KR 20230163045A KR 1020220062579 A KR1020220062579 A KR 1020220062579A KR 20220062579 A KR20220062579 A KR 20220062579A KR 20230163045 A KR20230163045 A KR 20230163045A
Authority
KR
South Korea
Prior art keywords
information
data
metaverse
multimedia
target
Prior art date
Application number
KR1020220062579A
Other languages
Korean (ko)
Inventor
이수민
고혜인
Original Assignee
주식회사 웨인힐스브라이언트에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨인힐스브라이언트에이아이 filed Critical 주식회사 웨인힐스브라이언트에이아이
Priority to KR1020220062579A priority Critical patent/KR20230163045A/en
Publication of KR20230163045A publication Critical patent/KR20230163045A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 실시 예에 따른 메타버스 시스템에 접속된 서비스 제공 장치의 동작 방법은, 메타버스 시스템의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축하는 단계; 상기 메타버스 시스템상에서 진행된 제1 이벤트에 대응하여, 상기 제1 이벤트의 멀티미디어 변환 콘텐츠 구성을 위한 대상 데이터를 수집하는 단계; 상기 대상 데이터에 대응하는 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하는 단계; 상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 단계; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 단계를 포함한다.A method of operating a service providing device connected to a metaverse system according to an embodiment of the present invention includes the steps of building a resource database using metaverse environment data of the metaverse system; In response to a first event conducted on the metaverse system, collecting target data for configuring multimedia converted content of the first event; extracting element information corresponding to the target setting information from the target data, based on metaverse environment-based target setting information corresponding to the target data; Obtaining multimedia converted content by performing multimedia content synthesis and conversion processing based on the element information and image resource matching of the resource database; and outputting the multimedia converted content.

Description

메타버스 환경에서 수집된 멀티미디어의 리소스 변환 매칭을 이용한 영상 콘텐츠 제작 서비스 제공 방법 및 기록매체{A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment}{A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment}

본 발명은 영상 콘텐츠 제작 서비스 제공 방법 및 기록매체에 관한 것이다. 보다 구체적으로, 본 발명은 메타버스 환경에서 수집된 멀티미디어의 리소스 변환 매칭을 이용한 영상 콘텐츠 제작 서비스 제공 방법 및 그 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to a method and recording medium for providing video content production services. More specifically, the present invention relates to a method of providing a video content production service using resource conversion matching of multimedia collected in a metaverse environment and a recording medium on which a program for executing the method on a computer is recorded.

최근 영상 및 콘텐츠 제작기술의 발달로, 개인화된 다양한 멀티미디어 콘텐츠들이 제작되고 있으며, 소셜 네트워킹 서비스 등을 통해 유통 및 소비되고 있다. 유튜브로 대표되는 멀티미디어 콘텐츠 공유 서비스는 그 제작자 및 사용자가 기하급수적으로 증가되고 있으며, 영상 콘텐츠 제작을 위한 다양한 전문화 툴 또한 사용자 편의성 측면에서 개발되고 있다.With the recent development of video and content production technology, a variety of personalized multimedia content is being produced and distributed and consumed through social networking services. The number of creators and users of the multimedia content sharing service represented by YouTube is increasing exponentially, and various specialized tools for video content production are also being developed in terms of user convenience.

그러나, 아직까지도 이러한 전문화 툴의 사용이 편리하지만은 못한 실정이다. 고품질의 멀티미디어 콘텐츠 제작을 위하여는, 전문화 툴을 잘 사용하는 전문가의 시간 및 기술 인력이 투입되어야 하며, 제작을 위한 자료 공수의 어려움 및 이에 따른 제작 비용이 소요되고 있는 실정이다.However, the use of these specialized tools is still not convenient. In order to produce high-quality multimedia content, the time and technical manpower of experts who are good at using specialized tools must be invested, and it is difficult to transport materials for production and the resulting production costs are incurred.

특히, 이러한 문제점은 현재 대두되고 있는 메타버스(Metaverse) 환경 등에서의 다양한 활동들을 기록하기 위해 멀티미디어 콘텐츠로 구성하는 작업에서 더욱 크게 나타난다.In particular, this problem appears more significantly in the work of composing multimedia content to record various activities in the currently emerging Metaverse environment.

여기서, 메타버스(Metaverse)란, 가상, 초월을 의미하는 '메타(meta)'와 세계, 우주를 의미하는 '유니버스(universe)'의 합성어로, 현실과 연동된 3차원 가상 세계를 의미한다. 이러한 메타버스는 증강현실 또는 혼합현실을 사용자에게 제공하는 대표적인 서비스로서, 기존의 가상현실 환경(Virtual reality environment)이라는 용어보다 진보된 개념이며, 웹과 인터넷 등의 가상세계가 현실세계에 흡수된 증강 현실 환경을 제공한다.Here, Metaverse is a compound word of 'meta', meaning virtuality and transcendence, and 'universe', meaning world and universe, and means a three-dimensional virtual world linked to reality. This metaverse is a representative service that provides augmented reality or mixed reality to users. It is an advanced concept than the existing term virtual reality environment, and is an augmented reality where the virtual world such as the web and the Internet is absorbed into the real world. Provides a realistic environment.

최근에는 전 세계적으로 COVID-19의 유행이 장기화됨에 따라 사람들 간의 접촉과 이동이 제한되고, 대용량의 정보를 고속으로 전송할 수 있는 5G 통신망이 확충되면서, 생활형 또는 게임형 가상 세계를 지원하는 다양한 형태의 메타버스 서비스들이 등장하고 있다.Recently, as the global COVID-19 pandemic has prolonged, contact and movement between people has been restricted, and 5G communication networks that can transmit large amounts of information at high speed have been expanded, creating various forms of virtual worlds that support lifestyle or game-type virtual worlds. Metaverse services are emerging.

이에 따라, 메타버스 환경에서도 회의, 강연, 공연 등의 다양한 활동들이 이루어지고 있는 상황이다. 그러나, 이러한 활동들을 기록하여 영상 콘텐츠로 제작하려면, 메타버스 내에서의 관련 자료의 수집, 전문화 툴의 사용, 전문가의 기술 인력 및 시간 비용이 과도하게 소요될 수밖에 없는 실정이다.Accordingly, various activities such as meetings, lectures, and performances are taking place in the metaverse environment. However, in order to record these activities and produce them as video content, the collection of related data within the metaverse, the use of specialized tools, and the cost of expert technical manpower and time are inevitably required.

본 발명은 상기한 바와 같은 문제점들을 해결하고자 안출된 것으로, 메타버스 환경에서의 활동 기록들을 멀티미디어 영상 콘텐츠로 제작할 수 있도록, 자동화된 텍스트 인식 기반의 리소스 매칭을 이용한 저작 인터페이스를 제공하고, 이에 기초하여 쉽고 용이하면서도 신속하게 메타버스 환경의 활동들을 멀티미디어 영상 콘텐츠로 제작할 수 있도록 하는, 메타버스 환경에서 수집된 멀티미디어의 리소스 변환 매칭을 이용한 영상 콘텐츠 제작 서비스 제공 방법 및 그 기록매체를 제공하는데 그 목적이 있다.The present invention was conceived to solve the problems described above, and provides an authoring interface using automated text recognition-based resource matching so that activity records in a metaverse environment can be produced as multimedia video content, and based on this, The purpose is to provide a video content production service method and recording medium using resource conversion matching of multimedia collected in the metaverse environment, which allows easy, easy, and quick production of activities in the metaverse environment into multimedia video content. .

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 메타버스 시스템에 접속된 서비스 제공 장치의 동작 방법에 있어서, 메타버스 시스템의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축하는 단계; 상기 메타버스 시스템상에서 진행된 제1 이벤트에 대응하여, 상기 제1 이벤트의 멀티미디어 변환 콘텐츠 구성을 위한 대상 데이터를 수집하는 단계; 상기 대상 데이터에 대응하는 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하는 단계; 상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 단계; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 단계를 포함한다.A method according to an embodiment of the present invention to solve the above-described problem is a method of operating a service providing device connected to a metaverse system, which includes building a resource database using metaverse environment data of the metaverse system. step; In response to a first event conducted on the metaverse system, collecting target data for configuring multimedia converted content of the first event; extracting element information corresponding to the target setting information from the target data, based on metaverse environment-based target setting information corresponding to the target data; Obtaining multimedia converted content by performing multimedia content synthesis and conversion processing based on the element information and image resource matching of the resource database; and outputting the multimedia converted content.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 메타버스 시스템에 접속된 서비스 제공 장치에 있어서, 메타버스 시스템의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축하는 데이터베이스부; 상기 메타버스 시스템상에서 진행된 제1 이벤트에 대응하여, 상기 제1 이벤트의 멀티미디어 변환 콘텐츠 구성을 위한 대상 데이터를 수집하는 대상 데이터 수집부; 상기 대상 데이터에 대응하는 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하는 요소 정보 추출부; 상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 콘텐츠 합성 변환부; 및 상기 멀티미디어 변환 콘텐츠를 출력하는 출력부를 포함한다.In addition, a device according to an embodiment of the present invention for solving the problems described above is a database that builds a resource database using metaverse environment data of the metaverse system in a service providing device connected to the metaverse system. wealth; a target data collection unit that collects target data for configuring multimedia conversion content of the first event in response to a first event conducted on the metaverse system; an element information extraction unit that extracts element information corresponding to the target setting information from the target data, based on metaverse environment-based target setting information corresponding to the target data; a content synthesis and conversion unit that performs multimedia content synthesis and conversion processing based on the element information and image resource matching of the resource database to obtain multimedia converted content; and an output unit that outputs the multimedia converted content.

또 다른 측면에 따르면, 본 발명은 상기 각각의 단계를 실행하기 위한 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록 매체를 포함한다.According to another aspect, the present invention includes a recording medium recording a program to be executed on a computer to execute each of the above steps.

본 발명의 실시 예에 따르면, 메타버스 시스템의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축할 수 있으며, 이에 대응하는 대상 데이터의 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하고, 상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행할 수 있다.According to an embodiment of the present invention, a resource database can be built using the metaverse environment data of the metaverse system, and the target data is selected based on target setting information based on the metaverse environment of the corresponding target data. Element information corresponding to the setting information can be extracted, and multimedia content synthesis and conversion processing can be performed based on matching the element information and video resources in the resource database.

이에 따라, 본 발명의 실시 예에 따르면, 다양한 메타버스 환경에서의 활동 기록들에 대해, 자동화된 요소 정보 인식 기반의 리소스 매칭을 이용한 멀티미디어 영상 콘텐츠 저작 서비스 및 관련 인터페이스를 제공할 수 있으며, 이는 별도의 인력 및 시간 비용 소모를 최소화하면서, 쉽고 용이하고 신속하게 메타버스 환경의 활동들을 멀티미디어 영상 콘텐츠로 제작할 수 있도록 하는, 메타버스 환경에서 수집된 멀티미디어의 리소스 변환 매칭을 이용한 영상 콘텐츠 제작 서비스 제공 방법 및 그 장치를 제공할 수 있다.Accordingly, according to an embodiment of the present invention, a multimedia video content authoring service and related interface using resource matching based on automated element information recognition can be provided for activity records in various metaverse environments, which can be provided separately. A method of providing a video content production service using resource conversion matching of multimedia collected in a metaverse environment that allows activities in the metaverse environment to be easily, easily, and quickly produced as multimedia video content while minimizing manpower and time costs; and The device can be provided.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 타겟 설정부를 보다 구체적으로 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 서비스 제공 장치의 동작을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 요소 정보 매칭 과정을 설명하기 위한 예시도이다.
도 6은 본 발명의 실시 예에 따른 이벤트별 다양한 멀티미디어 영상 콘텐츠 생성 예시도이다.
도 7 내지 도 8은 본 발명의 실시 예에 따른 리소스 데이터베이스를 보다 구체적으로 설명하기 위한 도면이다.
도 9는 본 발명의 실시 예에 따른 제작 인터페이스를 보다 구체적으로 설명하기 위한 도면이다.
1 is a conceptual diagram showing the entire system according to an embodiment of the present invention.
Figure 2 is a block diagram illustrating in more detail a service providing device according to an embodiment of the present invention.
Figure 3 is a block diagram illustrating in more detail a target setting unit according to an embodiment of the present invention.
Figure 4 is a flowchart for explaining the operation of a service providing device according to an embodiment of the present invention.
Figure 5 is an example diagram for explaining the element information matching process according to an embodiment of the present invention.
Figure 6 is an exemplary diagram of generating various multimedia video contents for each event according to an embodiment of the present invention.
7 to 8 are diagrams to explain the resource database in more detail according to an embodiment of the present invention.
Figure 9 is a diagram for explaining in more detail the production interface according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Therefore, those skilled in the art will be able to invent various devices that embody the principles of the present invention and are included in the spirit and scope of the present invention, although not explicitly described or shown herein. In addition, it is understood that all conditional terms and embodiments listed herein are, in principle, expressly intended only for the purpose of ensuring that the concept of the invention is understood, and are not limited to the embodiments and conditions specifically listed as such. It has to be.

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Additionally, it is to be understood that any detailed description reciting principles, aspects, and embodiments of the invention, as well as specific embodiments, is intended to encompass structural and functional equivalents thereof. In addition, these equivalents should be understood to include not only currently known equivalents but also equivalents developed in the future, that is, all elements invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Accordingly, for example, the block diagrams herein should be understood as representing a conceptual view of an example circuit embodying the principles of the invention. Similarly, all flow diagrams, state transition diagrams, pseudo-code, etc. are understood to represent various processes that can be substantially represented on a computer-readable medium and are performed by a computer or processor, whether or not the computer or processor is explicitly shown. It has to be.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Additionally, the clear use of terms such as processor, control, or similar concepts should not be construed as exclusively referring to hardware capable of executing software, and should not be construed as referring exclusively to hardware capable of executing software, including without limitation digital signal processor (DSP) hardware and ROM for storing software. It should be understood as implicitly including ROM, RAM, and non-volatile memory. Other hardware for public use may also be included.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above-described purpose, features and advantages will become clearer through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art will be able to easily implement the technical idea of the present invention. There will be. Additionally, in describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically showing the entire system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따른 시스템은, 영상 콘텐츠 제작 서비스 제공 장치(100), 사용자 단말(200), 멀티미디어 콘텐츠 서버(300) 및 메타버스 시스템(400)을 포함한다.Referring to FIG. 1, a system according to an embodiment of the present invention includes a video content production service providing device 100, a user terminal 200, a multimedia content server 300, and a metaverse system 400.

먼저, 사용자 단말(200), 메타버스 시스템(400), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 네트워크를 통해 유선 또는 무선으로 연결될 수 있으며, 네트워크간 상호간 통신을 위해 각 사용자 단말(200), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 인터넷 네트워크, LAN, WAN, PSTN(Public Switched Telephone Network), PSDN(Public Switched Data Network), 케이블 TV 망, WIFI, 이동 통신망 및 기타 무선 통신망 등을 통하여 데이터를 송수신할 수 있다. 사용자 단말(200), 서비스 제공 장치(100) 및 멀티미디어 콘텐츠 서버(300)는 각 통신망에 상응하는 프로토콜로 통신하기 위한 각각의 통신 모듈을 포함할 수 있다.First, the user terminal 200, the metaverse system 400, the service providing device 100, and the multimedia content server 300 may be connected wired or wirelessly through a network, and each user terminal ( 200), the service provision device 100 and the multimedia content server 300 are Internet networks, LANs, WANs, PSTN (Public Switched Telephone Network), PSDN (Public Switched Data Network), cable TV networks, WIFI, mobile communication networks and others. Data can be transmitted and received through a wireless communication network, etc. The user terminal 200, the service providing device 100, and the multimedia content server 300 may include respective communication modules for communicating using a protocol corresponding to each communication network.

그리고, 본 명세서에서 설명되는, 사용자 단말(200)이라 함은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 휴대 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), VR(Virtual Reality) 환경 제공 장치, HMD(Head Mount Display) 장치 등이 포함될 수 있으며, 본 발명은 이에 한정되지 아니하고 그 이외에 메타버스 시스템 접속에 따른 사용자 입력 및 정보 표시 등이 가능한 다양한 장치가 포함될 수 있다.In addition, the user terminal 200 described in this specification refers to a mobile phone, smart phone, laptop computer, digital broadcasting portable terminal, PDA (Personal Digital Assistants), and PMP (Portable Multimedia Player). , VR (Virtual Reality) environment provision devices, HMD (Head Mount Display) devices, etc. may be included, but the present invention is not limited thereto and may include various devices capable of user input and information display according to metaverse system access. You can.

본 발명의 실시 예에 따른 사용자 단말(200)은 메타버스 시스템(400)에 접속하기 위한 장치일 수 있다. 예를 들어, 사용자 단말(200)은, 전술한 휴대폰, 스마트 폰, 랩톱 컴퓨터 등의 통상의 디스플레이 장치일 수 있으며, HMD(Head Mounted Display)의 형태를 가지고, 안경의 형태 또는 프레임 등에 의해 사용자의 머리상에 임시적으로 고정되며, 사용자의 눈으로부터 수 센치미터 내에서 영상을 디스플레이하는 접안(near to eye) 디스플레이를 포함할 수도 있다. 또한, 사용자 단말(200)은 웨어러블 컴퓨팅 디스플레이 시스템으로 구현될 수 있다.The user terminal 200 according to an embodiment of the present invention may be a device for accessing the metaverse system 400. For example, the user terminal 200 may be a typical display device such as the above-described mobile phone, smart phone, or laptop computer, and has the form of a Head Mounted Display (HMD), and can display the user's information by the shape of glasses or a frame, etc. It is temporarily fixed to the head and may include a near-to-eye display that displays an image within a few centimeters of the user's eyes. Additionally, the user terminal 200 may be implemented as a wearable computing display system.

그리고, 사용자 단말(200)는 디스플레이를 통해 본 발명의 실시 예에 따른 메타버스 시스템(400)에 접속할 수 있으며, 메타버스 시스템(400)은, 메타버스 인터페이스를 통해, 현실과 연동되는 메타버스 시스템 기반의 3차원 현실 연동 가상 공간을 제공받을 수 있으며, 사용자 단말(200)의 조작을 통해 상기 3차원 현실 연동 가상 공간 내에서의 다양한 활동을 체험할 수 있다.In addition, the user terminal 200 can access the metaverse system 400 according to an embodiment of the present invention through the display, and the metaverse system 400 is a metaverse system linked to reality through the metaverse interface. A virtual space based on 3D reality can be provided, and various activities within the 3D reality-linked virtual space can be experienced through manipulation of the user terminal 200.

그리고, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 사용자 단말(200)이 접속한 메타버스 시스템(400)에 동시 접속 가능한 장치일 수 있으며, 메타버스 시스템(400)의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축하고, 상기 메타버스 시스템(400)상에서 진행된 제1 이벤트에 대응하여, 상기 제1 이벤트의 멀티미디어 변환 콘텐츠 구성을 위한 대상 데이터를 수집하며, 상기 대상 데이터에 대응하는 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하고, 상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하며, 상기 멀티미디어 변환 콘텐츠를 출력하는 서비스 장치로 구성될 수 있다.In addition, the service providing device 100 according to an embodiment of the present invention may be a device capable of simultaneous access to the metaverse system 400 to which the user terminal 200 is connected, and the metaverse environment of the metaverse system 400 Build a resource database using data, collect target data for configuring multimedia conversion content of the first event in response to a first event that occurred on the metaverse system 400, and metaverse corresponding to the target data. Based on bus environment-based target setting information, element information corresponding to the target setting information is extracted from the target data, and multimedia content synthesis and conversion processing is performed based on matching the element information and video resources of the resource database, It may be configured as a service device that acquires multimedia converted content and outputs the multimedia converted content.

여기서, 변환된 멀티미디어 콘텐츠는 멀티미디어 콘텐츠 서버(300)로 출력되어 하나 이상의 서비스 이용자 단말로 배포될 수 있다.Here, the converted multimedia content can be output to the multimedia content server 300 and distributed to one or more service user terminals.

또한, 멀티미디어 콘텐츠 서버(300)는 메타버스 시스템(400)에서 발생된 제1 이벤트에 대응하여, 상기 멀티미디어 변환 콘텐츠를 분류 및 관리할 수 있으며, 서비스 이용자 단말의 요청에 따라 상기 멀티미디어 변환 콘텐츠의 블록 체인 기반 공유 서비스를 제공할 수 있다.In addition, the multimedia content server 300 can classify and manage the multimedia converted content in response to the first event generated in the metaverse system 400, and block the multimedia converted content according to the request of the service user terminal. Chain-based shared services can be provided.

이를 위해, 영상 콘텐츠 제작 서비스 제공 장치(100)는, 상기 변환된 멀티미디어 변환 콘텐츠를 블록 멀티미디어 콘텐츠 서버(300)가 위치한 블록 체인 네트워크상에 공유하는 프로세스를 수행할 수 있다.To this end, the video content production service providing device 100 may perform a process of sharing the converted multimedia content on a blockchain network where the block multimedia content server 300 is located.

나아가, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 도 2에서 후술할 별도의 메타버스 환경 데이터 처리 모듈(105)을 더 포함할 수 있으며, 메타버스 환경 데이터 처리 모듈(105)은, 메타버스 시스템(400)상의 사용자 단말(200) 사용자들의 활동에 따라 발생되는 다양한 대화 데이터 및 환경 데이터를 수집 및 데이터베이스화하는 기능을 수행할 수 있다. Furthermore, the service providing device 100 according to an embodiment of the present invention may further include a separate metaverse environment data processing module 105, which will be described later in FIG. 2, and the metaverse environment data processing module 105 , It can perform the function of collecting and databaseizing various conversation data and environmental data generated according to the activities of users of the user terminal 200 on the metaverse system 400.

또한, 서비스 제공 장치(100)는, 사용자 단말(200)로부터의 요청에 따라 타겟 설정 정보가 구성되면, 상기 타겟 설정 정보에 기초하여 대상 데이터를 획득할 수 있는 바, 상기 타겟 설정 정보는 구역 정보, 언어 정보, 발화자 정보 및 피드백 정보를 포함할 수 있다. In addition, when target setting information is configured according to a request from the user terminal 200, the service providing device 100 can obtain target data based on the target setting information, and the target setting information is zone information. , may include language information, speaker information, and feedback information.

여기서, 타겟 설정 정보에 따라 상기 대상 데이터에서 요소 정보를 추출하고, 영상 리소스를 매칭하기 위한 다양한 데이터 모델 분류가 결정될 수 있다.Here, element information can be extracted from the target data and various data model classifications for matching video resources can be determined according to target setting information.

예를 들어, 타겟 설정 정보가 구역 정보를 포함하는 경우, 상기 구역 정보는 멀티미디어 변환 콘텐츠를 구성할 메타버스 내 시공간적 구역을 지정하기 위한 시간 구간 정보 및 위치 정보를 포함할 수 있다. 각 위치 정보는 메타버스 시스템(400)내에서 형성된 회의장, 공연장, 강연장 등에 대응할 수 있으며, 시간 구간 정보는 회의 시간, 공연 시간, 강연 시간 등에 대응할 수 있다.For example, when target setting information includes zone information, the zone information may include time section information and location information for specifying a spatiotemporal zone within the metaverse in which multimedia conversion content will be composed. Each location information may correspond to a conference hall, performance hall, lecture hall, etc. formed within the metaverse system 400, and time section information may correspond to a meeting time, performance time, lecture time, etc.

또한, 예를 들어, 타겟 설정 정보가 언어 정보를 포함하는 경우, 상기 구역 정보는 멀티미디어 변환 콘텐츠를 구성할 대화 데이터의 변환 언어를 지정하기 위한 언어 정보를 포함할 수 있다.Additionally, for example, when the target setting information includes language information, the zone information may include language information for specifying the conversion language of conversation data that will constitute multimedia conversion content.

언어 정보는 사용자 단말(200)의 입력에 따라 지정된 타겟 설정 정보에 따라 결정될 수 있다. 여기서, 언어 정보는 대화 데이터의 텍스트 인식을 위한 다양한 타겟 언어로 설정될 수 있다. 서비스 제공 장치(100)는, 각 타겟 언어별 영상 콘텐츠 리소스 매칭을 처리할 수 있으며, 하나의 언어로 입력받은 대상 데이터에 대하여도, 다양한 국가별 문화에 알맞는 메타버스 환경에서의 멀티미디어 변환 콘텐츠가 생성될 수 있게 된다. 이는 영상 편집에 대한 비전문가일 뿐만 아니라, 특정 국가별 언어 및 문화에 대한 지식이 없는 사용자라 하더라도, 각 국가별 언어 또는 문화에 맞는 글로벌한 멀티미디어 변환 콘텐츠를 쉽고 용이하게 제작할 수 있게 하는 효과가 있다.Language information may be determined according to target setting information specified according to input from the user terminal 200. Here, language information can be set to various target languages for text recognition of conversation data. The service providing device 100 can process video content resource matching for each target language, and even for target data input in one language, multimedia conversion content in a metaverse environment appropriate for the culture of various countries is provided. can be created. This has the effect of enabling users who are not only non-experts in video editing but also have no knowledge of the language or culture of a specific country to easily and easily produce global multimedia conversion content tailored to the language or culture of each country.

한편, 상기 타겟 설정 정보는 발화자 설정 정보를 포함할 수 있다. 여기서, 발화자 설정 정보는, 멀티미디어 변환 콘텐츠의 요소 정보를 추출하기 위한 메인 대화 데이터를 결정하는데 이용될 수 있다. 이러한 발화자 설정 정보는 각 이벤트에 따라 상이하게 설정될 수 있으며, 사용자 단말(200)에서 입력하거나, 자동적으로 미리 세팅된 이벤트별 프리셋에 의해 결정될 수 있다. 예를 들어, 강연 이벤트에서는 강연자, 공연 이벤트에서는 공연자, 회의 이벤트에서는 발표자 등으로 설정될 수 있는 것이다. 이에 따라, 서비스 제공 장치(100)는, 대화 데이터 중 요소 정보를 매칭할 중요한 대화 데이터를 발화자 설정 정보에 따라 구분하여 추출할 수 있다.Meanwhile, the target setting information may include speaker setting information. Here, speaker setting information can be used to determine main conversation data for extracting element information of multimedia converted content. This speaker setting information may be set differently depending on each event, and may be input from the user terminal 200 or automatically determined by a preset for each event. For example, the user may be set as a lecturer in a lecture event, a performer in a performance event, or a presenter in a conference event. Accordingly, the service providing device 100 can extract important conversation data that matches element information among conversation data by classifying them according to speaker setting information.

또한, 상기 타겟 설정 정보는 피드백 설정 정보를 더 포함할 수 있다. 피드백 설정 정보는 각 이벤트에 대응하는 메타버스 시스템(400)상에서의 다른 사용자들의 이벤트 관련 피드백 정보를 상기 대상 데이터에 포함시킬지 여부를 결정할 수 있다. 여기서, 피드백 정보는, 발화자가 아닌 강연, 공연, 회의 이벤트상의 관중이나 시청자들의 피드백 채팅 데이터 등이 예시될 수 있으며, 이러한 피드백 정보는 사용자 설정 및 제작 인터페이스 구성에 따라, 멀티미디어 변환 콘텐츠에 부가될 수 있다.Additionally, the target setting information may further include feedback setting information. Feedback setting information may determine whether to include event-related feedback information of other users on the metaverse system 400 corresponding to each event in the target data. Here, the feedback information may be, for example, feedback chat data from spectators or viewers at a lecture, performance, or conference event rather than the speaker, and such feedback information can be added to multimedia converted content according to user settings and production interface configuration. there is.

이와 같이, 대상 데이터가 구성되면, 서비스 제공 장치(100)는, 요소 정보 추출에 있어서, 사전 설정된 자연어 처리 알고리즘에 따라, 변환 대상 데이터의 패턴 및 통계적 유사성에 따른 핵심 요소 정보를 텍스트 기반으로 추출할 수 있으며, 추출된 텍스트 기반의 요소 정보를 이용한 영상, 이미지, 텍스트, 자막, 애니메이션, 글꼴(색상, 크기, 폰트) 및 오디오를 프레임 병합 레이어별로 최적화 매칭시키는 리소스 매칭 처리를 수행할 수 있고, 매칭 처리된 요소 정보를 이용한 제작 인터페이스 제공 및 사용자 입력에 따른 상기 프레임 병합 레이어 기반의 최적화된 멀티미디어 변환 콘텐츠를 생성할 수 있다.In this way, when the target data is configured, the service providing device 100 extracts key element information according to the pattern and statistical similarity of the conversion target data on a text basis according to a preset natural language processing algorithm in extracting element information. Resource matching processing can be performed to optimize video, image, text, subtitles, animation, font (color, size, font), and audio for each frame merge layer using extracted text-based element information. It is possible to provide a production interface using processed element information and generate optimized multimedia conversion content based on the frame merge layer according to user input.

나아가, 서비스 제공 장치(100)는, 멀티미디어 변환 콘텐츠를 블록 체인 네트워크를 통해 전파하여, 멀티미디어 콘텐츠 서버(300)를 이용한 공유 서비스를 제공하기 위한 데이터를 제공할 수 있으며, 이에 따른 다양한 공연 영상, 강의 영상 등의 콘텐츠 거래 및 저작권 쉐어링 등의 부가 서비스가 가능하게 된다.Furthermore, the service providing device 100 can disseminate multimedia converted content through a blockchain network and provide data for providing sharing services using the multimedia content server 300, and various performance videos and lectures accordingly. Additional services such as content trading and copyright sharing, such as videos, will become possible.

도 2는 본 발명의 실시 예에 따른 서비스 제공 장치를 보다 구체적으로 도시한 블록도이며, 도 3은 본 발명의 실시 예에 따른 타겟 설정부를 보다 구체적으로 도시한 블록도이다.FIG. 2 is a block diagram illustrating in more detail a service providing device according to an embodiment of the present invention, and FIG. 3 is a block diagram illustrating a target setting unit in more detail according to an embodiment of the present invention.

도 2 및 도 3을 참조하면, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 메타버스 환경 데이터 처리 모듈(105), 대상 데이터 수집부(110), 타겟 설정부(117), 요소 정보 추출부(120), 영상 리소스 매칭부(130), 제작 인터페이스 제공부(140), 콘텐츠 합성 변환부(150), 학습 데이터베이스(160), 리소스 데이터베이스(180), 출력부(170) 및 블록 체인 서비스부(180)를 포함한다.Referring to Figures 2 and 3, the service providing device 100 according to an embodiment of the present invention includes a metaverse environment data processing module 105, a target data collection unit 110, a target setting unit 117, and an element. Information extraction unit 120, image resource matching unit 130, production interface providing unit 140, content synthesis conversion unit 150, learning database 160, resource database 180, output unit 170, and block Includes a chain service unit 180.

먼저, 메타버스 환경 데이터 처리 모듈(105)은, 메타버스 시스템(400)상에 접속하여, 영상 리소스 데이터베이스 구성 및 학습에 필요한 다양한 환경 데이터를 처리하여, 각 학습 데이터베이스(160) 및 리소스 데이터베이스(180)를 포함하는 데이터베이스부로 전달 처리할 수 있다.First, the metaverse environment data processing module 105 connects to the metaverse system 400 and processes various environmental data necessary for configuring and learning the image resource database, creating each learning database 160 and the resource database 180. ) can be forwarded and processed to the database unit containing.

또한, 메타버스 환경 데이터 처리 모듈(105)은, 대상 데이터 수집부(110)로부터의 요청에 따라 필요한 메타버스 환경 데이터를 구성하여 대상 데이터 수집부(110)로 제공할 수도 있다.Additionally, the metaverse environment data processing module 105 may configure necessary metaverse environment data according to a request from the target data collection unit 110 and provide it to the target data collection unit 110.

이를 위해, 메타버스 환경 데이터 처리 모듈(105)은, 메타버스 시스템(400)상에 접속하여 데이터를 수집하기 위한 메타버스 환경 데이터 크롤러를 구비할 수 있으며, 여기서 수집되는 메타버스 환경 데이터는, 메타버스 시스템(400)에서 발생되는 이벤트 정보와, 각 이벤트 정보에 대응하여 수집되는 각 구역 또는 지역 별 메타버스 환경을 구성하는 3차원 지리 데이터, 3차원 배경 데이터, 3차원 객체 데이터, 텍스처 데이터, 애니메이션 데이터, 음성 데이터, 채팅 데이터와, 각 사용자들의 시계열적인 활동 데이터를 포함하는 다양한 환경 정보를 수집 및 전처리하여 대상 데이터 수집부(110), 학습 데이터베이스(160) 및 리소스 데이터베이스(180)로 전달할 수 있다.To this end, the metaverse environment data processing module 105 may be equipped with a metaverse environment data crawler for accessing and collecting data on the metaverse system 400, and the metaverse environment data collected here is metaverse environment data. Event information generated in the bus system 400, and 3D geographic data, 3D background data, 3D object data, texture data, and animation that constitute the metaverse environment for each zone or region collected in response to each event information. Various environmental information, including data, voice data, chat data, and time-series activity data of each user, can be collected and pre-processed and transmitted to the target data collection unit 110, learning database 160, and resource database 180. .

그리고, 대상 데이터 수집부(110)는, 멀티미디어 콘텐츠 변환을 위한 대상 데이터를 메타버스 환경 데이터 처리 모듈(105)로부터 제공받아, 요소 정보 추출부(120)로 전달한다.Then, the target data collection unit 110 receives target data for multimedia content conversion from the metaverse environment data processing module 105 and delivers it to the element information extraction unit 120.

여기서, 대상 데이터 수집부(110)는, 사용자 단말(200)로부터 대상 데이터정보를 입력받기 위한 하나 이상의 입력 인터페이스를 포함할 수 있다.Here, the target data collection unit 110 may include one or more input interfaces for receiving target data information from the user terminal 200.

예를 들어, 상기 대상 데이터는 사용자 단말(200)로부터 요청된 메타버스 내 이벤트 정보에 따라 결정될 수 있으며, 이는 공연, 강연, 회의 등의 다양한 이벤트 정보를 포함할 수 있다. 이에 따라, 대상 데이터는 사용자 단말(200)에서 지정한 공연, 강연 또는 회의 등에 대한 각 메타버스 환경 데이터를 포함할 수 있다.For example, the target data may be determined according to event information in the metaverse requested from the user terminal 200, and may include various event information such as performances, lectures, and conferences. Accordingly, the target data may include each metaverse environment data for a performance, lecture, or conference designated by the user terminal 200.

그리고, 대상 데이터 수집부(110)는, 메타버스 환경 데이터 처리 모듈(105)로부터 수신된 메타버스 환경 데이터를, 타겟 설정부(117)에서 설정된 타겟 설정 정보에 따라 필터링하고, 필터링된 대상 데이터를 요소 정보 추출부(120)로 제공할 수 있다.And, the target data collection unit 110 filters the metaverse environment data received from the metaverse environment data processing module 105 according to the target setting information set in the target setting unit 117, and selects the filtered target data. It can be provided to the element information extraction unit 120.

여기서, 상기 타겟 설정 정보는, 대상 데이터로부터 요소 정보로서 추출하기 위한 데이터를 결정하는 데 이용되는 정보이며, 사용자 단말(200)의 입력에 따라 설정되거나, 사전 설정된 각 이벤트별 프리셋에 따라 설정될 수 있다. 설정된 타겟 설정 정보는 요소 정보 추출부(120)로 전달되며, 요소 정보 추출부(120)는, 타겟 설정 정보에 따라 요소 정보 추출 알고리즘 및 추출 모델을 선택하고, 대상 데이터 수집부(110)로부터 수집된 데이터의 요소 정보 추출을 수행할 수 있다.Here, the target setting information is information used to determine data to be extracted as element information from the target data, and can be set according to the input of the user terminal 200 or according to a preset for each event. there is. The set target setting information is transmitted to the element information extraction unit 120, and the element information extraction unit 120 selects an element information extraction algorithm and extraction model according to the target setting information, and collects it from the target data collection unit 110. You can extract element information from the data.

보다 구체적으로, 도 3을 참조하면, 타겟 설정부(117)는, 구역 설정부(1171), 언어 설정부(1173), 발화자 설정부(1175), 피드백 설정부(1177)를 포함한다.More specifically, referring to FIG. 3, the target setting unit 117 includes a zone setting unit 1171, a language setting unit 1173, a speaker setting unit 1175, and a feedback setting unit 1177.

먼저, 구역 설정부(1171)는, 상기 대상 데이터의 멀티미디어 콘텐츠 변환용 요소 정보 추출을 위해, 상기 메타버스 시스템상의 제1 구역 정보를 식별하기 위한 구역 정보를 설정한다.First, the zone setting unit 1171 sets zone information to identify first zone information on the metaverse system in order to extract element information for multimedia content conversion of the target data.

구역 정보가 설정되면, 대상 데이터 수집부(110)는 상기 제1 구역 정보에 대응하여, 상기 메타버스 시스템상의 상기 제1 구역 정보에서 발생된 대화 데이터를 수집하며, 상기 대화 데이터의 텍스트 인식에 따라, 텍스트 문장으로 변환하고, 상기 변환된 텍스트 문장을 상기 대상 데이터로 획득하여, 요소 정보 추출부(120)로 전달할 수 있다.When zone information is set, the target data collection unit 110 collects conversation data generated from the first zone information on the metaverse system in response to the first zone information, and according to text recognition of the conversation data. , can be converted into a text sentence, and the converted text sentence can be obtained as the target data and transmitted to the element information extraction unit 120.

여기서, 상기 제1 구역 정보는, 상기 메타버스 시스템상의 상기 제1 이벤트에 대응하는 시간 구간 정보 및 상기 제1 이벤트에 대응하는 상기 메타버스 시스템 내 지역 정보와, 대화 데이터가 발생된 좌표 정보를 포함할 수 있다.Here, the first zone information includes time section information corresponding to the first event on the metaverse system, area information within the metaverse system corresponding to the first event, and coordinate information where conversation data was generated. can do.

보다 구체적으로, 상기 구역 정보는 메타버스 시스템(400)상에서의 각 사용자들이 활동하는 구역과 이벤트에 따라 각각 상이하게 설정될 수 있다. 그리고 상기 구역 정보는 다양한 기준에 따라 분리 구성될 수 있다.More specifically, the zone information may be set differently depending on the zone and event in which each user is active on the metaverse system 400. And the zone information can be separately organized according to various criteria.

예를 들어, 공연 등에 있어서, 각 사용자들이 언어를 기준으로 서로 분리되어 구성된 영역에 위치할 수 있다. 제1 메타버스 공연의 관중으로 참가하는 참가자들은 입장 전 자신의 언어를 설정할 수 있으며, 자신의 언어만을 구사하는 특정 구역에 함께 배정될 수 있다. 그리고, 사용자 단말(200)에서 상기 제1 메타버스 공연의 멀티미디어 콘텐츠 변환 서비스를 서비스 제공 장치(100)로 요청하는 경우, 대상 데이터 수집부(110)는 타겟 설정 정보에 상기 특정 구역 정보를 포함시켜 상기 특정 구역으로 제한된 영역의 대화 데이터로부터 요소 정보가 추출되도록 처리할 수 있다. For example, in a performance, etc., each user may be located in an area that is separated from each other based on language. Participants who participate as spectators in the first Metaverse performance can set their language before entering and can be assigned to a specific area that speaks only their language. And, when the user terminal 200 requests a multimedia content conversion service of the first metaverse performance to the service providing device 100, the target data collection unit 110 includes the specific zone information in the target setting information Element information can be extracted from conversation data limited to the specific area.

한편, 언어 설정부(1173)는, 상기 대상 데이터의 멀티미디어 콘텐츠 변환용 요소 정보 추출을 위해, 변환 대상 언어를 설정하기 위한 언어 설정 정보를 저장 및 관리한다.Meanwhile, the language setting unit 1173 stores and manages language setting information for setting the conversion target language in order to extract element information for converting multimedia content of the target data.

이에 따라, 대상 데이터 수집부(110)는, 상기 타겟 설정 정보에 기초하여, 상기 대상 데이터에 대응하는 하나 이상의 타겟 언어 정보를 식별하고, 상기 타겟 언어 정보에 기초하여 대상 데이터 내 대화 데이터를 하나 이상의 언어별 텍스트 문장으로 변환하여 요소 정보 추출부(120)로 전달할 수 있다.Accordingly, the target data collection unit 110 identifies one or more target language information corresponding to the target data, based on the target setting information, and selects one or more conversation data in the target data based on the target language information. It can be converted into text sentences for each language and transmitted to the element information extraction unit 120.

예를 들어, 메타버스 팬미팅과 같이, 다양한 인종의 팬들과 소통이 이루어져야하는 경우에서는, 본 발명의 실시 예에 따른 각 대화자별로 각 국적 및 문화가 상이한 상태에서의 대화 데이터가 상기 대상 데이터로서 구성될 수 있고, 서비스 제공 장치(100)는, 그 대화 데이터를 기초로 하는 글로벌한 멀티미디어 콘텐츠를 구성하여 다른 국가의 사용자들에게도 배포할 수 있다.For example, in cases where communication with fans of various races is required, such as a metaverse fan meeting, conversation data of different nationalities and cultures for each conversationalist according to an embodiment of the present invention constitutes the target data. This can be done, and the service providing device 100 can configure global multimedia content based on the conversation data and distribute it to users in other countries.

이를 위해, 본 발명의 실시 예에 따른 언어 설정부(1173)는, 발화 언어 정보와, 변환할 타겟 언어 정보를 각각 설정할 수 있다. 즉 발화 언어 정보 또한 각 대화자별로 상이하게 설정될 수 있으며, 이로부터 변환할 언어인 타겟 언어 정보 또한 사용자 단말(200) 및 기본 프리셋 설정 등에 따라 미리 결정될 수 있다.To this end, the language setting unit 1173 according to an embodiment of the present invention can set speech language information and target language information to be converted, respectively. That is, speech language information may also be set differently for each speaker, and target language information, which is the language to be converted from this, may also be determined in advance depending on the user terminal 200 and basic preset settings.

한편, 발화자 설정부(1175)는, 상기 대상 데이터의 멀티미디어 콘텐츠 변환용 요소 정보 추출을 위해, 발화자를 설정하기 위한 발화자 설정 정보를 저장 및 관리한다.Meanwhile, the speaker setting unit 1175 stores and manages speaker setting information for setting a speaker in order to extract element information for converting multimedia content of the target data.

그리고, 대상 데이터 수집부(110)는, 상기 타겟 설정 정보에 기초하여, 상기 대상 데이터에 대응하는 발화자 정보를 식별하며, 상기 발화자 정보에 기초하여 상기 대화 데이터를 하나 이상의 발화자별 텍스트 문장으로 변환하여, 요소 정보 추출부(120)로 전달할 수 있다.Then, the target data collection unit 110 identifies speaker information corresponding to the target data based on the target setting information, and converts the conversation data into text sentences for one or more speakers based on the speaker information. , can be transmitted to the element information extraction unit 120.

보다 구체적으로, 강연, 공연, 팬미팅, 회의 등의 다양한 메타버스 시스템(400) 내 이벤트에서 수집된 대화 데이터는 각각의 주요 발화자가 존재할 수 있으며, 주요 발화자가 아니더라도 멀티미디어 변환 콘텐츠를 구성하고자 하는 사용자별로 지정하고자 하는 주요 발화자가 있을 수 있다. 이에 따라, 본 발명의 실시 예에 따른 발화자 설정부(1175)는, 사용자 단말(200) 입력 또는 프리셋 설정에 따라 발화자 정보를 미리 지정할 수 있다. 여기서, 발화자 정보는 메타버스 시스템(400)상의 각 대화 대이터를 발생한 사용자별 ID 정보 등이 예시될 수 있다.More specifically, conversation data collected from various events in the metaverse system 400, such as lectures, performances, fan meetings, and conferences, may have each main speaker, and even if they are not the main speaker, users who want to compose multimedia conversion content There may be major speakers that you would like to specify separately. Accordingly, the speaker setting unit 1175 according to an embodiment of the present invention can specify speaker information in advance according to input from the user terminal 200 or preset settings. Here, the speaker information may be, for example, ID information for each user who generated each conversation data on the metaverse system 400.

또한, 각 발화자는 이벤트 구간 동안 고정적으로 설정될 수도 있으며, 유동적으로 변경되도록 설정될 수도 있다. 예를 들어, 연설이나 발표 등에서는 발화자가 고정되어야 하나, 회의실이나 일상 대화 등에서는 발화자가 분리 구성될 수 있다.Additionally, each speaker may be set to be fixed during the event period, or may be set to change flexibly. For example, in a speech or presentation, the speaker must be fixed, but in a conference room or daily conversation, the speaker can be separated.

또한, 발화자 설정부(1175)는, 메타버스 시스템(400)상에서의 환경 정보로부터 발화자 정보 및 우선 순위 정보를 식별하여, 발화자 설정 정보로서 구성할 수 도 있다. 이 경우, 대상 데이터 수집부(110)는, 요소 정보를 추출할 발화자의 데이터를 우선 순위에 따라 미리 분리 구성하여 요소 정보 추출부(120)로 전달할 수 있따.Additionally, the talker setting unit 1175 may identify talker information and priority information from environmental information on the metaverse system 400 and configure them as talker setting information. In this case, the target data collection unit 110 may separate and configure the speaker's data from which element information is to be extracted in advance according to priority and transmit it to the element information extraction unit 120.

예를 들어, 메타버스 시스템(400)상에서의 이벤트에 따라 발표자를 고정하거나, 또는 다음 발표자로 발언권을 넘겨야하는 경우등이 발생될 수 있으며, 키 플레이어(대표 발표자)로 지정된 사용자이거나, 특정 구역에 위치한 사용자만이 발화자로서 발언할 수 있다. 이러한 환경 정보가 미리 확인된 경우, 발화자 설정부(1175)는, 키 플레이어로 설정된 사용자 정보 또는 상기 특정 구역에 위치한 사용자의 음성 정보로부터 텍스트 변환된 정보 또는 텍스트 입력 정보를 분리 구성하여, 요소 정보 추출부(120)로 전달할 수 있는 것이다.For example, depending on an event in the metaverse system 400, it may be necessary to fix the presenter or pass the speaking rights to the next presenter, and may be a user designated as a key player (representative presenter) or in a specific area. Only the located user can speak as the speaker. When such environmental information is confirmed in advance, the speaker setting unit 1175 separates the text converted information or text input information from the user information set as the key player or the voice information of the user located in the specific area, and extracts element information. It can be transmitted to Boo (120).

한편, 피드백 설정부(1177)는, 상기 대상 데이터에 대응하는 피드백 데이터를 요소 정보로 추출할 대상 정보로서 설정할 수 있다.Meanwhile, the feedback setting unit 1177 may set feedback data corresponding to the target data as target information to be extracted as element information.

이에 따라, 대상 데이터 수집부(110)는, 상기 대상 데이터에 대응하여 피드백 데이터 수집하고, 수집된 피드백 데이터를 하나 이상의 피드백 텍스트 문장으로 변환하여, 요소 정보 추출부(120)로 전달할 수 있다.Accordingly, the target data collection unit 110 may collect feedback data corresponding to the target data, convert the collected feedback data into one or more feedback text sentences, and transmit them to the element information extraction unit 120.

예를 들어, 피드백 데이터는, 본 발명의 실시 예에 따른 대상 데이터와, 이로부터 실시간 변환되는 멀티미디어 변환 콘텐츠에 대응하여 별도 채널을 통해 수집되는 댓글 데이터, 이모티콘 데이터 등이 포함될 수 있으며, 본 발명의 실시 예에 따른 피드백 설정부(1177)는, 이러한 각 피드백 데이터들을 다시 상기 멀티미디어 변환 콘텐츠에 병합 가공하기 위한 설정 정보를 구성할 수 있다.For example, the feedback data may include comment data, emoticon data, etc. collected through a separate channel in response to target data according to an embodiment of the present invention and multimedia converted content converted in real time from the target data, and the present invention. The feedback setting unit 1177 according to the embodiment may configure setting information for merging and processing each of these feedback data into the multimedia conversion content.

한편, 타겟 설정부(117)는, 전술한 각 구역 설정부(1171), 언어 설정부(1173), 발화자 설정부(1175) 및 피드백 설정부(1177)의 설정 정보를 전반적으로 저장 및 관리할 수 있으며 이벤트 프리셋에 따라 각 설정 정보별 우선 순위와 적용 여부를 미리 지정할 수 있다. 예를 들어, 각 메타버스 환경 내 이벤트에 따라 다국적 언어가 필요한 경우, 발표자를 고정하여야 하는 경우, 발표자가 유동적인 경우 등 다양한 이벤트 속성을 반영하여, 전술한 이벤트 프리셋이 각각 결정될 수 있고, 이에 대응하는 타겟 설정 정보들이 미리 구성될 수 있는 것이다.Meanwhile, the target setting unit 117 stores and manages the overall setting information of each of the above-described zone setting units 1171, language setting units 1173, speaker setting units 1175, and feedback setting units 1177. Depending on the event preset, the priority and application of each setting information can be specified in advance. For example, depending on the event in each metaverse environment, when multinational languages are required, when the presenter must be fixed, when the presenter is flexible, etc., the above-mentioned event presets can be determined and responded accordingly, reflecting various event properties. Target setting information can be configured in advance.

그리고, 요소 정보 추출부(120)는, 대상 데이터 수집부(110)로부터 전달된 대상 데이터로부터, 영상 리소스가 매칭 가능한 하나 이상의 요소 데이터로 구분하기 위한 요소 정보를 추출할 수 있다.Additionally, the element information extraction unit 120 may extract element information for classifying the image resource into one or more element data that can be matched from the target data transmitted from the target data collection unit 110.

여기서, 요소 정보 추출을 위해 사전 설정된 자연어 처리 알고리즘이 이용될 수 있다. 이에 따라 요소 정보 추출부(120)는, 타겟 설정부(117)에 의해 필터링된 대상 데이터로부터 텍스트 포맷의 요소 데이터를 추출하고, 추출된 요소 정보를 영상 리소스 매칭부(130)로 전달한다.Here, a preset natural language processing algorithm can be used to extract element information. Accordingly, the element information extraction unit 120 extracts element data in text format from the target data filtered by the target setting unit 117 and transmits the extracted element information to the image resource matching unit 130.

특히, 요소 정보 추출부(120)는, 대상 데이터의 주요 요소 데이터와 타겟 설정 정보에 기초하여, 영상 리소스에 매칭하기 위한 상기 대상 데이터의 자연어 처리 프로세스를 결정할 수 있다. 여기서, 상기 자연어 처리 프로세스는 딥러닝 프로세스에 의해 사전 학습된 텍스트 요약 프로세스가 예시될 수 있다.In particular, the element information extraction unit 120 may determine a natural language processing process for the target data to match it to an image resource, based on the main element data and target setting information of the target data. Here, the natural language processing process may be an example of a text summary process pre-learned by a deep learning process.

이에 따라, 요소 정보 추출부(120)는 텍스트 요약 프로세스를 수행하여, 대상 데이터로부터 중요한 문장 또는 단어를 추출하고, 하나 이상의 요약 문장을 합성하여 요소 정보로서 출력할 수 있다.Accordingly, the element information extraction unit 120 may perform a text summary process to extract important sentences or words from the target data, synthesize one or more summary sentences, and output them as element information.

또한, 요소 정보 추출부(120)는, 텍스트 요약 프로세스를 결정함에 있어서, 대상 데이터의 타겟 설정 정보에 따라 서로 다른 하나 이상의 언어모델을 적용할 수 있다. 언어모델은 추출 모델 또는 합성 모델이 예시될 수 있으며, 메타버스 시스템(400) 환경에서의 각 메타버스 이벤트 특성 및 종류에 따라 서로 다른 모델이 결정될 수 있다.Additionally, when determining the text summary process, the element information extraction unit 120 may apply one or more different language models according to the target setting information of the target data. The language model may be an extraction model or a synthesis model, and different models may be determined depending on the characteristics and types of each metaverse event in the metaverse system 400 environment.

예를 들어, 요소 정보 추출부(120)는, 대상 데이터에 대응하여 설정된 타겟 설정 정보에 특정 대표자의 발언 이벤트에 따른 고정 발화자 정보가 식별된 경우, 대상 데이터에 대한 추출 모델을 적용하여, 대표자의 발화 내용에서의 중요한 문장 정보를 요소 정보로서 그대로 추출할 수 있다.For example, when fixed speaker information according to a speech event of a specific representative is identified in the target setting information set corresponding to the target data, the element information extraction unit 120 applies the extraction model to the target data to determine the representative's Important sentence information from the utterance content can be extracted as element information.

또한, 요소 정보 추출부(120)는, 대상 데이터에 대응하여 설정된 타겟 설정 정보에 팬미팅에 따른 다국 언어 설정과 가변 발화자 정보가 식별된 경우, 발화자 및 언어의 변경에 대응하는 국가 및 발화자별 언어 변환 모델을 변경 적용한 뒤, 대상 데이터를 변환 합성하는 합성 모델을 적용하여, 각 발화자들의 중요한 키워드 정보가 선별되어 요약 문장으로서 합성된 문장 정보를 요소 정보로서 추출할 수도 있다.In addition, when the multilingual language setting and variable speaker information according to the fan meeting are identified in the target setting information set corresponding to the target data, the element information extraction unit 120 selects the country and speaker-specific language corresponding to the change in speaker and language. After changing and applying the conversion model, a synthesis model that converts and synthesizes the target data can be applied to select important keyword information for each speaker and extract the synthesized sentence information as a summary sentence as element information.

이에 따라, 본 발명의 실시 예에 따른 요소 정보는 대상 데이터로부터 추출 또는 합성 언어 모델에 기초하여 획득되는 하나 이상의 중요 문장 정보를 포함할 수 있다. 이러한 문장 정보는 하나의 영상 리소스 매칭 프레임의 레이어 단위에 대응할 수 있으며, 각 문장 정보별로 적절한 리소스 매칭이 처리되어 하나의 영상 프레임 레이어 단위를 구성할 수 있다.Accordingly, element information according to an embodiment of the present invention may include one or more important sentence information extracted from target data or obtained based on a synthetic language model. Such sentence information can correspond to the layer unit of one video resource matching frame, and appropriate resource matching is processed for each sentence information to form one video frame layer unit.

그리고, 영상 리소스 매칭부(130)는, 학습 데이터베이스(160) 및 리소스 데이터베이스(180)에 기초하여, 상기 요소 정보에 대응하여 최적화된 리소스 매칭 처리를 수행하며, 리소스 매칭 정보를 콘텐츠 합성 변환부(150) 및 제작 인터페이스 제공부(140)로 전달한다.And, the video resource matching unit 130 performs optimized resource matching processing in response to the element information based on the learning database 160 and the resource database 180, and converts the resource matching information into the content synthesis conversion unit ( 150) and the production interface providing unit 140.

보다 구체적으로, 영상 리소스 매칭부(130)는, 요소 정보에 대응하는 콘텐츠 합성 변환을 위한 리소스 매칭 처리를 수행하는 바, 콘텐츠 합성 변환을 위한 리소스는 사전 설정된 프레임 레이어 단위 내에서 처리되는 배경 영상, 배경 이미지, 배경 음악, 레이아웃, 모션, 애니메이션 등의 다양한 콘텐츠를 포함할 수 있으며, 이는 메타버스 환경 데이터 처리 모듈(105)로부터 전달된 메타버스 환경 데이터로부터 수집 및 구성될 수 있다.More specifically, the image resource matching unit 130 performs resource matching processing for content composition conversion corresponding to element information. Resources for content composition conversion include a background image processed within a preset frame layer unit, It may include various contents such as background images, background music, layout, motion, animation, etc., which may be collected and configured from metaverse environment data transmitted from the metaverse environment data processing module 105.

메타버스 환경 데이터는 전술한 바와 같이, 메타버스 시스템(400)에서 발생되는 이벤트 정보와, 각 이벤트 정보에 대응하여 수집되는 각 구역 또는 지역 별 메타버스 환경을 구성하는 3차원 지리 데이터, 3차원 배경 데이터, 3차원 객체 데이터, 텍스처 데이터, 애니메이션 데이터, 음성 데이터, 채팅 데이터와, 각 사용자들의 시계열적인 활동 데이터를 포함하는 다양한 환경 정보를 전처리한 데이터로서, 리소스 데이터베이스(180)에서 사전 저장되어 있을 수 있다.As described above, metaverse environmental data includes event information generated in the metaverse system 400, three-dimensional geographic data constituting the metaverse environment for each zone or region collected in response to each event information, and three-dimensional background. It is pre-processed data of various environmental information including data, 3D object data, texture data, animation data, voice data, chat data, and time-series activity data of each user, and may be pre-stored in the resource database 180. there is.

또한, 리소스 데이터베이스(180)는 외부 네트워크를 통해 연결된 다양한 콘텐츠 서버로부터 수신되는 리소스 콘텐츠 데이터를 저장 및 관리할 수도 있다. 여기서 리소스 콘텐츠 데이터는 콘텐츠 속성 정보, 콘텐츠 식별 정보, 콘텐츠 링크 정보 및 콘텐츠 데이터 정보 중 적어도 하나를 포함할 수 있으며, 매칭된 리소스 정보는 제작 인터페이스 제공부(140) 또는 콘텐츠 합성 변환부(150)로 전달될 수 있다.Additionally, the resource database 180 may store and manage resource content data received from various content servers connected through an external network. Here, the resource content data may include at least one of content attribute information, content identification information, content link information, and content data information, and the matched resource information is sent to the production interface providing unit 140 or the content synthesis conversion unit 150. It can be delivered.

나아가, 상기 리소스 데이터베이스(180)는 각 국가 및 언어별로 분류 구성되는 복수의 리소스 데이터베이스(180)를 포함할 수 있다. 이 경우, 콘텐츠 합성 변환시 설정된 타겟 언어에 대응하는 국가 및 언어에 적합한 리소스 콘텐츠 데이터들이 추출되어 영상 리소스 매칭부(130)에서 매칭 처리될 수 있다.Furthermore, the resource database 180 may include a plurality of resource databases 180 classified by country and language. In this case, resource content data suitable for the country and language corresponding to the target language set during content synthesis conversion may be extracted and matched in the video resource matching unit 130.

또한, 영상 리소스 매칭부(130)는 리소스 데이터베이스(180)로부터 요소 정보에 대응하는 보다 적절한 콘텐츠를 매칭시키기 위해, 학습 데이터베이스(160)를 구축 및 활용할 수 있다. 학습 데이터베이스(160)는 리소스 콘텐츠와 요소 정보간 관계 정보를 학습하는 관계 학습 모델을 구축할 수 있으며, 특히 대상 데이터의 종류 및 주요 요소 정보에 대응하여 보다 적합한 리소스 콘텐츠가 매칭될 수 있도록 하는 가중치 변수가 설정될 수 있다. 이에 따라, 영상 리소스 매칭부(130)는 학습 데이터베이스(160)를 활용하여, 요소 정보에 대응하는 최적의 리소스 콘텐츠가 매칭되는 매칭 정보를 산출할 수 있으며, 산출된 매칭 정보는 제작 인터페이스 제공부(140) 및 콘텐츠 합성 변환부(150)로 전달될 수 있다.Additionally, the video resource matching unit 130 may build and utilize the learning database 160 to match more appropriate content corresponding to element information from the resource database 180. The learning database 160 can build a relationship learning model that learns relationship information between resource content and element information, and in particular, a weight variable that allows more appropriate resource content to be matched in response to the type of target data and key element information. can be set. Accordingly, the video resource matching unit 130 can utilize the learning database 160 to calculate matching information that matches the optimal resource content corresponding to the element information, and the calculated matching information is provided by the production interface providing unit ( 140) and may be transmitted to the content synthesis conversion unit 150.

예를 들어, 영상 리소스 매칭부(130)는, 요소 정보의 문장 정보에 대응하여, 일정 시간 단위로 구분되는 영상 프레임 레이어 단위별 배경, 음향, 글자 유형, 타겟 언어 등을 학습 데이터베이스(160)에 기초하여 사전 구축된 리소스 데이터베이스(180)와 매칭할 수 있다.For example, the video resource matching unit 130 stores the background, sound, character type, target language, etc. for each video frame layer divided by a certain time unit in the learning database 160, in response to the sentence information of the element information. Based on this, it can be matched with a pre-built resource database 180.

학습 데이터베이스(160)는 각 문장 정보의 대분류 카테고리와 세부 분류 카테고리를 정의할 수 있으며, 대분류와 세부 분류의 딥러닝 학습 결과의 연관성을 분석하여, 상기 매칭된 배경, 음향 또는 글자 유형이 대상 데이터의 메타버스 이벤트에 대응하는 목적 등과 확률적으로 얼마나 연관성을 가지고 있는지를 산술적으로 분석할 수 있다.The learning database 160 can define a major category and a detailed classification category of each sentence information, and analyzes the correlation between the deep learning learning results of the major category and the detailed classification, so that the matched background, sound, or letter type is the target data. It is possible to arithmetically analyze how probabilistically related the purpose of a metaverse event is.

이에 따라, 영상 리소스 매칭부(130)는 가장 최적화된 연관성이 산출되는 배경, 음향, 글자 유형, 타겟 언어 등의 리소스 콘텐츠들을 상기 영상 프레임 레이어 단위에 매칭하는 매칭 정보로서 획득할 수 있게 된다.Accordingly, the video resource matching unit 130 can obtain resource contents such as background, sound, text type, and target language for which the most optimized correlation is calculated as matching information for matching the video frame layer unit.

또한, 예를 들어, 본 발명의 실시 예에 따른 영상 리소스 매칭부(130)는, 요소 정보의 문장을 묘사하는 이미지 또는 오디오 리소스 콘텐츠를 직접 생성하거나, 리소스 데이터베이스(180)에서 검색할 수 있으며, 생성 또는 검색된 리소스 콘텐츠는 제작 인터페이스 제공부(140) 및 콘텐츠 합성 변환부(150)로 전달될 수 있다.In addition, for example, the image resource matching unit 130 according to an embodiment of the present invention may directly generate image or audio resource content depicting a sentence of element information or search for it in the resource database 180, The generated or searched resource content may be transmitted to the production interface providing unit 140 and the content synthesis conversion unit 150.

그리고, 제작 인터페이스 제공부(140)는, 매칭 정보에 기초하여 영상 리소스 매칭부(130)에서 매칭된 콘텐츠를 합성 변환할 수 있는 제작 인터페이스를 구성하고, 사용자 단말(200)로 제공한다.Then, the production interface providing unit 140 configures a production interface capable of synthesizing and converting the content matched by the video resource matching unit 130 based on the matching information, and provides the production interface to the user terminal 200.

제작 인터페이스 제공부(140)는, 사용자 단말(200)에서 실행되는 인터페이스 어플리케이션으로 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보를 전달하거나, 별도의 API를 통해 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보를 사용자 단말(200)로 전달하거나, 상기 리소스 콘텐츠 데이터 및 리소스 매칭 정보에 기초한 실시간 웹 제작 인터페이스를 구성하여 사용자 단말(200)로 제공할 수도 있다.The production interface provider 140 transmits the resource content data and resource matching information to an interface application running on the user terminal 200, or transmits the resource content data and resource matching information to the user terminal 200 through a separate API. ), or a real-time web production interface based on the resource content data and resource matching information may be configured and provided to the user terminal 200.

이에 따라, 사용자 단말(200)에서는 자신이 입력한 대상 데이터에 대응하여, 요소 정보가 추출되어 영상 리소스가 매칭된 리소스 콘텐츠를 확인할 수 있으며, 적절한 편집 및 가공을 처리하고, 합성 변환 명령을 입력할 수 있다. 또한, 사용자 단말(200)의 설정에 따라서는 사용자 단말(200)에서의 별도의 편집이나 가공 없이 바로 콘텐츠 합성 변환부(150)로의 변환 요청이 입력될 수도 있다.Accordingly, the user terminal 200 can extract element information in response to the target data entered by the user and check the resource content to which the image resource is matched, process appropriate editing and processing, and input a composite conversion command. You can. Additionally, depending on the settings of the user terminal 200, a conversion request may be input directly to the content synthesis conversion unit 150 without separate editing or processing in the user terminal 200.

콘텐츠 합성 변환부(150)는, 리소스 콘텐츠 데이터 및 리소스 매칭 정보와, 사용자 단말(200)의 입력 정보에 기초하여 상기 대상 데이터를 멀티미디어 변환 콘텐츠로 합성 및 변환 처리한다.The content synthesis conversion unit 150 synthesizes and converts the target data into multimedia conversion content based on resource content data, resource matching information, and input information from the user terminal 200.

이에 따라, 멀티미디어 변환 콘텐츠는, 대상 데이터에 대응하여 영상, 음향, 이미지, 애니메이션, 자막, 폰트 중 적어도 하나가 합성 및 변환 처리된 멀티미디어 데이터를 포함할 수 있다. 합성 및 변환 처리된 멀티미디어 변환 콘텐츠는 제작 인터페이스 제공부(140)로 제공될 수 있으며, 제작 인터페이스 제공부(140)의 확인 또는 업로드 입력에 따라 출력부(170)로 전달될 수 있다.Accordingly, the multimedia converted content may include multimedia data in which at least one of video, sound, image, animation, subtitle, and font has been synthesized and converted corresponding to the target data. The synthesized and converted multimedia content may be provided to the production interface providing unit 140 and may be transmitted to the output unit 170 according to the confirmation or upload input of the production interface providing unit 140.

출력부(170)는, 최종적으로 결정된 멀티미디어 변환 콘텐츠를 대상 데이터의 변환 콘텐츠로서 출력할 수 있으며, 이는 멀티미디어 콘텐츠 서버(300)로 제공되어, 대상 데이터 기반의 다양한 정보 제공 서비스에 이용될 수 있고, 소셜 네트워크 서비스를 통해 하나 이상의 다른 사용자 단말들로 공유될 수도 있다.The output unit 170 may output the finally determined multimedia converted content as converted content of target data, which may be provided to the multimedia content server 300 and used for various information provision services based on target data. It may also be shared with one or more other user terminals through a social network service.

예를 들어, 정보 제공 서비스는, 메타버스 내 다양한 이벤트에 대응하는 멀티미디어 콘텐츠 변환 서비스를 포함할 수 있으며, 이에 기초한 멀티미디어 콘텐츠 스트리밍 서비스 등이 예시될 수 있고, 이러한 서비스는 실시간으로 처리되어 메타버스 시스템(400)내에 전달되는 실시간 영상 콘텐츠 제작 서비스로도 구현될 수 있다.For example, the information provision service may include a multimedia content conversion service corresponding to various events in the metaverse, and a multimedia content streaming service based on this may be an example, and these services are processed in real time and are processed in the metaverse system. It can also be implemented as a real-time video content production service delivered within (400).

한편, 블록 체인 서비스부(180)는, 멀티미디어 콘텐츠 변환 서비스에 따라 제작된 멀티미디어 변환 콘텐츠를 블록 멀티미디어 콘텐츠 서버(300)가 위치한 블록 체인 네트워크상에 공유하는 프로세스를 수행할 수 있다.Meanwhile, the block chain service unit 180 may perform a process of sharing multimedia converted content produced according to the multimedia content conversion service on the blockchain network where the block multimedia content server 300 is located.

이에 따라, 블록 체인 서비스부(180)는, 멀티미디어 변환 콘텐츠의 공유 및 배포, 거래 정보 등을 저장 및 관리할 수 있으며, 멀티미디어 변환 콘텐츠에 대한 사용 및 저작권 지불 처리 등을 위해, 암호 화폐 서비스 및 탈중앙화 어플리케이션 연동 서비스 등을 처리할 수 있다.Accordingly, the blockchain service unit 180 can share and distribute multimedia converted content, store and manage transaction information, etc., and provide cryptocurrency services and decentralized services for use and copyright payment processing for multimedia converted content. Centralized application linkage services, etc. can be processed.

도 4는 본 발명의 실시 예에 따른 서비스 제공 장치의 동작을 설명하기 위한 흐름도이다.Figure 4 is a flowchart for explaining the operation of a service providing device according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 메타버스 이벤트에 대응하는 메타버스 환경 데이터를 획득하고(S101), 이에 대응하는 전처리를 수행한다.Referring to FIG. 4, the service providing device 100 according to an embodiment of the present invention acquires metaverse environment data corresponding to a metaverse event (S101) and performs preprocessing corresponding thereto.

그리고, 서비스 제공 장치(100)는, 메타버스 환경 데이터로부터 멀티미디어 영상 콘텐츠를 가공할 대상 데이터를 수집한다(S103).Then, the service providing device 100 collects target data for processing multimedia video content from the metaverse environment data (S103).

이후, 서비스 제공 장치(100)는, 대상 데이터에 대응하여 사전 설정된 타겟 설정 정보를 식별한다(S105).Thereafter, the service providing device 100 identifies preset target setting information corresponding to the target data (S105).

그리고, 서비스 제공 장치(100)는, 타겟 설정 정보에 기초하여, 대상 데이터로부터 텍스트로 변환할 요소 정보를 추출한다(S107).Then, the service providing device 100 extracts element information to be converted into text from the target data based on the target setting information (S107).

이후, 서비스 제공 장치(100)는, 요소 정보에 대응하는 메타버스 환경 데이터 기반 영상 리소스 매칭을 수행한다(S109).Thereafter, the service providing device 100 performs image resource matching based on metaverse environment data corresponding to element information (S109).

그리고, 서비스 제공 장치(100)는, 매칭된 영상 리소스 콘텐츠에 기반한 제작 인터페이스를 제공한다(S111).And, the service providing device 100 provides a production interface based on the matched video resource content (S111).

이후, 서비스 제공 장치(100)는, 제작 인터페이스에 대한 사용자 입력에 기초하여, 멀티미디어 콘텐츠 합성 및 변환한다(S113).Thereafter, the service providing device 100 synthesizes and converts multimedia content based on user input to the production interface (S113).

그리고, 서비스 제공 장치(100)는, 변환된 멀티미디어 콘텐츠를 출력 및 블록 체인 네트워크를 통해 제공할 수 있다(S115).And, the service providing device 100 can output the converted multimedia content and provide it through a blockchain network (S115).

또한, 서비스 제공 장치(100)는, 멀티미디어 콘텐츠에 대응하는 거래 기록 및 저작권 관리 서비스를 제공한다(S117).Additionally, the service providing device 100 provides transaction record and copyright management services corresponding to multimedia content (S117).

도 5는 본 발명의 실시 예에 따른 요소 정보 매칭 과정을 설명하기 위한 예시도이며, 도 6은 본 발명의 실시 예에 따른 이벤트별 다양한 멀티미디어 영상 콘텐츠 생성 예시도이다.Figure 5 is an exemplary diagram for explaining the element information matching process according to an embodiment of the present invention, and Figure 6 is an exemplary diagram of generating various multimedia video contents for each event according to an embodiment of the present invention.

먼저, 도 5를 참조하면, 대상 데이터 수집부(110)는 메타버스 환경 데이터로부터 수집된 음성 및 채팅 데이터에서 제1 언어로 구성된 음성을 식별하여 텍스트 변환 처리할 수 있다. 여기서, 채팅 데이터의 경우에는 별도의 변환이 필요하지 않을 수 있다.First, referring to FIG. 5, the target data collection unit 110 may identify a voice composed of the first language from voice and chat data collected from metaverse environment data and convert it into text. Here, in the case of chat data, separate conversion may not be necessary.

그리고, 요소 정보 추출부(120)는, 타겟 설정부(117)에서의 설정에 따른 문장 요소 정보를 추출할 수 있으며, 영상 리소스 매칭부(130)는 각 타겟 설정 정보에 따른 구역, 발화자, 피드백 및 각국 언어가 고려된 리소스 매칭을 처리할 수 있다.In addition, the element information extraction unit 120 can extract sentence element information according to the settings in the target setting unit 117, and the video resource matching unit 130 can extract the zone, speaker, and feedback according to each target setting information. and resource matching that takes into account each country's language.

예를 들어, 제1 언어로 입력된 대상 데이터로부터 주요 문장을 추출하기 위해, 영상 리소스 매칭부(130)는, 요소 정보 추출부(120)에서 추출된 다양한 요소 정보에 대응하는 리소스들을 매칭 처리할 수 있다.For example, in order to extract key sentences from target data input in the first language, the image resource matching unit 130 may process resources corresponding to various element information extracted from the element information extracting unit 120. You can.

예를 들어, 하나의 요소 정보에 대하여도, 한국어, 영어, 일본어, 중국어 등에 따른 언어 모델에 따라 서로 상이한 리소스가 매칭될 수 있으며, 각 발화자 설정에 따라 상이한 리소스가 매칭될 수 있고, 각 발화자가 어느 구역에 있는지에 따라 또다른 리소스가 매칭될 수 있다.For example, even for one element information, different resources may be matched according to language models for Korean, English, Japanese, Chinese, etc., and different resources may be matched according to each speaker's settings, and each speaker Depending on which zone you are in, another resource may be matched.

그리고, 영상 리소스 매칭부(130)는, 타겟 언어와 구역이 설정되면, 타겟 언어에 대응하여 각 요소 정보의 단어 키워드에 대응하는 가장 적합한 리소스 콘텐츠를 학습 데이터베이스(160)에 기초하여 각 국가 및 언어별로 분류된 리소스 데이터베이스(180)로부터 획득할 수 있다. 예를 들어, 입학식 키워드에 대응하는 A 대학교 입학식 메타버스 배경 영상 리소스와, 셀카 키워드에 대응하는 발화자들의 셀카 영상 리소스와, 각 발화자들의 ID 정보를 나타내는 텍스트 리소스 등이 매칭되어, 도 5 하단에 도시된 바와 같은 영상 멀티미디어 콘텐츠가 구성될 수 있다.Then, when the target language and region are set, the video resource matching unit 130 selects the most appropriate resource content corresponding to the word keyword of each element information corresponding to the target language for each country and language based on the learning database 160. It can be obtained from the resource database 180 classified by category. For example, the University A entrance ceremony metaverse background video resource corresponding to the entrance ceremony keyword, the speakers' selfie video resource corresponding to the selfie keyword, and the text resource indicating the ID information of each speaker are matched, as shown at the bottom of Figure 5. Video multimedia content as described above may be configured.

또한, 영상 리소스 매칭부(130)는 요소 정보의 문장 정보에 대응하는 자막, 글꼴 및 폰트 리소스를 매칭할 수 있으며, 상기 문장 정보에 대응하여 메타버스 환경에서 수집된 오디오를 음향 리소스로서 매칭 처리할 수 있다.In addition, the video resource matching unit 130 can match subtitles, fonts, and font resources corresponding to sentence information of element information, and match audio collected in the metaverse environment as a sound resource in response to the sentence information. You can.

이에 따라, 콘텐츠 합성 변환부(150)는, 사전 설정된 시간 구간의 영상 프레임 레이어 단위에 대응하여, 상기 영상 리소스, 자막, 글꼴 및 폰트 리소스, 음향 리소스가 레이아웃 및 애니메이션 정보에 따라 매칭 및 변환된 영상 멀티미디어 콘텐츠를 생성할 수 있게 되는 것이다.Accordingly, the content composition conversion unit 150 matches and converts the video resources, subtitles, font and font resources, and sound resources according to the layout and animation information in response to the video frame layer unit of the preset time section. It becomes possible to create multimedia content.

예를 들어, 프레임 레이어 단위 구간의 영상에는 자막으로 출력되는 하나의 문장과 관련된 멀티미디어 콘텐츠가 재생될 수 있으며, 콘텐츠 합성 변환부(150)는, 프레임 레이어 단위 구간의 영상 내에 자막, 영상 및 이미지들을 함께 배열하며, 사전 설정된 타이밍에 음향이 출력되도록 합성 및 변환할 수 있다. 영상 리소스 매칭부(130)는, 머신 러닝 기술, 딥러닝 기술 등을 통해 콘텐츠 합성 변환부(150)의 적절한 콘텐츠 데이터 조합, 애니메이션 효과 및 배열을 매칭할 수 있다.For example, multimedia content related to one sentence output as a subtitle may be played in the video of the frame layer unit section, and the content synthesis conversion unit 150 may store subtitles, videos, and images in the video of the frame layer unit section. By arranging them together, they can be synthesized and converted so that the sound is output at a preset timing. The video resource matching unit 130 can match the appropriate content data combination, animation effect, and arrangement of the content synthesis conversion unit 150 through machine learning technology, deep learning technology, etc.

또한, 콘텐츠 합성 변환부(150)는, 텍스트 요소별 부분 이미지 콘텐츠들을 매칭하고, 매칭된 부분 이미지들간 경계 처리를 수행하여 하나의 이미지로 융합 처리할 수 있으며, 융합된 이미지를 이용한 이미지 프레임 세트를 구축할 수 있다.In addition, the content synthesis conversion unit 150 can match partial image contents for each text element, perform boundary processing between the matched partial images, and fuse them into one image, and create a set of image frames using the fused image. It can be built.

나아가, 콘텐츠 합성 변환부(150)는, 텍스트 요소를 정제하고, 텍스트 요소별 출력 타이밍을 설정할 수 있으며, 출력 타이밍에 상기 이미지 프레임 세트를 매칭시킬 수 있다. 그리고, 콘텐츠 합성 변환부(150)는, 텍스트 요소별 출력 타이밍과 동기화된 합성 자막을 삽입하거나, 상기 합성 자막의 TTS 음성을 병합하거나, 상기 TTS 음성에 대한 사용자 설정에 따라 음성 특징을 부여하는 후처리를 더 수행할 수 있다. 이에 따라, 다양한 메타버스 환경에서 수집된 데이터들을 각 구역, 발화자, 타겟 언어 및 피드백별로 적절한 멀티미디어 콘텐츠가 융합 및 변환 합성시킬 수 있다.Furthermore, the content synthesis conversion unit 150 can refine text elements, set output timing for each text element, and match the image frame set to the output timing. Then, the content synthesis conversion unit 150 inserts synthesized subtitles synchronized with the output timing of each text element, merges TTS voices of the synthesized subtitles, or gives voice characteristics to the TTS voices according to user settings. Further processing can be performed. Accordingly, data collected in various metaverse environments can be fused, converted, and synthesized into appropriate multimedia content for each zone, speaker, target language, and feedback.

도 6은 본 발명의 ?이 예에 따른 다양한 이벤트별 프리셋에 따라 생성된 멀티미디어 영상 변환 콘텐츠들을 예시한 도면들이다.Figure 6 is a diagram illustrating multimedia video conversion contents generated according to various event-specific presets according to this example of the present invention.

도 6에 도시된 바와 같이, 메타버스 내 회의 이벤트가 발생된 경우, 사용자 단말(200)에서는 회의 이벤트에 대응하는 멀티미디어 변환 콘텐츠를 요청할 수 있으며, 서비스 제공 장치(100)에서는 회의 기록 영상 콘텐츠를 자동적으로 구성하여 블록 체인상에 배포하거나, 회의 기록 영상 콘텐츠를 구성하기 위한 리소스 매칭 기반 제작 인터페이스를 구성하여 사용자 단말(200)로 제공할 수 있다.As shown in FIG. 6, when a meeting event occurs in the metaverse, the user terminal 200 can request multimedia conversion content corresponding to the meeting event, and the service providing device 100 automatically converts the meeting recorded video content. It can be configured and distributed on a blockchain, or a resource matching-based production interface for configuring meeting recorded video content can be configured and provided to the user terminal 200.

또한, 도 6에 도시된 바와 같이, 메타버스 내 공연 이벤트가 발생된 경우, 사용자 단말(200)에서는 공연 이벤트에 대응하는 멀티미디어 변환 콘텐츠를 요청할 수 있으며, 서비스 제공 장치(100)에서는 공연 하이라이트 콘텐츠를 자동적으로 구성하여 블록 체인상에 배포하거나, 공연 하이라이트 콘텐츠를 구성하기 위한 리소스 매칭 기반 제작 인터페이스를 구성하여 사용자 단말(200)로 제공할 수 있다.In addition, as shown in FIG. 6, when a performance event occurs in the metaverse, the user terminal 200 may request multimedia conversion content corresponding to the performance event, and the service providing device 100 may request performance highlight content. It can be automatically configured and distributed on a blockchain, or a resource matching-based production interface for configuring performance highlight content can be configured and provided to the user terminal 200.

도 6 내지 도 7은 본 발명의 실시 예에 따른 리소스 데이터베이스를 설명하기 위한 도면이다.6 to 7 are diagrams for explaining a resource database according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는, 인터페이스부(185), 논리 모델 관리부(181), 물리 환경 관리부(183), 메타스토어 데이터베이스(183) 및 데이터 저장부(184)를 포함한다.Referring to FIG. 6, the resource database 180 according to an embodiment of the present invention includes an interface unit 185, a logical model management unit 181, a physical environment management unit 183, a metastore database 183, and a data storage unit. Includes (184).

본 발명의 실시 예에 따르면, 리소스 데이터베이스(180)는 메타버스 환경 데이터 기반의 메타 정보를 기반으로 하는 미디어 콘텐츠 데이터를 분류 및 라벨링 처리하여, 학습 데이터베이스(160)에서 분석할 수 있는 형태로 로드하게 할 수 있으며, 리소스 콘텐츠 데이터의 공유를 용이하게 한다.According to an embodiment of the present invention, the resource database 180 classifies and labels media content data based on meta information based on metaverse environment data and loads it in a form that can be analyzed in the learning database 160. It facilitates sharing of resource content data.

이를 위해, 리소스 데이터베이스(180)는 리소스 콘텐츠 데이터의 전처리를 통해 중복데이터 제거, 누락데이터 보정 및 이상데이터 감지를 수행할 수 있으며, 전처리된 데이터의 스케일링 프로세스를 수행하고, 잘 알려진 Long Short-Term Memory models(LSTM) 등의 알고리즘을 이용한 학습 데이터베이스(160)를 구축할 수 있도록 하는 데이터 분류 처리를 수행할 수 있다.To this end, the resource database 180 can remove duplicate data, correct missing data, and detect abnormal data through preprocessing of resource content data, perform a scaling process on the preprocessed data, and perform the well-known Long Short-Term Memory. Data classification processing can be performed to build a learning database 160 using algorithms such as models (LSTM).

보다 구체적으로, 인터페이스부(185)는 각 관리부(181, 182)에서 분류 및 저장된 리소스 콘텐츠 데이터의 분산 입출력 인터페이스 처리를 수행한다.More specifically, the interface unit 185 performs distributed input/output interface processing of resource content data classified and stored in each management unit 181 and 182.

논리 모델 관리부(181)는 메타스토어 데이터베이스(183)를 통해 리소스 콘텐츠를 분류 저장 및 관리할 수 있다. 여기서, 메타스토어 데이터베이스(183)는 물리 환경 관리부(182)에서 물리적으로 저장된 데이터 저장부(184)의 빅데이터 기반 콘텐츠 데이터를 색인하기 위한 메타데이터를 저장 및 관리할 수 있다. 메타데이터는 예를 들어, 사용자별 분류 정보, 기능별 분류 정보 또는 저장 분류 정보 중 적어도 하나를 포함할 수 있으며, 각 분류 정보는 물리적으로 분산 저장된 데이터 저장부(184)의 저장구조에 대응될 수 있다.The logical model management unit 181 can classify, store, and manage resource content through the metastore database 183. Here, the metastore database 183 can store and manage metadata for indexing big data-based content data in the data storage unit 184 physically stored in the physical environment management unit 182. For example, metadata may include at least one of classification information by user, classification information by function, or storage classification information, and each classification information may correspond to the storage structure of the physically distributed and stored data storage unit 184. .

예를 들어, 데이터 저장부(184)는 리소스 콘텐츠로서, 애니메이션, 배경이미지, 음향, 폰트(글꼴), 레이아웃 정보 등이 저장될 수 있다.For example, the data storage unit 184 is resource content and may store animation, background image, sound, font, layout information, etc.

도 7은 본 발명의 실시 예에 따라 저장되는 리소스 콘텐츠 포맷의 예시로서, 비디오, 음향, 이미지 등의 데이터 종류 정보, 식별자 정보, 태그 정보, URL 정보, 가상 호스팅 URL 정보 등을 포함하는 것을 예시하고 있다.Figure 7 is an example of a resource content format stored according to an embodiment of the present invention, including data type information such as video, sound, and image, identifier information, tag information, URL information, and virtual hosting URL information. there is.

메타스토어 데이터베이스(183)는 아래의 표 1과 같은 메타데이터를 분류 정보로서 저장 및 관리할 수 있다. The metastore database 183 can store and manage metadata as shown in Table 1 below as classification information.

데이터 구분Data classification 메타 정보1meta information 1 메타 정보2meta information 2 메타 정보3meta information 3 타입type 애니메이션animated movie /store/store /data/data /animaion/animation 배경이미지background image /image/image 음향sound /sound/sound 폰트(글꼴)font (font) /log/log /realtime/realtime 레이아웃 정보Layout Information /batch/batch

표 1에 도시된 바와 같이, 데이터 구분에 따라 메타 정보는 각 분류 정보들에 의해 구분될 수 있으며, 따라서 필요한 리소스는 메타 정보를 이용하여 색인될 수 있다.As shown in Table 1, meta information can be classified by each classification information according to data classification, and therefore necessary resources can be indexed using meta information.

이에 따라, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는, 물리적으로 분산 저장되는 빅데이터 구조의 데이터 저장부(184)를 관리할 수 있으며, 필요한 리소스 콘텐츠를 메타스토어 데이터베이스(183)의 메타 정보를 이용하여 색인할 수 있다.Accordingly, the resource database 180 according to an embodiment of the present invention can manage the data storage unit 184 of a big data structure that is physically distributed and stored, and stores the necessary resource content in the meta of the metastore database 183. Information can be used to index.

따라서, 본 발명의 실시 예에 따른 리소스 데이터베이스(180)는 저장만을 목적으로 하는 것이 아니라, 저장된 데이터를 분석할 수 있는 형태로 로드하고 다양한 분석환경에서 필요데이터를 공유하는 측면을 고려하여 구축될 수 있으며, 나아가 SQL 기반으로의 데이터 정보 조회를 가능하게 하여 그 데이터 접근의 편의성 및 신속성을 높일 수 있다.Therefore, the resource database 180 according to an embodiment of the present invention is not only for the purpose of storage, but can be constructed considering the aspect of loading stored data in an analyzable form and sharing necessary data in various analysis environments. Furthermore, it is possible to query data information based on SQL, thereby increasing the convenience and speed of accessing the data.

도 9은 본 발명의 실시 예에 따른 제작 인터페이스를 보다 구체적으로 설명하기 위한 도면이다.Figure 9 is a diagram for explaining in more detail the production interface according to an embodiment of the present invention.

도 9를 참조하면 본 발명의 실시 예에 따른 제작 인터페이스는, 사용자 단말(200)을 통해 출력되는 그래픽 유저 인터페이스를 포함할 수 있으며, 대상 데이터 입력 인터페이스(201)와, 영상 편집 인터페이스(204)와, 자막 편집 인터페이스와(202), 음원 및 언어 편집 인터페이스(203)를 포함할 수 있다.Referring to Figure 9, the production interface according to an embodiment of the present invention may include a graphic user interface output through the user terminal 200, a target data input interface 201, a video editing interface 204, and , may include a subtitle editing interface 202, and a sound source and language editing interface 203.

그리고, 본 발명의 실시 예에 따른 서비스 제공 장치(100)는, 대상 데이터 입력 인터페이스(201)를 통해 특정 문서의 텍스트 데이터를 입력받을 수 있으며, 입력된 텍스트 데이터는 요약하기 버튼 입력 등에 따라, 요소 정보 추출부(120)에서의 요소 정보 추출 처리에 이용될 수 있다.In addition, the service providing device 100 according to an embodiment of the present invention can receive text data of a specific document through the target data input interface 201, and the input text data is divided into elements according to the summary button input, etc. It can be used for element information extraction processing in the information extraction unit 120.

그리고, 추출된 요소 정보에 기초한 영상 리소스 매칭부(130)의 매칭 처리에 따른 추천 리소스 콘텐츠가 각 영상 편집 인터페이스(204)와, 자막 편집 인터페이스와(102), 음원 및 언어 편집 인터페이스(203)에 추천 아이템으로서 제안될 수 있다. 사용자 단말(200)에서는 이에 따라, 추천받은 리소스 콘텐츠를 선택함으로써 멀티미디어 변환 콘텐츠를 생성하게 할 수 있다.In addition, recommended resource content according to the matching process of the video resource matching unit 130 based on the extracted element information is sent to each video editing interface 204, the subtitle editing interface 102, and the sound source and language editing interface 203. It may be suggested as a recommended item. Accordingly, the user terminal 200 can generate multimedia conversion content by selecting recommended resource content.

사용자 단말(200) 사용자는 각 편집 인터페이스들에서 리소스 콘텐츠를 선택하고, 출력 인터페이스(205)를 통해 영상 변환 및 SNS 업로드를 입력할 수 있으며, 이에 따라, 콘텐츠 합성 변환부(150)에서의 변환 처리가 수행되고, 그 결과가 사용자 단말(200)로 출력되거나, 멀티미디어 콘텐츠 서버(300)에 업로드되어, 사전 설정된 SNS 계정을 통해 공유될 수 있고, 블록 체인 서비스를 통해 공유 및 거래될 수 있다.The user of the user terminal 200 can select resource content from each editing interface and input video conversion and SNS upload through the output interface 205, and accordingly, conversion processing in the content composition conversion unit 150. is performed, and the results are output to the user terminal 200 or uploaded to the multimedia content server 300, can be shared through a preset SNS account, and can be shared and traded through a blockchain service.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 각 서버 또는 기기들에 제공될 수 있다. 이에 따라, 사용자 단말(100)은 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the methods according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media and provided to each server or device. Accordingly, the user terminal 100 can connect to the server or device and download the program.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

Claims (11)

메타버스 시스템에 접속된 서비스 제공 장치의 동작 방법에 있어서,
메타버스 시스템의 메타버스 환경 데이터를 이용하여 리소스 데이터베이스를 구축하는 단계;
상기 메타버스 시스템상에서 진행된 제1 이벤트에 대응하여, 상기 제1 이벤트의 멀티미디어 변환 콘텐츠 구성을 위한 대상 데이터를 수집하는 단계;
상기 대상 데이터에 대응하는 메타버스 환경 기반 타겟 설정 정보에 기초하여, 상기 대상 데이터로부터 상기 타겟 설정 정보에 대응되는 요소 정보를 추출하는 단계;
상기 요소 정보 및 상기 리소스 데이터베이스의 영상 리소스 매칭에 기초한 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 단계; 및
상기 멀티미디어 변환 콘텐츠를 출력하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
In the method of operating a service providing device connected to the metaverse system,
Building a resource database using metaverse environment data of the metaverse system;
In response to a first event conducted on the metaverse system, collecting target data for configuring multimedia converted content of the first event;
extracting element information corresponding to the target setting information from the target data, based on metaverse environment-based target setting information corresponding to the target data;
Obtaining multimedia converted content by performing multimedia content synthesis and conversion processing based on the element information and image resource matching of the resource database; and
Comprising the step of outputting the multimedia converted content.
Method of operation of the service provision device.
제1항에 있어서,
상기 대상 데이터를 수집하는 단계는,
상기 타겟 설정 정보에 기초하여, 상기 메타버스 시스템상의 제1 구역 정보를 식별하는 단계;
상기 제1 구역 정보에 대응하여, 상기 메타버스 시스템상의 상기 제1 구역 정보에서 발생된 대화 데이터를 수집하는 단계; 및
상기 대화 데이터의 텍스트 인식에 따라, 텍스트 문장으로 변환하는 단계; 및
상기 변환된 텍스트 문장을 상기 대상 데이터로 획득하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 1,
The step of collecting the target data is,
Identifying first zone information on the metaverse system based on the target setting information;
In response to the first zone information, collecting conversation data generated from the first zone information on the metaverse system; and
Converting the dialogue data into text sentences according to text recognition; and
Comprising the step of obtaining the converted text sentence as the target data.
Method of operation of the service provision device.
제2항에 있어서,
상기 제1 구역 정보는,
상기 메타버스 시스템상의 상기 제1 이벤트에 대응하는 시간 구간 정보 및 상기 제1 이벤트에 대응하는 상기 메타버스 시스템 내 지역 정보와, 대화 데이터가 발생된 좌표 정보를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The first zone information is,
Containing time section information corresponding to the first event on the metaverse system, area information within the metaverse system corresponding to the first event, and coordinate information at which conversation data was generated
Method of operation of the service provision device.
제2항에 있어서,
상기 대상 데이터를 수집하는 단계는,
상기 타겟 설정 정보에 기초하여, 상기 대상 데이터에 대응하는 하나 이상의 타겟 언어 정보를 식별하는 단계를 더 포함하고,
상기 텍스트 문장으로 변환하는 단계는,
상기 타겟 언어 정보에 기초하여 상기 대화 데이터를 하나 이상의 언어별 텍스트 문장으로 변환하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The step of collecting the target data is,
Based on the target setting information, further comprising identifying one or more target language information corresponding to the target data,
The step of converting the text sentence is,
Converting the conversation data into text sentences for one or more languages based on the target language information.
Method of operation of the service provision device.
제2항에 있어서,
상기 대상 데이터를 수집하는 단계는,
상기 타겟 설정 정보에 기초하여, 상기 대상 데이터에 대응하는 발화자 정보를 식별하는 단계를 더 포함하고,
상기 텍스트 문장으로 변환하는 단계는,
상기 발화자 정보에 기초하여 상기 대화 데이터를 하나 이상의 발화자별 텍스트 문장으로 변환하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The step of collecting the target data is,
Based on the target setting information, further comprising identifying speaker information corresponding to the target data,
The step of converting the text sentence is,
Converting the conversation data into text sentences for one or more speakers based on the speaker information.
Method of operation of the service provision device.
제2항에 있어서,
상기 대상 데이터를 수집하는 단계는,
상기 타겟 설정 정보에 기초하여, 상기 대상 데이터에 대응하는 피드백 데이터를 수집하는 단계를 더 포함하고,
상기 텍스트 문장으로 변환하는 단계는,
상기 수집된 피드백 데이터를 하나 이상의 피드백 텍스트 문장으로 변환하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The step of collecting the target data is,
Based on the target setting information, further comprising collecting feedback data corresponding to the target data,
The step of converting the text sentence is,
Converting the collected feedback data into one or more feedback text sentences.
Method of operation of the service provision device.
제2항에 있어서,
상기 요소 정보를 추출하는 단계는,
상기 대상 데이터로부터 영상 리소스를 매칭하기 위한 하나 이상의 문장 정보를 추출하는 단계를 포함하고,
상기 문장 정보를 추출하는 단계는,
상기 대상 데이터의 텍스트 요약 프로세스를 수행하는 단계를 포함하고,
상기 텍스트 요약 프로세스는 상기 대상 데이터의 상기 타겟 설정 정보에 따라 결정된 서로 다른 언어모델을 이용하는 프로세스이며,
상기 언어모델은 추출 모델 또는 합성 모델을 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The step of extracting the element information is,
Comprising the step of extracting one or more sentence information for matching video resources from the target data,
The step of extracting the sentence information is,
Comprising: performing a text summary process of the target data,
The text summary process is a process using different language models determined according to the target setting information of the target data,
The language model includes an extraction model or a synthesis model.
Method of operation of the service provision device.
제2항에 있어서,
상기 리소스 데이터베이스는 상기 요소 정보에 매칭가능하도록 메타버스 환경 데이터로부터 수집 분류된 영상, 배경, 이미지, 음향, 애니메이션 중 적어도 하나를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 2,
The resource database includes at least one of video, background, image, sound, and animation collected and classified from metaverse environmental data so that it can be matched to the element information.
Method of operation of the service provision device.
제1항에 있어서,
상기 요소 정보에 대응하는 영상 리소스 매칭을 기반으로 메타버스 영상 콘텐츠 제작 인터페이스를 제공하는 단계를 더 포함하고,
상기 멀티미디어 변환 콘텐츠를 획득하는 단계는,
상기 제작 인터페이스에 대한 사용자 입력에 따라, 멀티미디어 콘텐츠 합성 및 변환 처리를 수행하여, 멀티미디어 변환 콘텐츠를 획득하는 단계를 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 1,
Further comprising providing a metaverse video content production interface based on video resource matching corresponding to the element information,
The step of acquiring the multimedia converted content is,
Comprising the step of performing multimedia content synthesis and conversion processing according to a user input to the production interface, and obtaining multimedia converted content.
Method of operation of the service provision device.
제1항에 있어서,
상기 출력된 멀티미디어 변환 콘텐츠를 블록 체인 네트워크를 통해 하나 이상의 다른 사용자 단말로 공유하는 단계를 더 포함하는
서비스 제공 장치의 동작 방법.
According to paragraph 1,
Further comprising sharing the output multimedia converted content to one or more other user terminals through a blockchain network.
Method of operation of the service provision device.
제1항 내지 제10항중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium on which a program for executing the method of any one of claims 1 to 10 on a computer is recorded.
KR1020220062579A 2022-05-23 2022-05-23 A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment KR20230163045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220062579A KR20230163045A (en) 2022-05-23 2022-05-23 A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220062579A KR20230163045A (en) 2022-05-23 2022-05-23 A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment

Publications (1)

Publication Number Publication Date
KR20230163045A true KR20230163045A (en) 2023-11-30

Family

ID=88968646

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220062579A KR20230163045A (en) 2022-05-23 2022-05-23 A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment

Country Status (1)

Country Link
KR (1) KR20230163045A (en)

Similar Documents

Publication Publication Date Title
US20140289323A1 (en) Knowledge-information-processing server system having image recognition system
CN110519636B (en) Voice information playing method and device, computer equipment and storage medium
US20240107127A1 (en) Video display method and apparatus, video processing method, apparatus, and system, device, and medium
JP5920587B2 (en) Real-time video collection / recognition / classification / processing / distribution server system
US9972358B2 (en) Interactive video generation
CN111930994A (en) Video editing processing method and device, electronic equipment and storage medium
WO2019154216A1 (en) Method and device for publishing content and readable storage medium
CN112738557A (en) Video processing method and device
JP2023062173A (en) Video generation method and apparatus of the same, and neural network training method and apparatus of the same
JP2013054417A (en) Program, server and terminal for tagging content
KR20220130863A (en) Apparatus for Providing Multimedia Conversion Content Creation Service Based on Voice-Text Conversion Video Resource Matching
WO2023142590A1 (en) Sign language video generation method and apparatus, computer device, and storage medium
US20240112390A1 (en) Video-Generation System WITH STRUCTURED DATA-BASED VIDEO GENERATION FEATURE
CN114341866A (en) Simultaneous interpretation method, device, server and storage medium
US11532111B1 (en) Systems and methods for generating comic books from video and images
US20220383907A1 (en) Method for processing video, method for playing video, and electronic device
KR20230163045A (en) A method and recording medium for providing video content production service using resource conversion matching of multimedia collected in metaverse environment
KR20230163046A (en) An apparatus for providing video content production service using resource conversion matching of multimedia collected in metaverse environment
KR102435242B1 (en) An apparatus for providing a producing service of transformed multimedia contents using matching of video resources
KR20220130862A (en) A an apparatus for providing a producing service of transformed multimedia contents
KR20220130859A (en) A method of providing a service that converts voice information into multimedia video contents
KR20220130861A (en) Method of providing production service that converts audio into multimedia content based on video resource matching
KR20220130864A (en) A system for providing a service that produces voice data into multimedia converted contents
KR20220130860A (en) A method of providing a service that converts voice information into multimedia video contents
KR20220079012A (en) A method for providing producing content service of transform documents into multimedia contents

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right