KR102567931B1 - Contents generation flatfrom device undating interactive scenario based on viewer reaction - Google Patents

Contents generation flatfrom device undating interactive scenario based on viewer reaction Download PDF

Info

Publication number
KR102567931B1
KR102567931B1 KR1020220125582A KR20220125582A KR102567931B1 KR 102567931 B1 KR102567931 B1 KR 102567931B1 KR 1020220125582 A KR1020220125582 A KR 1020220125582A KR 20220125582 A KR20220125582 A KR 20220125582A KR 102567931 B1 KR102567931 B1 KR 102567931B1
Authority
KR
South Korea
Prior art keywords
real
story
viewer
text
virtual
Prior art date
Application number
KR1020220125582A
Other languages
Korean (ko)
Inventor
채수응
Original Assignee
주식회사 아리아스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아리아스튜디오 filed Critical 주식회사 아리아스튜디오
Priority to KR1020220125582A priority Critical patent/KR102567931B1/en
Application granted granted Critical
Publication of KR102567931B1 publication Critical patent/KR102567931B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A content generation platform device according to the technical idea of the present disclosure comprises: a viewer reaction collection unit which receives voice reactions and text reactions on virtual content from viewer devices receiving the virtual content and based on the voice reactions and text reactions, produces real-time emotion kinds of viewers watching the virtual content and a real-time emotion figure on the real-time emotion kinds; a storyline generation unit which generates an interactive scenario of the virtual content and updates the interactive scenario based on the real-time emotion kinds and the real-time emotion figure; and a virtual human generation unit which generates a virtual human of the virtual content and adjusts a facial expression of the virtual human based on the real-time emotion kinds and the real-time emotion figure. Accordingly, the content generation platform device updates the scenario in consideration of viewer reactions and the facial expressions of the virtual human to provide the interactive content.

Description

시청자 반응을 기초로 인터랙티브 시나리오를 업데이트하는 콘텐츠 생성 플랫폼 장치{CONTENTS GENERATION FLATFROM DEVICE UNDATING INTERACTIVE SCENARIO BASED ON VIEWER REACTION}Content generation platform device for updating interactive scenarios based on viewer reactions

본 개시의 기술적 사상은 버추얼 콘텐츠를 제공하는 콘텐츠 생성 플랫폼 장치에 대한 것으로서, 자세하게는 시청자 반응을 기초로 시나리오를 업데이트하는 콘텐츠 생성 플랫폼 장치에 관한 것이다.The technical idea of the present disclosure relates to a content creation platform device that provides virtual content, and more particularly, to a content creation platform device that updates a scenario based on a viewer's response.

최근 코로나로 인해 국가 간 이동과 사람들의 모임이 제한되면서 가상 현실(virtual reality) 기반의 비대면 기술에 대한 관심이 커지고 있다. 이러한 추세에 따라, 방송, 영화, 공연 등의 영상 제작 분야에서도 버추얼 프로덕션(virtual production) 기술을 도입하는 시도들이 늘고 있다.Recently, as movement between countries and gatherings of people are restricted due to corona, interest in non-face-to-face technology based on virtual reality is growing. In accordance with this trend, attempts to introduce virtual production technology are increasing in the field of video production, such as broadcasting, movies, and performances.

버추얼 프로덕션은 실시간 그래픽 렌더링(Real-time graphics rendering)과 카메라 트래킹(camera tracking) 기술을 기반으로 한 즉각적인 시각화와 영상 합성이 가능한 영상 촬영 기술로서, 영상 제작 공정의 효율성과 품질을 제고할 수 있는 기술이다. 가령, 버추얼 프로덕션은 영상 촬영 현장에서 카메라 움직임이 반영된 그래픽을 다양한 형태로 시각화 하여 실시간으로 카메라의 실사 영상과 합성하는 개념으로 사용될 수 있다.Virtual production is a video shooting technology that enables instant visualization and video synthesis based on real-time graphics rendering and camera tracking technology, and is a technology that can improve the efficiency and quality of the video production process. am. For example, virtual production can be used as a concept that visualizes graphics reflecting camera movements in various forms at the filming site and synthesizes them with real-time images of cameras.

이러한 버추얼 프로덕션은 주로 실내에서 이루어져 촬영 공간, 시간, 날씨 등의 제약을 줄일 수 있고, 복합적인 요소들이 동시적으로 촬영될 수 있어 영상 제작의 후반 작업(post production)의 시간을 줄일 수 있으므로, 영상 제작의 생산성 향상을 도모할 수 있는 장점이 있다.These virtual productions are mainly made indoors to reduce restrictions such as shooting space, time, and weather, and since complex elements can be filmed simultaneously, it can reduce the post-production time of video production. It has the advantage of improving production productivity.

본 개시의 기술적 사상은 시청자 반응을 고려하여 시나리오를 업데이트하고 버추얼 휴먼의 표정을 업데이트함으로써 인터랙티브 콘텐츠를 제공하는 콘텐츠 생성 플랫폼 장치를 제공할 수 있다.The technical idea of the present disclosure may provide a content creation platform device that provides interactive content by updating a scenario and updating a facial expression of a virtual human in consideration of a viewer's reaction.

상기와 같은 목적을 달성하기 위하여, 본 개시의 일 측면에 따른 콘텐츠 생성 플랫폼 장치는, 버추얼 콘텐츠를 수신하는 시청자 장치들로부터 버추얼 콘텐츠에 대한 음성 반응 및 텍스트 반응을 수신하고, 음성 반응 및 텍스트 반응을 기초로 버추얼 콘텐츠를 시청하는 시청자들의 실시간 감정 종류 및 실시간 감정 종류에 대한 실시간 감정 수치를 산출하는 시청자 반응 수집부, 버추얼 콘텐츠의 인터랙티브 시나리오를 생성하고, 실시간 감정 종류 및 실시간 감정 수치를 기초로 인터랙티브 시나리오를 업데이트하는 스토리라인 생성부 및 버추얼 콘텐츠의 버추얼 휴먼을 생성하고, 실시간 감정 종류 및 실시간 감정 수치를 기초로 버추얼 휴먼의 표정을 조정하는 버추얼 휴먼 생성부를 포함한다.In order to achieve the above object, a content creation platform device according to an aspect of the present disclosure receives a voice response and a text response for virtual content from viewer devices that receive virtual content, and receives a voice response and a text response. a viewer response collection unit that calculates real-time emotion types and real-time emotion values for real-time emotion types of viewers who watch virtual content based on the basis, generates interactive scenarios of virtual content, and creates interactive scenarios based on real-time emotion types and real-time emotion values and a storyline generating unit that updates the virtual human, and a virtual human generating unit that creates a virtual human of virtual content and adjusts the facial expression of the virtual human based on the real-time emotion type and real-time emotion value.

나아가, 시청자 반응 수집부는, 음성 반응을 텍스트로 변환하고, 변환된 텍스트로부터 미리 결정된 복수의 핵심 텍스트들을 추출하고, 감정 종류들과 매핑되는 복수의 핵심 텍스트들 각각의 빈도를 기초로 실시간 감정 종류를 결정한다.Furthermore, the viewer response collection unit converts the voice response into text, extracts a plurality of predetermined core texts from the converted text, and determines real-time emotion types based on the frequency of each of the plurality of core texts mapped to the emotion types. Decide.

나아가, 시청자 반응 수집부는, 텍스트 반응 및 변환된 텍스트로부터, 실시간 감정 종류와 매핑된 제1 핵심 텍스트의 빈도를 기초로 실시간 감정 수치를 산출한다.Furthermore, the viewer response collection unit calculates a real-time emotion value based on the real-time emotion type and the frequency of the mapped first core text, from the text response and the converted text.

나아가, 시청자 반응 수집부는, 변환된 텍스트로부터 추출된 제1 핵심 텍스트에, 텍스트 반응으로부터 추출된 상기 제1 핵심 텍스트보다 가중치를 줌으로써 실시간 감정 수치를 산출한다.Furthermore, the viewer response collection unit calculates a real-time emotional value by giving a weight to the first core text extracted from the converted text more than the first core text extracted from the text response.

나아가, 스토리라인 생성부는, 인터랙티브 시나리오에 포함되는 복수의 스토리들 중 현재 스토리가 완료되면, 현재 스토리의 목표 감정 수치와, 실시간 감정 수치를 비교하고, 비교 결과를 기초로 시청자 장치가 다음 스토리로서 선택하는 스토리 후보군을 업데이트한다.Furthermore, the storyline generating unit, when a current story among a plurality of stories included in the interactive scenario is completed, compares a target emotional value of the current story with a real-time emotional value, and the viewer device selects the next story as the next story based on the comparison result. update the list of story candidates.

나아가, 스토리라인 생성부는, 복수의 스토리들 각각에 포함되는 복수의 서브 스토리들 중 현재 서브 스토리가 완료되면, 현재 스토리의 목표 감정 수치와, 실시간 감정 수치를 비교하고, 비교 결과를 기초로 다음 서브 스토리를 업데이트한다.Furthermore, the storyline generating unit, when a current sub-story among a plurality of sub-stories included in each of a plurality of stories is completed, compares a target emotional value of the current story with a real-time emotional value, and based on the comparison result, the next sub-story. update the story

나아가, 버추얼 휴먼 생성부는, 인터랙티브 시나리오의 텍스트를 기초로 버추얼 휴먼의 표정을 1차적으로 렌더링하고, 실시간 감정 수치를 기초로 버추얼 휴먼의 표정을 2차적으로 보정한다.Furthermore, the virtual human generator primarily renders the expression of the virtual human based on the text of the interactive scenario and secondarily corrects the expression of the virtual human based on the real-time emotion value.

본 개시의 실시예에 따르면, 콘텐츠 생성 플랫폼 장치는 시청자 반응을 고려하여 시나리오를 업데이트하고 버추얼 휴먼의 표정을 업데이트함으로써 인터랙티브 콘텐츠를 제공하는 장치를 제공할 수 있다.According to an embodiment of the present disclosure, a content creation platform device may provide an apparatus for providing interactive content by updating a scenario and updating a facial expression of a virtual human in consideration of a viewer's reaction.

도 1은 본 개시의 예시적 실시예에 따른 콘텐츠 서비스 플랫폼 시스템(1)을 설명하는 도면이다.
도 2는 본 개시의 예시적 실시예에 따른 콘텐츠 생성 플랫폼(10)을 설명하는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 반응 분석부의 동작을 설명하는 흐름도이다.
도 4는 본 개시의 예시적 실시예에 따른 스토리라인 생성부의 동작을 설명하는 흐름도이다.
도 5는 본 개시의 예시적 실시예에 따른 서브 스토리 갱신을 설명하는 도면이다.
도 6은 본 개시의 예시적 실시예에 따른 스토리라인 생성부(200)의 동작을 설명하는 흐름도이다.
도 7은 본 개시의 예시적 실시예에 따른 후속 스토리 후보군을 선택하는 방법을 설명하는 도면이다.
도 8은 본 개시의 예시적 실시예에 따른 버추얼 휴먼 생성부의 동작을 나타내는 흐름도이다.
1 is a diagram illustrating a content service platform system 1 according to an exemplary embodiment of the present disclosure.
2 is a block diagram illustrating a content creation platform 10 according to an exemplary embodiment of the present disclosure.
3 is a flowchart illustrating the operation of a reaction analyzer according to an exemplary embodiment of the present disclosure.
4 is a flowchart illustrating an operation of a storyline generator according to an exemplary embodiment of the present disclosure.
5 is a diagram illustrating sub-story updating according to an exemplary embodiment of the present disclosure.
6 is a flowchart illustrating an operation of the storyline generating unit 200 according to an exemplary embodiment of the present disclosure.
7 is a diagram for explaining a method of selecting a subsequent story candidate group according to an exemplary embodiment of the present disclosure.
8 is a flowchart illustrating an operation of a virtual human generator according to an exemplary embodiment of the present disclosure.

이하 본 발명의 바람직한 실시예가 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the accompanying drawings. It should be noted that the same reference numerals and symbols refer to the same elements in the drawings as much as possible, even if they are displayed on different drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 경우에 따라 복수형도 포함한다. 본 명세서에서, "포함하다", “구비하다”, “마련하다” 또는 “가지다” 등의 용어는 언급된 구성요소 외의 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms in some cases unless otherwise specified in the text. In this specification, terms such as "comprise", "have", "provide" or "have" do not exclude the presence or addition of one or more other elements other than the mentioned elements.

본 명세서에서, “또는”, “적어도 하나” 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “또는 B”“및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In this specification, terms such as “or” and “at least one” may represent one of the words listed together, or a combination of two or more. For example, "or B" and "at least one of B" may include only one of A or B, or may include both A and B.

본 명세서에서, “예를 들어” 등에 따르는 설명은 인용된 특성, 변수, 또는 값과 같이 제시한 정보들이 정확하게 일치하지 않을 수 있고, 허용 오차, 측정 오차, 측정 정확도의 한계와 통상적으로 알려진 기타 요인을 비롯한 변형과 같은 효과로 본 발명의 다양한 실시 예에 따른 발명의 실시 형태를 한정하지 않아야 할 것이다.In this specification, descriptions following "for example" may not exactly match the information presented, such as cited characteristics, variables, or values, and tolerances, measurement errors, limits of measurement accuracy and other commonly known factors It should not be limited to the embodiments of the present invention according to various embodiments of the present invention with effects such as modifications including.

본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.In this specification, terms such as 'first' and 'second' may be used to describe various elements, but the elements should not be limited by the above terms. In addition, the above terms should not be interpreted as limiting the order of each component, and may be used for the purpose of distinguishing one component from another. For example, a 'first element' may be named a 'second element', and similarly, a 'second element' may also be named a 'first element'.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다.Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 개시의 예시적 실시예에 따른 콘텐츠 서비스 플랫폼 시스템(1)을 설명하는 도면이다.1 is a diagram illustrating a content service platform system 1 according to an exemplary embodiment of the present disclosure.

도 1을 참조하면, 콘텐츠 서비스 플랫폼 시스템(1)은 공연, 영화, 드라마(이하, 영화) 등의 멀티미디어 콘텐츠를 시청자(40)에게 제공하는 시스템일 수 있다. 콘텐츠 서비스 플랫폼 시스템(1)은 콘텐츠 생성 플랫폼(10) 및 콘텐츠 송출 플랫폼(20)을 포함할 수 있다. 콘텐츠 생성 플랫폼(10), 콘텐츠 송출 플랫폼(20) 및 시청자(30)는 네트워크를 통해 상호 데이터를 송/수신할 수 있다. Referring to FIG. 1 , a content service platform system 1 may be a system that provides multimedia content such as performances, movies, and dramas (hereinafter referred to as movies) to viewers 40 . The content service platform system 1 may include a content creation platform 10 and a content delivery platform 20 . The content creation platform 10, the content transmission platform 20, and the viewer 30 may mutually transmit/receive data through a network.

콘텐츠 생성 플랫폼(10)은 버추얼 콘텐츠 제작자의 서버에 구비되는 콘텐츠 생성 장치일 수 있다. 콘텐츠 생성 플랫폼(10)은 액터의 액팅을 3차원 공간에서 촬영하는 복수의 2D 카메라 및/또는 3D 카메라를 통해 액터의 행동을 트래킹하는 버추얼 휴먼을 생성할 수 있다. 콘텐츠 생성 플랫폼(10)은 인터랙티브 시나리오를 생성하고, 인터랙티브 시나리오에 따라 연기하는 액터의 음성 및 외관을 트래킹하는 버추얼 휴먼을 생성할 수 있다.The content creation platform 10 may be a content creation device provided in a server of a virtual content producer. The content generation platform 10 may create a virtual human that tracks the action of the actor through a plurality of 2D cameras and/or 3D cameras that capture the action of the actor in a 3D space. The content creation platform 10 may create interactive scenarios and create virtual humans that track voices and appearances of actors performing according to the interactive scenarios.

콘텐츠 생성 플랫폼(10)은 시청자(30)의 반응에 따라 인터랙티브 시나리오를 수정함으로써 시청자(30)에게 버추얼 콘텐츠에 대한 몰입감을 제공할 수 있다. 일부 실시예들에서, 콘텐츠 생성 플랫폼(10)은 시청자(30)의 반응에 따라 버추얼 휴먼의 표정을 생동감있게 수정함으로써 시청자(30)에게 버추얼 콘텐츠에 대한 몰입감을 제공할 수 있다.The content creation platform 10 may provide the viewer 30 with a sense of immersion in the virtual content by modifying the interactive scenario according to the viewer's 30 response. In some embodiments, the content generation platform 10 may provide the viewer 30 with a sense of immersion in the virtual content by dynamically modifying the expression of the virtual human according to the reaction of the viewer 30 .

예를 들어, 시청자(30)는 텍스트 또는 음성으로 버추얼 콘텐츠에 대한 실시간 반응을 콘텐츠 생성 플랫폼(10)에 제공할 수 있다. 콘텐츠 생성 플랫폼(10)은 시청자(30)의 실시간 반응을 기초로 시청자(30)가 버추얼 콘텐츠를 보고 느끼는 감정의 종류 및 감정의 정도를 수치화할 수 있다. 콘텐츠 생성 플랫폼(10)은 시나리오에 포함된 스토리들 각각에 목표 감정 수치를 할당할 수 있고, 서브 스토리가 종료될 때마다 시청자의 실시간 감정 수치와 스토리의 목표 감정 수치를 비교함으로써 후속 서브 스토리를 업데이트할 수 있다.For example, the viewer 30 may provide the content creation platform 10 with a real-time response to the virtual content through text or voice. The content creation platform 10 may quantify the type and degree of emotion felt by the viewer 30 after viewing the virtual content, based on the viewer's 30 real-time response. The content creation platform 10 may assign a target emotion value to each of the stories included in the scenario, and update a subsequent sub-story by comparing the viewer's real-time emotion value and the target emotion value of the story whenever a sub-story ends. can do.

예를 들어, 제1 스토리의 목표 감정 종류가 '슬픔'이고, 목표 감정 수치가 '10'이며, 제1 스토리의 제1 서브 스토리가 종료된 후 시청자의 실시간 감정 종류가 '슬픔'이고, 실시간 감정 수치가 '5'인 경우, 후속 서브 스토리를 상대적으로 감정 수치가 높은 서브 스토리로 업데이트할 수 있다.For example, the target emotion type of the first story is 'sadness', the target emotion value is '10', the viewer's real-time emotion type is 'sadness' after the first sub-story of the first story ends, and the real-time emotion type of the first story is 'sadness'. When the emotional value is '5', the subsequent sub-story may be updated to a sub-story having a relatively high emotional value.

콘텐츠 생성 플랫폼(10)가 예상한 반응(즉, 목표 감정 수치)이 시청자(30)로부터 제공되지 않는 경우, 콘텐츠 생성 플랫폼(10)은 시나리오를 변경할 수 있으므로, 콘텐츠 생성 플랫폼(10)은 시청자(30)가 버추얼 콘텐츠를 시청할 때마다 시청자(30)에게 새로운 경험을 제공할 수 있다.When the reaction expected by the content creation platform 10 (ie, the target emotional value) is not provided from the viewer 30, the content creation platform 10 may change the scenario, so the content creation platform 10 30), a new experience can be provided to the viewer 30 each time the virtual content is viewed.

일부 실시예들에서, 콘텐츠 생성 플랫폼(10)은 시나리오에 포함된 현재 스토리가 종료되면, 시청자(30)에게 다음 스토리에 대한 결정권을 제공할 수 있다. 구체적으로, 콘텐츠 생성 플랫폼(10)은 현재 스토리 종료 시 현재 스토리의 맥락에 따라 다음 스토리로 전개되기 위해 등장 인물이 다음에 취할 수 있는 행동들을 선택지로서 제공함으로써 시청자(30)에게 다음 스토리에 대한 결정권을 제공할 수 있다.In some embodiments, when the current story included in the scenario ends, the content creation platform 10 may provide the viewer 30 with the right to decide on the next story. Specifically, the content creation platform 10 provides the viewer 30 with the right to decide on the next story by providing actions that the character can take next as options to develop into the next story according to the context of the current story when the current story ends. can provide.

본 개시의 예시적 실시예에 따르면, 콘텐츠 생성 플랫폼(10)은 시청자(30)의 실시간 반응에 따라, 다음 스토리가 될 수 있는 후보 스토리들을 결정할 수 있다. 구체적으로, 콘텐츠 생성 플랫폼(10)은 현재 스토리가 종료되면, 시청자의 실시간 반응을 수집하고, 현재 스토리의 목표 감정 수치와, 실시간 감정 수치를 비교할 수 있다. 실시간 감정 수치가 목표 감정 수치보다 낮은 경우, 해당 시청자에게는 더 극적인 스토리를 제공할 필요가 있으므로, 콘텐츠 생성 플랫폼(10)은 상대적으로 높은 목표 감정 수치를 갖는 후보 스토리들을 분류할 수 있다.According to an exemplary embodiment of the present disclosure, the content creation platform 10 may determine candidate stories that may become the next story according to the real-time reaction of the viewer 30 . Specifically, when the current story ends, the content generation platform 10 may collect real-time reactions of the viewer and compare the target emotional value of the current story with the real-time emotional value. If the real-time emotion value is lower than the target emotion value, since a more dramatic story needs to be provided to the corresponding viewer, the content creation platform 10 may classify candidate stories having a relatively high target emotion value.

콘텐츠 송출 플랫폼(20)은 버추얼 공연 유통자의 서버에 구비되는 공연 영상 송출 장치일 수 있다. 콘텐츠 송출 플랫폼(20)은 OTT(Over The Top) 서비스, 극장, 영화관, TV를 통해 시청자(30)에게 버추얼 콘텐츠를 제공할 수 있다.The content transmission platform 20 may be a performance video transmission device provided in a server of a virtual performance distributor. The content delivery platform 20 may provide virtual content to the viewer 30 through an Over The Top (OTT) service, theater, movie theater, or TV.

시청자(30)는 복수의 클라이언트들(예를 들어, 클라이언트1, 클라이언트2)을 사용하여 버추얼 콘텐츠를 시청할 수 있으며, 복수의 클라이언트들 각각은 다양한 종류의 영상 재생 장치일 수 있다. 예를 들어, 복수의 클라이언트들 각각은 AR(Augmented Reality) 장치, VR 장치(Virtual Reality) 장치, XR 장치(Extended Reality) 장치, 미디어 재생 장치, PC(Personal Computer), 태블릿, 모바일 장치 중 적어도 하나일 수 있다.The viewer 30 may view virtual content using a plurality of clients (eg, client 1 and client 2), and each of the plurality of clients may be various types of video reproducing devices. For example, each of the plurality of clients may include at least one of an augmented reality (AR) device, a virtual reality (VR) device, an extended reality (XR) device, a media playback device, a personal computer (PC), a tablet, and a mobile device. can be

도 2는 본 개시의 예시적 실시예에 따른 콘텐츠 생성 플랫폼(10)을 설명하는 블록도이다. 도 2는 도 1을 참조하여 설명될 수 있다.2 is a block diagram illustrating a content creation platform 10 according to an exemplary embodiment of the present disclosure. FIG. 2 may be described with reference to FIG. 1 .

도 2를 참조하면, 콘텐츠 생성 플랫폼(10)은 시청자 반응 수집부(100), 스토리라인 생성부(200) 및 버츄얼 휴먼 생성부(300)를 포함할 수 있다.Referring to FIG. 2 , the content creation platform 10 may include a viewer response collection unit 100 , a storyline generation unit 200 and a virtual human generation unit 300 .

시청자 반응 수집부(100)는 STT 모듈(110), 핵심 텍스트 추출부(120) 및 반응 분석부(130)를 포함할 수 있다. 시청자 반응 수집부(100)는 시청자(30)로부터 텍스트 반응 또는 음성 반응을 수신할 수 있다. 시청자(30)는 복수의 시청자들을 의미할 수 있다. 시청자 반응 수집부(100)는 복수의 시청자들의 실시간 반응을 분석하여, 복수의 시청자들의 감정 종류 및 실시간 감정 수치를 산출할 수 있다.The viewer response collection unit 100 may include an STT module 110 , a core text extraction unit 120 and a response analysis unit 130 . The viewer response collection unit 100 may receive a text response or a voice response from the viewer 30 . The viewer 30 may mean a plurality of viewers. The viewer reaction collection unit 100 may analyze real-time reactions of a plurality of viewers and calculate emotion types and real-time emotion values of the plurality of viewers.

STT(Speech-To-Text) 모듈(110)은 시청자(30)의 음성 반응을 텍스트로 변환할 수 있다.The speech-to-text (STT) module 110 may convert the viewer's 30 voice response into text.

핵심 텍스트 추출부(120)는 음성 반응에서 변환된 텍스트 또는 시청자(30)로부터 수신된 텍스트에서, 시청자(30)의 감정을 나타내는 핵심 텍스트를 추출할 수 있다. 예를 들어, 웃음을 나타내는 문자열, 슬픔을 나타내는 문자열, 특정 단어 등을 추출할 수 있다.The core text extractor 120 may extract core text representing emotions of the viewer 30 from text converted from a voice response or text received from the viewer 30 . For example, a character string representing laughter, a character string representing sadness, and a specific word may be extracted.

반응 분석부(130)는 추출된 텍스트를 기초로 시청자(30)의 반응을 분석할 수 있다. 구체적으로, 음성 반응 및 텍스트 반응에서, 핵심 텍스트의 빈도를 산출함으로써 시청자(30)의 감정 종류 및 실시간 감정 수치를 산출할 수 있다. 예를 들어, 음성 반응이 텍스트 반응보다 시청자(30)의 실제적인 반응으로 이해할 수 있으므로, 반응 분석부(130)는 음성 반응에서 추출된 핵심 텍스트를 기초로 시청자(30)의 감정 종류를 결정할 수 있다. 또한, 텍스트 반응이 음성 반응보다 빈도 수가 높으므로, 텍스트 반응보다 음성 반응에 가중치를 두고 핵심 텍스트의 빈도를 산출할 수 있다. 반응 분석부(130)는 핵심 텍스트의 빈도를 기초로 실시간 감정 수치를 산출할 수 있다. 예를 들어, 반응 분석부(130)는 핵심 텍스트의 빈도를 기준 값으로 나누어 실시간 감정 수치를 산출할 수 있다.The reaction analyzer 130 may analyze the reaction of the viewer 30 based on the extracted text. Specifically, in the voice response and the text response, the emotional type and real-time emotional value of the viewer 30 may be calculated by calculating the frequency of core text. For example, since a voice response can be understood as an actual response of the viewer 30 rather than a text response, the response analyzer 130 can determine the emotional type of the viewer 30 based on the core text extracted from the voice response. there is. In addition, since the frequency of text responses is higher than that of voice responses, the frequency of the core text can be calculated with more weight on voice responses than on text responses. The response analyzer 130 may calculate a real-time emotional value based on the frequency of core text. For example, the reaction analyzer 130 may calculate a real-time emotional value by dividing the frequency of core text by a reference value.

스토리라인 생성부(200)는 인터랙티브 시나리오 생성부(210) 및 시나리오 업데이트 모듈(220)을 포함할 수 있다. 스토리라인 생성부(200)는 시청자 반응에 따라 가변하는 시나리오를 생성할 수 있다.The storyline generator 200 may include an interactive scenario generator 210 and a scenario update module 220 . The storyline generator 200 may create a scenario that varies according to a viewer's reaction.

인터랙티브 시나리오 생성부(210)는 초기에, 복수의 스토리들을 포함하는 인터랙티브 시나리오를 생성할 수 있다. 복수의 스토리들 각각에는, 목표 감정 및 목표 감정 수치가 매핑될 수 있다. 예를 들어, 제1 스토리는 '감동'이라는 목표 감정이 매핑되고, '감동'에 대응하는 목표 감정 수치는 '10'으로 매핑될 수 있다. 즉, 목표 감정 종류와 목표 감정 수치가 매핑됨으로써, 제1 스토리가 종료될 때, 시청자 반응에 따른 실시간 감정 종류가 '감동'이 되고, 실시간 감정 수치가 '10'이 되는 것을 목표로 제1 스토리가 진행되는 도중 제1 스토리의 내용이 지속적으로 업데이트될 수 있다.The interactive scenario generator 210 may initially generate an interactive scenario including a plurality of stories. A target emotion and a target emotion value may be mapped to each of the plurality of stories. For example, in the first story, a target emotion of 'impression' may be mapped, and a target emotion value corresponding to 'impression' may be mapped as '10'. That is, by mapping the target emotion type and the target emotion value, when the first story ends, the real-time emotion type according to the viewer's reaction becomes 'impression' and the real-time emotion value becomes '10' in the first story. The contents of the first story may be continuously updated while the .

시나리오 업데이트 모듈(220)은 시청자 반응에 따라, 초기의 인터랙티브 시나리오를 업데이트할 수 있다.The scenario update module 220 may update the initial interactive scenario according to viewer reactions.

스토리는 복수의 서브 스토리들을 포함할 수 있고, 시나리오 업데이트 모듈(220)은 복수의 서브 스토리들이 종료될 때마다 시청자 반응을 고려하여 후속 서브 스토리들을 업데이트할 수 있다. 구체적으로, 시나리오 업데이트 모듈(220)은 복수의 서브 스토리들이 종료될 때마다 스토리의 목표 감정 종류, 목표 감정 수치를 실시간 감정 종류 및 실시간 감정 수치와 비교하고, 비교 결과를 기초로 후속 서브 스토리를 결정할 수 있다. 예를 들어, 스토리의 목표 감정 종류가 '감동'이고, 목표 감정 수치가 '10'이며, 실시간 감정 종류가 '감동'이고 목표 감정 수치가 '5'인 경우, 시나리오 업데이트 모듈(220)은 기존에 세팅된 후속 서브 스토리보다 감정 수치가 높은 서브 스토리를 새로운 후속 서브 스토리로 업데이트할 수 있다. 구체적인 방법은 도 4 및 5를 기초로 후술될 수 있다.A story may include a plurality of sub-stories, and the scenario update module 220 may update subsequent sub-stories in consideration of a viewer's reaction whenever the plurality of sub-stories are finished. Specifically, the scenario update module 220 compares the target emotion type and target emotion value of the story with the real-time emotion type and real-time emotion value whenever a plurality of sub-stories are completed, and determines a subsequent sub-story based on the comparison result. can For example, when the target emotion type of the story is 'impression', the target emotion value is '10', the real-time emotion type is 'impression', and the target emotion value is '5', the scenario update module 220 performs the existing A sub-story with a higher emotional value than the subsequent sub-story set in can be updated as a new subsequent sub-story. A specific method may be described below based on FIGS. 4 and 5 .

시나리오 업데이트 모듈(220)은 시나리오에 포함된 복수의 스토리들 중 현재 스토리가 종료되면, 시청자 반응을 고려하여, 후속 스토리가 될 후보 스토리들을 결정할 수 있다. 구체적으로, 시나리오 업데이트 모듈(220)은 현재 스토리의 목표 감정 종류, 목표 감정 수치와, 실시간 감정 종류, 실시간 감정 수치를 각각 비교하고, 비교 결과에 따라 후보 스토리들을 선택할 수 있다. 예를 들어, 시나리오 업데이트 모듈(220)은 현재 스토리의 목표 감정 수치가 '10'이고, 실시간 감정 수치가 '5'인 경우, 시청자(30)가 예상보다 감정적으로 시청하지 않는다고 판단할 수 있고, 현재 스토리보다 감정적인 후보 스토리들을 후속 스토리로 결정할 수 있다. 즉, 후보 스토리들의 목표 감정 수치는 현재 스토리의 목표 감정 수치인 '10'보다 높을 수 있다.When a current story among a plurality of stories included in a scenario ends, the scenario update module 220 may determine candidate stories to be subsequent stories in consideration of a viewer's reaction. Specifically, the scenario update module 220 may compare the target emotion type and target emotion value of the current story with the real-time emotion type and real-time emotion value, respectively, and select candidate stories according to the comparison result. For example, when the target emotional value of the current story is '10' and the real-time emotional value is '5', the scenario update module 220 may determine that the viewer 30 does not watch emotionally more than expected; Candidate stories more emotional than the current story may be determined as subsequent stories. That is, the target emotion value of the candidate stories may be higher than '10', which is the target emotion value of the current story.

시나리오 업데이트 모듈(220)은 후보 스토리들 중 하나를 시청자(40)가 선택할 수 있도록 결정권을 제공할 수 있다. 구체적으로, 시나리오 업데이트 모듈(220)은 현재 스토리의 맥락에 따라 다음 스토리로 전개되기 위해 등장 인물이 다음에 취할 수 있는 행동들을 선택지로서 제공함으로써 시청자(30)에게 다음 스토리에 대한 결정권을 제공할 수 있다. 등장 인물이 다음에 취할 수 있는 행동들과 후보 스토리들은 각각 대응될 수 있다. 후보 스토리를 선택하는 방법은 도 6 및 도 7을 참조하여 후술될 수 있다.The scenario update module 220 may provide a decision authority so that the viewer 40 may select one of the candidate stories. Specifically, the scenario update module 220 may provide the viewer 30 with the right to decide on the next story by providing actions that the character may take next as options to develop into the next story according to the context of the current story. there is. Actions that the character can take next and candidate stories may correspond to each other. A method of selecting a candidate story may be described later with reference to FIGS. 6 and 7 .

버추얼 휴먼 생성부(300)는 모션 캡쳐 모듈(310), 합성 블렌딩 모듈(320) 및 TTS 모듈(330)을 포함할 수 있다.The virtual human generator 300 may include a motion capture module 310 , a synthesis blending module 320 and a TTS module 330 .

모션 캡쳐 모듈(310)은 복수의 2D 카메라 및/또는 3D 카메라를 기초로 액터의 행동을 3차원 공간에서 촬영할 수 있고, 촬영된 이미지들을 기초로 액터의 행동을 모사하는 버추얼 휴먼의 외관을 생성할 수 있다.The motion capture module 310 may capture the action of an actor in a 3D space based on a plurality of 2D cameras and/or 3D cameras, and generate the appearance of a virtual human that simulates the action of the actor based on the captured images. can

합성 블렌딩 모듈(320)은 버추얼 휴먼의 얼굴을 원하는 배우의 얼굴로 합성하거나 또는 애니메이션화할 수 있다. 합성 블렌딩 모듈(320)은 시청자 반응 및 인터랙티브 시나리오를 기초로 버추얼 휴먼의 표정을 수정할 수 있다. 예를 들어, 합성 블렌딩 모듈(320)은 인터랙티브 시나리오의 단어 및 문장에 매칭되는 표정으로 버추얼 휴먼의 얼굴을 렌더링할 수 있다. 합성 블렌딩 모듈(320)은 시청자 반응을 기초로 버추얼 휴먼의 표정을 수정할 수 있다. 구체적으로, 합성 블렌딩 모듈(320)은 시청자 반응을 실시간으로 수집하여 스토리의 목표 감정 수치와 실시간 감정 수치를 비교하고, 비교 결과를 기초로 버추얼 휴먼 표정의 생동감 수준을 조절할 수 있다. 예를 들어, 스토리 자체만으로 목표 감정 종류인 '감동'에 대한 시청자의 실시간 감정 수치가 스토리의 목표 감정 수치를 초과할 수도 있으므로, 버추얼 휴먼의 표정의 생동감을 조절하여 실시간 감정 수치를 제어할 수 있다.The synthesis blending module 320 may synthesize or animate a virtual human face into a desired actor's face. The synthetic blending module 320 may modify the virtual human's expression based on viewer reactions and interactive scenarios. For example, the composition blending module 320 may render a face of a virtual human with facial expressions matching words and sentences of an interactive scenario. The synthetic blending module 320 may modify the expression of the virtual human based on viewer reaction. Specifically, the synthesis blending module 320 may collect viewer reactions in real time, compare target emotional values of the story with real-time emotional values, and adjust the level of liveliness of virtual human expressions based on the comparison result. For example, since the viewer's real-time emotion value for the target emotion type 'impression' may exceed the target emotion value of the story only by the story itself, the real-time emotion value can be controlled by adjusting the liveliness of the virtual human's expression. .

TTS(Text-To-Speech) 모듈(330)은 시나리오의 텍스트를 버추얼 휴먼의 음성으로 변환할 수 있다.The text-to-speech (TTS) module 330 may convert the text of the scenario into the voice of a virtual human.

도 3은 본 개시의 예시적 실시예에 따른 반응 분석부의 동작을 설명하는 흐름도이다.3 is a flowchart illustrating the operation of a reaction analyzer according to an exemplary embodiment of the present disclosure.

도 3을 참조하면, 반응 분석부(130)는 복수의 시청자 장치들로부터 시청자 반응을 수집할 수 있다(S31). 시청자 반응은 음성 반응 또는 텍스트 반응일 수 있다.Referring to FIG. 3 , the response analyzer 130 may collect viewer responses from a plurality of viewer devices (S31). Viewer responses may be voice responses or text responses.

반응 분석부(130)는 음성 반응에 기초하여 시청자들의 감정 종류를 결정할 수 있다(S32). 즉, 반응 분석부(130)는 실시간 감정 종류를 결정할 수 있다. The reaction analyzer 130 may determine the emotional type of viewers based on the voice reaction (S32). That is, the reaction analyzer 130 may determine the type of emotion in real time.

구체적으로, 반응 분석부(130)는 음성 반응을 텍스트로 변환하고, 텍스트에 포함된 복수의 핵심 텍스트들을 추출하고, 복수의 핵심 텍스트들이 나타내는 감정 종류를 카운트함으로써, 음성 반응으로부터 시청자들의 통계적인 감정 종류를 결정할 수 있다.Specifically, the reaction analysis unit 130 converts the voice response into text, extracts a plurality of core texts included in the text, and counts the types of emotions represented by the plurality of core texts, thereby determining viewers' statistical emotions from the voice response. type can be determined.

반응 분석부(130)는 텍스트 반응 및 음성 반응에 기초하여 감정 정도를 수치로 산출할 수 있다(S33). 즉, 반응 분석부(130)는 실시간 감정 수치를 산출할 수 있다.The response analysis unit 130 may calculate the emotional level as a numerical value based on the text response and the voice response (S33). That is, the reaction analysis unit 130 may calculate a real-time emotional value.

구체적으로, 반응 분석부(130)는 텍스트 반응 및 텍스트로 변환된 음성 반응 내에서 핵심 텍스트의 빈도를 산출하여, 실시간 감정 수치를 산출할 수 있다. 음성 반응이 텍스트 반응보다 적극적인 반응이므로, 반응 분석부(130)는 텍스트 반응에 포함된 핵심 텍스트보다, 음성 반응에 포함된 핵심 텍스트에 가중치를 두어 실시간 감정 수치를 산출할 수 있다. 실시간 감정 수치는, 핵심 텍스트의 빈도와 비례하도록 산출될 수 있다.Specifically, the response analysis unit 130 may calculate a real-time emotion value by calculating a frequency of core text within a text response and a voice response converted into text. Since the voice response is more active than the text response, the response analyzer 130 may calculate a real-time emotional value by giving weight to the core text included in the voice response rather than the core text included in the text response. The real-time emotion value may be calculated in proportion to the frequency of the core text.

도 4는 본 개시의 예시적 실시예에 따른 스토리라인 생성부의 동작을 설명하는 흐름도이다. 도 5는 본 개시의 예시적 실시예에 따른 서브 스토리 갱신을 설명하는 도면이다.4 is a flowchart illustrating an operation of a storyline generator according to an exemplary embodiment of the present disclosure. 5 is a diagram illustrating sub-story updating according to an exemplary embodiment of the present disclosure.

도 4를 참조하면, 스토리라인 생성부(200)는 인터랙티브 시나리오를 생성할 수 있다(S41). 초기 인터랙티브 시나리오는 미리 결정된 스토리들의 조합일 수 있다.Referring to FIG. 4 , the storyline generating unit 200 may generate an interactive scenario (S41). The initial interactive scenario may be a combination of predetermined stories.

예를 들어, 도 5를 참조하면, 인터랙티브 시나리오는, 스토리 1, 스토리 2 등 미리 결정된 복수의 스토리들을 포함할 수 있다. 스토리는 숏, 컷, 씬, 시퀀스 등으로 지칭될 수도 있다.For example, referring to FIG. 5 , an interactive scenario may include a plurality of predetermined stories such as story 1 and story 2. A story may also be referred to as a shot, cut, scene, sequence, or the like.

도 4를 참조하면, 스토리라인 생성부(200)는 현재 서브 스토리가 종료되면(S42=Y), 현재 서브 스토리가 종료되었는지 여부를 기초로 실시간 감정 수치와 목표 감정 수치를 비교하고, 비교 결과를 기초로 다음 서브 스토리를 업데이트할 수 있다(S43). 도 5를 참조하면, 현재 서브 스토리가 서브-스토리 1인 경우, 서브-스토리 1이 종료되면, 스토리라인 생성부(200)는 실시간 감정 수치 '9'와 목표 감정 수치 '10'을 비교할 수 있다. 실시간 감정 수치가 더 낮으므로, 스토리라인 생성부(200)는 다음 서브 스토리를 미리 세팅된 서브 스토리 B가 아닌 서브 스토리 A로 업데이트할 수 있다. 서브 스토리 A는 서브 스토리 B보다 상대적인 감정 수치가 높은 것으로 미리 설정될 수 있다.Referring to FIG. 4 , when the current sub-story ends (S42=Y), the storyline generator 200 compares a real-time emotion value with a target emotion value based on whether the current sub-story has ended, and returns the comparison result. Based on this, the next sub-story can be updated (S43). Referring to FIG. 5 , when the current sub-story is sub-story 1 and sub-story 1 ends, the storyline generator 200 may compare the real-time emotion value '9' with the target emotion value '10'. . Since the real-time emotional value is lower, the storyline generating unit 200 may update the next sub-story to sub-story A instead of the preset sub-story B. Sub-story A may be preset to have a higher relative emotional value than sub-story B.

즉, 서브 스토리가 종료될 때마다, 예상했던만큼 시청자가 반응하지 않으면 다음 서브 스토리의 시나리오를 극적인 내용으로 변경함으로써 시청자에게 몰입감을 제공할 수 있다.That is, whenever a sub-story ends, if the viewer does not respond as expected, the scenario of the next sub-story is changed to a dramatic content, thereby providing a sense of immersion to the viewer.

본 개시의 예시적 실시예에 따르면, 시청자에 반응에 따라 시나리오의 내용이 지속적으로 변경되므로 시청자는 실감형 인터랙티브 콘텐츠를 제공받을 수 있다.According to an exemplary embodiment of the present disclosure, since content of a scenario continuously changes according to a viewer's response, the viewer can be provided with realistic interactive content.

도 6은 본 개시의 예시적 실시예에 따른 스토리라인 생성부(200)의 동작을 설명하는 흐름도이다. 도 7은 본 개시의 예시적 실시예에 따른 후속 스토리 후보군을 선택하는 방법을 설명하는 도면이다.6 is a flowchart illustrating an operation of the storyline generating unit 200 according to an exemplary embodiment of the present disclosure. 7 is a diagram for explaining a method of selecting a subsequent story candidate group according to an exemplary embodiment of the present disclosure.

도 6을 참조하면, 스토리라인 생성부(200)는 기존 스토리가 종료되면(S31=Y), 시청자 반응 수집부(100)로부터 실시간 감정 수치를 수신할 수 있다(S32). Referring to FIG. 6 , when the existing story ends (S31=Y), the storyline creation unit 200 may receive real-time emotional values from the viewer response collection unit 100 (S32).

구체적으로, 도 7을 참조하면, 스토리 1이 완료되면, 즉, 서브-스토리 4가 완료되면, 스토리라인 생성부(200)는 스토리1에 대한 실시간 반응 수치 '5'를 시청자 반응 수집부(100)로부터 수신할 수 있다.Specifically, referring to FIG. 7 , when story 1 is completed, that is, when sub-story 4 is completed, the storyline generator 200 converts a real-time reaction value '5' to story 1 into a viewer response collection unit 100. ) can be received from

스토리라인 생성부(200)는 기존 스토리의 실시간 감정 수치를 기초로 후속 스토리의 목적 수치 범위를 결정할 수 있다(S33). 도 7을 참조하면, 스토리라인 생성부(200)는 스토리1의 실시간 감정 수치 '5'와, 스토리1의 목적 감정 수치 '10'을 비교하고, 비교 결과에 따라 스토리2의 후보군을 결정할 수 있다. The storyline generating unit 200 may determine a target value range of a subsequent story based on the real-time emotion value of the previous story (S33). Referring to FIG. 7 , the storyline generator 200 may compare a real-time emotional value '5' of story 1 and a target emotional value '10' of story 1, and determine a candidate group for story 2 based on the comparison result. .

구체적으로, 스토리1의 실시간 감정 수치가 목적 감정 수치보다 낮으므로, 예상과 달리 해당 시청자들로부터 저조한 반응을 받은 것으로 이해할 수 있다. 따라서, 스토리라인 생성부(200)는 스토리1에 후속하는 스토리2가, 스토리1보다 높은 목적 감정 수치를 갖도록 스토리2 후보군을 조절할 수 있다.Specifically, since the real-time emotional value of Story 1 is lower than the target emotional value, it can be understood that it received a poor response from the viewers, contrary to expectations. Accordingly, the storyline generator 200 may adjust the story 2 candidate group so that the story 2 following the story 1 has a higher target emotional value than the story 1.

즉, 스토리라인 생성부(200)는 목적 감정 수치가 10을 초과하는 스토리들, 즉 스토리 2-2, 스토리 2-3, 스토리 2-4를, 스토리2의 후보군에 포함시킬 수 있고, 목적 감정 수치가 10 이하인 스토리, 즉, 스토리 2-1은 스토리2의 후보군에서 제거할 수 있다. 스토리 2-1 내지 스토리 2-4는 스토리 1과 연결될 수 있는 스토리들로서 초기 인터랙티브 시나리오 생성 시에 설정될 수 있다.That is, the storyline generator 200 may include stories whose target emotion value exceeds 10, that is, stories 2-2, 2-3, and 2-4, in the candidate group for story 2, and the goal emotion value may be included. A story with a numerical value of 10 or less, that is, story 2-1, can be removed from the candidate group for story 2. Story 2-1 to story 2-4 are stories that can be connected to story 1 and can be set when the initial interactive scenario is created.

스토리라인 생성부(200)는 후보군에 속하는 스토리들에 대한 선택권을 시청자에게 제공하도록 시나리오를 업데이트할 수 있다(S34).The storyline generating unit 200 may update the scenario to provide the viewer with the right to select stories belonging to the candidate group (S34).

구체적으로, 스토리1이 종료된 후 등장 인물이 취할 수 있는 액션들 중 후보군에 속하는 스토리들로 매끄럽게 연결되는 액션을 나타내는 선택지를 시청자에게 제공할 수 있다(S34).Specifically, after story 1 is over, among actions that a character can take, an option indicating an action that is smoothly connected to stories belonging to the candidate group may be provided to the viewer (S34).

도 8은 본 개시의 예시적 실시예에 따른 버추얼 휴먼 생성부의 동작을 나타내는 흐름도이다.8 is a flowchart illustrating an operation of a virtual human generator according to an exemplary embodiment of the present disclosure.

도 8을 참조하면, 버추얼 휴먼 생성부(300)는 시나리오 문맥에 따라 버추얼 휴먼의 표정을 렌더링할 수 있다(S81).Referring to FIG. 8 , the virtual human generating unit 300 may render facial expressions of the virtual human according to the scenario context (S81).

구체적으로, 시나리오에 포함된 단어, 문장을 추출하고, 단어 또는 문장에 매핑된 표정으로 버추얼 휴먼의 얼굴을 렌더링할 수 있다.Specifically, words and sentences included in the scenario may be extracted, and the virtual human's face may be rendered with facial expressions mapped to the words or sentences.

버추얼 휴먼 생성부(300)는 시청자 반응 수집부(100)로부터 시청자(30)의 실시간 감정 수치를 수신할 수 있다(S82).The virtual human generating unit 300 may receive real-time emotional values of the viewer 30 from the viewer reaction collecting unit 100 (S82).

구체적으로, 버추얼 휴먼 생성부(300)는 서브 스토리 또는 스토리가 종료될 때뿐만 아니라, 시나리오 내 단어 또는 문장 단위로 실시간 감정 수치를 수신할 수도 있다.Specifically, the virtual human generator 300 may receive real-time emotional values not only when a sub-story or a story ends, but also in units of words or sentences within a scenario.

버추얼 휴먼 생성부(300)는 시청자(30)의 실시간 감정 수치를 기초로 버추얼 휴먼의 표정을 보정할 수 있다(S83).The virtual human generating unit 300 may correct the expression of the virtual human based on the real-time emotional value of the viewer 30 (S83).

구체적으로, 버추얼 휴먼 생성부(300)는 스토리의 목표 감정 수치와 실시간 감정 수치를 비교하고, 비교 결과를 기초로 버추얼 휴먼 표정의 생동감 수준을 조절할 수 있다. 예를 들어, 스토리 자체만으로 목표 감정 종류인 '감동'에 대한 시청자의 실시간 감정 수치가 스토리의 목표 감정 수치를 초과할 수도 있으므로, 버추얼 휴먼의 표정의 생동감을 조절하여 실시간 감정 수치를 제어할 수 있다. 이를 통해, 동일한 스토리라인일지라도 시청자(30)의 반응에 따라 버추얼 휴먼의 표정이 달라지므로, 다양한 인터랙티브 콘텐츠를 시청자(30)에 제공할 수 있다.Specifically, the virtual human generation unit 300 may compare a target emotion value of the story with a real-time emotion value, and adjust the level of liveliness of the virtual human expression based on the comparison result. For example, since the viewer's real-time emotion value for the target emotion type 'impression' may exceed the target emotion value of the story only by the story itself, the real-time emotion value can be controlled by adjusting the liveliness of the virtual human's expression. . Through this, since the expression of the virtual human changes according to the reaction of the viewer 30 even in the same storyline, various interactive contents can be provided to the viewer 30 .

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다.The present invention can also be implemented as computer readable codes on a computer readable recording medium.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. include In addition, the computer-readable recording medium may be distributed to computer systems connected through a network so that computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 예시적인 실시 예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시 예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. As above, exemplary embodiments have been disclosed in the drawings and specifications. Although the embodiments have been described using specific terms in this specification, they are only used for the purpose of explaining the technical idea of the present disclosure, and are not used to limit the scope of the present disclosure described in the claims. . Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present disclosure should be determined by the technical spirit of the appended claims.

10: 콘텐츠 생성 플랫폼 20: 콘텐츠 송출 플랫폼
30: 시청자 100: 시청자 반응 수집부
200: 스토리 라인 생성부 300: 버추얼 휴먼 생성부
110: STT 모듈 120: 핵심 텍스트 추출부
130: 반응 분석부 210: 인터랙티브 시나리오 생성부
220: 시나리오 업데이트 모듈 310: 모션 캡쳐 모듈
320: 합성 블렌딩 모듈 330: TTS 모듈
10: content creation platform 20: content transmission platform
30: viewer 100: viewer response collection unit
200: story line generation unit 300: virtual human generation unit
110: STT module 120: core text extraction unit
130: reaction analysis unit 210: interactive scenario generation unit
220: scenario update module 310: motion capture module
320: synthetic blending module 330: TTS module

Claims (7)

버추얼 콘텐츠를 생성하는 콘텐츠 생성 플랫폼 장치로서,
상기 버추얼 콘텐츠를 수신하는 시청자 장치들로부터 상기 버추얼 콘텐츠에 대한 음성 반응 및 텍스트 반응을 수신하고, 상기 음성 반응 및 텍스트 반응을 기초로 상기 버추얼 콘텐츠에 대한 상기 버추얼 콘텐츠를 시청하는 시청자들의 실시간 감정 종류 및 상기 실시간 감정 종류에 대한 실시간 감정 수치를 산출하는 시청자 반응 수집부;
상기 버추얼 콘텐츠의 인터랙티브 시나리오를 생성하고, 상기 실시간 감정 종류 및 상기 실시간 감정 수치를 기초로 상기 인터랙티브 시나리오를 업데이트하는 스토리라인 생성부; 및
상기 버추얼 콘텐츠의 버추얼 휴먼을 생성하고, 상기 실시간 감정 종류 및 상기 실시간 감정 수치를 기초로 상기 버추얼 휴먼의 표정을 조정하는 버추얼 휴먼 생성부를 포함하고,
상기 스토리라인 생성부는,
버추얼 콘텐츠로 제공되는 제1 스토리에 대한 실시간 감정 수치와 상기 제1 스토리의 목적 감정 수치를 비교하고, 상기 비교 결과에 기초하여 상기 제1 스토리에 후속되는 제2 스토리의 목적 수치 범위를 결정하고, 상기 목적 수치 범위에 기초하여 상기 제2 스토리의 후보군을 결정하고, 등장 인물이 다음에 취할 수 있는 행동들을 상기 후보군에 속하는 스토리에 대한 선택권으로 시청자에게 제공함으로써 상기 시청자의 반응에 따라 가변하는 시나리오를 생성하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
As a content creation platform device for generating virtual content,
Real-time emotional types of viewers who receive voice and text responses to the virtual content from viewer devices that receive the virtual content, and view the virtual content for the virtual content based on the voice and text responses; and a viewer response collection unit that calculates a real-time emotion value for the real-time emotion type;
a storyline generating unit generating an interactive scenario of the virtual content and updating the interactive scenario based on the real-time emotion type and the real-time emotion value; and
a virtual human generator configured to generate a virtual human of the virtual content and adjust a facial expression of the virtual human based on the real-time emotion type and the real-time emotion value;
The storyline generator,
A real-time emotion value for a first story provided as virtual content is compared with a target emotion value of the first story, and based on the comparison result, a target value range for a second story following the first story is determined; A scenario that varies according to the reaction of the viewer is created by determining a candidate group for the second story based on the target numerical range and providing the viewer with options for a story belonging to the candidate group to actions that the character can take next. A content creation platform device, characterized in that for generating.
제1항에 있어서,
상기 시청자 반응 수집부는,
상기 음성 반응을 텍스트로 변환하고, 상기 변환된 텍스트로부터 미리 결정된 복수의 핵심 텍스트들을 추출하고, 감정 종류들과 매핑되는 상기 복수의 핵심 텍스트들 각각의 빈도를 기초로 상기 실시간 감정 종류를 결정하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 1,
The viewer reaction collection unit,
Converting the voice response into text, extracting a plurality of predetermined core texts from the converted text, and determining the real-time emotion type based on a frequency of each of the plurality of core texts mapped to emotion types. Characterized by a content creation platform device.
제2항에 있어서,
상기 시청자 반응 수집부는,
상기 텍스트 반응 및 상기 변환된 텍스트로부터, 상기 실시간 감정 종류와 매핑된 제1 핵심 텍스트의 빈도를 기초로 상기 실시간 감정 수치를 산출하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 2,
The viewer reaction collection unit,
The content creation platform device, characterized in that for calculating the real-time emotion value based on the real-time emotion type and the frequency of the first core text mapped from the text response and the converted text.
제3항에 있어서,
상기 시청자 반응 수집부는,
상기 변환된 텍스트로부터 추출된 상기 제1 핵심 텍스트에, 상기 텍스트 반응으로부터 추출된 상기 제1 핵심 텍스트보다 가중치를 줌으로써 상기 실시간 감정 수치를 산출하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 3,
The viewer reaction collection unit,
The real-time emotional value is calculated by giving the first core text extracted from the converted text more weight than the first core text extracted from the text response.
제1항에 있어서,
상기 스토리라인 생성부는,
상기 인터랙티브 시나리오에 포함되는 복수의 스토리들 중 현재 스토리가 완료되면, 상기 현재 스토리의 목표 감정 수치와, 상기 실시간 감정 수치를 비교하고, 비교 결과를 기초로 상기 시청자 장치가 다음 스토리로서 선택하는 스토리 후보군을 업데이트하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 1,
The storyline generator,
When a current story among a plurality of stories included in the interactive scenario is completed, a target emotional value of the current story is compared with the real-time emotional value, and a story candidate group selected as the next story by the viewer device based on the comparison result. Content creation platform device, characterized in that for updating.
제5항에 있어서,
상기 스토리라인 생성부는,
상기 복수의 스토리들 각각에 포함되는 복수의 서브 스토리들 중 현재 서브 스토리가 완료되면, 상기 현재 스토리의 목표 감정 수치와, 상기 실시간 감정 수치를 비교하고, 비교 결과를 기초로 다음 서브 스토리를 업데이트하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 5,
The storyline generator,
When a current sub-story among a plurality of sub-stories included in each of the plurality of stories is completed, a target emotional value of the current story and the real-time emotional value are compared, and a next sub-story is updated based on the comparison result. A content creation platform device, characterized in that.
제1항에 있어서,
상기 버추얼 휴먼 생성부는,
상기 인터랙티브 시나리오의 텍스트를 기초로 상기 버추얼 휴먼의 표정을 1차적으로 렌더링하고, 상기 실시간 감정 수치를 기초로 상기 버추얼 휴먼의 표정을 2차적으로 보정하는 것을 특징으로 하는 콘텐츠 생성 플랫폼 장치.
According to claim 1,
The virtual human generation unit,
The content creation platform device, characterized in that for primarily rendering the expression of the virtual human based on the text of the interactive scenario, and secondarily correcting the expression of the virtual human based on the real-time emotion value.
KR1020220125582A 2022-09-30 2022-09-30 Contents generation flatfrom device undating interactive scenario based on viewer reaction KR102567931B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220125582A KR102567931B1 (en) 2022-09-30 2022-09-30 Contents generation flatfrom device undating interactive scenario based on viewer reaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220125582A KR102567931B1 (en) 2022-09-30 2022-09-30 Contents generation flatfrom device undating interactive scenario based on viewer reaction

Publications (1)

Publication Number Publication Date
KR102567931B1 true KR102567931B1 (en) 2023-08-18

Family

ID=87801683

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220125582A KR102567931B1 (en) 2022-09-30 2022-09-30 Contents generation flatfrom device undating interactive scenario based on viewer reaction

Country Status (1)

Country Link
KR (1) KR102567931B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102620737B1 (en) * 2023-09-19 2024-01-05 박준언 Apparatus and method for producing corporate marketing content
KR102652355B1 (en) 2023-11-22 2024-03-28 주식회사 더만타스토리 Method for generating new scenario text content based on analysis results of scenario text content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102032091B1 (en) * 2019-03-15 2019-10-14 배준철 Method And System of Comment Emotion Analysis based on Artificial Intelligence
KR20200127969A (en) * 2017-09-29 2020-11-11 워너 브로스. 엔터테인먼트 인크. Creation and control of movie content in response to user emotional states
KR102242779B1 (en) * 2018-09-14 2021-04-20 엘지전자 주식회사 Robot and method for operating the same
KR102427964B1 (en) * 2021-12-16 2022-08-02 조현경 Interactive Responsive Web Drama Playback system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200127969A (en) * 2017-09-29 2020-11-11 워너 브로스. 엔터테인먼트 인크. Creation and control of movie content in response to user emotional states
KR102242779B1 (en) * 2018-09-14 2021-04-20 엘지전자 주식회사 Robot and method for operating the same
KR102032091B1 (en) * 2019-03-15 2019-10-14 배준철 Method And System of Comment Emotion Analysis based on Artificial Intelligence
KR102427964B1 (en) * 2021-12-16 2022-08-02 조현경 Interactive Responsive Web Drama Playback system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102620737B1 (en) * 2023-09-19 2024-01-05 박준언 Apparatus and method for producing corporate marketing content
KR102652355B1 (en) 2023-11-22 2024-03-28 주식회사 더만타스토리 Method for generating new scenario text content based on analysis results of scenario text content

Similar Documents

Publication Publication Date Title
KR102567931B1 (en) Contents generation flatfrom device undating interactive scenario based on viewer reaction
CN111741326B (en) Video synthesis method, device, equipment and storage medium
CN112562433B (en) Working method of 5G strong interaction remote delivery teaching system based on holographic terminal
US20210352380A1 (en) Characterizing content for audio-video dubbing and other transformations
CN107645655B (en) System and method for performing in video using performance data associated with a person
KR20010072936A (en) Post-Synchronizing an information stream
US11581020B1 (en) Facial synchronization utilizing deferred neural rendering
US11582519B1 (en) Person replacement utilizing deferred neural rendering
CN115515016B (en) Virtual live broadcast method, system and storage medium capable of realizing self-cross reply
KR20160081043A (en) Method, server and system for controlling play speed of video
CN111954064B (en) Audio and video synchronization method and device
CN116756285A (en) Virtual robot interaction method, device and storage medium
EP4345814A1 (en) Video-generation system
CN118283367A (en) Conversational video editing method, device and equipment capable of customizing story line
KR102550528B1 (en) System for selecting segmentation video using high definition camera and the method thereof
KR20230093683A (en) Apparatus and method for editing an image data using an artificial intelligence automatically in the image editing apparatus
CN117609548A (en) Video multi-mode target element extraction and video abstract synthesis method and system based on pre-training model
CN112995530A (en) Video generation method, device and equipment
US20230362451A1 (en) Generation of closed captions based on various visual and non-visual elements in content
Tsioustas et al. Innovative applications of natural language processing and digital media in theatre and performing arts
KR102273267B1 (en) Method and apparatus for processing sound
KR20140084463A (en) Apparatus and method for displaying image of narrator information and, server for editing video data
KR102138132B1 (en) System for providing animation dubbing service for learning language
CN116561294A (en) Sign language video generation method and device, computer equipment and storage medium
CN114697689A (en) Data processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
GRNT Written decision to grant