KR102412595B1 - Method and device for providing special film production service using 3d character - Google Patents

Method and device for providing special film production service using 3d character Download PDF

Info

Publication number
KR102412595B1
KR102412595B1 KR1020210120523A KR20210120523A KR102412595B1 KR 102412595 B1 KR102412595 B1 KR 102412595B1 KR 1020210120523 A KR1020210120523 A KR 1020210120523A KR 20210120523 A KR20210120523 A KR 20210120523A KR 102412595 B1 KR102412595 B1 KR 102412595B1
Authority
KR
South Korea
Prior art keywords
actor
terminal
information
image
server
Prior art date
Application number
KR1020210120523A
Other languages
Korean (ko)
Inventor
최종덕
Original Assignee
주식회사 치즈앤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 치즈앤 filed Critical 주식회사 치즈앤
Priority to KR1020210120523A priority Critical patent/KR102412595B1/en
Priority to KR1020220075034A priority patent/KR102605144B1/en
Application granted granted Critical
Publication of KR102412595B1 publication Critical patent/KR102412595B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Resources & Organizations (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

특수촬영물 제작 서비스 제공 서버는 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공할 수 있다. 서버는 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득할 수 있다. 서버는 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작할 수 있다.The special recording production service providing server may provide an actor virtual reality (VR) terminal with a virtual space and a virtual character image of a counterpart moving in the virtual space. The server may acquire a single image of an actor wearing the actor VR terminal from the camera terminal. The server may use the virtual character image and the single image to produce a special filmed image in which both the actor and the virtual character appear.

Figure R1020210120523
Figure R1020210120523

Description

3D 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치{METHOD AND DEVICE FOR PROVIDING SPECIAL FILM PRODUCTION SERVICE USING 3D CHARACTER}Method and apparatus for providing special film production service using 3D characters

본 발명의 실시예들은 특수촬영물 제작 서비스 제공 서버 및 그 동작 방법에 대한 것이다.Embodiments of the present invention relate to a special recording production service providing server and an operating method thereof.

특수효과(special effects, SFX, SPFX, FX)는 영화, 텔레비전, 엔터테인먼트 산업에서 어떠한 이야기 안의 영상화된 사건을 시뮬레이트하는 데 쓰이는 효과를 말한다. 현대의 영화에서 특수 효과는 장면 안의 물체를 제거하거나 추가하거나 강화함으로써 이전의 영화 요소를 변경하는 데 주로 사용한다. 특수 효과는 예산을 많이 들이는 영화에 흔히 쓰이지만 애니메이션과 합성 소프트웨어를 통해 아마추어 영화 제작자들도 전문가급의 효과를 만들고 다룰 수 있게 되었다.Special effects ( SFX,  SPFX,  FX) refer to effects used in the film, television, and entertainment industries to simulate a video event in a story. In modern cinema, special effects are often used to change elements of a previous film by removing, adding, or enhancing objects in a scene. Special effects are commonly used in high-budget films, but animation and compositing software have made it possible for amateur filmmakers to create and manipulate professional-quality effects.

특수 효과는 전통적으로 장면 효과와 기계적 효과로 나뉜다. 최근 들어 특수 효과와 시각 효과(VFX)의 차이가 두드러졌으며, 시각 효과는 광학 효과와 후반 작업을 일컫는 반면, 특수 효과는 기계적 효과를 일컫는다.Special effects are traditionally divided into scene effects and mechanical effects. In recent years, the difference between special effects and visual effects (VFX) has become more pronounced. Visual effects refer to optical effects and post-production, while special effects refer to mechanical effects.

광학 효과는 영상이나 영화 프레임을 만들어 처리하는 기술이다. 광학 효과는 사진과 같이 만들어지며, 배우를 다른 배경 뒤에 삽입하거나 동물이 말하는 것처럼 말하는 효과를 낼 수 있다.Optical effect is a technology that creates and processes video or movie frames. Optical effects are made to look like photos, and actors can be inserted behind different backgrounds, or animals can talk as if they were talking.

기계적 효과는 보통 라이브 액션을 촬영하는 동안 이루어진다. 자동차가 스스로 운전한다든지 배우가 괴물같이 보이게 한다든지 등의 효과를 낼 수 있다.Mechanical effects are usually done while shooting live action. You can create effects such as making the car drive itself, making the actor look like a monster, and so on.

1990년대 이후로, CGI(computer-generated imagery)가 본격적으로 특수 효과 기술로 들어오게 되었다. CGI는 영화 제작자에게 더 나은 제어권을 제공하며, 낮은 비용으로 더 안전하고 신뢰감 있는 효과를 만들어낼 수 있게 한다. 그 결과, 수많은 광학 효과와 기계적 효과 기술은 CGI에 압도당하게 되었다.Since the 1990s, computer-generated imagery (CGI) has been introduced as a special effect technology in earnest. CGI gives filmmakers greater control and allows them to create safer and more reliable effects at lower cost. As a result, many optical and mechanical effects techniques have become overpowered by CGI.

컴퓨터 그래픽으로 캐릭터를 생성하는 경우, 배우는 아무것도 없는 허공에 상대를 상상하며 연기하거나, 크로마키 촬영을 하게 되는데, 이는 배우가 연기하는 데 부담이 될 수 있고, 완성된 작품에서도 어색함을 유발할 수 있다.When a character is created with computer graphics, the actor acts while imagining the opponent in the empty space or takes chroma key shooting, which can be a burden for the actor to perform, and it can cause awkwardness in the finished work.

본 발명의 실시예들은, 특수촬영물 제작 서비스 제공 서버 및 그 동작 방법을 제공할 수 있다. Embodiments of the present invention may provide a special recording production service providing server and an operating method thereof.

실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.Technical problems to be achieved in the embodiments are not limited to those mentioned above, and other technical problems not mentioned may be considered by those of ordinary skill in the art from various embodiments to be described below. can

실시예들에 따르면, 적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스 제공 방법에 있어서, 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하는 단계; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하는 단계; 및 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계를 포함할 수 있다.According to embodiments, there is provided a method for providing a special recording production service performed by at least one server, the method comprising: providing a virtual space to an actor virtual reality (VR) terminal and a virtual character image of a counterpart moving in the virtual space; ; obtaining a single image of an actor wearing the actor VR terminal from a camera terminal; and producing a special filmed image in which both the actor and the virtual character appear by using the virtual character image and the single image.

여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.Here, the virtual space may be a virtual space implemented based on a real space in which the actor plays.

여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.Here, the single image may include an image including the movement and dialogue of the actor in the real space.

여기서, 상기 서버가, 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하는 단계를 더 포함할 수 있다.Here, the server may further include the step of providing the special filmed image to the actor VR terminal.

여기서, 상기 서버가, 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하는 단계를 더 포함할 수 있다.Here, the server, the step of obtaining the analysis information related to the movement of the actor from the VR terminal; and providing information related to a part requiring correction of the actor's movement to the actor VR terminal based on the analysis information.

본 발명의 일 실시예는 특수촬영물 제작 서비스를 제공하는 서버에 있어서, 프로세서(processor); 송수신기(transceiver); 및 메모리(memory); 를 포함하고, 상기 프로세서는: 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하고; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하고; 그리고 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하도록 설정될 수 있다.An embodiment of the present invention provides a server for providing a special recording production service, comprising: a processor; transceiver; and memory; comprising: providing an actor virtual reality (VR) terminal with a virtual space and a virtual character image of a counterpart moving in the virtual space; acquiring a single image of an actor wearing the actor VR terminal from a camera terminal; And it may be set to produce a special filmed image in which both the actor and the virtual character appear by using the virtual character image and the single image.

여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.Here, the virtual space may be a virtual space implemented based on a real space in which the actor plays.

여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.Here, the single image may include an image including the movement and dialogue of the actor in the real space.

여기서, 상기 서버는 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하도록 더 설정될 수 있다.Here, the server may be further set to provide the special filmed image to the actor VR terminal.

여기서, 상기 서버는 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하고; 그리고 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하도록 더 설정될 수 있다.Here, the server obtains analysis information related to the movement of the actor from the actor VR terminal; And based on the analysis information, it may be further configured to provide information related to a part that needs to be corrected among the movement of the actor to the actor VR terminal.

실시예들에 따르면, 배우는 VR 단말을 착용하고 VR 단말에서 보이는 가상 캐릭터와 연기를 할 수 있으므로, 자연스러운 연기가 가능하다. 이후 편집 과정에서도 VR 단말에 제공된 3D 가상 캐릭터 정보를 기초로 배우의 영상과 합성할 수 있으므로 자연스러운 특수촬영물 영상이 제작될 수 있다.According to embodiments, an actor can wear a VR terminal and act with a virtual character seen in the VR terminal, so that natural acting is possible. In the subsequent editing process, it is possible to synthesize the image of the actor based on the 3D virtual character information provided to the VR terminal, so that a natural special filmed image can be produced.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.Effects obtainable from the embodiments are not limited to the effects mentioned above, and other effects not mentioned are clearly derived and understood by those of ordinary skill in the art based on the detailed description below. can be

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스 제공 서버를 포함하는 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 3은 특수촬영물 제작 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.
도 4는 배우 VR 단말에 도시되는 화면의 일 실시예를 도시한 도면이다.
도 5는 특수촬영물 촬영장 모습의 일 실시예를 도시한 도면이다.
도 6은 특수촬영물에 가상 캐릭터를 합성한 화면의 일 실시예를 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the embodiments, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a system diagram including a special photographed material production service providing server according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a server that provides a special recording production service according to an embodiment of the present invention.
3 is a diagram illustrating an embodiment of a method of operating a server for providing a special photographed material production service.
4 is a diagram illustrating an embodiment of a screen shown in an actor VR terminal.
5 is a view showing an embodiment of the appearance of a special filming site.
6 is a diagram illustrating an embodiment of a screen in which a virtual character is synthesized in a special photographed material.

이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may be changed. Some features or features of one embodiment may be included in another embodiment, or may be replaced with corresponding features or features of another embodiment.

도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of various embodiments are not described, and procedures or steps that can be understood at the level of those of ordinary skill in the art are also not described. did

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising or including" a certain component, it does not exclude other components unless otherwise stated, meaning that other components may be further included. do. In addition, terms such as "...unit", "...group", and "module" described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, "a or an," "one," "the," and like related terms are used herein in the context of describing various embodiments (especially in the context of the claims that follow). Unless indicated otherwise or clearly contradicted by context, it may be used in a sense including both the singular and the plural.

이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of various embodiments, and is not intended to represent the only embodiments.

또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to help the understanding of various embodiments, and the use of these specific terms may be changed to other forms without departing from the technical spirit of various embodiments. .

도 1을 참조하면, 본 발명의 실시예에 따른 특수촬영물 제작 서비스 제공 방법은 PC(Personal Computer) 등과 같이 저장공간을 구비하고 인터넷에 연결될 수 있으며 휴대가 용이하지 않는 컴퓨팅 장치에서 수행되거나 스마트폰 등과 같이 휴대용 단말기에서 수행될 수 있다. 이때 상기 특수촬영물 제작 서비스 제공 방법은 상기 특수촬영물 제작 서비스 제공 방법이 구현된 어플리케이션(application)이 앱스토어(App store)등에서 다운되어 상기 휴대용 단말기에 설치된 후 실행될 수 있다.Referring to FIG. 1 , a method for providing a special recording production service according to an embodiment of the present invention is performed on a computing device that has a storage space such as a personal computer (PC), can be connected to the Internet, and is not easy to carry, or is performed on a smart phone, etc. The same may be performed in a portable terminal. In this case, the   special filmed material production service provision method may be executed after an application implementing the special photographed material production service provision method is downloaded from an app store or the like and installed in the portable terminal.

그리고 상기 특수촬영물 제작 서비스 제공 방법은 CD(Compact Disc) 또는 USB(Universal Serial Bus) 메모리 등과 같은 기록매체에 기록된 상태에서 PC 등과 같은 컴퓨팅 장치에 삽입되어 상기 컴퓨팅 장치의 액세스 동작을 통해서 수행되거나 상기 기록매체로부터 컴퓨팅 장치의 저장공간에 저장된 후 컴퓨팅 장치의 액세스 동작을 통해서 수행될 수도 있다.And the method of providing a special recording production service is inserted into a computing device such as a PC in a state recorded on a recording medium such as a CD (Compact Disc) or USB (Universal Serial Bus) memory, etc., and is performed through the access operation of the computing device or After being stored in the storage space of the computing device from the recording medium, it may be performed through an access operation of the computing device.

한편 상기 컴퓨팅 장치 또는 휴대용 단말기가 인터넷에 연결된 서버에 접속가능한 경우, 상기 특수촬영물 제작 서비스 제공 방법은 상기 컴퓨팅 장치 또는 휴대용 단말기의 요청에 따라 서버에서도 실행될 수 있다.On the other hand, when the computing device or the portable terminal can access a server connected to the Internet, the method of providing a special recording production service may also be executed in the server according to the request of the computing device or the portable terminal.

이하에서 상기 특수촬영물 제작 서비스 제공 방법이 실행되는 컴퓨팅 장치, 휴대용 단말기 또는 서버 등을 통칭하여 특수촬영물 제작 서비스 제공 장치라고 칭할 수 있다.Hereinafter, a computing device, a portable terminal, or a server on which the method of providing a special filmed material production service is executed may be collectively referred to as a special photographed material production service providing apparatus.

상기 특수촬영물 제작 서비스 제공 장치는 도 2에 예시된 특수촬영물 제작 서비스 제공 장치와 동일한 구성을 가질 수 있으며, 상기 특수촬영물 제작 서비스 제공 장치는 도 1에 도시된 특수촬영물 제작 서비스 제공 장치에 국한되지 않을 수 있다.The above   special filmed material production service providing apparatus may have the same configuration as the   special photographed material production service provision apparatus illustrated in FIG. can

일 실시예에 따른 시스템은 배우 VR 단말(100), 카메라 단말(110), 및 특수촬영물 제작 서비스 제공 서버(200)(이하, 서버(200))를 포함할 수 있다. 네트워크는 인터넷 포털 사이트 서버, SNS 서버, 블로그를 운영하는 서버 등을 포함할 수 있다.The system according to an embodiment may include an actor VR terminal 100 , a camera terminal 110 , and a special recording production service providing server 200 (hereinafter, server 200 ). The network may include an Internet portal site server, an SNS server, a server operating a blog, and the like.

배우 VR 단말(100), 카메라 단말(110)은, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 배우 VR 단말(100), 카메라 단말(110)은 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.Actor VR terminal 100, camera terminal 110, a smartphone, a tablet PC, a PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, a micro server, a global positioning system (GPS) device, It may be an e-book terminal, a digital broadcasting terminal, a navigation system, a kiosk, an MP3 player, a digital camera, a home appliance, a device equipped with a camera, and other mobile or non-mobile computing devices, but is not limited thereto. In addition, the actor VR terminal 100 and the camera terminal 110 may be a wearable device having a communication function and a data processing function. However, it is not limited thereto.

서버(200)는 배우 VR 단말(100), 카메라 단말(110)과, 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 200 may be implemented as a computer device or a plurality of computer devices that communicate with the actor VR terminal 100 and the camera terminal 110 through a network to provide commands, codes, files, contents, services, etc. .

일례로, 서버(200)는 네트워크를 통해 접속한 배우 VR 단말(100), 카메라 단말(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 배우 VR 단말(100), 카메라 단말(110)은 서버(200)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다.For example, the server 200 may provide a file for installing an application to the actor VR terminal 100 and the camera terminal 110 connected through a network. In this case, the actor VR terminal 100 and the camera terminal 110 may install an application using a file provided from the server 200 .

또한, 배우 VR 단말(100), 카메라 단말(110)은 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(200)에 접속하여, 서버(200)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.In addition, the actor VR terminal 100, the camera terminal 110 is connected to the server 200 under the control of an operating system (Operating System, OS) and at least one program (eg, a browser or an installed application), and the server 200 ) can be provided with services or contents provided by

다른 예로, 서버(200)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 배우 VR 단말(100), 카메라 단말(110) 간의 데이터 송수신을 라우팅할 수도 있다.As another example, the server 200 may establish a communication session for data transmission/reception, and route data transmission/reception between the actor VR terminal 100 and the camera terminal 110 through the established communication session.

배우 VR 단말(100), 카메라 단말(110) 및 특수촬영물 제작 서비스 제공 서버(200)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The actor VR terminal 100 , the camera terminal 110 , and the special recording production service providing server 200 may perform communication using a network. For example, a network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, a satellite communication network, and their It is a data communication network in a comprehensive sense that includes a mutual combination and enables each network constituent entity shown in FIG. 1 to communicate with each other smoothly, and may include a wired Internet, a wireless Internet, and a mobile wireless communication network. In addition, wireless communication is, for example, wireless LAN (Wi-Fi), Bluetooth, Bluetooth low energy, Zigbee, WFD (Wi-Fi Direct), UWB (ultra wideband), infrared communication (IrDA, infrared Data Association), NFC (Near Field Communication), etc. may be there, but is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of a server that provides a special recording production service according to an embodiment of the present invention.

도 2를 참조하면, 특수촬영물 제작 서비스를 제공하는 서버(200)(이하, 서버(200))는 통신부(210), 프로세서(220) 및 DB(230)를 포함할 수 있다. 도 2의 서버(200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.Referring to FIG. 2 , a server 200 (hereinafter, referred to as server 200 ) that provides a special recording production service may include a communication unit 210 , a processor 220 , and a DB 230 . In the server 200 of FIG. 2, only the components related to the embodiment are shown. Accordingly, it can be understood by those skilled in the art that other general-purpose components may be further included in addition to the components shown in FIG. 2 .

통신부(210)는 단말들 간 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.The communication unit 210 may include one or more components that enable wired/wireless communication between terminals. For example, the communication unit 210 may include at least one of a short-distance communication unit (not shown), a mobile communication unit (not shown), and a broadcast receiving unit (not shown).

일례로, DB(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(210)의 제어에 따라 네트워크를 통해 단말로 전달될 수 있다. 역으로, 단말의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신부(210)을 통해 서버(200)로 수신될 수 있다. 예를 들어, 통신부(210)를 통해 수신된 서버(200)의 제어 신호나 명령, 컨텐츠 및 파일 등은 프로세서(220)로 전달되거나 DB(230)로 전달되어 저장될 수 있다.For example, a request generated according to a program code stored in a recording device such as the DB 230 may be transmitted to the terminal through a network under the control of the communication unit 210 . Conversely, a control signal, command, content, file, etc. provided under the control of the processor of the terminal may be received by the server 200 through the communication unit 210 through the network. For example, a control signal, command, content, file, etc. of the server 200 received through the communication unit 210 may be transmitted to the processor 220 or transmitted to the DB 230 and stored.

DB(230)는 서버(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.The DB 230 is hardware for storing various data processed in the server 200 , and may store a program for processing and controlling the processor 220 .

DB(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. DB(230)는 메모리라고 나타낼 수도 있다.DB 230 is a random access memory (RAM), such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory. The DB 230 may be referred to as a memory.

프로세서(220)는 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 DB(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), DB(230) 등을 전반적으로 제어할 수 있다. 프로세서(220)는, DB(230)에 저장된 프로그램들을 실행함으로써, 외부 서버(200)의 동작을 제어할 수 있다.The processor 220 controls the overall operation of the server 200 . For example, the processor 220 may generally control the input unit (not shown), the display (not shown), the communication unit 210 , the DB 230 , and the like by executing programs stored in the DB 230 . The processor 220 may control the operation of the external server 200 by executing programs stored in the DB 230 .

통신부(210)는, 서버(200)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 서버(200)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 통신부(210)는 네트워크를 통해, 다른 전자 장치로부터의 사용자 입력을 수신하거나, 외부 장치로부터 외부 장치에 저장된 데이터를 수신할 수 있다. The communication unit 210 may include one or more components that allow the server 200 to communicate with another device (not shown) and a server (not shown). The other device (not shown) may be a computing device such as the server 200 or a sensing device, but is not limited thereto. The communication unit 210 may receive a user input from another electronic device or data stored in the external device from an external device through a network.

DB(230)는, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, DB(230)는 서비스 제공을 위한 인스트럭션(instruction)을 저장할 수 있다. 또한 DB(230)는 프로세서(220)에서 생성된 데이터를 저장할 수 있다. 예를 들어, DB(230)는 프로세서(220)가 제공하는 특수촬영물 제작 서비스와 관련된 정보를 저장할 수 있다. DB(230)는 서버(200)로 입력되거나 서버(200)로부터 출력되는 정보를 저장할 수도 있다. The DB 230 may store a program for processing and controlling the processor 220 . For example, the DB 230 may store an instruction for providing a service. Also, the DB 230 may store data generated by the processor 220 . For example, the DB 230 may store information related to a special recording production service provided by the processor 220 . The DB 230 may store information input to or output from the server 200 .

프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 220 is ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers), microcontroller It may be implemented using at least one of (micro-controllers), microprocessors, and other electrical units for performing functions.

DB(230)는 프로세서(220)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하고; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하고; 그리고 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하도록 설정될 수 있다.The DB 230 may store at least one instruction executed through the processor 220 . the at least one command provides an actor virtual reality (VR) terminal with a virtual space and a virtual character image of a counterpart moving in the virtual space; acquiring a single image of an actor wearing the actor VR terminal from a camera terminal; And it may be set to produce a special filmed image in which both the actor and the virtual character appear by using the virtual character image and the single image.

여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.Here, the virtual space may be a virtual space implemented based on a real space in which the actor plays.

여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.Here, the single image may include an image including the movement and dialogue of the actor in the real space.

여기서, 상기 적어도 하나의 명령은 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하도록 더 설정될 수 있다.Here, the at least one command may be further set to provide the special filmed image to the actor VR terminal.

여기서, 상기 적어도 하나의 명령은 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하고; 그리고 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하도록 더 설정될 수 있다.Here, the at least one command is to obtain analysis information related to the movement of the actor from the actor VR terminal; And based on the analysis information, it may be further configured to provide information related to a part that needs to be corrected among the movement of the actor to the actor VR terminal.

도 3은 특수촬영물 제작 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.3 is a diagram illustrating an embodiment of a method of operating a server for providing a special photographed material production service.

도 3을 참조하면, 서버는 가상 공간 및 가상 캐릭터 영상을 제공할 수 있다(S300). 예를 들어, 서버는 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공할 수 있다.Referring to FIG. 3 , the server may provide a virtual space and a virtual character image ( S300 ). For example, the server may provide an actor virtual reality (VR) terminal with a virtual space and a virtual character image of a counterpart moving in the virtual space.

예를 들어, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.For example, the virtual space may be a virtual space implemented based on a real space in which the actor plays.

먼저 촬영장의 환경을 실제로 구축한 후, 360도 촬영 등의 방법으로 촬영장의 환경 정보를 획득할 수 있다. 획득한 촬영장의 환경 정보를 기초로 서버는 3D 모델링을 수행할 수 있다. 이를 통해 배우 VR 단말 상에 촬영장과 같은 환경의 가상 공간을 구축할 수 있다.First, the environment of the filming site is actually built, and then environment information of the filming site can be obtained by a method such as 360-degree shooting. Based on the obtained environment information of the filming location, the server may perform 3D modeling. Through this, it is possible to build a virtual space of an environment such as a filming site on the actor's VR terminal.

도 4는 배우 VR 단말에 도시되는 화면의 일 실시예를 도시한 도면이다.4 is a diagram illustrating an embodiment of a screen shown in an actor VR terminal.

도 4를 참조하면, 배우 VR 단말(520)의 디스플레이에는 가상 공간이 도시될 수 있다. 가상 공간 상에 배우의 상대 배역인 가상 캐릭터가 등장할 수 있다. 가상 캐릭터는 적어도 하나의 캐릭터를 포함할 수 있다. 가상 캐릭터의 동작 및 대사는 미리 설정되어 있을 수 있다. 배우는 배우 VR 단말(520)을 착용한 채 배우 VR 단말(520)의 디스플레이에 등장하는 가상 캐릭터와 합을 맞추어 연기를 할 수 있다. 가상 Referring to FIG. 4 , a virtual space may be shown on the display of the actor VR terminal 520 . A virtual character that is a role opposite to the actor may appear in the virtual space. The virtual character may include at least one character. The motion and dialogue of the virtual character may be preset. The actor may perform the performance by matching the virtual character appearing on the display of the actor VR terminal 520 while wearing the actor VR terminal 520 . email

예를 들어, 배우 VR 단말(520)의 디스플레이에는 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보가 더 도시될 수 있다.For example, on the display of the actor VR terminal 520 , information about shooting time, information related to motion, and information related to dialogue may be further displayed.

여기서, 상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭 및 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 동작에 관련된 정보는, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함할 수 있다.Here, the information related to the motion may include a name of a first motion to be performed next by the actor and information about how many seconds later the first motion should be performed. The information related to the operation may include a name of a second operation to be performed next by the virtual character and information on how many seconds later the second operation is performed.

예를 들어, 3초 후에 상대의 왼손 주먹이 날아온다는 정보가 배우 VR 단말(520) 디스플레이에 도시될 수 있다.For example, information that the opponent's left fist flies after 3 seconds may be shown on the display of the actor VR terminal 520 .

여기서, 상기 대사에 관련된 정보는 상기 배우가 다음에 수행할 제1 대사 내용 및 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 대사에 관련된 정보는 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함할 수 있다.Here, the information related to the dialogue may include information on the contents of the first dialogue to be performed next by the actor and information on how many seconds later the first dialogue should be performed. The information related to the dialogue may include details of the second dialogue to be performed next by the virtual character and information on how many seconds later the second dialogue will be performed.

예를 들어, 가상 캐릭터의 A 대사가 2초 후에 수행되고, 5초 후에는 배우의 B 대사가 수행되어야 한다는 정보가 배우 VR 단말(520)의 디스플레이에 도시될 수 있다. 대사까지 남은 시간은 실시간으로 변경될 수 있다.For example, information indicating that dialogue A of the virtual character is performed after 2 seconds and dialogue B of the actor should be performed after 5 seconds may be displayed on the display of the actor VR terminal 520 . The remaining time until dialogue can be changed in real time.

예를 들어, 동작에 관련된 정보, 대사에 관련된 정보는 배우 VR 단말(520)에서 배우가 들을 수 있는 음성으로 재생될 수 있다. 즉, 영상에는 삽입되지 않으나 배우만 들을 수 있도록 배우 VR 단말(520)에 포함된 스피커 등을 통해 배우에게 동작에 관련된 정보, 대사에 관련된 정보가 음성의 형태로 전달될 수 있다.For example, information related to motion and information related to lines may be reproduced as a voice that the actor can hear in the actor VR terminal 520 . That is, although not inserted into the image, information related to motion and information related to dialogue may be transmitted to the actor through a speaker included in the actor VR terminal 520 so that only the actor can hear it in the form of voice.

도 5는 특수촬영물 촬영장 모습의 일 실시예를 도시한 도면이다.5 is a view showing an embodiment of the appearance of a special filming site.

도 5를 참조하면, 촬영장(500)에서 배우(510)는 배우 VR 단말(520, 530)을 착용하고 연기를 수행할 수 있고, 배우(510)의 모습을 카메라 단말(550)이 촬영할 수 있다. 배우(510)는 배우 VR 단말(520) 상에 도시되는 화면에 기반하여 연기를 수행할 수 있다. 배우(510)는 촬영장(500)을 3D 모델링한 가상 공간 상에서 마치 앞에 가상 캐릭터가 존재하는 것처럼 가상 캐릭터 상대 연기를 할 수 있다. 배우(510)는 배우 VR 단말(530)을 착용하고 연기를 할 수 있는데, 배우 VR 단말(530)은 배우가 정확한 동작을 수행하는지에 대한 피드백을 진동 등으로 알려줄 수 있다. 배우 VR 단말(530)은 생략될 수 있고, 또는 다른 형태의 배우 VR 단말이 사용될 수 있다.Referring to FIG. 5 , in the filming site 500 , an actor 510 may perform an act by wearing the actor VR terminals 520 and 530 , and the camera terminal 550 may photograph the appearance of the actor 510 . . The actor 510 may perform acting based on a screen displayed on the actor VR terminal 520 . The actor 510 may act against a virtual character as if a virtual character existed in front in a virtual space in which the filming site 500 was 3D modeled. The actor 510 may act while wearing the actor VR terminal 530 , and the actor VR terminal 530 may provide feedback on whether the actor performs an accurate motion through vibration or the like. The actor VR terminal 530 may be omitted, or another type of actor VR terminal may be used.

다시 도 3을 참조하면, 서버는 단독 영상을 획득할 수 있다(S310). 예를 들어, 서버는 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득할 수 있다.Referring back to FIG. 3 , the server may acquire a single image ( S310 ). For example, the server may acquire a single image of an actor wearing the actor VR terminal from the camera terminal.

예를 들어, 상기 단독 영상은 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.For example, the single image may include an image including movement and dialogue of the actor in the real space.

예를 들어, 상기 단독 영상은 도 5에서 카메라 단말(550)이 배우(510)의 연기를 촬영한 영상일 수 있다.For example, the single image may be an image in which the camera terminal 550 captures the performance of the actor 510 in FIG. 5 .

서버는 특수촬영물 영상을 제작할 수 있다(S320). 예를 들어, 서버는 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작할 수 있다. 다음으로 특수촬영물 영상의 일 실시예를 설명한다.The server may produce a special recorded video (S320). For example, the server may use the virtual character image and the single image to produce a special filmed image in which both the actor and the virtual character appear. Next, an embodiment of a special photographed image will be described.

도 6은 특수촬영물에 가상 캐릭터를 합성한 화면의 일 실시예를 도시한 도면이다. 6 is a diagram illustrating an embodiment of a screen in which a virtual character is synthesized in a special photographed material.

도 6을 참조하면, 촬영장(500)에서 배우(510)가 연기한 단독 영상에 가상 캐릭터(540)를 합성할 수 있다. 배우 VR 단말(520)에 제공했던 가상 캐릭터 영상을 기초로 단독 영상에 상기 가상 캐릭터 영상을 합성함으로써 배우(510)가 배우 VR 단말(520)을 통해서 봤던 가상 캐릭터를 특수촬영물에 구현할 수 있다. 따라서 제작된 특수촬영물은 실제 촬영장(500) 배경에서 연기하는 배우(510)와 가상 캐릭터(540)이 모두 등장할 수 있다.Referring to FIG. 6 , a virtual character 540 may be synthesized in a single image played by an actor 510 at a filming site 500 . By synthesizing the virtual character image into a single image based on the virtual character image provided to the actor VR terminal 520 , the virtual character seen by the actor 510 through the actor VR terminal 520 can be implemented in a special shot. Therefore, in the produced special film, both the actor 510 and the virtual character 540 acting in the background of the actual filming site 500 may appear.

다시 도 3을 참조하면, 서버는 특수촬영물 영상을 제공할 수 있다(S330). 예를 들어, 서버는 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공할 수 있다. 배우는 배우 VR 단말을 통해 자신이 수행했던 연기에 가상 캐릭터가 합성된 특수촬영물 영상을 확인할 수 있다.Referring back to FIG. 3 , the server may provide a special recorded image (S330). For example, the server may provide the special filmed image to the actor VR terminal. Through the actor VR terminal, the actor can check the special filmed video in which the virtual character is synthesized with the acting he has performed.

서버는 움직임 분석 정보를 획득할 수 있다(S340). 예를 들어, 서버는 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득할 수 있다. 예를 들어, 배우 VR 단말은 센서 등을 통해 촬영 중 배우 동작에 대한 정보를 수집할 수 있다. 서버는 배우 VR 단말로부터 분석 정보를 획득하면, 원래 배우가 수행했어야 하는 동작의 이상적인 움직임과 비교할 수 있다. 예를 들어, 서버는 배우가 시나리오 상에서 수행할 동작의 이상적인 움직임들에 대한 정보를 저장하고 있을 수 있고, 배우 VR 단말로부터 획득한 분석 정보를 기초로 동작이 잘 수행되었는지에 대한 비교를 수행할 수 있다.The server may acquire motion analysis information (S340). For example, the server may acquire analysis information related to the movement of the actor from the actor VR terminal. For example, the actor VR terminal may collect information about the actor's motion during filming through a sensor or the like. When the server obtains the analysis information from the actor VR terminal, it can compare it with the ideal movement of the action that the actor should have originally performed. For example, the server may store information on the ideal movements of the motion to be performed by the actor in the scenario, and may perform a comparison on whether the motion is well performed based on the analysis information obtained from the actor VR terminal. have.

서버는 피드백 정보를 제공할 수 있다(S350). 예를 들어, 서버는 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공할 수 있다.The server may provide feedback information (S350). For example, the server may provide the actor VR terminal with information related to a part requiring correction of the actor's movement based on the analysis information.

예를 들어, 수정이 필요한 부분은 해당 씬의 1분 30초 경에 휘둘렀던 왼손 주먹의 궤도가 더 높아져야 하고, 이후 이어지는 발차기가 더 신속히 이루어져야 한다는 등의 정보를 포함할 수 있다.For example, the part that needs to be modified may include information such as that the trajectory of the left fist swung at 1:30 of the scene should be higher, and the subsequent kick should be faster.

배우는 배우 VR 단말을 통해 서버로부터 피드백 정보를 수신하면, 다음 회차 연기 때 이를 반영할 수 있게 된다. 또한, 배우는 이전 씬의 자신의 연기와 가상 캐릭터가 합성된 특수촬영물 영상을 배우 VR 단말을 통해 확인할 수 있으므로, 이를 통해 자신의 연기를 확실히 되짚어 볼 수 있는 효과가 있다.When the actor receives feedback information from the server through the actor VR terminal, it can be reflected when the next episode is postponed. In addition, since the actor can check the special filmed video in which his acting from the previous scene and the virtual character are synthesized through the actor's VR terminal, there is an effect that he can look back on his acting clearly.

도 3의 일례에 표시된 세부 단계 중 일부는 필수 단계가 아닐 수 있고, 생략될 수 있다. 도 3에 도시된 단계 외에 다른 단계가 추가될 수 있고, 상기 단계들의 순서는 달라질 수 있다. 상기 단계들 중 일부 단계가 독자적 기술적 의미를 가질 수 있다.Some of the detailed steps shown in the example of FIG. 3 may not be essential steps and may be omitted. In addition to the steps shown in FIG. 3 , other steps may be added, and the order of the steps may vary. Some of the above steps may have their own technical meaning.

적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스를 제공하는 방법에 있어서, 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하는 단계; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하는 단계; 및 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계를 포함할 수 있다.A method of providing a special recording production service performed by at least one server, the method comprising: providing a virtual space and a virtual character image of a counterpart moving in the virtual space to an actor virtual reality (VR) terminal; obtaining a single image of an actor wearing the actor VR terminal from a camera terminal; and producing a special filmed image in which both the actor and the virtual character appear by using the virtual character image and the single image.

여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간을 포함할 수 있다.Here, the virtual space may include a virtual space implemented based on a real space in which the actor plays.

여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.Here, the single image may include an image including the movement and dialogue of the actor in the real space.

여기서, 상기 서버가, 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하는 단계를 더 포함할 수 있다.Here, the server may further include the step of providing the special filmed image to the actor VR terminal.

여기서, 상기 서버가, 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하는 단계를 더 포함할 수 있다.Here, the server, the step of obtaining the analysis information related to the movement of the actor from the VR terminal; and providing information related to a part requiring correction of the actor's movement to the actor VR terminal based on the analysis information.

여기서, 상기 가상 캐릭터 영상은, 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보를 더 포함할 수 있다.Here, the virtual character image may further include shooting time information, motion-related information, and dialogue-related information.

여기서, 상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭 및 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 동작에 관련된 정보는, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함할 수 있다.Here, the information related to the motion may include a name of a first motion to be performed next by the actor and information about how many seconds later the first motion should be performed. The information related to the operation may include a name of a second operation to be performed next by the virtual character and information on how many seconds later the second operation is performed.

여기서, 상기 대사에 관련된 정보는 상기 배우가 다음에 수행할 제1 대사 내용 및 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 대사에 관련된 정보는 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함할 수 있다.Here, the information related to the dialogue may include information on the contents of the first dialogue to be performed next by the actor and information on how many seconds later the first dialogue should be performed. The information related to the dialogue may include details of the second dialogue to be performed next by the virtual character and information on how many seconds later the second dialogue will be performed.

여기서, 상기 수정이 필요한 부분에 관련된 정보는 상기 배우의 움직임의 시점이 수정되어야 하는 정도, 상기 배우의 움직임의 종점이 수정되어야 하는 정도, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보를 포함할 수 있다.Here, the information related to the part requiring correction includes information related to the degree to which the start point of the actor's movement should be corrected, the extent to which the end point of the actor's movement should be corrected, and the degree to which the movement trajectory of the actor should be corrected. can do.

여기서, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보는, 올바른 움직임 궤도에 대한 영상 정보를 포함할 수 있다.Here, the information related to the degree to which the motion trajectory of the actor needs to be corrected may include image information on the correct motion trajectory.

본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.The operation according to the embodiment of the present specification may be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. In addition, the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable programs or codes in a distributed manner.

실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented in software, the above-described technique may be implemented as a module (process, function, etc.) that performs the above-described function. A module may be stored in a memory and executed by a processor. The memory may be internal or external to the processor, and may be coupled to the processor by various well-known means.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, wherein a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also represent a corresponding block or item or a corresponding device feature. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상술한 다양한 실시예들은 그 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 다양한 실시예들의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 다양한 실시예들의 등가적 범위 내에서의 모든 변경은 다양한 실시예들의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The various embodiments described above may be embodied in other specific forms without departing from the technical idea and essential characteristics thereof. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the various embodiments should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the various embodiments are included in the scope of the various embodiments. In addition, claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

Claims (5)

적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스를 제공하는 방법에 있어서,
배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하되,
상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간이고, 상기 가상 캐릭터 영상은, 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보를 포함하고,
상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭, 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭, 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함하고, 그리고
상기 대사에 관련된 정보는, 상기 배우가 다음에 수행할 제1 대사 내용, 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보, 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용, 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함하는, 단계;
카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하되, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함하는, 단계;
상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계;
상기 배우의 움직임 및 대사가 종료된 후, 상기 배우 VR 단말에, 상기 배우가 상기 배우의 움직임 및 대사를 확인할 수 있도록 상기 특수촬영물 영상을 제공하는 단계;
상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및
상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하되,
상기 수정이 필요한 부분에 관련된 정보는 상기 배우의 움직임의 시점이 수정되어야 하는 정도, 상기 배우의 움직임의 종점이 수정되어야 하는 정도, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보를 포함하고,
상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보는, 올바른 움직임 궤도에 대한 영상 정보를 포함하는, 단계를 포함하는,
특수촬영물 제작 서비스 제공 방법.
In the method of providing a special film production service performed by at least one server,
Provide a virtual space and a virtual character image of a counterpart moving in the virtual space to an actor virtual reality (VR) terminal,
The virtual space is a virtual space implemented based on the real space in which the actor is acting, and the virtual character image includes shooting time information, motion-related information, and dialogue-related information,
The information related to the action may include a name of a first action to be performed by the actor next, information about how many seconds later the first action should be performed, a name of a second action to be performed next by the virtual character, and including information about how many seconds later the second operation is performed, and
The information related to the dialogue may include content of a first line to be performed by the actor next, information about how many seconds later the first line should be performed, content of a second line to be performed by the virtual character next, and a number of seconds After including information on whether the second metabolism is performed, a step;
acquiring a single image of an actor wearing the actor VR terminal from a camera terminal, wherein the single image includes an image including an actor's movement and dialogue in the real space;
producing a special filmed image in which both the actor and the virtual character appear by using the virtual character image and the single image;
providing the special filmed image to the actor VR terminal so that the actor can check the actor's movements and lines after the actor's movements and lines are finished;
obtaining analysis information related to the movement of the actor from the actor VR terminal; and
Based on the analysis information, information related to the part requiring correction of the actor's movement is provided to the actor VR terminal,
The information related to the part requiring the correction includes information related to the degree to which the start point of the actor's movement should be corrected, the extent to which the end point of the actor's movement should be corrected, and the degree to which the movement trajectory of the actor should be corrected,
The information related to the degree to which the movement trajectory of the actor needs to be corrected, including image information on the correct movement trajectory,
How to provide special film production service.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210120523A 2021-09-09 2021-09-09 Method and device for providing special film production service using 3d character KR102412595B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210120523A KR102412595B1 (en) 2021-09-09 2021-09-09 Method and device for providing special film production service using 3d character
KR1020220075034A KR102605144B1 (en) 2021-09-09 2022-06-20 Method for assisting in shooting and production of special film using vr terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210120523A KR102412595B1 (en) 2021-09-09 2021-09-09 Method and device for providing special film production service using 3d character

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220075034A Division KR102605144B1 (en) 2021-09-09 2022-06-20 Method for assisting in shooting and production of special film using vr terminal

Publications (1)

Publication Number Publication Date
KR102412595B1 true KR102412595B1 (en) 2022-06-24

Family

ID=82215987

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210120523A KR102412595B1 (en) 2021-09-09 2021-09-09 Method and device for providing special film production service using 3d character
KR1020220075034A KR102605144B1 (en) 2021-09-09 2022-06-20 Method for assisting in shooting and production of special film using vr terminal

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220075034A KR102605144B1 (en) 2021-09-09 2022-06-20 Method for assisting in shooting and production of special film using vr terminal

Country Status (1)

Country Link
KR (2) KR102412595B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000074633A (en) * 1999-05-24 2000-12-15 박권상 Real-time virtual character system
KR20130090621A (en) * 2012-02-06 2013-08-14 한국전자통신연구원 Apparatus and method for pre-visualization image
KR20150114016A (en) * 2014-03-28 2015-10-12 주식회사 다림비젼 Method and system for generating virtual studio image by using 3-dimensional object modules
KR20200025285A (en) * 2018-08-30 2020-03-10 김재윤 System and method for entertainer experience

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101613777B1 (en) * 2014-01-15 2016-04-19 (주)디스트릭트홀딩스 Service system and service method for live dance class and live dance music room
KR101711488B1 (en) * 2015-01-28 2017-03-03 한국전자통신연구원 Method and System for Motion Based Interactive Service

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000074633A (en) * 1999-05-24 2000-12-15 박권상 Real-time virtual character system
KR20130090621A (en) * 2012-02-06 2013-08-14 한국전자통신연구원 Apparatus and method for pre-visualization image
KR20150114016A (en) * 2014-03-28 2015-10-12 주식회사 다림비젼 Method and system for generating virtual studio image by using 3-dimensional object modules
KR20200025285A (en) * 2018-08-30 2020-03-10 김재윤 System and method for entertainer experience

Also Published As

Publication number Publication date
KR20230037431A (en) 2023-03-16
KR102605144B1 (en) 2023-11-24

Similar Documents

Publication Publication Date Title
KR101926018B1 (en) Method and system for video recording
CN108140263B (en) AR display system and method applied to image or video
CN105635712A (en) Augmented-reality-based real-time video recording method and recording equipment
CN109743584B (en) Panoramic video synthesis method, server, terminal device and storage medium
US8610713B1 (en) Reconstituting 3D scenes for retakes
WO2015164155A1 (en) Artist-directed volumetric dynamic virtual cameras
US11871089B2 (en) Video modification and transmission using tokens
KR102086780B1 (en) Method, apparatus and computer program for generating cartoon data
US11418857B2 (en) Method for controlling VR video playing and related apparatus
JP2022510658A (en) Systems and methods for determining virtual camera paths
KR101644496B1 (en) System of Providing Advertisement Service Using Game Video
US20130050190A1 (en) Dressing simulation system and method
KR102412595B1 (en) Method and device for providing special film production service using 3d character
KR20170090856A (en) Method for generating open scenario
US20150162049A1 (en) Image processing device, image processing method, and program
CN109636917B (en) Three-dimensional model generation method, device and hardware device
KR102533209B1 (en) Method and system for creating dynamic extended reality content
US20170287521A1 (en) Methods, circuits, devices, systems and associated computer executable code for composing composite content
TWI652600B (en) Online integration of augmented reality editing devices and systems
KR102575771B1 (en) Method and system for generating 3d interactive video
KR20150106472A (en) Method and apparatus for providing contents
CN115174993B (en) Method, apparatus, device and storage medium for video production
KR20180020187A (en) Method and system for generating content using panoramic image
US20210400255A1 (en) Image processing apparatus, image processing method, and program
KR20170139202A (en) Method and system for generating content using panoramic image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant