KR20100062822A - System for cooperative digital image production - Google Patents

System for cooperative digital image production Download PDF

Info

Publication number
KR20100062822A
KR20100062822A KR1020090026293A KR20090026293A KR20100062822A KR 20100062822 A KR20100062822 A KR 20100062822A KR 1020090026293 A KR1020090026293 A KR 1020090026293A KR 20090026293 A KR20090026293 A KR 20090026293A KR 20100062822 A KR20100062822 A KR 20100062822A
Authority
KR
South Korea
Prior art keywords
data
node
nodes
communication network
resource database
Prior art date
Application number
KR1020090026293A
Other languages
Korean (ko)
Other versions
KR101155564B1 (en
Inventor
김성수
이주행
남승우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100062822A publication Critical patent/KR20100062822A/en
Application granted granted Critical
Publication of KR101155564B1 publication Critical patent/KR101155564B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/07Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information characterised by processes or methods for the generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A collaborative image production management device is provided to remarkably reduce the bottleneck phenomenon through algorithm parallelization and data parallelization using various hardware resources and personalized parallel computing environment. CONSTITUTION: A call connection interface(120) calls a node which is selected by an administrator among a plurality of nodes(101-106). A data storage/processor(140) stores data processed at the called node to a resource database(130). The data storage/processor shares each data processed in the nodes with the nodes. According to the request of an administrator, a resource fetching part(150) displays the saved data to the display part(170). By using the saved data, a final result generator(160) generates a final product.

Description

협업적 영상 제작 관리 장치{SYSTEM FOR COOPERATIVE DIGITAL IMAGE PRODUCTION}Collaborative video production management device {SYSTEM FOR COOPERATIVE DIGITAL IMAGE PRODUCTION}

본 발명은 영상 제작에 관한 것으로, 더욱 상세하게는 초고용량 그리고 고품질의 영상제작을 수행할 때, 주요 병목을 일으키는 영상제작단계들을 통신망을 통해 연결된 각 노드들을 이용하여 수행함으로써, 최종 영상품질 개선과 영상제작기간을 단축할 수 있는 협업적 영상 제작 관리 장치에 관한 것에 관한 것이다.The present invention relates to image production. More particularly, when performing ultra-high-capacity and high-quality image production, image production steps causing major bottlenecks are performed by using nodes connected through a communication network, thereby improving final image quality. The present invention relates to a collaborative video production management apparatus that can shorten a video production period.

본 발명은 지식경제부 및 정보통신연구진흥원의 IT성장동력기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호:2006-S-045-03, 과제명: 기능 확장형 초고속 랜더러 개발].The present invention is derived from the research conducted as part of the IT growth engine technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Telecommunications Research and Development.

영화나 광고 제작에서 포스트프로덕션 (Post-Production)은 후반 작업이라 불리는 단계로 촬영된 필름을 바탕으로 완전한 한편의 영화가 나올 수 있게 새 옷을 입히는 과정에 비유할 수 있다. 이러한 후반 작업에 있어 충분한 작업기간과 세심한 작업 환경만이 최종 영화의 완성도를 보장할 수 있다. In film and commercial production, post-production can be likened to the process of dressing new clothes so that a complete film can be produced based on the film shot in a stage called post-production. In this post-production, only a sufficient working period and careful working environment can guarantee the final film.

제작 측면에서 후반작업의 세부 단계는 다음과 같다. (1) 현장에서 촬영된 필름은 촬영 즉시 현상소로 옮겨져 현상 과정을 겪게 된다. 과거에는 네거티브 필름을 현상한 뒤, 비용을 줄이기 위해 16mm 축소 프린트를 떠서 촬영된 상태를 확인하고 편집하는 방식이 주를 이루고 있다. 이러한 네거티브 현상을 최근에는 컴퓨터 편집 소프트웨어를 이용한 편집 방식이 주를 이루기 때문에 네거티브 현상 뒤 바로 "텔레시네"과정을 거치게 된다. 가끔 조명이나 다른 기술적인 상태를 점검하기 위해 프린트를 떠서 필름 상태를 확인하는 경우도 있긴 하지만, 그 경우가 많지는 않다. In terms of production, the detailed steps of post-production are as follows. (1) Films taken on-site are taken to the lab immediately after shooting and undergo the development process. In the past, the negative film was developed, and then, in order to reduce costs, a 16mm reduction print was used to check and edit the photographed state. These negative phenomena are mainly edited using computer editing software, so they go through the "telecine" process immediately after the negative phenomena. Sometimes the print is checked to check the condition of the film by checking the lighting or other technical conditions, but this is not the case.

필름 현상의 순서는 다음과 같다. 일단 생필름에 촬영을 하고 나서 이것의 잠상을 현상시킨다. 그러면 우리가 일반적으로 보는 자연색상의 보색으로 이루어진 필름이 나오는데, 이를"네거티브 필름" 또는 "음화"라고 부른다. 이 네거티브 필름을 다른 필름에 인화하며 보통 우리가 극장에서 볼 수 있는 제대로 된 색이 나온다. 이러한 과정은 보통 필름을 인화지에 인화하며 제대로 된 상이 나오는 것과 같다. 이 인화된 필름을 "포지티브 필름" 또는 "양화"라고 한다. The order of film development is as follows. Once filmed on raw film, its latent image is developed. This results in a film that consists of the complementary colors of natural colors that we commonly see, called "negative films" or "negatives." This negative film is printed on other films and usually produces the right color that we can see in the theater. This process is usually like printing a film on photo paper and getting the right image. This printed film is called "positive film" or "positive".

최근에 후반 작업은 디지털화 되어 촬영된 생필름을 네거티브 현상만 마친 뒤, 포지티브 현상을 하지 않은 채, 바로 비디오 이미지로 변환시킨다. 다음 단계로 텔레시네 작업을 수행하게 되는데, 여기서 텔레시네란 필름으로부터 특수 프리즘에 의해 광학적으로 결상시켜 필름의 정보를 비디오 테이프로 변환하는 장치와 작업이다. 텔레시네 과정에서 타임코드를 읽는 헤드는 필름에 기록된 날짜, 타임코드, 키넘버 등의 정보를 정확하게 판독하게 된다. 텔레시네 작업을 통해 비디오 이미지로 변환된 촬영 분은 촬영과 동시에 가편집 작업에 들어간다. 편집기사는 현장기록에 따라 OK컷을 골라내는 작업을 한 뒤, 곧바로 순서편집을 하게 된다. 촬영이 종료됨과 동시에 감독과 편집 기사는 최종 편집 작업을 하게 되는데, 컴퓨터 그래픽이나 옵티컬 작업이 들어가야 하는 부분은 최종 편집 작업 전에 추려내서 효과를 집어넣는 작업을 하게 된다. Recently, post-production digitizes raw film and converts it into a video image immediately after the negative development, without the positive development. The next step is to perform telecine work, which is an operation with an apparatus that converts information of a film into video tape by optically forming an image from a film by a special prism. In the telecine process, the head that reads the timecode accurately reads the date, timecode, key number, etc. recorded on the film. Those who have been converted into video images through telecine work go into editing work at the same time. The editor selects an OK cut based on the field records and immediately edits the sequence. At the end of the shooting, the director and the editorial staff will make final edits, and the computer graphics or optical work will be put out before the final editing work.

옵티컬 작업은 촬영된 필름에 필요한 광학적 처리를 하는 작업을 의미한다. 컴퓨터 그래픽 소프트웨어를 이용한 편집 과정 중에 효과가 사용된 부분을 네거티브 필름에서 찾아내 광학처리를 하게 되면 효과가 들어간 새로운 네거티브 필름이 만들어지게 된다. 최종 네거티브 편집에서 사용되는 것은 이러한 효과가 들어간 네거티브 필름을 사용하게 되는 것이다. 이외에 CG를 이용한 장면 같은 경우도 이와 유사한 작업과정을 거친다. CG 효과가 들어가야 할 부분을 원본 네거티브 필름에서 찾아 컴퓨터 스캐닝을 받은 뒤, 작업이 끝난 뒤에는 필름 출력을 하여 효과가 들어간 새로운 네거티브 필름을 만들게 된다. 이렇게 만들어진 네거티브 필름이 옵티컬 작업과 동일하게 최종 편집에 사용되게 되는 것이다. 옵티컬 작업 이후, 네거티브 편집, 녹음, 광학녹음을 수행하게 된다. 이후, 최종 프린트를 뜨기 위해 최종 편집된 필름의 노출이나 색깔을 보정하는 작업을 수행하고, 색보정 작업을 통해 나온 색보정 수치에 따라 프린트 작업을 하게 된다.Optical work refers to a process of optical processing required for photographed film. During the editing process using computer graphics software, the part of the effect is found in the negative film and optically processed to create a new negative film with the effect. What is used in the final negative editing is to use negative film with these effects. In addition, the scenes using CG go through a similar process. After scanning the original negative film where the CG effect needs to be found and scanning the computer, the film is printed out to make a new negative film with the effect. The resulting negative film will be used for final editing in the same way as for optical work. After optical work, negative editing, recording and optical recording are performed. After that, the exposure or color correction of the final edited film is performed to produce the final print, and the printing operation is performed according to the color correction value obtained through the color correction operation.

위 CG 특수 효과를 위한 작업을 세부적으로 살펴보면, 실사촬영 결과에 대한 처리로, 스캐닝(scanning), 노이즈제거(Dustbusting), 안정화(Stabilization) 작업을 수행한 뒤, 실사 촬영본과 CG 디지털환경을 연계하는 매치무브(Matchmove) 단계 를 수행한다. 이후 실제 CG 디지털환경에서 모델링된 객체에 동작을 만들어 내는 애니메이션 단계, 객체 표면의 재질감을 입히는 쉐이딩 단계, 장면에 대한 디지털 조명을 설정하는 라이팅 단계, CG 영상을 그려나가는 렌더링 단계, 렌더링 단계에서 도출된 이미지를 합성하는 컴포지팅 단계를 수행한 뒤 최종 필름을 출력해 낸다.Looking at the above CG special effects in detail, the processing of the real-world shooting results, scanning, noise removal, stabilization, and then linking the live-action shot and the CG digital environment. Perform the matchmove step. Afterwards, the animation step that creates motion on the modeled object in the real CG digital environment, the shading step that applies the texture of the object surface, the lighting step that sets the digital lighting for the scene, the rendering step that draws the CG image, and the rendering step After the compositing step of compositing the image, the final film is output.

일반적으로 고품질의 영상 렌더링 이미지를 얻기 위해서는 많은 횟수의 쉐이딩, 라이팅, 렌더링 단계를 거쳐야만 하기 때문에 단일 시스템에서 처리하기에 한계가 있다. 특히, 렌더링 단계는 가장 많은 처리시간을 요구하는 작업으로서, 단일 시스템에서 처리하기에는 한계가 있어 높은 성능 향상과 제작기간 단축을 기대하기가 힘든 문제점이 있다.In general, obtaining a high quality image rendering image requires a large number of shading, lighting, and rendering steps, which limits processing in a single system. In particular, the rendering step is a task that requires the most processing time, there is a limit to process in a single system has a problem that it is difficult to expect high performance improvement and short production time.

본 발명은 광대역 통신망을 통해 CG 영상 제작의 주요 병목인 쉐이딩, 라이팅, 렌더링, 컴포지팅 단계를 다수의 개인화된 병렬 작업 환경을 통해 상호 협력하여 작업함으로써, 영상 제작 시간을 단축한다.The present invention shortens the image production time by working together through multiple personalized parallel working environments for shading, writing, rendering, and compositing steps, which are the main bottlenecks of CG image production, through a broadband communication network.

또한, 본 발명은 디지털 영상 제작이 단일 중앙 처리 시스템을 통해 수행될 때, 병목을 일으키는 CG 영상 제작의 필수 단계, 예컨대 쉐이딩 라이팅, 렌더링을 공통된 인터페이스와 광대역 통신망을 통해 다수의 개인화된 병렬환경에서 수행함으로써, 처리 속도를 개선한다.In addition, the present invention performs essential steps in creating bottlenecked CG images, such as shading writing and rendering, when a digital image production is performed through a single central processing system in multiple personalized parallel environments through a common interface and broadband network. This improves the processing speed.

본 발명에 따른 협업적 영상 제작 관리 장치는, 통신망을 통해 다수의 노드들과 연결시키며, 상기 다수의 노드들 중 관리자에 의해 선택된 노드를 호출하는 호출 연결 인터페이스와, 상기 호출 연결 인터페이스를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스에 저장하며, 상기 다수의 노드들에서 처리된 각 데이터들을 상기 다수의 노드들로 공유시키는 데이터 저장 및 처리부와, 관리자의 요청에 따라 상기 자원 데이터베이스에 저장된 데이터를 표시부에 디스플레이해주는 자원 호출부와, 상기 자원 데이터베이스에서 저장된 데이터를 이용하여 최종 결과물을 생성하는 최종 결과물 생성부를 포함한다.An apparatus for managing collaborative video production according to the present invention is connected to a plurality of nodes through a communication network, a call connection interface for calling a node selected by an administrator among the plurality of nodes, and a call connection interface called through the call connection interface. A data storage and processing unit which receives data processed by a node and stores the data in a resource database and shares each data processed by the plurality of nodes to the plurality of nodes, and data stored in the resource database at the request of an administrator The resource call unit for displaying the display unit, and the final result generation unit for generating a final result using the data stored in the resource database.

또한, 본 발명에 따른 협업적 영상 제작 관리 장치는, 통신망을 통해 다수의 노드들과 연결시키며, 상기 다수의 노드들 중 관리자에 의해 선택된 노드를 호출하는 호출 연결 인터페이스와, 상기 호출 연결 인터페이스를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스에 저장하며, 상기 다수의 노드들 중 임의의 노드의 요청에 따라 상기 자원 데이터베이스에서 데이터를 추출한 후 이를 상기 호출 연결 인터페이스를 통해 상기 임의의 노드에 제공하는 데이터 저장 및 처리부와, 관리자의 요청에 따라 상기 자원 데이터베이스에 저장된 데이터를 표시부에 디스플레이해주는 자원 호출부와, 상기 자원 데이터베이스에서 저장된 데이터를 이용하여 최종 결과물을 생성하는 최종 결과물 생성부를 포함한다.In addition, the apparatus for managing collaborative video production according to the present invention is connected to a plurality of nodes through a communication network, and a call connection interface for calling a node selected by an administrator among the plurality of nodes, and through the call connection interface. Receives data processed by the called node and stores it in the resource database, extracts data from the resource database according to a request of any node among the plurality of nodes, and provides the same to the node through the call connection interface. A data storage and processing unit, a resource calling unit for displaying data stored in the resource database on a display unit at the request of an administrator, and a final result generating unit generating a final result using the data stored in the resource database.

본 발명은 단일 중앙시스템 영상제작 환경에서 병목현상으로 속도저하를 야기하는 쉐이딩, 라이팅, 렌더링을 다양한 하드웨어 자원들과 개인화된 병렬 컴퓨팅 환경(멀티코어 CPU, GPU, 전용 SIMD 하드웨어)을 이용하여 연산을 수행하는 알고리즘 병렬화 및 데이터 병렬화를 통해 병목현상을 현저히 줄일 수 있으며, 실행시간에 해당 병렬화 속성을 판별하여 다양한 하드웨어 자원에 대한 호출을 제어하여 병렬성을 높여 빠른 처리속도를 제공받을 수 있다.The present invention computes shading, lighting, and rendering that cause bottlenecks in a single central system image production environment using various hardware resources and personalized parallel computing environments (multicore CPUs, GPUs, dedicated SIMD hardware). Through parallelism and data parallelism, the bottleneck can be significantly reduced, and the parallelism property can be determined at execution time to control the calls to various hardware resources to increase parallelism and provide fast processing speed.

따라서 광대역 협업기반 디지털 영상제작 시스템은 영상제작 뿐만 아니라, 디자인 가시화 분야에서 인터액티브(interactive) 광선추적법 분야 등에서 신속하고 간편하게 수행될 수 있으며, 사용자가 쉐이더 프로그램을 통해 제어가 가능하므로 프로그래머블(programmable)한 유연성도 제공한다. Therefore, the broadband collaborative digital image production system can be quickly and easily performed in the field of design visualization, interactive ray tracing, etc., and is programmable because the user can control it through the shader program. It also provides flexibility.

이하 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the operating principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intentions or customs of the user, the operator, and the like. Therefore, the definition should be made based on the contents throughout the specification.

본 발명은 전역 조명 기반 렌더링이 단일 중앙처리장치를 통해 수행될 때, 병목을 일으키는 필수요소 연산들, 예컨대 난수생성, 몬테카를로 적분 등을 공통된 인터페이스를 통해, 멀티코어 중앙 처리 장치(CPU), 고속의 그래픽스 처리 장치, 전용 SIMD(Single Instruction Multiple Data, 이하, 'SIMD'라고한다.) 하드웨어 등에서 수행함으로써 처리 속도를 개선하는 것이다.The present invention provides a multicore central processing unit (CPU), high speed, through a common interface for bottleneck essential operations, such as random number generation, Monte Carlo integration, etc., when global lighting based rendering is performed through a single central processing unit. The processing speed is improved by performing a graphics processing device, dedicated SIMD (Single Instruction Multiple Data, hereinafter referred to as 'SIMD') hardware, or the like.

도 1은 본 발명에 따른 협업 기반의 영상 제작 관리를 위한 전체적인 시스템을 도시한 블록도로서, 영상 장면 내의 객체를 기하 정보를 만들어가는 모델링 노드(101), 객체의 움직임을 설정하는 애니메이션 노드(102), 사실적인 재질감 표현을 위해 쉐이딩 작업을 수행하는 쉐이딩 노드(103), 장면 내의 조명을 설정하는 라이팅 노드(104), 설정된 장면에 대해 렌더링을 수행하는 렌더링 노드(105), 렌더링을 통해 출력되는 이미지들을 합성하는 컴포지팅 노드(106) 및 상기의 노드들과 통신망을 통해 연결되어 노드들을 연동시키는 영상 제작 관리 장치(107)를 포함한다. 여기서, 통신망은 광대역 유무선 통신망을 그 예로 들 수 있다.1 is a block diagram showing an overall system for collaboration-based image production management according to the present invention, a modeling node 101 for creating geometric information of an object in an image scene, and an animation node 102 for setting an object's movement. ), A shading node 103 for shading for realistic texture, a lighting node 104 for setting lighting in a scene, a rendering node 105 for rendering a set scene, and outputted through rendering A compositing node 106 for synthesizing the images and an image production management apparatus 107 connected to the nodes through a communication network to interwork the nodes. Here, the communication network may be a broadband wired or wireless communication network.

본 발명에서의 모델링 노드(101)는 영상 제작 관리 장치(100)와 상기 통신망을 통해 연결되어 실사 처리 데이터를 토대로 영상 장면 내의 객체에 대한 기하정보를 생성한다.The modeling node 101 of the present invention is connected to the image production management apparatus 100 through the communication network to generate geometric information about an object in an image scene based on the photorealistic processing data.

애니메이션 노드(102)는 영상 제작 관리 장치(100)와 통신망을 통해 연결되어 실사 처리 데이터를 토대로 객체에 대한 애니메이션을 설정한다.The animation node 102 is connected to the image production management apparatus 100 through a communication network to set an animation for the object based on the live-action processing data.

쉐이딩 노드(103)는 영상 제작 관리 장치(100)와 통신망을 통해 연결되어 실 사 처리 데이터를 토대로 객체에 대한 사실적인 재질감을 표현하기 위한 쉐이딩 작업을 수행한다.The shading node 103 is connected to the image production management apparatus 100 through a communication network to perform a shading operation for expressing a realistic texture of an object based on the actual processing data.

라이팅 노드(104)는 영상 제작 관리 장치(100)와 통신망을 통해 연결되어 영상 장면 내의 조명을 설정한다.The lighting node 104 is connected to the image production management apparatus 100 through a communication network to set lighting in the image scene.

렌더링 노드(105)는 영상 제작 관리 장치(100)와 통신망을 통해 연결되어 영상 장면에 대한 렌더링을 수행한다.The rendering node 105 is connected to the image production management apparatus 100 through a communication network to perform rendering of an image scene.

컴포지팅 노드(106)는 영상 제작 관리 장치(100)와 통신망을 통해 연결되어 렌더링 노드(105)에서 출력된 이미지들을 합성한다.The compositing node 106 is connected to the image production management apparatus 100 through a communication network to synthesize images output from the rendering node 105.

이러한 각 노드(101, 102, 103, 104, 105, 106)는 영상 처리에 적합한 개인용 컴퓨터나 단말기일 수 있는데, 즉 도 2에 도시된 바와 같이, 하나의 프로세서에 적어도 하나 이상의 코어를 탑재한 멀티코어 중앙 처리 장치(200)와, 프로그래머블 쉐이더 프로세서를 탑재한 그래픽 처리 장치(210)와, 멀티코어 중앙 처리 장치(200)와 그래픽 처리 장치(210)로 영상 제작 관리 장치(100)로부터 제공받은 데이터를 처리하여 결과 데이터를 생성하는 전용 단일 명령 복수 데이터(SIMD) 방식 하드웨어(220)와, 영상 제작 관리 장치(100)와 통신망을 통해 연동하기 위한 통신 인터페이스(240)를 포함하는 개인용 컴퓨터이거나 단말 장치일 수 있다.Each of the nodes 101, 102, 103, 104, 105, and 106 may be a personal computer or a terminal suitable for image processing. That is, as shown in FIG. Data received from the image production management apparatus 100 by the core central processing unit 200, the graphics processing unit 210 equipped with the programmable shader processor, and the multicore central processing unit 200 and the graphics processing unit 210. Personal computer or a terminal device including a dedicated single command plural data (SIMD) type hardware 220 for processing the generated data and a communication interface 240 for interworking with the image production management apparatus 100 through a communication network. Can be.

영상 제작 관리 장치(100)는 실사 처리부(110), 호출 연결 인터페이스(120), 자원 데이터베이스(130), 데이터 저장 및 처리부(140), 자원 호출부(150), 최종 결과물 생성부(160) 및 표시부(170)를 포함한다.The video production management apparatus 100 may include a live action processor 110, a call connection interface 120, a resource database 130, a data storage and processor 140, a resource caller 150, a final result generator 160, and The display unit 170 is included.

실시간 처리부(110)는 실사 촬영 결과를 처리하여 실사 처리 데이터를 생성 하는데, 여기서 실사 촬영 결과를 처리하는 과정으로는 스캐닝, 노이즈 제거, 안정화, 색보정, 매치 무브 등을 들 수 있다.The real-time processor 110 processes the photorealistic photographing result to generate the photorealistic processing data. Here, the process of processing the photorealistic photographing result may include scanning, noise removal, stabilization, color correction, and match move.

호출 연결 인터페이스(120)는 통신망을 통해 다수의 노드, 예컨대 모델링 노드(101), 애니메이션 노드(102), 쉐이딩 노드(103), 라이팅 노드(104), 렌더링 노드(105) 및 컴포지팅 노드(106)와 영상 제작 관리 장치(100)를 연결시키며, 다수의 노드들(101, 102, 103, 104, 105, 106) 중 관리자에 의해 선택된 적어도 하나 이상의 노드를 호출한 후 호출된 노드에 실사 처리 데이터를 전송한다.The call connection interface 120 is connected to a plurality of nodes, such as modeling node 101, animation node 102, shading node 103, lighting node 104, rendering node 105, and compositing node (eg, through a communication network). 106 and the video production management apparatus 100, and call the at least one node selected by the administrator of the plurality of nodes (101, 102, 103, 104, 105, 106), and then performs due diligence processing on the called node Send the data.

데이터 저장 및 처리부(140)는 호출 연결 인터페이스(110)를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스(130)에 저장하며, 다수의 노드들(101, 102, 103, 104, 105, 106)에서 처리된 각 데이터들을 공유시킨다. 각 노드(101, 102, 103, 104, 105, 106)들에서 처리된 각 데이터의 예로는 객체에 대한 기하 정보, 애니메이션의 설정 결과, 쉐이딩 작업 결과, 조명이 설정된 결과, 렌더링 결과, 렌더링 결과를 합친 결과물 등을 들 수 있으며, 데이터 저장 및 처리부(140)는 처리된 각 데이터를 수신하여 자원 데이터베이스(130)에 저장한다.The data storage and processing unit 140 receives data processed by the node called through the call connection interface 110 and stores the data in the resource database 130. The plurality of nodes 101, 102, 103, 104, 105, Each data processed in 106 is shared. Examples of the data processed by the nodes 101, 102, 103, 104, 105, and 106 include geometry information about the object, animation setting result, shading result, lighting result, rendering result, and rendering result. Combined results, and the like, the data storage and processing unit 140 receives each processed data and stores it in the resource database 130.

여기서, 노드의 호출 과정과 데이터 저장 및 처리부(140)의 데이터 수신은 병렬적으로 이루어지는데, 즉 촬영된 실사 영상 장면 내의 객체에 대한 기하 정보의 생성이 필요한 경우 모델링 노드(101)를 호출하고, 객체에 대한 애니메이션 설정이 필요한 경우 애니메이션 노드(102)를 호출한 후 모델링 노드(101) 또는 애니메이션 노드(102)로부터 데이터를 전송받는다.Here, the call process of the node and the data reception and data reception of the processing unit 140 are performed in parallel, that is, when the generation of the geometric information on the object in the photographed live image scene is called, the modeling node 101 is called. When the animation setting for the object is required, data is transmitted from the modeling node 101 or the animation node 102 after calling the animation node 102.

한편, 컴포지팅 노드(106)의 호출하는 경우에는 렌더링 노드(105)의 호출을 통해 렌더링 결과 데이터를 전송받은 후 이를 컴포지팅 노드(106)에 전송함(렌더링 노드(105)와 컴포지팅 노드(106)간의 공유시킴)으로써, 렌더링 노드(105)로부터 전송받은 렌더링 결과 데이터를 합성한 데이터를 제공받아 자원 데이터베이스(130)에 저장할 수 있다.On the other hand, when the compositing node 106 is called, the rendering result data is received through the call of the rendering node 105 and then transmitted to the compositing node 106 (rendering node 105 and composite). By sharing between the nodes 106, the data obtained by synthesizing the rendering result data received from the rendering node 105 may be received and stored in the resource database 130.

또한, 데이터 저장 및 처리부(140)는 호출 연결 인터페이스(110)를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스(130)에 저장하며, 임의의 노드의 요청에 따라 자원 데이터베이스(130)에서 데이터를 추출한 후 이를 호출 연결 인터페이스(110)를 통해 임의의 노드에 전송한다.In addition, the data storage and processing unit 140 receives data processed by the node called through the call connection interface 110 and stores the data in the resource database 130, and at the request of any node, the resource database 130. The data is extracted and transmitted to any node through the call connection interface 110.

이와 같이, 호출 연결 인터페이스(110)는 관리자의 작업 요청에 맞춰 해당 노드를 선택 및 호출하며, 데이터 저장 및 처리부(140)는 호출된 노드에 필요한 데이터를 자원 데이터베이스(130)에서 인출한 후 이를 호출된 노드에 전송하거나 각 노드들을 연결시켜 각 노드에서 처리된 데이터를 공유시킬 수 있다.As such, the call connection interface 110 selects and calls a corresponding node according to a manager's work request, and the data storage and processing unit 140 retrieves data necessary for the called node from the resource database 130 and then calls it. The data processed by each node can be shared by sending it to each node or connecting each node.

자원 호출부(150)는 관리자의 요청에 따라 자원 데이터베이스(130)에 저장된 결과 데이터, 예컨대 모델링 노드(101)에 의해 생성된 기하 정보, 애니메이션 노드(102)에 의해 생성된 애니메이션 결과, 쉐이딩 노드(103)의 쉐이딩 작업 결과, 라이팅 노드(104)의 조명 작업 결과, 렌더링 노드(105)의 렌더링 작업 결과, 컴포지팅 노드(106)의 이미지의 합성 결과들 중 관리자가 요청한 데이터를 인출한 후 이를 표시부(170)에 디스플레이시킨다.The resource caller 150 may store the result data stored in the resource database 130 at the request of an administrator, for example, geometric information generated by the modeling node 101, animation results generated by the animation node 102, and shading node ( After the shading operation result of 103, the lighting operation result of the lighting node 104, the rendering operation result of the rendering node 105, and the synthesis result of the image of the compositing node 106 are extracted, the manager requests the data. It is displayed on the display unit 170.

최종 결과물 생성부(160)는 자원 데이터베이스(130)에 저장된 데이터를 이용하여 최종 결과물을 생성한다.The final result generator 160 generates the final result using the data stored in the resource database 130.

본 발명의 실시 예에서는 쉐이딩 작업, 라이팅 작업, 렌더링 작업, 애니메이션 작업, 모델링 작업, 이미지 합성 작업 등을 각기 다른 노드에서 수행하고, 수행 결과를 영상 제작 관리 장치(100)에서 취합한 후 최종 영상을 생성하는 것으로 예를 들어 설명하였지만, 쉐이딩 작업, 라이팅 작업, 렌더링 작업 및 합성 작업만을 통신망을 통해 연결된 각 노드들에서 수행하고, 영상 제작 관리 장치(100)에서 나머지 작업을 수행할 수 있다. 즉, 라이팅 작업, 쉐이딩 작업, 렌더링 작업을 영상 제작 관리 장치(100)와 연결된 각 노드를 이용하여 처리하고, 처리 결과물(중간 결과물)을 영상 제작 관리 장치(100)를 이용하여 각 노드들과 공유함으로써, 작업 처리 시간을 단축시킬 수 있다. 예를 들어, 렌더링 결과 이미지의 합성이 필요한 경우 컴포지팅 노드(106)는 영상 제작 관리 장치(100)를 통해 렌더링 노드(105)에서 생성된 렌더링 결과 이미지를 제공받은 후 이를 합성하여 영상 제작 관리 장치(100)에 제공한다.According to an exemplary embodiment of the present invention, shading, lighting, rendering, animation, modeling, image compositing, and the like are performed in different nodes, and the result is collected by the image production management apparatus 100, and then the final image is captured. Although described as an example of generating, only shading, writing, rendering, and compositing operations may be performed at each node connected through a communication network, and the remaining operations may be performed by the image production management apparatus 100. That is, the lighting work, shading work, and rendering work are processed using each node connected to the image production management apparatus 100, and the processing result (intermediate result) is shared with each node using the image production management apparatus 100. By doing so, work processing time can be shortened. For example, when the composition of the rendering result image is required, the compositing node 106 receives the rendering result image generated by the rendering node 105 through the image production management apparatus 100 and then synthesizes the image to manage the production of the image. To the device 100.

이와 같이, 본 발명은 영상 제작에 필요한 작업을 다수의 분산된 노드들, 즉 특정 작업을 위한 노드들을 이용하여 작업을 수행한 후 이를 영상 제작 관리 장치(100)에 취합한 후 이를 토대로 최종 결과 데이터를 생성하거나 영상 제작 관리 장치(100)를 통해 각 노드들을 연결시켜, 각 노드들의 처리 데이터(중간 결과물)를 공유시켜 최종 결과, 영상 제작 기간을 단축시킬 수 있다. 예를 들어, 영화, 광고 영상물을 제작은 프리프로덕션, 프로덕션 및 포스트프로덕션의 세단계로 이루어지는데, 포스트프로덕션 단계에서 이루어지는 작업을 호출 연결 인터페이스(110)에 연결된 다수의 노드들에게 할당함으로써, 영상 제작 단계의 기간을 최소화할 수 있 을 뿐만 아니라 제작 비용을 줄일 수 있다.As described above, according to the present invention, a task required for producing an image is performed using a plurality of distributed nodes, that is, nodes for a specific task, and then collected in the image production management apparatus 100, and the final result data is based on the result. Each node may be connected to each other through the image production management apparatus 100, and the processing data (intermediate result) of each node may be shared to shorten the final result and the image production period. For example, the production of a film or an advertisement video has three stages of preproduction, production, and postproduction. The operation of the postproduction stage is assigned to a plurality of nodes connected to the call connection interface 110, thereby producing an image. Not only can you minimize the duration of the steps, but you can also reduce manufacturing costs.

지금까지 본 발명의 실시예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시 예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.The present invention has been limited to the embodiments of the present invention, but it is obvious that the technology of the present invention can be easily modified by those skilled in the art. Such modified embodiments should be included in the technical spirit described in the claims of the present invention.

도 1은 본 발명의 실시 예에 따른 협업적 영상 제작 관리를 위한 전체적인 구성을 도시한 블록도이며,1 is a block diagram showing the overall configuration for collaborative video production management according to an embodiment of the present invention,

도 2는 본 발명의 실시 예에 따른 협업적 영상 제작 관리를 위한 각 노드들의 내부 구성을 도시한 블록도이다.2 is a block diagram illustrating an internal configuration of each node for collaborative video production management according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명>Description of the Related Art

100 : 영상 제작 관리 장치 101 : 모델링 노드100: image production management device 101: modeling node

102 : 애니메이션 노드 103 : 라이팅 노드102: animation node 103: lighting node

104 : 쉐이딩 노드 105 : 렌더링 노드104: shading node 105: rendering node

106 : 컴포지팅 노드 110 : 실사 처리부106: compositing node 110: live action processing unit

120 : 호출 연결 인터페이스 130 : 자원 데이터베이스120: call connection interface 130: resource database

140 : 데이터 저장 및 처리부 150 : 자원 호출부140: data storage and processing unit 150: resource call unit

160 : 최종 결과물 생성부 170 : 표시부160: final result generation unit 170: display unit

Claims (5)

통신망을 통해 다수의 노드들과 연결시키며, 상기 다수의 노드들 중 관리자에 의해 선택된 노드를 호출하는 호출 연결 인터페이스와,A call connection interface that connects to a plurality of nodes through a communication network and calls a node selected by an administrator among the plurality of nodes; 상기 호출 연결 인터페이스를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스에 저장하며, 상기 다수의 노드들에서 처리된 각 데이터들을 상기 다수의 노드들로 공유시키는 데이터 저장 및 처리부와,A data storage and processing unit receiving data processed by a node called through the call connection interface and storing the processed data in a resource database, and sharing each data processed by the plurality of nodes to the plurality of nodes; 관리자의 요청에 따라 상기 자원 데이터베이스에 저장된 데이터를 표시부에 디스플레이해주는 자원 호출부와,A resource caller for displaying data stored in the resource database on a display unit at the request of an administrator; 상기 자원 데이터베이스에서 저장된 데이터를 이용하여 최종 결과물을 생성하는 최종 결과물 생성부Final result generation unit for generating a final result using the data stored in the resource database 를 포함하는 협업적 영상 제작 관리 장치.Collaborative video production management device comprising a. 통신망을 통해 다수의 노드들과 연결시키며, 상기 다수의 노드들 중 관리자에 의해 선택된 노드를 호출하는 호출 연결 인터페이스와,A call connection interface that connects to a plurality of nodes through a communication network and calls a node selected by an administrator among the plurality of nodes; 상기 호출 연결 인터페이스를 통해 호출된 노드에서 처리된 데이터를 제공받아 자원 데이터베이스에 저장하며, 상기 다수의 노드들 중 임의의 노드의 요청에 따라 상기 자원 데이터베이스에서 데이터를 추출한 후 이를 상기 호출 연결 인터페이스를 통해 상기 임의의 노드에 제공하는 데이터 저장 및 처리부와,Receives data processed by a node called through the call connection interface and stores the data in a resource database, extracts data from the resource database according to a request of any one of the plurality of nodes, and then uses the call connection interface to extract the data. A data storage and processing unit provided to the arbitrary nodes; 관리자의 요청에 따라 상기 자원 데이터베이스에 저장된 데이터를 표시부에 디스플레이해주는 자원 호출부와,A resource caller for displaying data stored in the resource database on a display unit at the request of an administrator; 상기 자원 데이터베이스에서 저장된 데이터를 이용하여 최종 결과물을 생성하는 최종 결과물 생성부Final result generation unit for generating a final result using the data stored in the resource database 를 포함하는 협업적 영상 제작 관리 장치.Collaborative video production management device comprising a. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 협업적 영상 제작 관리 장치는,The collaborative video production management device, 상기 통신망을 통해 연결되어 영상 장면 내의 객체에 대한 기하정보를 생성하는 모델링 노드와,A modeling node connected through the communication network to generate geometric information about an object in an image scene; 상기 통신망을 통해 연결되어 상기 객체에 대한 애니메이션을 설정하는 애니메이션 노드와,An animation node connected through the communication network to set an animation for the object; 상기 통신망을 통해 연결되어 상기 객체에 대한 사실적인 재질감을 표현하기 위한 쉐이딩 작업을 수행하는 쉐이딩 노드와, A shading node connected through the communication network to perform a shading operation for expressing realistic texture of the object; 상기 통신망을 통해 연결되어 상기 영상 장면 내의 조명을 설정하는 라이팅 노드와,A lighting node connected through the communication network to set lighting in the video scene; 상기 통신망을 통해 연결되어 상기 영상 장면에 대한 렌더링을 수행하는 렌더링 노드와,A rendering node connected through the communication network to render the image scene; 상기 통신망을 통해 연결되어 상기 렌더링 노드에서 출력된 이미지들을 합성하는 컴포지팅 노드들과 상기 호출 통신 인터페이스를 통해 연결되는 협업적 영상 제작 관리 장치.And compositing nodes configured to synthesize images output from the rendering node through the communication network and through the call communication interface. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 각 노드들은,Each of the nodes, 하나의 프로세서에 적어도 하나 이상의 코어를 탑재한 멀티코어 중앙 처리 장치와,A multicore central processing unit having at least one core in one processor, 프로그래머블 쉐이더 프로세서를 탑재한 그래픽 처리 장치와,A graphics processing unit with a programmable shader processor, 상기 멀티코어 중앙 처리 장치와 그래픽 처리 장치로 상기 실시간 처리 데이터를 처리하여 상기 결과 데이터를 생성하는 전용 단일 명령 복수 데이터 방식 하드웨어와,Dedicated single instruction multiple data type hardware for processing said real-time processing data with said multicore central processing unit and graphics processing unit to generate said result data; 상기 협업적 영상 제작 관리 장치와 상기 통신망을 통해 연동하기 위한 통신 인터페이스를 포함하는 단말 장치인 것을 특징으로 하는 협업적 영상 제작 관리 장치.And a terminal device including a communication interface for interworking with the collaborative video production management device through the communication network. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 통신망은, 유선 또는 무선 통신망인 것을 특징으로 하는 협업적 영상 제작 관리 장치.And the communication network is a wired or wireless communication network.
KR1020090026293A 2008-12-02 2009-03-27 System for cooperative digital image production KR101155564B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080120913 2008-12-02
KR20080120913 2008-12-02

Publications (2)

Publication Number Publication Date
KR20100062822A true KR20100062822A (en) 2010-06-10
KR101155564B1 KR101155564B1 (en) 2012-06-19

Family

ID=42363027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090026293A KR101155564B1 (en) 2008-12-02 2009-03-27 System for cooperative digital image production

Country Status (1)

Country Link
KR (1) KR101155564B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014137008A1 (en) * 2013-03-06 2014-09-12 팬터로그 주식회사 System and method for sharing graphic resource
KR102702900B1 (en) * 2024-03-27 2024-09-04 주식회사 필디즈 System of ai-based remote color correction for film film contents

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101698739B1 (en) 2015-06-30 2017-02-13 주식회사 벽우 Video editing systems and a driving method using video project templates
KR102308369B1 (en) 2020-12-18 2021-10-06 주식회사 스파크엑스 (SPARKX Co.,Ltd.) Automatic video editing system through artificial intelligence sound source analysis
KR102308372B1 (en) 2020-12-18 2021-10-06 주식회사 스파크엑스 (SPARKX Co.,Ltd.) Hybrid Cloud Systems with VFX Service Delivery and Collaboration

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7667704B2 (en) * 2005-03-30 2010-02-23 Microsoft Corporation System for efficient remote projection of rich interactive user interfaces
KR101288970B1 (en) * 2006-11-28 2013-07-24 삼성전자주식회사 A rendering apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014137008A1 (en) * 2013-03-06 2014-09-12 팬터로그 주식회사 System and method for sharing graphic resource
KR102702900B1 (en) * 2024-03-27 2024-09-04 주식회사 필디즈 System of ai-based remote color correction for film film contents

Also Published As

Publication number Publication date
KR101155564B1 (en) 2012-06-19

Similar Documents

Publication Publication Date Title
US11721071B2 (en) Methods and systems for producing content in multiple reality environments
WO2022048097A1 (en) Single-frame picture real-time rendering method based on multiple graphics cards
CN112804459A (en) Image display method and device based on virtual camera, storage medium and electronic equipment
US20100060652A1 (en) Graphics rendering system
JP3870167B2 (en) Rendering system, rendering method and recording medium thereof
KR101155564B1 (en) System for cooperative digital image production
KR102032606B1 (en) Machinima manufacturing method based on 3D Game Engine
US10339120B2 (en) Method and system for recording information about rendered assets
CA3139657C (en) Apparatus for multi-angle screen coverage analysis
CN112804460A (en) Image processing method and device based on virtual camera, storage medium and electronic equipment
US9704290B2 (en) Deep image identifiers
KR20160016812A (en) Image edits propagation to underlying video sequence via dense motion fields
CN114140564A (en) Expression creating method and device
KR20220064711A (en) Method and apparatus for real-time output of user object
JP2002163678A (en) Method and device for generating pseudo three- dimensional image
EP4276828A1 (en) Integrated media processing pipeline
KR20130035485A (en) System for publishing 3d virtual reality moving picture and method for publishing the same
KR102561903B1 (en) AI-based XR content service method using cloud server
KR100374914B1 (en) Method for production of animation using publishing comic picture
US9230508B2 (en) Efficient feedback-based illumination and scatter culling
KR20180117826A (en) Method and apparatus for production of webtoon movies
KR20060040118A (en) Method and appartus for producing customized three dimensional animation and system for distributing thereof
KR20230014562A (en) Collaborative video production management devices
US20240111496A1 (en) Method for running instance, computer device, and storage medium
US12086955B2 (en) Scene builder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150515

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee