KR102358596B1 - 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램 - Google Patents

머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램 Download PDF

Info

Publication number
KR102358596B1
KR102358596B1 KR1020210138738A KR20210138738A KR102358596B1 KR 102358596 B1 KR102358596 B1 KR 102358596B1 KR 1020210138738 A KR1020210138738 A KR 1020210138738A KR 20210138738 A KR20210138738 A KR 20210138738A KR 102358596 B1 KR102358596 B1 KR 102358596B1
Authority
KR
South Korea
Prior art keywords
server
image
user
client device
content
Prior art date
Application number
KR1020210138738A
Other languages
English (en)
Inventor
정면영
서채원
장호석
Original Assignee
주식회사 스튜디오레논
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스튜디오레논 filed Critical 주식회사 스튜디오레논
Priority to KR1020210138738A priority Critical patent/KR102358596B1/ko
Application granted granted Critical
Publication of KR102358596B1 publication Critical patent/KR102358596B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

병렬적 파이프라인을 통한 효율적인 영상 제작 프로세스를 제공할 수 있는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램에 관한 것으로, (a) 상기 서버가 상기 클라이언트 디바이스로부터 소스 데이터를 수신하는 단계, (b) 상기 서버가 상기 소스 데이터를 기초로 컨텐츠 이미지를 생성하는 단계, (c) 상기 서버가 상기 생성한 컨텐츠 이미지를 상기 클라이언트 디바이스로 전송하는 단계, (d) 상기 서버가 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하는 단계, 및 (e) 상기 서버가 상기 피드백 데이터의 사용자 선택 영역 정보를 기초로 상기 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하는 단계를 포함하는 것을 특징으로 한다.

Description

머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR PROVIDING RENDERING PLATFORM PROVIDING MACHINE LEARNING-BASED PARALLEL WORKFLOW}
본 발명은 렌더링 플랫폼 제공 시스템에 관한 것으로, 보다 상세하게는 병렬적 파이프라인을 통한 효율적인 영상 제작 프로세스를 제공할 수 있는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램에 관한 것이다.
현재 수요가 급속히 증가하고 있는 3차원 게임 서비스 또는 웹(Web) 3D 응용 서비스는, 3차원 객체를 빠르게 화면에 출력하는 기능에 기반을 둔 서비스 형태로서, 사회 전반적인 소득 수준의 향상과 새로운 오락물 또는 영상물을 원하는 대중의 기호에 따라 관련 영상 제작 플랫폼에 대한 요구가 급격히 증가하고 있다.
3차원 영상을 제작하는 작업은, 완성 전까지 많은 반복 보완 작업을 거치게 되어 시간 및 비용이 증가되는 원인이 되고 있다.
최근에는, 리얼타임 테크놀로지 및 버추얼 프로토타입으로 발빠르게 전환하여, 디자인에서 제작까지 걸리는 시간을 단축하고 디자인을 고객이 원하는 의도에 더욱 효율적으로 맞춰나가고 있다.
하지만, 여전히 고퀄리티의 영상을 제작하기 위해서는, 다양한 많은 제작 과정을 거쳐야 하며 수정 및 변경 작업도 많아지므로, 고용량의 데이터 관리 작업이 어려울 뿐만 아니라 제작 시간도 많이 걸려 작업 효율이 저하되는 문제가 있었다.
따라서, 향후, 안정적 작업과 제작 시간 단축으로 효율적인 영상 제작 프로세스를 제공할 수 있는 렌더링 플랫폼 제공 시스템의 개발이 요구되고 있다.
대한민국 공개특허공보 10-2021-0064989호(2021년 06월 03일)
상술한 바와 같은 문제점을 해결하기 위한 본 발명의 일 목적은, 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하고, 클라이언트 디바이스로부터 수신한 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지로 생성함으로써, 효율적인 영상 제작 프로세스를 제공할 수 있는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 렌더링 플랫폼 제공 방법은, 클라이언트 디바이스와 통신 연결되는 서버를 포함하는 렌더링 플랫폼 제공 시스템의 렌더링 플랫폼 제공 방법으로서, (a) 상기 서버가 상기 클라이언트 디바이스로부터 소스 데이터를 수신하는 단계, (b) 상기 서버가 상기 소스 데이터를 기초로 컨텐츠 이미지를 생성하는 단계, (c) 상기 서버가 상기 생성한 컨텐츠 이미지를 상기 클라이언트 디바이스로 전송하는 단계, (d) 상기 서버가 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하는 단계, 및 (e) 상기 서버가 상기 피드백 데이터의 사용자 선택 영역 정보를 기초로 상기 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하는 단계를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (a) 단계는, 상기 소스 데이터를 수신할 때, 아이디어, 스토리, 애니매틱, 그리고 디자인 중 적어도 어느 하나를 포함하는 소스 데이터를 수신하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (b) 단계는, 상기 컨텐츠 이미지를 생성할 때, 상기 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (b) 단계는, 상기 컨텐츠 이미지를 생성할 때, 적어도 하나의 오브젝트를 포함하는 컨텐츠 이미지를 생성하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (d) 단계는, 상기 클라이언트 디바이스가 상기 컨텐츠 이미지에 대한 사용자 영역 선택 명령을 수신하면 상기 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함하는 피드백 데이터를 생성하여 상기 서버로 전송하고, 상기 서버가 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하는 것을 특징으로 한다.
실시 예에 있어서, 상기 사용자 선택 영역 정보는, 상기 컨텐츠 이미지의 선택 영역 위치 정보 및 상기 선택 영역에 대한 렌더링 타입 정보를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 선택 영역에 대한 렌더링 타입 정보는, 프리렌더 또는 리얼타임렌더인 것을 특징으로 한다.
실시 예에 있어서, 상기 컨텐츠 이미지에 대한 사용자 선택 영역은, 적어도 하나의 오브젝트가 포함되는 것을 특징으로 한다.
실시 예에 있어서, 상기 (e) 단계는, 상기 프리렌더 동적 이미지를 생성할 때, 상기 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 상기 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (e) 단계는, 상기 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 상기 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 상기 형성된 디자인을 상기 오브젝트 모델링 과정 및 상기 오브젝트 리깅 과정에 적용하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (e) 단계는, 상기 리얼타임렌더 동적 이미지를 생성할 때, 상기 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 상기 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행하는 것을 특징으로 한다.
실시 예에 있어서, 상기 (e) 단계는, 상기 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 상기 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 상기 형성된 디자인을 상기 오브젝트 모델링 과정에 적용하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 렌더링 플랫폼 제공 시스템은, 클라이언트 디바이스, 그리고 상기 클라이언트 디바이스와 통신 연결되는 서버를 포함하고, 상기 서버는, 상기 클라이언트 디바이스로부터 소스 데이터를 수신하면 상기 소스 데이터를 기초로 컨텐츠 이미지를 생성하여 상기 생성한 컨텐츠 이미지를 상기 클라이언트 디바이스로 전송하고, 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하면 상기 피드백 데이터의 사용자 선택 영역 정보를 기초로 상기 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하는 것을 특징으로 한다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시 예에 따른 렌더링 플랫폼 제공 방법을 제공하는 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상술한 방법 중 어느 하나의 방법을 수행하기 위해 매체에 저장된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같이 본 발명에 따르면, 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하고, 클라이언트 디바이스로부터 수신한 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지로 생성함으로써, 효율적인 영상 제작 프로세스를 제공할 수 있고, 안정적 작업과 제작 시간을 단축할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은, 본 발명에 따른 렌더링 플랫폼 제공 시스템을 설명하기 위한 블럭 구성도이다.
도 2는, 본 발명에 따른 프리렌더 동적 이미지 생성 과정을 설명하기 위한 흐름도이다.
도 3은, 본 발명에 따른 리얼타임렌더 동적 이미지 생성 과정을 설명하기 위한 흐름도이다.
도 4는, 본 발명에 따른 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정의 병렬적 수행을 설명하기 위한 흐름도이다.
도 5는, 본 발명에 따른 프리렌더 동적 이미지 생성 과정에서, 디자인 형성의 병렬적 수행을 설명하기 위한 흐름도이다.
도 6은, 본 발명에 따른 리얼타임렌더 동적 이미지 생성 과정에서, 디자인 형성의 병렬적 수행을 설명하기 위한 흐름도이다.
도 7은, 본 발명에 따른 렌더링 플랫폼 제공 방법을 설명하기 위한 흐름도이다.
도 8a 내지 도8c은, 리얼타임렌더에서 사용자 선택 영역을 포함하는 컨텐츠 이미지를 설명하기 위한 도면이다.
도 9는, 본 발명에 따른 렌더링 플랫폼 제공 방법을 설명하기 위한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
도 1은, 본 발명에 따른 렌더링 플랫폼 제공 시스템을 설명하기 위한 블럭 구성도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 렌더링 플랫폼 제공 시스템은, 클라이언트 디바이스(100)에 네트워크를 통해 통신 연결되는 서버(200)를 포함할 수 있다.
여기서, 클라이언트 디바이스(100)은, PC(Personal Computer), 네트워크 TV(Network TV), HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV(Smart TV), IPTV(Internet Protocol TV) 등과 같은 고정형 디바이스(standing device)와, 스마트 폰(Smart Phone), 태블릿 PC(Tablet PC), 노트북(Notebook), PDA(Personal Digital Assistant) 등과 같은 모바일 디바이스(mobile device or handheld device)가 모두 포함될 수 있다.
그리고, 클라이언트 디바이스(100) 및 서버(200) 사이를 통신 연결하는 네트워크는, 유/무선 네트워크를 모두 포함하는데, 클라이언트 디바이스(100)과 서버(200) 사이에서 페어링 또는/및 데이터 송수신을 위해 다양한 통신 규격 내지 프로토콜을 지원하는 통신 네트워크를 통칭한다.
이러한 유/무선 네트워크는, 규격에 의해 현재 또는 향후 지원될 통신 네트워크를 모두 포함하며, 그를 위한 하나 또는 그 이상의 통신 프로토콜들을 모두 지원 가능하다.
이러한 유/무선 네트워크에는 예컨대, USB(Universal Serial Bus), CVBS(Composite Video Banking Sync), 컴포넌트(Component), S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA: infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE/LTE-A(Long Term Evolution/LTE-Advanced), Wi-Fi 다이렉트(direct)와 같은 무선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜에 의하여 형성될 수 있다.
그리고, 서버(200)는, 클라이언트 디바이스(100)로부터 소스 데이터를 수신하면 소스 데이터를 기초로 컨텐츠 이미지를 생성하여 생성한 컨텐츠 이미지를 클라이언트 디바이스(100)로 전송하고, 클라이언트 디바이스(100)로부터 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하면 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성할 수 있다.
여기서, 서버(200)는, 소스 데이터를 수신할 때, 아이디어, 스토리, 애니매틱, 그리고 디자인 중 적어도 어느 하나를 포함하는 소스 데이터를 수신할 수 있다.
일 예로, 클라이언트 디바이스(100)가 아이디어, 스토리, 스토리보드, 애니매틱 및 디자인 과정을 통해 전처리된 소스 데이터를 생성하여 서버(200)로 전송하면, 서버(200)는, 클라이언트 디바이스(100)로부터 전처리된 소스 데이터를 수신할 수 있다.
다른 일 예로, 클라이언트 디바이스(100)가 아이디어, 스토리, 스토리보드 및 애니매틱 과정을 순차적으로 수행한 제1 소스 데이터와 아이디어, 스토리, 스토리보드, 애니매틱, 및 디자인 과정을 순차적으로 수행한 제2 소스 데이터를 생성하여 서버(200)로 전송하면, 서버(200)는, 클라이언트 디바이스(100)로부터 전처리된 제1 소스 데이터와 제2 소스 데이터를 수신할 수도 있다.
여기서, 서버(200)는, 제1 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 R&D(Research and Development) 과정을 순차 수행하는 제1 수행 과정과 제2 소스 데이터를 기초로 디자인 형성 과정을 수행하는 제2 수행 과정을 동시에 병렬적으로 수행한 후에, 모델링 수행 과정으로 통합될 수 있다.
또한, 서버(200)는, 컨텐츠 이미지를 생성할 때, 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행할 수 있다.
여기서, 서버(200)는, 컨텐츠 이미지를 생성할 때, 적어도 하나의 오브젝트를 포함하는 컨텐츠 이미지를 생성할 수 있다.
다음, 클라이언트 디바이스(100)가 컨텐츠 이미지에 대한 사용자 영역 선택 명령을 수신하고 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함하는 피드백 데이터를 생성하여 서버(200)로 전송하면, 서버(200)는, 클라이언트 디바이스(100)로부터 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신할 수 있다.
여기서, 사용자 선택 영역 정보는, 컨텐츠 이미지의 선택 영역 위치 정보 및 선택 영역에 대한 렌더링 타입 정보를 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지는 않는다.
이때, 선택 영역에 대한 렌더링 타입 정보는, 프리렌더 또는 리얼타임렌더일 수 있다.
그리고, 컨텐츠 이미지에 대한 사용자 선택 영역은, 적어도 하나의 오브젝트가 포함될 수 있다.
이어, 서버(200)는, 프리렌더 동적 이미지를 생성할 때, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행할 수 있다.
여기서, 서버(200)는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정 및 오브젝트 리깅 과정에 적용할 수 있다.
그리고, 서버(200)는, 오브젝트의 애니메이션 과정을 수행한 후에 후처리 과정을 수행할 수 있다.
여기서, 후처리 과정은, VFX(Visual Effects) 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정, 컴포지팅(compositing) 과정, 2D VFX 및 모션 그래픽 과정, 컬러 코렉션(color correction) 과정을 순차적으로 수행할 수 있다.
또한, 서버(200)는, 리얼타임렌더 동적 이미지를 생성할 때, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행할 수 있다.
여기서, 서버(200)는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정에 적용할 수 있다.
그리고, 서버(200)는, 오브젝트의 애니메이션 과정을 수행한 후에, 언리얼 엔진을 사용하여 후처리 과정을 수행할 수 있다.
여기서, 후처리 과정은, 부분 빌드업 과정, 시뮬레이션 과정, 씬 구성 배치 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정을 순차적으로 수행할 수 있다.
일 예로, 부분 빌드업 과정은, 리깅 데이터를 기초로 수행되고, 시뮬레이션 과정은, 미리 형성된 영상 엔진을 기초로 수행될 수 있다.
또한, 서버(200)는, 리얼타임렌더 동적 이미지를 생성할 때, 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 고정 영역과 사용자 선택 영역이 설정되면 설정된 사용자 선택 영역에 대해 리얼타임렌더 동적 이미지를 생성할 수 있다.
한편, 서버(200)는, 클라이언트 디바이스(100)로부터 소스 데이터 및 피드백 데이터를 수신하는 통신부와, 소스 데이터 및 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하는 동적 이미지 생성부를 포함할 수 있다.
여기서, 서버(200)의 통신부는, 무선 인터넷 모듈, 근거리 통신 모듈, 위치 정보 모듈 등을 포함할 수 있다.
무선 인터넷 모듈은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 이동통신망을 통해 무선인터넷 접속을 수행하는 무선 인터넷 모듈은 상기 이동통신 모듈의 일종으로 이해될 수도 있다.
근거리 통신 모듈은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
위치정보 모듈은, 서버의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.
그리고, 서버(200)의 동적 이미지 생성부는, 피드백 데이터를 기초로 컨텐츠 이미지에 사용자 선택 영역이 설정되면 설정된 사용자 선택 영역에 대해 프리렌더 동적 이미지를 생성할 수 있다.
이어, 서버(200)의 동적 이미지 생성부는, 설정된 사용자 선택 영역에 대해 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행하여 프리렌더 동적 이미지를 생성할 수 있다.
여기서, 서버(200)의 동적 이미지 생성부는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정 및 오브젝트 리깅 과정에 적용할 수 있다.
그리고, 서버(200)의 동적 이미지 생성부는, 오브젝트의 애니메이션 과정을 수행한 후에 후처리 과정을 수행할 수 있다.
일 예로, 후처리 과정은, VFX(Visual Effects) 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정, 컴포지팅(compositing) 과정, 2D VFX 및 모션 그래픽 과정, 컬러 코렉션(color correction) 과정을 순차적으로 수행할 수 있다.
또한, 서버(200)의 동적 이미지 생성부는, 피드백 데이터를 기초로 컨텐츠 이미지에 사용자 선택 영역이 설정되면 설정된 사용자 선택 영역에 대해 리얼타임렌더 동적 이미지를 생성할 수 있다.
이어, 서버(200)의 동적 이미지 생성부는, 설정된 사용자 선택 영역에 대해 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행하여 리얼타임렌더 동적 이미지를 생성할 수 있다.
여기서, 서버(200)의 동적 이미지 생성부는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정에 적용할 수 있다.
그리고, 서버(200)의 동적 이미지 생성부는, 오브젝트의 애니메이션 과정을 수행한 후에, 언리얼 엔진을 사용하여 후처리 과정을 수행할 수 있다.
여기서, 후처리 과정은, 부분 빌드업 과정, 시뮬레이션 과정, 씬 구성 배치 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정을 순차적으로 수행할 수 있다.
이와 같이, 본 발명은, 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하고, 클라이언트 디바이스로부터 수신한 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지로 생성함으로써, 효율적인 영상 제작 프로세스를 제공할 수 있고, 안정적 작업과 제작 시간을 단축할 수 있다.
한편 이러한 동작은 서버 상에서 머신러닝에 기반한 동작으로 수행될 수 있다. 이러한 동작은 지도학습을 중점으로한 동작으로 수행될 수 있으며 자세한 동작은 후술하도록 한다.
도 2는, 본 발명에 따른 프리렌더 동적 이미지 생성 과정을 설명하기 위한 흐름도이다.
도 2에 도시된 바와 같이, 본 발명은, 클라이언트 디바이스가 아이디어, 스토리, 스토리보드 및 애니매틱 과정을 순차적으로 수행한 제1 소스 데이터와 아이디어, 스토리, 스토리보드, 애니매틱, 및 디자인 과정을 순차적으로 수행한 제2 소스 데이터를 생성함으로써, 전처리 과정을 수행할 수 있다.
다음, 본 발명은, 제1 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 R&D(Research and Development) 과정을 순차 수행하는 제1 수행 과정과 제2 소스 데이터를 기초로 디자인 형성 과정을 수행하는 제2 수행 과정을 동시에 병렬적으로 수행한 후에, 오브젝트 모델링 수행 과정으로 통합 수행되고, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행함으로써, 프리렌더 동적 이미지 생성 과정을 수행할 수 있다.
여기서, 본 발명은, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정 및 오브젝트 리깅 과정에 적용할 수 있다.
이어, 본 발명은, VFX(Visual Effects) 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정, 컴포지팅(compositing) 과정, 2D VFX 및 모션 그래픽 과정, 컬러 코렉션(color correction) 과정을 순차적으로 수행함으로써, 후처리 과정을 수행할 수 있다.
도 3은, 본 발명에 따른 리얼타임렌더 동적 이미지 생성 과정을 설명하기 위한 흐름도이다.
도 3에 도시된 바와 같이, 본 발명은, 오브젝트 모델링 과정을 수행한 후에, 언리얼 엔진을 사용하여 후처리 과정을 수행할 수 있다.
여기서, 후처리 과정은, 부분 빌드업 과정, 시뮬레이션 과정, 씬 구성 배치 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정을 순차적으로 수행할 수 있다.
일 예로, 부분 빌드업 과정은, 리깅 데이터를 기초로 수행될 수 있고, 시뮬레이션 과정은, 미리 형성된 영상 엔진을 기초로 수행될 수 있다.
도 4는, 본 발명에 따른 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정의 병렬적 수행을 설명하기 위한 흐름도이다.
도 4에 도시된 바와 같이, 본 발명은, 아이디어, 스토리, 스토리보드 및 애니매틱 과정을 순차적으로 수행한 제1 소스 데이터와 아이디어, 스토리, 스토리보드, 애니매틱, 및 디자인 과정을 순차적으로 수행한 제2 소스 데이터를 클라이언트 디바이스가 생성하여 서버로 전송하면, 서버는, 제1 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 R&D(Research and Development) 과정을 순차 수행하는 제1 수행 과정(310)과 제2 소스 데이터를 기초로 디자인 형성 과정을 수행하는 제2 수행 과정(320)을 동시에 병렬적으로 수행한 후에, 모델링 수행 과정으로 통합될 수 있다.
따라서, 본 발명은, 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행함으로써, 효율적인 영상 제작 프로세스를 제공할 수 있어 제작 시간을 단축할 수 있다.
도 5는, 본 발명에 따른 프리렌더 동적 이미지 생성 과정에서, 디자인 형성의 병렬적 수행을 설명하기 위한 흐름도이다.
도 5에 도시된 바와 같이, 본 발명은, 프리렌더 동적 이미지를 생성할 때, 전처리된 소스 데이터를 수신한다(S12).
그리고, 본 발명은, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성한다(S14).
이어, 본 발명은, 오브젝트 모델링 과정을 수행할 수 있다(S16).
다음, 본 발명은, 오브젝트 리깅(rigging) 과정을 수행할 수 있다(S17).
그리고, 본 발명은, 후처리 과정을 수행할 수 있다(S18).
여기서, 후처리 과정은, VFX(Visual Effects) 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정, 컴포지팅(compositing) 과정, 2D VFX 및 모션 그래픽 과정, 컬러 코렉션(color correction) 과정을 순차적으로 수행할 수 있다.
또한, 본 발명은, 컨텐츠 레이아웃 형성 과정(S14)과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고(S19), 형성된 디자인을 오브젝트 모델링 과정(S16) 및 오브젝트 리깅 과정(S17)에 적용할 수 있다.
도 6은, 본 발명에 따른 리얼타임렌더 동적 이미지 생성 과정에서, 디자인 형성의 병렬적 수행을 설명하기 위한 흐름도이다.
도 6에 도시된 바와 같이, 본 발명은, 리얼타임렌더 동적 이미지를 생성할 때, 전처리된 소스 데이터를 수신한다(S22).
그리고, 본 발명은, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성한다(S23).
이어, 본 발명은, 오브젝트 모델링 과정을 수행할 수 있다(S24).
다음, 본 발명은, 오브젝트 리깅(rigging) 과정을 수행할 수 있다(S25).
그리고, 본 발명은, 리깅 데이터를 기초로 부분 빌드업 과정을 수행할 수 있다(S26).
이어, 본 발명은, 미리 형성된 영상 엔진을 기초로 시뮬레이션 과정을 수행할 수 있다(S27).
그리고, 본 발명은, 후처리 과정을 수행할 수 있다(S28).
여기서, 후처리 과정은, 씬 구성 배치 과정, 라이트닝(lighting) 과정, 렌더링(rendering) 과정을 순차적으로 수행할 수 있다.
또한, 본 발명은, 컨텐츠 레이아웃 형성 과정(S24)과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고(S29), 형성된 디자인을 오브젝트 모델링 과정(S24)에 적용할 수 있다.
도 7은, 본 발명에 따른 렌더링 플랫폼 제공 방법을 설명하기 위한 흐름도이다.
도 7에 도시된 바와 같이, 서버(200)는, 클라이언트 디바이스(100)로부터 소스 데이터를 수신하면 소스 데이터를 기초로 컨텐츠 이미지를 생성하여 생성한 컨텐츠 이미지를 클라이언트 디바이스(100)로 전송하고, 클라이언트 디바이스(100)로부터 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하면 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하여 컨텐츠를 제작할 수 있다.
여기서, 서버(200)는, 소스 데이터를 수신할 때, 아이디어, 스토리, 애니매틱, 그리고 디자인 중 적어도 어느 하나를 포함하는 소스 데이터를 수신할 수 있다.
또한, 서버(200)는, 컨텐츠 이미지를 생성할 때, 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행할 수 있다.
여기서, 서버(200)는, 컨텐츠 이미지를 생성할 때, 적어도 하나의 오브젝트를 포함하는 컨텐츠 이미지를 생성할 수 있다.
다음, 클라이언트 디바이스(100)가 컨텐츠 이미지에 대한 사용자 영역 선택 명령을 수신하고 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함하는 피드백 데이터를 생성하여 서버(200)로 전송하면, 서버(200)는, 클라이언트 디바이스(100)로부터 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신할 수 있다.
여기서, 사용자 선택 영역 정보는, 컨텐츠 이미지의 선택 영역 위치 정보 및 선택 영역에 대한 렌더링 타입 정보를 포함할 수 있는데, 이는 일 실시예일 뿐, 이에 한정되지는 않는다.
이때, 선택 영역에 대한 렌더링 타입 정보는, 프리렌더 또는 리얼타임렌더일 수 있다.
그리고, 컨텐츠 이미지에 대한 사용자 선택 영역은, 적어도 하나의 오브젝트가 포함될 수 있다.
도 8a 및 도8b는, 리얼타임렌더에서 사용자 선택 영역을 포함하는 컨텐츠 이미지를 설명하기 위한 도면이다.
도 8a에 도시된 바와 같이, 본 발명은, 리얼타임렌더 동적 이미지를 생성할 때, 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지(300)의 고정 영역(312)과 사용자 선택 영역(314)이 설정되면 설정된 사용자 선택 영역(314)에 대해 리얼타임렌더 동적 이미지를 생성할 수 있다.
다른 실시예로서, 본 발명은, 프리렌더 동적 이미지를 생성할 때, 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지(300)의 고정 영역(312)과 사용자 선택 영역(314)이 설정되면 설정된 사용자 선택 영역(314)에 대해 프리렌더 동적 이미지를 생성할 수도 있다.
한편 도8b를 참고하면, 본 발명의 일 실시예에 따른 서버는 컨텐츠 이미지 상에 모션 정보와 사용자 영역 선택명령을 기초로 선택된 선택 영역을 매칭할 수 있다.
모션 정보는 각 컨텐츠 이미지에 포함된 각 오프젝트의 동적 움직임을 포함하는 정보를 의미할 수 있다.
도 8b에서는 컨텐츠 이미지의 일부 영역에는 많은 수의 오브젝트가 포함되어 있는 영역(315)이 존재할 수 있고, 반면 적은 수의 오브젝트가 포함되어 있는 영역(315)이 존재할 수 있다.
많은 수의 오브젝트가 포함되어 있는 영역에는 복수의 오브젝트 각각의 움직임이 많아 많은 양의 모션 정보가 포함될 수 있다.
반면 오브젝트가 없는 영역에는 오브젝트의 개수가 적어 해당 영역에 포함되는 모션 정보의 양이 적을 수 있다.
서버는 이러한 영역과 모션 정보를 매칭할 수 있다. 구체적으로 서버는 영역과 모션 정보를 라벨링하여 후술하는 머신 러닝의 입력 데이터로 사용될 수 있다.
한편 서버는 사용자 선택 영역에 기초하여 생성되는 이미지에 대응되는 연산량을 결정할 수 있다.
구체적으로 사용자는 전술한 바와 같이 컨텐츠 이미지를 프리렌더 및 리얼타임 렌더로 수행할 수 있는데 사용자가 선택한 명령에 따라 최종 컨텐츠 이미지를 생성하는데 필요한 연산량이 상이할 수 있다.
예를 들어 사용자가 많은 오브젝트가 포함된 영역을 리얼타임렌더로 랜더링 하는 경우 많은 모션 정보와 오브젝트의 수가 포함되어 있어 렌더링 시 만은 연산량이 요구된다.
반면 사용자가 오브젝트가 적은 영역을 선택하여 리얼타임 렌더를 실시하는 경우에는 각 오브젝트의 수 및 모션 정보가 적어 연산량 자체가 적을 수 있다.
한편 서버는 연산량 및 매칭된 상기 사용자 영역 선택 명령을 기초로 선택된 상기 선택 영역이 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 하나에 적합한지 여부를 판단할 수 있다.
구체적으로 컨텐츠의 특정 영역을 리얼타임 렌더로 렌더링하는 경우 결정된 연산량이 서버에 포함된 프로세서의 연산량을 초과하면 서버는 해당 선택 명령이 적절하지 않은 것으로 판단할 수 있다.
한편 이러한 동작을 기초로 서버는 컨텐츠 이미지의 렌더링을 가이드할 수 있다.
도 8c은 서버가 컨텐츠 이미지의 적어도 일부가 프리렌더 동적 이미지 또는 상기 리얼타임렌더 동적 이미지 중 하나로 생성되도록 가이드하는 동작을 설명하기 위한 도면이다.
도 8c를 참고하면 서버는 컨텐츠 이미지 상에 포함된 상기 오브젝트의 분포 정보를 연산할 수 있다.
오브젝트의 분포 정보는 오브젝트가 컨텐츠 이미지 상에서 위치하는 위치 좌표를 포함하는 정보를 의미할 수 있다.
한편 다시 도8c를 참고하면 서버는 메모리 및 메모리와 통신을 수행하는 적어도 하나의 프로세서를 포함할 수 있다.
메모리(210)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
프로세서는 상술한 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)를 포함할 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
한편 서버는 클라이언트 디바이스로부터 선택 영역(D1)을 입력 받고 상술한 렌더링에 필요한 연산량(D2) 및 각 오브젝트의 모션 정보(D3) 및 오브젝트의 분포 정보(D4)를 입력값으로 컨텐츠 이미지의 적어도 일부가 상기 프리렌더 동적 이미지 또는 상기 리얼타임렌더 동적 이미지 중 하나로 생성되도록 가이드하는 데이터(O81)를 출력할 수 있다
추가적으로 서버는 도출된 연산량(D2)에 선택 영역, 모션 정보 및 분포 정보를 라벨링하여 이미지 컨텐츠의 렌더링 형태를 결과로 출력하는 학습데이터를 머신 러닝을 통하여 형성할 수 있다. 이러한 학습데이터 형성에는 지도학습(Supervised Learning)이 수행될 수 있다.
지도 학습 (Supervised Learning)은 훈련 데이터(Training Data)로부터 하나의 함수를 유추해내기 위한 기계 학습(Machine Learning)의 한 방법을 의미할 수 있다.
한편 도8a 내지 도8c에서 설명한 본 발명의 동작은 본 발명의 일 실시예에 불과하며 본 발명의 동작에는 그제한이 없다.도 9는, 본 발명에 따른 렌더링 플랫폼 제공 방법을 설명하기 위한 순서도이다.
도 9에 도시된 바와 같이, 본 발명의 서버는, 클라이언트 디바이스로부터 소스 데이터를 수신할 수 있다(S100).
여기서, 본 발명의 서버는, 아이디어, 스토리, 애니매틱, 그리고 디자인 중 적어도 어느 하나를 포함하는 소스 데이터를 수신할 수 있다.
일 예로, 본 발명의 서버는, 클라이언트 디바이스에서 아이디어, 스토리, 스토리보드, 애니매틱 및 디자인 과정을 통해 전처리된 소스 데이터를 수신할 수 있다.
그리고, 본 발명의 서버는, 소스 데이터를 기초로 컨텐츠 이미지를 생성할 수 있다(S110).
여기서, 본 발명의 서버는, 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행할 수 있다.
또한, 본 발명의 서버는, 적어도 하나의 오브젝트를 포함하는 컨텐츠 이미지를 생성할 수 있다.
이어, 본 발명의 서버는, 생성한 컨텐츠 이미지를 클라이언트 디바이스로 전송할 수 있다(S120).
다음, 본 발명의 서버는, 클라이언트 디바이스로부터 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신할 수 있다(S130).
여기서, 피드백 데이터는, 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함할 수 있다.
일 예로, 사용자 선택 영역 정보는, 컨텐츠 이미지의 선택 영역 위치 정보 및 선택 영역에 대한 렌더링 타입 정보를 포함할 수 있다.
그리고, 본 발명의 서버는, 피드백 데이터의 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성할 수 있다(S140).
여기서, 컨텐츠 이미지에 대한 사용자 선택 영역은, 적어도 하나의 오브젝트가 포함될 수 있다.
일 예로, 본 발명의 서버는, 프리렌더 동적 이미지를 생성할 때, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정 및 후처리 과정을 순차적으로 수행할 수 있다.
이때, 본 발명의 서버는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정 및 오브젝트 리깅 과정에 적용할 수 있다.
다른 일 예로, 본 발명의 서버는, 리얼타임렌더 동적 이미지를 생성할 때, 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정 및 후처리 과정을 순차적으로 수행할 수 있다.
이때, 본 발명의 서버는, 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 형성된 디자인을 오브젝트 모델링 과정에 적용할 수 있다.
이어, 본 발명의 서버는, 컨텐츠 제작 종료 요청이 수신되는지를 확인하고(S150), 컨텐츠 제작 종료 요청이면 컨텐츠 제작을 종료할 수 있다.
이와 같이, 본 발명은, 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하고, 클라이언트 디바이스로부터 수신한 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 기초로 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지로 생성함으로써, 효율적인 영상 제작 프로세스를 제공할 수 있고, 안정적 작업과 제작 시간을 단축할 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100: 클라이언트 디바이스
200: 서버

Claims (10)

  1. 클라이언트 디바이스와 통신 연결되는 서버를 포함하는 렌더링 플랫폼 제공 시스템의 렌더링 플랫폼 제공 방법에 있어서,
    (a) 상기 서버가, 상기 클라이언트 디바이스로부터 소스 데이터를 수신하는 단계;
    (b) 상기 서버가, 상기 소스 데이터를 기초로 컨텐츠 이미지를 생성하는 단계;
    (c) 상기 서버가, 상기 생성한 컨텐츠 이미지를 상기 클라이언트 디바이스로 전송하는 단계;
    (d) 상기 서버가, 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하는 단계; 및
    (e) 상기 서버가, 상기 피드백 데이터의 사용자 선택 영역 정보를 기초로 상기 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하는 단계를 포함하고,
    상기 (d) 단계는,
    상기 클라이언트 디바이스가 상기 컨텐츠 이미지에 대한 사용자 영역 선택 명령을 수신하면 상기 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함하는 피드백 데이터를 생성하여 상기 서버로 전송하는 단계; 및
    상기 서버가 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하는 단계를 포함하며,
    상기 (d) 단계는,
    상기 컨텐츠 이미지 상에 모션 정보와 상기 사용자 영역 선택명령을 기초로 선택된 상기 선택 영역을 매칭하는 단계를 더 포함하고,
    상기 (e) 단계는,
    상기 사용자 선택 영역에 기초하여 생성되는 이미지에 대응되는 연산량을 결정하고,
    상기 연산량 및 매칭된 상기 사용자 영역 선택 명령을 기초로 선택된 상기 선택 영역이 상기 프리렌더 동적 이미지 또는 상기 리얼타임렌더 동적 이미지 중 하나에 적합한지 여부를 판단하는 단계;를 포함하는 것을 특징으로 하는 렌더링 플랫폼 제공 방법.
  2. 제1 항에 있어서,
    상기 (a) 단계는,
    상기 소스 데이터를 수신할 때, 아이디어, 스토리, 애니매틱, 그리고 디자인 중 적어도 어느 하나를 포함하는 소스 데이터를 수신하는 것을 특징으로 하는 렌더링 플랫폼 제공 방법.
  3. 제1 항에 있어서,
    상기 (b) 단계는,
    상기 컨텐츠 이미지를 생성할 때, 상기 소스 데이터를 기초로 컨텐츠 레이아웃 형성 과정과 디자인 형성 과정을 병렬적으로 수행하는 것을 특징으로 하는 렌더링 플랫폼 제공 방법.
  4. 삭제
  5. 삭제
  6. 제1 항에 있어서,
    상기 컨텐츠 이미지 상에 포함된 상기 오브젝트의 분포 정보를 연산하는 단계;
    상기 분포 정보를 기초로 상기 컨텐츠 이미지의 적어도 일부가 상기 프리렌더 동적 이미지 또는 상기 리얼타임렌더 동적 이미지 중 하나로 생성되도록 가이드하는 단계;를 더 포함하는 렌더링 플랫폼 제공 방법.
  7. 제1 항에 있어서,
    상기 (e) 단계는,
    상기 소스 데이터를 기초로 적어도 하나의 오브젝트가 포함된 컨텐츠 레이아웃을 형성하고, 상기 오브젝트 모델링 과정, 테스쳐링(texturing) 과정, 오브젝트 리깅(rigging) 과정, 애니메이션(animation) 과정을 순차적으로 수행하는 것을 특징으로 하는 렌더링 플랫폼 제공 방법.
  8. 제7 항에 있어서,
    상기 (e) 단계는,
    상기 컨텐츠 레이아웃 형성 과정과 동시에 병렬적으로 상기 소스 데이터를 기초로 디자인 형성 과정을 수행하고, 상기 형성된 디자인을 상기 오브젝트 모델링 과정 및 상기 오브젝트 리깅 과정에 적용하는 것을 특징으로 하는 렌더링 플랫폼 제공 방법.
  9. 하드웨어인 컴퓨터와 결합되어, 제1 항 내지 제3 항, 제6 항 내지 제8 항 중 어느 한 항의 렌더링 플랫폼 제공 방법을 수행하기 위해 매체에 저장된, 렌더링 플랫폼 제공 시스템의 렌더링 플랫폼 제공 방법을 제공하는 컴퓨터 프로그램.
  10. 클라이언트 디바이스; 그리고,
    상기 클라이언트 디바이스와 통신 연결되는 서버를 포함하고,
    상기 서버는,
    상기 클라이언트 디바이스로부터 소스 데이터를 수신하면 상기 소스 데이터를 기초로 컨텐츠 이미지를 생성하여 상기 생성한 컨텐츠 이미지를 상기 클라이언트 디바이스로 전송하고, 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하면 상기 피드백 데이터의 사용자 선택 영역 정보를 기초로 상기 컨텐츠 이미지의 사용자 선택 영역을 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성하며,
    상기 클라이언트 디바이스는, 상기 컨텐츠 이미지에 대한 사용자 영역 선택 명령을 수신하면 상기 사용자 영역 선택 명령에 상응하는 사용자 선택 영역 정보를 포함하는 피드백 데이터를 생성하여 상기 서버로 전송하고,
    상기 서버는, 상기 클라이언트 디바이스로부터 상기 컨텐츠 이미지에 대한 사용자 선택 영역 정보를 포함하는 피드백 데이터를 수신하며,
    상기 서버는,
    상기 컨텐츠 이미지 상에 모션 정보와 상기 사용자 영역 선택명령을 기초로 선택된 상기 선택 영역을 매칭을 더 수행하고,
    상기 프리렌더 동적 이미지 또는 리얼타임렌더 동적 이미지 중 적어도 어느 하나로 생성할 시, 상기 사용자 선택 영역에 기초하여 생성되는 이미지에 대응되는 연산량을 결정하고, 상기 연산량 및 매칭된 상기 사용자 영역 선택 명령을 기초로 선택된 상기 선택 영역이 상기 프리렌더 동적 이미지 또는 상기 리얼타임렌더 동적 이미지 중 하나에 적합한지 여부를 판단하는 것을 특징으로 하는 렌더링 플랫폼 제공 시스템.
KR1020210138738A 2021-10-18 2021-10-18 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램 KR102358596B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210138738A KR102358596B1 (ko) 2021-10-18 2021-10-18 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210138738A KR102358596B1 (ko) 2021-10-18 2021-10-18 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램

Publications (1)

Publication Number Publication Date
KR102358596B1 true KR102358596B1 (ko) 2022-02-08

Family

ID=80251588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210138738A KR102358596B1 (ko) 2021-10-18 2021-10-18 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램

Country Status (1)

Country Link
KR (1) KR102358596B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090045143A (ko) * 2006-01-13 2009-05-07 초이스 엔터프라이시즈 엘엘씨 컴퓨터 네트워크 기반 3차원 렌더링 시스템
KR20160102580A (ko) * 2010-10-01 2016-08-30 루씨드 소프트웨어 인코포레이티드 그래픽 객체의 조작
KR20210064989A (ko) 2019-11-26 2021-06-03 로고몬도 주식회사 3차원 모델링의 실시간 렌더링 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090045143A (ko) * 2006-01-13 2009-05-07 초이스 엔터프라이시즈 엘엘씨 컴퓨터 네트워크 기반 3차원 렌더링 시스템
KR20160102580A (ko) * 2010-10-01 2016-08-30 루씨드 소프트웨어 인코포레이티드 그래픽 객체의 조작
KR20210064989A (ko) 2019-11-26 2021-06-03 로고몬도 주식회사 3차원 모델링의 실시간 렌더링 방법

Similar Documents

Publication Publication Date Title
KR102546599B1 (ko) 디스플레이장치, 서버 및 그 제어방법
US10991065B2 (en) Methods and systems for processing graphics
US20170155937A1 (en) Method and apparatus for transmitting video data
US11640650B2 (en) Computing apparatus and operation method of the same
US20130326018A1 (en) Method for Providing Augmented Reality Service, Server and Computer-Readable Recording Medium
WO2016064604A1 (en) Selection strategy for exchanging map information in collaborative multi-user slam systems
US11934777B2 (en) Systems and methods for generating content for a screenplay
KR102481613B1 (ko) 편집 기능을 갖는 3d 웹사이트 제작 플랫폼 제공 시스템, 방법 및 프로그램
US11457289B2 (en) Low latency broadcasting of game engine frames
US20220292690A1 (en) Data generation method, data generation apparatus, model generation method, model generation apparatus, and program
KR102358596B1 (ko) 머신러닝 기반 병렬적 워크 플로우를 제공하는 렌더링 플랫폼 제공 시스템, 방법 및 프로그램
KR20120133571A (ko) 3d 영상변환장치, 3d 영상변환장치에 의해 구현되는 방법 및 그 저장매체
KR20110107802A (ko) 상이한 대상 플랫폼들에 대한 미디어 이식성 및 호환성
US20210289266A1 (en) Video playing method and apparatus
KR102247892B1 (ko) 클라우드 스트리밍 서비스 시스템, 어플리케이션 코드를 이용한 이미지 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
US8947436B2 (en) Method, apparatus and system for dense graph simplification, and recording medium for the same
WO2021109105A1 (en) Synchronization between graphical processing units and display processing units
KR20120133640A (ko) 3d 영상변환장치 그 구현방법 및 그 저장매체
US11381730B2 (en) Feature-based image autofocus
KR100727055B1 (ko) 스크립트 언어를 이용한 게임 제작 시스템 및 게임 제작방법
KR102601159B1 (ko) 버추얼 휴먼 인터렉션 생성 장치 및 그에 대한 방법
US9972064B1 (en) Non-intrusive and low-power recording
KR102366173B1 (ko) 객체에 관한 플로팅 홀로그램을 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US11977672B2 (en) Distributed pose prediction
WO2024056055A1 (zh) 直播特效礼物的生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant