KR20220043454A - 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 - Google Patents

리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 Download PDF

Info

Publication number
KR20220043454A
KR20220043454A KR1020200126863A KR20200126863A KR20220043454A KR 20220043454 A KR20220043454 A KR 20220043454A KR 1020200126863 A KR1020200126863 A KR 1020200126863A KR 20200126863 A KR20200126863 A KR 20200126863A KR 20220043454 A KR20220043454 A KR 20220043454A
Authority
KR
South Korea
Prior art keywords
projector
real
matching
unit
time production
Prior art date
Application number
KR1020200126863A
Other languages
English (en)
Other versions
KR102430737B1 (ko
Inventor
강대일
박병욱
허기택
양성원
박윤수
Original Assignee
동신대학교산학협력단
스튜디오이온 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동신대학교산학협력단, 스튜디오이온 주식회사 filed Critical 동신대학교산학협력단
Priority to KR1020200126863A priority Critical patent/KR102430737B1/ko
Publication of KR20220043454A publication Critical patent/KR20220043454A/ko
Application granted granted Critical
Publication of KR102430737B1 publication Critical patent/KR102430737B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2046Positional adjustment of light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명은, 프로젝터부와; 프로젝터의 위치를 이동시키는 프로젝션 전동제어장치와; 오브젝트의 위치를 분석하여 정합에 필요한 오브젝트의 위치정보를 생성하는 객체분석부와; 오브젝트의 위치와 CG오브젝트의 위치를 정합하는 정합처리부와; 프로젝터 제어모듈;을 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템을 제공할 수 있다. 상기한 바에 따르면 오브젝트 배치에 따른 후보정에 소요되는 시간을 대폭적으로 줄일 수 있음은 물론 불필요한 보정시간에 따른 소요시간 및 제작비용을 줄일 수 있는 효과를 제공할 수 있다.

Description

리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 {OBJECT MATCHING SYSTEM FOR REAL-TIME PRODUCTION AND OBJECT MATCHING METHOD USING THE SAME}
본 발명은 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법에 관한 것으로서, 보다 상세하게는 영상 제작 시 불필요한 보정시간을 줄여 제작에 소요되는 시간을 줄일 수 있으며 이에 따른 제작비를 절감할 수 있는 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 에 관한 것이다.
최근 리얼타임 버추얼 프로덕션기술이 관심을 받고 있다. 이에 따라 버추얼 리얼타임 프로덕션과 관련한 하드웨어와 소프트웨어의 기술 발달도 빠르게 성장하고 있으며, 이러한 추세에 맞추어 컴퓨터 그래픽과 실사 영상의 합성 기술 또한 빠르게 발전하고 있는 상황이다.
이러한 영상합성 기술에 대한 기술의 예로 대한민국 등록특허공보 제10-1249447호는 이동물체의 정보를 분석하는 객체분석모듈과, 객체분석모듈로부터 전달받은 정보를 기초로 이동물체에 관한 정보를 포함하는 내용을 도시화한 가상이미지를 생성하는 CG생성모듈과, CG생성모듈과 연결되어 생성된 가상이미지를 전달받고 영상촬영부로부터 전달된 실사영상을 합성하는 영상합성모듈과, CG생성모듈 및 영상합성모듈 사이에 위치하여 가상이미지의 인터페이스를 수행하는 공유메모리버퍼를 포함하여 구성되고, CG생성모듈 또는 영상합성모듈 중 적어도 어느 일측에는 가상이미지 또는 실사영상을 지연시키기 위한 딜레이부가 구비됨을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법이 개시된 바 있다.
한편, 이러한 종래의 영상 제작방식은, CG 합성을 위하여 촬영 전 지정된 위치에 작업자가 직접 줄자나 레이저 거리측정기를 이용하여 CG오브젝트의 위치를 작업자가 마킹하고, 작업자에 의해 마킹된 곳에 CG오브젝트를 배치 후 세트촬영을 실시하고 후 보정하는 방식을 주로 채택하고 있다.
때문에, 이러한 종래의 영상 제작방식은, 작업자가 수동으로 CG 오브젝트를 배치하는 만큼 작업자가 CG오브젝트의 위치를 마킹하는 과정, 마킹된 곳에 CG오브젝트를 배치하는 과정 및 CG오브젝트의 높이, 크기 등이 표현하고자 하는 물체와 다른 경우 등에 의하여 오차가 필연적으로 발생될 수밖에 없다. 이에, 종래에는 이러한 오차를 보정하기 위하여 후보정 시 해당 편집물들에 대하여 일정한 수정 작업을 하는 것으로 오차 보정을 하고 있는 실정이다.
그런데, 이러한 종래의 영상 제작방식은, 이러한 오차로 인한 불필요한 보정 시간이 소요되고, 이에 늘어나는 제작시간에 의하여 제작비도 증가함은 물론, 프리 프로덕션부터 포스트 프로덕션까지 많은 단계를 필요로 하기 때문에 제작 시간 및 제작비가 증가하는 문제점이 있었다.
대한민국 등록특허공보 제10-1249447호
본 발명은, 영상제작 현장에서 CG공간 내 CG오브젝트 위치와 촬영 스튜디오인 무대공간에서의 오브젝트 위치를 신속하고 정밀하게 정합함으로써, 오브젝트 배치에 따른 후보정에 소요되는 시간을 대폭적으로 줄일 수 있어 불필요한 보정시간에 따른 소요시간 및 제작비용을 줄일 수 있는 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 을 제공하는 것을 목적으로 한다.
또한, 본 발명은 프리 프로덕션부터 포스트 프로덕션까지의 전체단계를 간소화할 수 있어 제작 시간 및 제작비의 증가를 줄일 수 있는 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 을 제공하는 것을 목적으로 한다.
본 발명의 일 측면에 의하면, 본 발명은, 대상인과 오브젝트들이 배치된 무대공간의 상부에 설치되고, 수신된 식별정보를 탑뷰방식으로 무대공간에 투영하는 하나 또는 복수개의 프로젝터들을 포함하는 프로젝터부와; 프로젝터와 연결되며 수신된 제어신호에 의하여 상기 프로젝터의 위치를 이동시키고, 프로젝터의 상태 데이터를 전송하는 프로젝션 전동제어장치와; 무대공간의 상부에 설치되고, 오브젝트의 위치를 분석하여 정합에 필요한 상기 오브젝트의 위치정보를 생성하는 객체분석부와; 프로젝터부로 식별정보 데이터를 전송하며, 가상의 CG공간에서의 CG오브젝트 위치정보와 객체분석부로부터 수신된 오브젝트의 위치정보를 각각 비교분석하고, 오브젝트의 위치와 CG오브젝트의 위치를 정합하는 정합처리부와; 프로젝션 전동제어장치로부터 상태 데이터를 수신하여 정합처리부로 전송하고, 프로젝션 전동제어장치로 제어신호를 전송하는 프로젝터 제어모듈;을 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템을 제공할 수 있다.
여기서, 객체분석부는, 대상인과 오브젝트들에 대한 거리를 측정하는 거리센서와, 대상인과 오브젝트들을 인식하는 이미지인식카메라를 포함하여 구성될 수 있다.
또한, 식별정보는, CG오브젝트의 위치와, 대상인의 동선과, 무대공간의 가상 그리드와, 프로젝터의 동선과, 3D 그래픽 정보를 포함할 수 있다.
프로젝터부는, 천정에 설치되는 지지프레임과, 프로젝터의 개수 및 위치에 대응하여 지지프레임에 결합되는 상부고정유닛과, 상부고정유닛과 연결되고 프로젝터와 결합되어 프로젝터를 지지하는 지지브라켓을 포함하여 구성될 수 있다.
또한, 프로젝션 전동제어장치는, 프로젝터와 결합되고 제어신호에 따라 수평방향에 대하여 X축방향 및 Y축방향으로의 이동이 가능하여 프로젝터의 위치를 이동시키는 이동유닛과, 프로젝터와 결합되고 제어신호에 의하여 각도가 변경되어 프로젝터의 투영각도를 조절하는 각도조절유닛을 포함하여 구성될 수 있다.
정합처리부는, 식별정보가 무대공간에 대하여 1대1 스케일로 투영되도록 구성될 수 있다.
또한, 정합처리부는, CG오브젝트의 재배치에 따른 CG오브젝트와 오브젝트의 위치오차를 자동 분석 및 계산하며, CG오브젝트의 재배치에 대응하여 프로젝터의 위치이동 데이터를 산출하고, 이에 프로젝터 제어모듈은, 정합처리부로부터 프로젝터의 위치이동 데이터를 수신하여, 프로젝터의 위치가 이동되어 재배치되도록 프로젝션 전동제어장치로 제어신호를 전송하도록 구성될 수 있다.
프로젝터 제어모듈은, 정합처리부로부터 위치오차 데이터를 실시간으로 수신하여 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, CG오브젝트의 위치변화에 대응하여 프로젝터의 위치가 이동되도록 프로젝션 전동제어장치로 제어신호를 전송하도록 구성될 수 있다.
정합처리부는, 언리얼 엔진에 플러그인 형태로 적용되며, 식별정보 데이터와, 위치이동 데이터와, 위치오차 데이터와, 상태 데이터를 관리하도록 구성될 수 있다.
본 발명의 다른 측면에 의하면, 본 발명은 프로젝터부에 의하여 대상인과 오브젝트들이 배치된 무대공간의 상부에서 탑뷰방식으로 식별정보를 투영하는 단계와; 객체분석부에서 무대공간의 오브젝트의 위치를 분석하여 오브젝트의 위치정보를 생성하는 단계와; 정합처리부에서 무대공간과 대응되는 가상의 CG공간에서의 CG오브젝트 위치와 오브젝트의 위치정보를 각각 비교분석하여 오브젝트의 위치와 CG오브젝트의 위치를 정합하는 단계와; 프로젝터 제어모듈이 정합처리부로부터 수신된 프로젝터 위치이동 데이터에 의하여 프로젝터부의 위치가 이동되도록 제어신호를 전송하는 단계;를 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 방법을 제공할 수 있다.
여기서, 정합하는 단계는, CG오브젝트를 재배치 하는 경우 프로젝터 제어모듈이 CG오브젝트의 재배치에 따른 CG오브젝트와 오브젝트의 위치오차를 자동 분석 및 계산하며, CG오브젝트의 재배치에 대응하여 프로젝터의 위치이동 데이터를 산출하고, 제어신호를 전송하는 단계는, 프로젝터 제어모듈이 정합처리부로부터 프로젝터의 위치이동 데이터를 수신하여, 프로젝터의 위치가 이동되어 재배치되도록 프로젝션 전동제어장치로 제어신호를 전송할 수 있다.
또한, 제어신호를 전송하는 단계는, 프로젝터 제어모듈이 정합처리부로부터 위치오차 데이터를 실시간으로 수신하여 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, CG오브젝트의 위치변화에 대응하여 프로젝터의 위치가 이동되도록 프로젝션 전동제어장치로 상기 제어신호를 전송할 수 있다.
여기서, 객체분석부는, 대상인과 오브젝트들에 대한 거리를 측정하는 거리센서와, 대상인과 오브젝트들을 인식하는 이미지인식카메라를 포함하여 구성되고, 오브젝트의 위치정보를 생성하는 단계는, 객체분석부가, 거리센서와 이미지인식카메라로부터 대상인과 오브젝트들 각각의 위치와 위치이동을 포함하는 위치정보를 추적할 수 있다.
본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은 영상제작 현장에서 CG공간 내 CG오브젝트 위치와 촬영 스튜디오인 무대공간에서의 오브젝트 위치를 신속하고 정밀하게 정합할 수 있어, 오브젝트 배치에 따른 후보정에 소요되는 시간을 대폭적으로 줄일 수 있음은 물론 불필요한 보정시간에 따른 소요시간 및 제작비용을 줄일 수 있는 효과를 제공할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은 CG오브젝트 위치와 무대공간에서의 오브젝트 위치를 신속하고 정밀하게 정합하고, 실시간 렌더링 엔진을 활용하여 가상세트와 실사 영상을 동시에 촬영하는 버추얼 프로덕션기법을 적용하여, 10단계 이상의 과정이 필요했던 기존과는 달리 프리 프로덕션부터 포스트 프로덕션까지의 전체 단계를 3단계까지 단축시킬 수 있어 제작 시간 및 제작비의 증가를 줄일 수 있는 효과를 제공할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은 액티브 방식의 그린오브젝트와, 프로젝션 제어 기술을 통해 신속하고 정밀한 실시간 무대정합이 가능하기 때문에, 약 30분 내지 1시간 이상 소요되는 CG 합성물 배치 및 촬영 과정을 약 5분 정도로 획기적으로 줄이는 효과를 제공할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 3D엔진에서 결과물의 사전시각화(프리비주얼)가 가능하여, 촬영 전 오브젝트의 실제 움직임이 가능하여 사전시각화 요소에 부합되며, 미세조정된 CG 오브젝트를 사전 시각화하여 결과물 추정이 가능하다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, CG합성에 최적화된 개념정립으로 물리적, 경제적 효과를 얻을 수 있으며, 리얼타임 프로세싱 기술과 언리얼 엔진 제어기술, 액티브 그린오브젝트 매칭기술, 작업시간을 더욱 단축시킬 수 있는 프로젝션 기술로서 종래에 비교하여 보다 업그레이드 된 것이라 볼 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 오브젝트의 수동 배치 시에 발생될 수 있는 시행착오 횟수를 저감시킬 수 있으며, 이에 따라 제작시간 및 CG 오브젝트 운반 기회비용을 절감할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 객체분석부에 의한 오브젝트의 높이, 기울기 등 CG합성 영상에 필요한 오브젝트 위치정보를 정합에 요구되는 수준으로 식별하고, CG오브젝트 위치, 대상인(배우)과 이미지인식카메라의 이동 동선 등의 식별된 정보를 1:1 스케일로 무대공간에 투영하며, 투영 후 CG오브젝트 등의 재배치 시 획득된 데이터를 피드백하여 자동정합(액티브방식 그린 오브젝트) 해줌으로써 CG 합성영상 획득과정에서 발생하는 CG오브젝트 배치 관련 오차를 제거할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 영화, 애니메이션 등 영상제작뿐만 아니라 실시간 렌더링 엔진을 사용하는 VR, AR, MR 분야 등 다양하고 광범위하게 활용 가능하다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 게임엔진을 활용한 크로마키기법을 통한 효과적인 CG합성영상제작 솔류션과 VR/MR 기술을 이용한 가상무대 확인 솔루션에 적용될 수 있으며, 언리얼 엔진과 연계하여 사전 시각화, 세트촬영, 버추얼 카메라, 퍼포먼스 모션캡쳐 및 포스트 프로덕션을 현장에서 실시간으로 진행하여 생산성을 극대화할 수 있다.
또한, 본 발명에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법은, 리얼 타임 버추얼 프로덕션 기술로 적용되어 제작 프로세스를 절감할 수 있으며, CG오브젝트 배치를 위한 미세 조정, 합성시간 등 물리적 요소 또한 절감시킬 수 있으며, 프로젝터 전동제어장치 및 프로젝터 제어모듈을 통하여 언리얼 엔진 기반의 연속 촬영이 가능하다.
도 1은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템의 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터부가 무대공간을 투영하는 것을 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 정합처리부의 데이터 통신 구성도를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터부와 프로젝터 제어모듈에 따른 프로젝션 제어시스템을 개념적으로 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터 위치제어 기능설계 및 현장적용 테스트를 하기 위한 화면을 예시적으로 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터 제어모듈 및 프로젝터 전동제어장치를 통한 프로젝터의 무브먼트 제어기와 제어소프트를 예시적으로 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터, 프로젝터 제어모듈 및 프로젝터 전동제어장치의 제어흐름을 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터, 프로젝터 제어모듈 및 프로젝터 전동제어장치의 데이터 통신 구성을 나타내는 도면이다.
도 9는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터 제어모듈의 데이터 통신 구성을 나타내는 도면이다.
도 10은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터 전동제어장치의 데이터 통신 구성을 나타내는 도면이다.
도 11은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 프로젝터부와 프로젝터 전동제어장치를 나타내는 사시도이다.
도 12는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 지지브라켓의 개략적인 구성을 나타내는 사시도이다.
도 13은 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템에서 이동유닛의 구성을 개략적으로 나타내는 사시도이다.
도 14는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 방법을 나타내는 절차도이다.
도 15는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 방법을 적용한 프로덕션과정을 나타내는 도면이다.
이하, 본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈", "수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였으며, 본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다. 그리고 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
우선, 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템은, 종래의 CG합성을 위한 CG오브젝트 배치 시 수동작업에 의한 필연적으로 발생되는 오차에 따른 후보정 처리비용과, 보정시간을 줄여 영상제작비를 낮출 수 있으며, CG합성 영상에 필요한 오브젝트 데이터를 자동 정합할 수 있는 액티브방식 무대정합기술로서, 이미지 기반 무대공간의 가상 그리드 설정 및 영역을 분할하고, 오브젝트 식별 및 무선통신 기반 오브젝트의 재배치 데이터의 피드백을 할 수 있으며, 언리얼 플러그인을 통한 프로젝터 제어 자동화 시스템으로서 신속하고 정밀한 CG오브젝트 배치를 위한 실시간 무대정합 기술에 관한 것이다.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
먼저, 도 1을 참조하면, 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 시스템(이하 '객체 정합 시스템'이라 한다)은, 프로젝터부(100)와, 프로젝션 전동제어장치(200)와, 객체분석부(300)와, 정합처리부(400)와, 프로젝터 제어모듈(500)을 포함하여 구성될 수 있다.
프로젝터부(100)는, 무대공간으로 광원을 투영할 수 있도록 구성되며, 세부적으로는 도 2에 도시된 바와 같이 무대공간의 상부에서 탑뷰방식으로 광원을 투영할 수 있도록 구성될 수 있다.
도 2를 참조하면, 프로젝터부(100)는, 프로젝터(110)와, 지지프레임(120)과, 상부고정유닛(130)과, 지지브라켓(140,도 11 및 도 13참조)을 포함하여 구성될 수 있다.
여기서, 프로젝터(110)는, 광원을 무대공간으로 투영(투사)할 수 있도록 구성되며, 무대공간으로 설정 패턴 또는 그리드 등 다양한 식별정보를 투영할 수 있다. 이러한 프로젝터(110)는, 대상인(배우)과 오브젝트들이 배치된 무대공간의 상부에 설치되고, 수신된 식별정보를 탑뷰방식으로 무대공간에 투영하도록 구성될 수 있다.
한편, 여기서서 식별정보는, CG오브젝트의 위치와, 대상인의 동선과, 무대공간의 가상 그리드와, 프로젝터(110)의 동선과, 3D 그래픽 정보, 설정 패턴 등 정합에 필요한 다양한 정보들을 포함할 수 있다.
프로젝터(110)는, 하나가 설치될 수 있지만 도시된 바와 같이 무대공간의 다양한 크기를 고려하여 복수개로 구성되는 것이 바람직하며, 투사 광원으로부터 무대에 이르는 거리의 다양한 변화에 대하여 유연한 대응이 가능하도록 고출력 광원을 보유하는 것이 바람직하다.
프로젝터(110)는, 수신된 식별정보 데이터를 통하여 고출력 광원을 통한 배치용 그리드를 무대공간으로 투사할 수 있으며, 무대공간의 직접 투사를 통한 그리드 정확도 및 재배치가 가능하도록 구성될 수 있다.
한편, 프로젝터부(100)는, 도시된 바와 같이 복수개의 프로젝터(110)들을 활용할 경우, 이에 따라 발생되는 분할환경에 대한 멀티조인트(Multi Joint) 프로젝션 기술을 적용할 수 있다. 여기서, 멀티조인트 프로젝션 기술은 복수개의 프로젝터(110) 출력을 위한 레이어 분할 및 투영기술로서, 무대공간으로 입력된 소품, 배우, 이미지인식카메라(320)의 위치, 동선, 방향을 분할된 레이어 영상으로 프로젝션하도록 구성될 수 있다.
지지프레임(120)은, 천정에 고정 설치되며, 도시된 바와 같이 상부고정유닛(130)의 설치가 용이하고 프로젝터(110)의 다양한 위치에 대응하여 그 위치를 용이하게 변경 및 설치할 수 있도록 메쉬형태로 설치될 수 있다.
한편, 프로젝터부(100)는, 프로젝터(110)가 지지프레임(120)에 고정 설치될 수 있도록 전술한 바와 같이 상부고정유닛(130)과 지지브라켓(140)을 포함하여 구성될 수 있으며, 이에 대한 구체적인 설명은 후술되는 도 11 내지 도 13에서 상세하게 살펴보기로 한다.
다음으로 프로젝션 전동제어장치(200)에 대하여 살펴보기로 한다.
프로젝션 전동제어장치(200)는, 프로젝터(110)와 연결되며 수신된 제어신호에 의하여 프로젝터(110)의 위치를 이동시켜 정합처리부(400)와 동기화 시키고, 프로젝터(110)의 상태 데이터를 전송하는 역할을 한다.
여기서, 프로젝션 전동제어장치(200)는, 수신된 제어신호에 의하여 프로젝터(110)의 다방향 위치이동 가능하도록 구성될 수 있으며, 이를 위해 이동유닛(210)과, 각도조절유닛(220)을 포함하여 구성될 수 있으며 이에 대한 상세한 설명은 후술하기로 한다.
객체분석부(300)는, 무대공간의 상부에 설치되고, 오브젝트의 위치를 분석하여 정합에 필요한 오브젝트의 위치정보를 생성하도록 구성될 수 있다. 다시 말해, 객체분석부(300)는, 특정위치에서 (그린)오브젝트의 높이, 기울기 등 CG합성 영상에 필요한 오브젝트 위치정보를 정합에 요구되는 수준으로 식별하도록 구성될 수 있다.
세부적으로, 객체분석부(300)는, 대상인과 오브젝트들에 대한 거리를 측정하는 거리센서(310)와, 대상인과 오브젝트들을 인식하는 이미지인식카메라(320)를 포함하여 구성될 수 있다.
여기서, 거리센서(310)는, 프로젝터(110) 투사 광원으로부터 무대에 이르는 거리를 측정하거나, 무대공간 내의 각 객체에 대한 거리를 측정할 수 있도록 구성되며, 이렇게 측정된 거리데이터는 정합처리부(400)로 전송하도록 구성될 수 있다.
거리센서(310)는, 도시된 바와 같이 프로젝터(110)와 인접하도록 지지프레임(120)에 설치되거나, 프로젝터부(100)와 결합되어 프로젝터부(100)의 이동에 연동하도록 구성될 수 있는 등 다양한 실시예가 가능하다.
이미지인식카메라(320)는, 무대공간에서의 오브젝트의 위치정보를 추적하며, 생성된 오브젝트의 위치정보를 정합처리부(400)로 전송하도록 구성될 수 있다. 여기서, 이미지인식카메라(320)는, 고해상도 이미지 분석 카메라를 사용하는 것이 바람직하나 이에 한정하지는 않는다.
정합처리부(400)는, 프로젝터부(100)로 식별정보 데이터를 전송하며, 가상의 CG공간에서의 CG오브젝트 위치정보와 객체분석부(300)로부터 수신된 오브젝트의 위치정보를 각각 비교분석하고, 오브젝트의 위치와 CG오브젝트의 위치를 정합하는 역할을 한다.
정합처리부(400)는, 객체분석부(300)가 무대공간의 각 오브젝트들의 위치정보를 추적하여 생성된 데이터를 수신하여, 각 오브젝트들의 위치정보를 언리얼 엔진 데이터로 자동 적용하고, 리얼타임 버추얼 프로덕션(사전시각화)에 적용될 수 있다.
정합처리부(400)는, 식별정보가 무대공간에 대하여 1대1 스케일로 투영되도록 구성될 수 있다. 여기서, 정합처리부(400)는, 오브젝트 배치 그리드 투영 제어 알고리즘 및 언리얼 엔진 플러그인을 통하여 오브젝트 재배치를 위한 프로젝터(110) 위치를 제어하도록 구성될 수 있다.
정합처리부(400)는, 언리얼 엔진에 플러그인 형태로 적용되며, 식별정보 데이터와, 위치이동 데이터와, 위치오차 데이터와, 상태 데이터를 관리하도록 구성될 수 있다. 즉, 정합처리부(400)는, 특정한 프로그램의 실행이나 외부 플랫폼이 요구되지 않도록 언리얼 엔진 프로젝트에 플러그인 형태로 적용되어 CG 작업과 동시에 프로젝터(110) 제어가 가능하고, 각 구성에 대한 제어정보가 UI로 제공되어 개별제어 및 전체제어를 가능하게 하여 원활한 CG오브젝트 배치 작업 진행을 수행할 수 있다.
정합처리부(400)는, CG오브젝트의 위치를 엔진 데이터로 직접 관리하고, 정교하고 빠른 CG합성 산출물을 생성할 수 있도록 구성되어 최적의 산출물을 위한 오브젝트 위치 관리가 가능하도록 구성될 수 있다.
정합처리부(400)는 복수개의 이미지인식카메라(320)들로부터 수신된 복수의 이미지를 정합처리하도록 구성될 수 있다.
도 3을 참조하면, 정합처리부(400)는, 통신모듈(410)과, 탑뷰 프로젝션모듈(420)을 포함하여 구성될 수 있다. 여기서, 통신모듈(410)은 프로젝터 제어모듈(500)로 신호를 전송하고 프로젝터 상태데이터를 수신 및 프로젝터(110)로 식별정보를 전송할 수 있도록 구성되며, 블루투스 라이브러리와 데이터 포맷 라이브러리를 포함하여 구성될 수 있다. 탑뷰 프로젝션모듈(420)은, 프로젝터(110)로 설정 패턴, 치수그리드, 동선 및 3D 그래픽을 포함하는 영상을 송출할 수 있도록 하며 좌표계산 라이브러리와, 화면캡쳐 라이브러리를 포함하여 구성될 수 있다.
한편, 정합처리부(400)는, CG오브젝트의 재배치에 따른 CG오브젝트와 오브젝트의 위치오차를 자동 분석 및 계산하며, CG오브젝트의 재배치에 대응하여 프로젝터(110)의 위치이동 데이터를 산출할 수 있다.
도 4는 프로젝션 시스템 개념도를 나타낸 도면으로 도면을 참조하면, 정합처리부(400)는 프로젝션 제어모듈로부터 각 프로젝터(110)의 상태데이터를 수신하고, 영상분배 및 엣지블랜딩을 이용하여 각 프로젝터(110)들로 식별정보를 비롯한 데이터들을 송신하도록 구성될 수 있다. 이때, 정합처리부(400)는 설정패턴, 치수그리드, 동선 및 3D그래픽뷰 등을 포함하년 식별정보를 각 프로젝터(110)들로 전송하여 프로젝터(110)가 무대공간으로 식별정보를 투영할 수 있도록 한다.
정합처리부(400)는, 프로젝터(110) 제어를 위한 언리얼 엔진 플러그인을 적용하며, 언리얼 엔진 플러그인 설계에 따른 다양한 인터페이스와 블루투스 AVCTP(Audio/Vidio Control Transport Protocol)을 통한 프로젝터(110) 제어모듈과의 상호 통신이 가능하다.
정합처리부(400)는, 소품, 배우를 포함하는 오브젝트와, 카메라의 위치, 동선, 방향 등의 데이터 세트를 전달할 구조체 포맷 설계 및 구현(XML 혹은 Json)하여 분할된 레이어 영상으로 프로젝션이 가능하도록 하고, 패턴, 치수, 3D 탑 뷰 화면을 포함하는 식별정보를 산출할 수 있다.
도 5 및 도 6은 정합처리부(400)에서의 프로젝터(110) 위치제어를 수행하는 화면을 예시적으로 나타낸 도면이다.
도 5 및 도 6을 참조하면, 정합처리부(400)는, 프로젝터(110) 위치제어 기능설계 및 현장적용 테스트를 하기 위하여 플러그인 통합 및 활영 진행을 통해 제어를 수행하고, 제어수행을 통한 CG 오브젝트 합성 진행 및 오브젝트 위치 데이터 보정에 따른 오차율 산출, 소품, 배우, 카메라의 위치, 동선, 방향 등 CG 오브젝트 합성 정보 데이터 셋 검증, 언리얼 인터페이스 방식 제어 UI를 통한 제어에 따른 프로젝터(110) 무브먼트 제어 수행상황 및 제어 정밀도 확인 및 현장적용 테스트 결과 피드백을 통한 문제점 확인 및 개선사항 분석할 수 있다.
도 7 내지 도 10은 정합처리부(400)와 프로젝터 제어모듈(500)의 제어흐름을 나타내는 도면으로, 도면을 참조하면, 정합처리부(400)(언리얼 엔진 플러그인)는 프로젝터(110)로 식별정보를 포함하는 영상을 송출하여 프로젝터(110)에서 영상이 출력되게 하고, 프로젝터 제어모듈(500)로부터 신호를 송수신하여 프로젝터(110)의 상태데이터 및 프로젝터(110)의 전원, 포커스, 줌 등과 같은 제어 기능을 수행할 수 있도록 프로젝터 제어신호를 송수신하도록 구성된다. 한편, 도면에서 프로젝터 제어모듈(500), 프로젝터(110), 프로젝션 전동제어장치(200) 각각은 상호 통신이 가능하도록 시리얼 통신포트(RS232 시그널 포트) 또는 디지털 영상 출력포트를 통해 데이터 송수신이 가능하도록 구성될 수 있다.
이하에서는 프로젝터 제어모듈(500)에 대하여 살펴보기로 한다.
프로젝터 제어모듈(500)은, 프로젝션 전동제어장치(200)로부터 상태 데이터를 수신하여 정합처리부(400)로 전송하고, 프로젝션 전동제어장치(200)로 제어신호를 전송하는 역할을 한다.
한편, CG오브젝트의 재배치가 이루어지는 경우 프로젝터 제어모듈(500)은, 정합처리부(400)로부터 프로젝터(110)의 위치이동 데이터를 수신하여, 프로젝터(110)의 위치가 이동되어 재배치되도록 프로젝션 전동제어장치(200)로 제어신호를 전송하도록 구성될 수 있다.
프로젝터 제어모듈(500)은, 정합처리부(400)로부터 위치오차 데이터를 실시간으로 수신하여 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, CG오브젝트의 위치변화에 대응하여 프로젝터(110)의 위치가 이동되도록 프로젝션 전동제어장치(200)로 제어신호를 전송하도록 구성될 수 있다.
도 11 내지 도 13은 프로젝터부(100)와 프로젝션 전동제어장치(200)의 구성을 나타낸 도면이다.
먼저 도 11을 참조하면, 프로젝터부(100)는 지지프레임(120)에 결합되기 위한 상부고정유닛(130)과, 프로젝터(110)와 결합되는 지지브라켓(140)을 포함하여 구성될 수 있다.
여기서, 상부고정유닛(130)은, 프로젝터(110)의 개수 및 위치에 대응하여 지지프레임(120)에 결합되며, 지지프레임(120)과 결합하여 프로젝터(110)를 비롯한, 지지브라켓(140), 프로젝션 전동제어장치(200) 및 나아가 프로젝터 제어모듈(500)을 포함하는 일련의 구성들을 지지할 수 있도록 구성되며, 도시된 바와 같이 지지프레임(120)에 대하여 착탈이 가능한 고리형태로 구성될 수 있다.
도 12를 참조하면, 지지브라켓(140)은, 상부고정유닛(130)과 연결되고 프로젝터(110)와 결합되어 프로젝터(110)를 지지하도록 구성될 수 있다. 세부적으로 지지브라켓(140)은, 프로젝터(110)와 결합되어 프로젝터(110)를 지지하는 역할을 하며, 도시된 바와 같이 프로젝터(110) 사이즈에 따른 4면 위치 조절이 가능하도록 구성될 수 있다.
한편, 지지브라켓(140)은, 탈부착수단을 통하여 프로젝터(110)와 탈부착이 용이하도록 구성될 수 있으며, 다양한 프로젝트의 크기와 호환이 가능하도록 구성될 수 있다. 여기서, 탈부착수단은 체결볼트와 체결너트 등을 포함하여 구성될 수 있다.
프로젝션 전동제어장치(200)는 프로젝터부(100)와 결합되며, 이동유닛(210)과, 각도조절유닛(220)을 포함하여 구성될 수 있다.
도 13을 참조하면, 이동유닛(210)은, 프로젝터(110)와 결합되고 제어신호에 따라 수평방향에 대하여 X축방향 및 Y축방향으로의 이동이 가능하여 프로젝터(110)의 위치를 이동시키는 역할을 한다.
이동유닛(210)은, 도시된 바와 같이 상측이 상부고정유닛(130)과 결합되고 하부로 프로젝터(110)가 연결되어 지지하는 프레임부(211)와, 프레임부(211)와 결합하고 프레임부(211)를 이동시키는 이동부(212)를 포함하여 구성될 수 있다. 이러한 이동유닛(210)은, 공지의 LM가이드를 비롯하여 X축 및 Y축방향으로의 이동이 가능한 구성이라면 모두 적용 가능하다.
각도조절유닛(220)은, 프로젝터(110)와 결합되고 제어신호에 의하여 각도가 변경되어 프로젝터(110)의 투영각도를 조절하도록 구성될 수 있다.
여기서, 각도조절유닛(220)은, 프로젝터(110)를 설정된 각도로 회동시켜 프로젝터(110)의 광원 투사각도를 조절할 수 있는 구성으로, 도시된 바와 같이 프로젝터(110)의 측부에 결합되어 수평방향축을 기준으로 회전시킬 수 있도록 구성될 수 있으나, 이는 일 실시예로 설계에 따라 다양한 각도로의 방향전환이 가능하도록 구성될 수 있으며, 이를 위해 공지의 다양한 각도조절수단이 적용될 수 있다.
여기서, 이동유닛(210)과 각도조절유닛(220)은, 무선통신을 통하여 제어신호를 수신하여 모터구동하는 전동방식의 구성을 적용할 수 있으며, 상기한 목적을 달성할 수 있다면 다양한 공지의 구성이 적용될 수 있다.
상기한 바에 따르면, 본 발명의 객체 정합 시스템은, 빠른 CG 그린오브젝트 합성을 위한 언리얼 엔진 기반 오브젝트(objects) 배치 및 프로젝션 전동제어장치(200)와 프로젝터 제어모듈(500)의 동기화 및 통합이 가능하며, 프로젝터 제어모듈(500) 간의 상호 통신을 위한 블루투스 기반 통신모듈(410) 프로토콜이 설계될 수 있으며, 소품, 배우, 이미지인식카메라(320)의 위치, 동선, 방향 등 필요한 정보를 제공할 데이터 셋 구조를 분석하고, 패턴, 치수, 3D탑뷰 화면 프로젝션을 위한 수치화 데이터 측정 및 설치를 위한 영역지정 맵을 작성하도록 구성될 수 있음은 물론, 동적으로 변하는 무대의 크기를 수용할 수 있도록 프로젝터(110) 배치를 추적하고, 프로젝터(110)의 투사 거리, 투사각, 투사 해상도 등의 요소를 고려하여 설치 환경을 도면화할 수 있다.
이하에서는 본 발명의 실시예에 따른 리얼타임 프로덕션을 위한 객체 정합 방법(이하 '객체 정합 방법'이라 한다)에 대하여 살펴보기로 한다. 이에 앞서 본 발명의 실시예에 따른 객체 정합 방법은, 전술한 본 발명의 객체 정합 시스템을 이용하며 이러한 객체 정합 시스템의 세부구성에 대한 설명은 전술하였으므로 객체 정합 방법에 대하여 중점적으로 살펴보기로 한다.
도 14를 참조하면, 본 발명의 실시예에 따른 객체 정합 방법은, 식별정보를 투영하는 단계(S10)와, 오브젝트의 위치정보를 생성하는 단계(S20)와, 정합하는 단계(S30)와, 제어신호를 전송하는 단계(S40)를 포함하여 구성될 수 있다.
먼저, 식별정보를 투영하는 단계(S10)에서는, 프로젝터부(100)에 의하여 대상인과 오브젝트들이 배치된 무대공간의 상부에서 탑뷰방식으로 식별정보를 투영한다.
오브젝트의 위치정보를 생성하는 단계(S20)에서는, 객체분석부(300)에서 무대공간의 오브젝트의 위치를 분석하여 오브젝트의 위치정보를 생성한다.
여기서, 오브젝트의 위치정보를 생성하는 단계(S20)는, 객체분석부(300)가, 거리센서(310)와 이미지인식카메라(320)로부터 대상인과 오브젝트들 각각의 위치와 위치이동을 포함하는 위치정보를 추적할 수 있다.
정합하는 단계(S30)에서는, 정합처리부(400)에서 무대공간과 대응되는 가상의 CG공간에서의 CG오브젝트 위치와 오브젝트의 위치정보를 각각 비교분석하여 오브젝트의 위치와 CG오브젝트의 위치를 정합한다.
제어신호를 전송하는 단계(S40)에서는, 프로젝터 제어모듈(500)이 정합처리부(400)로부터 수신된 프로젝터 위치이동 데이터에 의하여 프로젝터부(100)의 위치가 이동되도록 제어신호를 전송한다.
한편, 정합하는 단계(S30)는, CG오브젝트를 재배치 하는 경우 프로젝터 제어모듈(500)이 CG오브젝트의 재배치에 따른 CG오브젝트와 오브젝트의 위치오차를 자동 분석 및 계산하며, CG오브젝트의 재배치에 대응하여 프로젝터(110)의 위치이동 데이터를 산출할 수 있다.
이에, 제어신호를 전송하는 단계(S40)는, 프로젝터 제어모듈(500)이 정합처리부(400)로부터 프로젝터(110)의 위치이동 데이터를 수신하여, 프로젝터(110)의 위치가 이동되어 재배치되도록 프로젝션 전동제어장치(200)로 제어신호를 전송할 수 있다.
나아가, 제어신호를 전송하는 단계(S40)는, 프로젝터 제어모듈(500)이 정합처리부(400)로부터 위치오차 데이터를 실시간으로 수신하여 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, CG오브젝트의 위치변화에 대응하여 프로젝터(110)의 위치가 이동되도록 프로젝션 전동제어장치(200)로 제어신호를 전송할 수 있다.
도 15는 전술한 본원 발명의 객체 정합 방법에 따른 프로덕션과정과 기존의 프로덕션과정을 나타낸 도면이다. 도면을 참조하면, 우선 종래의 프로덕션과정은 프리 프로덕션후 CG합성물 배치 및 촬영을 거치고, 이후 2D애니매틱스, 레이아웃 정리,애니메이션,라이팅,랜더링 및 스페셜 이팩트 과정을 거쳐 합성을 하여 마지막으로 포스트 프로덕션 단계를 거친다.
그런데, 여기서 CG합성물 배치 및 촬영과정을 구체적으로 살펴보면, CG오브젝트 위치를 협의하고, 카메라와 배우의 동선을 설정하며, 이에 대응하여 오브젝트 거리를 측정하여 CG오브젝트/동선 마스킹을 하여 준비하여 리허설을 하며, 이러한 러허설과정에서 오브젝트의 재배치 등이 필요하면 오브젝트/동선을 다시 마스킹한 후 카메라 촬영을 하고, 이러한 일련의 과정은 통상 최소 30분에서 1시간 정도가 소요된다.
반면, 본 발명의 객체 정합 시스템 및 객체 정합 방법을 이용하는 경우 개발 프로덕션 과정은, 프리 프로덕션 후 실시간 무대 무대정합 기술인 본 발명의 객체 정합 시스템 및 객체 정합 방법을 실시하고, 바디&페이셜 라이브스트리잉, 버추얼 카메라, 물리 이펙트 및 합성 단계를 순차적으로 거쳐 포스트 프로덕션 단계를 거치는데, 이중 본 발명의 실시간 무대 정합 기술을 적용할 시에는 전술한 바와 같이 탑뷰방식의 프로젝션 제어와 액티브방식 오브젝트 배치를 통하여 종래에 비하여 단계를 대폭적으로 줄일 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100 : 프로젝터부
110 : 프로젝터
120 : 지지프레임
130 : 상부고정유닛
140 : 지지브라켓
200 : 프로젝션 전동제어장치
210 : 이동유닛
211 : 프레임부
212 : 이동부
220 : 각도조절유닛
300 : 객체분석부
310 : 거리센서
320 : 이미지인식카메라
400 : 정합처리부
410 : 통신모듈
420 : 프로젝션모듈
500 : 프로젝터 제어모듈

Claims (13)

  1. 대상인과 오브젝트들이 배치된 무대공간의 상부에 설치되고, 수신된 식별정보를 탑뷰방식으로 상기 무대공간에 투영하는 하나 또는 복수개의 프로젝터들을 포함하는 프로젝터부와;
    상기 프로젝터와 연결되며 수신된 제어신호에 의하여 상기 프로젝터의 위치를 이동시키고, 상기 프로젝터의 상태 데이터를 전송하는 프로젝션 전동제어장치와;
    상기 무대공간의 상부에 설치되고, 상기 오브젝트의 위치를 분석하여 정합에 필요한 상기 오브젝트의 위치정보를 생성하는 객체분석부와;
    상기 프로젝터부로 상기 식별정보 데이터를 전송하며, 가상의 CG공간에서의 CG오브젝트 위치정보와 상기 객체분석부로부터 수신된 상기 오브젝트의 위치정보를 각각 비교분석하고, 상기 오브젝트의 위치와 상기 CG오브젝트의 위치를 정합하는 정합처리부와;
    상기 프로젝션 전동제어장치로부터 상기 상태 데이터를 수신하여 상기 정합처리부로 전송하고, 상기 프로젝션 전동제어장치로 상기 제어신호를 전송하는 프로젝터 제어모듈;을 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  2. 제 1 항에 있어서,
    상기 객체분석부는,
    상기 대상인과 상기 오브젝트들에 대한 거리를 측정하는 거리센서와,
    상기 대상인과 상기 오브젝트들을 인식하는 이미지인식카메라를 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  3. 제 1 항에 있어서,
    상기 식별정보는,
    CG오브젝트의 위치와, 대상인의 동선과, 상기 무대공간의 가상 그리드와, 상기 프로젝터의 동선과, 3D 그래픽 정보를 포함하는 것을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  4. 제 1 항에 있어서,
    상기 프로젝터부는,
    천정에 설치되는 지지프레임과,
    상기 프로젝터의 개수 및 위치에 대응하여 상기 지지프레임에 결합되는 상부고정유닛과,
    상기 상부고정유닛과 연결되고 상기 프로젝터와 결합되어 상기 프로젝터를 지지하는 지지브라켓을 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  5. 제 1 항에 있어서,
    상기 프로젝션 전동제어장치는,
    상기 프로젝터와 결합되고 상기 제어신호에 따라 수평방향에 대하여 X축방향 및 Y축방향으로의 이동이 가능하여 상기 프로젝터의 위치를 이동시키는 이동유닛과,
    상기 프로젝터와 결합되고 상기 제어신호에 의하여 각도가 변경되어 상기 프로젝터의 투영각도를 조절하는 각도조절유닛을 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  6. 제 1 항에 있어서,
    상기 정합처리부는,
    상기 식별정보가 상기 무대공간에 대하여 1대1 스케일로 투영되도록 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  7. 제 1 항에 있어서,
    상기 정합처리부는,
    상기 CG오브젝트의 재배치에 따른 상기 CG오브젝트와 상기 오브젝트의 위치오차를 자동 분석 및 계산하며, 상기 CG오브젝트의 재배치에 대응하여 상기 프로젝터의 위치이동 데이터를 산출하고,
    상기 프로젝터 제어모듈은,
    상기 정합처리부로부터 상기 프로젝터의 위치이동 데이터를 수신하여, 상기 프로젝터의 위치가 이동되어 재배치되도록 상기 프로젝션 전동제어장치로 상기 제어신호를 전송하도록 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  8. 제 7 항에 있어서,
    상기 프로젝터 제어모듈은,
    상기 정합처리부로부터 위치오차 데이터를 실시간으로 수신하여 상기 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, 상기 CG오브젝트의 위치변화에 대응하여 상기 프로젝터의 위치가 이동되도록 상기 프로젝션 전동제어장치로 상기 제어신호를 전송하도록 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  9. 제 7 항에 있어서,
    상기 정합처리부는,
    언리얼 엔진에 플러그인 형태로 적용되며, 상기 식별정보 데이터와, 상기 위치이동 데이터와, 상기 위치오차 데이터와, 상기 상태 데이터를 관리하도록 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 시스템.
  10. 프로젝터부에 의하여 대상인과 오브젝트들이 배치된 무대공간의 상부에서 탑뷰방식으로 식별정보를 투영하는 단계와;
    객체분석부에서 상기 무대공간의 상기 오브젝트의 위치를 분석하여 상기 오브젝트의 위치정보를 생성하는 단계와;
    정합처리부에서 상기 무대공간과 대응되는 가상의 CG공간에서의 CG오브젝트 위치와 상기 오브젝트의 위치정보를 각각 비교분석하여 상기 오브젝트의 위치와 상기 CG오브젝트의 위치를 정합하는 단계와;
    프로젝터 제어모듈이 상기 정합처리부로부터 수신된 프로젝터 위치이동 데이터에 의하여 상기 프로젝터부의 위치가 이동되도록 제어신호를 전송하는 단계;를 포함하여 구성됨을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 방법.
  11. 제 10 항에 있어서,
    상기 정합하는 단계는,
    상기 CG오브젝트를 재배치 하는 경우 상기 프로젝터 제어모듈이 상기 CG오브젝트의 재배치에 따른 상기 CG오브젝트와 상기 오브젝트의 위치오차를 자동 분석 및 계산하며, 상기 CG오브젝트의 재배치에 대응하여 상기 프로젝터의 위치이동 데이터를 산출하고,
    상기 제어신호를 전송하는 단계는,
    상기 프로젝터 제어모듈이 상기 정합처리부로부터 상기 프로젝터의 위치이동 데이터를 수신하여, 상기 프로젝터의 위치가 이동되어 재배치되도록 프로젝션 전동제어장치로 상기 제어신호를 전송하는 것을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 방법.
  12. 제 11 항에 있어서,
    상기 제어신호를 전송하는 단계는,
    상기 프로젝터 제어모듈이 상기 정합처리부로부터 위치오차 데이터를 실시간으로 수신하여 상기 CG오브젝트의 위치변화에 대하여 실시간으로 렌더링하고, 상기 CG오브젝트의 위치변화에 대응하여 상기 프로젝터의 위치가 이동되도록 상기 프로젝션 전동제어장치로 상기 제어신호를 전송하는 것을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 방법.
  13. 제 11 항에 있어서,
    상기 객체분석부는,
    상기 대상인과 상기 오브젝트들에 대한 거리를 측정하는 거리센서와, 상기 대상인과 상기 오브젝트들을 인식하는 이미지인식카메라를 포함하여 구성되고,
    상기 오브젝트의 위치정보를 생성하는 단계는,
    상기 객체분석부가, 상기 거리센서와 상기 이미지인식카메라로부터 상기 대상인과 상기 오브젝트들 각각의 위치와 위치이동을 포함하는 위치정보를 추적하는 것을 특징으로 하는 리얼타임 프로덕션을 위한 객체 정합 방법.
KR1020200126863A 2020-09-29 2020-09-29 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법 KR102430737B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200126863A KR102430737B1 (ko) 2020-09-29 2020-09-29 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200126863A KR102430737B1 (ko) 2020-09-29 2020-09-29 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법

Publications (2)

Publication Number Publication Date
KR20220043454A true KR20220043454A (ko) 2022-04-05
KR102430737B1 KR102430737B1 (ko) 2022-08-10

Family

ID=81181675

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200126863A KR102430737B1 (ko) 2020-09-29 2020-09-29 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법

Country Status (1)

Country Link
KR (1) KR102430737B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212582A (ja) * 2008-02-29 2009-09-17 Nippon Hoso Kyokai <Nhk> バーチャルスタジオ用フィードバックシステム
KR101249447B1 (ko) 2011-05-25 2013-04-15 주식회사 엠비씨씨앤아이 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
KR20160106243A (ko) * 2015-03-02 2016-09-12 한정호 영상스크린 위치감지 빔프로젝션장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212582A (ja) * 2008-02-29 2009-09-17 Nippon Hoso Kyokai <Nhk> バーチャルスタジオ用フィードバックシステム
KR101249447B1 (ko) 2011-05-25 2013-04-15 주식회사 엠비씨씨앤아이 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법
JP2016081497A (ja) * 2014-10-14 2016-05-16 株式会社東通 画像投影方法及び画像投影システム
KR20160106243A (ko) * 2015-03-02 2016-09-12 한정호 영상스크린 위치감지 빔프로젝션장치

Also Published As

Publication number Publication date
KR102430737B1 (ko) 2022-08-10

Similar Documents

Publication Publication Date Title
US9526156B2 (en) System and method for theatrical followspot control interface
JP4615519B2 (ja) 画像投影システム及び画像幾何補正装置
KR101187500B1 (ko) 광 투영 장치, 조명 장치
JP6748961B2 (ja) 投写画像調整システム及び投写画像調整方法
US11711880B2 (en) Visual tracking system and method
CN103019638B (zh) 显示装置、投影仪以及显示方法
US10506207B2 (en) Projection system, method for controlling projection system, and projector
US20080136976A1 (en) Geometric Correction Method in Multi-Projection System
CN110691175B (zh) 演播室中模拟摄像机运动跟踪的视频处理方法及装置
CN110312111B (zh) 用于图像装置的自动校准的装置、系统和方法
JP2003219324A (ja) 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
KR101649753B1 (ko) 다시점 카메라가 획득한 영상을 정합하는 방법 및 다시점 카메라 제어 시스템
EP0998815A1 (en) Virtual positioning media control system
JP6846661B2 (ja) 3次元的な投影対象のための投影方法及び装置
Garcia-Dorado et al. Fully automatic multi-projector calibration with an uncalibrated camera
US9191665B1 (en) Touch system for blue screen
JP5308765B2 (ja) 照明装置
KR102430737B1 (ko) 리얼타임 프로덕션을 위한 객체 정합 시스템 및 이를 이용한 객체 정합 방법
CN111179322A (zh) 基于相机光源阵列的材质测量拍摄图像校准方法及系统
JP2006098255A (ja) 撮影方法、撮影システム、複合装置、3次元形状復元方法、プログラム及び情報記録媒体
WO2021161689A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
EP4026090A1 (en) System and method for controlling a light projector in a construction site
CN112040596B (zh) 虚拟空间灯光控制方法、计算机可读存储介质和系统
JP7361283B2 (ja) 画像投写システム、画像投写システムの制御方法、及びプログラム
JP2019032584A (ja) 機器配置実行、記憶、再現方法、およびそのための装置

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right