KR101918158B1 - Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof - Google Patents

Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof Download PDF

Info

Publication number
KR101918158B1
KR101918158B1 KR1020160125733A KR20160125733A KR101918158B1 KR 101918158 B1 KR101918158 B1 KR 101918158B1 KR 1020160125733 A KR1020160125733 A KR 1020160125733A KR 20160125733 A KR20160125733 A KR 20160125733A KR 101918158 B1 KR101918158 B1 KR 101918158B1
Authority
KR
South Korea
Prior art keywords
virtual
event
dynamic
data
generating
Prior art date
Application number
KR1020160125733A
Other languages
Korean (ko)
Other versions
KR20170142090A (en
Inventor
신호
엄혜윤
장태수
Original Assignee
주식회사 에이치투앤컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치투앤컴퍼니 filed Critical 주식회사 에이치투앤컴퍼니
Publication of KR20170142090A publication Critical patent/KR20170142090A/en
Application granted granted Critical
Publication of KR101918158B1 publication Critical patent/KR101918158B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking

Abstract

본 발명의 실시 예들은, 360도 VR 영상 제작에 이용되는 콘티 생성 장치 및 방법에 관한 것으로, 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 장치는, 가상 환경, 오브젝트 및 상기 오브젝트에 적용 가능한 이벤트에 대한 데이터를 저장하는 데이터베이스; 상기 데이터베이스로부터 로드된 가상 환경 데이터를 기반으로 가상 공간 내에 가상 환경을 설정하고, 상기 데이터베이스로부터 로드된 오브젝트 데이터 및 이벤트 데이터를 기반으로 상기 가상 공간 내에서 오브젝트의 움직임을 설정하는 가상 환경 이벤트 생성부; 상기 가상 공간을 촬영하는 복수의 가상 카메라를 설정하는 가상 카메라 설정부; 및 이벤트 데이터에 따른 오브젝트의 움직임 발생 시에 상기 복수의 가상 카메라에서 촬영한 프리뷰 영상들을 포함하는, 동적 콘티를 생성하는 동적 콘티 생성부를 포함한다. 본 발명의 실시 예들에 따르면, 360도 VR 환경에서 전방위적으로 발생하는 이벤트를 기록할 수 있는 3차원 동적 콘티를 제공할 수 있다. Embodiments of the present invention relate to an apparatus and method for generating contours used for 360-degree VR image production, and an apparatus for generating a 360-degree VR image according to an embodiment of the present invention includes: A database for storing data on virtual environments, objects, and events applicable to the objects; A virtual environment event generating unit for setting a virtual environment in the virtual space based on the virtual environment data loaded from the database and setting the movement of the object in the virtual space based on the object data and the event data loaded from the database; A virtual camera setting unit for setting a plurality of virtual cameras for photographing the virtual space; And a dynamic conti generator for generating a dynamic contour including preview images taken by the plurality of virtual cameras at the time of occurrence of motion of the object according to the event data. According to embodiments of the present invention, it is possible to provide a three-dimensional dynamic contour capable of recording events occurring all over the 360 degree VR environment.

Description

360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법 및 장치{Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof}TECHNICAL FIELD [0001] The present invention relates to an event-based 3D dynamic conti generating method and apparatus for generating a 360-degree VR image,

본 발명의 실시 예들은, 360도 VR 영상 제작에 이용되는 콘티 생성 장치 및 방법에 관한 것이다. Embodiments of the present invention relate to an apparatus and method for generating contours used in the production of 360 degree VR images.

영화 또는 2D/3D 애니메이션 등의 영상을 컴퓨터를 이용하여 제작할 때 기획 단계에서부터 영상 콘티 작업을 필수적으로 거치게 되는데, 이 경우 일반적으로 단일 카메라를 상정한 단일시점의 콘티 저작 도구가 사용된다. 그러나, 이러한 단일시점의 콘티 저작 도구는 2차원적인 영상 연출에 머물고 있으며, 전방위적인 이벤트 발생과 사용자 인터랙션이 요구되는 360도 VR 영상(또는 306도 VR 콘텐츠)을 위한 콘티 저작 도구로서는 부적합하다. When a video such as a movie or a 2D / 3D animation is produced by using a computer, video conti work is essentially required from a planning stage. In this case, a single-point conti authoring tool assuming a single camera is generally used. However, this single - view conti authoring tool remains in two - dimensional image presentation and is not suitable as a conti - ture authoring tool for 360 - degree VR images (or 306 - degree VR contents) requiring omnidirectional event generation and user interaction.

국내 공개 특허 제 2011-0045719호 (애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템)Korean Patent Publication No. 2011-0045719 (animation production method, computer-readable recording medium in which a program for executing the production method is stored, and online animation production system using the same)

본 발명의 실시 예들은, 360도 VR 환경에서 전방위적으로 발생하는 이벤트를 기록할 수 있는 3차원 동적 콘티 생성 방안을 제공한다. Embodiments of the present invention provide a method for generating a 3D dynamic contiue capable of recording events occurring in all directions in a 360 degree VR environment.

본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 장치는, 가상 환경, 오브젝트 및 상기 오브젝트에 적용 가능한 이벤트에 대한 데이터를 저장하는 데이터베이스; 상기 데이터베이스로부터 로드된 가상 환경 데이터를 기반으로 가상 공간 내에 가상 환경을 설정하고, 상기 데이터베이스로부터 로드된 오브젝트 데이터 및 이벤트 데이터를 기반으로 상기 가상 공간 내에서 오브젝트의 움직임을 설정하는 가상 환경 이벤트 생성부; 상기 가상 공간을 촬영하는 복수의 가상 카메라를 설정하는 가상 카메라 설정부; 및 이벤트 데이터에 따른 오브젝트의 움직임 발생 시에 상기 복수의 가상 카메라에서 촬영한 프리뷰 영상들을 포함하는, 동적 콘티를 생성하는 동적 콘티 생성부를 포함한다. An apparatus for generating an event-based 3D dynamic contest for creating a 360-degree VR image according to an exemplary embodiment of the present invention includes a database for storing data on virtual environments, objects, and events applicable to the objects; A virtual environment event generating unit for setting a virtual environment in the virtual space based on the virtual environment data loaded from the database and setting the movement of the object in the virtual space based on the object data and the event data loaded from the database; A virtual camera setting unit for setting a plurality of virtual cameras for photographing the virtual space; And a dynamic conti generator for generating a dynamic contour including preview images taken by the plurality of virtual cameras at the time of occurrence of motion of the object according to the event data.

일 실시 예에서, 상기 가상 공간은 직육면체이며, 상기 복수의 가상 카메라는 상기 직육면체의 서로 다른 면에 수직한 방향에서 상기 가상 공간을 촬영할 수 있다. In one embodiment, the virtual space is a rectangular parallelepiped, and the plurality of virtual cameras can photograph the virtual space in a direction perpendicular to the different surfaces of the rectangular parallelepiped.

일 실시 예에서, 상기 동적 콘티는, 각각의 가상 카메라의 시점에서 기록된 가상 환경 이미지, 오브젝트 이미지 및 이벤트에 따른 동선 지시선을 더 포함할 수 있다. In one embodiment, the dynamic conti may further include a virtual environment image recorded at the time of each virtual camera, an object image, and a moving line leader according to the event.

일 실시 예에서, 상기 장치는, 각각의 가상 카메라에서 촬영한 프리뷰 영상들을 생성하되, 가상 카메라와 오브젝트 간의 거리의 변화에 따라 상기 오브젝트의 색상이 변화되도록 상기 프리뷰 영상을 생성하는 프리뷰 생성부를 더 포함할 수 있다. In one embodiment, the apparatus further includes a preview generating unit for generating preview images taken by the respective virtual cameras, and generating the preview images so that the colors of the objects are changed in accordance with a change in the distance between the virtual camera and the objects can do.

본 발명의 일 실시 예에 따른 이벤트 기반의 3차원 동적 콘티 생성 방법은, 가상 환경, 오브젝트 및 상기 오브젝트에 적용되는 이벤트 데이터를 로드하는 단계; 로드된 가상 환경 데이터를 기반으로 가상 공간 내에 가상 환경을 설정하는 단계; 로드된 오브젝트 데이터 및 이벤트 데이터를 기반으로 상기 가상 공간 내에서 오브젝트의 움직임을 설정하는 단계; 상기 가상 공간을 촬영하는 복수의 가상 카메라를 설정하는 단계; 및 이벤트 데이터에 따른 오브젝트의 움직임 발생 시에 상기 복수의 가상 카메라에서 촬영한 프리뷰 영상들을 포함하는, 동적 콘티를 생성하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided an event-based 3D dynamic contour generation method comprising: loading a virtual environment, an object, and event data applied to the object; Setting a virtual environment in the virtual space based on the loaded virtual environment data; Setting a movement of an object in the virtual space based on loaded object data and event data; Setting a plurality of virtual cameras for photographing the virtual space; And generating a dynamic contour including preview images taken by the plurality of virtual cameras at the time of occurrence of movement of the object according to the event data.

본 발명의 실시 예들에 따르면, 단일시점에 기반한 종래의 콘티가 전방위적인 이벤트를 기록할 수 없었던 문제점을 해결하여, 360도 VR 환경에서 전방위적으로 발생하는 이벤트를 기록할 수 있는 3차원 동적 콘티를 제공할 수 있다. According to the embodiments of the present invention, there is solved the problem that a conventional conti based on a single viewpoint can not record omni-directional events, and a three-dimensional dynamic contour capable of recording an omnidirectional event in a 360 degree VR environment .

본 발명의 실시 예들에 따르면, 360도 VR 영상을 제작하기 위한 사전 기획 단계에서 기획자의 정확한 의도를 표현할 수 있기 때문에, 기획자와 작업자 간의 원활한 커뮤니케이션이 이루어질 수 있다. According to the embodiments of the present invention, since the intention of the planner can be expressed in the pre-planning step for producing the 360-degree VR image, smooth communication between the planner and the worker can be achieved.

도 1은 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 장치를 설명하기 위한 블록도,
도 2는 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법을 설명하기 위한 흐름도,
도 3의 (a) 내지 도 3의 (e)는 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법을 설명하기 위한 예시도,
도 4는 본 발명의 일 실시 예에 따른 3차원 동적 콘티를 설명하기 위한 예시도,
도 5 및 도 6은 본 발명의 일 실시 예에 따른 가상 카메라와 오브젝트간 거리의 변화에 따라 오브젝트의 색상이 변화되는 프리뷰 영상을 생성하는 방법을 설명하기 위한 예시도.
1 is a block diagram for explaining an event-based 3D dynamic conti generator for producing a 360-degree VR image according to an embodiment of the present invention;
FIG. 2 is a flowchart illustrating an event-based 3D dynamic conti generation method for producing a 360-degree VR image according to an exemplary embodiment of the present invention;
3 (a) to 3 (e) are diagrams for explaining an event-based 3D dynamic conti generation method for producing a 360-degree VR image according to an embodiment of the present invention,
4 is an exemplary view for explaining a 3D dynamic conti according to an embodiment of the present invention,
FIG. 5 and FIG. 6 are views for explaining a method of generating a preview image in which the color of an object is changed according to a change in distance between a virtual camera and an object according to an embodiment of the present invention; FIG.

이하에서, 본 발명의 실시 예들을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하, 첨부되는 도면을 참조하여 본 발명의 실시 예들을 설명한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 장치를 설명하기 위한 블록도이다. 1 is a block diagram for explaining an event-based 3D dynamic conti generator for generating a 360-degree VR image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 장치(이하, 3차원 동적 콘티 생성 장치라 함)는, 데이터베이스(110), 가상 환경 이벤트 생성부(120), 가상 카메라 설정부(130), 프리뷰 생성부(140), 동적 콘티 생성부(150) 및 입출력 인터페이스(160)를 포함한다. 실시 예에 따라, 전술한 구성 요소 중 적어도 하나는 생략될 수 있다. Referring to FIG. 1, an event-based 3D dynamic conti generator (hereinafter referred to as a 3D dynamic contest generator) for producing a 360-degree VR image according to an embodiment of the present invention includes a database 110, An environment event generating unit 120, a virtual camera setting unit 130, a preview generating unit 140, a dynamic conti generator 150, and an input / output interface 160. Depending on the embodiment, at least one of the aforementioned components may be omitted.

데이터베이스(110)는, 환경 데이터베이스(112), 오브젝트 데이터베이스(114) 및 이벤트 데이터베이스(116)를 포함할 수 있다. The database 110 may include an environment database 112, an object database 114, and an event database 116.

환경 데이터베이스(112)는, 가상 환경 생성에 이용되는 가상 환경 데이터를 저장할 수 있다. 가상 환경 데이터는, 예를 들어, 가상 환경을 표현할 수 있는 데이터를 포함할 수 있다. 가상 환경 데이터는, 예를 들어, 일조량 또는 풍량 등의 자연 조건과, 고산 또는 심해 등의 공간 조건을 포함할 수 있다. 가상 환경 데이터는, 예를 들어, 템플릿 형태로 저장되거나 더미(dummy) 파일 형태로 저장될 수 있다. The environment database 112 can store virtual environment data used for creating a virtual environment. The virtual environment data may include, for example, data that can represent the virtual environment. The virtual environment data may include, for example, natural conditions such as the amount of sunshine or wind, and spatial conditions such as high mountain or deep sea. The virtual environment data can be stored, for example, in the form of a template or in the form of a dummy file.

오브젝트 데이터베이스(114)는, 오브젝트 생성에 이용되는 오브젝트 데이터를 저장할 수 있다. 오브젝트는, 예를 들어, 인물, 동물, 식물 또는 기타의 유체물일 수 있다. 오브젝트 데이터는, 오브젝트의 크기 등의 외관을 표현할 수 있는 데이터와, 오브젝트의 강성 및 연성 등의 속성을 표현할 수 있는 데이터를 포함할 수 있다. The object database 114 may store object data used for object creation. The object may be, for example, a person, animal, plant or other fluid. The object data may include data capable of expressing the appearance such as the size of the object and data capable of expressing attributes such as rigidity and ductility of the object.

이벤트 데이터베이스(116)는, 오브젝트에 적용될 이벤트 데이터를 저장할 수 있다. 이벤트는, 예를 들어, 오브젝트의 위치 변경 또는 움직임과 관련된 것일 수 있다. 이벤트 데이터는, 예를 들어, 오브젝트가 소정의 경로를 따라 이동할 수 있도록 방향에 대한 데이터를 포함할 수 있으며, 오브젝트의 이동시에 적용될 속도에 대한 정보를 더 포함할 수 있다. The event database 116 may store event data to be applied to the object. The event may be, for example, related to the repositioning or movement of the object. The event data may include, for example, data on a direction so that the object can move along a predetermined path, and may further include information on a speed to be applied when moving the object.

가상 환경 이벤트 생성부(120)는, 가상 공간 내에 가상 환경을 설정할 수 있다. 가상 환경 이벤트 생성부(120)는, 환경 데이터베이스(112)에 저장된 템플릿 또는 소정의 더미 파일을 로드하고, 로드된 템플릿 또는 더미 파일 이용하여 가상 환경을 설정할 수 있다. 템플릿 또는 더미 파일은, 사용자에 의하여 선택될 수 있다. 실시 예에 따라, 가상 환경 이벤트 생성부(120)는, GUI 등의 사용자 인터페이스를 통하여 사용자로부터 가상 환경과 관련된 데이터를 입력받고, 입력된 데이터를 기반으로 가상 환경을 설정할 수 있다. 설정된 가상 환경은, 입출력 인터페이스(160)를 통하여 사용자에게 제공될 수 있다. The virtual environment event generation unit 120 can set a virtual environment in the virtual space. The virtual environment event generating unit 120 may load a template or a predetermined dummy file stored in the environment database 112 and set a virtual environment using the loaded template or the dummy file. The template or dummy file can be selected by the user. According to an embodiment, the virtual environment event generating unit 120 receives data related to a virtual environment from a user through a user interface such as a GUI, and can set a virtual environment based on the input data. The set virtual environment can be provided to the user through the input / output interface 160.

가상 환경 이벤트 생성부(120)는, 가상 공간 내에 오브젝트를 설정할 수 있다. 가상 환경 이벤트 생성부(120)는, 오브젝트 데이터베이스(114)에 저장된 오브젝트 데이터를 로드하고, 로드된 오브젝트 데이터를 이용하여 가상 공간 내에 오브젝트를 설정할 수 있다. 오브젝트 데이터는, 사용자에 의하여 선택될 수 있다. 실시 예에 따라, 가상 환경 이벤트 생성부(120)는, GUI 등의 사용자 인터페이스를 통하여 사용자로부터 오브젝트와 관련된 데이터를 입력받고, 입력된 데이터를 기반으로 오브젝트를 설정할 수 있다. 설정된 오브젝트는, 입출력 인터페이스(160)를 통하여 사용자에게 제공될 수 있다. The virtual environment event generating unit 120 can set an object in the virtual space. The virtual environment event generation unit 120 can load the object data stored in the object database 114 and set the object in the virtual space using the loaded object data. The object data can be selected by the user. According to an embodiment, the virtual environment event generating unit 120 receives data related to an object from a user through a user interface such as a GUI, and can set an object based on the input data. The set object can be provided to the user through the input / output interface 160. [

가상 환경 이벤트 생성부(120)는, 오브젝트에 대한 이벤트를 설정할 수 있다. 가상 환경 이벤트 생성부(120)는, 이벤트 데이터베이스(116)에 저장된 이벤트 데이터를 로드하고, 로드된 이벤트 데이터를 특정 오브젝트에 적용할 수 있다. 이벤트 데이터와 해당 이벤트가 적용될 오브젝트는, 사용자에 의하여 선택될 수 있다. 실시 예에 따라, 가상 환경 이벤트 생성부(120)는, 특정 오브젝트에 적용될 이벤트에 대한 데이터를 사용자로부터 입력받을 수 있다. 예를 들어, 사용자는 마우스 등의 사용자 인터페이스를 이용하여 오브젝트를 드래그함으로써 해당 오브젝트의 움직임 이벤트를 설정할 수 있다. The virtual environment event generation unit 120 can set an event for the object. The virtual environment event generation unit 120 may load the event data stored in the event database 116 and apply the loaded event data to a specific object. The event data and the object to which the event is to be applied can be selected by the user. According to an embodiment, the virtual environment event generation unit 120 may receive data on an event to be applied to a specific object from a user. For example, a user can set a motion event of a corresponding object by dragging the object using a user interface such as a mouse.

가상 카메라 설정부(130)는, 가상 공간을 촬영할 가상 카메라를 설정할 수 있다. 가상 환경 이벤트 생성부(120)는, 예를 들어, 디폴트로 정해진 특정 위치에 소정 개수의 가상 카메라를 배치할 수 있다. 실시 예에 따라, 가상 환경 이벤트 생성부(120)는, 사용자로부터 가상 카메라의 개수, 가상 카메라를 배치할 위치 및 가상 카메라의 방향에 대한 정보를 입력받고, 입력된 정보를 기반으로 가상 공간 주변에 가상 카메라를 배치할 수 있다. 가상 카메라는, 자신이 배치된 위치에서 가상 공간을 촬영할 수 있다. The virtual camera setting unit 130 can set a virtual camera to photograph the virtual space. The virtual environment event generating unit 120 can arrange a predetermined number of virtual cameras at specific positions determined by default, for example. According to an embodiment, the virtual environment event generation unit 120 receives information on the number of virtual cameras, the location of the virtual camera, and the direction of the virtual camera from the user, receives the information on the direction of the virtual camera, A virtual camera can be arranged. The virtual camera can photograph the virtual space at the position where the virtual camera is disposed.

프리뷰 생성부(140)는, 오브젝트에 적용된 이벤트 데이터에 따라 오브젝트의 움직임이 발생하는 경우, 오브젝트의 움직임을 타임라인에 키프레임 형태로 기록할 수 있다. 프리뷰 생성부(140)는, 가상 카메라를 이용하여 오브젝트의 움직임을 촬영한 프리뷰 영상을 생성하고, 생성된 영상을 입출력 인터페이스(160)를 통하여 사용자에게 제공할 수 있고, 동적 콘티 생성부(150)에게 제공할 수도 있다. The preview generation unit 140 may record the movement of the object in the form of a key frame in the timeline when the motion of the object occurs according to the event data applied to the object. The preview generation unit 140 may generate a preview image of the movement of the object using the virtual camera and provide the generated image to the user through the input / output interface 160. The dynamic generation unit 150 may generate the preview image, .

동적 콘티 생성부(150)는, 3차원 동적 콘티를 생성하고, 생성된 3차원 동적 콘티를 입출력 인터페이스(160)를 통하여 사용자에게 제공할 수 있다. The dynamic conti generator 150 generates a three-dimensional dynamic contour and provides the generated three-dimensional dynamic contour to the user through the input / output interface 160.

입출력 인터페이스(160)는, 마우스 또는 키보드 등의 입력 인터페이스와, 모니터 등의 출력 인터페이스를 포함할 수 있다. 실시 예에 따라, 입출력 인터페이스(160)는, 터치 스크린으로 구성될 수도 있다. The input / output interface 160 may include an input interface such as a mouse or a keyboard, and an output interface such as a monitor. According to the embodiment, the input / output interface 160 may be configured as a touch screen.

도 2는 본 발명의 일 실시 예에 따른 360도 VR 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법을 설명하기 위한 흐름도이다. 실시 예에 따라, 도 2에 도시된 단계들 중 적어도 하나는 생략될 수 있으며, 일부는 그 순서가 바뀔 수 있다. 2 is a flowchart illustrating an event-based 3D dynamic conti generation method for producing a 360-degree VR image according to an embodiment of the present invention. Depending on the embodiment, at least one of the steps shown in Fig. 2 may be omitted, and some of the steps may be reversed.

단계(201)에서, 3차원 동적 콘티 생성 장치는, 가상 환경을 설정할 수 있다. 가상 환경은, 환경 데이터베이스에 저장된 템플릿 또는 소정의 더미 파일을 로드함으로써 설정될 수 있다. 또는, 가상 환경은, GUI 등의 사용자 인터페이스를 통하여 사용자로부터 입력된 데이터를 기반으로 설정될 수 있다. 가상 환경의 일 예를 도 2의 (a)에 도시하였다. 도 2를 참조하면, 소정의 크기를 갖는 직육면체 형태의 가상 공간 내에 가상 환경(220)이 설정되었음을 알 수 있다. 가상 공간은, 직육면체에 한정되지 않으며, 구 형태 등의 다양한 형태로 설정될 수 있다. In step 201, the 3D dynamic conti generating device can set a virtual environment. The virtual environment can be set by loading a template stored in the environment database or a predetermined dummy file. Alternatively, the virtual environment can be set based on data input from a user via a user interface such as a GUI. An example of the virtual environment is shown in FIG. Referring to FIG. 2, a virtual environment 220 is set in a rectangular parallelepiped virtual space having a predetermined size. The virtual space is not limited to a rectangular parallelepiped, and may be set in various forms such as a spherical shape.

단계(203)에서, 3차원 동적 콘티 생성 장치는, 가상 카메라의 위치 및 방향을 설정할 수 있다. 가상 카메라의 위치 및 방향은, 가상 공간의 형태에 따라 자동으로 결정될 수도 있고, 사용자가 지정할 수도 있다. 도 3의 (a)에는, 가상 공간의 3면에 수직한 방향에서 가상 공간을 촬영하도록 3개의 가상 카메라(210)가 배치된 예를 도시하였다. In step 203, the 3D dynamic contute generation device can set the position and direction of the virtual camera. The position and orientation of the virtual camera may be automatically determined according to the shape of the virtual space, or may be designated by the user. 3 (a) shows an example in which three virtual cameras 210 are arranged to photograph a virtual space in a direction perpendicular to three surfaces of the virtual space.

단계(205)에서, 3차원 동적 콘티 생성 장치는, 오브젝트를 설정할 수 있다. 오브젝트는, 오브젝트 데이터베이스에 저장된 오브젝트 데이터들 중 사용자에 의하여 선택된 오브젝트 데이터를 로드함으로써 설정될 수 있다. 3차원 동적 콘티 생성 장치는, 로드된 오브젝트 데이터를 기반으로 가상 공간 내에 오브젝트를 설정할 수 있다. 도 3의 (b)에는, 가상 공간 내에 오브젝트(230)가 배치된 예를 도시하였다. In step 205, the 3D dynamic conti generator can set an object. The object can be set by loading object data selected by the user among object data stored in the object database. The 3D dynamic conti generator can set an object in the virtual space based on the loaded object data. FIG. 3B shows an example in which the object 230 is arranged in the virtual space.

단계(207)에서, 3차원 동적 콘티 생성 장치는, 오브젝트에 대한 이벤트를 설정할 수 있다. 오브젝트에 대한 이벤트는, 예를 들어, 해당 오브젝트의 위치의 변경 또는 소정 방향으로의 움직임을 포함할 수 있다. 오브젝트에 대한 이벤트는, 이벤트 데이터베이스에 저장된 이벤트 데이터를 로드함으로써 설정되거나, 사용자로부터 입력된 데이터를 기반으로 설정될 수 있다. 예를 들어, 사용자는 마우스 등의 입력 인터페이스를 이용하여 오브젝트를 드래그함으로써 해당 오브젝트의 움직임 이벤트를 설정할 수 있다. 도 3의 (c)에는, 오브젝트(230)가 화살표로 표시한 경로를 따라 이동하는 이벤트가 설정된 예를 도시하였다. In step 207, the 3D dynamic conti generator can set an event for the object. The event for the object may include, for example, changing the position of the object or moving in a predetermined direction. The event for the object can be set by loading event data stored in the event database, or can be set based on data input from the user. For example, a user can set a motion event of the object by dragging the object using an input interface such as a mouse. FIG. 3 (c) shows an example in which an event in which the object 230 moves along a path indicated by an arrow is set.

단계(209)에서, 3차원 동적 콘티 생성 장치는, 이벤트별/가상 카메라 시점별 프리뷰 영상을 생성할 수 있다. 예를 들어, 도 3의 (c)에 도시된 바와 같이 오브젝트에 대한 이벤트가 발생한 경우, 해당 이벤트가 발생하는 시간 구간에서 각각의 가상 카메라들(210)이 촬영한 영상을 프리뷰 영상으로 생성할 수 있다. In step 209, the 3D dynamic conti generator may generate a preview image for each event / virtual camera view. For example, as shown in FIG. 3C, when an event for an object occurs, a video image captured by each virtual camera 210 can be generated as a preview image in a time period during which the corresponding event occurs have.

단계(205) 내지 단계(209)는 반복될 수 있다. 예를 들어, 오브젝트(230)에 대한 이벤트 설정 이후에, 도 3의 (d) 및 도 3의 (e)에 도시된 바와 같이 오브젝트(240)가 화살표로 표시된 소정의 경로를 따라 이동하는 이벤트가 설정되었다고 가정하면, 3차원 동적 콘티 생성 장치는, 오브젝트(240)에 대한 이벤트가 발생한 시간 구간에서 각각의 가상 카메라들(210)이 촬영한 영상을 프리뷰 영상으로 생성할 수 있다. Steps 205 to 209 may be repeated. For example, after the event setting for the object 230, an event in which the object 240 moves along a predetermined path indicated by an arrow, as shown in Figs. 3 (d) and 3 (e) The 3D dynamic conti generator can generate a preview image of an image photographed by each virtual camera 210 in a time period during which an event for the object 240 occurs.

단계(209)에서 생성된 프리뷰 영상들은 입출력 인터페이스를 통하여 사용자에게 제공될 수 있으며, 사용자는 프리뷰 영상을 참조하여 오브젝트의 변경/삭제를 수행하거나 이벤트의 변경/삭제를 수행할 수 있다. 한편, 이벤트는 타임라인 상에서 키프레임을 설정하는 방식으로 기록될 수 있으며, 동일한 타임라인을 공유하는 오브젝트별 이벤트 설정이 가능할 수 있다. The preview images generated in step 209 can be provided to the user through the input / output interface. The user can change / delete the object or change / delete the event by referring to the preview image. On the other hand, an event may be recorded in a manner of setting a key frame on the timeline, and event setting for each object sharing the same timeline may be possible.

단계(211)에서, 3차원 동적 콘티 생성 장치는, 전체 이벤트를 포함하는 가상 카메라 시점별 프리뷰 영상을 생성할 수 있다. 예를 들어, 3차원 동적 콘티 생성 장치는, 도 3의 (c)에 도시된 바와 같은 이벤트에 따른 오브젝트(230)의 움직임과 도 3의 (e)에 도시된 바와 같은 이벤트에 따른 오브젝트(240)의 움직임을 모두 포함하는 프리뷰 영상을 생성할 수 있다. In step 211, the 3D dynamic conti generator may generate a preview image for each virtual camera view including the entire event. For example, the three-dimensional dynamic contour generating apparatus may generate a three-dimensional dynamic contour based on the motion of the object 230 in accordance with the event as shown in FIG. 3C and the motion of the object 240 in accordance with the event as shown in FIG. The motion of the preview image can be generated.

단계(213)에서, 3차원 동적 콘티 생성 장치는, 3차원 동적 콘티를 생성할 수 있다. 3차원 동적 콘티는, 가상 카메라 시점별 전체 프리뷰 영상을 포함할 수 있다. 예를 들어, 3차원 동적 콘티는, 도 4에 도시된 바와 같이, 서로 다른 시점(perspective view, top view, front view)을 갖는 3개의 가상 카메라 각각이 복수의 오브젝트들의 움직임을 촬영한 프리뷰 영상들(1st POV, 2nd POV, Nth POV)을 포함할 수 있다. 3차원 동적 콘티는, 하나의 장면(scene)에 포함되는 가상 환경 이미지, 오브젝트 이미지 및 이벤트에 따른 동선 지시선을 더 포함할 수 있으며, 이러한 정보들은 각각의 가상 카메라의 시점에서 기록될 수 있다. 가상 환경 이미지 및 오브젝트 이미지는, 가상 환경 데이터 및 오브젝트 데이터를 로드한 시점에 각각의 가상 카메라에 의하여 생성될 수 있다. 동선 지시선은, 이벤트 데이터를 로드한 시점에, 이벤트 데이터의 분석을 통하여 생성될 수 있다. 동선 지시선은, 오브젝트의 움직임을 나타내는 지시선일 수 있다. In step 213, the 3D dynamic conti generator can generate a 3D dynamic contour. The 3D dynamic conti can include the entire preview image by the virtual camera view point. For example, as shown in FIG. 4, each of three virtual cameras having different viewpoints (perspective view, top view, and front view) may be referred to as a preview image (1st POV, 2nd POV, and Nth POV). The 3D dynamic conti can further include a virtual environment image included in one scene, an object image, and a moving line leader according to an event, and the information can be recorded at the time of each virtual camera. The virtual environment image and the object image can be generated by the respective virtual cameras at the time of loading the virtual environment data and the object data. The copper leader line can be generated through analysis of the event data at the time of loading the event data. The copper leader line may be a leader line indicating the movement of the object.

도 5 및 도 6은 본 발명의 일 실시 예에 따른 가상 카메라와 오브젝트간 거리의 변화에 따라 오브젝트의 색상이 변화되는 프리뷰 영상을 생성하는 방법을 설명하기 위한 예시도이다. 5 and 6 are diagrams for explaining a method of generating a preview image in which the color of an object changes according to a change in distance between a virtual camera and an object according to an exemplary embodiment of the present invention.

프리뷰 생성부는, 프리뷰 영상 생성 시에, 가상 카메라와 오브젝트간의 거리에 따라 오브젝트의 색상을 변화시킬 수 있다. 예를 들어, 프리뷰 생성부는, 도 5에 도시된 바와 같은 색상 변화 기준을 이용하여 프리뷰 영상을 생성할 수 있다. 도 5의 색상 변화 기준은, 가상 카메라와 오브젝트간의 거리가 멀수록(Dmax에 가까워질수록) 오브젝트의 색상을 빨간색으로 표시하고, 가상 공간 내에 존재하는 오브젝트와 가상 카메라 간의 거리가 가까울수록(Dmin에 가까워질수록) 오브젝트의 색상을 파란색으로 표시할 것을 나타낸다. 여기서 Dmax 및 Dmin은, 가상 공간의 크기와 가상 카메라의 위치를 고려하여 사전에 미리 정해질 수 있다. The preview generating unit may change the color of the object according to the distance between the virtual camera and the object at the time of generating the preview image. For example, the preview generating unit may generate a preview image using the color change reference as shown in FIG. 5, the color of the object is displayed in red as the distance between the virtual camera and the object becomes longer (closer to Dmax), and as the distance between the object existing in the virtual space and the virtual camera becomes closer to Dmin And the color of the object is displayed in blue. Here, Dmax and Dmin can be predetermined in advance considering the size of the virtual space and the position of the virtual camera.

예를 들어, 도 6에 도시된 바와 같이 오브젝트에 이벤트가 설정되어 오브젝트가 A-B-C-D의 위치로 순차적으로 이동하였다고 가정하자. 위치 A에서 오브젝트와 가상 카메라(210)간의 거리가 Dmax라고 가정하면 위치 A에서 오브젝트의 색상은 빨간색으로 표시될 수 있고, 위치 B에서는 노란색으로, 위치 C에서는 녹색으로 표시될 수 있다. 위치 D에서 오브젝트와 가상 카메라(210)간의 거리가 Dmin이라고 가정하면 위치 D에서의 오브젝트의 색상은 파란색으로 표시될 수 있다. 이와 같이, 프리뷰 생성부는, 가상 카메라(210)와 오브젝트 간의 거리를 기반으로 프리뷰 영상에 포함되는 오브젝트의 색상을 변화시킬 수 있다. 오브젝트와 가상 카메라(210) 간의 거리는, 오브젝트의 좌표 값과 가상 카메라(210)의 좌표 값의 차이로부터 계산될 수 있다. For example, as shown in FIG. 6, it is assumed that an event is set on an object and the object sequentially moves to a position of A-B-C-D. Assuming that the distance between the object and the virtual camera 210 at position A is Dmax, the color of the object at position A may be displayed in red, at position B at yellow, and at position C green. Assuming that the distance between the object at the position D and the virtual camera 210 is Dmin, the color of the object at the position D can be displayed in blue. In this way, the preview generator can change the color of the object included in the preview image based on the distance between the virtual camera 210 and the object. The distance between the object and the virtual camera 210 can be calculated from the difference between the coordinate value of the object and the coordinate value of the virtual camera 210.

이상에서 설명된 본 발명의 실시 예들은 임의의 다양한 방법으로 구현될 수 있다. 예를 들어, 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 그 조합을 이용하여 구현될 수 있다. 소프트웨어로 구현되는 경우에, 다양한 운영 체제 또는 플랫폼을 이용하는 하나 이상의 프로세서 상에서 실행되는 소프트웨어로서 구현될 수 있다. 추가적으로, 그러한 소프트웨어는 다수의 적합한 프로그래밍 언어들 중에서 임의의 것을 사용하여 작성될 수 있고, 또한 프레임워크 또는 가상 머신에서 실행 가능한 기계어 코드 또는 중간 코드로 컴파일 될 수 있다. The embodiments of the invention described above may be implemented in any of a variety of ways. For example, embodiments of the present invention may be implemented using hardware, software, or a combination thereof. When implemented in software, it may be implemented as software running on one or more processors using various operating systems or platforms. Additionally, such software may be written using any of a number of suitable programming languages, and may also be compiled into machine code or intermediate code executable in a framework or virtual machine.

또한, 본 발명의 실시 예들이 하나 이상의 프로세서 상에서 실행되는 경우 이상에서 논의된 본 발명의 다양한 실시 예들을 구현하는 방법을 수행하기 위한 하나 이상의 프로그램이 기록된 프로세서 판독 가능 매체(예를 들어, 메모리, 플로피 디스크, 하드 디스크, 콤팩트 디스크, 광학 디스크 또는 자기 테이프 등)로 구현될 수 있다. Also, when embodiments of the present invention are implemented on one or more processors, one or more programs for carrying out the methods of implementing the various embodiments of the invention discussed above may be stored on a processor readable medium (e.g., memory, A floppy disk, a hard disk, a compact disk, an optical disk, a magnetic tape, or the like).

Claims (8)

가상 환경, 오브젝트 및 상기 오브젝트에 적용 가능한 이벤트에 대한 데이터를 저장하는 데이터베이스;
상기 데이터베이스로부터 로드된 가상 환경 데이터를 기반으로 가상 공간 내에 가상 환경을 설정하고, 상기 데이터베이스로부터 로드된 오브젝트 데이터 및 이벤트 데이터를 기반으로 상기 가상 공간 내에서 오브젝트의 움직임을 설정하는 가상 환경 이벤트 생성부;
상기 가상 공간을 촬영하는 복수의 가상 카메라를 설정하는 가상 카메라 설정부; 및
이벤트 데이터에 따른 오브젝트의 움직임 발생 시에 상기 복수의 가상 카메라에서 촬영한 프리뷰 영상들을 포함하는, 동적 콘티를 생성하는 동적 콘티 생성부; 및
각각의 가상 카메라에서 촬영한 프리뷰 영상들을 생성하되, 가상 카메라와 오브젝트 간의 거리의 변화에 따라 상기 오브젝트의 색상이 변화되도록 상기 프리뷰 영상을 생성하는 프리뷰 생성부
를 포함하되,
상기 프리뷰 생성부는 제1 거리(Dmax) 및 제2 거리(Dmin) 사이에 대해 미리 지정된 색 중 상기 가상 카메라와 상기 오브젝트 간의 거리와 대응하는 색으로 상기 오브젝트의 색을 설정하는 것을 특징으로 하는 이벤트 기반의 3차원 동적 콘티 생성 장치.
A database for storing data on virtual environments, objects, and events applicable to the objects;
A virtual environment event generating unit for setting a virtual environment in the virtual space based on the virtual environment data loaded from the database and setting the movement of the object in the virtual space based on the object data and the event data loaded from the database;
A virtual camera setting unit for setting a plurality of virtual cameras for photographing the virtual space; And
A dynamic contour generation unit for generating a dynamic contour including preview images taken by the plurality of virtual cameras at the time of occurrence of movement of an object according to event data; And
A preview generating unit for generating preview images taken by the respective virtual cameras so as to change the color of the object in accordance with a change in distance between the virtual camera and the object,
, ≪ / RTI &
Wherein the preview generator sets the color of the object in a color corresponding to a distance between the virtual camera and the object in a predetermined color between the first distance (Dmax) and the second distance (Dmin) Dimensional dynamic contine generation device.
제 1 항에 있어서,
상기 가상 공간은 직육면체이며, 상기 복수의 가상 카메라는 상기 직육면체의 서로 다른 면에 수직한 방향에서 상기 가상 공간을 촬영하는
이벤트 기반의 3차원 동적 콘티 생성 장치.
The method according to claim 1,
Wherein the virtual space is a rectangular parallelepiped, and the plurality of virtual cameras photograph the virtual space in a direction perpendicular to the different surfaces of the rectangular parallelepiped
Event - based 3D dynamic conti generator.
제 2 항에 있어서, 상기 동적 콘티는,
각각의 가상 카메라의 시점에서 기록된 가상 환경 이미지, 오브젝트 이미지 및 이벤트에 따른 동선 지시선을 더 포함하는
이벤트 기반의 3차원 동적 콘티 생성 장치.
3. The apparatus of claim 2,
Further comprising a virtual environment image recorded at a time point of each virtual camera, a moving direction indicator according to an object image and an event
Event - based 3D dynamic conti generator.
삭제delete 이벤트 기반의 3차원 동적 콘티 생성 방법으로서,
가상 환경, 오브젝트 및 상기 오브젝트에 적용되는 이벤트 데이터를 로드하는 단계;
로드된 가상 환경 데이터를 기반으로 가상 공간 내에 가상 환경을 설정하는 단계;
로드된 오브젝트 데이터 및 이벤트 데이터를 기반으로 상기 가상 공간 내에서 오브젝트의 움직임을 설정하는 단계;
상기 가상 공간을 촬영하는 복수의 가상 카메라를 설정하는 단계;
각각의 가상 카메라와 오브젝트 간의 거리의 변화에 따라 상기 오브젝트의 색상이 변화되도록 상기 프리뷰 영상을 생성하는 단계; 및
이벤트 데이터에 따른 오브젝트의 움직임 발생 시에 상기 복수의 가상 카메라에서 촬영한 프리뷰 영상들을 포함하는, 동적 콘티를 생성하는 단계
를 포함하되,
상기 각각의 가상 카메라와 오브젝트 간의 거리의 변화에 따라 상기 오브젝트의 색상이 변화되도록 상기 프리뷰 영상을 생성하는 단계는, 제1 거리(Dmax) 및 제2 거리(Dmin) 사이에 대해 미리 지정된 색 중 상기 가상 카메라와 상기 오브젝트 간의 거리와 대응하는 색으로 상기 오브젝트의 색을 설정하는 단계를 포함하는 이벤트 기반의 3차원 동적 콘티 생성 방법.
A method for generating an event-based three-dimensional dynamic conti,
Loading a virtual environment, an object, and event data applied to the object;
Setting a virtual environment in the virtual space based on the loaded virtual environment data;
Setting a movement of an object in the virtual space based on loaded object data and event data;
Setting a plurality of virtual cameras for photographing the virtual space;
Generating the preview image so that the color of the object is changed according to a change in distance between each virtual camera and the object; And
Generating dynamic contours including preview images photographed by the plurality of virtual cameras at the time of occurrence of movement of an object according to event data
, ≪ / RTI &
Wherein the step of generating the preview image so as to change the color of the object according to a change in the distance between the virtual camera and the object comprises the steps of: And setting the color of the object to a color corresponding to a distance between the virtual camera and the object.
제 5 항에 있어서,
상기 가상 공간은 직육면체이며, 상기 복수의 가상 카메라는 상기 직육면체의 서로 다른 면에 수직한 방향에서 상기 가상 공간을 촬영하는
이벤트 기반의 3차원 동적 콘티 생성 방법.
6. The method of claim 5,
Wherein the virtual space is a rectangular parallelepiped, and the plurality of virtual cameras photograph the virtual space in a direction perpendicular to the different surfaces of the rectangular parallelepiped
Event - based 3D dynamic conti generation method.
제 6 항에 있어서, 상기 동적 콘티는,
각각의 가상 카메라의 시점에서 기록된 가상 환경 이미지, 오브젝트 이미지 및 이벤트에 따른 동선 지시선을 더 포함하는
이벤트 기반의 3차원 동적 콘티 생성 방법.
7. The apparatus of claim 6,
Further comprising a virtual environment image recorded at a time point of each virtual camera, a moving direction indicator according to an object image and an event
Event - based 3D dynamic conti generation method.
삭제delete
KR1020160125733A 2016-06-16 2016-09-29 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof KR101918158B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160075335 2016-06-16
KR20160075335 2016-06-16

Publications (2)

Publication Number Publication Date
KR20170142090A KR20170142090A (en) 2017-12-27
KR101918158B1 true KR101918158B1 (en) 2018-11-14

Family

ID=60938581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160125733A KR101918158B1 (en) 2016-06-16 2016-09-29 Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101918158B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200058990A (en) 2018-11-20 2020-05-28 주식회사 프리네이쳐커머스 Vr content platform and platform service method
KR102262288B1 (en) * 2020-09-16 2021-06-08 주식회사 다베로아트 Realistic exhibition image realization system
KR102474451B1 (en) * 2022-06-02 2022-12-06 주식회사 비브스튜디오스 Apparatus, method, system and program for recording data in virtual production

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077304A (en) * 2006-09-20 2008-04-03 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011194076A (en) * 2010-03-19 2011-10-06 Brother Industries Ltd Device and method for supporting exercise and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077304A (en) * 2006-09-20 2008-04-03 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011194076A (en) * 2010-03-19 2011-10-06 Brother Industries Ltd Device and method for supporting exercise and program

Also Published As

Publication number Publication date
KR20170142090A (en) 2017-12-27

Similar Documents

Publication Publication Date Title
AU2021203688B2 (en) Volumetric depth video recording and playback
Bares et al. Virtual 3D camera composition from frame constraints
US20180205925A1 (en) Three-dimensional map generating and displaying apparatus and method
CN106097435A (en) A kind of augmented reality camera system and method
KR101918158B1 (en) Event based 3D dynamic continuity generating method for producing 360 degree VR video and apparatus thereof
JP7459870B2 (en) Image processing device, image processing method, and program
EP3449390A1 (en) Augmented media
KR102082132B1 (en) Device and Method for new 3D Video Representation from 2D Video
US9396574B2 (en) Choreography of animated crowds
US10032447B1 (en) System and method for manipulating audio data in view of corresponding visual data
US11443450B2 (en) Analyzing screen coverage of a target object
JP7459195B2 (en) Generation device, generation method, and program
EP4125044A2 (en) Image processing apparatus, image processing method, and program
KR20130035485A (en) System for publishing 3d virtual reality moving picture and method for publishing the same
US11393155B2 (en) Method for editing computer-generated images to maintain alignment between objects specified in frame space and objects specified in scene space
US11228706B2 (en) Plate reconstruction of obscured views of a main imaging device using capture device inputs of the same scene
US20210400255A1 (en) Image processing apparatus, image processing method, and program
JP2006352879A (en) Method of identifying and visualizing event in video frame, and system for generating timeline of event in video stream
Kim et al. Vitual Camera Control System for Cinematographic 3D Video Rendering
CN115861509A (en) Virtual vehicle exhibition implementation method, computer device and storage medium
Albuquerque et al. An overview on virtual sets
Jiao Improving Usability of Camera Preview with Aesthetical Rule in Digital Design Environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant