KR102549811B1 - Method for correcting positioning information using a plurality of stereo camera devices, computer program - Google Patents

Method for correcting positioning information using a plurality of stereo camera devices, computer program Download PDF

Info

Publication number
KR102549811B1
KR102549811B1 KR1020220127534A KR20220127534A KR102549811B1 KR 102549811 B1 KR102549811 B1 KR 102549811B1 KR 1020220127534 A KR1020220127534 A KR 1020220127534A KR 20220127534 A KR20220127534 A KR 20220127534A KR 102549811 B1 KR102549811 B1 KR 102549811B1
Authority
KR
South Korea
Prior art keywords
camera devices
stereo camera
positioning information
information
space
Prior art date
Application number
KR1020220127534A
Other languages
Korean (ko)
Inventor
손승오
안창현
김준범
Original Assignee
이엑스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이엑스 주식회사 filed Critical 이엑스 주식회사
Priority to KR1020220127534A priority Critical patent/KR102549811B1/en
Priority to KR1020230077824A priority patent/KR20240007591A/en
Application granted granted Critical
Publication of KR102549811B1 publication Critical patent/KR102549811B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 제공하기 위한 컴퓨팅 장치가 개시된다. 본 컴퓨팅 장치는 하나 이상의 코어를 포함하는 프로세서 및 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함할 수 있다. 본 장치가 제공됨으로써, 가상 스튜디오의 추적 카메라 시스템이 저렴하면서도 효과적으로 설치될 수 있다.A computing device for providing a method of operating a multi-sensor-based multi-tracking camera system of a virtual studio is disclosed. The computing device may include a processor including one or more cores and a memory storing instructions executable by the processor. By providing this device, a tracking camera system of a virtual studio can be installed inexpensively and effectively.

Description

복수의 스테레오 카메라 장치를 활용한 포지셔닝 정보에 대한 보정 방법, 컴퓨터 프로그램{METHOD FOR CORRECTING POSITIONING INFORMATION USING A PLURALITY OF STEREO CAMERA DEVICES, COMPUTER PROGRAM}Correction method for positioning information using a plurality of stereo camera devices, computer program

본 개시는 가상 스튜디오에 배치된 복합 센서 기반 다중 추적 카메라 시스템 및 그의 동작 방법에 관한 것이다.The present disclosure relates to a multi-sensor-based multi-tracking camera system deployed in a virtual studio and an operation method thereof.

가상 스튜디오, 가상 프로덕션 기반의 확장 현실 콘텐츠 제작에 있어 가상 공간 내 가상 카메라의 위치와 현실 공간의 위치 정합을 위해 카메라 추적 시스템은 필수적이다. A camera tracking system is essential for matching the position of a virtual camera in a virtual space with that of a real space in the production of virtual studio and virtual production-based augmented reality content.

기존의 카메라 추적 시스템은 가상 스튜디오 내부의 공간에 있어서 카메라에 부착된 특수한 추적장치를 통해 가상 스튜디오 공간에 부착된 마커의 위치를 탐지하여 카메라의 위치를 추산해내는 기술 또는 가상 스튜디오 내부에 추적용 광학 카메라를 설치하고 별도의 촬영용 카메라에 추적용 카메라가 감지할 수 있는 특수한 마커를 설치하여 가상 스튜디오 공간 내부에서의 마커의 위치를 통해 카메라의 위치를 산출해 낼 수 있는 기술 등을 적용하였다.Existing camera tracking systems detect the location of a marker attached to the virtual studio space through a special tracking device attached to the camera in the space inside the virtual studio and estimate the position of the camera, or optical tracking inside the virtual studio. A camera was installed, and a special marker that the tracking camera could detect was installed in a separate shooting camera, and a technology that could calculate the location of the camera through the location of the marker inside the virtual studio space was applied.

외부의 마커를 카메라에 부착된 추적장치를 통해 광학적으로 검출하는 방식은 가상 스튜디오 공간의 크기에 따라 인식이 가능한 다수의 마커를 천정 또는 바닥에 부착하여 이를 통해 카메라를 추적하는 방식으로 추적장치가 검출 가능한 크기의 다수의 마커를 부착하고 이를 보정하는 초기 설치에 상당한 시간이 소요되며, 설치와 보정작업에 있어서 숙련된 인력의 수행여부에 따라 카메라 추적의 정밀도에 오차 발생 가능성이 상존한다.The method of optically detecting external markers through the tracking device attached to the camera is to attach a number of recognizable markers to the ceiling or floor according to the size of the virtual studio space and track the camera through them. Significant time is required for the initial installation of attaching and calibrating a large number of markers of possible size, and there is a possibility of error in the accuracy of camera tracking depending on whether skilled personnel perform the installation and calibration work.

또한, 가상 스튜디오에 다수의 추적용 광학 카메라를 설치하고 특수 마커를 통해 포지션을 추적하는 방식은 추적용 광학 카메라를 가상 스튜디오의 크기에 비례하여 설치되어야 하므로 많은 비용이 들며, 진동에 취약한 추적용 광학 카메라의 특성에 의해 추적장치 부착 구조물 설치와 진동 방지를 위한 구조물 설치가 필수적이다. 이러한 이유로 상기의 방식은 설치에 많은 비용과 시간을 필요로 한다.In addition, the method of installing multiple tracking optical cameras in a virtual studio and tracking the position through special markers is costly because the tracking optical cameras must be installed in proportion to the size of the virtual studio, and the tracking optics are vulnerable to vibration. Due to the characteristics of the camera, it is essential to install a structure for attaching the tracking device and a structure for preventing vibration. For this reason, the above method requires a lot of cost and time for installation.

아울러, 가상 스튜디오의 구조 변경이나 확장 등으로 이전 설치를 하는 경우 초기 설치와 동일한 방법으로 재설치하는 과정이 필요하며, 이에 따른 변경 비용은 초기 설치 비용에 육박한다. 또한 보정과 안정화에 초기 설치와 동일한 시간을 필요로 하여 이동식의 추적 시스템에 적용하기 어려운 단점이 있다.In addition, in the case of previous installation due to structural change or expansion of the virtual studio, a reinstallation process is required in the same way as the initial installation, and the cost of the change due to this is close to the initial installation cost. In addition, there is a disadvantage in that it is difficult to apply to a mobile tracking system because it requires the same time as the initial installation for calibration and stabilization.

이에, 보다 저렴하면서도 효과적으로 종래 기술의 한계점을 극복하는 방법이 필요하다.Accordingly, there is a need for a method of overcoming the limitations of the prior art more inexpensively and effectively.

한국 등록특허 제10-2121287호 (등록일 : 2020.06.04)Korean Patent Registration No. 10-2121287 (registration date: 2020.06.04)

본 개시에 개시된 실시예는 비교적 저렴한 추적 카메라를 적용하여 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템을 제공하는데 그 목적이 있다.An object of the present disclosure is to provide a complex sensor-based multi-tracking camera system of a virtual studio by applying a relatively inexpensive tracking camera.

또한, 본 개시에 개시된 실시예는 공간의 구조 변경이 발생되더라도 저렴하면서도 적응적으로 가상 공간 및 현실 공간 사이의 위치를 정합하는 방법을 제공하는데 그 목적이 있다.In addition, an object of the embodiments disclosed in the present disclosure is to provide a method for matching a location between a virtual space and a real space inexpensively and adaptively even when a space structure is changed.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법은 복수의 스테레오 카메라 장치를 이용하여 상기 가상 스튜디오 내 배치된 원점을 중심으로 상기 가상 스튜디오가 촬영되는 경우, 상기 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신하는 단계; 상기 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성하는 단계; 상기 생성된 3D 공간에서 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정하는 단계; 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화하는 단계; 및 상기 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트하는 단계를 포함할 수 있다.An operating method of a multi-sensor-based multi-tracking camera system of a virtual studio according to an aspect of the present disclosure for achieving the above-described technical problem is to use a plurality of stereo camera devices around an origin disposed in the virtual studio. receiving a photographed image from the plurality of stereo camera devices when is photographed; generating a 3D space based on the origin based on the received captured image; estimating positioning information including spatial information and rotation angles of the plurality of stereo camera devices in the generated 3D space; synchronizing timing for receiving information from a plurality of stereo camera devices; and updating positioning information of a plurality of camera devices in the “3D” space based on information received from the plurality of stereo camera devices.

여기서, 상기 3D 공간을 생성하는 단계는, 상기 원점에 위치한 마커를 인식하는 단계; 및 상기 인식된 마커에 기반하여 상기 원점 중심의 3D 좌표 공간을 생성하는 단계를 포함할 수 있다.Here, the generating of the 3D space may include recognizing a marker located at the origin; and generating a 3D coordinate space centered on the origin based on the recognized marker.

상기 포지셔닝 정보를 추정하는 단계는, 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 연산하는 단계; 상기 연산된 공간 정보 및 회전각을 3각 측량에 기초하여 교차 검증하는 단계; 및 상기 교차 검증된 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 출력하는 단계를 포함할 수 있다.The estimating of the positioning information may include calculating spatial information and rotation angles of the plurality of stereo camera devices; cross-verifying the calculated spatial information and rotation angle based on triangulation; and outputting the cross-verified spatial information and rotation angle of the plurality of stereo camera devices.

상기 타이밍을 동기화하는 단계는, 상기 복수의 스테레오 카메라 장치의 신호 발생 타이밍을 서로 동기화하여, 영상 합성 시 데이터의 프레임 싱크 오류를 방지하는 단계를 포함할 수 있다.Synchronizing the timings may include synchronizing signal generation timings of the plurality of stereo camera devices with each other to prevent a frame sync error of data during image synthesis.

상기 포지셔닝 정보를 업데이트하는 단계는, 관성 측정 센서에 의해 수집된 관성 측정값을 상기 복수의 카메라 장치로부터 수신하는 단계; 및 6 자유도(6 degrees of freedom, 6 DOF)에 기반하여 상기 복수의 카메라 장치의 포지셔닝 정보를 제1 추정하는 단계를 포함할 수 있다.The updating of the positioning information may include receiving an inertial measurement value collected by an inertial measurement sensor from the plurality of camera devices; and first estimating positioning information of the plurality of camera devices based on 6 degrees of freedom (6 DOF).

상기 포지셔닝 정보를 업데이트하는 단계는, 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 산출하는 단계; 및 SLAM(simultaneous localization and mapping) 기반으로 상기 복수의 카메라 장치의 포지셔닝 정보를 제2 추정하는 단계를 포함할 수 있다.The updating of the positioning information may include calculating positioning information including spatial information and rotation angles of a plurality of stereo camera devices; and second estimating positioning information of the plurality of camera devices based on simultaneous localization and mapping (SLAM).

또한, 상기 동작 방법은, 상기 제1 추정 및 제2 추정된 복수의 카메라 장치의 포지셔닝 정보에 대한 보정을 수행하는 단계를 더 포함할 수 있다.In addition, the operating method may further include correcting the first estimated and second estimated positioning information of the plurality of camera devices.

또한, 상기 동작 방법은, 상기 보정을 수행하는 단계 이후에, 보정된 복수의 카메라 장치의 포지셔닝 정보에 대한 Raw 데이터를 생성하는 단계; 상기 생성된 Raw 데이터에 필터 캘리브레이션을 수행하는 단계; 상기 필터 캘리브레이션이 적용된 포지셔닝 정보를 산출하는 단계; 및 상기 산출된 포지셔닝 정보에 기반하여 영상 합성을 수행하는 단계를 더 포함할 수 있다.In addition, the operating method may include, after the performing of the correction, generating raw data for the corrected positioning information of the plurality of camera devices; performing filter calibration on the generated raw data; Calculating positioning information to which the filter calibration is applied; and performing image synthesis based on the calculated positioning information.

또한, 본 개시의 일 측면에 따른 컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램가 제공될 수 있는데, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 수행하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은, 복수의 스테레오 카메라 장치를 이용하여 상기 가상 스튜디오 내 배치된 원점을 중심으로 상기 가상 스튜디오가 촬영되는 경우, 상기 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신하는 동작; 상기 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성하는 동작; 상기 생성된 3D 공간에서 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정하는 동작; 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화하는 동작; 및 상기 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트하는 동작을 포함할 수 있다.In addition, a computer program stored in a computer readable storage medium according to an aspect of the present disclosure may be provided. When the computer program is executed on one or more processors, the method of operating the multi-sensor-based multi-tracking camera system of the virtual studio may be performed. In order to perform the following operations, the operations are, when the virtual studio is photographed around the origin disposed in the virtual studio using a plurality of stereo camera devices, the captured image is received from the plurality of stereo camera devices action; generating a 3D space based on the origin based on the received captured image; estimating positioning information including spatial information and rotation angles of the plurality of stereo camera devices in the generated 3D space; synchronizing timing for receiving information from a plurality of stereo camera devices; and updating positioning information of a plurality of camera devices in the “3D” space based on information received from the plurality of stereo camera devices.

또한, 본 개시의 일 측면에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 제공하기 위한 컴퓨팅 장치는 하나 이상의 코어를 포함하는 프로세서; 및 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하는 메모리를 포함할 수 있다.In addition, a computing device for providing a method of operating a multi-sensor-based multi-tracking camera system of a virtual studio according to an aspect of the present disclosure includes a processor including one or more cores; and a memory for storing instructions executable by the processor.

상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는, 복수의 스테레오 카메라 장치를 이용하여 상기 가상 스튜디오 내 배치된 원점을 중심으로 상기 가상 스튜디오가 촬영되는 경우, 상기 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신하고, 상기 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성하며, 상기 생성된 3D 공간에서 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정하며, 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화하고, 상기 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트하도록 구성될 수 있다.When the instructions are executed by the processor, the processor, when the virtual studio is captured using a plurality of stereo camera devices around the origin disposed in the virtual studio, captures images from the plurality of stereo camera devices. receiving, based on the received captured image, generating a 3D space based on the origin, estimating positioning information including space information and rotation angles of the plurality of stereo camera devices in the generated 3D space, and plural It may be configured to synchronize timing for receiving information from the stereo camera devices of the , and update positioning information for the plurality of camera devices on the 3D space based on the information received from the plurality of stereo camera devices.

이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, a computer program stored in a computer readable recording medium for execution to implement the present disclosure may be further provided.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, a computer readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 전술한 과제 해결 수단에 의하면, 비교적 저렴하게 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템이 제공될 수 있으며, 공간의 구조 변경이 발생되더라도 저렴하면서도 적응적으로 가상 공간 및 현실 공간 사이의 위치가 정합되는 방법이 제공되는 효과를 제공한다.According to the above-mentioned problem-solving means of the present disclosure, a multi-sensor-based multi-tracking camera system of a virtual studio can be provided at a relatively low cost, and even if the structure of the space is changed, the position between the virtual space and the real space can be inexpensively and adaptively Provides the effect provided by the method in which is matched.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시 예에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템을 개략적으로 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템을 구성하는 컴퓨팅 장치 및 카메라 장치의 구성을 나타내는 상대 블록도,
도 3은 본 발명의 일 실시 예에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 나타내는 대표적인 시퀀스도이며,
도 4는 본 발명의 일 실시 예에 따른 가상 스튜디오에 배치된 복수의 카메라 장치를 이용하여 가상 스튜디오를 3차원 좌표에 표현하기 위한 방법을 설명하기 위한 도면,
도 5는 본 발명의 일 실시 예에 따른 3D 좌표 공간을 생성하는 방법을 나타내는 시퀀스도,
도 6은 본 발명의 일 실시 예에 따른 복수의 카메라 장치의 3D 공간 좌표 및 회전각을 결정하는 방법을 나타내는 시퀀스도, 그리고,
도 7은 본 발명의 일 실시 예에 따른 복수의 카메라 장치의 포지셔닝 정보를 업데이트하는 방법을 나타내는 시퀀스도이다.
1 is a diagram for schematically explaining a multi-sensor-based multi-tracking camera system of a virtual studio according to an embodiment of the present invention;
2 is a relative block diagram showing the configuration of a computing device and a camera device constituting a complex sensor-based multi-tracking camera system of a virtual studio according to an embodiment of the present invention;
3 is a representative sequence diagram illustrating an operating method of a multi-sensor-based multi-tracking camera system of a virtual studio according to an embodiment of the present invention;
4 is a view for explaining a method for expressing a virtual studio in three-dimensional coordinates using a plurality of camera devices arranged in the virtual studio according to an embodiment of the present invention;
5 is a sequence diagram illustrating a method of generating a 3D coordinate space according to an embodiment of the present invention;
6 is a sequence diagram illustrating a method of determining 3D spatial coordinates and rotation angles of a plurality of camera devices according to an embodiment of the present invention;
7 is a sequence diagram illustrating a method of updating positioning information of a plurality of camera devices according to an embodiment of the present invention.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numbers designate like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure belongs is omitted. The term 'unit, module, member, or block' used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'units, modules, members, or blocks' may be implemented as one component, It is also possible that one 'part, module, member, block' includes a plurality of components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우 뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case of being directly connected but also the case of being indirectly connected, and indirect connection includes being connected through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only a case where a member is in contact with another member, but also a case where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시 예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템(1, 이하 “시스템”이라 칭하기로 함)을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a multi-sensor-based multi-tracking camera system (1, hereinafter referred to as “system”) of a virtual studio according to an embodiment of the present invention.

시스템(1)은 복수의 카메라 장치(C), 컴퓨팅 장치(100) 및 이미지 합성 장치(200) 등을 포함할 수 있다.The system 1 may include a plurality of camera devices C, a computing device 100 and an image synthesis device 200, and the like.

복수의 카메라 장치(C) 각각(C1~CN)은 복수의 렌즈를 탑재한 스테레오 카메라(stereoscopic camera), 관성 측정 센서(가령, IMU 센서) 및 깊이 측정 센서 등을 이용하여 수집한 데이터를 컴퓨팅 장치(100)로 제공할 수 있다.Each of the plurality of camera devices (C) (C1 to CN) transmits data collected using a stereoscopic camera equipped with a plurality of lenses, an inertial measurement sensor (eg, an IMU sensor), and a depth measurement sensor to a computing device. (100) can be provided.

복수의 카메라 장치(C) 각각은 가상 스튜디오에서 피사체를 촬영하는 하나 이상의 광학 카메라 및 이에 부착되어 카메라의 자세와 위치를 추적하는 추적 모듈을 포함할 수 있다. 복수의 카메라 장치(C)는 촬영용 고정 장치, 촬영용 크레인, 레일 등에 설치될 수 있으나, 실시 예가 이에 한정되는 것은 아니다.Each of the plurality of camera devices C may include at least one optical camera that photographs a subject in the virtual studio and a tracking module attached to the optical camera that tracks the position and position of the camera. The plurality of camera devices C may be installed in a fixing device for photographing, a crane for photographing, a rail, etc., but the embodiment is not limited thereto.

컴퓨팅 장치(100)는 복수의 카메라 장치(C)로부터 각종 데이터(촬영 이미지 데이터, 관성 측정 데이터, 깊이 측정 데이터 등)를 수신하여 컴퓨터 연산을 수행할 수 있는 장치이며, 복수의 카메라 장치(C)에 의해 가상 스튜디오가 촬영되면, 여러 방향에서 촬영된 이미지에 기초하여 가상 스튜디오를 3 차원(3D) 공간을 생성할 수 있다.The computing device 100 is a device capable of performing computer calculation by receiving various data (photographed image data, inertial measurement data, depth measurement data, etc.) from a plurality of camera devices C, and the plurality of camera devices C When the virtual studio is photographed by, it is possible to create a three-dimensional (3D) space of the virtual studio based on images photographed in various directions.

컴퓨팅 장치(100)는 복수의 카메라 장치(C)로부터 동일 주기로 데이터를 수획득하기 위해, OSC(Open Sound Control) 프로토콜을 포함할 수 있으며, 복수의 카메라 장치(C) 각각(C1~CN)이 검색된 후, 네트워크를 통해 데이터를 송수신(GET 요청, POST 요청 등)할 수 있다.The computing device 100 may include an Open Sound Control (OSC) protocol to acquire data from the plurality of camera devices C at the same period, and each of the plurality of camera devices C (C1 to CN) After being retrieved, data can be sent and received (GET request, POST request, etc.) through the network.

컴퓨팅 장치(100)는 가상 스튜디오의 기준점이 되는 원점 중심으로 3D 공간을 생성할 수 있으며, 복수의 카메라 장치(C)로부터 촬영 이미지를 수신하는 경우, 원점 중심의 촬영 이미지를 수신하고, 수신된 촬영 이미지를 3차원 상에서 재조합하여, 3D 공간을 생성할 수 있다.The computing device 100 may create a 3D space centered on the origin, which is the reference point of the virtual studio, and when receiving captured images from a plurality of camera devices C, receive the captured images centered on the origin, and receive the received captured images. Images can be recombined on three dimensions to create a 3D space.

컴퓨팅 장치(100)는 복수의 카메라 장치(C)로부터 수집되는 촬영 이미지, 관성 측정값, 깊이 측정값 등에 기초하여, 3D 공간 상의 복수의 카메라 장치(C)에 에 대한 공간 정보 및 회전각 등의 정보(포지셔닝 정보)를 업데이트할 수 있다.The computing device 100 obtains spatial information and rotation angle of the plurality of camera devices C in a 3D space based on captured images collected from the plurality of camera devices C, inertial measurement values, depth measurement values, and the like. Information (positioning information) can be updated.

컴퓨팅 장치(100)는 영상 합성 장치(200)로 촬영 이미지를 전송할 수 있으며, 영상 합성 장치(200)는 수신된 촬영 이미지를 합성할 수 있다. 영상 합성 장치(200)는 컴퓨팅 장치(100)의 출력 인터페이스를 통해 전달된 6 DOF 3D 보정 데이터를 수신하여 배경 또는 3D 어셋과 하나 이상의 카메라 장치로부터 수신된 영상 신호를 합성할 수 있다. 구현 예에 따라서는 컴퓨팅 장치(100) 및 영상 합성 장치(200)가 동일한 장치일 수 있다.The computing device 100 may transmit captured images to the video synthesizing device 200, and the video synthesizing device 200 may synthesize the received captured images. The image synthesis device 200 may receive 6 DOF 3D correction data transmitted through an output interface of the computing device 100 and synthesize a background or 3D asset and image signals received from one or more camera devices. Depending on implementation, the computing device 100 and the image synthesizing device 200 may be the same device.

본 명세서에서 '본 개시에 따른 컴퓨팅 장치(100)'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 컴퓨팅 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, the 'computing device 100 according to the present disclosure' includes all of various devices capable of providing results to users by performing calculation processing. For example, a computing device according to the present disclosure may include a computer, a server device, and a portable terminal, or may be in any one form.

여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop computer, a desktop computer, a laptop computer, a tablet PC, a slate PC, and the like equipped with a web browser.

상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.The server device is a server that processes information by communicating with an external device, and may include an application server, a computing server, a database server, a file server, a game server, a mail server, a proxy server, and a web server.

상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.The portable terminal is, for example, a wireless communication device that ensures portability and mobility, and includes a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS), and a PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone ) and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMDs). can include

도 2는 본 발명의 일 실시 예에 따른 상기 시스템(1)을 구성하는 컴퓨팅 장치(100) 및 카메라 장치(C1, 300)의 구성을 나타내는 상대 블록도이다. 2 is a relative block diagram showing the configuration of the computing device 100 and the camera devices C1 and 300 constituting the system 1 according to an embodiment of the present invention.

우선, 카메라 장치(C1, 300)는 통신부(310), 스테레오 카메라(320), 관성 측정 센서(330, IMU) 및 깊이 측정 센서(340) 등을 포함할 수 있다. First, the camera device C1 or 300 may include a communication unit 310, a stereo camera 320, an inertial measurement sensor 330 (IMU), a depth measurement sensor 340, and the like.

도 2에 도시된 구성요소들은 본 개시에 따른 카메라 장치(300)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 카메라 장치(300)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The components shown in FIG. 2 are not essential to implement the camera device 300 according to the present disclosure, so the camera device 300 described in this specification has more or fewer components than the components listed above. can have elements.

통신부(310)는 외부 장치(가령, 컴퓨팅 장치(100))와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 310 may include one or more components enabling communication with an external device (eg, the computing device 100), for example, a broadcast reception module, a wired communication module, a wireless communication module, and short-distance communication. It may include at least one of a module and a location information module.

스테레오 카메라(320)는 입력부의 일종으로, 입체 영상을 생성하기 위해 카메라를 복수로 포함할 수 있다.The stereo camera 320 is a type of input unit and may include a plurality of cameras to generate a stereoscopic image.

스테레오 카메라(320)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 본 개시의 컴퓨팅 장치(100의 화면)에 표시되거나 메모리에 저장될 수 있다. The stereo camera 320 processes an image frame such as a still image or a moving image obtained by an image sensor in a photographing mode. The processed image frame may be displayed on the computing device (screen of 100) of the present disclosure or stored in memory.

관성 측정 센서(330, IMU, inertial Measurement Unit)는 가속도계와 회전 속도계, 때로는 자력계의 조합을 사용하여 특정한 힘, 각도 비율 및 때로는 자기장을 측정하고 보고하는 센서일 수 있다.An inertial measurement unit (IMU) (330) may be a sensor that measures and reports a specific force, angular rate, and sometimes a magnetic field using a combination of an accelerometer, a tachometer, and sometimes a magnetometer.

깊이 측정 센서(340)는 이미지에서 대상의 깊이를 측정하여 입체적 이미지를 생성하는데 사용될 수 있으며, 적외선 기반으로 구현될 수 있으나, 실시 예가 이에 한정되는 것은 아니다.The depth measurement sensor 340 may be used to generate a three-dimensional image by measuring the depth of an object in an image, and may be implemented based on infrared rays, but the embodiment is not limited thereto.

다음으로, 컴퓨팅 장치(100)는 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 제공하기 위한 장치로서, 통신부(110), 입력부(120), 디스플레이(130), 메모리(150) 및 하나 이상의 코어를 포함하는 프로세서(190)를 포함할 수 있다.Next, the computing device 100 is a device for providing a method of operating a multi-sensor-based multi-tracking camera system of a virtual studio, and includes a communication unit 110, an input unit 120, a display 130, a memory 150, and one The processor 190 including the above cores may be included.

도 2에 도시된 구성요소들은 본 개시에 따른 컴퓨팅 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 컴퓨팅 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The components shown in FIG. 2 are not essential to implement the computing device 100 according to the present disclosure, so the computing device 100 described in this specification has more or fewer components than the components listed above. can have elements.

통신부(110)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 110 may include one or more components enabling communication with an external device, and for example, at least one of a broadcast reception module, a wired communication module, a wireless communication module, a short-distance communication module, and a location information module. can include

입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 적어도 하나의 카메라, 적어도 하나의 마이크로폰 및 사용자 입력부 중 적어도 하나를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 is for inputting image information (or signals), audio information (or signals), data, or information input from a user, and includes at least one of at least one camera, at least one microphone, and a user input unit. can do. Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.

마이크로폰은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 본 장치에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.A microphone processes an external acoustic signal into electrical voice data. The processed voice data can be used in various ways according to the function (or application program being executed) being performed in the present device. Meanwhile, various noise cancellation algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone.

사용자 입력부는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 제어부는 입력된 정보에 대응되도록 본 장치의 동작을 제어할 수 있다. 이러한, 사용자 입력부는 하드웨어식 물리 키(예를 들어, 본 장치의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다. 일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이부 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit is for receiving information from a user, and when information is input through the user input unit, the control unit can control the operation of the device to correspond to the input information. The user input unit includes hardware physical keys (for example, a button located on at least one of the front, rear, and side surfaces of the device, a dome switch, a jog wheel, a jog switch, etc.) and a software touch key. can include As an example, the touch key is composed of a virtual key, soft key, or visual key displayed on a touch screen type display unit through software processing, or the touch screen It may be made of a touch key (touch key) disposed in a part other than the part. On the other hand, the virtual key or visual key can be displayed on the touch screen while having various forms, for example, graphic (graphic), text (text), icon (icon), video (video) or these can be made of a combination of

디스플레이(130)는 본 장치에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이(130)는 본 장치(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display 130 displays (outputs) information processed by the present device. For example, the display 130 displays execution screen information of an application program (eg, application) driven in the device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. can be displayed.

메모리(150)는 본 장치의 다양한 기능을 지원하는 데이터와, 프로세서(190)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. The memory 150 may store data supporting various functions of the device and programs for operation of the processor 190, and input/output data (eg, music files, still images, moving images, etc.) and can store a plurality of application programs (application programs or applications) running in the device, data for operation of the device, and commands. At least some of these application programs may be downloaded from an external server through wireless communication.

이러한, 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.These memories include a flash memory type, a hard disk type, a solid state disk type (SSD type), a silicon disk drive type (SDD type), and a multimedia card micro type. , card-type memory (for example, SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read- only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. In addition, the memory is separate from the present device, but may be a database connected by wire or wireless.

프로세서(190)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(미도시)를 포함할 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The processor 190 includes a memory for storing data for an algorithm or a program for reproducing the algorithm for controlling the operation of components in the device, and at least one processor for performing the above-described operation using the data stored in the memory ( not shown) may be included. In this case, the memory and the processor may be implemented as separate chips. Alternatively, the memory and the processor may be implemented as a single chip.

또한, 프로세서(190)는 이하의 도 3 내지 도 7에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다. In addition, the processor 190 may control any one or a combination of a plurality of components described above in order to implement various embodiments according to the present disclosure described in FIGS. 3 to 7 below on the present device.

이미지 합성 장치(200)는 컴퓨팅 장치(100)와 별도로 구현되거나, 여러 방향에서 촬영된 가상 스튜디오의 공간 이미지를 서로 정합하여, 3차원 상의 공간(좌표)에 매핑할 수 있다.The image compositing device 200 may be implemented separately from the computing device 100 or map spatial images of a virtual studio photographed in various directions to a 3D space (coordinates) by matching each other.

도 2에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components shown in FIG. 2 . In addition, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed corresponding to the performance or structure of the system.

한편, 도 2에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다. Meanwhile, each component shown in FIG. 2 means software and/or hardware components such as a Field Programmable Gate Array (FPGA) and Application Specific Integrated Circuit (ASIC).

도 3은 본 발명의 일 실시 예에 따른 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템(1)의 동작 방법을 나타내는 시퀀스도이며, 컴퓨팅 장치(100)의 프로세서(190)에 의해 인스트럭션(instrictions)이 실행될 수 있다. 도 4는 본 발명의 일 실시 예에 따른 가상 스튜디오에 배치된 복수의 카메라 장치(C1~C3)를 이용하여 가상 스튜디오를 3D 좌표에 표현하기 위한 방법을 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시 예에 따른 3D 좌표 공간을 생성하는 방법을 나타내는 도면이며, 도 6은 본 발명의 일 실시 예에 따른 복수의 카메라 장치의 3D 공간 좌표 및 회전각을 결정하는 방법을 나타내는 시퀀스도이고, 도 7은 본 발명의 일 실시 예에 따른 복수의 카메라 장치의 포지셔닝 정보를 업데이트하는 방법을 나타내는 시퀀스도이다. 도 3을 설명하면서 필요한 부분에서 도 4 내지 도 7을 함께 참조하기로 한다. 3 is a sequence diagram illustrating an operating method of a multi-sensor-based multi-tracking camera system 1 of a virtual studio according to an embodiment of the present invention, in which instructions are executed by the processor 190 of the computing device 100. can be executed 4 is a diagram for explaining a method for expressing a virtual studio in 3D coordinates using a plurality of camera devices (C1 to C3) arranged in the virtual studio according to an embodiment of the present invention, and FIG. 5 is a view for explaining the present invention. 6 is a sequence diagram showing a method for determining 3D space coordinates and rotation angles of a plurality of camera devices according to an embodiment of the present invention, 7 is a sequence diagram illustrating a method of updating positioning information of a plurality of camera devices according to an embodiment of the present invention. While describing FIG. 3 , FIGS. 4 to 7 will be referred to together where necessary.

우선, 프로세서(190)는 복수의 스테레오 카메라 장치를 이용하여 가상 스튜디오 내 배치된 원점을 중심으로 가상 스튜디오가 촬영되는 경우, 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신할 수 있다(S310).First, the processor 190 may receive a photographed image from a plurality of stereo camera devices when a virtual studio is captured using a plurality of stereo camera devices around an origin disposed in the virtual studio (S310).

여기서, 원점에는 마커(가령, 태그)가 배치되어 복수의 카메라 장치의 촬영 및 원점 인식에 도움이 될 수 있다. 마커는 QR 코드, AprilTag 등의 다양한 마커 표시가 활용될 수 있으나, 실시 예가 이에 한정되는 것은 아니다.Here, a marker (eg, a tag) may be disposed at the origin to assist in capturing and recognizing the origin of a plurality of camera devices. As the marker, various marker displays such as QR code and AprilTag may be used, but the embodiment is not limited thereto.

도 4를 참고하면, 가상 스튜디오를 촬영 가능한 복수의 카메라 장치(C1~C3) 각각은 자체적인 촬영 범위(C1C~C3C)를 가질 수 있으며, 가상 스튜디오의 원점에 배치된 마커(MK)를 중심으로 촬영할 수 있다. Referring to FIG. 4 , each of the plurality of camera devices (C1 to C3) capable of shooting a virtual studio may have its own shooting range (C1C to C3C), centered on a marker (MK) disposed at the origin of the virtual studio. can be filmed

복수의 카메라 장치(C1~C3)는 관성 측정 센서를 이용하여, 각 장치의 회전각 정보, 깊이 측정값 등을 통신부를 통해 컴퓨팅 장치(100)에 제공할 수 있다.The plurality of camera devices C1 to C3 may provide rotation angle information, a depth measurement value, and the like of each device to the computing device 100 through a communication unit by using an inertial measurement sensor.

상기 S310 단계 이후에, 프로세서(190)는 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성할 수 있다(S320).After the step S310, the processor 190 may generate a 3D space based on the origin based on the received photographed image (S320).

도 5를 참고하면, 프로세서(190)는 원점에 위치한 태그를 인식하고(S321), 인식된 마커에 기반하여 원점 중심의 3D 좌표 공간을 생성할 수 있다(S323).Referring to FIG. 5 , the processor 190 may recognize a tag located at the origin (S321) and create a 3D coordinate space centered on the origin based on the recognized marker (S323).

이때, 프로세서(190)는 복수의 카메라 장치(C1~C3)의 포지셔닝 정보를 이미지 영상과 함께 수신할 수 있다. 포지셔닝 정보는 공간 정보 및 회전각, 깊이 측정값 등을 포함할 수 있으나, 실시 예가 이에 한정되는 것은 아니다.In this case, the processor 190 may receive positioning information of the plurality of camera devices C1 to C3 together with the image image. The positioning information may include spatial information, a rotation angle, a depth measurement value, and the like, but the embodiment is not limited thereto.

상기 S320 단게 이후에, 프로세서(190)는 생성된 3D 공간에서 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정할 수 있다(S330).After step S320, the processor 190 may estimate positioning information including spatial information and rotation angles of a plurality of stereo camera devices in the generated 3D space (S330).

도 6을 참고하면, 프로세서(190)는 복수의 카메라 장치 각각의 3D 좌표 및 회전각을 연산할 수 있다(S331).Referring to FIG. 6 , the processor 190 may calculate 3D coordinates and rotation angles of each of the plurality of camera devices (S331).

그 다음으로, 프로세서(190)는 3각 측량에 기초하여, 복수의 카메라 장치의 3D 좌표 좌표 및 회전각을 교차 검증할 수 있다(S333).Next, the processor 190 may cross-verify the 3D coordinates and rotation angles of the plurality of camera devices based on triangulation (S333).

그 후에, 프로세서(190)는 검증을 마친 후 복수의 카메라 장치의 3D 공간 좌표 및 회전각을 반환(결정)할 수 있다(S335).Thereafter, the processor 190 may return (determine) 3D space coordinates and rotation angles of the plurality of camera devices after verification is completed (S335).

다만, S330 단계에서, 프로세서(190)는 최초 원점을 기준으로 가상 스튜디오를 3D 공간 상에 표현한 것이며, 최초 시점 이후에는 카메라 장치의 포지셔닝 정보의 차이, 환경의 변화 등에 기초하여, 실시간으로 가상 스튜디오에 대응하는 3D 공간 좌표를 업데이트할 수 있다.However, in step S330, the processor 190 represents the virtual studio on the 3D space based on the initial origin, and after the initial viewpoint, based on the difference in positioning information of the camera device, change in the environment, etc., the virtual studio is displayed in real time. The corresponding 3D spatial coordinates can be updated.

이를 위해, 프로세서(190)는 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화할 수 있다(S340).To this end, the processor 190 may synchronize timing for receiving information from a plurality of stereo camera devices (S340).

프로세서(190)는 OSC(Open Sound Control) protocol에 기반하여, 복수의 카메라 장치의 정보 획득 시간을 동기화할 수 있으며, 이를 위해, OSC 서버 및 OSC 클라이언트 등을 이용할 수 있다.The processor 190 may synchronize information acquisition times of a plurality of camera devices based on an Open Sound Control (OSC) protocol, and for this purpose, an OSC server and an OSC client may be used.

이와 같이, 프로세서(190)는 복수의 스테레오 카메라 장치의 신호 발생 타이밍을 서로 동기화하여, 영상 합성 시 데이터의 프레임 싱크 오류를 방지할 수 있다.In this way, the processor 190 synchronizes signal generation timings of the plurality of stereo camera devices to prevent frame sync errors of data during image synthesis.

S340 단계 이후, 프로세서(190)는 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트할 수 있다(S350). After step S340, the processor 190 may update positioning information for a plurality of camera devices on the "3D" space based on information received from a plurality of stereo camera devices (S350).

도 7을 참고하면, 프로세서(190)는 관성 측정 센서에 의해 수집된 관성 측정값을 상기 복수의 카메라 장치로부터 수신하고(S351), 6 자유도(6 degrees of freedom, 6DOF)에 기반하여 복수의 카메라 장치의 포지셔닝 정보를 제1 추정할 수 있다(S352). 여기서, 6 DOF는 항공기의 여섯 개의 운동방향을 뜻하며, 세 개의 축(XYZ) 방향 및 각 축에서의 회전 방향(롤, 피치, 요 등)을 모두 반영할 수 있다.Referring to FIG. 7 , the processor 190 receives inertial measurement values collected by the inertial measurement sensor from the plurality of camera devices (S351), and based on 6 degrees of freedom (6DOF), a plurality of Positioning information of the camera device may be first estimated (S352). Here, 6 DOF means six motion directions of the aircraft, and can reflect all three axis (XYZ) directions and rotational directions (roll, pitch, yaw, etc.) in each axis.

프로세서(190)는 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 산출하고(S353), SLAM 기반으로 상기 복수의 카메라 장치의 포지셔닝 정보를 제2 추정할 수 있다(S354).The processor 190 may calculate positioning information including spatial information and rotation angles of the plurality of stereo camera devices (S353), and second estimate the positioning information of the plurality of camera devices based on SLAM (S354).

그 다음으로, 프로세서(190)는 제1 추정 및 제2 추정된 복수의 카메라 장치의 포지셔닝 정보에 대한 보정을 수행할 수 있다(S355).Next, the processor 190 may perform correction on the first estimated and second estimated positioning information of the plurality of camera devices (S355).

프로세서(190)는 Sensor Fusion 알고리즘을 수행하여, 3D 공간 상의 좌표 데이터 및 회전각을 도출할 수 있다. 이때, Visual-inertial odometry 방법을 통해 최적화가 수행될 수 있는데, 센서 중 광이나 자기장 등 외부 환경에 따른 데이터 오류나 특정 센서의 고장 등에 기인한 기계적 오류가 보완될 수 있다.The processor 190 may derive coordinate data and a rotation angle in 3D space by performing a sensor fusion algorithm. At this time, optimization may be performed through the visual-inertial odometry method, and data errors due to external environments such as light or magnetic fields among sensors or mechanical errors due to failure of a specific sensor may be supplemented.

선택적 실시 예로, 프로세서(190)는 제1 추정 및 제2 추정된 복수의 카메라 장치의 포지셔닝 정보 간의 차이가 소정 범위를 초과하여 발생된 경우, 추정된 포지셔닝 정보를 신뢰하지 않고, 6 DOF 및 SLAM 기반한 포지셔닝 정보를 다시 추정할 수 있다. As an optional embodiment, if the difference between the first and second estimated positioning information of the plurality of camera devices exceeds a predetermined range, the processor 190 does not trust the estimated positioning information, and based on 6 DOF and SLAM Positioning information can be re-estimated.

선택적 실시 예로, 프로세서(190)는 제1 추정 및 제2 추정된 복수의 카메라 장치의 포지셔닝 정보 중에서 특정 카메라 장치의 포지셔닝 정보에 있어서만 추정값이 다를 경우, 특정 카메라 장치에 대해서만 포지셔닝 정보를 재추정할 수 있다. 만약, 재추정한 값에 있어서도 소정 범위를 초과하는 차이가 있는 경우, 관리자의 단말로 해당 정보를 메시지로 제공할 수 있다.As an optional embodiment, the processor 190 may re-estimate positioning information only for a specific camera device when first estimated and second estimated positioning information of a specific camera device differs only in positioning information of a plurality of camera devices. can If there is a difference exceeding a predetermined range even in the re-estimated value, the corresponding information may be provided as a message to the manager's terminal.

프로세서(190)는 보정된 복수의 카메라 장치의 포지셔닝 정보에 대한 Raw 데이터를 생성하고(S356), 생성된 Raw 데이터에 필터 캘리브레이션을 수행하며(S357), 필터 캘리브레이션이 적용된 포지셔닝 정보를 산출할 수 있다(S358).The processor 190 may generate raw data for the corrected positioning information of the plurality of camera devices (S356), perform filter calibration on the generated raw data (S357), and calculate positioning information to which the filter calibration is applied. (S358).

프로세서(190)는 Linear Kalman Filter Calibration 알고리즘을 실행하여 Jitter 현상이 방지될 수 있다. 이때, 외부 환경에 따라 사전 측정된 특정한 보정 계수가 적용될 수 있어서, 다양한 스튜디오 환경에 적합한 필터링과 보정값이 알고리즘에 적용될 수 있다.The processor 190 may prevent the jitter phenomenon by executing the Linear Kalman Filter Calibration algorithm. In this case, since a specific correction coefficient pre-measured according to an external environment may be applied, filtering and correction values suitable for various studio environments may be applied to the algorithm.

프로세서(190)는 자체적으로 산출된 포지셔닝 정보에 기반하여 영상 합성을 수행할 수 있다. 다만, 실시 예에 따라서는 프로세서(190)가 통신부(110)를 통해 산출된 포지셔닝 정보, 촬영 이미지를 영상 합성 장치로 전송하고, 해당 영상 합성 장치에 의해 영상 합성이 수행될 수도 있다(S410).The processor 190 may perform image synthesis based on self-calculated positioning information. However, depending on the embodiment, the processor 190 may transmit the calculated positioning information and the photographed image through the communication unit 110 to the video synthesizing device, and the image synthesizing may be performed by the video synthesizing device (S410).

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art to which the present disclosure pertains will understand that the present disclosure may be implemented in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

100 : 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법을 제공하기 위한 컴퓨팅 장치100: Computing device for providing an operating method for a multi-sensor-based multi-tracking camera system in a virtual studio

Claims (10)

복수의 스테레오 카메라 장치를 활용한 포지셔닝 정보에 대한 보정 방법으로서,
상기 복수의 스테레오 카메라 장치를 이용하여 가상 스튜디오 내 배치된 원점을 중심으로 상기 가상 스튜디오가 촬영되는 경우, 상기 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신하는 단계;
상기 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성하는 단계;
상기 생성된 3D 공간에서 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정하는 단계; 및
상기 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화하는 단계; 를 포함하고,
상기 포지셔닝 정보를 추정하는 단계는,
상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 연산하는 단계;
상기 연산된 공간 정보 및 회전각을 3각 측량에 기초하여 교차 검증하는 단계; 및
상기 교차 검증된 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 출력하는 단계를 포함하고,
상기 타이밍을 동기화하는 단계는,
상기 복수의 스테레오 카메라 장치의 신호 발생 타이밍을 서로 동기화하여, 영상 합성 시 데이터의 프레임 싱크 오류를 방지하는 단계를 포함하며,
상기 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트하는 단계는,
관성 측정 센서에 의해 수집된 관성 측정값을 상기 복수의 스테레오 카메라 장치로부터 수신하는 단계; 및
6 자유도(6 degrees of freedom, 6 DOF)에 기반하여 상기 복수의 스테레오 카메라 장치의 포지셔닝 정보를 제1 추정하는 단계를 포함하고,
상기 포지셔닝 정보를 업데이트하는 단계는,
상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 산출하는 단계; 및
SLAM(simultaneous localization and mapping) 기반으로 상기 복수의 스테레오 카메라 장치의 포지셔닝 정보를 제2 추정하는 단계를 포함하며,
상기 제1 추정 및 제2 추정된 복수의 스테레오 카메라 장치의 포지셔닝 정보에 대한 보정을 수행하는 단계를 포함하는, 방법.
As a correction method for positioning information using a plurality of stereo camera devices,
receiving a captured image from the plurality of stereo camera devices when the virtual studio is captured using the plurality of stereo camera devices around an origin disposed in the virtual studio;
generating a 3D space based on the origin based on the received captured image;
estimating positioning information including spatial information and rotation angles of the plurality of stereo camera devices in the generated 3D space; and
synchronizing timing for receiving information from the plurality of stereo camera devices; including,
The step of estimating the positioning information,
calculating spatial information and rotation angles of the plurality of stereo camera devices;
cross-verifying the calculated spatial information and rotation angle based on triangulation; and
Outputting spatial information and rotation angles of the plurality of stereo camera devices that have been cross-verified,
Synchronizing the timing,
Synchronizing signal generation timings of the plurality of stereo camera devices with each other to prevent a frame sync error of data during image synthesis,
Updating positioning information for a plurality of camera devices in the 3D space based on information received from the plurality of stereo camera devices,
receiving inertial measurement values collected by an inertial measurement sensor from the plurality of stereo camera devices; and
First estimating positioning information of the plurality of stereo camera devices based on 6 degrees of freedom (6 DOF);
Updating the positioning information,
calculating positioning information including spatial information and rotation angles of the plurality of stereo camera devices; and
Second estimating positioning information of the plurality of stereo camera devices based on simultaneous localization and mapping (SLAM);
And performing correction on the first estimated and second estimated positioning information of the plurality of stereo camera devices.
제1항에 있어서,
상기 3D 공간을 생성하는 단계는,
상기 원점에 위치한 마커를 인식하는 단계; 및
상기 인식된 마커에 기반하여 상기 원점 중심의 3D 좌표 공간을 생성하는 단계; 를 포함하는, 방법.
According to claim 1,
The step of generating the 3D space,
Recognizing a marker located at the origin; and
generating a 3D coordinate space centered on the origin based on the recognized marker; Including, method.
제2항에 있어서,
상기 6 자유도는, X축 방향, Y축 방향, Z축 방향 및 각 축에서의 회전 방향인 롤, 피치, 요를 포함하는, 방법.
According to claim 2,
The six degrees of freedom include roll, pitch, and yaw, which are rotational directions in the X-axis direction, the Y-axis direction, the Z-axis direction, and each axis.
제3항에 있어서,
상기 타이밍을 동기화하는 단계는, OSC(Open Sound Control) protocol에 기반하여, 상기 복수의 스테레오 카메라 장치의 정보 획득 시간을 동기화하는 것을 특징으로 하는, 방법.
According to claim 3,
The step of synchronizing the timing may include synchronizing information acquisition times of the plurality of stereo camera devices based on an Open Sound Control (OSC) protocol.
제4항에 있어서,
상기 보정을 수행하는 단계 이후에,
보정된 복수의 스테레오 카메라 장치의 포지셔닝 정보에 대한 Raw 데이터를 생성하는 단계;
상기 생성된 Raw 데이터에 필터 캘리브레이션을 수행하는 단계;
상기 필터 캘리브레이션이 적용된 포지셔닝 정보를 산출하는 단계; 및
상기 산출된 포지셔닝 정보에 기반하여 영상 합성을 수행하는 단계; 를 더 포함하는, 방법.
According to claim 4,
After performing the above correction,
Generating raw data for positioning information of a plurality of calibrated stereo camera devices;
performing filter calibration on the generated raw data;
Calculating positioning information to which the filter calibration is applied; and
performing image synthesis based on the calculated positioning information; Further comprising a method.
컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 복수의 스테레오 카메라 장치를 활용한 포지셔닝 정보에 대한 보정 방법을 수행하기 위한 이하의 동작들을 수행하도록 하며, 상기 동작들은:
상기 복수의 스테레오 카메라 장치를 이용하여 가상 스튜디오 내 배치된 원점을 중심으로 상기 가상 스튜디오가 촬영되는 경우, 상기 복수의 스테레오 카메라 장치로부터 촬영 이미지를 수신하는 동작;
상기 수신된 촬영 이미지에 기초하여, 상기 원점에 기초한 3D 공간을 생성하는 동작;
상기 생성된 3D 공간에서 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 추정하는 동작;
상기 복수의 스테레오 카메라 장치로부터 정보 수신을 위한 타이밍을 동기화하는 동작; 을 포함하고,
상기 포지셔닝 정보를 추정하는 동작은,
상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 연산하는 동작;
상기 연산된 공간 정보 및 회전각을 3각 측량에 기초하여 교차 검증하는 동작; 및
상기 교차 검증된 상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 출력하는 동작을 포함하고,
상기 타이밍을 동기화하는 동작은,
상기 복수의 스테레오 카메라 장치의 신호 발생 타이밍을 서로 동기화하여, 영상 합성 시 데이터의 프레임 싱크 오류를 방지하는 동작을 포함하며,
상기 복수의 스테레오 카메라 장치로부터 수신되는 정보에 기초하여, 상기 3D 공간 상의 복수의 카메라 장치에 대한 포지셔닝 정보를 업데이트하는 동작은,
관성 측정 센서에 의해 수집된 관성 측정값을 상기 복수의 스테레오 카메라 장치로부터 수신하는 동작; 및
6 자유도(6 degrees of freedom, 6 DOF)에 기반하여 상기 복수의 스테레오 카메라 장치의 포지셔닝 정보를 제1 추정하는 동작을 포함하고,
상기 포지셔닝 정보를 업데이트하는 동작은,
상기 복수의 스테레오 카메라 장치의 공간 정보 및 회전각을 포함하는 포지셔닝 정보를 산출하는 동작; 및
SLAM(simultaneous localization and mapping) 기반으로 상기 복수의 스테레오 카메라 장치의 포지셔닝 정보를 제2 추정하는 동작을 포함하며,
상기 제1 추정 및 제2 추정된 복수의 스테레오 카메라 장치의 포지셔닝 정보에 대한 보정을 수행하는 동작을 포함하는, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable storage medium, wherein the computer program, when executed in one or more processors, performs the following operations for performing a correction method for positioning information using a plurality of stereo camera devices, wherein the Actions are:
receiving a captured image from the plurality of stereo camera devices when the virtual studio is captured using the plurality of stereo camera devices around an origin disposed in the virtual studio;
generating a 3D space based on the origin based on the received captured image;
estimating positioning information including spatial information and rotation angles of the plurality of stereo camera devices in the generated 3D space;
synchronizing timing for receiving information from the plurality of stereo camera devices; including,
The operation of estimating the positioning information,
calculating spatial information and rotation angles of the plurality of stereo camera devices;
cross-verifying the calculated spatial information and rotation angle based on triangulation; and
An operation of outputting spatial information and rotation angles of the plurality of stereo camera devices that have been cross-verified,
The operation of synchronizing the timing,
Synchronizing signal generation timing of the plurality of stereo camera devices with each other to prevent a frame sync error of data during image synthesis,
Updating positioning information for a plurality of camera devices in the 3D space based on information received from the plurality of stereo camera devices,
receiving an inertial measurement value collected by an inertial measurement sensor from the plurality of stereo camera devices; and
An operation of first estimating positioning information of the plurality of stereo camera devices based on 6 degrees of freedom (6 DOF);
The operation of updating the positioning information,
calculating positioning information including spatial information and rotation angles of the plurality of stereo camera devices; and
Second estimating positioning information of the plurality of stereo camera devices based on simultaneous localization and mapping (SLAM);
A computer program stored in a computer readable storage medium comprising an operation of correcting the first estimated and second estimated positioning information of the plurality of stereo camera devices.
제6항에 있어서,
상기 3D 공간을 생성하는 동작은,
상기 원점에 위치한 마커를 인식하는 동작; 및
상기 인식된 마커에 기반하여 상기 원점 중심의 3D 좌표 공간을 생성하는 동작; 을 포함하는, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 6,
The operation of generating the 3D space,
recognizing a marker located at the origin; and
generating a 3D coordinate space centered on the origin based on the recognized marker; A computer program stored on a computer readable storage medium comprising a.
제7항에 있어서,
상기 6 자유도는, X축 방향, Y축 방향, Z축 방향 및 각 축에서의 회전 방향인 롤, 피치, 요를 포함하는, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 7,
The six degrees of freedom include roll, pitch, and yaw, which are rotational directions in the X-axis direction, the Y-axis direction, the Z-axis direction, and each axis. A computer program stored in a computer readable storage medium.
제8항에 있어서,
상기 타이밍을 동기화하는 동작은, OSC(Open Sound Control) protocol에 기반하여, 상기 복수의 스테레오 카메라 장치의 정보 획득 시간을 동기화하는 것을 특징으로 하는, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 8,
The operation of synchronizing the timing is based on an OSC (Open Sound Control) protocol, characterized in that for synchronizing the information acquisition time of the plurality of stereo camera devices, a computer program stored in a computer readable storage medium.
제9항에 있어서,
상기 보정을 수행하는 동작 이후에,
보정된 복수의 스테레오 카메라 장치의 포지셔닝 정보에 대한 Raw 데이터를 생성하는 동작;
상기 생성된 Raw 데이터에 필터 캘리브레이션을 수행하는 동작;
상기 필터 캘리브레이션이 적용된 포지셔닝 정보를 산출하는 동작; 및
상기 산출된 포지셔닝 정보에 기반하여 영상 합성을 수행하는 동작; 을 더 포함하는, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
According to claim 9,
After the operation of performing the correction,
generating raw data for positioning information of a plurality of calibrated stereo camera devices;
performing filter calibration on the generated raw data;
calculating positioning information to which the filter calibration is applied; and
performing image synthesis based on the calculated positioning information; A computer program stored on a computer-readable storage medium further comprising a.
KR1020220127534A 2022-07-08 2022-10-06 Method for correcting positioning information using a plurality of stereo camera devices, computer program KR102549811B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220127534A KR102549811B1 (en) 2022-07-08 2022-10-06 Method for correcting positioning information using a plurality of stereo camera devices, computer program
KR1020230077824A KR20240007591A (en) 2022-07-08 2023-06-19 Method for estimating positioning information of multiple stereo camera devices based on 6 dof and slam, device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220084205A KR102453561B1 (en) 2022-07-08 2022-07-08 Method for operating multi-tracking camera system based on multi-sensor in virtual studio
KR1020220127534A KR102549811B1 (en) 2022-07-08 2022-10-06 Method for correcting positioning information using a plurality of stereo camera devices, computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220084205A Division KR102453561B1 (en) 2022-07-08 2022-07-08 Method for operating multi-tracking camera system based on multi-sensor in virtual studio

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230077824A Division KR20240007591A (en) 2022-07-08 2023-06-19 Method for estimating positioning information of multiple stereo camera devices based on 6 dof and slam, device and program

Publications (1)

Publication Number Publication Date
KR102549811B1 true KR102549811B1 (en) 2023-06-30

Family

ID=83600100

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220084205A KR102453561B1 (en) 2022-07-08 2022-07-08 Method for operating multi-tracking camera system based on multi-sensor in virtual studio
KR1020220127534A KR102549811B1 (en) 2022-07-08 2022-10-06 Method for correcting positioning information using a plurality of stereo camera devices, computer program
KR1020230077824A KR20240007591A (en) 2022-07-08 2023-06-19 Method for estimating positioning information of multiple stereo camera devices based on 6 dof and slam, device and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220084205A KR102453561B1 (en) 2022-07-08 2022-07-08 Method for operating multi-tracking camera system based on multi-sensor in virtual studio

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230077824A KR20240007591A (en) 2022-07-08 2023-06-19 Method for estimating positioning information of multiple stereo camera devices based on 6 dof and slam, device and program

Country Status (1)

Country Link
KR (3) KR102453561B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011529A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Imaging device, imaging system, imaging method, and program
KR20150013709A (en) * 2012-05-09 2015-02-05 엔씨에이엠 테크놀로지스 리미티드 A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
KR102121287B1 (en) 2013-07-17 2020-06-10 엘지이노텍 주식회사 Camera system and controlling method of Camera system
KR20220010304A (en) * 2020-07-17 2022-01-25 (주)코어센스 Method for Estimating 3D Position Using Cross Covariance
KR20220092053A (en) * 2020-12-24 2022-07-01 (주)코어센스 Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150013709A (en) * 2012-05-09 2015-02-05 엔씨에이엠 테크놀로지스 리미티드 A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
JP2014011529A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Imaging device, imaging system, imaging method, and program
KR102121287B1 (en) 2013-07-17 2020-06-10 엘지이노텍 주식회사 Camera system and controlling method of Camera system
KR20220010304A (en) * 2020-07-17 2022-01-25 (주)코어센스 Method for Estimating 3D Position Using Cross Covariance
KR20220092053A (en) * 2020-12-24 2022-07-01 (주)코어센스 Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation

Also Published As

Publication number Publication date
KR20240007591A (en) 2024-01-16
KR102453561B1 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
US10007349B2 (en) Multiple sensor gesture recognition
KR102606785B1 (en) Systems and methods for simultaneous localization and mapping
CN109949422B (en) Data processing method and equipment for virtual scene
WO2019223468A1 (en) Camera orientation tracking method and apparatus, device, and system
US20220051022A1 (en) Methods and apparatus for venue based augmented reality
US8933931B2 (en) Distributed asynchronous localization and mapping for augmented reality
US9100667B2 (en) Life streaming
US20180088675A1 (en) Coordinate system for gesture control
US20150206337A1 (en) Method and apparatus for visualization of geo-located media contents in 3d rendering applications
CN108389264B (en) Coordinate system determination method and device, storage medium and electronic equipment
WO2021088498A1 (en) Virtual object display method and electronic device
CN112907652B (en) Camera pose acquisition method, video processing method, display device, and storage medium
JP2017212510A (en) Image management device, program, image management system, and information terminal
CN117859077A (en) System and method for generating three-dimensional map of indoor space
WO2018118564A1 (en) Using multiple cameras to stitch a consolidated 3d depth map
Afif et al. Orientation control for indoor virtual landmarks based on hybrid-based markerless augmented reality
CN113610702A (en) Picture construction method and device, electronic equipment and storage medium
KR102022912B1 (en) System for sharing information using mixed reality
KR20230079152A (en) Pose Tracking for Rolling-Shutter Cameras
KR102218843B1 (en) Multi-camera augmented reality broadcasting system based on overlapping layer using stereo camera and providing method thereof
KR20230017864A (en) Tracking of Augmented Reality Devices
KR102549811B1 (en) Method for correcting positioning information using a plurality of stereo camera devices, computer program
CN112887793B (en) Video processing method, display device, and storage medium
KR20120139888A (en) Method and system for providing game using augmented reality
KR102614102B1 (en) An automated calibration system for precise tracking a real object, a calibration method, and a method for tracking a real object in an image based on the calibration method and augmenting a virtual model on the real object

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant