KR20200143293A - Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting - Google Patents

Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting Download PDF

Info

Publication number
KR20200143293A
KR20200143293A KR1020200071797A KR20200071797A KR20200143293A KR 20200143293 A KR20200143293 A KR 20200143293A KR 1020200071797 A KR1020200071797 A KR 1020200071797A KR 20200071797 A KR20200071797 A KR 20200071797A KR 20200143293 A KR20200143293 A KR 20200143293A
Authority
KR
South Korea
Prior art keywords
data
real
camera
augmented reality
image data
Prior art date
Application number
KR1020200071797A
Other languages
Korean (ko)
Inventor
서국한
Original Assignee
주식회사 두리번
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 두리번 filed Critical 주식회사 두리번
Publication of KR20200143293A publication Critical patent/KR20200143293A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

The present invention relates to a method for generating an augmented reality image for real-time multi-way augmented reality (AR) broadcasting, and an apparatus thereof. According to the present invention, the method may comprise the steps of: obtaining motion data and first audio data for a target object, respectively; generating virtual image data including information on a virtual object corresponding to the target object by using the obtained motion data; acquiring real image data and second audio data about the real object; generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data; and transmitting the generated augmented reality image in real time.

Description

실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법 및 장치{METOHD AND APPARTUS FOR GENERATING AUGUMENTED REALITY VIDEO FOR REAL-TIME MULTI-WAY AR BROADCASTING}Augmented reality video generation method and device for real-time multi-way AR broadcasting {METOHD AND APPARTUS FOR GENERATING AUGUMENTED REALITY VIDEO FOR REAL-TIME MULTI-WAY AR BROADCASTING}

본 발명은 실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating an augmented reality image for real-time multi-source AR broadcasting.

가상 현실(virtual reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황을 의미하는 것으로, 컴퓨터를 이용하여 구축한 가상 공간에서 인간 감각계와의 상호작용을 통해 공간적, 물리적 제약에 의해 현실 세계에서는 직접 경험하지 못하는 상황을 간접적으로 체험할 수 있도록 만든 정보 활동 분야의 새로운 패러다임 중의 하나이다.Virtual reality (VR) refers to a specific environment or situation that is similar to reality created by artificial technology using computers, but is not real. It is one of the new paradigms in the field of information activities that allows people to indirectly experience situations that cannot be directly experienced in the real world due to spatial and physical constraints through action.

증강 현실(augmented reality, AR)은 가상 현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 완전한 가상 세계를 전제로 하는 가상 현실과는 달리 현실(Reality)을 기반으로 정보를 증강(Augmented) 제공하는 기술로, 가상의 대상을 결합시켜 현실의 효과를 더욱 증가시킬 수 있다. 즉, 가상 현실에 현실 세계의 실제 모습이 추가된 것이다. 증강현실은 현실 세계의 기반위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 또는 마켓팅의 목적으로 전달하는 부가적인 정보들을 보강해 제공할 수 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 증강 현실은 다양한 현실 환경에 응용이 가능하다. Augmented reality (AR) is a field of virtual reality (VR) and refers to a computer graphic technique that synthesizes virtual objects or information in an actual environment to make it look like an object existing in the original environment. Unlike virtual reality, which presupposes a complete virtual world, it is a technology that provides information based on reality, and can further increase the effect of reality by combining virtual objects. In other words, the actual appearance of the real world is added to the virtual reality. Augmented reality can be provided by synthesizing virtual objects on the basis of the real world by reinforcing additional information that is difficult to obtain with the real world alone or delivered for marketing purposes. Due to these characteristics, augmented reality can be applied to various reality environments, unlike existing virtual reality that can be applied only limited to fields such as games.

최근 정보 통신 기술의 발달로 인해, 정보 처리 및 데이터 전송 능력이 획기적으로 증가함에 따라, 카메라를 통해 촬영된 실제 영상에 가상 영상을 결합한 증강 현실 영상을 실시간으로 생성하고 제공할 수 있게 되었다. With the recent development of information and communication technology, as information processing and data transmission capabilities have increased dramatically, an augmented reality image obtained by combining a virtual image with a real image captured through a camera can be generated and provided in real time.

본 발명은 실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법 및 장치를 제공하기 위한 것이다. The present invention is to provide a method and apparatus for generating an augmented reality image for real-time multiple AR broadcasting.

본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법은, 대상 객체에 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하는 단계; 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하는 단계; 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하는 단계; 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하는 단계; 및 생성된 상기 증강 현실 영상을 실시간 송출하는 단계를 포함할 수 있다. According to an embodiment of the present invention, a method of generating an augmented reality image includes: obtaining motion data and first audio data, respectively, about a target object; Generating virtual image data including information on a virtual object corresponding to the target object by using the received motion data; Acquiring real image data and second audio data about the real object; Generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data; And transmitting the generated augmented reality image in real time.

본 발명의 일 실시예에 따른, 증강 현실 영상 생성 장치는, 통신부, 상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리 및 상기 메모리에 저장된 프로그램을 실행함으로써, 대상 객체의 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하고, 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하며, 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하고, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하고, 생성된 상기 증강 현실 영상을 실시간 송출하는 프로세서를 포함할 수 있다. According to an embodiment of the present invention, the apparatus for generating an augmented reality image includes a communication unit, a memory storing a program for generating the augmented reality image, and a program stored in the memory, thereby providing motion data of a target object. And obtaining first audio data, respectively, and generating virtual image data including information on a virtual object corresponding to the target object using the received motion data, and real image data and second audio related to the real object A processor for acquiring data, generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data, and transmitting the generated augmented reality image in real time. I can.

본 발명의 일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는 증강 현실 영상 생성 방법을 컴퓨터에서 실행하기 위한 프로그램이 기록될 수 있다. In a computer-readable recording medium according to an embodiment of the present invention, a program for executing an augmented reality image generation method on a computer may be recorded.

본 발명의 일 실시예에 따르면, 실시간 다원 AR 방송을 위한 향상된 증강 현실 영상 생성 방법 및 장치를 제공할 수 있다.According to an embodiment of the present invention, a method and apparatus for generating an improved augmented reality image for real-time multi-source AR broadcasting can be provided.

도 1 및 도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.
도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이다.
도 5 및 도 6은 도 4의 440 단계에 대한 일 실시예를 나타내는 순서도이다.
도 7은 도 5의 520 단계에 대한 일 실시예를 나타내는 순서도이다.
도 8은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서 가상 영상 데이터, 실제 영상 데이터와 오디오 데이터의 재생 시간을 동기화하는 예시를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 카메라의 위치 및 앵글을 추정하기 위한 감지 모듈의 동작을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 가사 영상 데이터와 실제 영상 데이터가 카메라의 동작에 따라 정합되는 예시를 도시한다.
도 11은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상의 예시를 도시한다.
1 and 2 are diagrams illustrating a system for providing a method of generating an augmented reality image according to an embodiment of the present invention.
3 is a diagram illustrating an augmented reality image generating apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a method of generating an augmented reality image.
5 and 6 are flowcharts illustrating an embodiment of step 440 of FIG. 4.
7 is a flow chart illustrating an embodiment of step 520 of FIG. 5.
8 illustrates an example of synchronizing reproduction times of virtual image data, real image data, and audio data in a method of generating an augmented reality image according to an embodiment of the present invention.
9 is a diagram illustrating an operation of a sensing module for estimating a position and angle of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.
10 illustrates an example in which lyrics image data and actual image data are matched according to an operation of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.
11 illustrates an example of an augmented reality image generated by a method of generating an augmented reality image according to an embodiment of the present invention.

본 발명의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technical idea of the present invention is that various changes may be made and various embodiments may be provided. Specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the technical idea of the present invention to a specific embodiment, it should be understood to include all changes, equivalents, and substitutes included in the scope of the technical idea of the present invention.

본 발명의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 기술적 사상의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present invention, when it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from another component.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present specification, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but specially It should be understood that as long as there is no opposing substrate, it may be connected or may be connected via another component in the middle.

또한, 본 명세서에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processor), 어플리케이션 프로세서(Application Processor), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present specification mean a unit that processes at least one function or operation, which is a processor or microcomputer. Processor (Micro Processor), Application Processor (Application Processor), Micro Controller (Micro Controller), CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC ( Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc. may be implemented in hardware or software, or a combination of hardware and software.

그리고 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to clarify that the division of the constituent parts in the present specification is merely divided by the main function that each constituent part is responsible for. That is, two or more constituent parts to be described below may be combined into one constituent part, or one constituent part may be divided into two or more according to more subdivided functions. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to its own main function, and some of the main functions of each constituent unit are different. It goes without saying that it may be performed exclusively by.

이하, 본 발명의 기술적 사상에 의한 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments according to the technical idea of the present invention will be sequentially described in detail.

도 1 및 도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다. 1 and 2 are diagrams illustrating a system for providing a method of generating an augmented reality image according to an embodiment of the present invention.

일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템은, 그 기능에 따라, 모션/오디오 데이터 생성 장치(110), 서버(120) 및 증강 현실 영상 생성 장치(130)를 포함할 수 있다. 일 실시예에서, 모션/오디오 데이터 생성 장치(110), 서버(120) 및 증강 현실 영상 생성 장치(130)는 네트워크로 연결될 수 있다. 다만, 이는 일 예에 불과하며, 증강 현실 영상 생성 방법을 제공하기 위한 시스템의 구성이 이에 한정되는 것은 아니다. 특히 도 1에서 모션/오디오 데이터 생성장치(110)은 하나만 도시되었으나, 다수의 가상 객체(즉, 캐릭터)를 구현하기 위해서는 모션/오디오 데이터 생성장치(110)가 복수개 구비되어 서버(1120)와 연결될 수 있다. 또한, 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 다른 구성을 더 포함하거나, 도 1 및 도 2에 개시된 구성 중 일부를 포함하지 않지 않거나 도 1 및 도 2와 다르게 구성될 수도 있다. 예를 들어, 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 서버(120)없이 직접 데이터를 송, 수신하도록 구성되거나, 실시예에 따라, 증강 현실 영상 생성 방법을 제공하기 위한 시스템이 하나의 장치로 구현되어 별도의 네트워크 연결이 필요없을 수도 있다.A system for providing a method of generating an augmented reality image according to an embodiment may include a motion/audio data generating device 110, a server 120, and an augmented reality image generating device 130 according to the function. . In one embodiment, the motion/audio data generating device 110, the server 120, and the augmented reality image generating device 130 may be connected to a network. However, this is only an example, and the configuration of a system for providing a method of generating an augmented reality image is not limited thereto. In particular, only one motion/audio data generating device 110 is shown in FIG. 1, but in order to implement a plurality of virtual objects (ie, characters), a plurality of motion/audio data generating devices 110 are provided to be connected to the server 1120. I can. In addition, a system for providing a method of generating an augmented reality image may further include other configurations, may not include some of the configurations disclosed in FIGS. 1 and 2, or may be configured differently from FIGS. 1 and 2. For example, a system for providing a method for generating an augmented reality image is configured to directly transmit and receive data without the server 120, or according to an embodiment, a system for providing a method for generating an augmented reality image is a single device. It may be implemented so that there is no need for a separate network connection.

일 실시예에서, 모션/오디오 데이터 생성 장치(110)는 캐릭터 스튜디오(character studio, 즉, 가상 객체를 연기하는 캐릭터 연기자의 모션 및 오디오를 획득하기 위한 스튜디오)에 구비될 수 있으며, 증강 현실 영상 생성 장치(130)는 실제 연기자(즉, 실체 객체)를 촬영하는 방송 스튜디오에 구비될 수 있다. 또한, 일 실시예에서, 서버(120)는 5세대 이동 통신(5th generation; 5G)을 지원하는 서버로서, 이를 통해, 본 발명에서 모션 데이터(MDATA)와 오디오 데이터(ADATA)를 분할하여 송출함으로 인해, 양 데이터 사이의 타임 딜레이(time delay)의 발생을 최소화할 수 있다.In one embodiment, the motion/audio data generating device 110 may be provided in a character studio (ie, a studio for acquiring motion and audio of a character actor playing a virtual object), and generating an augmented reality image The device 130 may be provided in a broadcasting studio that photographs an actual actor (ie, an entity object). In addition, in one embodiment, the server 120 is a server supporting 5th generation (5G), through which motion data (MDATA) and audio data (ADATA) are divided and transmitted in the present invention. Therefore, it is possible to minimize the occurrence of a time delay between both data.

모션/오디오 데이터 생성 장치(110)는 모션 데이터 획득부(111), 오디오 데이터 획득부(212), 통신부(213), 제어부(214) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 모션/오디오 데이터 생성 장치(110)의 구성이 이에 한정되는 것은 아니다. The motion/audio data generating device 110 may include a motion data acquisition unit 111, an audio data acquisition unit 212, a communication unit 213, a control unit 214, etc., but this is only an example. / The configuration of the audio data generating device 110 is not limited thereto.

모션 데이터 획득부(111)는 대상 객체(예컨대, 행위자)의 모션을 인식하고, 인식 결과에 따라 대상 객체의 동작(즉, 움직임)을 나타내는 모션 데이터(MDATA)를 생성할 수 있다. 일 실시예에서, 모션 데이터 획득부(211)는 센서, 영상 분석, 모션 캡쳐 등을 이용하여 모션 데이터(MDATA)를 획득할 수 있다. 예를 들어, 빛(예컨대, 적외선)을 조사함으로써 모션 데이터(MDATA)를 생성하거나, 또는, 행위자에 부착된 전극으로부터 수신되는 센서 데이터를 이용하여 모션 데이터(MDATA)를 생성할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 모션 데이터(MDATA)는 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 의미할 수 있으나, 이에 한정되지 않는다.The motion data acquisition unit 111 may recognize a motion of a target object (eg, an actor) and generate motion data MDATA representing a motion (ie, movement) of the target object according to a recognition result. In an embodiment, the motion data acquisition unit 211 may acquire motion data MDATA using a sensor, image analysis, motion capture, or the like. For example, motion data (MDATA) may be generated by irradiating light (eg, infrared), or motion data (MDATA) may be generated using sensor data received from an electrode attached to an actor, but limited to this. It does not become. Here, the motion data MDATA may mean three-dimensional coordinates of each part of the target object, a velocity, acceleration, or moment of inertia of each part of the target object, but is not limited thereto.

일 실시예에서, 모션 데이터(MDATA)는 적어도 하나의 앵글에서 획득된 대상 객체의 동작에 대한 정보를 포함할 수 있다. 예를 들어, 대상 객체를 중심으로 상이한 각도에 복수의 센서 또는 카메라 등이 설치되고, 이를 통해, 1 이상의 앵글에서 대상 객체의 동작을 감지함으로써, 앵글 각각에 대응하는 모션 데이터를 획득할 수 있다. 바람직하게는 모션 데이터 획득부(111)는 증강 현실 영상 생성 장치(130)의 영상 데이터 획득부(131)에서 실제 객체에 대한 실제 영상 데이터를 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 개수와 동일한 위치에 배치되는 센서 또는 카메라를 통해 대상 객체에 대한 모션 데이터(MDATA)를 획득할 수 있다.In an embodiment, the motion data MDATA may include information on the motion of the target object acquired from at least one angle. For example, a plurality of sensors or cameras are installed at different angles around the target object, and motion data corresponding to each angle may be obtained by detecting the motion of the target object at one or more angles through this. Preferably, the motion data acquisition unit 111 includes the number of cameras used for photographing and the location of the cameras in order to acquire the actual image data for the real object in the image data acquisition unit 131 of the augmented reality image generating device 130. Motion data (MDATA) for the target object may be obtained through sensors or cameras disposed in the same number and at the same location.

오디오 데이터 획득부(112)는 대상 객체로부터 생성되는 소리(예를 들어, 음성)를 측정하고, 측정 결과에 따라 오디오 데이터(ADATA)를 생성할 수 있다. 여기서, 대상 객체는 모션 데이터(MDATA)를 획득하는 객체와 동일 개체일 수 있으나, 이에 한정되는 것은 아니며, 성우 등의 다른 대상 객체로부터 획득될 수도 있다. 또한, 실시예에 따라, 오디오 데이터(ADATA)는 대상 객체가 직접 내는 소리 뿐만 아니라, 배경음, 효과음 등 다양한 소리에 대한 데이터가 포함될 수 있다. 예컨대, 오디오 데이터 획득부(112)는 마이크 등의 입력장치 등을 통해 오디오 데이터(ADATA)를 획득할 수 있으나, 이에 한정되는 것은 아니다.The audio data acquisition unit 112 may measure sound (eg, voice) generated from the target object, and may generate audio data ADATA according to the measurement result. Here, the target object may be the same object as the object acquiring the motion data MDATA, but is not limited thereto, and may be acquired from another target object such as a voice actor. In addition, according to an embodiment, the audio data ADATA may include data on various sounds such as background sounds and effect sounds, as well as sounds directly produced by the target object. For example, the audio data acquisition unit 112 may acquire audio data ADATA through an input device such as a microphone, but is not limited thereto.

통신부(113)는 외부 장치와 통신할 수 있다. 모션 데이터 획득부(111)와 오디오 데이터 획득부(112)에서 획득한 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 외부 장치로 전송할 수 있다. 일 실시예에서, 통신부(113)는 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 분리하여 각각 서버(120)로 송출할 수 있다. The communication unit 113 may communicate with an external device. Motion data MDATA and audio data ADATA acquired by the motion data acquisition unit 111 and the audio data acquisition unit 112 may be transmitted to an external device. In an embodiment, the communication unit 113 may separate motion data MDATA and audio data ADATA and transmit them to the server 120, respectively.

제어부(114)는 모션/오디오 데이터 생성 장치(110)의 전반적인 동작을 제어한다. 예를 들어, 제어부(114)는 모션 데이터 획득부(111)를 이용하여 모션 데이터(MDATA)를 획득하고, 오디오 데이터 획득부(112)를 이용하여 대상 객체(예컨대, 행위자)의 오디오 데이터(ADATA)를 획득하며, 통신부(113)를 통해 생성한 데이터를 서버(120)로 전송하는 동작을 제어할 수 있다.The controller 114 controls the overall operation of the motion/audio data generating device 110. For example, the control unit 114 acquires motion data (MDATA) using the motion data acquisition unit 111, and uses the audio data acquisition unit 112 to obtain audio data (ADATA) of a target object (eg, an actor). ) Is obtained, and an operation of transmitting data generated through the communication unit 113 to the server 120 may be controlled.

서버(120)는, 모션/오디오 데이터 생성 장치(110)와 증강 현실 영상 생성 장치(130)와 유선 또는 무선 통신 프로토콜에 따라 데이터를 주고받을 수 있는 연산 장치일 수 있다. 실시예들에 따라, 서버(120)는 데이터를 수신하고, 수신된 데이터를 처리하고, 처리된 데이터를 전송할 수 있다. 서버(120)는 특정 동작을 수행하기 위한 명령어들을 포함하는 프로그램을 비 일시적인 저장매체에 저장할 수 있고, 상기 프로그램을 로딩하고, 로딩된 프로그램의 제어에 따라 다양한 연산 또는 동작을 수행할 수 있다.The server 120 may be a computing device capable of sending and receiving data according to a wired or wireless communication protocol with the motion/audio data generating device 110 and the augmented reality image generating device 130. According to embodiments, the server 120 may receive data, process the received data, and transmit the processed data. The server 120 may store a program including instructions for performing a specific operation in a non-temporary storage medium, load the program, and perform various operations or operations according to the control of the loaded program.

서버(120)는, 예를 들어, 5세대 이동 통신(5th generation; 5G)을 이용하여, 분리 송출된 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 수신하고, 이를, 증강 현실 영상 생성 장치(130)로 전송할 수 있다. 다만, 이러한 통신 방식은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라, 다양한 무선 통신 방식을 통해 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 전송하도록 구현될 수 있다.The server 120 receives the separately transmitted motion data MDATA and audio data ADATA using, for example, 5th generation mobile communication (5G), and receives the separately transmitted motion data MDATA and the audio data ADATA. 130). However, this communication method is exemplary and may be implemented to transmit motion data (MDATA) and audio data (ADATA) through various wireless communication methods according to an embodiment to which the present invention is applied.

증강 현실 영상 생성 장치(130)는 영상 데이터 획득부(131), 오디오 데이터 획득부(132), 카메라 동작 판단부(133), 가상 영상 생성부(134), 증강 현실 영상 생성부(135), 통신부(136), 제어부(137) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(130)의 구성이 이에 한정되는 것은 아니다. The augmented reality image generation device 130 includes an image data acquisition unit 131, an audio data acquisition unit 132, a camera operation determination unit 133, a virtual image generation unit 134, an augmented reality image generation unit 135, The communication unit 136, the control unit 137, etc. may be included, but this is only an example, and the configuration of the augmented reality image generating apparatus 130 is not limited thereto.

영상 데이터 획득부(131)는 카메라를 통해 실제 객체를 촬영함으로써 실제 영상 데이터를 획득할 수 있다. 영상 데이터 획득부(131)는, 예를 들어, 카메라와 카메라에서 획득한 영상을 디지털 인코딩하는 디지털 인코더와 코덱프로그램으로 이루어질 수 있다. 일 실시예에서, 영상 데이터 획득부(131)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상 데이터를 획득할 수 있다. 바람직하게는, 영상 데이터 획득부(131)는 모션 데이터 획득부(111)에서 획득된 모션 데이터(MDATA)와 동일한 위치(즉, 앵글_에서 실제 객체에 대한 실제 영상 데이터를 획득할 수 있도록 카메라의 개수 및 카메라의 위치가 설정될 수 있다. 이를 통해, 보다 정확도 높은 증강 현실 영상을 생성할 수 있다.The image data acquisition unit 131 may acquire real image data by photographing an actual object through a camera. The image data acquisition unit 131 may include, for example, a camera and a digital encoder and a codec program that digitally encode an image acquired from the camera. In an embodiment, the image data acquisition unit 131 may acquire actual image data captured through at least one camera. Preferably, the image data acquisition unit 131 is the same position as the motion data MDATA acquired by the motion data acquisition unit 111 (ie, the angle_) of the camera so that the actual image data for the real object can be acquired. The number and the location of the cameras may be set, thereby generating an augmented reality image with higher accuracy.

오디오 데이터 획득부(132)는 실제 객체로부터 생성되는 소리(예를 들어, 음성)를 측정하고, 측정 결과에 따라 오디오 데이터를 생성할 수 있다. 실시예에 따라, 오디오 데이터는 실제 객체가 직접 내는 소리 뿐만 아니라, 배경음, 효과음 등 다양한 소리에 대한 데이터가 포함될 수 있다. 예컨대, 오디오 데이터 획득부(132)는 마이크 등의 입력장치 등을 통해 오디오 데이터를 획득할 수 있으나, 이에 한정되는 것은 아니다.The audio data acquisition unit 132 may measure sound (eg, voice) generated from an actual object and generate audio data according to the measurement result. Depending on the embodiment, the audio data may include data about various sounds such as background sound and effect sound, as well as sound directly produced by an actual object. For example, the audio data acquisition unit 132 may acquire audio data through an input device such as a microphone, but is not limited thereto.

카메라 동작 판단부(133)는 실제 객체를 촬영하는 카메라의 동작을 판단할 수 있다. 일 실시예에서, 카메라 동작 판단부(133)는, 실제 객체의 촬영 공간의 바닥, 천정 등에 설치되는 복수의 마커(marker)와 적어도 하나 이상의 카메라 각각에 부착된 감지 모듈을 이용하여 적어도 하나 이상의 카메라의 동작을 판단할 수 있다. 또한, 일 실시예에서, 카메라 동작 판단부(133)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 적어도 하나 이상의 카메라의 동작을 판단할 수 있다. 여기서, 카메라의 동작은, 카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점, 제 1 카메라에서 제 2 카메라로의 영상 전환 등을 포함할 수 있다.The camera operation determination unit 133 may determine an operation of a camera for photographing an actual object. In one embodiment, the camera operation determination unit 133 uses at least one camera by using a plurality of markers installed on the floor, ceiling, etc. of the shooting space of an actual object and a detection module attached to each of at least one camera. Can judge the operation of In addition, in an embodiment, the camera operation determination unit 133 may determine an operation of at least one or more cameras by analyzing an actual image captured by at least one or more cameras. Here, the operation of the camera may include a camera photographing position, a camera angle, a zoom in, a zoom out, a focus, and an image conversion from the first camera to the second camera.

가상 영상 데이터 생성부(134)는 서버(120)로부터 수신한 모션 데이터(MDATA) 및/또는 오디오 데이터(ADATA) 등을 기초로, 가상 영상 데이터를 생성할 수 있다. 여기서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 동작, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. The virtual image data generating unit 134 may generate virtual image data based on motion data MDATA and/or audio data ADATA received from the server 120. Here, the virtual image data may include data on at least one or more of a display position, angle, motion, size, direction, focus, and depth of the virtual object.

증강 현실 영상 생성부(135)는 가상 영상 데이터, 실제 영상 데이터, 서버(120)로부터 수신한 대상 객체에 관한 오디오 데이터 및 실제 객체에 관한 오디오 데이터의 재생 시간을 동기화할 수 있다. 일 실시예에서, 동기화는 PTS(Presentation Time Stamp)에 기초하여 수행될 수 있다. 예를 들어, 증강 현실 영상 생성부(135)는 상기 데이터 중 재생 시간이 가장 느린 데이터의 PTS를 기초로, 다른 데이터의 PTS를 조정함으로써 동기화를 수행할 수 있다. 카메라 동작 판단부(133)에서 판단한 카메라의 촬영 동작에 따라, 가상 영상 데이터, 실제 영상 데이터 및 동기화된 재생 시간에 관한 정보에 기초하여, 가상 객체를 실제 실제에 적응적으로 정합하여 결합 영상 데이터를 생성할 수 있다. 일 실시예에 따르면, 실제 영상이 변경되는 것에 따라 가상 영상이 함께 변경될 수 있다. 예를 들어, 실제 객체를 촬영하는 스튜디오에서 복수의 카메라를 통해 실제 인물과 공간을 촬영하는 경우, 하나의 카메라가 자세(즉, 앵글) 또는 줌인/줌아웃 등이 변경되거나, 제 1 카메라에서 제 2 카메라로 영상이 전환되는 경우, 이러한 변화에 맞춰서 가상 객체의 표시 위치(즉, 좌표), 표시 각도, 크기 등을 변경할 수 있다. 일 실시예에서, 증강 현실 영상 생성부(135)는 가상 카메라에 기초하여, 가상 객체와 실제 객체가 정합되는 결합 영상 데이터를 생성하도록 구성될 수 있다. 예를 들어, 실제 카메라와 대응하는 가상 카메라를 생성하고, 실제 카메라의 동작에 대응하여 가상 카메라의 자세(앵글), 위치 또는 줌인/줌아웃이 변경되거나, 카메라의 전환을 수행함으로써, 가상 객체를 실제 객체에 적응적으로 정합시킬 수 있다. 또한, 증강 현실 영상 생성부(135)는 생성된 결합 영상 데이터에 동기화된 재생 시간에 기초하여 오디오 데이터들을 결합함으로써, 증강 현실 영상을 생성할 수 있다. The augmented reality image generator 135 may synchronize virtual image data, real image data, audio data about a target object received from the server 120, and a playback time of audio data about the real object. In one embodiment, synchronization may be performed based on a PTS (Presentation Time Stamp). For example, the augmented reality image generator 135 may perform synchronization by adjusting the PTS of other data based on the PTS of the data having the slowest reproduction time among the data. According to the shooting operation of the camera determined by the camera operation determination unit 133, the combined image data is adaptively matched with the virtual object based on the virtual image data, the actual image data, and the information about the synchronized playback time. Can be generated. According to an embodiment, the virtual image may be changed together as the actual image is changed. For example, when a real person and a space are photographed through a plurality of cameras in a studio shooting an actual object, one camera changes its posture (ie, angle) or zoom in/zoom out, or the first camera When the image is switched to the camera, the display position (ie, coordinates), the display angle, and the size of the virtual object can be changed according to the change. In an embodiment, the augmented reality image generator 135 may be configured to generate combined image data in which a virtual object and a real object are matched based on a virtual camera. For example, a virtual camera corresponding to a real camera is created, and the pose (angle), position, or zoom in/zoom out of the virtual camera is changed in response to the actual camera motion, or the virtual object is actually It can be adaptively matched to the object. In addition, the augmented reality image generator 135 may generate an augmented reality image by combining audio data based on a synchronized playback time with the generated combined image data.

통신부(136)는 외부 장치와 통신할 수 있다. 일 실시예에서, 통신부(136)는 서버(120)로부터 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 수신할 수 있다. 또한, 통신부(136)는 생성한 증강 현실 영상을 외부 장치(예를 들어, 디스플레이 장치)로 전송할 수도 있다. The communication unit 136 may communicate with an external device. In an embodiment, the communication unit 136 may receive motion data MDATA and audio data ADATA from the server 120. In addition, the communication unit 136 may transmit the generated augmented reality image to an external device (eg, a display device).

제어부(137)는 증강 현실 영상 생성 장치(130)의 전반적인 동작을 제어한다. 예를 들어, 제어부(137)는 영상 데이터 획득부(131) 및 오디오 데이터 획득부(132)를 이용하여 실제 영상 데이터 및 오디오 데이터를 획득하고, 카메라 동작 판단부(133)를 이용하여 카메라의 동작을 판단하며, 가상 영상 데이터 생성부(134)를 이용하여 가상 객체에 대한 가상 영상 데이터를 생성하고, 증강 현실 영상 생성부(135)를 이용하여, 데이터들의 동기화, 결합 영상 데이터 및 증강 현실 영상을 생성하는 동작을 제어할 수 있다. The controller 137 controls the overall operation of the augmented reality image generating device 130. For example, the control unit 137 acquires actual image data and audio data using the image data acquisition unit 131 and the audio data acquisition unit 132, and the camera operation using the camera operation determination unit 133 And, using the virtual image data generating unit 134 to generate virtual image data for a virtual object, and using the augmented reality image generating unit 135 to synchronize data, combine image data, and augmented reality image You can control the actions you create.

도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.3 is a diagram illustrating an augmented reality image generating apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치(300)는, 그 하드웨어 구성에 따라 통신부(310), 프로세서(320), 및 메모리(330)를 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(300)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 증강 현실 영상 생성 장치(300)는 다른 구성을 더 포함하거나, 도 3에 개시된 구성 중 일부를 포함하지 않을 수도 있다. Referring to FIG. 3, the augmented reality image generating apparatus 300 according to an embodiment of the present invention may include a communication unit 310, a processor 320, and a memory 330 according to the hardware configuration, This is only an example, and the configuration of the augmented reality image generating apparatus 300 is not limited thereto. For example, the augmented reality image generating apparatus 300 may further include other configurations or may not include some of the configurations disclosed in FIG. 3.

일 실시예에서, 통신부(310)는 프로세서(320)의 제어에 의해 서버, 디스플레이 장치 등과 같은 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. 일 실시예에 따른 통신부(310)는 도 3에서 도시하고 설명한 통신부(136)의 기능을 수행할 수 있다. 예를 들어, 통신부(310)는 네트워크를 통하여 서버로부터 모션 데이터 및 오디오 데이터를 수신하거나 또는 생성한 증강 현실 영상을 디스플레이 장치 등이 외부 장치로 전송할 수도 있다. In an embodiment, the communication unit 310 may transmit and receive data or signals with an external device such as a server or a display device or an external server under the control of the processor 320. The communication unit 310 according to an embodiment may perform the function of the communication unit 136 illustrated and described in FIG. 3. For example, the communication unit 310 may receive motion data and audio data from a server through a network, or may transmit the generated augmented reality image to an external device by a display device or the like.

통신부(310)는 유무선 통신부를 포함할 수 있다. 통신부(310)가 유선 통신부를 포함하는 경우, 통신부(310)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(310)가 무선 통신부를 포함하는 경우, 통신부(310)는 5G 등의 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다.The communication unit 310 may include a wired or wireless communication unit. When the communication unit 310 includes a wired communication unit, the communication unit 310 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components for communicating through a combination thereof. In addition, when the communication unit 310 includes a wireless communication unit, the communication unit 310 may transmit data or signals wirelessly using a cellular communication such as 5G or a wireless LAN (eg, Wi-Fi). Can send and receive.

일 실시예에서, 프로세서(320)는 증강 현실 영상 생성 장치(300)의 전반적인 동작을 제어할 수 있다. 프로세서(320)는 메모리(330)에 저장되는 하나 이상의 프로그램들을 실행할 수 있고, 도 2의 영상 데이터 획득부(131), 오디오 데이터 획득부(132), 카메라 동작 판단부(133), 가상 영상 데이터 생성부(134), 증강 현실 영상 생성부(135) 및 제어부(137)의 기능 중 적어도 하나 이상의 기능을 수행할 수 있다. In an embodiment, the processor 320 may control the overall operation of the augmented reality image generating apparatus 300. The processor 320 may execute one or more programs stored in the memory 330, and the image data acquisition unit 131, audio data acquisition unit 132, camera operation determination unit 133, virtual image data of FIG. 2 At least one of the functions of the generation unit 134, the augmented reality image generation unit 135, and the control unit 137 may be performed.

일 실시예에서 프로세서(320)는 통신부(310)를 제어하여 서버로부터 모션 데이터 및 오디오 데이터를 수신할 수 있다. 여기서, 모션 데이터는 적어도 하나의 앵글에서 감지된 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 포함할 수 있다.In an embodiment, the processor 320 may control the communication unit 310 to receive motion data and audio data from a server. Here, the motion data may include 3D coordinates of each part of the target object detected at at least one angle, a velocity, acceleration, or moment of inertia of each part of the target object.

일 실시예에서 프로세서(320)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 객체에 대한 실제 영상 데이터를 획득할 수 있다. In an embodiment, the processor 320 may acquire actual image data for an actual object photographed through at least one camera.

일 실시예에서 프로세서(320)는 실제 객체로부터 생성되는 소리에 대한 측정 결과에 따라 오디오 데이터를 생성할 수 있다.In an embodiment, the processor 320 may generate audio data according to a measurement result of sound generated from an actual object.

일 실시예에서 프로세서(320)는, 실제 객체를 촬영하는 카메라의 동작을 판단할 수 있다. 여기서, 카메라의 촬영 동작은 카메라 촬영 위치,카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나 이상을 포함할 수 있다. In an embodiment, the processor 320 may determine an operation of a camera that actually photographs an object. Here, the photographing operation of the camera may include at least one of a camera photographing position, a camera angle, a zoom in, a zoom out, a focus, and an image change from the first camera to the second camera.

일 실시예에서 프로세서(320)는, 모션 데이터를 기초로 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 여기서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. In an embodiment, the processor 320 may generate virtual image data including information on a virtual object based on motion data. Here, the virtual image data may include data on at least one of a display position, angle, size, direction, focus, and depth of the virtual object.

일 실시예에서 프로세서(320)는, 가상 영상 데이터, 실제 영상 데이터, 대상 객체에 관한 오디오 데이터 및 실제 객체에 관한 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화할 수 있다. 예를 들어, 프로세서(320)는 각 데이터들의 PTS를 기준으로 재생 시간을 동기화할 수 있다.In an embodiment, the processor 320 may synchronize playback times of at least two or more of virtual image data, real image data, audio data about a target object, and audio data about a real object. For example, the processor 320 may synchronize the playback time based on the PTS of each data.

일 실시예에서 프로세서(320)는 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 동작에 따라 가상 객체가 실제 객체에 적응적으로 정합되는 결합 영상 데이터를 생성할 수 있다. 프로세서(320)는 카메라의 동작에 대한 판단 결과에 따라 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 실제 객체에 정합할 수 있다.In an embodiment, the processor 320 may generate combined image data in which the virtual object is adaptively matched with the real object according to an operation of at least one or more cameras photographing a real object. The processor 320 may match the actual object by changing at least one of the display position, angle, size, direction, focus, and depth of the virtual object according to a result of determining the operation of the camera.

일 실시예에서 프로세서(320)는, 결합 영상 데이터에 오디오 데이터들을 결합함으로써, 증강 현실 영상을 생성할 수 있다.In an embodiment, the processor 320 may generate an augmented reality image by combining audio data with the combined image data.

일 실시예에서 프로세서(320)는, 생성된 증강 현실 영상을 외부 장치(예를 들어, 디스플레이 장치, 서버, 단말 등)로 실시간 송출할 수 있다.In one embodiment, the processor 320 may transmit the generated augmented reality image to an external device (eg, a display device, a server, a terminal, etc.) in real time.

메모리(330)는 증강 현실 영상 생성 장치(300)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(330)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(330)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(320)에 의해 실행될 수 있다. 또한, 메모리(330)는 도 2에서 도시하고 설명한 저장부(230)를 포함할 수 있으나, 이에 한정되지 않는다.The memory 330 may store various data, programs, or applications for driving and controlling the augmented reality image generating apparatus 300. A program stored in the memory 330 may include one or more instructions. A program (one or more instructions) or an application stored in the memory 330 may be executed by the processor 320. Also, the memory 330 may include the storage unit 230 illustrated and described in FIG. 2, but is not limited thereto.

한편, 도 2 및 도 3의 블록도들은 일 실시예를 위한 블록도로, 각 구성요소는 실제 구현되는 시스템에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagrams of FIGS. 2 and 3 are block diagrams for an embodiment, and each component may be integrated, added, or omitted according to an actual implemented system. That is, if necessary, two or more components may be combined into a single component, or one component may be subdivided into two or more components and configured. In addition, functions performed by each block are for explaining embodiments, and specific operations or devices thereof do not limit the scope of the present invention.

도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이고, 도 5 및 도 6은 도 4의 440 단계에 대한 일 실시예를 나타내는 순서도이며, 도 7은 도 5의 520 단계에 대한 일 실시예를 나타내는 순서도이다.4 is a flowchart illustrating a method of generating an augmented reality image, FIGS. 5 and 6 are flowcharts illustrating an embodiment of step 440 of FIG. 4, and FIG. 7 is a flowchart illustrating an embodiment of step 520 of FIG. 5 to be.

410 단계에서, 증강 현실 영상 생성 장치는 대상 객체에 관한 모션 데이터 및 제 1 오디오 데이터를 수신할 수 있다. 모션 데이터 및 제 1 오디오 데이터는 모션/오디오 획득 장치로부터 분리 송출된 것으로서, 서버를 통해 분리 수신될 수 있다. 여기서 모션 데이터는 적어도 하나의 앵글에서 감지된 대상 객체의 동작에 관한 정보, 즉, 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 포함할 수 있다. 또한, 일 실시예에서, 모션 데이터 및 제 1 오디오 데이터는, 재생 시간에 관한 정보, 즉, PTS(presentation time stamp)에 관한 정보를 포함할 수 잇다.In step 410, the augmented reality image generating apparatus may receive motion data and first audio data regarding a target object. The motion data and the first audio data are separately transmitted from the motion/audio acquisition device and may be separately received through a server. Here, the motion data may include information on the motion of the target object detected at at least one angle, that is, three-dimensional coordinates of each part of the target object, a velocity, acceleration, or moment of inertia of each part of the target object. . In addition, in an embodiment, the motion data and the first audio data may include information about a reproduction time, that is, information about a presentation time stamp (PTS).

420 단계에서, 증강 현실 영상 생성 장치는 수신된 모션 데이터를 이용하여 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 예를 들어, 증강 현실 영상 생성 장치는 미리 저장된 가상 객체의 정보 및 모션 데이터를 기초로, 모션 데이터에 대응하는 가상 객체의 형태 및 움직임에 대한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 일 실시예에서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있으며, 실시예에 따라, 재생 시간에 관한 정보, 즉, PTS에 관한 정보를 더 포함할 수 있다. 가상 영상 데이터의 PTS는 모션 데이터와 동일할 수 있다.In step 420, the augmented reality image generating apparatus may generate virtual image data including information on a virtual object corresponding to the target object by using the received motion data. For example, the augmented reality image generating apparatus may generate virtual image data including information on a shape and motion of a virtual object corresponding to the motion data based on information and motion data of the virtual object previously stored. In an embodiment, the virtual image data may include data on at least one or more of a display position, angle, size, direction, focus, and depth of the virtual object, and according to the embodiment, information on the playback time, that is, , PTS information may be further included. The PTS of the virtual image data may be the same as the motion data.

본 발명에 따르면, 모션 데이터와 오디오 데이터가 병합된 가상 영상 데이터 자체를 전송 및 수신하지 않고, 모션 데이터와 오디오 데이터를 분리 송출하고 이를 수신하여 가상 영상 데이터 및 증강 현실 영상을 생성하므로, 전송 리소스가 감소하는 효과가 있다.According to the present invention, since the motion data and audio data are separately transmitted and received to generate the virtual image data and the augmented reality image, the transmission resource is not transmitted and received. It has a reducing effect.

실시예에 따라, 증강 현실 영상 생성 장치는 모션 데이터 및 제 1 오디오 데이터 모두에 기초하여 가상 영상 데이터를 생성할 수 있다.According to an embodiment, the augmented reality image generating apparatus may generate virtual image data based on both motion data and first audio data.

실시예들에 따라, 가상 영상 데이터는 렌더링되지 않은 데이터일 수 있다. 예컨대, 가상 영상 데이터를 이용하여 방송을 하기 위해서는 추가적인 렌더링 작업이 필요할 수 있다.According to embodiments, the virtual image data may be data that is not rendered. For example, in order to broadcast using virtual image data, an additional rendering operation may be required.

430 단계에서, 증강 현실 영상 생성 장치는 적어도 하나 이상의 카메라를 통해 촬영된 실제 객체에 관한 실제 영상 데이터 및 실체 객체와 관련하여 측정된 제 2 오디오 데이터를 획득할 수 있다. 일 실시예에서, 실제 영상 데이터 및 제 2 오디오 데이터는, 재생 시간에 관한 정보, 즉, PTS에 관한 정보를 포함할 수 잇다.In step 430, the augmented reality image generating apparatus may acquire real image data about an actual object photographed through at least one camera and second audio data measured in relation to the real object. In an embodiment, the actual image data and the second audio data may include information about a reproduction time, that is, information about a PTS.

440 단계에서, 증강 현실 영상 생성 장치는 생성된 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성할 수 있다.In step 440, the augmented reality image generating apparatus may generate an augmented reality image based on the generated virtual image data, real image data, first audio data, and second audio data.

도 5를 참조하면, 일 실시예에서, 440 단계는, 510 단계 내지 540 단계를 포함할 수 있다.Referring to FIG. 5, in an embodiment, step 440 may include steps 510 to 540.

510 단계에서, 증강 현실 영상 생성 장치는 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화할 수 있다.In operation 510, the augmented reality image generating apparatus may synchronize at least two or more of the virtual image data, real image data, first audio data, and second audio data.

일 실시예에서, 510 단계는, PTS(presentation time stamp)에 기초하여 수행될 수 있다. 예를 들어, 510 단계는, 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터 중 재생 시간이 가장 느린 데이터의 PTS를 기준으로 다른 데이터의 PTS를 조정함으로써, 수행될 수 있다. 이와 관련하여, 도 8을 참조하면, 도 8은 가상 영상 데이터, 실제 영상 데이터와 오디오 데이터의 재생 시간을 동기화하는 예시를 나타낸다. 도시되는 바와 같이, 재생 시간이 가장 느린 제 2 오디오 데이터의 PTS를 기준으로 하여, 가상 영상 데이터(VVDATA), 실제 영상 데이터(AVDATA) 및/또는 제 1 오디오 데이터(ADATA)의 PST를 조정함으로써, 적어도 2 이상의 데이터에 대한 재생 시간을 동기화할 수 있다.In one embodiment, step 510 may be performed based on a presentation time stamp (PTS). For example, step 510 may be performed by adjusting the PTS of other data based on the PTS of the data having the slowest playback time among virtual image data, real image data, first audio data, and second audio data. In this regard, referring to FIG. 8, FIG. 8 shows an example of synchronizing reproduction times of virtual image data, real image data, and audio data. As shown, by adjusting the PST of the virtual image data (VVDATA), the actual image data (AVDATA) and/or the first audio data (ADATA) based on the PTS of the second audio data having the slowest reproduction time, Playback times for at least two or more data can be synchronized.

520 단계에서, 증강 현실 영상 생성 장치는 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 동작에 대한 정보를 획득할 수 있다. 여기서, 카메라의 동작에 대한 정보는, 카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나에 관한 정보를 포함할 수 있다.In step 520, the augmented reality image generating apparatus may obtain information on the operation of at least one camera that photographs an actual object. Here, the information on the operation of the camera may include information on at least one of a camera photographing position, a camera angle, a zoom in, a zoom out, a focus, and an image conversion from the first camera to the second camera.

일 실시예에서, 카메라의 동작에 대한 정보는 실제 객체에 대한 촬영 공간에 설치된 마커(marker)를 이용하여 획득될 수 있다. 즉, 예를 들어, 도 6에 도시되는 바와 같이, 증강 현실 영상 생성 장치는 각각의 카메라에 설치된 감지 모듈로부터 적어도 하나의 제 1 마커에 대한 감지 데이터를 수신하고(710), 감지 데이터에 기초하여, 실제 객체를 촬영하는 카메라의 촬영 위치 및 앵글 중 적어도 하나를 추정할 수 있다(720).In an embodiment, information on the motion of the camera may be obtained using a marker installed in a photographing space for an actual object. That is, for example, as shown in FIG. 6, the augmented reality image generating apparatus receives detection data for at least one first marker from a detection module installed in each camera (710), and based on the detection data , At least one of a photographing position and an angle of a camera photographing an actual object may be estimated (720 ).

여기서, 제 1 마커는 상기 촬영 공간 중 적어도 일 영역에 설치된 복수의 제 2 마커 중에서 감지 모듈이 감지 가능한(또는, 감지 모듈에 신호가 수신되는) 적어도 일부의 마커를 지칭할 수 있다. 또한, 감지 데이터는, 이러한 제 1 마커에 대응하는 고유 식별 신호, 고유 식별 신호 각각의 수신 강도 및 감지 시간에 관한 적어도 하나의 정보를 포함할 수 있다.Here, the first marker may refer to at least some of the plurality of second markers installed in at least one area of the photographing space that the detection module detects (or the signal is received from the detection module). In addition, the sensing data may include at least one piece of information about a unique identification signal corresponding to the first marker and a reception strength and detection time of each of the unique identification signals.

이와 관련하여, 도 9를 참조하면, 도 9는 카메라의 위치 및 앵글을 추정하기 위한 감지 모듈의 동작을 설명하기 위한 도면을 도시한다. In this regard, referring to FIG. 9, FIG. 9 is a diagram illustrating an operation of a sensing module for estimating a position and angle of a camera.

도시되는 바와 같이, 촬영 공간의 천장에 복수의 마커가 일정한 배열 또는 랜덤하게 배치되며, 실제 객체를 촬영하는 카메라(910)에는 이러한 마커를 감지하기 위한 감지 모듈(920)이 천장을 향하도록 설치될 수 있다.As shown, a plurality of markers are arranged in a certain arrangement or randomly arranged on the ceiling of the photographing space, and a detection module 920 for detecting such markers is installed to face the ceiling in the camera 910 that photographs an actual object. I can.

일 실시예에서, 복수의 마커는 상이한 파장 또는 주파수 등의 고유 식별 신호를 발산하는 적외선 송광 다이오드(Infrared Rays Emitting Diode: IRED)일 수 있다. 또한, 일 실시예에서, 복수의 마커는 특정 파장의 광이 투사되면, 각각 상이한 고유 식별 신호를 반사하는 역반사성(retroreflective)을 가질 수 있다. 이 경우, 감지 모듈(920)에는 특정 파장의 광을 투사하기 위한 조명 모듈(예를 들어, LED 모듈)이 구비될 수 있다.In one embodiment, the plurality of markers may be Infrared Rays Emitting Diodes (IRDs) that emit unique identification signals such as different wavelengths or frequencies. In addition, in an embodiment, when light of a specific wavelength is projected, the plurality of markers may have retroreflective properties that reflect different unique identification signals, respectively. In this case, the sensing module 920 may be provided with a lighting module (eg, an LED module) for projecting light of a specific wavelength.

카메라(910)의 수평 위치(X, Y), 높이(Z) 또는 각도(P(pan), R(roll), T(tilt)가 변화하면, 감지 모듈(920)에 수신되는 고유 식별 신호 및 해당 신호의 강도가 상이하게 변화되므로, 감지 모듈(920)은, 이를 감지하여, 증강 현실 영상 생성 장치에 전달하고, 증강 현실 영상 생성 장치는 이를 기초로 카메라(910) 각각의 촬영 위치 및 앵글 중 적어도 하나를 추정할 수 있다.When the horizontal position (X, Y), height (Z) or angle (P (pan), R (roll), T (tilt)) of the camera 910 changes, a unique identification signal received by the detection module 920 and Since the intensity of the corresponding signal changes differently, the detection module 920 detects this and transmits it to the augmented reality image generating device, and the augmented reality image generating device is based on this, among the photographing positions and angles of the camera 910. At least one can be estimated.

일 실시예에서, 감지 모듈(920)은 카메라(910)와 상이한 방향, 즉, 마커의 설치 위치(예를 들어, 천장)을 촬영하는 마커 감지 카메라를 포함할 수 있다. 이때, 마커 감지 카메라에는 상이한 파장의 적외선 등의 고유 식별 신호를 감지할 수 있는 검출 필터가 포함될 수 있다. 따라서, 마커 감지 카메라가 천장 등의 마커를 촬영하면, 촬영 부위에 대한 이미지로부터 마커 및/또는 신호 강도가 식별될 수 있다. 이 경우, 감지 데이터는 마커 감지 카메라에 의해 촬영된 제 1 마커에 대한 이미지를 포함할 수 있다.In an embodiment, the detection module 920 may include a marker detection camera that photographs a direction different from the camera 910, that is, an installation position (eg, a ceiling) of the marker. In this case, the marker detection camera may include a detection filter capable of detecting a unique identification signal such as infrared rays of different wavelengths. Accordingly, when the marker detection camera photographs a marker such as a ceiling, the marker and/or signal strength may be identified from the image of the photographing portion. In this case, the detection data may include an image of the first marker captured by the marker detection camera.

마커 감지 카메라가 구비되는 경우, 실시예에 따라, 카메라(910)의 촬영 영상과 마커 카메라의 촬영 영상을 동기화하는 단계를 포함할 수 있다.When a marker detection camera is provided, according to an embodiment, the step of synchronizing the captured image of the camera 910 and the captured image of the marker camera may be included.

다시, 도 5로 돌아가서, 530 단계에서, 증강 현실 영상 생성 장치는 가상 영상 데이터와 실제 영상 데이터에 기초하여, 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 가상 객체가 실제 객체에 적응적으로 정합하는 결합 영상 데이터를 생성할 수 있다. 즉, 예를 들어, 증강 현실 영상 생성 장치는, 동기화된 재생 시간 및 획득된 카메라의 동작에 대한 정보를 기초로, 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 실제 객체에 정합함으로써, 결합 영상 데이터를 생성할 수 있다.Again, returning to FIG. 5, in step 530, the augmented reality image generating apparatus adapts the virtual object to the real object according to a photographing operation of at least one camera that photographs the real object based on the virtual image data and the real image data. Combined image data matching with can be generated. That is, for example, the augmented reality image generating apparatus may determine at least one of a display position, an angle, a size, a direction, a focus, and a depth of the virtual object based on the synchronized playback time and the acquired camera operation information. By changing and matching it to the actual object, combined image data can be generated.

본 발명에 따르면, 특히, 실제 객체를 촬영하는 카메라가 복수인 경우, 각 카메라의 촬영 위치, 앵글, 카메라 전환 등에 따라, 가상 객체의 표시 위치, 앵글, 크기 등을 변경하여 실제 객체와 정합하도록 결합 영상 데이터를 생성함으로써, 보다 현실감있는 실시간 AR 방송을 제공할 수 있다.According to the present invention, in particular, when there are a plurality of cameras photographing an actual object, the display position, angle, and size of the virtual object are changed according to the photographing position, angle, and camera switching of each camera to match the actual object. By generating image data, it is possible to provide more realistic real-time AR broadcasting.

540 단계에서, 증강 현실 영상 생성 장치는 동기화된 재생 시간에 관한 정보를 기초로 생성된 결합 영상 데이터에 가상 객체에 관한 제 1 오디오 데이터 및 실제 객체에 관한 제 2 오디오 데이터를 결합하여 증강 현실 영상을 생성할 수 있다.In step 540, the augmented reality image generating apparatus combines the first audio data related to the virtual object and the second audio data related to the real object to the combined image data generated based on the synchronized playback time information to generate an augmented reality image. Can be generated.

도 6을 참조하면, 440 단계는 610 단계 내지 660 단계를 통해 수행될 수 있다. 610, 620, 650 및 660 단계는 도 5를 참조하여 상술한 510 내지 540 단계와 동일하게 수행될 수 있으며, 중복되는 설명은 생략한다.Referring to FIG. 6, step 440 may be performed through steps 610 to 660. Steps 610, 620, 650, and 660 may be performed in the same manner as steps 510 to 540 described above with reference to FIG. 5, and redundant descriptions will be omitted.

630 단계에서, 증강 현실 영상 생성 장치는 실제 객체를 촬영하는 적어도 하나의 카메라에 대응하는 적어도 하나의 가상 카메라를 생성할 수 있다. 여기서, 가상 카메라는 가상 객체의 표시 위치(좌표), 앵글, 크기, 방향, 초점, 깊이 등을 변환하기 위하여, 실제 카메라의 동작에 적응적으로 동기화되도록 구현된 것으로서, 이하 상술되는 바와 같이, 실제 카메라의 동작이 변화하면, 이에 대응하여 가상 카메라의 촬영 위치, 앵글 등을 조정함으로써, 가상 객체의 표시 위치, 크기 등을 변화시킬 수 있게 된다.In step 630, the augmented reality image generating apparatus may generate at least one virtual camera corresponding to at least one camera that photographs an actual object. Here, the virtual camera is implemented to be adaptively synchronized with the operation of the actual camera in order to convert the display position (coordinate), angle, size, direction, focus, and depth of the virtual object, and as described below, the actual When the operation of the camera changes, it is possible to change the display position and size of the virtual object by adjusting the shooting position and angle of the virtual camera in response thereto.

한편, 도 6에서는 630 단계가 620 단계에 이어서 수행되는 것으로 도시되어 있으나, 이에 한정하는 것은 아니며, 실시예에 따라, 630 단계는 620 단계와 동시 또는 이보다 먼저 수행될 수 있다.Meanwhile, in FIG. 6, step 630 is shown to be performed subsequent to step 620, but is not limited thereto, and according to embodiments, step 630 may be performed simultaneously with or before step 620.

이어서, 640 단계에서, 증강 현실 영상 생성 장치는 실제 카메라의 동작에 대응하여 가상 카메라의 동작을 적응적으로 조정함으로써, 가상 카메라가 실제 카메라와 연동하도록 할 수 있다. 즉, 가상 카메라는 각각의 실제 카메라에 대응하며, 실제 카메라의 위치 또는 앵글이 변경되거나, 카메라간 전환이 발생되면, 이에 적응적으로 가상 카메라의 위치 또는 앵글이 변화되거나, 카메라간 전환이 동일하게 수행될 수 있다.Subsequently, in step 640, the augmented reality image generating apparatus adaptively adjusts the operation of the virtual camera in response to the operation of the actual camera, thereby allowing the virtual camera to interwork with the real camera. That is, the virtual camera corresponds to each real camera, and when the position or angle of the real camera is changed, or when switching between cameras occurs, the position or angle of the virtual camera is adaptively changed or the switching between cameras is the same. Can be done.

650 단계에서는, 실제 카메라와 연동하는 가상 카메라의 동작에 기초하여, 가상 객체의 표시 위치(좌표), 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나를 변경하여, 실제 객체와 함께 표시함으로써, 결합 영상 데이터를 생성하게 된다.In step 650, by changing at least one of the display position (coordinate), angle, size, direction, focus, and depth of the virtual object based on the operation of the virtual camera interlocking with the real camera, and displaying it together with the real object, the combination It creates image data.

증강 현실 영상의 생성이 완료되면, 생성한 증강 현실 영상을 디스플레이 장치, 사용자 단말 등의 외부 장치로 실시간 송출할 수 있다(450). 여기서, 디스플레이 장치는, 휴대폰, 데스크탑, 노트북 컴퓨터(laptop computer),태블릿 PC, 디지털 카메라, 캠코더, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, IoT 디바이스, 웨어러블 디바이스(wearable device), CE(Consumer Elctronics) 기기(예컨대, 디스플레이 패널을 갖는 냉장고, 에어컨 등) 등과 같은 다양한 전자 장치를 포함할 수 있으나, 이에 한정되지 않는다.When the generation of the augmented reality image is completed, the generated augmented reality image may be transmitted in real time to an external device such as a display device or a user terminal (450). Here, the display device is a mobile phone, desktop, laptop computer, tablet PC, digital camera, camcorder, e-book terminal, digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), navigation, MP3 Various electronic devices such as a player, an IoT device, a wearable device, a CE (Consumer Elctronics) device (eg, a refrigerator having a display panel, an air conditioner, etc.) may be included, but are not limited thereto.

도 10은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 가사 영상 데이터와 실제 영상 데이터가 카메라의 동작에 따라 정합되는 예시를 도시한다.10 illustrates an example in which lyric image data and actual image data are matched according to an operation of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.

이 경우, 상이한 위치에 있는 2 대의 카메라를 이용하여 현실의 실제 객체인 컵(20)을 촬영하고 있다고 가정한다. 이때, 2 대의 카메라를 통해 촬영한 영상은 실제 객체에 대한 촬영 영상에 해당하고, 증강 현실 영상 생성 장치는 이에 대한 데이터인 실제 영상 데이터를 획득할 수 있다. 2개의 카메라는 서로 촬영 각도가 다르며, 이에 따라 양 카메라에서는 서로 다른 영상이 획득될 것이다. In this case, it is assumed that the cup 20, which is an actual object in reality, is photographed using two cameras located at different positions. In this case, the image captured by the two cameras corresponds to a captured image of an actual object, and the augmented reality image generating apparatus may acquire actual image data that is data about this. The two cameras have different shooting angles, and accordingly, different images will be acquired from both cameras.

그 후, 증강 현실 영상 생성 장치는 가상 영상 데이터로부터 생성한 가상 객체를 실제 객체와 정합하여 결합 영상(1010, 1020)을 생성할 수 있다. Thereafter, the augmented reality image generating apparatus may generate the combined images 1010 and 1020 by matching the virtual object generated from the virtual image data with the real object.

도 10을 참조하면, 가상 객체로 토끼 모양의 캐릭터(10)가 상이한 카메라에 의해 획득된 실제 객체의 영상에 표시되어 있다. 이러한 토끼 모양의 캐릭터(10)는 대상 객체인 행위자의 움직임을 재현하는 영상일 수도 있다. 이 경우, 가상 영상 데이터는 행위자인 대상 객체의 동작을 나타내는 모션 데이터 등을 포함할 수 있다. 도 10에 도시되는 바와 같이, 서로 다른 촬영 각도에서 실제 객체를 촬영하는 2개의 카메라에 기초하여 생성된 결합 영상에서 토끼 모양의 캐릭터(10)의 모습이 카메라의 각도에 대응하여 다르게 도시됨을 확인할 수 있다.Referring to FIG. 10, a rabbit-shaped character 10 as a virtual object is displayed on an image of an actual object acquired by different cameras. The rabbit-shaped character 10 may be an image that reproduces the movement of an actor, which is a target object. In this case, the virtual image data may include motion data indicating the motion of the target object as an actor. As shown in FIG. 10, it can be seen that in the combined image generated based on two cameras photographing an actual object at different shooting angles, the appearance of the rabbit-shaped character 10 is shown differently corresponding to the angle of the camera. have.

일 실시예에 따르면, 이와 같이, 카메라의 동작이 변경됨에 따라 실제 객체와 정합되는 가상 객체의 영상을 변경함으로써 보다 현실감 높은 영상을 제공할 수 있다. According to an embodiment, as the operation of the camera is changed, an image of a virtual object that matches the real object is changed to provide a more realistic image.

도 11은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상의 예시를 도시한다.11 illustrates an example of an augmented reality image generated by a method of generating an augmented reality image according to an embodiment of the present invention.

일 실시예에 따른 증강 현실 영상 생성 방법을 이용하여, 예를 들어, 실제 영상 데이터에 가상 영상 데이터를 결합하되, 실제 객체를 촬영하는 카메라의 촬영 위치, 앵글 등의 변화, 카메라 전환 등에 따라, 가상 객체를 변경하여 실체 객체와 정합시킴으로써, 영상을 시청하는 시청자가 이질감없이 가상의 캐릭터가 실제 스튜디오에 존재하는 것처럼 느끼게 되는 효과를 얻을 수 있다. Using the augmented reality image generation method according to an embodiment, for example, combining virtual image data with real image data, but according to a change in the shooting position, angle, etc. By changing the object and matching it with the real object, it is possible to obtain an effect that the viewer watching the video feels as if the virtual character exists in the actual studio without feeling of heterogeneity.

일 실시예에 따른 시스템의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.A method of operating a system according to an exemplary embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

또한, 개시된 실시예들에 따른 서비스형 함수를 제공하는 시스템 또는 시스템의 동작방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, a system providing a service-type function or a method of operating the system according to the disclosed embodiments may be included in a computer program product and provided. Computer program products can be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium storing the S/W program. For example, the computer program product may include a product (e.g., downloadable app) electronically distributed through an electronic device manufacturer or an electronic market (e.g., Google Play Store, App Store). have. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing an SW program.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, when there is a third device (eg, a smart phone) communicating with a server or a client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from a server to a client device or a third device, or transmitted from a third device to a client device.

이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device, and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute and implement the method according to the disclosed embodiments.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicating with the server to perform the method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also the scope of the present invention. Belongs to.

Claims (13)

실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법에 있어서,
대상 객체에 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하는 단계;
수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하는 단계;
실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하는 단계;
상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하는 단계; 및
생성된 상기 증강 현실 영상을 실시간 송출하는 단계를 포함하는, 방법.
In a method for generating an augmented reality image for real-time multiple AR broadcasting,
Obtaining motion data and first audio data for the target object, respectively;
Generating virtual image data including information on a virtual object corresponding to the target object by using the received motion data;
Acquiring real image data and second audio data about the real object;
Generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data; And
And transmitting the generated augmented reality image in real time.
제 1 항에 있어서,
상기 가상 영상 데이터를 생성하는 단계는,
미리 저장된 가상 객체의 정보 및 상기 모션 데이터를 기초로, 상기 모션 데이터에 대응하는 가상 객체의 형태 및 움직임에 대한 정보를 포함하는 상기 가상 영상 데이터를 생성하는, 방법.
The method of claim 1,
Generating the virtual image data,
A method of generating the virtual image data including information on a shape and motion of a virtual object corresponding to the motion data, based on the information of the virtual object stored in advance and the motion data.
제 1 항에 있어서,
상기 모션 데이터는,
적어도 하나의 앵글에서 획득된 상기 대상 객체의 동작에 대한 정보를 포함하는, 방법.
The method of claim 1,
The motion data,
A method comprising information on an operation of the target object obtained from at least one angle.
제 1 항에 있어서,
상기 증강 현실 영상을 생성하는 단계는,
PTS(presentation time stamp)를 기초로, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화하는 단계를 포함하는, 방법.
The method of claim 1,
The step of generating the augmented reality image,
And synchronizing playback times of at least two or more of the virtual image data, the real image data, the first audio data, and the second audio data based on a presentation time stamp (PTS).
제 4 항에 있어서,
상기 재생 시간을 동기화하는 단계는,
상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터 중 재생 시간이 늦은 데이터의 PTS를 기준으로, 적어도 2 이상의 재생 시간을 동기화하는, 방법.
The method of claim 4,
The step of synchronizing the playing time,
Synchronizing at least two playback times based on a PTS of data having a late playback time among the virtual image data, the real image data, the first audio data, and the second audio data.
제 1 항에 있어서,
상기 증강 현실 영상을 생성하는 단계는,
상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 객체가 상기 실제 객체에 적응적으로 정합하는 결합 영상 데이터를 생성하는 단계를 포함하는, 방법.
The method of claim 1,
The step of generating the augmented reality image,
Based on the virtual image data and the real image data, generating combined image data in which the virtual object adaptively matches the real object according to a photographing operation of at least one camera that photographs the real object. How to.
제 6 항에 있어서,
상기 증강 현실 영상을 생성하는 단계는,
상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 동작에 대한 정보를 획득하는 단계를 더 포함하고,
상기 결합 영상 데이터를 생성하는 단계는,
상기 적어도 하나 이상의 카메라의 동작에 따라 상기 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 상기 실제 객체에 정합하는 단계를 포함하는, 방법.
The method of claim 6,
The step of generating the augmented reality image,
Further comprising the step of obtaining information on the operation of the at least one or more cameras photographing the actual image,
Generating the combined image data,
And changing at least one of the display position, angle, size, direction, focus, and depth of the virtual object according to an operation of the at least one camera to match the actual object.
제 7 항에 있어서,
상기 적어도 하나 이상의 카메라의 동작에 관한 정보는,
카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나에 관한 정보를 포함하는, 방법.
The method of claim 7,
Information on the operation of the at least one camera,
A method comprising information about at least one of a camera shooting position, a camera angle, a zoom in, a zoom out, a focus, and an image transition from the first camera to the second camera.
제 7 항에 있어서,
상기 카메라의 동작에 대한 정보를 획득하는 단계는,
상기 적어도 하나의 카메라 각각에 설치된 감지 모듈로부터 적어도 하나의 제 1 마커(marker)에 대한 감지 데이터를 수신하는 단계; 및
상기 감지 데이터에 기초하여, 상기 실제 객체를 촬영하는 상기 카메라의 촬영 위치 및 앵글 중 적어도 하나를 추정하는 단계를 포함하고,
상기 제 1 마커는 상기 실제 객체의 촬영 공간의 적어도 일 영역 내에 상이한 위치에 설치되는 복수의 제 2 마커 중 적어도 일부인, 방법.
The method of claim 7,
Acquiring information on the operation of the camera,
Receiving detection data for at least one first marker from a detection module installed in each of the at least one camera; And
Estimating at least one of a photographing position and an angle of the camera photographing the real object based on the sensing data,
The first marker is at least a part of a plurality of second markers installed at different locations in at least one area of the shooting space of the real object.
제 9 항에 있어서,
상기 감지 데이터는, 상기 제 1 마커 각각에 대응하는 고유 식별 신호 및 상기 고유 식별 신호 각각의 수신 강도 중 적어도 하나에 관한 정보를 포함하는, 방법.
The method of claim 9,
The detection data includes information on at least one of a unique identification signal corresponding to each of the first markers and a reception strength of each of the unique identification signals.
제 9 항에 있어서,
상기 감지 모듈은 상기 카메라와 상이한 방향을 촬영하는 마커 감지 카메라를 포함하고,
상기 감지 데이터는, 상기 마커 감지 카메라에 의해 촬영된 상기 제 1 마커에 대한 이미지를 포함하는 방법.
The method of claim 9,
The detection module includes a marker detection camera for photographing a direction different from the camera,
The detection data includes an image of the first marker captured by the marker detection camera.
실시간 다원 AR 방송을 위한 증강 현실 영상 생성 장치에 있어서,
통신부;
상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리; 및
상기 메모리에 저장된 프로그램을 실행함으로써, 대상 객체의 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하고, 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하며, 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하고, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하고, 생성된 상기 증강 현실 영상을 실시간 송출하는 프로세서를 포함하는, 장치.
In an augmented reality image generating apparatus for real-time multi-source AR broadcasting,
Communication department;
A memory for storing a program for generating the augmented reality image; And
By executing the program stored in the memory, motion data and first audio data of a target object are obtained, respectively, and information on a virtual object corresponding to the target object is included using the received motion data. Generate virtual image data, acquire real image data and second audio data about a real object, and an augmented reality image based on the virtual image data, the real image data, the first audio data and the second audio data And a processor that generates and transmits the generated augmented reality image in real time.
제 1 항 내지 제 11 항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium in which a program for executing the method of claim 1 on a computer is recorded.
KR1020200071797A 2019-06-13 2020-06-12 Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting KR20200143293A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190070088 2019-06-13
KR1020190070088 2019-06-13

Publications (1)

Publication Number Publication Date
KR20200143293A true KR20200143293A (en) 2020-12-23

Family

ID=74089320

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200071797A KR20200143293A (en) 2019-06-13 2020-06-12 Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting

Country Status (1)

Country Link
KR (1) KR20200143293A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220092053A (en) * 2020-12-24 2022-07-01 (주)코어센스 Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation
WO2024025076A1 (en) * 2022-07-26 2024-02-01 삼성전자 주식회사 Electronic device for adjusting volume using sound signal outputted from external object, and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220092053A (en) * 2020-12-24 2022-07-01 (주)코어센스 Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation
WO2024025076A1 (en) * 2022-07-26 2024-02-01 삼성전자 주식회사 Electronic device for adjusting volume using sound signal outputted from external object, and method thereof

Similar Documents

Publication Publication Date Title
US10062213B2 (en) Augmented reality spaces with adaptive rules
US10277813B1 (en) Remote immersive user experience from panoramic video
US10007349B2 (en) Multiple sensor gesture recognition
EP3400705B1 (en) Active speaker location detection
US20130120365A1 (en) Content playback apparatus and method for providing interactive augmented space
US11210858B2 (en) Systems and methods for enhancing augmented reality experience with dynamic output mapping
US9216347B2 (en) Portable device, virtual reality system and method
JP7125397B2 (en) Distributed Audio Capture Techniques for Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) Systems
US20190130644A1 (en) Provision of Virtual Reality Content
JP2020520576A (en) Apparatus and related method for presentation of spatial audio
US20220248162A1 (en) Method and apparatus for providing audio content in immersive reality
KR20200143293A (en) Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting
CN107479701B (en) Virtual reality interaction method, device and system
US11587284B2 (en) Virtual-world simulator
US10970932B2 (en) Provision of virtual reality content
US11385856B2 (en) Synchronizing positioning systems and content sharing between multiple devices
US11430178B2 (en) Three-dimensional video processing
US11602684B2 (en) Peripheral tracking system and method
WO2019034804A2 (en) Three-dimensional video processing
KR102255181B1 (en) Metohd and appartus for generating augumented reality video using multiple cameras
JP7354186B2 (en) Display control device, display control method, and display control program
EP4350626A1 (en) Image processing system, method for controlling the same, and program
CN116888983A (en) Processing of audio data
CN115004132A (en) Information processing apparatus, information processing system, and information processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application