KR20200143293A - Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting - Google Patents
Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting Download PDFInfo
- Publication number
- KR20200143293A KR20200143293A KR1020200071797A KR20200071797A KR20200143293A KR 20200143293 A KR20200143293 A KR 20200143293A KR 1020200071797 A KR1020200071797 A KR 1020200071797A KR 20200071797 A KR20200071797 A KR 20200071797A KR 20200143293 A KR20200143293 A KR 20200143293A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- real
- camera
- augmented reality
- image data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
Description
본 발명은 실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for generating an augmented reality image for real-time multi-source AR broadcasting.
가상 현실(virtual reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황을 의미하는 것으로, 컴퓨터를 이용하여 구축한 가상 공간에서 인간 감각계와의 상호작용을 통해 공간적, 물리적 제약에 의해 현실 세계에서는 직접 경험하지 못하는 상황을 간접적으로 체험할 수 있도록 만든 정보 활동 분야의 새로운 패러다임 중의 하나이다.Virtual reality (VR) refers to a specific environment or situation that is similar to reality created by artificial technology using computers, but is not real. It is one of the new paradigms in the field of information activities that allows people to indirectly experience situations that cannot be directly experienced in the real world due to spatial and physical constraints through action.
증강 현실(augmented reality, AR)은 가상 현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 완전한 가상 세계를 전제로 하는 가상 현실과는 달리 현실(Reality)을 기반으로 정보를 증강(Augmented) 제공하는 기술로, 가상의 대상을 결합시켜 현실의 효과를 더욱 증가시킬 수 있다. 즉, 가상 현실에 현실 세계의 실제 모습이 추가된 것이다. 증강현실은 현실 세계의 기반위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 또는 마켓팅의 목적으로 전달하는 부가적인 정보들을 보강해 제공할 수 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 증강 현실은 다양한 현실 환경에 응용이 가능하다. Augmented reality (AR) is a field of virtual reality (VR) and refers to a computer graphic technique that synthesizes virtual objects or information in an actual environment to make it look like an object existing in the original environment. Unlike virtual reality, which presupposes a complete virtual world, it is a technology that provides information based on reality, and can further increase the effect of reality by combining virtual objects. In other words, the actual appearance of the real world is added to the virtual reality. Augmented reality can be provided by synthesizing virtual objects on the basis of the real world by reinforcing additional information that is difficult to obtain with the real world alone or delivered for marketing purposes. Due to these characteristics, augmented reality can be applied to various reality environments, unlike existing virtual reality that can be applied only limited to fields such as games.
최근 정보 통신 기술의 발달로 인해, 정보 처리 및 데이터 전송 능력이 획기적으로 증가함에 따라, 카메라를 통해 촬영된 실제 영상에 가상 영상을 결합한 증강 현실 영상을 실시간으로 생성하고 제공할 수 있게 되었다. With the recent development of information and communication technology, as information processing and data transmission capabilities have increased dramatically, an augmented reality image obtained by combining a virtual image with a real image captured through a camera can be generated and provided in real time.
본 발명은 실시간 다원 AR 방송을 위한 증강 현실 영상 생성 방법 및 장치를 제공하기 위한 것이다. The present invention is to provide a method and apparatus for generating an augmented reality image for real-time multiple AR broadcasting.
본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법은, 대상 객체에 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하는 단계; 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하는 단계; 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하는 단계; 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하는 단계; 및 생성된 상기 증강 현실 영상을 실시간 송출하는 단계를 포함할 수 있다. According to an embodiment of the present invention, a method of generating an augmented reality image includes: obtaining motion data and first audio data, respectively, about a target object; Generating virtual image data including information on a virtual object corresponding to the target object by using the received motion data; Acquiring real image data and second audio data about the real object; Generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data; And transmitting the generated augmented reality image in real time.
본 발명의 일 실시예에 따른, 증강 현실 영상 생성 장치는, 통신부, 상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리 및 상기 메모리에 저장된 프로그램을 실행함으로써, 대상 객체의 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하고, 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하며, 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하고, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하고, 생성된 상기 증강 현실 영상을 실시간 송출하는 프로세서를 포함할 수 있다. According to an embodiment of the present invention, the apparatus for generating an augmented reality image includes a communication unit, a memory storing a program for generating the augmented reality image, and a program stored in the memory, thereby providing motion data of a target object. And obtaining first audio data, respectively, and generating virtual image data including information on a virtual object corresponding to the target object using the received motion data, and real image data and second audio related to the real object A processor for acquiring data, generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data, and transmitting the generated augmented reality image in real time. I can.
본 발명의 일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는 증강 현실 영상 생성 방법을 컴퓨터에서 실행하기 위한 프로그램이 기록될 수 있다. In a computer-readable recording medium according to an embodiment of the present invention, a program for executing an augmented reality image generation method on a computer may be recorded.
본 발명의 일 실시예에 따르면, 실시간 다원 AR 방송을 위한 향상된 증강 현실 영상 생성 방법 및 장치를 제공할 수 있다.According to an embodiment of the present invention, a method and apparatus for generating an improved augmented reality image for real-time multi-source AR broadcasting can be provided.
도 1 및 도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.
도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이다.
도 5 및 도 6은 도 4의 440 단계에 대한 일 실시예를 나타내는 순서도이다.
도 7은 도 5의 520 단계에 대한 일 실시예를 나타내는 순서도이다.
도 8은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서 가상 영상 데이터, 실제 영상 데이터와 오디오 데이터의 재생 시간을 동기화하는 예시를 나타낸다.
도 9는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 카메라의 위치 및 앵글을 추정하기 위한 감지 모듈의 동작을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 가사 영상 데이터와 실제 영상 데이터가 카메라의 동작에 따라 정합되는 예시를 도시한다.
도 11은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상의 예시를 도시한다.1 and 2 are diagrams illustrating a system for providing a method of generating an augmented reality image according to an embodiment of the present invention.
3 is a diagram illustrating an augmented reality image generating apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a method of generating an augmented reality image.
5 and 6 are flowcharts illustrating an embodiment of
7 is a flow chart illustrating an embodiment of
8 illustrates an example of synchronizing reproduction times of virtual image data, real image data, and audio data in a method of generating an augmented reality image according to an embodiment of the present invention.
9 is a diagram illustrating an operation of a sensing module for estimating a position and angle of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.
10 illustrates an example in which lyrics image data and actual image data are matched according to an operation of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.
11 illustrates an example of an augmented reality image generated by a method of generating an augmented reality image according to an embodiment of the present invention.
본 발명의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technical idea of the present invention is that various changes may be made and various embodiments may be provided. Specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the technical idea of the present invention to a specific embodiment, it should be understood to include all changes, equivalents, and substitutes included in the scope of the technical idea of the present invention.
본 발명의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 기술적 사상의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present invention, when it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from another component.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present specification, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but specially It should be understood that as long as there is no opposing substrate, it may be connected or may be connected via another component in the middle.
또한, 본 명세서에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processor), 어플리케이션 프로세서(Application Processor), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present specification mean a unit that processes at least one function or operation, which is a processor or microcomputer. Processor (Micro Processor), Application Processor (Application Processor), Micro Controller (Micro Controller), CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC ( Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc. may be implemented in hardware or software, or a combination of hardware and software.
그리고 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to clarify that the division of the constituent parts in the present specification is merely divided by the main function that each constituent part is responsible for. That is, two or more constituent parts to be described below may be combined into one constituent part, or one constituent part may be divided into two or more according to more subdivided functions. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to its own main function, and some of the main functions of each constituent unit are different. It goes without saying that it may be performed exclusively by.
이하, 본 발명의 기술적 사상에 의한 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments according to the technical idea of the present invention will be sequentially described in detail.
도 1 및 도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다. 1 and 2 are diagrams illustrating a system for providing a method of generating an augmented reality image according to an embodiment of the present invention.
일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템은, 그 기능에 따라, 모션/오디오 데이터 생성 장치(110), 서버(120) 및 증강 현실 영상 생성 장치(130)를 포함할 수 있다. 일 실시예에서, 모션/오디오 데이터 생성 장치(110), 서버(120) 및 증강 현실 영상 생성 장치(130)는 네트워크로 연결될 수 있다. 다만, 이는 일 예에 불과하며, 증강 현실 영상 생성 방법을 제공하기 위한 시스템의 구성이 이에 한정되는 것은 아니다. 특히 도 1에서 모션/오디오 데이터 생성장치(110)은 하나만 도시되었으나, 다수의 가상 객체(즉, 캐릭터)를 구현하기 위해서는 모션/오디오 데이터 생성장치(110)가 복수개 구비되어 서버(1120)와 연결될 수 있다. 또한, 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 다른 구성을 더 포함하거나, 도 1 및 도 2에 개시된 구성 중 일부를 포함하지 않지 않거나 도 1 및 도 2와 다르게 구성될 수도 있다. 예를 들어, 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 서버(120)없이 직접 데이터를 송, 수신하도록 구성되거나, 실시예에 따라, 증강 현실 영상 생성 방법을 제공하기 위한 시스템이 하나의 장치로 구현되어 별도의 네트워크 연결이 필요없을 수도 있다.A system for providing a method of generating an augmented reality image according to an embodiment may include a motion/audio
일 실시예에서, 모션/오디오 데이터 생성 장치(110)는 캐릭터 스튜디오(character studio, 즉, 가상 객체를 연기하는 캐릭터 연기자의 모션 및 오디오를 획득하기 위한 스튜디오)에 구비될 수 있으며, 증강 현실 영상 생성 장치(130)는 실제 연기자(즉, 실체 객체)를 촬영하는 방송 스튜디오에 구비될 수 있다. 또한, 일 실시예에서, 서버(120)는 5세대 이동 통신(5th generation; 5G)을 지원하는 서버로서, 이를 통해, 본 발명에서 모션 데이터(MDATA)와 오디오 데이터(ADATA)를 분할하여 송출함으로 인해, 양 데이터 사이의 타임 딜레이(time delay)의 발생을 최소화할 수 있다.In one embodiment, the motion/audio
모션/오디오 데이터 생성 장치(110)는 모션 데이터 획득부(111), 오디오 데이터 획득부(212), 통신부(213), 제어부(214) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 모션/오디오 데이터 생성 장치(110)의 구성이 이에 한정되는 것은 아니다. The motion/audio
모션 데이터 획득부(111)는 대상 객체(예컨대, 행위자)의 모션을 인식하고, 인식 결과에 따라 대상 객체의 동작(즉, 움직임)을 나타내는 모션 데이터(MDATA)를 생성할 수 있다. 일 실시예에서, 모션 데이터 획득부(211)는 센서, 영상 분석, 모션 캡쳐 등을 이용하여 모션 데이터(MDATA)를 획득할 수 있다. 예를 들어, 빛(예컨대, 적외선)을 조사함으로써 모션 데이터(MDATA)를 생성하거나, 또는, 행위자에 부착된 전극으로부터 수신되는 센서 데이터를 이용하여 모션 데이터(MDATA)를 생성할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 모션 데이터(MDATA)는 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 의미할 수 있으나, 이에 한정되지 않는다.The motion data acquisition unit 111 may recognize a motion of a target object (eg, an actor) and generate motion data MDATA representing a motion (ie, movement) of the target object according to a recognition result. In an embodiment, the motion data acquisition unit 211 may acquire motion data MDATA using a sensor, image analysis, motion capture, or the like. For example, motion data (MDATA) may be generated by irradiating light (eg, infrared), or motion data (MDATA) may be generated using sensor data received from an electrode attached to an actor, but limited to this. It does not become. Here, the motion data MDATA may mean three-dimensional coordinates of each part of the target object, a velocity, acceleration, or moment of inertia of each part of the target object, but is not limited thereto.
일 실시예에서, 모션 데이터(MDATA)는 적어도 하나의 앵글에서 획득된 대상 객체의 동작에 대한 정보를 포함할 수 있다. 예를 들어, 대상 객체를 중심으로 상이한 각도에 복수의 센서 또는 카메라 등이 설치되고, 이를 통해, 1 이상의 앵글에서 대상 객체의 동작을 감지함으로써, 앵글 각각에 대응하는 모션 데이터를 획득할 수 있다. 바람직하게는 모션 데이터 획득부(111)는 증강 현실 영상 생성 장치(130)의 영상 데이터 획득부(131)에서 실제 객체에 대한 실제 영상 데이터를 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 개수와 동일한 위치에 배치되는 센서 또는 카메라를 통해 대상 객체에 대한 모션 데이터(MDATA)를 획득할 수 있다.In an embodiment, the motion data MDATA may include information on the motion of the target object acquired from at least one angle. For example, a plurality of sensors or cameras are installed at different angles around the target object, and motion data corresponding to each angle may be obtained by detecting the motion of the target object at one or more angles through this. Preferably, the motion data acquisition unit 111 includes the number of cameras used for photographing and the location of the cameras in order to acquire the actual image data for the real object in the image data acquisition unit 131 of the augmented reality
오디오 데이터 획득부(112)는 대상 객체로부터 생성되는 소리(예를 들어, 음성)를 측정하고, 측정 결과에 따라 오디오 데이터(ADATA)를 생성할 수 있다. 여기서, 대상 객체는 모션 데이터(MDATA)를 획득하는 객체와 동일 개체일 수 있으나, 이에 한정되는 것은 아니며, 성우 등의 다른 대상 객체로부터 획득될 수도 있다. 또한, 실시예에 따라, 오디오 데이터(ADATA)는 대상 객체가 직접 내는 소리 뿐만 아니라, 배경음, 효과음 등 다양한 소리에 대한 데이터가 포함될 수 있다. 예컨대, 오디오 데이터 획득부(112)는 마이크 등의 입력장치 등을 통해 오디오 데이터(ADATA)를 획득할 수 있으나, 이에 한정되는 것은 아니다.The audio data acquisition unit 112 may measure sound (eg, voice) generated from the target object, and may generate audio data ADATA according to the measurement result. Here, the target object may be the same object as the object acquiring the motion data MDATA, but is not limited thereto, and may be acquired from another target object such as a voice actor. In addition, according to an embodiment, the audio data ADATA may include data on various sounds such as background sounds and effect sounds, as well as sounds directly produced by the target object. For example, the audio data acquisition unit 112 may acquire audio data ADATA through an input device such as a microphone, but is not limited thereto.
통신부(113)는 외부 장치와 통신할 수 있다. 모션 데이터 획득부(111)와 오디오 데이터 획득부(112)에서 획득한 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 외부 장치로 전송할 수 있다. 일 실시예에서, 통신부(113)는 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 분리하여 각각 서버(120)로 송출할 수 있다. The communication unit 113 may communicate with an external device. Motion data MDATA and audio data ADATA acquired by the motion data acquisition unit 111 and the audio data acquisition unit 112 may be transmitted to an external device. In an embodiment, the communication unit 113 may separate motion data MDATA and audio data ADATA and transmit them to the
제어부(114)는 모션/오디오 데이터 생성 장치(110)의 전반적인 동작을 제어한다. 예를 들어, 제어부(114)는 모션 데이터 획득부(111)를 이용하여 모션 데이터(MDATA)를 획득하고, 오디오 데이터 획득부(112)를 이용하여 대상 객체(예컨대, 행위자)의 오디오 데이터(ADATA)를 획득하며, 통신부(113)를 통해 생성한 데이터를 서버(120)로 전송하는 동작을 제어할 수 있다.The controller 114 controls the overall operation of the motion/audio
서버(120)는, 모션/오디오 데이터 생성 장치(110)와 증강 현실 영상 생성 장치(130)와 유선 또는 무선 통신 프로토콜에 따라 데이터를 주고받을 수 있는 연산 장치일 수 있다. 실시예들에 따라, 서버(120)는 데이터를 수신하고, 수신된 데이터를 처리하고, 처리된 데이터를 전송할 수 있다. 서버(120)는 특정 동작을 수행하기 위한 명령어들을 포함하는 프로그램을 비 일시적인 저장매체에 저장할 수 있고, 상기 프로그램을 로딩하고, 로딩된 프로그램의 제어에 따라 다양한 연산 또는 동작을 수행할 수 있다.The
서버(120)는, 예를 들어, 5세대 이동 통신(5th generation; 5G)을 이용하여, 분리 송출된 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 수신하고, 이를, 증강 현실 영상 생성 장치(130)로 전송할 수 있다. 다만, 이러한 통신 방식은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라, 다양한 무선 통신 방식을 통해 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 전송하도록 구현될 수 있다.The
증강 현실 영상 생성 장치(130)는 영상 데이터 획득부(131), 오디오 데이터 획득부(132), 카메라 동작 판단부(133), 가상 영상 생성부(134), 증강 현실 영상 생성부(135), 통신부(136), 제어부(137) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(130)의 구성이 이에 한정되는 것은 아니다. The augmented reality
영상 데이터 획득부(131)는 카메라를 통해 실제 객체를 촬영함으로써 실제 영상 데이터를 획득할 수 있다. 영상 데이터 획득부(131)는, 예를 들어, 카메라와 카메라에서 획득한 영상을 디지털 인코딩하는 디지털 인코더와 코덱프로그램으로 이루어질 수 있다. 일 실시예에서, 영상 데이터 획득부(131)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상 데이터를 획득할 수 있다. 바람직하게는, 영상 데이터 획득부(131)는 모션 데이터 획득부(111)에서 획득된 모션 데이터(MDATA)와 동일한 위치(즉, 앵글_에서 실제 객체에 대한 실제 영상 데이터를 획득할 수 있도록 카메라의 개수 및 카메라의 위치가 설정될 수 있다. 이를 통해, 보다 정확도 높은 증강 현실 영상을 생성할 수 있다.The image data acquisition unit 131 may acquire real image data by photographing an actual object through a camera. The image data acquisition unit 131 may include, for example, a camera and a digital encoder and a codec program that digitally encode an image acquired from the camera. In an embodiment, the image data acquisition unit 131 may acquire actual image data captured through at least one camera. Preferably, the image data acquisition unit 131 is the same position as the motion data MDATA acquired by the motion data acquisition unit 111 (ie, the angle_) of the camera so that the actual image data for the real object can be acquired. The number and the location of the cameras may be set, thereby generating an augmented reality image with higher accuracy.
오디오 데이터 획득부(132)는 실제 객체로부터 생성되는 소리(예를 들어, 음성)를 측정하고, 측정 결과에 따라 오디오 데이터를 생성할 수 있다. 실시예에 따라, 오디오 데이터는 실제 객체가 직접 내는 소리 뿐만 아니라, 배경음, 효과음 등 다양한 소리에 대한 데이터가 포함될 수 있다. 예컨대, 오디오 데이터 획득부(132)는 마이크 등의 입력장치 등을 통해 오디오 데이터를 획득할 수 있으나, 이에 한정되는 것은 아니다.The audio data acquisition unit 132 may measure sound (eg, voice) generated from an actual object and generate audio data according to the measurement result. Depending on the embodiment, the audio data may include data about various sounds such as background sound and effect sound, as well as sound directly produced by an actual object. For example, the audio data acquisition unit 132 may acquire audio data through an input device such as a microphone, but is not limited thereto.
카메라 동작 판단부(133)는 실제 객체를 촬영하는 카메라의 동작을 판단할 수 있다. 일 실시예에서, 카메라 동작 판단부(133)는, 실제 객체의 촬영 공간의 바닥, 천정 등에 설치되는 복수의 마커(marker)와 적어도 하나 이상의 카메라 각각에 부착된 감지 모듈을 이용하여 적어도 하나 이상의 카메라의 동작을 판단할 수 있다. 또한, 일 실시예에서, 카메라 동작 판단부(133)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 적어도 하나 이상의 카메라의 동작을 판단할 수 있다. 여기서, 카메라의 동작은, 카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점, 제 1 카메라에서 제 2 카메라로의 영상 전환 등을 포함할 수 있다.The camera operation determination unit 133 may determine an operation of a camera for photographing an actual object. In one embodiment, the camera operation determination unit 133 uses at least one camera by using a plurality of markers installed on the floor, ceiling, etc. of the shooting space of an actual object and a detection module attached to each of at least one camera. Can judge the operation of In addition, in an embodiment, the camera operation determination unit 133 may determine an operation of at least one or more cameras by analyzing an actual image captured by at least one or more cameras. Here, the operation of the camera may include a camera photographing position, a camera angle, a zoom in, a zoom out, a focus, and an image conversion from the first camera to the second camera.
가상 영상 데이터 생성부(134)는 서버(120)로부터 수신한 모션 데이터(MDATA) 및/또는 오디오 데이터(ADATA) 등을 기초로, 가상 영상 데이터를 생성할 수 있다. 여기서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 동작, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. The virtual image data generating unit 134 may generate virtual image data based on motion data MDATA and/or audio data ADATA received from the
증강 현실 영상 생성부(135)는 가상 영상 데이터, 실제 영상 데이터, 서버(120)로부터 수신한 대상 객체에 관한 오디오 데이터 및 실제 객체에 관한 오디오 데이터의 재생 시간을 동기화할 수 있다. 일 실시예에서, 동기화는 PTS(Presentation Time Stamp)에 기초하여 수행될 수 있다. 예를 들어, 증강 현실 영상 생성부(135)는 상기 데이터 중 재생 시간이 가장 느린 데이터의 PTS를 기초로, 다른 데이터의 PTS를 조정함으로써 동기화를 수행할 수 있다. 카메라 동작 판단부(133)에서 판단한 카메라의 촬영 동작에 따라, 가상 영상 데이터, 실제 영상 데이터 및 동기화된 재생 시간에 관한 정보에 기초하여, 가상 객체를 실제 실제에 적응적으로 정합하여 결합 영상 데이터를 생성할 수 있다. 일 실시예에 따르면, 실제 영상이 변경되는 것에 따라 가상 영상이 함께 변경될 수 있다. 예를 들어, 실제 객체를 촬영하는 스튜디오에서 복수의 카메라를 통해 실제 인물과 공간을 촬영하는 경우, 하나의 카메라가 자세(즉, 앵글) 또는 줌인/줌아웃 등이 변경되거나, 제 1 카메라에서 제 2 카메라로 영상이 전환되는 경우, 이러한 변화에 맞춰서 가상 객체의 표시 위치(즉, 좌표), 표시 각도, 크기 등을 변경할 수 있다. 일 실시예에서, 증강 현실 영상 생성부(135)는 가상 카메라에 기초하여, 가상 객체와 실제 객체가 정합되는 결합 영상 데이터를 생성하도록 구성될 수 있다. 예를 들어, 실제 카메라와 대응하는 가상 카메라를 생성하고, 실제 카메라의 동작에 대응하여 가상 카메라의 자세(앵글), 위치 또는 줌인/줌아웃이 변경되거나, 카메라의 전환을 수행함으로써, 가상 객체를 실제 객체에 적응적으로 정합시킬 수 있다. 또한, 증강 현실 영상 생성부(135)는 생성된 결합 영상 데이터에 동기화된 재생 시간에 기초하여 오디오 데이터들을 결합함으로써, 증강 현실 영상을 생성할 수 있다. The augmented reality image generator 135 may synchronize virtual image data, real image data, audio data about a target object received from the
통신부(136)는 외부 장치와 통신할 수 있다. 일 실시예에서, 통신부(136)는 서버(120)로부터 모션 데이터(MDATA) 및 오디오 데이터(ADATA)를 수신할 수 있다. 또한, 통신부(136)는 생성한 증강 현실 영상을 외부 장치(예를 들어, 디스플레이 장치)로 전송할 수도 있다. The communication unit 136 may communicate with an external device. In an embodiment, the communication unit 136 may receive motion data MDATA and audio data ADATA from the
제어부(137)는 증강 현실 영상 생성 장치(130)의 전반적인 동작을 제어한다. 예를 들어, 제어부(137)는 영상 데이터 획득부(131) 및 오디오 데이터 획득부(132)를 이용하여 실제 영상 데이터 및 오디오 데이터를 획득하고, 카메라 동작 판단부(133)를 이용하여 카메라의 동작을 판단하며, 가상 영상 데이터 생성부(134)를 이용하여 가상 객체에 대한 가상 영상 데이터를 생성하고, 증강 현실 영상 생성부(135)를 이용하여, 데이터들의 동기화, 결합 영상 데이터 및 증강 현실 영상을 생성하는 동작을 제어할 수 있다. The controller 137 controls the overall operation of the augmented reality
도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.3 is a diagram illustrating an augmented reality image generating apparatus according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치(300)는, 그 하드웨어 구성에 따라 통신부(310), 프로세서(320), 및 메모리(330)를 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(300)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 증강 현실 영상 생성 장치(300)는 다른 구성을 더 포함하거나, 도 3에 개시된 구성 중 일부를 포함하지 않을 수도 있다. Referring to FIG. 3, the augmented reality
일 실시예에서, 통신부(310)는 프로세서(320)의 제어에 의해 서버, 디스플레이 장치 등과 같은 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. 일 실시예에 따른 통신부(310)는 도 3에서 도시하고 설명한 통신부(136)의 기능을 수행할 수 있다. 예를 들어, 통신부(310)는 네트워크를 통하여 서버로부터 모션 데이터 및 오디오 데이터를 수신하거나 또는 생성한 증강 현실 영상을 디스플레이 장치 등이 외부 장치로 전송할 수도 있다. In an embodiment, the communication unit 310 may transmit and receive data or signals with an external device such as a server or a display device or an external server under the control of the processor 320. The communication unit 310 according to an embodiment may perform the function of the communication unit 136 illustrated and described in FIG. 3. For example, the communication unit 310 may receive motion data and audio data from a server through a network, or may transmit the generated augmented reality image to an external device by a display device or the like.
통신부(310)는 유무선 통신부를 포함할 수 있다. 통신부(310)가 유선 통신부를 포함하는 경우, 통신부(310)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(310)가 무선 통신부를 포함하는 경우, 통신부(310)는 5G 등의 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다.The communication unit 310 may include a wired or wireless communication unit. When the communication unit 310 includes a wired communication unit, the communication unit 310 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components for communicating through a combination thereof. In addition, when the communication unit 310 includes a wireless communication unit, the communication unit 310 may transmit data or signals wirelessly using a cellular communication such as 5G or a wireless LAN (eg, Wi-Fi). Can send and receive.
일 실시예에서, 프로세서(320)는 증강 현실 영상 생성 장치(300)의 전반적인 동작을 제어할 수 있다. 프로세서(320)는 메모리(330)에 저장되는 하나 이상의 프로그램들을 실행할 수 있고, 도 2의 영상 데이터 획득부(131), 오디오 데이터 획득부(132), 카메라 동작 판단부(133), 가상 영상 데이터 생성부(134), 증강 현실 영상 생성부(135) 및 제어부(137)의 기능 중 적어도 하나 이상의 기능을 수행할 수 있다. In an embodiment, the processor 320 may control the overall operation of the augmented reality
일 실시예에서 프로세서(320)는 통신부(310)를 제어하여 서버로부터 모션 데이터 및 오디오 데이터를 수신할 수 있다. 여기서, 모션 데이터는 적어도 하나의 앵글에서 감지된 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 포함할 수 있다.In an embodiment, the processor 320 may control the communication unit 310 to receive motion data and audio data from a server. Here, the motion data may include 3D coordinates of each part of the target object detected at at least one angle, a velocity, acceleration, or moment of inertia of each part of the target object.
일 실시예에서 프로세서(320)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 객체에 대한 실제 영상 데이터를 획득할 수 있다. In an embodiment, the processor 320 may acquire actual image data for an actual object photographed through at least one camera.
일 실시예에서 프로세서(320)는 실제 객체로부터 생성되는 소리에 대한 측정 결과에 따라 오디오 데이터를 생성할 수 있다.In an embodiment, the processor 320 may generate audio data according to a measurement result of sound generated from an actual object.
일 실시예에서 프로세서(320)는, 실제 객체를 촬영하는 카메라의 동작을 판단할 수 있다. 여기서, 카메라의 촬영 동작은 카메라 촬영 위치,카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나 이상을 포함할 수 있다. In an embodiment, the processor 320 may determine an operation of a camera that actually photographs an object. Here, the photographing operation of the camera may include at least one of a camera photographing position, a camera angle, a zoom in, a zoom out, a focus, and an image change from the first camera to the second camera.
일 실시예에서 프로세서(320)는, 모션 데이터를 기초로 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 여기서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. In an embodiment, the processor 320 may generate virtual image data including information on a virtual object based on motion data. Here, the virtual image data may include data on at least one of a display position, angle, size, direction, focus, and depth of the virtual object.
일 실시예에서 프로세서(320)는, 가상 영상 데이터, 실제 영상 데이터, 대상 객체에 관한 오디오 데이터 및 실제 객체에 관한 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화할 수 있다. 예를 들어, 프로세서(320)는 각 데이터들의 PTS를 기준으로 재생 시간을 동기화할 수 있다.In an embodiment, the processor 320 may synchronize playback times of at least two or more of virtual image data, real image data, audio data about a target object, and audio data about a real object. For example, the processor 320 may synchronize the playback time based on the PTS of each data.
일 실시예에서 프로세서(320)는 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 동작에 따라 가상 객체가 실제 객체에 적응적으로 정합되는 결합 영상 데이터를 생성할 수 있다. 프로세서(320)는 카메라의 동작에 대한 판단 결과에 따라 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 실제 객체에 정합할 수 있다.In an embodiment, the processor 320 may generate combined image data in which the virtual object is adaptively matched with the real object according to an operation of at least one or more cameras photographing a real object. The processor 320 may match the actual object by changing at least one of the display position, angle, size, direction, focus, and depth of the virtual object according to a result of determining the operation of the camera.
일 실시예에서 프로세서(320)는, 결합 영상 데이터에 오디오 데이터들을 결합함으로써, 증강 현실 영상을 생성할 수 있다.In an embodiment, the processor 320 may generate an augmented reality image by combining audio data with the combined image data.
일 실시예에서 프로세서(320)는, 생성된 증강 현실 영상을 외부 장치(예를 들어, 디스플레이 장치, 서버, 단말 등)로 실시간 송출할 수 있다.In one embodiment, the processor 320 may transmit the generated augmented reality image to an external device (eg, a display device, a server, a terminal, etc.) in real time.
메모리(330)는 증강 현실 영상 생성 장치(300)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(330)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(330)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(320)에 의해 실행될 수 있다. 또한, 메모리(330)는 도 2에서 도시하고 설명한 저장부(230)를 포함할 수 있으나, 이에 한정되지 않는다.The memory 330 may store various data, programs, or applications for driving and controlling the augmented reality
한편, 도 2 및 도 3의 블록도들은 일 실시예를 위한 블록도로, 각 구성요소는 실제 구현되는 시스템에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagrams of FIGS. 2 and 3 are block diagrams for an embodiment, and each component may be integrated, added, or omitted according to an actual implemented system. That is, if necessary, two or more components may be combined into a single component, or one component may be subdivided into two or more components and configured. In addition, functions performed by each block are for explaining embodiments, and specific operations or devices thereof do not limit the scope of the present invention.
도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이고, 도 5 및 도 6은 도 4의 440 단계에 대한 일 실시예를 나타내는 순서도이며, 도 7은 도 5의 520 단계에 대한 일 실시예를 나타내는 순서도이다.4 is a flowchart illustrating a method of generating an augmented reality image, FIGS. 5 and 6 are flowcharts illustrating an embodiment of
410 단계에서, 증강 현실 영상 생성 장치는 대상 객체에 관한 모션 데이터 및 제 1 오디오 데이터를 수신할 수 있다. 모션 데이터 및 제 1 오디오 데이터는 모션/오디오 획득 장치로부터 분리 송출된 것으로서, 서버를 통해 분리 수신될 수 있다. 여기서 모션 데이터는 적어도 하나의 앵글에서 감지된 대상 객체의 동작에 관한 정보, 즉, 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 포함할 수 있다. 또한, 일 실시예에서, 모션 데이터 및 제 1 오디오 데이터는, 재생 시간에 관한 정보, 즉, PTS(presentation time stamp)에 관한 정보를 포함할 수 잇다.In
420 단계에서, 증강 현실 영상 생성 장치는 수신된 모션 데이터를 이용하여 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 예를 들어, 증강 현실 영상 생성 장치는 미리 저장된 가상 객체의 정보 및 모션 데이터를 기초로, 모션 데이터에 대응하는 가상 객체의 형태 및 움직임에 대한 정보를 포함하는 가상 영상 데이터를 생성할 수 있다. 일 실시예에서, 가상 영상 데이터는 가상 객체에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있으며, 실시예에 따라, 재생 시간에 관한 정보, 즉, PTS에 관한 정보를 더 포함할 수 있다. 가상 영상 데이터의 PTS는 모션 데이터와 동일할 수 있다.In
본 발명에 따르면, 모션 데이터와 오디오 데이터가 병합된 가상 영상 데이터 자체를 전송 및 수신하지 않고, 모션 데이터와 오디오 데이터를 분리 송출하고 이를 수신하여 가상 영상 데이터 및 증강 현실 영상을 생성하므로, 전송 리소스가 감소하는 효과가 있다.According to the present invention, since the motion data and audio data are separately transmitted and received to generate the virtual image data and the augmented reality image, the transmission resource is not transmitted and received. It has a reducing effect.
실시예에 따라, 증강 현실 영상 생성 장치는 모션 데이터 및 제 1 오디오 데이터 모두에 기초하여 가상 영상 데이터를 생성할 수 있다.According to an embodiment, the augmented reality image generating apparatus may generate virtual image data based on both motion data and first audio data.
실시예들에 따라, 가상 영상 데이터는 렌더링되지 않은 데이터일 수 있다. 예컨대, 가상 영상 데이터를 이용하여 방송을 하기 위해서는 추가적인 렌더링 작업이 필요할 수 있다.According to embodiments, the virtual image data may be data that is not rendered. For example, in order to broadcast using virtual image data, an additional rendering operation may be required.
430 단계에서, 증강 현실 영상 생성 장치는 적어도 하나 이상의 카메라를 통해 촬영된 실제 객체에 관한 실제 영상 데이터 및 실체 객체와 관련하여 측정된 제 2 오디오 데이터를 획득할 수 있다. 일 실시예에서, 실제 영상 데이터 및 제 2 오디오 데이터는, 재생 시간에 관한 정보, 즉, PTS에 관한 정보를 포함할 수 잇다.In
440 단계에서, 증강 현실 영상 생성 장치는 생성된 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성할 수 있다.In
도 5를 참조하면, 일 실시예에서, 440 단계는, 510 단계 내지 540 단계를 포함할 수 있다.Referring to FIG. 5, in an embodiment, step 440 may include
510 단계에서, 증강 현실 영상 생성 장치는 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화할 수 있다.In
일 실시예에서, 510 단계는, PTS(presentation time stamp)에 기초하여 수행될 수 있다. 예를 들어, 510 단계는, 가상 영상 데이터, 실제 영상 데이터, 제 1 오디오 데이터 및 제 2 오디오 데이터 중 재생 시간이 가장 느린 데이터의 PTS를 기준으로 다른 데이터의 PTS를 조정함으로써, 수행될 수 있다. 이와 관련하여, 도 8을 참조하면, 도 8은 가상 영상 데이터, 실제 영상 데이터와 오디오 데이터의 재생 시간을 동기화하는 예시를 나타낸다. 도시되는 바와 같이, 재생 시간이 가장 느린 제 2 오디오 데이터의 PTS를 기준으로 하여, 가상 영상 데이터(VVDATA), 실제 영상 데이터(AVDATA) 및/또는 제 1 오디오 데이터(ADATA)의 PST를 조정함으로써, 적어도 2 이상의 데이터에 대한 재생 시간을 동기화할 수 있다.In one embodiment, step 510 may be performed based on a presentation time stamp (PTS). For example, step 510 may be performed by adjusting the PTS of other data based on the PTS of the data having the slowest playback time among virtual image data, real image data, first audio data, and second audio data. In this regard, referring to FIG. 8, FIG. 8 shows an example of synchronizing reproduction times of virtual image data, real image data, and audio data. As shown, by adjusting the PST of the virtual image data (VVDATA), the actual image data (AVDATA) and/or the first audio data (ADATA) based on the PTS of the second audio data having the slowest reproduction time, Playback times for at least two or more data can be synchronized.
520 단계에서, 증강 현실 영상 생성 장치는 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 동작에 대한 정보를 획득할 수 있다. 여기서, 카메라의 동작에 대한 정보는, 카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나에 관한 정보를 포함할 수 있다.In
일 실시예에서, 카메라의 동작에 대한 정보는 실제 객체에 대한 촬영 공간에 설치된 마커(marker)를 이용하여 획득될 수 있다. 즉, 예를 들어, 도 6에 도시되는 바와 같이, 증강 현실 영상 생성 장치는 각각의 카메라에 설치된 감지 모듈로부터 적어도 하나의 제 1 마커에 대한 감지 데이터를 수신하고(710), 감지 데이터에 기초하여, 실제 객체를 촬영하는 카메라의 촬영 위치 및 앵글 중 적어도 하나를 추정할 수 있다(720).In an embodiment, information on the motion of the camera may be obtained using a marker installed in a photographing space for an actual object. That is, for example, as shown in FIG. 6, the augmented reality image generating apparatus receives detection data for at least one first marker from a detection module installed in each camera (710), and based on the detection data , At least one of a photographing position and an angle of a camera photographing an actual object may be estimated (720 ).
여기서, 제 1 마커는 상기 촬영 공간 중 적어도 일 영역에 설치된 복수의 제 2 마커 중에서 감지 모듈이 감지 가능한(또는, 감지 모듈에 신호가 수신되는) 적어도 일부의 마커를 지칭할 수 있다. 또한, 감지 데이터는, 이러한 제 1 마커에 대응하는 고유 식별 신호, 고유 식별 신호 각각의 수신 강도 및 감지 시간에 관한 적어도 하나의 정보를 포함할 수 있다.Here, the first marker may refer to at least some of the plurality of second markers installed in at least one area of the photographing space that the detection module detects (or the signal is received from the detection module). In addition, the sensing data may include at least one piece of information about a unique identification signal corresponding to the first marker and a reception strength and detection time of each of the unique identification signals.
이와 관련하여, 도 9를 참조하면, 도 9는 카메라의 위치 및 앵글을 추정하기 위한 감지 모듈의 동작을 설명하기 위한 도면을 도시한다. In this regard, referring to FIG. 9, FIG. 9 is a diagram illustrating an operation of a sensing module for estimating a position and angle of a camera.
도시되는 바와 같이, 촬영 공간의 천장에 복수의 마커가 일정한 배열 또는 랜덤하게 배치되며, 실제 객체를 촬영하는 카메라(910)에는 이러한 마커를 감지하기 위한 감지 모듈(920)이 천장을 향하도록 설치될 수 있다.As shown, a plurality of markers are arranged in a certain arrangement or randomly arranged on the ceiling of the photographing space, and a
일 실시예에서, 복수의 마커는 상이한 파장 또는 주파수 등의 고유 식별 신호를 발산하는 적외선 송광 다이오드(Infrared Rays Emitting Diode: IRED)일 수 있다. 또한, 일 실시예에서, 복수의 마커는 특정 파장의 광이 투사되면, 각각 상이한 고유 식별 신호를 반사하는 역반사성(retroreflective)을 가질 수 있다. 이 경우, 감지 모듈(920)에는 특정 파장의 광을 투사하기 위한 조명 모듈(예를 들어, LED 모듈)이 구비될 수 있다.In one embodiment, the plurality of markers may be Infrared Rays Emitting Diodes (IRDs) that emit unique identification signals such as different wavelengths or frequencies. In addition, in an embodiment, when light of a specific wavelength is projected, the plurality of markers may have retroreflective properties that reflect different unique identification signals, respectively. In this case, the
카메라(910)의 수평 위치(X, Y), 높이(Z) 또는 각도(P(pan), R(roll), T(tilt)가 변화하면, 감지 모듈(920)에 수신되는 고유 식별 신호 및 해당 신호의 강도가 상이하게 변화되므로, 감지 모듈(920)은, 이를 감지하여, 증강 현실 영상 생성 장치에 전달하고, 증강 현실 영상 생성 장치는 이를 기초로 카메라(910) 각각의 촬영 위치 및 앵글 중 적어도 하나를 추정할 수 있다.When the horizontal position (X, Y), height (Z) or angle (P (pan), R (roll), T (tilt)) of the
일 실시예에서, 감지 모듈(920)은 카메라(910)와 상이한 방향, 즉, 마커의 설치 위치(예를 들어, 천장)을 촬영하는 마커 감지 카메라를 포함할 수 있다. 이때, 마커 감지 카메라에는 상이한 파장의 적외선 등의 고유 식별 신호를 감지할 수 있는 검출 필터가 포함될 수 있다. 따라서, 마커 감지 카메라가 천장 등의 마커를 촬영하면, 촬영 부위에 대한 이미지로부터 마커 및/또는 신호 강도가 식별될 수 있다. 이 경우, 감지 데이터는 마커 감지 카메라에 의해 촬영된 제 1 마커에 대한 이미지를 포함할 수 있다.In an embodiment, the
마커 감지 카메라가 구비되는 경우, 실시예에 따라, 카메라(910)의 촬영 영상과 마커 카메라의 촬영 영상을 동기화하는 단계를 포함할 수 있다.When a marker detection camera is provided, according to an embodiment, the step of synchronizing the captured image of the
다시, 도 5로 돌아가서, 530 단계에서, 증강 현실 영상 생성 장치는 가상 영상 데이터와 실제 영상 데이터에 기초하여, 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 가상 객체가 실제 객체에 적응적으로 정합하는 결합 영상 데이터를 생성할 수 있다. 즉, 예를 들어, 증강 현실 영상 생성 장치는, 동기화된 재생 시간 및 획득된 카메라의 동작에 대한 정보를 기초로, 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 실제 객체에 정합함으로써, 결합 영상 데이터를 생성할 수 있다.Again, returning to FIG. 5, in
본 발명에 따르면, 특히, 실제 객체를 촬영하는 카메라가 복수인 경우, 각 카메라의 촬영 위치, 앵글, 카메라 전환 등에 따라, 가상 객체의 표시 위치, 앵글, 크기 등을 변경하여 실제 객체와 정합하도록 결합 영상 데이터를 생성함으로써, 보다 현실감있는 실시간 AR 방송을 제공할 수 있다.According to the present invention, in particular, when there are a plurality of cameras photographing an actual object, the display position, angle, and size of the virtual object are changed according to the photographing position, angle, and camera switching of each camera to match the actual object. By generating image data, it is possible to provide more realistic real-time AR broadcasting.
540 단계에서, 증강 현실 영상 생성 장치는 동기화된 재생 시간에 관한 정보를 기초로 생성된 결합 영상 데이터에 가상 객체에 관한 제 1 오디오 데이터 및 실제 객체에 관한 제 2 오디오 데이터를 결합하여 증강 현실 영상을 생성할 수 있다.In
도 6을 참조하면, 440 단계는 610 단계 내지 660 단계를 통해 수행될 수 있다. 610, 620, 650 및 660 단계는 도 5를 참조하여 상술한 510 내지 540 단계와 동일하게 수행될 수 있으며, 중복되는 설명은 생략한다.Referring to FIG. 6, step 440 may be performed through
630 단계에서, 증강 현실 영상 생성 장치는 실제 객체를 촬영하는 적어도 하나의 카메라에 대응하는 적어도 하나의 가상 카메라를 생성할 수 있다. 여기서, 가상 카메라는 가상 객체의 표시 위치(좌표), 앵글, 크기, 방향, 초점, 깊이 등을 변환하기 위하여, 실제 카메라의 동작에 적응적으로 동기화되도록 구현된 것으로서, 이하 상술되는 바와 같이, 실제 카메라의 동작이 변화하면, 이에 대응하여 가상 카메라의 촬영 위치, 앵글 등을 조정함으로써, 가상 객체의 표시 위치, 크기 등을 변화시킬 수 있게 된다.In
한편, 도 6에서는 630 단계가 620 단계에 이어서 수행되는 것으로 도시되어 있으나, 이에 한정하는 것은 아니며, 실시예에 따라, 630 단계는 620 단계와 동시 또는 이보다 먼저 수행될 수 있다.Meanwhile, in FIG. 6,
이어서, 640 단계에서, 증강 현실 영상 생성 장치는 실제 카메라의 동작에 대응하여 가상 카메라의 동작을 적응적으로 조정함으로써, 가상 카메라가 실제 카메라와 연동하도록 할 수 있다. 즉, 가상 카메라는 각각의 실제 카메라에 대응하며, 실제 카메라의 위치 또는 앵글이 변경되거나, 카메라간 전환이 발생되면, 이에 적응적으로 가상 카메라의 위치 또는 앵글이 변화되거나, 카메라간 전환이 동일하게 수행될 수 있다.Subsequently, in
650 단계에서는, 실제 카메라와 연동하는 가상 카메라의 동작에 기초하여, 가상 객체의 표시 위치(좌표), 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나를 변경하여, 실제 객체와 함께 표시함으로써, 결합 영상 데이터를 생성하게 된다.In
증강 현실 영상의 생성이 완료되면, 생성한 증강 현실 영상을 디스플레이 장치, 사용자 단말 등의 외부 장치로 실시간 송출할 수 있다(450). 여기서, 디스플레이 장치는, 휴대폰, 데스크탑, 노트북 컴퓨터(laptop computer),태블릿 PC, 디지털 카메라, 캠코더, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, IoT 디바이스, 웨어러블 디바이스(wearable device), CE(Consumer Elctronics) 기기(예컨대, 디스플레이 패널을 갖는 냉장고, 에어컨 등) 등과 같은 다양한 전자 장치를 포함할 수 있으나, 이에 한정되지 않는다.When the generation of the augmented reality image is completed, the generated augmented reality image may be transmitted in real time to an external device such as a display device or a user terminal (450). Here, the display device is a mobile phone, desktop, laptop computer, tablet PC, digital camera, camcorder, e-book terminal, digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), navigation, MP3 Various electronic devices such as a player, an IoT device, a wearable device, a CE (Consumer Elctronics) device (eg, a refrigerator having a display panel, an air conditioner, etc.) may be included, but are not limited thereto.
도 10은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법에서, 가사 영상 데이터와 실제 영상 데이터가 카메라의 동작에 따라 정합되는 예시를 도시한다.10 illustrates an example in which lyric image data and actual image data are matched according to an operation of a camera in a method of generating an augmented reality image according to an embodiment of the present invention.
이 경우, 상이한 위치에 있는 2 대의 카메라를 이용하여 현실의 실제 객체인 컵(20)을 촬영하고 있다고 가정한다. 이때, 2 대의 카메라를 통해 촬영한 영상은 실제 객체에 대한 촬영 영상에 해당하고, 증강 현실 영상 생성 장치는 이에 대한 데이터인 실제 영상 데이터를 획득할 수 있다. 2개의 카메라는 서로 촬영 각도가 다르며, 이에 따라 양 카메라에서는 서로 다른 영상이 획득될 것이다. In this case, it is assumed that the
그 후, 증강 현실 영상 생성 장치는 가상 영상 데이터로부터 생성한 가상 객체를 실제 객체와 정합하여 결합 영상(1010, 1020)을 생성할 수 있다. Thereafter, the augmented reality image generating apparatus may generate the combined
도 10을 참조하면, 가상 객체로 토끼 모양의 캐릭터(10)가 상이한 카메라에 의해 획득된 실제 객체의 영상에 표시되어 있다. 이러한 토끼 모양의 캐릭터(10)는 대상 객체인 행위자의 움직임을 재현하는 영상일 수도 있다. 이 경우, 가상 영상 데이터는 행위자인 대상 객체의 동작을 나타내는 모션 데이터 등을 포함할 수 있다. 도 10에 도시되는 바와 같이, 서로 다른 촬영 각도에서 실제 객체를 촬영하는 2개의 카메라에 기초하여 생성된 결합 영상에서 토끼 모양의 캐릭터(10)의 모습이 카메라의 각도에 대응하여 다르게 도시됨을 확인할 수 있다.Referring to FIG. 10, a rabbit-shaped
일 실시예에 따르면, 이와 같이, 카메라의 동작이 변경됨에 따라 실제 객체와 정합되는 가상 객체의 영상을 변경함으로써 보다 현실감 높은 영상을 제공할 수 있다. According to an embodiment, as the operation of the camera is changed, an image of a virtual object that matches the real object is changed to provide a more realistic image.
도 11은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상의 예시를 도시한다.11 illustrates an example of an augmented reality image generated by a method of generating an augmented reality image according to an embodiment of the present invention.
일 실시예에 따른 증강 현실 영상 생성 방법을 이용하여, 예를 들어, 실제 영상 데이터에 가상 영상 데이터를 결합하되, 실제 객체를 촬영하는 카메라의 촬영 위치, 앵글 등의 변화, 카메라 전환 등에 따라, 가상 객체를 변경하여 실체 객체와 정합시킴으로써, 영상을 시청하는 시청자가 이질감없이 가상의 캐릭터가 실제 스튜디오에 존재하는 것처럼 느끼게 되는 효과를 얻을 수 있다. Using the augmented reality image generation method according to an embodiment, for example, combining virtual image data with real image data, but according to a change in the shooting position, angle, etc. By changing the object and matching it with the real object, it is possible to obtain an effect that the viewer watching the video feels as if the virtual character exists in the actual studio without feeling of heterogeneity.
일 실시예에 따른 시스템의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.A method of operating a system according to an exemplary embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
또한, 개시된 실시예들에 따른 서비스형 함수를 제공하는 시스템 또는 시스템의 동작방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, a system providing a service-type function or a method of operating the system according to the disclosed embodiments may be included in a computer program product and provided. Computer program products can be traded between sellers and buyers as commodities.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium storing the S/W program. For example, the computer program product may include a product (e.g., downloadable app) electronically distributed through an electronic device manufacturer or an electronic market (e.g., Google Play Store, App Store). have. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing an SW program.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, when there is a third device (eg, a smart phone) communicating with a server or a client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from a server to a client device or a third device, or transmitted from a third device to a client device.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device, and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute and implement the method according to the disclosed embodiments.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicating with the server to perform the method according to the disclosed embodiments.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also the scope of the present invention. Belongs to.
Claims (13)
대상 객체에 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하는 단계;
수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하는 단계;
실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하는 단계;
상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하는 단계; 및
생성된 상기 증강 현실 영상을 실시간 송출하는 단계를 포함하는, 방법.In a method for generating an augmented reality image for real-time multiple AR broadcasting,
Obtaining motion data and first audio data for the target object, respectively;
Generating virtual image data including information on a virtual object corresponding to the target object by using the received motion data;
Acquiring real image data and second audio data about the real object;
Generating an augmented reality image based on the virtual image data, the real image data, the first audio data, and the second audio data; And
And transmitting the generated augmented reality image in real time.
상기 가상 영상 데이터를 생성하는 단계는,
미리 저장된 가상 객체의 정보 및 상기 모션 데이터를 기초로, 상기 모션 데이터에 대응하는 가상 객체의 형태 및 움직임에 대한 정보를 포함하는 상기 가상 영상 데이터를 생성하는, 방법.The method of claim 1,
Generating the virtual image data,
A method of generating the virtual image data including information on a shape and motion of a virtual object corresponding to the motion data, based on the information of the virtual object stored in advance and the motion data.
상기 모션 데이터는,
적어도 하나의 앵글에서 획득된 상기 대상 객체의 동작에 대한 정보를 포함하는, 방법.The method of claim 1,
The motion data,
A method comprising information on an operation of the target object obtained from at least one angle.
상기 증강 현실 영상을 생성하는 단계는,
PTS(presentation time stamp)를 기초로, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터 중 적어도 2 이상의 재생 시간을 동기화하는 단계를 포함하는, 방법.The method of claim 1,
The step of generating the augmented reality image,
And synchronizing playback times of at least two or more of the virtual image data, the real image data, the first audio data, and the second audio data based on a presentation time stamp (PTS).
상기 재생 시간을 동기화하는 단계는,
상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터 중 재생 시간이 늦은 데이터의 PTS를 기준으로, 적어도 2 이상의 재생 시간을 동기화하는, 방법.The method of claim 4,
The step of synchronizing the playing time,
Synchronizing at least two playback times based on a PTS of data having a late playback time among the virtual image data, the real image data, the first audio data, and the second audio data.
상기 증강 현실 영상을 생성하는 단계는,
상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 객체를 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 객체가 상기 실제 객체에 적응적으로 정합하는 결합 영상 데이터를 생성하는 단계를 포함하는, 방법.The method of claim 1,
The step of generating the augmented reality image,
Based on the virtual image data and the real image data, generating combined image data in which the virtual object adaptively matches the real object according to a photographing operation of at least one camera that photographs the real object. How to.
상기 증강 현실 영상을 생성하는 단계는,
상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 동작에 대한 정보를 획득하는 단계를 더 포함하고,
상기 결합 영상 데이터를 생성하는 단계는,
상기 적어도 하나 이상의 카메라의 동작에 따라 상기 가상 객체의 표시 위치, 앵글, 크기, 방향, 초점 및 깊이 중 적어도 하나 이상을 변경하여 상기 실제 객체에 정합하는 단계를 포함하는, 방법.The method of claim 6,
The step of generating the augmented reality image,
Further comprising the step of obtaining information on the operation of the at least one or more cameras photographing the actual image,
Generating the combined image data,
And changing at least one of the display position, angle, size, direction, focus, and depth of the virtual object according to an operation of the at least one camera to match the actual object.
상기 적어도 하나 이상의 카메라의 동작에 관한 정보는,
카메라 촬영 위치, 카메라 앵글, 줌 인, 줌 아웃, 초점 및 제 1 카메라에서 제 2 카메라로의 영상 전환 중 적어도 하나에 관한 정보를 포함하는, 방법.The method of claim 7,
Information on the operation of the at least one camera,
A method comprising information about at least one of a camera shooting position, a camera angle, a zoom in, a zoom out, a focus, and an image transition from the first camera to the second camera.
상기 카메라의 동작에 대한 정보를 획득하는 단계는,
상기 적어도 하나의 카메라 각각에 설치된 감지 모듈로부터 적어도 하나의 제 1 마커(marker)에 대한 감지 데이터를 수신하는 단계; 및
상기 감지 데이터에 기초하여, 상기 실제 객체를 촬영하는 상기 카메라의 촬영 위치 및 앵글 중 적어도 하나를 추정하는 단계를 포함하고,
상기 제 1 마커는 상기 실제 객체의 촬영 공간의 적어도 일 영역 내에 상이한 위치에 설치되는 복수의 제 2 마커 중 적어도 일부인, 방법.The method of claim 7,
Acquiring information on the operation of the camera,
Receiving detection data for at least one first marker from a detection module installed in each of the at least one camera; And
Estimating at least one of a photographing position and an angle of the camera photographing the real object based on the sensing data,
The first marker is at least a part of a plurality of second markers installed at different locations in at least one area of the shooting space of the real object.
상기 감지 데이터는, 상기 제 1 마커 각각에 대응하는 고유 식별 신호 및 상기 고유 식별 신호 각각의 수신 강도 중 적어도 하나에 관한 정보를 포함하는, 방법.The method of claim 9,
The detection data includes information on at least one of a unique identification signal corresponding to each of the first markers and a reception strength of each of the unique identification signals.
상기 감지 모듈은 상기 카메라와 상이한 방향을 촬영하는 마커 감지 카메라를 포함하고,
상기 감지 데이터는, 상기 마커 감지 카메라에 의해 촬영된 상기 제 1 마커에 대한 이미지를 포함하는 방법.The method of claim 9,
The detection module includes a marker detection camera for photographing a direction different from the camera,
The detection data includes an image of the first marker captured by the marker detection camera.
통신부;
상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리; 및
상기 메모리에 저장된 프로그램을 실행함으로써, 대상 객체의 관한 모션(motion) 데이터 및 제 1 오디오 데이터를 각각 획득하고, 수신된 상기 모션 데이터를 이용하여 상기 대상 객체에 대응하는 가상 객체에 관한 정보를 포함하는 가상 영상 데이터를 생성하며, 실제 객체에 관한 실제 영상 데이터 및 제 2 오디오 데이터를 획득하고, 상기 가상 영상 데이터, 상기 실제 영상 데이터, 상기 제 1 오디오 데이터 및 상기 제 2 오디오 데이터를 기초로 증강 현실 영상을 생성하고, 생성된 상기 증강 현실 영상을 실시간 송출하는 프로세서를 포함하는, 장치.In an augmented reality image generating apparatus for real-time multi-source AR broadcasting,
Communication department;
A memory for storing a program for generating the augmented reality image; And
By executing the program stored in the memory, motion data and first audio data of a target object are obtained, respectively, and information on a virtual object corresponding to the target object is included using the received motion data. Generate virtual image data, acquire real image data and second audio data about a real object, and an augmented reality image based on the virtual image data, the real image data, the first audio data and the second audio data And a processor that generates and transmits the generated augmented reality image in real time.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190070088 | 2019-06-13 | ||
KR1020190070088 | 2019-06-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200143293A true KR20200143293A (en) | 2020-12-23 |
Family
ID=74089320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200071797A KR20200143293A (en) | 2019-06-13 | 2020-06-12 | Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200143293A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220092053A (en) * | 2020-12-24 | 2022-07-01 | (주)코어센스 | Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation |
WO2024025076A1 (en) * | 2022-07-26 | 2024-02-01 | 삼성전자 주식회사 | Electronic device for adjusting volume using sound signal outputted from external object, and method thereof |
-
2020
- 2020-06-12 KR KR1020200071797A patent/KR20200143293A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220092053A (en) * | 2020-12-24 | 2022-07-01 | (주)코어센스 | Method for Constructing Virtual Space Movement Platform Using Cross-covariance 3D Coordinate Estimation |
WO2024025076A1 (en) * | 2022-07-26 | 2024-02-01 | 삼성전자 주식회사 | Electronic device for adjusting volume using sound signal outputted from external object, and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10062213B2 (en) | Augmented reality spaces with adaptive rules | |
US10277813B1 (en) | Remote immersive user experience from panoramic video | |
US10007349B2 (en) | Multiple sensor gesture recognition | |
EP3400705B1 (en) | Active speaker location detection | |
US20130120365A1 (en) | Content playback apparatus and method for providing interactive augmented space | |
US11210858B2 (en) | Systems and methods for enhancing augmented reality experience with dynamic output mapping | |
US9216347B2 (en) | Portable device, virtual reality system and method | |
JP7125397B2 (en) | Distributed Audio Capture Techniques for Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR) Systems | |
US20190130644A1 (en) | Provision of Virtual Reality Content | |
JP2020520576A (en) | Apparatus and related method for presentation of spatial audio | |
US20220248162A1 (en) | Method and apparatus for providing audio content in immersive reality | |
KR20200143293A (en) | Metohd and appartus for generating augumented reality video for real-time multi-way ar broadcasting | |
CN107479701B (en) | Virtual reality interaction method, device and system | |
US11587284B2 (en) | Virtual-world simulator | |
US10970932B2 (en) | Provision of virtual reality content | |
US11385856B2 (en) | Synchronizing positioning systems and content sharing between multiple devices | |
US11430178B2 (en) | Three-dimensional video processing | |
US11602684B2 (en) | Peripheral tracking system and method | |
WO2019034804A2 (en) | Three-dimensional video processing | |
KR102255181B1 (en) | Metohd and appartus for generating augumented reality video using multiple cameras | |
JP7354186B2 (en) | Display control device, display control method, and display control program | |
EP4350626A1 (en) | Image processing system, method for controlling the same, and program | |
CN116888983A (en) | Processing of audio data | |
CN115004132A (en) | Information processing apparatus, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |