KR102255181B1 - 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치 - Google Patents

다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치 Download PDF

Info

Publication number
KR102255181B1
KR102255181B1 KR1020190161630A KR20190161630A KR102255181B1 KR 102255181 B1 KR102255181 B1 KR 102255181B1 KR 1020190161630 A KR1020190161630 A KR 1020190161630A KR 20190161630 A KR20190161630 A KR 20190161630A KR 102255181 B1 KR102255181 B1 KR 102255181B1
Authority
KR
South Korea
Prior art keywords
image
augmented reality
camera
generating
virtual
Prior art date
Application number
KR1020190161630A
Other languages
English (en)
Inventor
서국한
Original Assignee
주식회사 두리번
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 두리번 filed Critical 주식회사 두리번
Priority to KR1020190161630A priority Critical patent/KR102255181B1/ko
Application granted granted Critical
Publication of KR102255181B1 publication Critical patent/KR102255181B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/232

Abstract

본 발명은 증강 현실 영상 생성 방법 및 장치에 관한 것으로, 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법은, 가상 영상에 대한 가상 영상 데이터를 획득하는 단계, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득하는 단계 및 상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상이 상기 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성하는 단계를 포함할 수 있다.

Description

다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치{METOHD AND APPARTUS FOR GENERATING AUGUMENTED REALITY VIDEO USING MULTIPLE CAMERAS}
본 발명은 증강 현실 영상 생성 방법 및 장치에 관한 것이다.
가상 현실(virtual reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황을 의미하는 것으로, 컴퓨터를 이용하여 구축한 가상 공간에서 인간 감각계와의 상호작용을 통해 공간적, 물리적 제약에 의해 현실 세계에서는 직접 경험하지 못하는 상황을 간접적으로 체험할 수 있도록 만든 정보 활동 분야의 새로운 패러다임 중의 하나이다.
증강 현실(augmented reality, AR)은 가상 현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 완전한 가상 세계를 전제로 하는 가상 현실과는 달리 현실(Reality)을 기반으로 정보를 증강(Augmented) 제공하는 기술로, 가상의 대상을 결합시켜 현실의 효과를 더욱 증가시킬 수 있다. 즉, 가상 현실에 현실 세계의 실제 모습이 추가된 것이다. 증강현실은 현실 세계의 기반위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 또는 마켓팅의 목적으로 전달하는 부가적인 정보들을 보강해 제공할 수 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 증강 현실은 다양한 현실 환경에 응용이 가능하다.
최근 정보 통신 기술의 발달로 인해, 정보 처리 및 데이터 전송 능력이 획기적으로 증가함에 따라, 카메라를 통해 촬영된 실제 영상에 가상 영상을 결합한 증강 현실 영상을 지연없이 실시간으로 생성하고 제공할 수 있게 되었다.
본 발명은 증강 현실 영상 생성 방법 및 장치를 제공하기 위한 것이다.
본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법은, 가상 영상에 대한 가상 영상 데이터를 획득하는 단계, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득하는 단계 및 상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상이 상기 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 상기 증강 현실 영상을 생성하는 단계는, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상의 표시 위치, 앵글, 크기, 방향, 초점, 깊이, 상기 가상 영상과 관련된 오디오 정보 중 적어도 하나 이상을 변경하여 상기 실제 영상에 정합하는 단계를 포함할 수 있다.
일 실시예에서, 상기 적어도 하나 이상의 카메라의 촬영 동작은, 카메라 앵글 변경, 줌 인, 줌 아웃, 초점 변경, 제1 카메라에서 제2 카메라로의 영상 전환, 카메라 촬영 위치 중 적어도 하나 이상을 포함할 수 있다.
일 실시예에서, 상기 증강 현실 영상을 생성하는 단계는, 상기 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 상기 적어도 하나 이상의 카메라의 촬영 동작을 판단하는 단계를 포함할 수 있다.
일 실시예에서, 상기 증강 현실 영상을 생성하는 단계는, 상기 적어도 하나 이상의 카메라 각각에 부착된 적어도 하나 이상의 센서를 이용하여 상기 적어도 하나 이상의 카메라의 촬영 동작을 판단하는 단계를 포함할 수 있다.
일 실시예에서, 상기 가상 영상은, 대상 객체에 대응하는 가상의 객체를 포함하며, 상기 가상 영상 데이터는, 상기 대상 객체의 동작을 나타내는 모션 데이터, 적어도 하나 이상의 카메라를 통해 촬영된 상기 대상 객체의 영상 데이터를 기초로 생성되는 데이터를 포함할 수 있다.
일 실시예에서, 상기 가상 영상 데이터는, 상기 가상 영상에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다.
일 실시예에서, 상기 생성한 증강 현실 영상을 디스플레이 장치로 전송하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른, 증강 현실 영상 생성 장치는, 통신부, 상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리 및 상기 메모리에 저장된 프로그램을 실행함으로써, 가상 영상에 대한 가상 영상 데이터를 획득하고, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득하며, 상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상이 상기 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성하는 프로세서를 포함할 수 있다.
본 발명의 일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는 증강 현실 영상 생성 방법을 컴퓨터에서 실행하기 위한 프로그램이 기록될 수 있다.
본 발명의 일 실시예에 따르면, 향상된 증강 현실 영상 생성 방법 및 장치를 제공할 수 있다.
도 1은 증강 현실(augmented reality, AR) 영상을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.
도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상을 설명하기 위한 도면이다.
본 발명의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 기술적 사상의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processor), 어플리케이션 프로세서(Application Processor), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
그리고 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
이하, 본 발명의 기술적 사상에 의한 실시예들을 차례로 상세히 설명한다.
도 1은 증강 현실(augmented reality, AR) 영상을 설명하기 위한 도면이다.
도 1을 참조하면 디스플레이 장치(100)에 실제 영상(20)과 가상 영상(10)이 결합된 증강 현실 영상이 표시되고 있다. 여기서, 디스플레이 장치는, 휴대폰, 데스크탑, 노트북 컴퓨터(laptop computer),태블릿 PC, 디지털 카메라, 캠코더, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, IoT 디바이스, 웨어러블 디바이스(wearable device), CE(Consumer Elctronics) 기기(예컨대, 디스플레이 패널을 갖는 냉장고, 에어컨 등) 등과 같은 다양한 전자 장치를 포함할 수 있으나, 이에 한정되지 않는다.
위에서 설명한 것과 같이, 증강 현실(augmented reality, AR)은 가상 현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 도 1에서는 실제 영상(20)은 실제 스튜디오에서 촬영되는 영상에 해당하고, 가상 영상(10)은 애니메이션 캐릭터에 해당한다.
일 실시예에 따른 증강 현실 영상 생성 방법을 이용하여, 예를 들어, 도 1과 같이 실제 영상(20)에 가상 영상(10)을 결합하거나 실제 영상(20)에 가상 영상을 삽입하여 영상을 시청하는 시청자가 가상의 애니메이션 캐릭터가 실제 스튜디오에 존재하는 것처럼 느끼게 되는 효과를 얻을 수 있다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템을 나타내는 도면이다.
도 2에서는 도 2를 참조하면, 일 실시예에 따른 증강 현실 영상 생성 방법을 제공하기 위한 시스템은, 그 기능에 따라 가상 영상 데이터 획득 장치(210)와 증강 현실 영상 생성 장치(220)를 포함할 수 있다. 일 실시예에서, 가상 영상 데이터 획득 장치(210)와 증강 현실 영상 생성 장치(220)는 네트워크로 연결될 수 있다. 다만, 이는 일 예에 불과하며, 증강 현실 영상 생성 방법을 제공하기 위한 시스템의 구성이 이에 한정되는 것은 아니다. 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 다른 구성을 더 포함하거나, 도 2에 개시된 구성 중 일부를 포함하지 않지 않거나 도2와 다르게 구성될 수도 있다. 예를 들어, 증강 현실 영상 생성 방법을 제공하기 위한 시스템은 네트워크로 연결되는 서버 등과 같은 다른 구성을 더 포함할 수도 있고, 증강 현실 영상 생성 방법을 제공하기 위한 시스템이 하나의 장치로 구현되어 별도의 네트워크 연결이 필요없을 수도 있다.
도 2에서 가상 영상 데이터 획득 장치(210)는 모션 데이터 획득부(211), 영상 획득부(212), 가상 영상 데이터 생성부(213), 통신부(214), 제어부(215) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 가상 영상 데이터 획득 장치(210)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 가상 영상 데이터 획득 장치(210)은 다른 구성을 더 포함하거나, 도 2에 개시된 구성 중 일부를 포함하지 않을 수도 있다.
모션(motion) 데이터 획득부(211)는 대상 객체(예컨대, 행위자)의 모션을 인식하고, 인식 결과에 따라 대상 객체의 움직임을 나타내는 모션 데이터를 획득할 수 있다. 일 실시예에서, 모션 데이터 획득부(211)는 센서, 영상 분석, 모션 캡쳐 등을 이용하여 모션 데이터를 획득할 수 있다. 여기서, 모션 데이터는 대상 객체의 각 부분의 3차원 좌표, 대상 객체의 각 부분의 속도, 가속도, 또는 관성 모멘트 등을 의미할 수 있으나, 이에 한정되지 않는다.
영상 획득부(212)는 대상 객체(예컨대, 행위자)의 영상을 획득할 수 있다. 일 실시예에서, 영상 획득부(212)는 적어도 하나 이상의 카메라를 통해 대상 객체를 촬영하여 영상을 획득할 수 있다. 바람직하게는 영상 획득부(212)는 증강 현실 영상 생성 장치(220)의 영상 획득부(221)에서 실제 영상에 대한 실제 영상 데이터를 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 카메라의 개수 및 카메라의 위치를 통해 대상 객체의 영상을 획득할 수 있다. 이와 같이 가상 영상을 획득하는데 사용한 카메라 개수, 위치가 실제 영상을 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 경우, 보다 정확도 높은 증강 현실 영상을 생성할 수 있다.
가상 영상 데이터 생성부(213)는 모션 데이터 획득부(211)를 통해 획득한 모션 데이터 및 영상 획득부(212)를 통해 획득한 대상 객체의 영상을 기초로, 증강 현실 영상에 표시될 가상 영상에 대한 가상 영상 데이터를 생성할 수 있다. 여기서, 가상 영상 데이터는 가상 영상에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. 나아가, 가상 영상과 관련된 오디오 데이터를 포함할 수도 있다.
통신부(214)는 외부 장치와 통신할 수 있다. 가상 영상 데이터 생성부(213)에서 생성한 가상 영상 데이터를 외부 장치로 전송할 수 있다. 일 실시예에서, 통신부(214)는 가상 영상 데이터를 증강 현실 영상 생성 장치(220)로 전송할 수 있다.
제어부(215)는 가상 영상 데이터 획득 장치(210)의 전반적인 동작을 제어한다. 예를 들어, 제어부(215)는 모션 데이터 획득부(211)를 이용하여 모션 데이터를 획득하고, 영상 획득부(212)를 이용하여 대상 객체(예컨대, 행위자)의 영상을 획득하며, 가상 영상 데이터 생성부(213)를 이용하여 가상 영상 데이터를 생성하고, 통신부(214)를 통해 생성한 가상 영상 데이터를 증강 현실 영상 생성 장치(220)로 전송하는 동작을 제어할 수 있다.
도 2에서 증강 현실 영상 생성 장치(220)는 영상 획득부(221), 촬영 동작 판단부(222), 증강 현실 영상 생성부(223), 통신부(224), 제어부(225) 등을 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(220)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 증강 현실 영상 생성 장치(220)은 다른 구성을 더 포함하거나, 도 2에 개시된 구성 중 일부를 포함하지 않을 수도 있다.
영상 획득부(221)는 카메라를 통해 촬영된 실제 영상을 획득할 수 있다. 일 실시예에서, 영상 획득부(221)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 획득할 수 있다. 바람직하게는 영상 획득부(221)는 가상 영상 데이터 획득 장치(210)의 영상 획득부(212)에서 대상 객체의 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 카메라의 개수 및 카메라의 위치를 통해 실제 영상 영상을 획득할 수 있다. 이와 같이 실제 영상을 획득하는데 사용한 카메라 개수, 위치가 가상 영상 데이터를 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 경우, 보다 정확도 높은 증강 현실 영상을 생성할 수 있다.
촬영 동작 판단부(222)는 실제 영상을 촬영하는 카메라의 촬영 동작을 판단할 수 있다. 일 실시예에서, 촬영 동작 판단부(222)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수 있다. 또한, 촬영 동작 판단부(222)는 적어도 하나 이상의 카메라 각각에 부착된 적어도 하나 이상의 센서를 이용하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수 있다. 여기서, 카메라의 촬영 동작은, 카메라 앵글 변경, 줌 인, 줌 아웃, 초점 변경, 제1 카메라에서 제2 카메라로의 영상 전환, 카메라 촬영 위치 등을 포함할 수 있다.
증강 현실 영상 생성부(223)는 촬영 동작 판단부(222)에서 판단한 카메라의 촬영 동작에 따라 가상 영상을 실제 영상에 적응적으로 정합하여 증강 현실 영상을 생성할 수 있다. 이때, 증강 현실 영상 생성부(223)는 가상 영상 데이터와 실제 영상 데이터에 기초하여 증강 현실 영상을 생성할 수 있다. 일 실시예에 따르면, 실제 영상이 변경되는 것에 따라 가상 영상이 함께 변경될 수 있다. 예를 들어, 실제 영상을 촬영하는 스튜디오에서 복수의 카메라를 통해 실제 인물과 공간을 촬영하는 경우, 하나의 카메라가 자세(즉, 앵글) 또는 줌인 or 줌아웃 등이 변경되거나, 제 1 카메라에서 제 2 카메라로 영상이 전환되는 경우, 이러한 변화에 맞춰서 가상 영상의 표시 위치, 표시 각도, 크기 등을 변경할 수 있다.
통신부(224)는 외부 장치와 통신할 수 있다. 일 실시예에서, 통신부(224)는 가상 영상 데이터 획득 장치(210)에서 생성한 가상 영상 데이터를 수신할 수 있다. 또한, 통신부(224)는 생성한 증강 현실 영상을 디스플레이 장치로 전송할 수도 있다.
제어부(225)는 증강 현실 영상 생성 장치(220)의 전반적인 동작을 제어한다. 예를 들어, 제어부(225)는 영상 획득부(221)를 이용하여 실제 영상을 획득하고, 촬영 동작 판단부(222)를 이용하여 카메라의 촬영 동작을 판단하며, 증강 현실 영상 생성부(223)를 이용하여 증강 현실 영상을 생성하는 동작을 제어할 수 있다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치를 나타내는 도면이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 영상 생성 장치(300)는, 그 하드웨어 구성에 따라 통신부(310), 프로세서(320), 및 메모리(330)를 포함할 수 있으나, 이는 일 예에 불과하며, 증강 현실 영상 생성 장치(300)의 구성이 이에 한정되는 것은 아니다. 예를 들어, 증강 현실 영상 생성 장치(300)은 다른 구성을 더 포함하거나, 도 3에 개시된 구성 중 일부를 포함하지 않을 수도 있다.
일 실시예에서, 통신부(310)는 프로세서(320)의 제어에 의해 가상 영상 데이터 획득 장치, 디스플레이 장치 등과 같은 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. 일 실시예에 따른 통신부(310)는 도 2에서 도시하고 설명한 통신부(224)의 기능을 수행할 수 있다. 예를 들어, 통신부(310)는 네트워크를 통하여 가상 영상 데이터 획득 장치에서 생성한 가상 영상 데이터를 수신하거나 또는 생성한 증강 현실 영상을 디스플레이 장치로 전송할 수도 있다.
통신부(310)는 유무선 통신부를 포함할 수 있다. 통신부(310)가 유선 통신부를 포함하는 경우, 통신부(310)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(310)가 무선 통신부를 포함하는 경우, 통신부(310)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다.
일 실시예에서, 프로세서(320)는 증강 현실 영상 생성 장치(300)의 전반적인 동작을 제어할 수 있다. 프로세서(320)는 메모리(330)에 저장되는 하나 이상의 프로그램들을 실행할 수 있고, 도 2의 영상 획득부(221), 촬영 동작 판단부(222), 증강 현실 영상 생성부(223) 및 제어부(225)의 기능 중 적어도 하나 이상의 기능을 수행할 수 있다.
일 실시예에서 프로세서(320)는 통신부(310)를 제어하여 가상 영상 데이터 생성 장치로부터 가상 영상 데이터를 수신할 수 있다. 일 실시예에서, 가상 영상은 대상 객체에 대응하는 가상의 객체를 포함할 수 있다. 또한, 가상 영상 데이터는 대상 객체의 동작을 나타내는 모션(motion) 데이터, 적어도 하나 이상의 카메라를 통해 촬영된 대상 객체의 영상 데이터를 기초로 생성되는 데이터를 포함할 수 있다. 여기서, 가상 영상 데이터는 가상 영상에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다. 일 실시예에 따르면, 증강 현실 영상 생성 장치(300)는 가상 영상에 대한 원본 데이터를 그대로 수신하는 것이 아니라, 최적의 형태로 가공된 가상 영상 데이터를 수신하므로 지연 없이 가상 영상 데이터를 수신할 수 있다.
일 실시예에서 프로세서(320)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득할 수 있다. 프로세서(320)는 바람직하게 가상 영상 데이터 획득 장치에서 대상 객체의 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 카메라의 개수 및 카메라의 위치를 통해 실제 영상 영상을 획득할 수 있다. 이와 같이 실제 영상을 획득하는데 사용한 카메라 개수, 위치가 가상 영상 데이터를 획득하기 위해서 촬영에 사용한 카메라의 개수 및 카메라의 위치와 동일한 경우, 보다 정확도 높은 증강 현실 영상을 생성할 수 있다.
일 실시예에서 프로세서(320)는 실제 영상을 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 가상 영상이 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성할 수 있다. 이때, 프로세서(320)는 가상 영상 데이터와 실제 영상 데이터에 기초하여, 증강 현실 영상을 생성할 수 있다.
일 실시예에서, 프로세서(320)는 실제 영상을 촬영하는 카메라의 촬영 동작을 판단할 수 있다. 프로세서(320)는 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수도 있고, 적어도 하나 이상의 카메라 각각에 부착된 적어도 하나 이상의 센서를 이용하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수도 있다. 여기서, 카메라의 촬영 동작은 카메라 앵글 변경, 줌 인, 줌 아웃, 초점 변경, 제1 카메라에서 제2 카메라로의 영상 전환, 카메라 촬영 위치 중 적어도 하나 이상을 포함할 수 있다. 프로세서(320)는 판단 결과에 따라 가상 영상의 표시 위치, 앵글, 크기, 방향, 초점, 깊이, 가상 영상과 관련된 오디오 정보 중 적어도 하나 이상을 변경하여 실제 영상에 정합할 수 있다. 도 5 및 6을 참조하여 설명하도록 한다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 증강 현실 영상 생성 방법으로 생성되는 증강 현실 영상을 설명하기 위한 도면이다.
도 5를 참조하면, 2 대의 카메라(510, 520)를 이용하여 현실의 실제 객체인 컵(21)을 촬영하고 있다. 이때, 2 대의 카메라(510, 520)를 통해 촬영한 영상은 실제 영상에 해당하고, 증강 현실 영상 생성 장치는 이러한 실제 영상에 대한 데이터인 실제 영상 데이터를 획득할 수 있다. 도 5에서 제1 카메라(510)와 제2 카메라(520)는 서로 촬영 각도가 다르다. 이에 따라 제1 카메라(510)와 제2 카메라(520)에서는 서로 다른 영상이 획득될 것이다.
그 후, 증강 현실 영상 생성 장치는 가상 영상 데이터를 이용하여 가상 영상을 생성하고, 생성한 가상 영상을 실제 영상과 정합하여 증강 현실 영상을 생성할 수 있다. 도 6에 가상 영상으로 토끼 모양의 캐릭터(11)가 표시되어 있다. 이러한 토끼 모양의 캐릭터(11)는 컴퓨터 상에서 단순히 만들어진 이미지나 영상일 수도 있고, 객체 대상인 행위자의 움직임을 재현하는 가상 영상일 수도 있다. 토끼 모양의 캐릭터(11)가 객체 대상인 행위자의 움직임을 재현하는 가상 영상인 경우, 가상 영상 데이터는 행위자의 대상 객체의 동작을 나타내는 모션(motion) 데이터, 적어도 하나 이상의 카메라를 통해 촬영된 대상 객체의 영상 데이터를 기초로 생성되는 데이터 등을 포함할 수 있다.
도 6을 참조하면, 각각의 카메라(510, 520)에서 촬영한 영상에 가상 영상을 합친 증강 현실 영상이 도시되어 있다. 증강 현실 영상 610은 제1 카메라(510)에서 촬영한 실제 영상에 가상 영상을 정합하여 생성한 증강 현실 영상 610이고, 증강 현실 영상 620은 제2 카메라(520)에서 촬영한 실제 영상에 가상 영상을 정합하여 생성한 증강 현실 영상 620이다. 도 6에서 가상 영상인 토끼 모양의 캐릭터(11)로, 서로 다른 촬영 각도를 갖는 제1 카메라(510)에서 촬영한 토끼 모양의 캐릭터(11)의 모습과 제2 카메라(520)에서 촬영한 토끼 모양의 캐릭터(11)의 모습이 다르게 도시된다.
예를 들어, 실제 영상 촬영 시, 1초에서 5초 사이의 촬영 구간에서는 제1 카메라(510)를 통해 컵(21)을 촬영하고, 그 이후 제1 카메라(510)에서 제2 카메라(520)로의 영상 전환을 통해 5초부터 7초 사이의 촬영 구간에서는 제2 카메라(520)를 통해 컵(21)을 촬영한다고 가정할 수 있다. 이때, 증강 현실 영상에 표시되는 가상 영상 역시, 컵(21)을 촬영하는 카메라에서 촬영한 시점으로 표시될 수 있다. 위의 예에서, 1초에서 5초 사이의 촬영 구간에서는 증강 현실 영상 610과 같이 토끼 모양의 캐릭터(11)의 옆모습이 표시되지만, 제1 카메라(510)에서 제2 카메라(520)로 전환된 이후인 초부터 7초 사이의 촬영 구간에서는 증강 현실 영상 620와 같이 토끼 모양의 캐릭터(11)의 뒤모습이 표시될 수 있다.
다만, 도 6에 도시된 증강 현실 영상은 일 예에 불과하며, 다양한 형태로 생성될 수 있다.
일 실시예에 따르면, 이와 같이, 카메라의 촬영 동작이 변경됨에 따라 증강 현실 영상에 표시되는 가상 영상을 변경함으로써 보다 현실감 높은 영상을 제공할 수 있다.
다시 도 3의 설명으로 돌아가면, 메모리(330)는 증강 현실 영상 생성 장치(300)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(330)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(330)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(320)에 의해 실행될 수 있다. 또한, 메모리(330)는 도 2에서 도시하고 설명한 저장부(230)를 포함할 수 있으나, 이에 한정되지 않는다.
한편, 도 2 및 도 3의 블록도들은 일 실시예를 위한 블록도로, 각 구성요소는 실제 구현되는 시스템에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 4는 증강 현실 영상 생성 방법을 나타내는 순서도이다.
410 단계에서, 가상 영상에 대한 가상 영상 데이터를 획득할 수 있다. 일 실시예에서, 가상 영상은 대상 객체에 대응하는 가상의 객체를 포함할 수 있다. 또한, 가상 영상 데이터는 대상 객체의 동작을 나타내는 모션(motion) 데이터, 적어도 하나 이상의 카메라를 통해 촬영된 대상 객체의 영상 데이터를 기초로 생성되는 데이터를 포함할 수 있다. 여기서, 가상 영상 데이터는 가상 영상에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함할 수 있다.
또한, 가상 영상 데이터는 가상 영상 데이터 생성 장치로부터 수신할 수도 있고, 증강 현실 영상 장치와 가상 영상 데이터 생성 장치가 하나의 장치로 이루어진 경우, 내부적으로 전달받을 수도 있다.
420 단계에서, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득할 수 있다.
430 단계에서, 가상 영상 데이터와 실제 영상 데이터에 기초하여, 실제 영상을 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 가상 영상이 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성할 수 있다. 일 실시예에서, 증강 현실 영상을 생성 시, 실제 영상을 촬영하는 적어도 하나 이상의 카메라의 촬영 동작에 따라 가상 영상의 표시 위치, 앵글, 크기, 방향, 초점, 깊이, 가상 영상과 관련된 오디오 정보 중 적어도 하나 이상을 변경하여 실제 영상에 정합할 수 있다.
일 실시예에서, 증강 현실 영상을 생성 시, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수도 있고, 적어도 하나 이상의 카메라 각각에 부착된 적어도 하나 이상의 센서를 이용하여 적어도 하나 이상의 카메라의 촬영 동작을 판단할 수도 있다. 여기서, 카메라의 촬영 동작은 카메라 앵글 변경, 줌 인, 줌 아웃, 초점 변경, 제1 카메라에서 제2 카메라로의 영상 전환, 카메라 촬영 위치 중 적어도 하나 이상을 포함할 수 있다.
도 4에 도시하지는 않았으나, 일 실시예에서, 생성한 증강 현실 영상을 디스플레이 장치로 전송할 수 있다.
일 실시예에 따른 서비스형 함수를 제공하는 시스템의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 개시된 실시예들에 따른 서비스형 함수를 제공하는 시스템 또는 시스템의 동작방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (10)

  1. 증강 현실 영상 생성 방법에 있어서,
    가상 영상에 대한 가상 영상 데이터를 획득하는 단계;
    적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득하는 단계; 및
    상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상이 상기 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성하는 단계를 포함하고,
    상기 증강 현실 영상을 생성하는 단계는,
    상기 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 상기 적어도 하나 이상의 카메라의 촬영 동작을 판단하는 단계를 포함하는, 증강 현실 영상 생성 방법.
  2. 제1항에 있어서,
    상기 증강 현실 영상을 생성하는 단계는,
    상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상의 표시 위치, 앵글, 크기, 방향, 초점, 깊이, 상기 가상 영상과 관련된 오디오 정보 중 적어도 하나 이상을 변경하여 상기 실제 영상에 정합하는 단계를 포함하는, 증강 현실 영상 생성 방법.
  3. 제1항에 있어서,
    상기 적어도 하나 이상의 카메라의 촬영 동작은,
    카메라 앵글 변경, 줌 인, 줌 아웃, 초점 변경, 제1 카메라에서 제2 카메라로의 영상 전환, 카메라 촬영 위치 중 적어도 하나 이상을 포함하는, 증강 현실 영상 생성 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 증강 현실 영상을 생성하는 단계는,
    상기 적어도 하나 이상의 카메라 각각에 부착된 적어도 하나 이상의 센서를 이용하여 상기 적어도 하나 이상의 카메라의 촬영 동작을 판단하는 단계를 포함하는, 증강 현실 영상 생성 방법.
  6. 제1항에 있어서,
    상기 가상 영상은,
    대상 객체에 대응하는 가상의 객체를 포함하며,
    상기 가상 영상 데이터는,
    상기 대상 객체의 동작을 나타내는 모션(motion) 데이터, 적어도 하나 이상의 카메라를 통해 촬영된 상기 대상 객체의 영상 데이터를 기초로 생성되는 데이터를 포함하는, 증강 현실 영상 생성 방법.
  7. 제1항에 있어서,
    상기 가상 영상 데이터는,
    상기 가상 영상에 대한 표시 위치, 앵글, 크기, 방향, 초점, 깊이 중 적어도 하나 이상에 관한 데이터를 포함하는, 증강 현실 영상 생성 방법.
  8. 제1항에 있어서,
    상기 생성한 증강 현실 영상을 디스플레이 장치로 전송하는 단계를 더 포함하는, 증강 현실 영상 생성 방법.
  9. 증강 현실 영상 생성 장치에 있어서,
    통신부;
    상기 증강 현실 영상을 생성하기 위한 프로그램을 저장하는 메모리; 및
    상기 메모리에 저장된 프로그램을 실행함으로써, 가상 영상에 대한 가상 영상 데이터를 획득하고, 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상에 대한 실제 영상 데이터를 획득하며, 상기 가상 영상 데이터와 상기 실제 영상 데이터에 기초하여, 상기 실제 영상을 촬영하는 상기 적어도 하나 이상의 카메라의 촬영 동작에 따라 상기 가상 영상이 상기 실제 영상에 적응적으로 정합되는 증강 현실 영상을 생성하는 프로세서를 포함하고,
    상기 프로세서는 상기 적어도 하나 이상의 카메라를 통해 촬영된 실제 영상을 분석하여 상기 적어도 하나 이상의 카메라의 촬영 동작을 판단함으로써 상기 증강 현실 영상을 생성하는, 증강 현실 영상 생성 장치.
  10. 제1항 내지 제3항, 및 제5항 내지 제8항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020190161630A 2019-12-06 2019-12-06 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치 KR102255181B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190161630A KR102255181B1 (ko) 2019-12-06 2019-12-06 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161630A KR102255181B1 (ko) 2019-12-06 2019-12-06 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102255181B1 true KR102255181B1 (ko) 2021-05-24

Family

ID=76152500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161630A KR102255181B1 (ko) 2019-12-06 2019-12-06 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102255181B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102461485B1 (ko) * 2022-05-24 2022-11-01 주식회사 야나두 메타버스 기반 4d 실감형 서비스를 제공하기 위한 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160007473A (ko) * 2015-12-31 2016-01-20 네이버 주식회사 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
KR20190081031A (ko) * 2017-12-29 2019-07-09 주식회사 버넥트 3차원 자세정보를 이용하여 증강현실 객체의 조작이 가능한 증강현실 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160007473A (ko) * 2015-12-31 2016-01-20 네이버 주식회사 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
KR20190081031A (ko) * 2017-12-29 2019-07-09 주식회사 버넥트 3차원 자세정보를 이용하여 증강현실 객체의 조작이 가능한 증강현실 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102461485B1 (ko) * 2022-05-24 2022-11-01 주식회사 야나두 메타버스 기반 4d 실감형 서비스를 제공하기 위한 시스템

Similar Documents

Publication Publication Date Title
JP6643357B2 (ja) 全球状取込方法
US20200134911A1 (en) Methods and Systems for Performing 3D Simulation Based on a 2D Video Image
WO2019223468A1 (zh) 相机姿态追踪方法、装置、设备及系统
US7796155B1 (en) Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events
US8797353B2 (en) Augmented media message
US8253649B2 (en) Spatially correlated rendering of three-dimensional content on display components having arbitrary positions
US20150234475A1 (en) Multiple sensor gesture recognition
WO2022088918A1 (zh) 虚拟图像的显示方法、装置、电子设备及存储介质
TWI642903B (zh) 用於頭戴式顯示裝置的定位方法、定位器以及定位系統
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
CN114445500B (zh) 增强现实场景构建方法、装置、终端设备和存储介质
JP6374754B2 (ja) 画像合成装置及びそのプログラム
CN108537878B (zh) 环境模型生成方法、装置、存储介质及电子设备
US11978232B2 (en) Method for displaying three-dimensional augmented reality
EP4054186A1 (en) Information processing apparatus, information processing method, and program
KR102255181B1 (ko) 다수의 카메라에 의한 증강 현실 영상 생성 방법 및 장치
KR20200143293A (ko) 실시간 다원 ar 방송을 위한 증강 현실 영상 생성 방법 및 장치
US11430178B2 (en) Three-dimensional video processing
US11385856B2 (en) Synchronizing positioning systems and content sharing between multiple devices
US20230298260A1 (en) Image processing device, image processing method, and program
CN108985275B (zh) 增强现实设备及电子设备的显示追踪方法和装置
KR101868057B1 (ko) 파노라마 영상 생성 방법 및 그 장치
KR101741149B1 (ko) 가상 카메라의 시점 제어 방법 및 장치
EP4350626A1 (en) Image processing system, method for controlling the same, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant