KR20190116606A - 하이브리드 이미지 정합 장치 - Google Patents

하이브리드 이미지 정합 장치 Download PDF

Info

Publication number
KR20190116606A
KR20190116606A KR1020180039166A KR20180039166A KR20190116606A KR 20190116606 A KR20190116606 A KR 20190116606A KR 1020180039166 A KR1020180039166 A KR 1020180039166A KR 20180039166 A KR20180039166 A KR 20180039166A KR 20190116606 A KR20190116606 A KR 20190116606A
Authority
KR
South Korea
Prior art keywords
image
final
hybrid
space
spatial information
Prior art date
Application number
KR1020180039166A
Other languages
English (en)
Inventor
오진호
한봉훈
김범준
정순규
박명환
엄준열
Original Assignee
(주)온넷시스템즈코리아
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)온넷시스템즈코리아, 주식회사 엘지유플러스 filed Critical (주)온넷시스템즈코리아
Priority to KR1020180039166A priority Critical patent/KR20190116606A/ko
Publication of KR20190116606A publication Critical patent/KR20190116606A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 하이브리드 이미지 정합 장치에 관한 것으로, 적어도 하나의 제1 객체에 관한 3D 공간정보를 가지는 2D 이미지를 생성하는 하이브리드 이미지 생성부, 제2 객체에 관한 3D 이미지를 수신하는 3D 객체 수신부 및 상기 2D 이미지와 상기 3D 이미지 간의 정합 요청이 수신되면 상기 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 상기 3D 이미지를 설정하고 사용자의 제어에 따라 상기 3D 공간 상에 상기 3D 이미지의 배치를 조절하여 공간 제어된 최종 2D 이미지를 생성하는 최종 2D 이미지 생성부를 포함한다. 따라서, 본 발명은 이미지에 포함된 2차원 객체들 사이에 3차원 객체를 배치시킬 수 있다.

Description

하이브리드 이미지 정합 장치{HYBRID IMAGE MATCHING APPARATUS}
본 발명은 하이브리드 이미지 정합 기술에 관한 것으로, 보다 상세하게는 이미지에 포함된 2차원 객체들 사이에 3차원 객체를 배치시킬 수 있는 하이브리드 이미지 정합 장치에 관한 것이다.
증강 현실(Augmented Reality, AR)은 현실 세계 위에 컴퓨터에 의해서 생성된 가상 이미지를 덧붙여 보여주는 기술에 해당한다. 증강 현실은 가상 이미지를 이용하여 불필요한 정보를 단순하게 하거나 보이지 않는 정보들을 새롭게 추가할 수 있다. 가상 현실(Virtual Reality, VR)은 현실이 아닌 100%의 가상 이미지를 사용하는 반면, 증강 현실은 현실 세계의 환경 위에 가상의 대상을 결합시킴으로써 현실의 효과를 더욱 증가시킬 수 있게 한다.
한국등록특허 제10-0941749(2010.02.03)호는 증강 현실 장치 및 가상 이미지 합성 방법에 관한 것으로, 카메라를 통해 실사 영상을 입력받는 단계, 카메라에 부착된 카메라 센서로부터 카메라의 위치 정보 및 초기 자세 정보를 수신하는 단계, 초기 자세 정보에 카메라 센서로부터 수신되는 카메라의 회전 정보를 더하여 카메라의 현재 자세 정보를 생성하는 단계, 카메라의 위치 정보 및 카메라의 현재 자세 정보를 통하여 가상 이미지의 합성 위치를 계산하는 단계, 및 계산된 합성 위치를 기초하여 가상 이미지를 실사 영상에 합성하는 단계를 포함한다.
한국등록특허 제10-0882250(2009.01.30)호는 동적인 가상 이미지를 합성하기 위한 방법에 관한 것으로, 가상 형상을 합성하기 전에, 모든 컴포넌트의 포맷은 표준 포맷으로 단일화되고, 합성 처리 과정 동안, 합성된 가상 형상의 프레임의 수, 각 프레임의 디스플레이 홀드 기간, 및 컴포넌트 내의 소정 프레임으로 합성된 중간 형상 내의 프레임을 결정하기 위해, 프레임 홀드 기간의 삽입 방식이 이용되며, 합성 처리 과정 이후에는, 마지막 프레임부터 시작해서 프레임 단위의 대조 압축 알고리즘이 이용된다.
한국등록특허 제10-0941749(2010.02.03)호 한국등록특허 제10-0882250(2009.01.30)호
본 발명의 일 실시예는 이미지에 포함된 2차원 객체들 사이에 3차원 객체를 배치시킬 수 있는 하이브리드 이미지 정합 장치를 제공하고자 한다.
본 발명의 일 실시예는 3차원 객체의 배치 과정에서 2차원 객체의 공간감을 고려하여 3차원 객체의 원근감을 제어할 수 있는 하이브리드 이미지 정합 장치를 제공하고자 한다.
본 발명의 일 실시예는 3차원 객체의 배치 형태를 결정하는 과정에서 이미지에 포함된 2차원 객체들과의 관계성을 고려할 수 있는 하이브리드 이미지 정합 장치를 제공하고자 한다.
실시예들 중에서, 하이브리드 이미지 정합 장치는 적어도 하나의 제1 객체에 관한 3D 공간정보를 가지는 2D 이미지를 생성하는 하이브리드 이미지 생성부, 제2 객체에 관한 3D 이미지를 수신하는 3D 객체 수신부 및 상기 2D 이미지와 상기 3D 이미지 간의 정합 요청이 수신되면 상기 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 상기 3D 이미지를 설정하고 사용자의 제어에 따라 상기 3D 공간 상에 상기 3D 이미지의 배치를 조절하여 공간 제어된 2D 이미지를 생성하는 최종 2D 이미지 생성부를 포함한다.
상기 하이브리드 이미지 생성부는 기준 시점(viewpoint)에서 카메라와 3D 스캐너를 통해 상기 2D 이미지와 상기 3D 공간정보를 각각 생성할 수 있다.
상기 하이브리드 이미지 생성부는 상기 적어도 하나의 제1 객체를 구분할 수 있는 3D 공간정보에 관한 공간 접근 링크를 상기 2D 이미지 상의 메타 데이터에 삽입할 수 있다.
상기 3D 객체 수신부는 상기 제2 객체를 기준으로 설정된 객체 기준 공간정보를 상기 3D 공간정보의 좌표계로 변환하여 상기 3D 이미지를 조절할 수 있다.
상기 최종 2D 이미지 생성부는 상기 3D 이미지의 설정 과정에서 상기 3D 이미지의 시점(viewpoint)을 결정하여 제2 객체에 관한 2D 이미지를 결정할 수 있다.
상기 최종 2D 이미지 생성부는 상기 3D 이미지의 배치 과정에서 상기 적어도 하나의 제1 객체의 공간감을 고려하여 상기 제2 객체에 관한 2D 이미지의 원근감을 제어할 수 있다.
상기 최종 2D 이미지 생성부는 상기 적어도 하나의 제1 객체가 복수인 경우에는 상기 적어도 하나의 제1 객체 중 가장 먼 객체 보다 상기 제2 객체가 더 멀어지는 것을 검출하고 그렇다면 상기 제2 객체를 배경으로 설정하여 상기 최종 2D 이미지를 생성할 수 있다.
상기 최종 2D 이미지 생성부는 상기 적어도 하나의 제1 객체가 복수인 경우에는 상기 적어도 하나의 제1 객체 중 가장 가까운 객체 보다 상기 제2 객체가 더 가까워지는 것을 검출하고 그렇다면 상기 제2 객체를 투명 전경으로 설정하여 상기 최종 2D 이미지를 생성할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 하이브리드 이미지 정합 장치는 3차원 객체의 배치 과정에서 2차원 객체의 공간감을 고려하여 3차원 객체의 원근감을 제어할 수 있다.
본 발명의 일 실시예에 따른 하이브리드 이미지 정합 장치는 3차원 객체의 배치 형태를 결정하는 과정에서 이미지에 포함된 2차원 객체들과의 관계성을 고려할 수 있다.
도 1은 본 발명의 일 실시예에 따른 하이브리드 이미지 정합 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 하이브리드 이미지 정합 장치를 설명하는 블록도이다.
도 3은 도 1에 있는 하이브리드 이미지 정합 장치에서 수행되는 하이브리드 이미지 정합 생성 과정을 설명하는 순서도이다.
도 4는 도 2에 있는 3D 객체 수신부에서 수행하는 객체 공간정보를 3D 공간정보의 좌표계로 변환하는 과정을 설명하는 예시도이다.
도 5는 도2에 있는 최종 2D 이미지 생성부에서 3D 이미지의 시점(viewpoint)을 결정하여 제2 객체에 관한 2D 이미지를 결정하는 과정을 설명하는 예시도이다.
도 6 내지 8은 도2에 있는 최종 2D 이미지 생성부에서 2D 이미지와 3D 이미지를 정합하는 과정을 설명하는 예시도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 하이브리드 이미지 정합 시스템을 설명하는 도면이다.
도 1을 참조하면, 하이브리드 이미지 정합 시스템(100)은 사용자 단말(110), 하이브리드 이미지 정합 장치(130) 및 데이터베이스(150)을 포함할 수 있다.
사용자 단말(110)은 하이브리드 이미지 정합 장치(130)에 특정 객체에 관한 3D 이미지를 제공할 수 있고, 하이브리드 이미지 정합 장치(130)로부터 이미지 정합 결과를 제공받아 확인할 수 있는 컴퓨팅 장치에 해당할 수 있고, 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다. 사용자 단말(110)은 하이브리드 이미지 정합 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(110)은 하이브리드 이미지 정합 장치(130)와 동시에 연결될 수 있다.
일 실시예에서, 사용자 단말(110)은 하이브리드 이미지 정합 장치(130)에 하이브리드 이미지를 제공할 수 있다. 여기에서, 하이브리드 이미지는 적어도 하나의 객체에 관한 3D 공간정보를 함께 가지고 있는 2D 이미지에 해당할 수 있다. 3D 공간정보는 이미지에 촬영된 배경 공간 및 객체들에 대한 3차원 정보에 해당할 수 있고, 이미지를 구성하는 각 픽셀별 깊이 정보를 포함할 수 있다.
하이브리드 이미지 정합 장치(130)는 3D 공간정보를 가지는 2D 이미지와 사용자 단말(110)로부터 수신한 특정 객체에 대한 3D 이미지를 정합하여 사용자 단말(110)에 제공할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 하이브리드 이미지 정합 장치(130)는 사용자 단말(110)과 블루투스, WiFi 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 사용자 단말(110)과 데이터를 주고 받을 수 있다.
하이브리드 이미지 정합 장치(130)는 데이터베이스(150)를 포함하여 구현될 수 있고, 데이터베이스(150)와 독립적으로 구현될 수 있다. 데이터베이스(150)와 독립적으로 구현된 경우 하이브리드 이미지 정합 장치(130)는 데이터베이스(150)와 유선 또는 무선으로 연결되어 데이터를 주고 받을 수 있다.
데이터베이스(150)는 3D 공간정보를 가지는 2D 이미지와 특정 객체에 관한 3D 이미지를 정합하기 위해 필요한 다양한 정보들을 저장할 수 있는 저장장치이다. 데이터베이스(150)는 사용자 단말(110)로부터 수신한 특정 객체에 대한 3D 이미지 또는 3D 공간정보를 가지는 2D 이미지를 저장할 수 있고, 2D 이미지와 연관된 3D 공간정보만을 별도로 저장할 수 있으며, 반드시 이에 한정되지 않고, 이미지 정합 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
데이터베이스(150)는 특정 범위에 속하는 정보들을 저장하는 적어도 하나의 독립된 서브-데이터베이스들로 구성될 수 있고, 적어도 하나의 독립된 서브-데이터베이스들이 하나로 통합된 통합 데이터베이스로 구성될 수 있다. 적어도 하나의 독립된 서브-데이터베이스들로 구성되는 경우에는 각각의 서브-데이터베이스들은 블루투스, WiFi 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 상호 간의 데이터를 주고 받을 수 있다. 데이터베이스(150)는 통합 데이터베이스로 구성되는 경우 각각의 서브-데이터베이스들을 하나로 통합하고 상호 간의 데이터 교환 및 제어 흐름을 관리하는 제어부를 포함할 수 있다.
도 2는 도 1에 있는 하이브리드 이미지 정합 장치를 설명하는 블록도이다.
도 2를 참조하면, 하이브리드 이미지 정합 장치(130)는 하이브리드 이미지 생성부(210), 3D 객체 수신부(230), 최종 2D 이미지 생성부(250) 및 제어부(270)를 포함할 수 있다.
하이브리드 이미지 생성부(210)는 적어도 하나의 제1 객체에 관해 3D 공간정보를 가지는 2D 이미지를 생성할 수 있다. 하이브리드 이미지 생성부(210)는 2D 이미지와 3D 공간정보를 별도로 생성할 수 있고, 3D 공간정보를 2D 이미지에 추가함으로써 3D 공간정보를 갖는 2D 이미지를 하이브리드 이미지로서 생성할 수 있다.
일 실시예에서, 하이브리드 이미지 생성부(210)는 기준 시점(viewpoint)에서 카메라와 3D 스캐너를 통해 2D 이미지와 3D 공간정보를 각각 생성할 수 있다. 여기에서, 3D 스캐너는 레이저나 백색광을 특정 대상에 투사하여 특정 대상의 형상 정보를 취득하고 디지털 정보로 전환할 수 있는 장치에 해당할 수 있다. 3D 스캐너는 카메라에 부착된 키넥트(Kinect) 또는 라이다(LiDAR) 등을 포함하는 장치에 해당할 수 있다.
보다 구체적으로, 하이브리드 이미지 생성부(210)는 카메라를 통하여 적어도 하나의 객체를 포함하는 2D 이미지 또는 영상을 획득할 수 있다. 2D 이미지는 영상을 구성하는 하나의 프레임에 해당할 수 있다. 또한, 하이브리드 이미지 생성부(210)는 카메라에 부착되거나 또는 카메라의 촬영 시점(viewpoint)과 동일한 시점에 고정되어 2D 이미지에 대응하는 공간에 대한 3D 데이터를 획득할 수 있다. 3D 데이터는 2D 이미지를 구성하는 각 픽셀에 대한 깊이 정보를 포함할 수 있다.
일 실시예에서, 하이브리드 이미지 생성부(210)는 적어도 하나의 제1 객체를 구분할 수 있는 3D 공간정보에 관한 공간 접근 링크를 2D 이미지 상의 메타 데이터에 삽입할 수 있다. 공간 접근 링크는 3D 공간정보에 접근할 수 있는 링크에 해당할 수 있고, 예를 들어, 3D 공간정보가 데이터베이스(150)에 저장되는 경우 데이터베이스(150) 상에서의 저장 주소가 공간 접근 링크로서 2D 이미지의 메타 데이터에 포함될 수 있다.
3D 객체 수신부(230)는 제2 객체에 관해 3D 이미지를 수신할 수 있다. 예를 들어, 3D 객체 수신부(230)는 사용자 단말(110)로부터 3D 이미지를 수신하거나 또는 데이터베이스(150)에 저장되어 있는 3D 이미지들 중 어느 하나를 3D 이미지로서 수신할 수 있다. 여기에서, 특정 객체에 관한 3D 이미지는 해당 객체의 3차원 입체 형상에 해당할 수 있고, 3D 모델링을 통해 생성된 3차원 객체에 해당할 수 있다.
일 실시예에서, 3D 객체 수신부(230)는 제2 객체를 기준으로 설정된 객체 공간정보를 3D 공간정보의 좌표계로 변환하여 3D 이미지를 조절할 수 있다. 객체 공간정보는 제2 객체를 기준으로 설정된 좌표계에 해당할 수 있고, 3D 객체 수신부(230)는 제2 객체를 기준으로 설정된 객체 공간정보를 3D 공간정보에 맞춰 변환함으로써 제2 객체가 2D 이미지에 자연스럽게 삽입되도록 할 수 있다.
최종 2D 이미지 생성부(250)는 2D 이미지와 3D 이미지 간의 정합 요청이 수신되면 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 3D 이미지를 설정하고 사용자의 제어에 따라 3D 공간 상에 3D 이미지의 배치를 조절하여 공간 제어된 최종 2D 이미지를 생성할 수 있다. 최종 2D 이미지 생성부(250)는 사용자 단말(110)로부터 정합 요청을 수신할 수 있고, 정합 요청과 함께 정합에 사용되는 3D 공간정보를 가지는 2D 이미지 또는 제2 객체에 관한 3D 이미지를 수신할 수 있다.
최종 2D 이미지 생성부(250)는 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 3D 이미지를 설정할 수 있으나, 반드시 이에 한정되지 않고, 3D 공간의 중앙이나 가장 뒤쪽 등을 포함하는 3D 공간 상의 특정 위치에 3D 이미지를 설정할 수 있다. 하이브리드 이미지 정합 장치(130)는 사용자 단말(110)을 통해 3D 이미지의 위치를 조절할 수 있는 인터페이스를 제공할 수 있다. 최종 2D 이미지 생성부(250)는 사용자의 제어에 따라 3D 공간 상에 3D 이미지의 배치를 조절할 수 있고, 최종 배치된 위치를 기초로 3D 이미지를 2D 이미지에 삽입하여 최종 2D 이미지를 생성할 수 있다.
일 실시예에서, 최종 2D 이미지 생성부(250)는 3D 이미지의 설정 과정에서 3D 이미지의 시점(viewpoint)을 결정하여 제2 객체에 관한 2D 이미지를 결정할 수 있다. 보다 구체적으로, 최종 2D 이미지 생성부(250)는 3D 이미지의 위치를 3D 공간 상에서 조절하면서 3D 이미지를 바라보는 시점을 특정 위치로 변경할 수 있고, 해당 위치에서 바라본 3D 이미지의 모습을 2D 이미지로서 결정할 수 있다. 최종 2D 이미지 생성부(250)는 3D 이미지의 시점 변경을 통해 제2 객체를 회전시킬 수 있다.
일 실시예에서, 최종 2D 이미지 생성부(250)는 3D 이미지의 배치 과정에서 적어도 하나의 제1 객체의 공간감을 고려하여 제2 객체에 관한 2D 이미지의 원근감을 제어할 수 있다. 여기에서, 공간감은 3D 공간 상에서 객체의 상대적 크기에 해당할 수 있다. 3D 공간의 전체 크기에 비하여 제1 객체의 공간감, 즉 상대적 크기가 큰 경우 최종 2D 이미지 생성부(250)는 제2 객체에 관한 2D 이미지의 크기를 조정함으로써 제2 객체에 관한 2D 이미지의 원근감을 제어할 수 있다.
예를 들어, 일반적으로 제2 객체에 관한 2D 이미지의 크기는 현재의 시점(viewpoint)에서 멀어질수록 일정한 기준 비율로 작아질 수 있고, 가까워질수록 일정한 기준 비율로 커질 수 있다. 최종 2D 이미지 생성부(250)는 미리 설정된 기준 비율을 활용하여 제2 객체에 관한 2D 이미지의 원근감을 조절할 수 있다. 최종 2D 이미지 생성부(250)는 제1 객체의 공간감이 큰 경우 제2 객체에 관한 2D 이미지의 원근감을 조절하기 위한 비율을 기준 비율보다 더 크게 결정할 수 있고, 제1 객체의 공간감이 작은 경우 제2 객체에 관한 2D 이미지의 원근감을 조절하기 위한 비율을 기준 비율보다 더 작게 결정할 수 있다.
일 실시예에서, 최종 2D 이미지 생성부(250)는 적어도 하나의 제1 객체가 복수인 경우에는 적어도 하나의 제1 객체 중 가장 먼 객체 보다 제2 객체가 더 멀어지는 것을 검출하고 그렇다면 제2 객체를 배경으로 설정하여 최종 2D 이미지를 생성할 수 있다.
보다 구체적으로, 최종 2D 이미지 생성부(250)는 3D 공간정보를 기초로 제1 객체들 중에서 현재 시점(viewpoint)으로부터 가장 멀리 떨어진 객체를 결정할 수 있고, 사용자 제어에 의해 해당 객체보다 제2 객체가 더 멀어지는 경우에는 제2 객체를 2D 이미지의 배경 크기에 맞춰 확대시킬 수 있다. 제2 객체가 가장 멀리 배치되는 경우에 정합된 제2 객체가 제1 객체들에 의해 최종 2D 이미지에 명확히 표현되지 않을 수 있으므로 최종 2D 이미지 생성부(250)는 제2 객체를 배경 크기에 맞춰 강제적으로 확대시킴으로써 최종 2D 이미지 상에서 제2 객체가 명확히 표현될 수 있도록 할 수 있다.
일 실시예에서, 최종 2D 이미지 생성부(250)는 적어도 하나의 제1 객체가 복수인 경우에는 적어도 하나의 제1 객체 중 가장 가까운 객체 보다 제2 객체가 더 가까워지는 것을 검출하고 그렇다면 제2 객체를 투명 전경으로 설정하여 최종 2D 이미지를 생성할 수 있다.
보다 구체적으로, 최종 2D 이미지 생성부(250)는 3D 공간정보를 기초로 제1 객체들 중에서 현재 시점(viewpoint)으로부터 가장 가까운 곳의 객체를 결정할 수 있고, 사용자 제어에 의해 해당 객체보다 제2 객체가 더 가까워지는 경우에는 제2 객체를 투명 전경으로 설정할 수 있다. 제2 객체가 가장 가깝게 배치되는 경우에 정합된 제2 객체가 제1 객체들을 가리게 되어 원래의 2D 이미지에 포함된 제1 객체들을 확인할 수 없으므로 최종 2D 이미지 생성부(250)는 제2 객체를 투명 전경으로 강제적으로 설정함으로써 최종 2D 이미지 상에서 제1 객체들이 표현될 수 있도록 할 수 있다.
제어부(270)는 하이브리드 이미지 정합 장치(130)의 전체적인 동작을 제어하고, 하이브리드 이미지 생성부(210), 3D 객체 수신부(230) 및 최종 2D 이미지 생성부(250) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 3은 도 1에 있는 하이브리드 이미지 정합 장치에서 수행되는 하이브리드 이미지 정합 생성 과정을 설명하는 순서도이다.
도 3을 참조하면, 하이브리드 이미지 정합 장치(130)는 하이브리드 이미지 생성부(210)를 통해 적어도 하나의 제1 객체에 관한 3D 공간정보를 가지는 2D 이미지를 생성할 수 있다(단계 S310). 하이브리드 이미지 정합 장치(130)는 3D 객체 수신부(230)를 통해 제2 객체에 관한 3D 이미지를 수신할 수 있다(단계 S330). 하이브리드 이미지 정합 장치(130)는 최종 2D 이미지 생성부(250)를 통해 2D 이미지와 3D 이미지 간의 정합 요청이 수신되면 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 3D 이미지를 설정하고 사용자의 제어에 따라 3D 공간 상에 3D 이미지의 배치를 조절하여 공간 제어된 2D 이미지를 생성할 수 있다(단계 S350).
일 실시예에서, 하이브리드 이미지 정합 장치(130)는 2D 이미지에 포함된 제1 객체에 대한 3차원 객체를 결정할 수 있고, 제1 객체에 대한 3차원 객체와 제2 객체를 이용하여 새로운 이미지를 정합할 수 있다. 여기에서, 2D 이미지에 포함된 2차원 객체에 대한 3차원 객체를 결정하는 방법은 하이브리드 이미지 정합 장치(130)와 별도로 구현된 3차원 객체 생성 장치에 의해 수행된 후 해당 결과를 하이브리드 이미지 정합 장치(130)가 수신하여 활용할거나 또는 하이브리드 이미지 정합 장치(130)의 내부에 3차원 객체 생성 장치를 포함하여 구현함으로써 하이브리드 이미지 정합 장치(130)에 의해 직접 수행될 수 있다.
하이브리드 이미지 정합 장치(130)에 의해 직접 수행되거나 또는 3차원 객체 생성 장치에 의해 수행될 수 있는 2D 이미지에 포함된 2차원 객체에 대한 3차원 객체를 결정하는 방법은 다음의 순서에 따라 동작할 수 있다. 동작에 대한 설명은 편의에 따라 3차원 객체 생성 장치에 의해 수행되는 동작을 예로 들고 있지만, 하이브리드 이미지 정합 장치(130)에도 동일하게 적용될 수 있다.
3차원 객체 생성 장치는 2차원 이미지를 분석하여 2차원 객체를 식별하고 2차원 객체에 대한 객체 이미지를 추출할 수 있다. 객체 이미지는 2차원 객체를 포함하는 이미지로서 2차원 이미지의 일부분에 해당할 수 있다. 일 실시예에서, 3차원 객체 생성 장치는 2차원 이미지로부터 추출된 2차원 객체의 특징을 기초로 2차원 객체를 포함하는 최소 경계 사각형을 결정할 수 있고, 최소 경계 사각형을 2차원 객체 대한 객체 이미지로서 추출할 수 있다.
3차원 객체 생성 장치는 데이터베이스(150)에서 객체 이미지를 검색하여 해당 3차원 객체를 결정할 수 있다. 여기에서, 3차원 객체는 2차원 객체를 대표하는 객체원형(prototype)에 대한 3차원 입체 데이터에 해당할 수 있다. 일 실시예에서, 3차원 객체 생성 장치는 주변에서 일반적으로 접할 수 있는 물체에 해당하는 복수의 3차원 객체들 각각에 대해 객체 복잡도에 따라 6방향, 14방향 및 26방향의 시야각(Field of View) 중 어느 하나의 2차원 이미지들을 생성하여 데이터베이스(150)에 저장할 수 있다. 객체 복잡도는 객체의 구성요소의 수, 구성요소 간의 결합 방식 및 객체의 외형 등을 고려하여 특정 수의 단계로 분류될 수 있고, 예를 들어, 객체 복잡도는 '복잡', '보통', '단순'의 3단계로 분류될 수 있다.
일 실시예에서, 3차원 객체 생성 장치는 객체 이미지를 입력으로 하고 해당 3차원 객체를 출력으로 하는 학습 데이터를 생성하고 학습 데이터를 학습하여 3차원 객체 인식 모델을 생성할 수 있다. 3차원 객체 생성 장치는 2차원 이미지로부터 추출된 객체 이미지와 해당 객체 이미지를 기초로 데이터베이스(150)를 검색하여 결정된 해당 3차원 객체를 지도 학습(Supervised Learning)하여 3차원 객체 인식 모델을 생성할 수 있다.
일 실시예에서, 3차원 객체 생성 장치는 3차원 객체 인식 모델에 객체 이미지를 입력하여 출력된 결과를 해당 3차원 객체로서 결정할 수 있다. 3차원 객체 생성 장치는 객체 이미지를 기초로 데이터베이스(150)를 검색하거나 또는 3차원 객체 인식 모델을 통하여 3차원 객체를 결정할 수 있다. 다른 실시예에서, 3차원 객체 생성 장치는 동일한 2차원 객체에 대하여 각각의 방법을 통해 결정된 3차원 객체가 서로 다를 경우에는 둘 중 어느 하나를 선택함으로써 해당 3차원 객체를 최종 결정할 수 있다.
하이브리드 이미지 정합 장치(130)는 3차원 객체 생성 장치에 의해 결정된 제1 객체별 3차원 객체들 및 제2 객체에 대한 3차원 이미지를 정합하여 새로운 이미지를 생성할 수 있다. 보다 구체적으로, 하이브리드 이미지 정합 장치(130)는 제1 객체들에 대한 3차원 객체들 및 정합하려는 제2 객체의 3차원 이미지를 기초로 3D 공간 상에서 각 객체들을 자유롭게 배치하여 새로운 정합 이미지를 생성할 수 있다.
하이브리드 이미지 정합 장치(130)는 객체들의 크기, 위치 및 방향 등을 변경함으로써 원래의 2D 이미지를 그대로 유지한 채 3D 객체의 삽입을 통한 정합 이미지 생성뿐 아니라 원래의 2D 이미지의 배경 만을 그대로 유지한 채 제1 객체 및 제2 객체들의 변경을 통한 새로운 정합 이미지 생성을 가능하게 할 수 있다.
일 실시예에서, 하이브리드 이미지 정합 장치(130)는 최종 2D 이미지 생성부(250)를 통해 적어도 하나의 제1 객체 중 가장 먼 객체 보다 제2 객체가 더 멀어지는 것을 검출하고 그렇다면 제2 객체의 크기를 일정 비율만큼 증가시켜 최종 2D 이미지를 생성할 수 있다. 제2 객체가 가장 멀리 배치되는 경우에 정합된 제2 객체가 제1 객체들에 의해 최종 2D 이미지에 명확히 표현되지 않을 수 있으므로 최종 2D 이미지 생성부(250)는 제2 객체의 크기를 일정 비율만큼 강제적으로 증가시킴으로써 최종 2D 이미지 상에서 제2 객체의 삽입이 명확히 표현될 수 있도록 할 수 있다.
일 실시예에서, 하이브리드 이미지 정합 장치(130)는 최종 2D 이미지 생성부(250)를 통해 적어도 하나의 제1 객체 중 가장 먼 객체 보다 제2 객체가 더 멀어지는 것을 검출하고 그렇다면 제2 객체의 크기를 다음의 수학식을 통해 산출되는 증가 비율만큼 증가시켜 최종 2D 이미지를 생성할 수 있다.
[수학식]
Figure pat00001
여기에서, R은 증가 비율을, H는 2D 이미지의 높이를, Hj는 제2 객체의 높이를, Hi는 제1 객체들의 높이를 나타낸다.
증가 비율은 2D 이미지의 높이와 제2 객체의 높이 간의 비율과 제1 객체들 간의 최대 높이차에 대한 2D 이미지의 높이 비율의 로그값의 곱을 통해 산출할 수 있다. 다만, 제1 객체들 간의 최대 높이차가 0인 경우에는 2D 이미지의 높이와 제2 객체의 높이 간의 비율을 증가 비율로서 산출할 수 있다. 하이브리드 이미지 정합 장치(130)는 2D 이미지에 정합되는 제2 객체의 높이를 R의 비율로 증가시킬 수 있고, 보다 구체적으로, 제2 객체의 높이가 Hj인 경우 Hj * (1 + R)를 최종적인 제2 객체의 높이가 되도록 제2 객체의 크기를 조정하여 최종 2D 이미지를 생성할 수 있다.
도 4는 도 2에 있는 3D 객체 수신부에서 수행하는 객체 공간정보를 3D 공간정보의 좌표계로 변환하는 과정을 설명하는 예시도이다.
도 4를 참조하면, 3D 객체 수신부(230)는 제2 객체(410)를 기준으로 설정된 객체 공간정보(411)를 3D 공간정보의 좌표계(413)로 변환하여 3D 이미지를 조절할 수 있다. 제2 객체(410)에 관한 3D 이미지는 객체 공간정보(411)를 기준으로 정의되어 있고, 객체 공간정보(411)는 2D 이미지에 포함된 3D 공간정보 좌표계와 다를 수 있다.
따라서, 제2 객체(410)를 2D 이미지와 정합하기 위해서는 객체 공간정보(411)를 3D 공간정보의 좌표계에 맞춰 조정할 필요가 있고, 3D 객체 수신부(230)에서 해당 동작을 수행할 수 있다. 3D 객체 수신부(230)는 제2 객체(410)의 객체 공간정보(411)를 3D 공간정보의 좌표계(413)로 변환함으로써 제2 객체와 2D 이미지 간의 자연스러운 정합이 가능하게 할 수 있다.
도 5는 도2에 있는 최종 2D 이미지 생성부에서 3D 이미지의 시점(viewpoint)을 결정하여 제2 객체에 관한 2D 이미지를 결정하는 과정을 설명하는 예시도이다.
도 5를 참조하면, 최종 2D 이미지 생성부(250)는 3D 이미지(530)의 설정 과정에서 3D 이미지의 시점(510)을 결정하여 제2 객체의 2D 이미지(550)를 결정할 수 있다. 최종 2D 이미지 생성부(250)는 3D 공간 상의 임의의 지점을 3D 이미지의 시점(510)으로 결정함으로써 제2 객체에 관한 3D 이미지 대신 특정 방향에서 바라본 제2 객체의 2D 이미지(550)를 2D 이미지와의 정합에 사용할 수 있다.
도 6 내지 8은 도2에 있는 최종 2D 이미지 생성부에서 2D 이미지와 3D 이미지를 정합하는 과정을 설명하는 예시도이다.
도 6을 참조하면, 최종 2D 이미지 생성부(250)는 3D 공간정보를 가지는 2D 이미지(610)와 제2 객체에 관한 3D 이미지(630)를 정합하여 최종 2D 이미지(650)를 생성할 수 있다. 3D 이미지(630)는 제1 객체들 중에서 가장 뒤에 있는 객체보다 뒤쪽에 배치될 수 있다. 또한, 3D 이미지(630)는 제1 객체들 중에서 가장 앞에 있는 객체보다 앞쪽에 배치될 수 있다.
도 7에서, 최종 2D 이미지 생성부(250)는 적어도 하나의 제1 객체 중 가장 먼 객체(711) 보다 제2 객체(713)가 더 멀어지는 것을 검출하고 그렇다면 제2 객체(713)를 배경으로 설정하여 최종 2D 이미지(730)를 생성할 수 있다.
도 8에서, 최종 2D 이미지 생성부(250)는 적어도 하나의 제1 객체 중 가장 가까운 객체(811) 보다 제2 객체(813)가 더 가까워지는 것을 검출하고 그렇다면 제2 객체(813)를 투명 전경으로 설정하여 최종 2D 이미지(830)를 생성할 수 있다. 따라서, 최종 2D 이미지(830)에는 제2 객체(813)가 나타나지 않을 수 있다.
일 실시예에서, 최종 2D 이미지 생성부(250)는 적어도 하나의 제1 객체 중 가장 가까운 객체 보다 제2 객체가 더 가까워지는 것을 검출하고 그렇다면 제2 객체의 투명도를 설정하여 최종 2D 이미지를 생성할 수 있다. 따라서, 최종 2D 이미지에는 제2 객체가 투명하게 표현되어 제2 객체의 정합에도 불구하고 제2 객체의 뒤쪽에 배치된 제1 객체들의 모습을 확인할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 하이브리드 이미지 정합 시스템
110: 사용자 단말 130: 하이브리드 이미지 정합 장치
150: 데이터베이스
210: 하이브리드 이미지 생성부 230: 3D 객체 수신부
250: 최종 2D 이미지 생성부 270: 제어부
410: 제2 객체 411: 객체 공간정보
413: 3D 공간정보의 좌표계 510: 3D 이미지의 시점
530: 3D 이미지 550: 제2 객체의 2D 이미지
610: 2D 이미지 630: 제2 객체
650: 최종 2D 이미지 710: 가장 먼 객체
730: 제2 객체 750: 최종 2D 이미지
810: 가장 가까운 객체 830: 제2 객체
850: 최종 2D 이미지

Claims (8)

  1. 적어도 하나의 제1 객체에 관한 3D 공간정보를 가지는 2D 이미지를 생성하는 하이브리드 이미지 생성부;
    제2 객체에 관한 3D 이미지를 수신하는 3D 객체 수신부; 및
    상기 2D 이미지와 상기 3D 이미지 간의 정합 요청이 수신되면 상기 3D 공간정보에 의해 구현되는 3D 공간의 가장 앞쪽에 상기 3D 이미지를 설정하고 사용자의 제어에 따라 상기 3D 공간 상에 상기 3D 이미지의 배치를 조절하여 공간 제어된 최종 2D 이미지를 생성하는 최종 2D 이미지 생성부를 포함하는 하이브리드 이미지 정합 장치.
  2. 제1항에 있어서, 상기 하이브리드 이미지 생성부는
    기준 시점(viewpoint)에서 카메라와 3D 스캐너를 통해 상기 2D 이미지와 상기 3D 공간정보를 각각 생성하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  3. 제2항에 있어서, 상기 하이브리드 이미지 생성부는
    상기 적어도 하나의 제1 객체를 구분할 수 있는 3D 공간정보에 관한 공간 접근 링크를 상기 2D 이미지 상의 메타 데이터에 삽입하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  4. 제1항에 있어서, 상기 3D 객체 수신부는
    상기 제2 객체를 기준으로 설정된 객체 공간정보를 상기 3D 공간정보의 좌표계로 변환하여 상기 3D 이미지를 조절하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  5. 제1항에 있어서, 상기 최종 2D 이미지 생성부는
    상기 3D 이미지의 설정 과정에서 상기 3D 이미지의 시점(viewpoint)을 결정하여 상기 제2 객체에 관한 2D 이미지를 결정하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  6. 제5항에 있어서, 상기 최종 2D 이미지 생성부는
    상기 3D 이미지의 배치 과정에서 상기 적어도 하나의 제1 객체의 공간감을 고려하여 상기 제2 객체에 관한 2D 이미지의 원근감을 제어하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  7. 제6항에 있어서, 상기 최종 2D 이미지 생성부는
    상기 적어도 하나의 제1 객체가 복수인 경우에는 상기 적어도 하나의 제1 객체 중 가장 먼 객체 보다 상기 제2 객체가 더 멀어지는 것을 검출하고 그렇다면 상기 제2 객체를 배경으로 설정하여 상기 최종 2D 이미지를 생성하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.
  8. 제7항에 있어서, 상기 최종 2D 이미지 생성부는
    상기 적어도 하나의 제1 객체가 복수인 경우에는 상기 적어도 하나의 제1 객체 중 가장 가까운 객체 보다 상기 제2 객체가 더 가까워지는 것을 검출하고 그렇다면 상기 제2 객체를 투명 전경으로 설정하여 상기 최종 2D 이미지를 생성하는 것을 특징으로 하는 하이브리드 이미지 정합 장치.

KR1020180039166A 2018-04-04 2018-04-04 하이브리드 이미지 정합 장치 KR20190116606A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180039166A KR20190116606A (ko) 2018-04-04 2018-04-04 하이브리드 이미지 정합 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180039166A KR20190116606A (ko) 2018-04-04 2018-04-04 하이브리드 이미지 정합 장치

Publications (1)

Publication Number Publication Date
KR20190116606A true KR20190116606A (ko) 2019-10-15

Family

ID=68209240

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180039166A KR20190116606A (ko) 2018-04-04 2018-04-04 하이브리드 이미지 정합 장치

Country Status (1)

Country Link
KR (1) KR20190116606A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220006654A (ko) * 2020-05-29 2022-01-17 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 이미지 정합 방법 및 연관된 모델 훈련 방법, 기기, 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100882250B1 (ko) 2004-05-14 2009-02-06 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 동적인 가상 이미지를 합성하기 위한 방법
KR100941749B1 (ko) 2008-08-25 2010-02-11 에이알비전 (주) 증강 현실 장치 및 가상 이미지 합성 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100882250B1 (ko) 2004-05-14 2009-02-06 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 동적인 가상 이미지를 합성하기 위한 방법
KR100941749B1 (ko) 2008-08-25 2010-02-11 에이알비전 (주) 증강 현실 장치 및 가상 이미지 합성 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220006654A (ko) * 2020-05-29 2022-01-17 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 이미지 정합 방법 및 연관된 모델 훈련 방법, 기기, 장치

Similar Documents

Publication Publication Date Title
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
US20190199997A1 (en) Image processing apparatus, image generating method, and storage medium
JP5260705B2 (ja) 3次元拡張現実提供装置
CN102812497B (zh) 能够提供随后体验影像的影像提供装置、影像提供方法
US20200257862A1 (en) Natural language understanding for visual tagging
US11776142B2 (en) Structuring visual data
JP2006325165A (ja) テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
US11328445B1 (en) Methods and systems for volumetric modeling independent of depth data
WO2020142328A1 (en) Image bounding shape using 3d environment representation
WO2021146449A1 (en) Visual object history
JP2021192541A (ja) 動画変換システム、動画変換方法及び動画変換プログラム
CN115861515A (zh) 一种三维人脸重建方法、计算机程序产品及电子设备
KR101177058B1 (ko) 마커 기반 3차원 입체 시스템
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN107563958B (zh) 全息图像转换方法和系统
KR101844843B1 (ko) 플로팅 홀로그램 영상처리장치 및 그 방법
KR20190116606A (ko) 하이브리드 이미지 정합 장치
US20230251710A1 (en) Virtual, augmented, and mixed reality systems and methods
KR20190115161A (ko) 3차원 객체 생성 장치
EP3493541B1 (en) Selecting an omnidirectional image for display
WO2019230169A1 (ja) 表示制御装置、プログラムおよび表示制御方法
US20230052104A1 (en) Virtual content experience system and control method for same
WO2021171982A1 (ja) 画像処理装置、3dモデルの生成方法、学習方法およびプログラム
US20210097731A1 (en) Presenting environment based on physical dimension

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application