KR102183115B1 - 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 - Google Patents

증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 Download PDF

Info

Publication number
KR102183115B1
KR102183115B1 KR1020190121587A KR20190121587A KR102183115B1 KR 102183115 B1 KR102183115 B1 KR 102183115B1 KR 1020190121587 A KR1020190121587 A KR 1020190121587A KR 20190121587 A KR20190121587 A KR 20190121587A KR 102183115 B1 KR102183115 B1 KR 102183115B1
Authority
KR
South Korea
Prior art keywords
unit
space
edge
virtual
virtual space
Prior art date
Application number
KR1020190121587A
Other languages
English (en)
Inventor
김태균
김나영
Original Assignee
주식회사 코탁스
주식회사 퍼스팩티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코탁스, 주식회사 퍼스팩티브 filed Critical 주식회사 코탁스
Priority to KR1020190121587A priority Critical patent/KR102183115B1/ko
Application granted granted Critical
Publication of KR102183115B1 publication Critical patent/KR102183115B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 실 공간 가상화를 통해 가상의 오브젝트를 오버래핑하기 위한 시스템으로서, 실 공간을 촬영하여, 촬영된 실 공간의 3차원 영상에 3D 좌표를 입힌 후, 3차원 영상을 가상 공간으로 메이킹하는 모바일 유닛; 및 모바일 유닛으로부터 가상 공간의 정보를 수신하여 저장하며, 모바일 유닛이 가상 공간의 정보를 호출하면 모바일 유닛으로 가상 공간의 정보를 송출하며, 모바일 유닛이 디스플레이하는 가상 공간 상에 미리 저장된 소정의 가상 오브젝트를 임의 배치되도록 하는 시뮬레이팅 유닛을 포함하는 기술적 사상을 개시한다.

Description

증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템{System for overlapping object on virtualized space based on real space}
본 발명은 오브젝트 오버래핑 시스템에 관한 것으로서, 보다 자세하게는, 실재하는 공간을 모바일 단말기로 촬영한 후, 해당 공간을 증강현실 기술을 활용하여 가상 공간화 처리한 후, 클라우드 서버 상에 이미지와 공간정보를 저장하고, 다른 시간과 장소에서 미리 저장하고 있는 오브젝트를 다운로드하여 해당 저장된 가상 공간에 오버래핑하여 시뮬레이팅하는 시스템에 관한 기술 분야이다.
ICT 기술의 발전에 따른 스마트폰 기기의 보급률의 증가 및 기술 발전으로 스마트폰을 이용한 다양한 IT 기술의 발전이 이루어지고 있다. 그 중에서도 미래 지식서비스 산업의 핵심으로 등장한 가상현실(Virtual Reality) 및 증강현실(Augmented Reality) 기술, 클라우드 컴퓨팅(cloud computing)에 대한 관심이 높아지고 있다.
증강현실은 가상현실의 한 분야로 실제 환경에 가상의 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 증강현실은 가상현실 기술의 한 분야로 출발하였으나, 몰입의 정도에서 차이가 있다. 가상현실은 컴퓨터 그래픽으로 생성된 3차원 가상공간을 제공하는 기술로써 가상현실의 공간이 현실공간과는 분리된 별개의 공간인 반면 증강현실은 컴퓨터가 생성한 가상의 정보를 사용자가 접하는 실제공간으로 합성한다. 따라서 증강현실 사용자는 자신의 위치에서 실제 세계 환경을 인식함과 동시에 컴퓨터가 제공하는 부가정보도 인식한다. 이런 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상현실과 달리 다양한 현실 환경에 응용이 가능하며 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
증강현실을 구성하기 위해서는 현실세계와 가상세계가 결합하여 사용자에게 실시간으로 상호작용이 가능해야 하며, 대부분의 경우 3차원 환경을 통해 콘텐츠를 제공하는 요소를 포함하고 있다.
증강현실 기술은 현재 다양한 분야에서 적용되고 있다. 증강현실 기술의 적용 분야에는 네비게이션, 위치 검색, 보행자 길 안내, 위치 알림 등의 위치기반의 정보 제공과 SNS와 연계된 콘텐츠 및 정보 제공, 게임 및 엔터테인먼트 등의 분야에 적용되고 있다.
이와 관련된 선행 특허문헌의 예로서 “3차원 입체 영상을 활용한, 설비 통합 관리 시스템(공개번호 제10-20150083480호, 이하 특허문헌1이라 한다.)”이 존재한다.
특허문헌1의 경우, 본 발명은 3차원 입체 영상을 활용하여, 설비를 통합 관리하기 위한 시스템으로서, 설비에 대한 현장의 정보를 수집하는 이동 단말기; 및 이동 단말기와 데이터 통신하며, 이동 단말기로부터 현장의 정보를 수신하며, 설비에 대한 통합 정보를 제공하는 중앙 관제 시스템을 포함하여, 현장에 근무하는 작업자는 해당 설비의 통합 정보를 통하여 실시간으로 보수 및 관리가 용이하도록 하며, 중앙 관제 시스템에서는 작업자의 이동 단말기를 통하여 원격으로 설비들을 통합적으로 관리할 수 있는 효과를 제공한다.
또 다른 특허문헌의 예로서 “증강현실 기술을 이용한 시공 구조물의 3차원 영상 표시 시스템(등록번호 제10-1201129호, 이하 특허문헌2이라 한다.)”이 존재한다.
특허문헌2의 경우, 본 발명에 따른 시공도면 인쇄물의 시공 대상 구조물에 대한 3차원 영상을 표시하는 시스템은 도면에 도시된 시공 대상 구조물의 설계 정보가 저장된 마커를 포함하는 시공도면 인쇄물, 시공도면 인쇄물의 마커를 인식하여 설계 정보를 수집하는 정보 수집부, 정보 수집부에서 수집한 설계 정보를 분석하여 시공 대상 구조물의 3차원 정보를 산출하는 3차원 정보 산출부 및 3차원 정보 산출부에서 산출한 시공 대상 구조물의 3차원 영상을 출력하는 출력부를 포함한다. 시공도면 인쇄물에 3차원 정보를 나타내는 마커를 사전에 부착하고, 마커를 인식하는 특정 입력 장치 및 시공 구조물의 3차원 형태를 표시하는 장치를 이용하여 시공 대상 구조물의 정확한 구조를 표시한다.
또 다른 특허문헌의 예로서 “증강현실을 이용한 가구 배치 장치 및 방법 (공개번호 제 10-2016-0033495호, 이하 특허문헌3이라 한다.)”이 존재한다.
특허문헌3의 경우, 본 발명은 증강현실을 이용한 가구 배치 기술에 관한 것으로, 적어도 하나의 프로세서를 구비한 시뮬레이터가 가상의 가구를 현실 공간에 배치하는 방법은, 미리 설정된 마커(marker)가 위치한 현실 공간에 대한 영상을 카메라를 이용하여 촬영하여 실시간으로 디스플레이 장치에 표시하고, 사용자로부터 현실 공간에 배치하고자 하는 가상의 가구를 선택 받으며, 사용자의 조작에 따라 가상의 가구를 마커를 기준으로 실시간 영상 위에 배치한다.
그러나 특허문헌1의 경우, 산업현장에서 3차원 입체영상을 활용하여 설비가 위치한 작업현장의 정보를 제공받아서 현장에 가지 않아도 설비를 모니터링하고 원격관리를 하는 것으로, 증강현실을 통한 가상의 오브젝트를 이동하거나 배치하는 것에 대한 기술적 사상이 존재하지 않는다.
또한, 특허문헌3의 경우, 현실 공간에 대한 영상을 촬영하여 디스플레이 장치에 표시한 수 특정한 지점에 가상의 가구를 표시할 뿐, 가상의 가구를 이동시키거나 배치하는 기술적 사상이 존재하지 않는다.
공개번호 제10-20150083480 호 등록번호 제10-1201129호 공개번호 제 10-2016-0033495호
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템은 상기한 바와 같은 종래 문제점을 해결하기 위해 안출된 것으로서, 다음과 같은 해결하고자 하는 과제를 제시한다.
첫째, 현실 세계에서 존재하는 실재의 공간에 기반하여 오브젝트를 오버래핑 할 수 있도록 하고자 한다.
둘째, 오브젝트의 가상 공간 배치에 상호 스케일의 매칭에 대한 자유도를 보장함과 동시에 오브젝트의 매핑의 사용자 의도를 선반영할 수 있도록 한다.
현 증강 현실 기술은 스마트폰 기기를 기반으로 작동하기 때문에 사용자가 오브젝트를 투영하고자 하는 공간에 반드시 위치해야 하는 물리적인 제약이 존재한다. 해당 기술은 사용자가 원하는 공간을 촬영하여 가상 공간화 하고 이에 대한 데이터 정보를 클라우드 서버에 저장하기 때문에 PC나 TV등 기타 영상 기기에서 다운로드하여 사용할 수 있어 공간적 제약을 보완한다.
본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템은 상기의 해결하고자 하는 과제를 위하여 다음과 같은 과제 해결 수단을 가진다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템은 실 공간을 촬영하여, 촬영된 상기 실 공간의 3차원 영상에 3D 좌표를 입힌 후, 상기 3차원 영상을 가상 공간으로 메이킹하는 모바일 유닛; 및 상기 모바일 유닛으로부터 상기 가상 공간의 정보를 수신하여 저장하며, 상기 모바일 유닛이 상기 가상 공간의 정보를 호출하면 상기 모바일 유닛으로 상기 가상 공간의 정보를 송출하며, 상기 모바일 유닛이 디스플레이하는 상기 가상 공간 상에 해당하는 클라우드 서버에 미리 저장된 소정의 가상 오브젝트를 임의 배치되도록 하는 시뮬레이팅 유닛을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 모바일 유닛은, 상기 모바일 유닛에 제공된 카메라를 통하여 상기 실 공간을 촬영하여, 상기 실 공간에 대한 3차원 영상을 획득하는 공간 촬상부; 상기 공간 촬상부가 획득한 상기 3차원 영상의 상기 3D좌표를 추출하는 3D 추출부; 및 상기 3D추출부가 추출한 상기 3D 좌표를 상기 3차원 영상의 그대로 적용하여, 상기 3차원 영상에 상기 3D 좌표가 반영되도록 하는 3D 웨어링부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 3D 추출부는, 상기 3차원 영상으로부터 면(face), 에지(edge), 모서리(vertex)를 각각 추출하며, 상기 면, 에지, 모서리의 상호 포지션을 추출하는 포지션 추출부; 및 포지션 추출부가 추출한 상기 3차원 영상 내의 상기 면의 면적과 상기 모서리의 길이를 각각 산출하는 스케일 추출부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 3D추출부는, 상기 포지션 추출부가 추출한 상기 면과 에지 각각의 상호 상대적인 방향을 산출하는 디렉션 추출부; 및 상기 면, 에지 각 상호간의 상대적인 앵글을 산출하는 앵글 추출부를 더 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 3D좌표는, 상기 x축-y축-z축 3차원 직교 좌표와 상기 x축, 상기 y축 또는 상기 z축 각각을 중심으로 하여 회전하는 회전각(radian) 변수 xr, yr 또는 zr을 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 모바일 유닛은, 상기 시뮬레이팅 유닛에 미리 저장된 상기 소정의 가상 오브젝트를 호출하여 로딩하는 오브젝트 로딩부; 상기 소정의 가상 오브젝트에 적용된 좌표 정보와 상기 가상 공간의 상기 3D 좌표를 상호 동기화시키는 좌표 싱크부; 및 상기 좌표 정보를 상기 3D 좌표에 동기화된 상기 소정의 가상 오브젝트를 상기 가상 공간에 배치하여 매핑시키는 오브젝트 매핑부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 오브젝트 매핑부는, 사용자에 임의에 따라, 상기 가상 공간 상에 매핑된 상기 소정의 가상 오브젝트를 연동되어 움직이도록 하는 드래그 무빙부; 사용자의 임의에 따라, 상기 소정의 가상 오브젝트의 크기를 임의 변동시켜 상기 가상 공간 상에 매핑되도록 하는 스케일 콘트롤부; 및 사용자의 임의에 따라 상기 소정의 가상 오브젝트의 전방위적(total directional) 회전을 일으켜, 회전된 상태의 상기 소정의 가상 오브젝트를 상기 가상 공간상에 매핑되도록 하는 앵글 터닝부를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 오브젝트 매핑부는, 상기 소정의 가상 오브젝트의 에지가 상기 가상 공간의 에지로부터 소정 거리 내에 접근하면 상기 가상 오브젝트의 에지를 상기 가상 공간의 에지로 강제 매칭하여 고정시키는 에지 앵커링부를 더 포함하는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 에지 앵커링부는, i) 상기 가상 공간의 에지의 불연속적 스페이스 앵커 포인트를 설정하고, 상기 스페이스 앵커 포인트로부터 상기 소정 거리를 설정한 후, ii) 상기 소정 가상 오브젝트의 에지에 불연속적 오브젝트 앵커 포인트를 설정하여, iii) 상기 오브젝트 앵커 포인트가 상기 소정 거리 내에 인입되면 상기 오브젝트 앵커 포인트를 상기 스페이스 앵커 포인트로 매핑시키는 것을 특징으로 할 수 있다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 상기 에지 앵커링부는, 상기 불연속적 스페이스 앵커 포인트는 상기 가상 공간의 에지를 따라 일렬로 정렬되며, 상기 불연속적 오브젝트 앵커 포인트는 상기 소정 가상 오브젝트의 에지를 따라 일렬로 정렬되어, 사용자가 상기 소정 가상 오브젝트를 상기 소정 거리 내에서 이동시키게 되면, 상기 불연속적 오브젝트 앵커 포인트의 정렬은 상기 불연속적 스페이스 앵커 포인트의 정렬을 따라 이동되도록 하는 것을 특징으로 할 수 있다.
이상과 같은 구성의 본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템은 다음과 같은 효과를 제공한다.
첫째, 실 공간의 가상 공간화를 통하여, 실재하는 공간에 다양한 시뮬레이팅을 시도할 수 있다.
둘째, 실재하는 공간에 배치하고 싶은 다양한 오브젝트를 가상으로 매핑하도록 하여, 원하는 배치를 가상으로 먼저 구현해 볼 수 있도록 한다.
셋째, 가상 공간에 배치하는 오브젝트의 스케일을 기본적으로는 1:1 스케일 비율로 하되, 임의 변경하도록 하여, 가상 공간에 배치하는 오브젝트를 가상으로 그 스케일 밸런스를 미리 타진해 볼 수 있도록 한다.
넷째, 가상 공간이 주는 인지적 한계를 극복하기 위하여, 오브젝트의 에지오 가상 공간의 에지를 자동으로 맞추어 주도록 한다.
다섯째, 클라우드 상에 가상 공간화된 데이터 저장하고 PC나 TV등 기타 영상 기기에 다운로드할 수 있기 때문에 현존하는 증강현실 기술의 물리적 제약을 극복하고 다양한 산업에서 활용이 가능하다.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 중, 실 공간을 촬영한 후 가상 공간화를 위하여 실 영상에 3D(dimension) 좌표를 추출하는 과정을 도시한 예시화면이다.
도 3은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 중, 실 공간을 촬영한 후 가상 공간화를 위하여 실 영상에 각 에지부의 스케일을 산출하고 이에 따라 상호 거리 등을 추출하기 위한 예시화면이다.
도 4는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛이 가상 공간을 호출한 후, 해당 가상 공간에 가상 오브젝트들을 오버래핑하는 과정을 디스플레이한 예시화면이다.
도 5는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 블록도이다.
도 6은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 3D 추출부의 블록도이다.
도 7은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 오브젝트 매핑부의 블록도이다.
도 8은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 에지 앵커링부의 기능을 설명하기 위한 개념도이다.
도 9는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 시뮬레이팅 유닛의 블록도이다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 개념도이다. 도 2는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 중, 실 공간을 촬영한 후 가상 공간화를 위하여 실 영상에 3D(dimension) 좌표를 추출하는 과정을 도시한 예시화면이다. 도 3은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 중, 실 공간을 촬영한 후 가상 공간화를 위하여 실 영상에 각 에지부의 스케일을 산출하고 이에 따라 상호 거리 등을 추출하기 위한 예시화면이다. 도 4는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛이 가상 공간을 호출한 후, 해당 가상 공간에 가상 오브젝트들을 오버래핑하는 과정을 디스플레이한 예시화면이다. 도 5는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 블록도이다. 도 6은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 3D 추출부의 블록도이다. 도 7은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 오브젝트 매핑부의 블록도이다. 도 8은 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 모바일 유닛의 에지 앵커링부의 기능을 설명하기 위한 개념도이다. 도 9는 본 발명의 일 실시예에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 시뮬레이팅 유닛의 블록도이다.
본 발명에 따른 실 공간 가상화를 통한 오브젝트 오버래핑 시스템의 경우, 도 1에 도시된 바와 같이, 모바일 유닛(mobile unit, 100), 시뮬레이팅 유닛(simulating unit, 200)을 포함할 수 있다.
먼저, 모바일 유닛(100)은 다운로드 가능한 애플리케이션을 설치하여 본 발명에서 제시하는 기능을 구현할 수 있는 모바일 단말기 예컨대, 스마트폰(smart phone), 태블릿PC(tablet PC), 랩탑(labtop) 등일 수 있다.
모바일 유닛(100)의 경우, 자체적으로 장착한 카메라 모듈이나, 외부 카메라를 장착하여 실재하는 공간인 실 공간(1)을 촬영할 수 있도록 한다.
모바일 유닛(100)은 가급적 두 개의 카메라 렌즈를 통하여, 실 공간(1)에 대한 원근을 인식할 수 있도록 하는 것이 바람직하며, 모바일 유닛(100)에 장착된 두 개의 카메라는 촬영되는 실 공간(1)에 대한 3차원 영상을 획득함과 동시에 해당 실 공간(1)의 촬영시 발생되는 카메라 앵글의 변화, 카메라 위치의 변화를 연속적으로 감지함과 동시에 촬영되는 실 공간(1)에 대한 3차원 영상의 변화를 통해 3차원 공간의 3D 좌표를 산출할 수 있게 된다.
모바일 유닛(100)의 경우, 후술하게 되는 시뮬레이팅 유닛(200)에 미리 저장된 가상 오브젝트(11, 12) 등을 호출하여, 실 공간(1) 상에 배치해볼 수 있게 된다.
뿐만 아니라, 모바일 유닛(100)은 실 공간(1)을 3차원 영상으로 획득한 후, 해당 3차원 영상으로부터 획득한 3D 좌표를 입힌 후, 실 공간(1)을 그대로 3차원의 가상 공간(2)으로 메이킹하고, 이렇게 메이킹한 영상을 시뮬레이팅 유닛(200)에 저장할 수 있다. 이후, 시뮬레이팅 유닛(200)에 저장된 가상 공간(2)의 정보를 모바일 유닛(100)은 불러낸 후, 불러낸 가상 공간(2)에 가상 오브젝트(11, 12)를 오버래핑하여 시뮬레이션 해볼 수 있다.
가상 오브젝트(11, 12)의 경우, 도면에서 제시된 형상에만 한정할 것은 아니며, 형상에서 제시된 형상 외, 다양한 형상을 도입할 수 있음은 물론이다.
시뮬레이팅 유닛(200)은 일종의 클라우드 서버(cloud server)로 구현될 수 있으며, 상술한 바와 같이, 모바일 유닛(100)으로부터 가상 공간(2)의 정보를 수신하여 저장하며, 모바일 유닛(100)이 가상 공간(2)의 정보를 호출하면, 모바일 유닛(100)으로 가상 공간(2)의 정보를 송출하며, 모바일 유닛(100)이 디스플레이하는 가상 공간(2) 상에 사용자의 요청에 의하여 소정의 가상 오브젝트(11, 12)를 임의 배치되도록 하게 한다.
도 5에 도시된 바와 같이, 모바일 유닛(100)의 경우, 공간 촬상부(110), 3D추출부(120), 3D웨어링(wearing)부(130)를 포함할 수 있다.
먼저, 공간 촬상부(110)의 경우, 상술한 바와 같이, 모바일 유닛(100)에 내부 장착되거나 외부 탈착 가능한 카메라 모듈을 포함하는 것이다.
공간 촬상부(110)는 유형물인 카메라 렌즈 및 카메라 촬영 모듈 뿐만 아니라, 촬영된 실 공간(1)의 영상을 3차원 영상으로 획득하는 기능을 구비하게 되는 요소이다.
공간 촬상부(110)는 3차원의 영상 획득을 위하여 상술한 3D추출부(120)가 추출한 3D 좌표와의 합치가 이루어지도록 한다.
즉, 3D추출부(120)는 도 2 및 3에 도시된 바와 같이, 공간 촬상부(110)가 촬영한 영상에 3D 좌표를 추출하게 되는데, 여기의 3D 좌표에는 x축-y축-z축의 3차원 직교 좌표와 x축을 중심으로 회전하는 공간적 회전각(radian 단위), 변수와, y축을 중심으로 회전하는 공간적 회전각, z축을 중심으로 회전하는 회전각 변수인 xr, yr, zr을 각각 포함하게 된다.
3D 추출부(120)는 공간 촬상부(110)가 촬영한 영상에서 각각의 3D 좌표를 추출하기 위한 다양한 세부 기능들이 존재하는데, 이에 대해서는 후술하기로 한다.
3D웨어링부(130)의 경우, 3D추출부(120)가 추출한 3D좌표를 공간 촬상부(110)가 촬영한 3차원 영상에 그대로 적용하여, 3차원 영상에 3D좌표가 반영되도록 한다.
상술한 바와 같이, 3D추출부(120)는 포지션 추출부(121) 및 스케일 추출부(122)를 포함할 수 있다.
먼저, 포지션 추출부(121)의 경우, 도 3에 도시된 바와 같이, 촬영된 3차원 영상에서 면(face)와 에지(edge), 모서리(vertex)를 각각 추출하게 되며, 이러한 면, 에지, 모서리의 상호 상대적인 포지션을 추출하게 된다.
포지션 추출부(121)는 3차원 영상에서 차지하는 균일한 면적을 먼저 추출하게 되며, 이러한 균일한 면적에서 급변하는 그레이 레벨(gray level)의 영역을 뜯어내게 된다.
컬러와 그레이 레벨에 있어서 균일한 면적을 가지는 영역은 면(face)을 구성할 확률이 높으며, 이러한 면의 가장자리인 에지(edge)는 면의 컬러와 그레이 레벨이 급변함과 동기에 그 영역은 매우 협소하고 길게 형성되는 것으로 파악할 수 있다.
모서리(vertex)는 에지와 에지가 만나는 영역으로 그레이 레벨이 모서리를 중심으로 어둡게 수렴하는 경향을 가지며, 이러한 영역을 중심으로 컬러가 급변할 확률이 상대적으로 높게 된다.
스케일 추출부(122)의 경우, 포지션 추출부(121)가 추출한 3차원 영상 내의 면의 면적과 모서리의 길이를 각각 산출하여, 가상 공간(2)의 각 부위에 대한 스케일을 산출하게 된다.
도 3에 도시된 바와 같이, 스케일 추출부(122)는 에지의 연속된 길이를 산출하고, 에지와 에지가 만나 면을 이루는 영역의 크기를 산출하여 전체적인 스케일의 측정을 진행하게 된다.
스케일의 측정은 카메라가 위치하는 포지션으로부터 원근의 인식을 통해 포커싱 되는 영역의 거리를 산출하며, 해당 거리와 면적, 및 에지의 길이의 상대적인 비율을 비교함으로써 에지의 실 길이와 면의 실 면적을 통계적으로 산출하게 된다.
3D추출부(120)의 경우, 디렉션 추출부(123) 및 앵글 추출부(124)를 더 포함할 수 있다.
디렉션 추출부(123)의 경우, 포지션 추출부(121)가 추출한 면과 에지 각각의 상호 상대적인 방향을 산출하게 되는데, 이는 사용자가 모바일 유닛(100)에서 가상 공간(2)을 터치하여 여러 방향으로 드래그(drag) 하면 모든 영역인 면과 에지 그리고 모서리가 함께 연동되어 움직이도록 하는 틀을 제공하게 된다.
앵글 추출부(124)의 경우, 각각의 면, 에지가 상호 이루고 있는 상대적인 앵글을 산출하는 기능을 가지게 된다.
앵글 추출부(124)가 추출한 앵글들은 상술한 바와 같이, 사용자가 모바일 유닛(100)에서 가상 공간(2)을 터치하여 여러 방향으로 드래그(drag) 하면 모든 영역인 면과 에지 그리고 모서리가 함께 연동되어 움직이도록 하는 틀을 제공하게 된다.
상술한 바와 같이, 가상 공간(2)은 그 3차원적 영상뿐만 아니라, 해당 3차원적 영상에는 3D좌표 정보까지 입혀진 후, 모바일 유닛(100)으로부터 시뮬레이팅 유닛(200)으로 업로드된 후, 장소와 때를 달리하여, 모바일 유닛(100)은 업로드란 가상 공간(2)을 시뮬레이팅 유닛(200)으로부터 불러올 수 있다.
도 4 및 5에 도시된 바와 같이, 모바일 유닛(100)의 경우, 오브젝트 로딩부(140), 좌표 싱크부(150) 및 오브젝트 매핑부(160)를 더 포함할 수 있다.
오브젝트 로딩(object loading)부(140)의 경우, 시뮬레이팅 유닛(200)에 미리 저장된 소정의 가상 오브젝트(11, 12)를 호출하여 로딩하는 기능이다.
오브젝트 로딩부(140)는 사용자의 임의 선택에 따라 그 호출하는 가상 오브젝트(11, 12)의 종류를 달리할 수 있다.
이러한 가상의 오브젝트(11, 12)에는 3차원적 영상 뿐만 아니라, 이러한 오브젝트의 스케일, 방향, 에지, 면, 모서리 등의 3D 좌표 정보가 함께 수록되어 있다. 이러한 가상의 오브젝트(11, 12)의 3D 좌표 정보는 향후 가상 공간(2)의 3D좌표와 연동되어, 오버래핑하는 기준이 되도록 한다.
좌표 싱크부(150)의 경우, 소정의 가상 오브젝트에 적용된 좌표 정보와 가상 공간의 3D좌표를 상호 동기화시키게 된다.
아울러, 오브젝트 매핑부(160)의 경우, 좌표 정보를 3D좌표에 동기화된 소정의 가상 오브젝트(11, 12)를 가상 공간에 배치하여 매핑시키게 된다.
즉 모바일 유닛(100)에 디스플레이되는 가상 공간(2) 상에 가상 오브젝트(11, 12)가 오버랩될 때, 이들의 좌표를 상호 동일한 좌표계와 스케일 단위를 적용하게 되는 것이다.
나아가 오브젝트 매핑부(160)의 경우, 도 7에 도시된 바와 같이, 드래그 무빙부(161), 스케일 콘트롤부(162) 및 앵글 터닝부(163)를 포함할 수 있다.
드래그 무빙부(161)의 경우, 도 4에 도시된 바와 같이, 사용자의 임의에 따라 가상 공간(2) 상에 매핑된 소정의 가상 오브젝트(11, 12)로 하여금 3D좌표와 좌표 정보가 연동되어 움직일 수 있도록 하게 된다.
스케일 콘트롤부(162)의 경우, 사용자의 임의에 따라 소정의 가상 오브젝트의 크기를 임의 변동시켜 가상 공간 상에 매핑되도록 한다.
가상 공간(2)의 3D좌표에 연동하도록, 가상 오브젝트(11, 12)의 좌표 정보는 연동하는 것이지만, 가상 공간(2)의 3D 좌표와는 달리, 가상 오브젝트(11, 12)의 좌표 정보의 경우, 그 스케일이 사용자의 선택에 따라 크거나 작게 변동될 수 있는 함수로 이루어지게 된다.
이에 따라 스케일 콘트롤부(162)의 경우, 사용자의 임의 선택으로 소정의 오브젝트(11, 12)의 스케일을 변화시켜가며 가상 공간(2)에 매핑해볼 수 있다.
이 경우, 가상의 오브젝트(11, 12)의 변동시, 가상의 오브젝트(11, 12)의 각 에지와 면 그리고 이들의 상호 배치에 대한 길이 비율과 앵글은 변화하지 않도록 한다. 즉, 가상 오브젝트(11, 12)는 스케일만 변화하는 것이다.
앵글 터닝부(163)의 경우, 사용자의 임의에 따라 소정의 가상 오브젝트(11, 12)의 전방위적(total directional) 회전을 일으키도록 하여, 회전된 상태의 오브젝트(11, 12)가 가상 공간(2) 상에 매핑되도록 한다.
보다 바람직하게, 오브젝트 매핑부(160)의 경우, 도 7 및 8에 도시된 바와 같이, 에지 앵커링(edge anchoring)부(164)를 더 포함할 수 있다.
에지 앵커링부(164)는 소정의 가상 오브젝트(11, 12)의 에지(edge)가 가상 공간(2)의 에지(edge)로부터 소정 거리(m1~m3) 내에 접근하면, 가상 오브젝트(11, 12)의 에지를 가상 공간(2)의 에지로 가속시켜 매칭시키고 임시 고정시키게 된다.
보다 자세하게 설명하면 도 8에 도시된 바와 같이, 에지 앵커링부(160)의 경우, i) 가상 공간(2)의 에지의 불연속적 스페이스 앵커 포인트(Sa1-Sa3)를 설정하고, 스페이스 앵커 포인트(Oa1-Oa3)로부터 소정 거리(m1-m3)를 설정한 후, ii) 소정 가상 오브젝트(11, 12)의 에지에 불연속적 오브젝트 앵커 포인트(Oa1-Oa3)를 설정하여, iii) 오브젝트 앵커 포인트(Oa1-Oa3)가 소정 거리(m1-m3) 내에 인입되면 오브젝트 앵커 포인트(Oa1-Oa3)를 스페이스 앵커 포인트(Sa1-Sa3)로 매핑시키게 된다.
아울러 보다 바람직하게는, 에지 앵커링부(164)의 경우, 불연속적 스페이스 앵커 포인트(Sa1-Sa3)는 가상 공간(2)의 에지를 따라 일렬로 정렬되며, 불연속적 오브젝트 앵커 포인트(Oa1-Oa3)는 소정 가상 오브젝트(11, 12)의 에지를 따라 일렬로 정렬되어, 사용자가 소정 가상 오브젝트(Oa1-Oa3)를 소정 거리(m1-m3) 내에서 이동시키게 되면, 불연속적 오브젝트 앵커 포인트(Oa1-Oa3)의 정렬은 불연속적 스페이스 앵커 포인트(Sa1-Sa3)의 정렬을 따라 이동되도록 하도록 한다.
본 발명의 권리 범위는 특허청구범위에 기재된 사항에 의해 결정되며, 특허 청구범위에 사용된 괄호는 선택적 한정을 위해 기재된 것이 아니라, 명확한 구성요소를 위해 사용되었으며, 괄호 내의 기재도 필수적 구성요소로 해석되어야 한다.
1: 실 공간 2: 가상 공간
11: 제1 가상 오브젝트 12: 제2 가상 오브젝트
100: 모바일 유닛 101: 중앙 제어부
102: 데이터 통신부 110: 공간 촬상부
120: 3D 추출부 121: 포지션 추출부
122: 스케일 추출부 123: 디렉션 추출부
124: 앵글 추출부 130: 3D 웨어링부
140: 오브젝트 로딩부 150: 좌표 싱크부
160: 오브젝트 매핑부 161: 드래그 무빙부
162: 스케일 콘트롤부 163: 앵글 터닝부
164: 에지 앵커링부 200: 시뮬레이팅 유닛
201: 중앙 제어부 202: 데이터베이스
210: 공간정보 수신부 220: 공간정보 송출부
230: 오브젝트 리스팅부 240: 3D매핑부
250: 오브젝트 콘트롤부 260: 시뮬레이션 저장부

Claims (10)

  1. 실 공간을 촬영하여, 촬영된 상기 실 공간의 3차원 영상에 3D 좌표를 입힌 후, 상기 3차원 영상을 가상 공간으로 메이킹하는 모바일 유닛; 및
    상기 모바일 유닛으로부터 상기 가상 공간의 정보를 수신하여 저장하며, 상기 모바일 유닛이 상기 가상 공간의 정보를 호출하면 상기 모바일 유닛으로 상기 가상 공간의 정보를 송출하며, 상기 모바일 유닛이 디스플레이하는 상기 가상 공간 상에 미리 저장된 소정의 가상 오브젝트를 임의 배치되도록 하는 시뮬레이팅 유닛을 포함하되,
    상기 모바일 유닛은,
    상기 모바일 유닛에 제공된 카메라를 통하여 상기 실 공간을 촬영하여, 상기 실 공간에 대한 3차원 영상을 획득하는 공간 촬상부;
    상기 공간 촬상부가 획득한 상기 3차원 영상의 상기 3D좌표를 추출하는 3D 추출부;
    상기 3D추출부가 추출한 상기 3D 좌표를 상기 3차원 영상에 그대로 적용하여, 상기 3차원 영상에 상기 3D 좌표가 반영되도록 하는 3D 웨어링부;
    상기 시뮬레이팅 유닛에 미리 저장된 상기 소정의 가상 오브젝트를 호출하여 로딩하는 오브젝트 로딩부;
    상기 소정의 가상 오브젝트에 적용된 좌표 정보와 상기 가상 공간의 상기 3D 좌표를 상호 동기화시키는 좌표 싱크부; 및
    상기 좌표 정보를 상기 3D 좌표에 동기화된 상기 소정의 가상 오브젝트를 상기 가상 공간에 배치하여 매핑시키는 오브젝트 매핑부를 포함하며,
    상기 3D 추출부는,
    상기 3차원 영상으로부터 면(face), 에지(edge), 모서리(vertex)를 각각 추출하며, 상기 면, 에지, 모서리의 상호 포지션을 추출하는 포지션 추출부;
    상기 포지션 추출부가 추출한 상기 3차원 영상 내의 상기 면의 면적과 상기 모서리의 길이를 각각 산출하는 스케일 추출부;
    상기 포지션 추출부가 추출한 상기 면과 에지 각각의 상호 상대적인 방향을 산출하는 디렉션 추출부; 및
    상기 면, 에지 각 상호간의 상대적인 앵글을 산출하는 앵글 추출부를 포함하며,
    상기 오브젝트 매핑부는,
    사용자에 임의에 따라, 상기 가상 공간 상에 매핑된 상기 소정의 가상 오브젝트를 연동되어 움직이도록 하는 드래그 무빙부;
    사용자의 임의에 따라, 상기 소정의 가상 오브젝트의 크기를 임의 변동시켜 상기 가상 공간 상에 매핑되도록 하는 스케일 콘트롤부;
    사용자의 임의에 따라 상기 소정의 가상 오브젝트의 전방위적(total directional) 회전을 일으켜, 회전된 상태의 상기 소정의 가상 오브젝트를 상기 가상 공간상에 매핑되도록 하는 앵글 터닝부; 및
    상기 소정의 가상 오브젝트의 에지가 상기 가상 공간의 에지로부터 소정 거리 내에 접근하면 상기 가상 오브젝트의 에지를 상기 가상 공간의 에지로 강제 매칭하여 고정시키는 에지 앵커링부를 포함하며,
    상기 에지 앵커링부는,
    i) 상기 가상 공간의 에지의 불연속적 스페이스 앵커 포인트를 설정하고, 상기 스페이스 앵커 포인트로부터 상기 소정 거리를 설정한 후,
    ii) 상기 소정 가상 오브젝트의 에지에 불연속적 오브젝트 앵커 포인트를 설정하여,
    iii) 상기 오브젝트 앵커 포인트가 상기 소정 거리 내에 인입되면 상기 오브젝트 앵커 포인트를 상기 스페이스 앵커 포인트로 매핑시키는 것을 특징으로 하는, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서, 상기 3D좌표는,
    상기 x축-y축-z축 3차원 직교 좌표와 상기 x축, 상기 y축 또는 상기 z축 각각을 중심으로 하여 회전하는 회전각(radian) 변수 xr, yr 또는 zr을 포함하는 것을 특징으로 하는, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제1항에 있어서, 상기 에지 앵커링부는,
    상기 불연속적 스페이스 앵커 포인트는 상기 가상 공간의 에지를 따라 일렬로 정렬되며,
    상기 불연속적 오브젝트 앵커 포인트는 상기 소정 가상 오브젝트의 에지를 따라 일렬로 정렬되어,
    사용자가 상기 소정 가상 오브젝트를 상기 소정 거리 내에서 이동시키게 되면, 상기 불연속적 오브젝트 앵커 포인트의 정렬은 상기 불연속적 스페이스 앵커 포인트의 정렬을 따라 이동되도록 하는 것을 특징으로 하는, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템.

KR1020190121587A 2019-10-01 2019-10-01 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템 KR102183115B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121587A KR102183115B1 (ko) 2019-10-01 2019-10-01 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121587A KR102183115B1 (ko) 2019-10-01 2019-10-01 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템

Publications (1)

Publication Number Publication Date
KR102183115B1 true KR102183115B1 (ko) 2020-11-25

Family

ID=73645363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121587A KR102183115B1 (ko) 2019-10-01 2019-10-01 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템

Country Status (1)

Country Link
KR (1) KR102183115B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023136366A1 (ko) * 2022-01-11 2023-07-20 엘지전자 주식회사 증강현실 서비스를 제공하는 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101201129B1 (ko) 2011-03-03 2012-11-13 연세대학교 산학협력단 증강현실 기술을 이용한 시공 구조물의 3차원 영상 표시 시스템
KR20150083480A (ko) 2014-01-09 2015-07-20 프리모케이앤에스 주식회사 3차원 입체 영상을 활용한, 설비 통합 관리 시스템
KR20160033495A (ko) 2014-09-18 2016-03-28 서강대학교산학협력단 증강현실을 이용한 가구 배치 장치 및 방법
KR20160141458A (ko) * 2015-06-01 2016-12-09 엘지전자 주식회사 이동 단말기
KR20170018930A (ko) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR20170122688A (ko) * 2017-06-26 2017-11-06 이정원 Vr 시공체험 서비스 제공 방법, 이를 실현하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체 및 이를 실행하기 위하여 매체에 저장된 애플리케이션
KR101887810B1 (ko) * 2017-05-12 2018-09-10 정규영 가상현실과 증강현실을 이용한 이삿짐 시뮬레이션 제공과 이를 통한 부동산 중개 시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101201129B1 (ko) 2011-03-03 2012-11-13 연세대학교 산학협력단 증강현실 기술을 이용한 시공 구조물의 3차원 영상 표시 시스템
KR20150083480A (ko) 2014-01-09 2015-07-20 프리모케이앤에스 주식회사 3차원 입체 영상을 활용한, 설비 통합 관리 시스템
KR20170018930A (ko) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
KR20160033495A (ko) 2014-09-18 2016-03-28 서강대학교산학협력단 증강현실을 이용한 가구 배치 장치 및 방법
KR20160141458A (ko) * 2015-06-01 2016-12-09 엘지전자 주식회사 이동 단말기
KR101887810B1 (ko) * 2017-05-12 2018-09-10 정규영 가상현실과 증강현실을 이용한 이삿짐 시뮬레이션 제공과 이를 통한 부동산 중개 시스템
KR20170122688A (ko) * 2017-06-26 2017-11-06 이정원 Vr 시공체험 서비스 제공 방법, 이를 실현하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체 및 이를 실행하기 위하여 매체에 저장된 애플리케이션

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023136366A1 (ko) * 2022-01-11 2023-07-20 엘지전자 주식회사 증강현실 서비스를 제공하는 장치 및 방법

Similar Documents

Publication Publication Date Title
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
US9268410B2 (en) Image processing device, image processing method, and program
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
TW201915943A (zh) 對圖像內目標物體進行自動標註的方法、裝置及系統
US20130201214A1 (en) Methods, Apparatuses, and Computer-Readable Storage Media for Providing Interactive Navigational Assistance Using Movable Guidance Markers
CN108594999B (zh) 用于全景图像展示系统的控制方法和装置
CN113741698A (zh) 一种确定和呈现目标标记信息的方法与设备
JP2011239361A (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
US20180204387A1 (en) Image generation device, image generation system, and image generation method
US11609345B2 (en) System and method to determine positioning in a virtual coordinate system
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
CN110555876B (zh) 用于确定位置的方法和装置
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
US11373329B2 (en) Method of generating 3-dimensional model data
US11869195B2 (en) Target object controlling method, apparatus, electronic device, and storage medium
KR102183115B1 (ko) 증강현실 기술을 활용한 클라우드 기반의, 실 공간 가상화를 통한 오브젝트 오버래핑 시스템
US9881419B1 (en) Technique for providing an initial pose for a 3-D model
US11562538B2 (en) Method and system for providing a user interface for a 3D environment
CN112862976B (zh) 一种数据处理方法、装置及电子设备
KR102268798B1 (ko) 증강 현실 제공 시스템 및 방법
Huang et al. Design and application of intelligent patrol system based on virtual reality
KR102338627B1 (ko) 증강 현실 제공 시스템 및 방법
JP6859763B2 (ja) プログラム、情報処理装置
KR101276313B1 (ko) 영상 인식을 위한 모바일단말기와 서버간의 통신 프로토콜 처리시스템
WO2024018975A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant