KR102600421B1 - 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 - Google Patents

가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 Download PDF

Info

Publication number
KR102600421B1
KR102600421B1 KR1020210070118A KR20210070118A KR102600421B1 KR 102600421 B1 KR102600421 B1 KR 102600421B1 KR 1020210070118 A KR1020210070118 A KR 1020210070118A KR 20210070118 A KR20210070118 A KR 20210070118A KR 102600421 B1 KR102600421 B1 KR 102600421B1
Authority
KR
South Korea
Prior art keywords
virtual
point
indoor space
indoor
points
Prior art date
Application number
KR1020210070118A
Other languages
English (en)
Other versions
KR20220161856A (ko
Inventor
김켄
정지욱
Original Assignee
주식회사 쓰리아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리아이 filed Critical 주식회사 쓰리아이
Priority to KR1020210070118A priority Critical patent/KR102600421B1/ko
Priority to PCT/KR2021/012651 priority patent/WO2022255546A1/ko
Priority to JP2022545060A priority patent/JP2023532831A/ja
Priority to EP21939982.1A priority patent/EP4138042A1/en
Priority to US17/878,180 priority patent/US20220383557A1/en
Publication of KR20220161856A publication Critical patent/KR20220161856A/ko
Priority to KR1020230151173A priority patent/KR20230155413A/ko
Application granted granted Critical
Publication of KR102600421B1 publication Critical patent/KR102600421B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computer Hardware Design (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명의 일 기술적 측면에 따른 서버는, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 서버로서, 메모리, 통신 모듈 및 상기 메모리 및 상기 통신 모듈과 작동적으로(operatively) 연결되는 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 통신 모듈을 통하여, 모바일 단말로부터, 상기 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하고, 상기 상대적 위치 정보를 기초로 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 상기 가상 실내공간 컨텐츠를 생성할 수 있다.

Description

가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 {Method for providing virtual indoor space content and server therefor}
본 발명은 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버에 관한 것이다.
전자 기술의 발전에 따라, 다양한 환경을 온라인 상에서 구현하는 기술들이 개발되고 있으며, 그러한 일환으로 실제 환경을 온라인 상에서 가상화 하여 가상 환경을 만드는 가상화 기술이 있다.
실제 환경을 가상화 하기 위해서는, 실제 환경에 대하여 획득된 다양한 각도의 이미지를 이용하여 가상 환경을 생성하는 것과, 생성된 가상 환경을 해당 이미지를 취득한 위치와 연관하는 것이 중요하다.
실외 환경인 경우에는, GPS(Global Positioning System) 등을 이용하여 이미지 취득 위치에 대한 정보를 획득할 수 있어, 손쉽게 위치 정보를 획득할 수 있다.
그러나, 실내 환경의 경우에는, 실내에서의 이미지 촬영 위치 및 그의 이동 경로 등을 확인하기 어려운 문제가 있다.
한국 공개특허공보 제10-2021-0055429호
본 발명의 일 기술적 측면은 상기한 종래 기술의 문제점을 해결하기 위한 것으로, 본 문서에 개시되는 실시 예에 따르면, 실내 환경에서 촬영된 전방위 이미지에 대한 위치를 효율적으로 생성할 수 있으며, 그에 따라 실내 환경에 대한 가상 실내공간 컨텐츠를 생성할 수 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 기술적 측면은 서버를 제안한다. 상기 서버는, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 서버로서, 메모리, 통신 모듈 및 상기 메모리 및 상기 통신 모듈과 작동적으로(operatively) 연결되는 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 통신 모듈을 통하여, 모바일 단말로부터, 상기 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하고, 상기 상대적 위치 정보를 기초로 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 상기 가상 실내공간 컨텐츠를 생성할 수 있다.
본 발명의 다른 일 기술적 측면은, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 서비스 하는 서버에서 수행되는 가상 실내공간 컨텐츠 제공 방법을 제안한다. 상기 가상 실내공간 컨텐츠 제공 방법은, 모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 단계 및 상기 상대적 위치 정보를 기초로 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 단계를 포함할 수 있다.
본 발명의 또 다른 일 기술적 측면은, 저장 매체를 제안한다. 상기 저장 매체는, 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서, 상기 인스트럭션들은, 서버에 의해 실행될 때, 상기 서버로 하여금, 모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 동작 및 상기 상대적 위치 정보를 기초로 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 동작을 수행하도록 할 수 있다.
상기한 과제의 해결 수단은, 본 발명의 특징을 모두 열거한 것은 아니다. 본 발명의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
본 문서에 개시되는 일 실시예에 따르면, 실내 환경에서 촬영된 전방위 이미지에 대한 위치를 효율적으로 생성할 수 있다.
또한, 본 문서에 개시되는 실시예에 따르면, 실내 환경에서 촬영된 위치 간의 상대적 이동 정보를 생성하여 촬영 위치 및 이동 경로에 대한 정보를 확보할 수 있다.
또한, 본 문서에 개시되는 실시예에 따르면, 실내공간에 대한 가상 실내공간 컨텐츠를 생성하여 제공할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 문서에 개시되는 일 실시예에 따른, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 시스템의 일 예를 예시하는 도면이다.
도 2는 본 문서에 개시되는 일 실시예에 따른 전방위 카메라를 설명하는 블록 구성도이다.
도 3은 본 문서에 개시되는 일 실시예에 따른 모바일 단말을 설명하는 블록 구성도이다.
도 4는 본 문서에 개시되는 일 실시예에 따른 서버를 설명하는 블록 구성도이다.
도 5은 본 문서에 개시되는 일 실시예에 따른, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 시스템의 다른 일 예를 예시하는 도면이다.
도 6은 본 문서에 개시되는 일 실시예에 따른, 모바일 단말에서 수행되는 모바일 단말의 제어 방법을 설명하는 순서도이다.
도 7은 본 문서에 개시되는 일 실시예에 따른, 모바일 단말에서 수행되는 상대적 위치 정보 생성을 설명하는 순서도이다.
도 8은 본 문서에 개시되는 일 실시예에 따른 시각적 이동 정보를 설명하는 도면이다.
도 9는 본 문서에 개시되는 일 실시예에 따른 상대적 위치 정보를 설명하는 도면이다.
도 10은 본 문서에 개시되는 일 실시예에 따른 이동 경로의 설정을 설명하는 도면이다.
도 11은 본 문서에 개시되는 일 실시예에 따른 모바일 단말에서의 사용자 인터페이스의 일 예를 도시하는 도면이다.
도 12는 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 가상 실내공간 컨텐츠 제공 방법을 설명하는 순서도이다.
도 13은 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 상대적 위치 정보 생성을 설명하는 순서도이다.
도 14는 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 가상 지점 매핑을 설명하는 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다.
그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 발명의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예를 들어, 중요성 또는 순서)에서 한정하지 않는다. 어떤(예를 들어, 제 1) 구성요소가 다른(예를 들어, 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드", "커넥티드" 또는 "연결된" 이라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예를 들어, 모바일 단말(200))에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리(240))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예를 들어, 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예를 들어, 모바일 단말(200))의 프로세서(예를 들어, 프로세서(260))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래 될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예를 들어, compact disc read only memory (CDROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예를 들어, 플레이 스토어™)를 통해 또는 두개의 사용자 장치들(예를 들어, 스마트폰들) 간에 직접, 온라인으로 배포(예를 들어, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예를 들어, 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예를 들어, 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 발명의 실시형태를 설명하기 위하여 다양한 순서도가 개시되고 있으나, 이는 각 단계의 설명의 편의를 위한 것으로, 반드시 순서도의 순서에 따라 각 단계가 수행되는 것은 아니다. 즉, 순서도에서의 각 단계는, 서로 동시에 수행되거나, 순서도에 따른 순서대로 수행되거나, 또는 순서도에서의 순서와 반대의 순서로도 수행될 수 있다.
도 1은 본 문서에 개시되는 일 실시예에 따른, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 시스템의 일 예를 예시하는 도면이다.
도 1을 참조하면, 시스템은 전방위 카메라 장치(100), 모바일 단말(200) 및 서버(300)를 포함할 수 있다.
전방위 카메라(100)는 전방위 카메라(100)를 중심으로 전방위 이미지를 촬영할 수 있다.
전방위 카메라(100)는 전방위 가상 이미지를 생성하기 위한, 서로 다른 각도를 기준으로 촬상된 복수의 이미지, 즉, 복수의 부분 이미지를 생성할 수 있다.
일 예로, 전방위 카메라 장치(100)는 전면, 후면, 좌측면 및 우측면에 각각 설치되는 4개의 카메라 모듈을 포함할 수 있으며, 각각의 카메라 모듈을 통해 4개의 부분 이미지를 생성할 수 있다. 다른 예로, 전방위 카메라 장치(100)는 180도 이상의 광각을 가지는 카메라를 전면 및 후면에 구비하여, 4개의 부분 이미지를 생성할 수 있다.
전방위 카메라(100)는 모바일 단말(200)과 개별 구동되는 별도의 장치일 수 있다.
또는, 전방위 카메라(100)는 모바일 단말(200)을 이용하여 구현되는 일 기능으로 대체 가능하다. 예컨대, 복수의 부분 이미지를 모바일 단말(200)을 이용하여 촬상함으로써, 전방위 카메라(100)로서의 기능을 제공할 수 있다.
여기에서, 전방위 가상 이미지는, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하기 위하여 사용되는 것으로서, 즉, 전방위 카메라(100)은 실제 실내공간에 대한 촬영을 수행한다.
모바일 단말(200)은 전방위 카메라(100)와 연결되어, 전방위 카메라(100)로부터 전방위 가상 이미지를 생성하기 위한 복수의 부분 이미지(이하, 전방위 이미지라 칭함)를 제공받을 수 있다.
모바일 단말(200)은 전방위 이미지가 취득된 위치에 대한 위치 정보를 생성할 수 있다. 한편, 모바일 단말(200) 및 전방위 카메라(100)는 실내공간에서 촬영을 수행하므로, GPS(Global Positioning System)과 같은, 절대 좌표를 기반으로 하는 위치 정보를 획득할 수 없다. 따라서, 모바일 단말(200)은 상대적인 위치 정보를 생성한다. 여기에서, 상대적 위치 정보는, 이전의 전방위 이미지가 취득된 실내 지점으로부터, 현재의 전방위 이미지가 취득된 실내 지점까지의 상대적인 이동 경로를 포함한다.
일 실시예에서, 전방위 카메라(100)와 모바일 단말(200)은 하나의 어셈블리(10)로서 구현될 수 있다. 예컨대, 거치대 상에, 전방위 카메라(100) 및 모바일 단말(200)이 고정되어 사용될 수 있다.
모바일 단말(200)은 전방위 이미지 및 해당 전방위 이미지에 대한 상대적 위치 정보를 서버(300)에 제공할 수 있다.
모바일 단말(200)은 휴대 가능한 전자 기기로서, 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포괄한다.
서버(300)는 전방위 이미지를 이용하여 전방위 가상 이미지를 생성하고, 상대적 위치 정보를 기초로 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 가상 실내공간 컨텐츠를 생성할 수 있다.
사용자 단말(400)은 서버(300)로부터 가상 실내공간 컨텐츠를 제공받을 수 있다.
도 2는 본 문서에 개시되는 일 실시예에 따른 전방위 카메라를 설명하는 블록 구성도이다.
도 2를 참조하면, 전방위 카메라(100)는 전방위 카메라 모듈(110), 통신 모듈(120), 제어 모듈(130) 및 메모리(140)를 포함할 수 있다.
전방위 카메라 모듈(110)은 전방위 이미지를 생성할 수 있는 카메라로서, 예컨대, 서로 다른 각도를 지향하는 복수의 카메라 모듈을 포함할 수 있다.
통신 모듈(120)은 모바일 단말(200)과의 통신 연결을 설정할 수 있다. 예컨대, 통신 모듈(120)은 블루투스 등의 근거리 무선 통신 모듈 또는 유선 통신 모듈 중 적어도 하나를 이용하여 모바일 단말(200)와 통신 연결을 설정할 수 있다.
제어 모듈(130)은 메모리(240)에 저장된 프로그램을 구동하여, 전방위 카메라 모듈(110) 내지 통신 모듈(120)을 제어할 수 있다. 예컨대, 제어 모듈(130)은 전방위 카메라 모듈(110)을 제어하여 전방위 이미지를 생성하도록 하고, 생성된 전방위 이미지를 통신 모듈(120)을 통하여 모바일 단말(200)에 제공할 수 있다.
메모리(140)는 프로그램 내지 전방위 이미지를 저장할 수 있으며, 제어 모듈(130)의 구동을 위한 메모리 공간을 제공할 수 있다.
도 3은 본 문서에 개시되는 일 실시예에 따른 모바일 단말을 설명하는 블록 구성도이다.
도 3을 참조하면, 모바일 단말(200)는 전방 카메라(210), 관성 측정 센서(220), 통신 모듈(230), 디스플레이 모듈(240), 프로세서(250) 및 메모리(260)를 포함한다.
도시하지는 않았으나, 모바일 단말(200)의 구성은 상기 나열된 구성이나 각 구성요소의 명칭에 제한되지 않는다. 예컨대, 모바일 단말(200)에 전원을 공급하기 위한 배터리 등이 모바일 단말(200)에 포함될 수도 있다. 이와 같이, 본 문서에 개시된 다양한 실시 예를 구현하기 위한 전자 장치의 구성이, 당업자 수준에서 다양하게 변형되어 구현될 수 있다. 이하에서는 설명의 편의를 위해, 기능 중심으로 각각의 구성을 설명한다.
전방 카메라(210)는 적어도 하나의 카메라를 포함할 수 있다. 전방 카메라(210)는 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전방 카메라(210)는 모바일 단말(200)의 전방 영상을 촬영할 수 있다.
관성 측정 센서(220)는 모바일 단말(200)의 관성적 특징을 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 예로, 관성 측정 센서(220)는 자이로 센서 및 가속도 센서를 포함할 수 있다. 관성 측정 센서(220)에 의하여 측정된 데이터를 이하, 관성 센싱 데이터라 칭한다.
통신 모듈(230)은, 모바일 단말(200)과 전방위 카메라(100) 사이, 또는 모바일 단말(200)와 서버(300) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 이러한 통신 모듈(230)은 이동통신 모듈, 무선 인터넷 모듈 및 근거리 통신모듈 중 적어도 하나를 포함할 수 있다. 근거리 통신모듈은 유선 또는 무선으로 전방위 카메라(100)와 통신 연결을 수행할 수 있다. 예컨대, 근거리 통신모듈은 블루투스 등의 근거리 무선통신 모듈 또는 RS232와 같은 유선 통신모듈을 포함할 수 있다.
디스플레이 모듈(240)은 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 모바일 단말(200)와 모바일 단말을 이용하는 입력자 사이의 입력 인터페이스를 제공하는 입력부로써 기능함과 동시에, 출력 인터페이스를 제공할 수 있다.
프로세서(250)는 메모리(260)에 저장된 응용 프로그램, 즉, 어플리케이션을 구동하기 위하여, 도 3에서 도시된 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(250)는 상기 응용 프로그램의 구동을 위하여, 모바일 단말(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다. 프로세서(250)는 메모리(260)에 저장된 인스트럭션들(instructions)을 실행하여 어플리케이션을 구동할 수 있다.
프로세서(250)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 모바일 단말(200)의 전반적인 동작을 제어한다. 프로세서(250)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(260)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 프로세서(250)는 하나의 프로세서 또는 복수의 프로세서로 구현 가능하다.
일 예로, 프로세서(250)는 전방 영상의 변화 및 관성 센싱 데이터의 변화량을 이용하여, 전방위 이미지가 획득된 실내 지점에 대한 상대적 위치 정보를 생성할 수 있다.
일 예로, 프로세서(250)는, 전방 영상에서 적어도 하나의 특징점을 추출하고, 추출된 상기 적어도 하나의 특징점의 변화를 기초로 모바일 단말의 시각적 이동 정보 -상기 시각적 이동 정보는 이동 방향 및 이동 거리 중 적어도 하나를 포함함- 를 생성할 수 있다.
일 예로, 프로세서(250)는, 관성 센싱 데이터의 변화량을 이용하여 모바일 단말의 관성적 이동 정보 -상기 관성적 이동 정보는 이동 방향 및 이동 거리 중 적어도 하나를 포함함- 를 생성하고, 관성적 이동 정보를 기초로 시각적 이동 정보를 검증하여 상기 상대적 위치 정보를 생성할 수 있다.
일 예로, 프로세서(250)는, 시각적 이동 정보에서 기 설정된 임계값 -상기 임계값은 방향 전환의 임계값 및 이동 거리의 임계값 중 적어도 하나를 포함함- 을 초과하는 이상치 데이터가 발생하면, 시각적 이동 정보의 이상치 데이터에 대응되는 관성적 이동 정보의 데이터를 이상치 데이터와 비교하여, 이상치 데이터의 적용 여부를 판단할 수 있다.
프로세서(250)의 동작에 대한 구체적인 설명은 이하에서 도 6 내지 도 11을보다 참조하여 보다 상세히 설명한다. 이하의 설명에서, 모바일 단말(200) 또는 프로세서(250)를 어플리케이션을 구동하여 제어, 지시 또는 기능의 주체로서 표현하나, 이는, 프로세서(250)가 메모리(260)에 저장된 인스트럭션 또는 어플리케이션을 구동하여 동작하는 것을 의미한다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 모바일 단말의 동작, 제어 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 모바일 단말의 동작, 제어, 또는 제어방법은 상기 메모리(260)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 모바일 단말 상에서 구현 될 수 있다.
도 4는 본 문서에 개시되는 일 실시예에 따른 서버를 설명하는 블록 구성도이다.
도 4를 참조하면, 서버(300)는 통신 모듈(310), 프로세서(320) 및 메모리(330)를 포함할 수 있다.
통신 모듈(310)은, 서버(300)와 모바일 단말 (200) 사이, 또는 서버(300)와 사용자 단말(400) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
프로세서(320)는 메모리 및 통신 모듈과 작동적으로(operatively) 연결되는 하나 또는 복수의 프로세서를 의미한다.
프로세서(320)는 메모리(330)에 저장된 프로그램, 예컨대, 오퍼레이팅 시스템 및/또는 서버 어플리케이션을 구동할 수 있다.
프로세서(320)는 메모리(330)에 저장된 인스트럭션들(instructions)을 실행하여 어플리케이션을 구동할 수 있다.
일 예로, 프로세서(320)는, 모바일 단말로부터, 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하고, 상대적 위치 정보를 기초로 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 가상 실내공간 컨텐츠를 생성할 수 있다.
프로세서(320)에 대한 구체적인 설명은 이하에서 보다 상세히 설명한다. 이하에서는, 서버(300) 또는 프로세서(320)를 어플리케이션을 구동하여 제어, 지시 또는 기능의 주체로서 표현하나, 이는, 프로세서(320)는 메모리(330)에 저장된 인스트럭션 또는 어플리케이션을 구동하여 동작하는 것을 의미한다.
도 5은 본 문서에 개시되는 일 실시예에 따른, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 시스템의 다른 일 예를 예시하는 도면이다.
도 5에 도시된 일 실시예에는, 전용 단말(201)을 더 포함한다. 전용 단말(201)은 도 1에 도시된 모바일 단말(201)의 일부 기능을 수행하는 단말이며, 전방위 카메라(100)가 전방위 이미지를 획득할 때, 전용 단말(201)은 상대적인 위치 정보를 생성할 수 있다. 또한, 전용 단말(201)은 전방위 이미지와 그에 대한 상대적 위치 정보를 연관하여 저장하고, 이를 모바일 단말(200)을 통하여 서버(300)에 제공할 수 있다.
모바일 단말(200)은 입력자의 조작에 따라 전방위 카메라(100) 및/또는 전용 단말(201)의 동작을 제어할 수 있다. 즉, 모바일 단말(200)은 입력자에게 작업을 위한 인터페이스를 제공하고, 상대적인 위치 정보의 생성 및 그에 대한 전방위 이미지와의 연관은 전용 단말(201)에 의하여 수행될 수 있다.
이하, 도 6 내지 도 14를 참조하여, 가상 실내공간 컨텐츠를 제공하는 시스템의 각 구성요소의 동작 및 제어 방법에 대하여 보다 상세히 설명한다.
도 6은 본 문서에 개시되는 일 실시예에 따른, 모바일 단말에서 수행되는 모바일 단말의 제어 방법을 설명하는 순서도이다.
도 6을 참조하면, 모바일 단말(200), 구체적으로는 모바일 단말(200)의 프로세서(260)는, 전방위 카메라(100)와 통신 연결을 수행할 수 있다(S601).
모바일 단말(200)은 실제 실내공간의 어느 한 지점에서 촬영을 시작할 수 있으며, 이를 시작지점이라 칭한다. 모바일 단말(200)은 시작지점을 설정할 수 있다(S602).
일 예로, 모바일 단말(200)은 실제 실내공간에 대한 평면 정보를 디스플레이하고, 모바일 단말(200)을 조작하는 입력자의 입력 따라 평면 정보 상의 어느 한 점을 시작 지점으로 입력받을 수 있다.
모바일 단말(200)은 입력자의 입력에 따라, 시작 지점에 대한 전방위 이미지를 생성할 것을 전방위 카메라(100)에 요청하고(S603), 전방위 카메라(100)는 시작 지점에서 전방위 이미지를 생성하여 모바일 단말(200)에 제공할 수 있다(S604).
모바일 단말(200)은 시작 지점과, 시작 지점에서 촬영된 전방위 이미지를 연관하여 저장할 수 있다(S605).
모바일 단말(200)은 입력자에 의하여 시작 지점에서 제1 지점으로 이동할 수 있다(S606).
모바일 단말(200)은 입력자의 입력에 따라, 제1 지점에 대한 전방위 이미지를 생성할 것을 전방위 카메라(100)에 요청하고(S607), 전방위 카메라(100)는 제1 지점에서 전방위 이미지를 생성하여 모바일 단말(200)에 제공할 수 있다(S608).
모바일 단말(200)은 전방 영상 및 관성 센싱 데이터를 이용하여, 제1 지점에 대한 상대적 위치 정보를 생성할 수 있다(S609).
모바일 단말(200)은 제1 지점에 대한 상대적 위치 정보와, 제1 지점에 대한 전방위 이미지를 연관하여(S610) 저장할 수 있다. 모바일 단말(200)은 제1 지점에 대한 전방위 이미지 및 제1 지점에 대한 상대적 위치 정보를 상호 연관하여, 영상 데이터로서 서버에 제공 할 수 있다.
도 6은 시작 지점 및 이후의 제1 지점에 대한 모바일 단말(200)의 동작을 설명하였으나, 이에 한정되는 것은 아니며 이후의 연속되는 각 지점에 대해서도 계속적으로 상대적 위치 정보를 생성하고, 그에 대한 전방위 이미지를 생성하여 연관할 수 있다.
일 실시예에서, 모바일 단말(200)은 상대적 위치 정보를 평면 정보 상에 반영하여 경로를 설정할 수 있다. 모바일 단말(200)은 입력자의 입력에 따라 상기 평면 정보 상의 어느 한 점을 시작 지점으로 입력받고, 모바일 단말이 이동한 후 입력자의 입력에 따라 평면 정보 상의 다른 어느 한 지점을 제1 지점으로 입력받을 수 있다. 모바일 단말(200)은 시작 지점에서 제1 지점까지의 상대적 위치 정보를 평면 정보 상에 반영하여, 평면 정보 상의 상기 시작 지점으로부터 상기 제1 지점에 이르는 경로를 설정할 수 있다.
도 11은 본 문서에 개시되는 일 실시예에 따른 모바일 단말에서의 경로 설정의 일 예를 도시하는 도면으로서, 도 11을 참조하면, 모바일 단말(200)은 제1 지점 P1에서 제2 지점 P2에 이르는 상대적 위치 정보를, 평면 정보 D1 상에 표시하여 경로 MP를 표시할 수 있다. 또한, 모바일 단말(200)은 평면 정보 D1 상에 현재 위치 CP을 표시할 수 있으며, 현재 위치에서 취득되는 전방 영상을 표시 D2할 수 있다. 전방 영상에는 적어도 하나의 특징점들 SP가 표시될 수 있다.
일 실시예에서, 모바일 단말(200)은 시작 지점과 제1 지점을 기준으로 상대적 위치 정보의 진행 방향을 평면 정보 상에 반영할 수 있다. 즉, 상대적 위치 정보는 모바일 단말(200)의 전방을 기준으로 작성되나, 평면 정보 상에서의 어느 방향이 모바일 단말(200)의 전방인지를 설정하기 위하여 시작 지점과 제1 지점을 이용할 수 있다. 모바일 단말(200)은 실제 실내공간에 대한 평면 정보를 디스플레이하고, 입력자의 입력에 따라 평면 정보 상의 어느 한 점을 시작 지점으로 입력받는다. 모바일 단말(200)은 시작 지점에서 모바일 단말이 이동한 후, 입력자의 입력에 따라 평면 정보 상의 다른 어느 한점을 제1 지점으로 입력받는다. 모바일 단말(200)은 시작 지점에서 제1 지점까지의 상대적 위치 정보를 평면 정보 상에 반영하여, 평면 정보 상에서의 진행 방향을 상대적 위치 정보의 진행 방향과 매칭할 수 있다.
도 10은 본 문서에 개시되는 일 실시예에 따른 이동 경로의 설정을 설명하는 도면으로서, 평면 정보 상에서의 각 지점을 표시하고 있다. 시작 지점 SP와 제1 지점 P1을 사용자가 평면 정보 상에서 설정하면, 모바일 단말(200)은 시작 지점에서 제1 지점까지의 상대적 위치 정보를 평면 정보 상에 반영하여, 평면 정보 상에서의 진행 방향을 상대적 위치 정보의 진행 방향과 매칭할 수 있다. 이후, 모바일 단말(200)은 각 지점 간의 상대적 위치 정보를 표시함으로써, 제2 지점 P2, 제3 지점 P3, 현재 지점 CP를 평면 정보 상에 표시할 수 있다.
도 7은 본 문서에 개시되는 일 실시예에 따른, 모바일 단말에서 수행되는 상대적 위치 정보 생성을 설명하는 순서도로서, 이하 도 7을 더 참조하여, 모바일 단말(200)에 대하여 설명한다.
모바일 단말(200)은 모바일 단말의 전방에 대한 전방 영상을 생성하고(S701), 모바일 단말(200)의 이동에 따른 관성 센싱 데이터를 생성할 수 있다(S702). 이러한 전방 영상의 생성 및 관성 센싱 데이터의 생성은 모바일 단말이 전방위 이미지의 생성을 제어하는 동작을 수행하는 동안 계속 또는 적어도 일부 지속적으로 수행할 수 있다.
모바일 단말(200)은 전방 영상에서 적어도 하나의 특징점을 추출하고, 추출된 적어도 하나의 특징점의 변화를 기초로 모바일 단말의 시각적 이동 정보를 생성할 수 있다. 여기에서, 시각적 이동 정보는, 전방 영상을 기초로 도출된 이동 정보로서, 이동 방향 및 이동 거리 중 적어도 하나를 포함한다.
도 8은 본 문서에 개시되는 일 실시예에 따른 시각적 이동 정보를 설명하는 도면으로, 도 8을 더 참조하여 설명하면, 도 8의 그림 (a)는 제1 시점에서의 전방 영상의 예이고, 그림 (b)는 제1 시점으로부터 소정 시간이 흐른 제2 시점에서의 전방 영상을 예시하고 있다.
도 8의 그림 (a)에서 모바일 단말(200)은 특징점 F1을 추출하고, 그림 (b)에서 F1에 상응하는 특징점 F2를 추출한다. 그림 (b)의 F1'는 그림 (a)의 특징점 F1의 위치에 대응되는 위치이며, 따라서, 그림 (a)의 특징점 F1는, ΔF1의 이동 변위를 가지며 그림 (b)의 F1'가 된 것이다. 따라서, 모바일 단말(200)은 특징점의 이동 변위 ΔF1를 이용하여 카메라의 이동 변위, 즉, 이동 방향 및 이동 거리를 추정할 수 있으며, 추정된 이동 방향 및 이동 거리를 시각적 이동 정보로서 생성할 수 있다.
다시 도 7을 참조하면, 모바일 단말(200)은 관성 센싱 데이터의 변화량을 이용하여 모바일 단말의 관성적 이동 정보를 생성할 수 있다(S704). 예컨대, 모바일 단말(200)은 자이로 센서의 센싱 데이터 및/또는 3축 가속도 센서의 센싱 데이터를 이용하여 모바일 단말의 이동 방향 및 이동 거리를 추정할 수 있으며, 이를 관성적 이동 정보로서 생성할 수 있다.
일 실시예에서, 시각적 이동 정보는, 매 단위 시점에 대하여 설정된 이동 방향 및 이동 거리를 연관하여 저장된 정보일 수 있다. 예컨대, 시각적 이동 정보는, 매 단위 시점을 기준으로 산출된 이동 방향 및 이동 거리의 연관된 정보의 집합일 수 있다. 관성적 이동 정보 또한 이에 대응될 수 있다.
모바일 단말(200)은 관성적 이동 정보를 기초로 시각적 이동 정보를 검증하여 상대적 위치 정보를 생성할 수 있다(S705).
일 실시예에서, 모바일 단말(200)은 시각적 이동 정보를 기준으로 상대적 위치 정보를 설정하되, 시각적 이동 정보에서 일정 이상의 수치 변동을 가지는 이상치가 발생하면 이를 관성적 이동 정보로 검증할 수 있다.
도 9는 본 문서에 개시되는 일 실시예에 따른 상대적 위치 정보를 설명하는 도면으로서, 도 9를 더 참조하여 설명한다.
도 9는 시작 지점 SP에서 제1 지점 P1에 이르는 시각적 이동 정보 VP와, 관성적 이동 정보 IMP를 평면 상에서 도시하고 있다.
도 9의 그림 (a)에서, 시각적 이동 정보 VP는 이상치가 발생하지 않았으며, 관성적 이동 정보 IMP와 적어도 일부에서 차이를 가지나 임계 범위 내에서 유사도를 가지고 있다.
반면, 도 9의 그림 (b)에서, 시각적 이동 정보 VP는 기 설정된 임계값 -상기 임계값은 방향 전환의 임계값 및 이동 거리의 임계값 중 적어도 하나를 포함함- 을 초과하는 이상치 데이터 OL이 발생하였으며, 이러한 경우, 모바일 단말(200)은 시각적 이동 정보의 이상치 데이터에 대응되는 관성적 이동 정보의 데이터를 이상치 데이터와 비교하여, 이상치 데이터의 적용 여부를 판단할 수 있다. 즉, 모바일 단말(200)은 그림 (b)에서의 관성적 이동 정보 IMP와 비교 시, 시각적 이동 정보의 이상치 데이터 OL에 대응되는 관성적 이동 정보 IMP에서 이상치에 대응되는 변화가 없으므로, 이상치 데이터 OL를 적용하지 않을 수 있다.
이와 같이, 모바일 단말(200)은 시각적 이동 정보에 대한 이상치를 관성적 이동 정보를 이용하여 검증하므로, 시각적 이동 정보에서 발생하는 일시적인 오류를 방지할 수 있다.
이하, 도 12 내지 도 14를 참조하여 서버(300)의 동작에 대하여 설명한다.
도 12는 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 가상 실내공간 컨텐츠 제공 방법을 설명하는 순서도이다.
도 12를 참조하면, 서버(300)는 통신 모듈을 통하여 모바일 단말(200)과 통신 연결(S1201)을 설정할 수 있다(S1201). 서버(300)는 가상 실내공간 컨텐츠를 경험하는 사용자 단말(400)에게도 통신 연결(S1201)을 설정할 수 있다(S1201).
서버(300)는 모바일 단말(200)로부터, 가상 실내공간 컨텐츠 생성을 위한 영상 데이터를 수신한다(S1202). 여기에서, 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함한다.
서버(300)는 상대적 위치 정보를 기초로 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑하여 가상 실내공간 컨텐츠를 생성할 수 있다(S1203 내지 S1205).
즉, 서버(300)는 상대적 위치 정보를 기초로 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 매핑할 수 있다(S1203).
서버(300)는 전방위 이미지를 정합하여 전방위 가상 이미지를 생성할 수 있다(S1204). 전방위 이미지는 한 지점에서 서로 다른 각도를 기준으로 촬상된 복수의 이미지를 포함하고, 서버(300)는 복수의 이미지에서 서로 공통되는 특징을 기준으로 복수의 이미지를 정합하여 전방위로 확인 가능한 전방위 가상 이미지를 생성할 수 있다. 즉, 인접한 두 이미지에서 모두 촬영된 부분이 합쳐지도록 정합을 수행할 수 있다. 이를 위하여, 서버(300)는 복수의 이미지 각각에 대하여 특징점을 추출하고, 서로 인접한 두 이미지에서 동일 또는 일정 이상의 유사도를 가지는 특징점들을 스티칭하여 두 이미지를 정합할 수 있다. 이와 같은 정합을 복수의 이미지 전체에 대하여 수행하여, 서버(300)는 촬영 지점을 기준으로 전방위, 즉, 좌우로 360도 및 상하 180도로 확인이 가능한 전방위 가상 이미지를 생성할 수 있다.
서버(300)는 생성된 전방위 가상 이미지를, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관하여 저장할 수 있다(S1205).
서버(300)는 생성된 가상 실내공간 컨텐츠를 사용자 단말(400)에 제공할 수 있다. 가상 실내공간 컨텐츠로서, 서버(300)는 사용자 단말(400)에게 실제 실내공간에 대응되는 가상 실내공간 컨텐츠에 대한 평면 정보를 제공할 수 있다(S1206).
여기에서, 평면 정보는 복수의 실내 지점 각각에 매핑되는 복수의 가상 지점을 포함할 수 있다.
사용자는 복수의 가상 지점 중 어느 하나를 선택하여 해당 지점에 대한 전방위 가상 이미지를 요청할 수 있다(S1207).
서버(300)는 사용자 단말(400)로부터, 복수의 가상 지점 중 어느 하나에 대한 요청을 수신하면, 해당 가상 지점과 연관된 전방위 가상 이미지를 사용자 단말(400)에 제공할 수 있다.
전술한 설명에서, 상대적 위치 정보는 사용자 단말(200)에 의하여 생성되는 것을 설명하였으나, 실시예에 따라서는 서버(300)에서 상대적 위치 정보를 생성할 수 있다. 도 13은 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 상대적 위치 정보 생성을 설명하는 순서도이다.
도 13을 참조하면, 서버(300)는 사용자 단말(200)로부터, 전방 영상에 대한 특징점의 변화 정보 및 관성 센싱 데이터를 수신할 수 있다(S1301). 실시예에 따라서는, 사용자 단말(200)은 전방 영상 및 관성 센싱 데이터를 제공하고, 서버(300)가 전방 영상에 대하여 특징점의 변화 정보를 직접 생성할 수도 있다.
서버(300)는 특징점의 변화를 기초로 모바일 단말(200)의 시각적 이동 정보를 생성하고(S1302), 관성 센싱 데이터의 변화량을 이용하여 모바일 단말(200)의 관성적 이동 정보를 생성할 수 있다(S1303). 서버(300)는 시각적 이동 정보를 기초로 상대적 위치 정보를 생성하되, 관성적 이동 정보로 시각적 이동 정보를 검증하여 상대적 위치 정보를 생성할 수 있다(S1304). 이에 대한 구체적인 설명은 도 7 등을 참조하여 상술한 설명을 참조하여 이해할 수 있다.
도 14는 본 문서에 개시되는 일 실시예에 따른, 서버에서 수행되는 가상 지점 매핑을 설명하는 순서도로서, 도 14를 참조하여 가상 지점 매핑에 대하여 설명한다.
서버(400)는, 영상 데이터에 포함된, 시작 지점에 대한 시작 지점 정보, 시작 지점 이후의 제1 지점에 대한 제1 지점 정보 및 상기 제1 지점에 대한 제1 상대적 위치 정보를 확인할 수 있다(S1401). 일 예로, 시작 지점 정보 및 제1 지점 정보는 실내공간에 대한 평면 정보를 이용하여, 예컨대, 평면 정보 상의 좌표 정보 등으로 설정될 수 있다.
서버(400)는, 평면 정보에서 시작 지점에 대응되는 가상 시작 지점을 매핑하고(S1402), 가상 시작 지점에 대해 제1 상대적 위치 정보를 적용하여 제1 지점에 대응되는 제1 가상 지점을 매핑할 수 있다(S1403). 서버(400)는, 제1 가상 지점과 제1 지점 정보를 비교하여 검증할 수 있다.
서버(400)는, 영상 데이터에 포함된, 제1 지점 이후의 제2 지점에 대한 제2 지점 정보 및 상기 제2 지점에 대한 제2 상대적 위치 정보를 더 확인할 수 있다(S1403). 서버(400)는, 실제 실내공간에 대응되는 평면 정보에서, 제1 가상 지점에 대해 제2 상대적 위치 정보를 적용하여 제2 지점에 대응되는 제2 가상 지점을 매핑할 수 있다(S1405). 서버(400)는, 제2 가상 지점과 제2 지점 정보를 비교하여 검증할 수 있다.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 발명의 구성은 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.
100 : 전방위 카메라
200 : 모바일 단말 201 : 전용 단말
300 : 서버
400 : 사용자 단말
110 : 전방위 카메라 120 : 통신 모듈
130 : 제어모듈 140 : 메모리
210 : 전방 카메라 220 : 관성 측정 센서
230 : 통신 모듈 240 : 디스플레이모듈
250 : 프로세서 260 : 메모리
310 : 통신 모듈 320 : 프로세서
330 : 메모리

Claims (16)

  1. 모바일 단말로부터 실제 실내 공간에서 생성된 영상 데이터를 수신하여 상기 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 서버로서,
    메모리;
    통신 모듈; 및
    상기 메모리 및 상기 통신 모듈과 작동적으로(operatively) 연결되는 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 모바일 단말로부터, 상기 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 이전 실내 지점에서 해당 실내 지점까지의 상대적 위치 정보를 포함함- 를 수신하고, 상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하되,
    시작 지점에 대응되는 가상 시작 지점을 매핑하고, 시작 지점으로부터 제1 지점까지의 상대적 위치정보를 상기 가상 시작 지점에 반영하여 제1 가상 지점을 매핑하며, 이러한 매핑하는 과정을 각 실내지점에 대하여 반복 수행하는,
    서버.
  2. 제1항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 영상 데이터에 포함된, 시작 지점에 대한 시작 지점 정보, 상기 시작 지점 이후의 제1 지점에 대한 제1 지점 정보 및 상기 제1 지점에 대한 제1 상대적 위치 정보를 확인하고,
    상기 실제 실내공간에 대응되는 평면 정보에서, 상기 시작 지점에 대응되는 가상 시작 지점을 매핑하고, 상기 가상 시작 지점에 대해 상기 제1 상대적 위치 정보를 적용하여 상기 제1 지점에 대응되는 제1 가상 지점을 매핑하는
    서버.
  3. 제2항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 영상 데이터에 포함된, 상기 제1 지점 이후의 제2 지점에 대한 제2 지점 정보 및 상기 제2 지점에 대한 제2 상대적 위치 정보를 더 확인하고,
    상기 실제 실내공간에 대응되는 평면 정보에서, 상기 제1 가상 지점에 대해 상기 제2 상대적 위치 정보를 적용하여 상기 제2 지점에 대응되는 제2 가상 지점을 매핑하는
    서버.
  4. 제1항에 있어서, 상기 전방위 이미지는
    서로 다른 각도를 기준으로 촬상된 복수의 부분 이미지를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 복수의 부분 이미지에서 서로 공통되는 특징을 기준으로 상기 복수의 부분 이미지를 정합하여 전방위로 확인 가능한 전방위 가상 이미지를 생성하는
    서버.
  5. 제4항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 전방위 가상 이미지를, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관하여 저장하는
    서버.
  6. 제4항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 사용자 단말에게 상기 실제 실내공간에 대응되는 가상 실내공간 컨텐츠에 대한 평면 정보를 제공하되,
    상기 평면 정보는
    상기 복수의 실내 지점 각각에 매핑되는 복수의 가상 지점을 포함하는
    서버.
  7. 제6항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 사용자 단말로부터, 상기 복수의 가상 지점 중 어느 하나에 대한 요청을 수신하면, 해당 가상 지점과 연관된 상기 전방위 가상 이미지를 상기 사용자 단말에 제공하는
    서버.
  8. 모바일 단말로부터 실제 실내 공간에서 생성된 영상 데이터를 수신하여 상기 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 제공하는 서버로서,
    메모리;
    통신 모듈; 및
    상기 메모리 및 상기 통신 모듈과 작동적으로(operatively) 연결되는 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 모바일 단말로부터, 상기 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 이전 실내 지점에서 해당 실내 지점까지의 상대적 위치 정보를 포함함- 를 수신하고, 상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하고,
    전방위 가상 이미지는, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관되어 저장되고,
    상기 복수의 가상 지점 각각에서, 해당 지점과 연관되어 저장된 전방위 이미지가 표시되는,
    서버.
  9. 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 서비스 하는 서버에서 수행되는 가상 실내공간 컨텐츠 제공 방법으로서,
    모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 단계; 및
    상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 단계; 를 포함하고,
    전방위 가상 이미지는, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관되어 저장되고,
    상기 복수의 가상 지점 각각에서, 해당 지점과 연관되어 저장된 전방위 이미지가 표시되는,
    를 포함하는 가상 실내공간 컨텐츠 제공 방법.
  10. 제9항에 있어서, 상기 가상 실내공간 컨텐츠를 생성하는 단계는,
    상기 영상 데이터에 포함된, 시작 지점에 대한 시작 지점 정보, 상기 시작 지점 이후의 제1 지점에 대한 제1 지점 정보 및 상기 제1 지점에 대한 제1 상대적 위치 정보를 확인하는 단계; 및
    상기 실제 실내공간에 대응되는 평면 정보에서, 상기 시작 지점에 대응되는 가상 시작 지점을 매핑하고, 상기 가상 시작 지점에 대해 상기 제1 상대적 위치 정보를 적용하여 상기 제1 지점에 대응되는 제1 가상 지점을 매핑하는 단계;
    를 포함하는 가상 실내공간 컨텐츠 제공 방법.
  11. 제10항에 있어서, 상기 가상 실내공간 컨텐츠를 생성하는 단계는,
    상기 영상 데이터에 포함된, 상기 제1 지점 이후의 제2 지점에 대한 제2 지점 정보 및 상기 제2 지점에 대한 제2 상대적 위치 정보를 더 확인하는 단계; 및
    상기 실제 실내공간에 대응되는 평면 정보에서, 상기 제1 가상 지점에 대해 상기 제2 상대적 위치 정보를 적용하여 상기 제2 지점에 대응되는 제2 가상 지점을 매핑하는 단계;
    를 더 포함하는 가상 실내공간 컨텐츠 제공 방법.
  12. 제9항에 있어서, 상기 전방위 이미지는
    서로 다른 각도를 기준으로 촬상된 복수의 부분 이미지를 포함하고,
    상기 가상 실내공간 컨텐츠를 생성하는 단계는,
    상기 복수의 부분 이미지에서 서로 공통되는 특징을 기준으로 상기 복수의 부분 이미지를 정합하여 전방위로 확인 가능한 전방위 가상 이미지를 생성하는 단계; 및
    상기 전방위 가상 이미지를, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관하여 저장하는 단계;
    를 포함하는 가상 실내공간 컨텐츠 제공 방법.
  13. 제9항에 있어서, 상기 가상 실내공간 컨텐츠 제공 방법은,
    통신 모듈을 통하여, 사용자 단말에게 상기 실제 실내공간에 대응되는 가상 실내공간 컨텐츠에 대한 평면 정보 - 상기 평면 정보는, 상기 복수의 실내 지점 각각에 매핑되는 복수의 가상 지점을 포함함- 를 제공하는 단계; 및
    사용자 단말로부터, 상기 복수의 가상 지점 중 어느 하나에 대한 요청을 수신하면, 해당 가상 지점과 연관된 상기 전방위 가상 이미지를 상기 사용자 단말에 제공하는 단계;
    를 포함하는 가상 실내공간 컨텐츠 제공 방법.
  14. 실제 실내공간에 대응되는 가상 실내공간 컨텐츠를 서비스 하는 서버에서 수행되는 가상 실내공간 컨텐츠 제공 방법으로서,
    모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 단계; 및
    상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 단계; 를 포함하고,
    상기 가상 실내공간 컨텐츠를 생성하는 단계는,
    시작 지점에 대응되는 가상 시작 지점을 매핑하고, 시작 지점으로부터 제1 지점까지의 상대적 위치정보를 상기 가상 시작 지점에 반영하여 제1 가상 지점을 매핑하는 단계; 및
    상기 매핑하는 단계는 를 각 실내지점에 대하여 반복 수행하는 단계;
    를 포함하는 가상 실내공간 컨텐츠 제공 방법.
  15. 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
    상기 인스트럭션들은, 서버에 의해 실행될 때, 상기 서버로 하여금,
    모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 동작; 및
    상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 동작; 을 수행하도록 하고,
    전방위 가상 이미지는, 해당 전방위 이미지가 취득된 실내 지점에 대응되는 가상 지점에 연관되어 저장되고,
    상기 복수의 가상 지점 각각에서, 해당 지점과 연관되어 저장된 전방위 이미지가 표시되는,
    저장 매체.
  16. 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
    상기 인스트럭션들은, 서버에 의해 실행될 때, 상기 서버로 하여금,
    모바일 단말로부터, 실제 실내공간에 대응되는 가상 실내공간 컨텐츠 생성을 위한 영상 데이터 -상기 영상 데이터는, 복수의 실내 지점 각각에 대하여, 각각의 실내 지점에서 취득한 전방위 이미지 및 해당 실내 지점에 대한 상대적 위치 정보를 포함함- 를 수신하는 동작; 및
    상기 상대적 위치 정보를 기초로 상기 실제 실내 공간의 상기 복수의 실내 지점에 대응되는 복수의 가상 지점을 가상 실내공간 상에 순차적으로 매핑하여 상기 가상 실내공간 컨텐츠를 생성하는 동작; 을 수행하도록 하고,
    상기 가상 실내공간 컨텐츠를 생성하는 동작은,
    시작 지점에 대응되는 가상 시작 지점을 매핑하고, 시작 지점으로부터 제1 지점까지의 상대적 위치정보를 상기 가상 시작 지점에 반영하여 제1 가상 지점을 매핑하는 동작; 및
    상기 매핑하는 단계는 를 각 실내지점에 대하여 반복 수행하는 동작; 을 수행하도록 하는,
    저장 매체.
KR1020210070118A 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버 KR102600421B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020210070118A KR102600421B1 (ko) 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
PCT/KR2021/012651 WO2022255546A1 (ko) 2021-05-31 2021-09-16 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
JP2022545060A JP2023532831A (ja) 2021-05-31 2021-09-16 仮想室内空間コンテンツ提供方法およびそのためのサーバー
EP21939982.1A EP4138042A1 (en) 2021-05-31 2021-09-16 Virtual indoor space content providing method and server therefor
US17/878,180 US20220383557A1 (en) 2021-05-31 2022-08-01 Method of providing virtual indoor space content and server therefor
KR1020230151173A KR20230155413A (ko) 2021-05-31 2023-11-03 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210070118A KR102600421B1 (ko) 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230151173A Division KR20230155413A (ko) 2021-05-31 2023-11-03 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Publications (2)

Publication Number Publication Date
KR20220161856A KR20220161856A (ko) 2022-12-07
KR102600421B1 true KR102600421B1 (ko) 2023-11-09

Family

ID=84440996

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210070118A KR102600421B1 (ko) 2021-05-31 2021-05-31 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
KR1020230151173A KR20230155413A (ko) 2021-05-31 2023-11-03 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230151173A KR20230155413A (ko) 2021-05-31 2023-11-03 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버

Country Status (1)

Country Link
KR (2) KR102600421B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002645A (ja) * 2012-06-20 2014-01-09 Shimizu Corp 合成画像表示システム及びその方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100591144B1 (ko) * 2001-02-09 2006-06-19 이구진 주석기입에 따른 전방위성 3차원 이미지 데이터 획득장치 및 그 방법
KR102273573B1 (ko) 2019-11-07 2021-07-06 선문대학교 산학협력단 실내위치정보 제공 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002645A (ja) * 2012-06-20 2014-01-09 Shimizu Corp 合成画像表示システム及びその方法

Also Published As

Publication number Publication date
KR20220161856A (ko) 2022-12-07
KR20230155413A (ko) 2023-11-10

Similar Documents

Publication Publication Date Title
US10580148B2 (en) Graphical coordinate system transform for video frames
CN111742281B (zh) 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法
KR20150082358A (ko) 기준 좌표계 결정
KR102583682B1 (ko) 전자 장치 및 증강 현실 기반의 공유 정보 표시 방법
US8838381B1 (en) Automatic video generation for navigation and object finding
US20130176337A1 (en) Device and Method For Information Processing
US20160063764A1 (en) Image processing apparatus, image processing method, and computer program product
KR102661590B1 (ko) 이미지 내에서 객체를 인식하기 위한 장치 및 방법
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP7420135B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11410330B2 (en) Methods, devices, and systems for determining field of view and producing augmented reality
KR102347232B1 (ko) 실외 3차원 지도 정보를 기반으로 비주얼 로컬리제이션을 제공하기 위한 전자 장치 및 그의 동작 방법
KR102600421B1 (ko) 가상 실내공간 컨텐츠 제공 방법 및 그를 위한 서버
KR20190140657A (ko) 오브젝트를 생성하는 전자장치 및 시스템
KR102575503B1 (ko) 가상 실내공간 컨텐츠 생성을 위한 모바일 단말 및 그 모바일 단말의 제어 방법
JP2015233240A (ja) 表示処理装置、表示処理方法、及びプログラム
KR101914660B1 (ko) 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
KR102370326B1 (ko) 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
KR102570009B1 (ko) Ar 객체 생성 방법 및 전자 장치
JP2023532831A (ja) 仮想室内空間コンテンツ提供方法およびそのためのサーバー
KR102665643B1 (ko) 아바타 표시를 제어하기 위한 방법 및 그 전자 장치
US20200051533A1 (en) System and method for displaying content in association with position of projector
US20220284667A1 (en) Image processing method and image processing device for generating 3d content by means of 2d images
WO2023090213A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant