KR20200042829A - 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 - Google Patents

현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 Download PDF

Info

Publication number
KR20200042829A
KR20200042829A KR1020180152733A KR20180152733A KR20200042829A KR 20200042829 A KR20200042829 A KR 20200042829A KR 1020180152733 A KR1020180152733 A KR 1020180152733A KR 20180152733 A KR20180152733 A KR 20180152733A KR 20200042829 A KR20200042829 A KR 20200042829A
Authority
KR
South Korea
Prior art keywords
plane
real space
augmented reality
planes
horizontal
Prior art date
Application number
KR1020180152733A
Other languages
English (en)
Other versions
KR102162873B1 (ko
Inventor
이정욱
이준호
이세윤
고홍식
양윤영
박상연
Original Assignee
주식회사 하이쓰리디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이쓰리디 filed Critical 주식회사 하이쓰리디
Publication of KR20200042829A publication Critical patent/KR20200042829A/ko
Application granted granted Critical
Publication of KR102162873B1 publication Critical patent/KR102162873B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것으로, 이러한 본 발명은 현실 공간을 스캔하기 위한 카메라부와, 카메라부가 촬영된 현실 공간을 표시하는 표시부와, 상기 카메라부를 통해 현실 공간이 스캔되면, 상기 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식한 후, 객체를 설치할 수 있는 평면을 활성화하고, 활성화된 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 상기 표시부를 통해 표시하는 제어부를 포함하는 것을 특징으로 하는 증강 현실을 제공하기 위한 장치와, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다.

Description

현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체{An apparatus for providing an augmented reality in which virtual objects are installed in a real space, a method therefor and computer recordable medium storing program to perform the method}
본 발명은 증강 현실에 관한 것으로, 보다 상세하게는, 현실 공간에 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다.
증강 현실은 현실 세계에 컴퓨터 기술로 만든 가상물체 및 정보를 융합, 보완해 주는 기술을 말한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여준다. 1990년 보잉사의 항공기 전선 조립과정을 설명하는 데 처음 사용된 이후 미국과 일본을 중심으로 이에 대한 기술 연구개발이 진행되었다. 2000년대 중반 이후 스마트폰이 등장하고 활성화됨에 따라 이 기술을 적용하면서 주목받기 시작했다.
가상현실(VR: virtual reality) 기술이 컴퓨터그래픽이 만든 가상환경에 사용자를 몰입하도록 함으로써 실제 환경을 볼 수 없는 데 비해, 증강현실 기술은 실제 환경에 가상의 객체를 혼합하여 사용자가 실제 환경에서 보다 실감나는 부가정보를 제공받을 수 있다. 예를 들면 길을 가다 스마트폰 카메라로 주변을 비추면 근처에 있는 상점의 위치 및 전화번호, 지도 등의 정보가 입체영상으로 표시되고, 하늘을 비추면 날씨정보가 나타나는 등 다양한 분야에 적용되고 있다.
한편, 가상현실과 증강현실을 혼합한 기술은 혼합현실(MR: mixed reality)이라고 한다. MR은 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요해 아직 상용화되지는 않았다. VR과 AR, MR은 모두 실제로 존재하지 않는 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다.
한국공개특허 제2018-0109229호 2018년 10월 08일 공개 (명칭: 전자 장치에서 증강현실 기능 제공 방법 및 장치)
본 발명의 목적은 현실 공간에 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 객체 설치 시뮬레이션을 제공하기 위한 장치는 현실 공간을 스캔하기 위한 카메라부와, 카메라부가 촬영된 현실 공간을 표시하는 표시부와, 상기 카메라부를 통해 현실 공간이 스캔되면, 상기 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식한 후, 객체를 설치할 수 있는 평면을 활성화하고, 활성화된 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 상기 표시부를 통해 표시하는 제어부를 포함한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 객체 설치 시뮬레이션을 제공하기 위한 방법은 카메라부를 통해 현실 공간을 스캔하여, 상기 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식하는 단계와, 상기 평면상에서 객체를 설치할 수 있는 평면을 활성화하는 단계와, 활성화된 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 표시부를 통해 표시하는 단계를 포함한다.
본 발명의 다른 견지에 따르면, 전술한 바와 같은 본 발명의 바람직한 실시예에 따른 객체 설치 시뮬레이션을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 객체 설치 시뮬레이션을 제공하기 위한 장치는 현실 공간을 스캔하기 위한 카메라부와, 카메라부가 촬영된 현실 공간을 표시하는 표시부와, 상기 카메라부를 통해 현실 공간이 스캔되면, 상기 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식한 후, 객체를 설치할 수 있는 평면인 설치 가능 평면을 도출하고, 도출된 설치 가능 평면을 활성화하고, 활성화된 설치 가능 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 상기 표시부를 통해 표시하는 제어부를 포함한다.
상기 제어부는 상기 객체를 평면 상에 사영(projection)할 때 차지하는 면적인 객체의 수평 규격을 산출하고, 상기 현실 공간에 존재하는 평면 중 복수의 후보 평면을 구한 후, 상기 복수의 후보 평면 중 상기 객체의 수평 규격 보다 넓은 면적의 수평 규격을 가지는 후보 평면을 상기 설치 가능 평면으로 도출하는 것을 특징으로 한다.
상기 제어부는 상기 객체의 3D 모델의 콜라이더(Collider) 데이터 중 가로(x) 및 세로(y)의 길이를 이용하여 상기 객체의 수평 규격을 산출하는 것을 특징으로 한다.
상기 제어부는 상기 평면으로부터 복수의 특징점을 검출하고, 상기 복수의 특징점의 좌표를 도출하고, 상기 복수의 특징점의 좌표를 통해 복수의 평면을 도출하고, 복수의 평면 중 지표면에 수평하거나, 수직한 평면을 모두 후보 평면으로 도출하는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 증강현실장치의 객체 설치 시뮬레이션을 제공하기 위한 방법은 증강하고자 하는 객체가 선택되면, 선택된 객체를 평면 상에 사영(projection)할 때 차지하는 면적인 객체의 수평 규격을 산출하는 단계와, 현실 공간을 촬영하여 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식하는 단계와, 상기 객체의 수평 규격를 기초로 객체를 설치할 수 있는 평면인 설치 가능 평면을 도출하는 단계와, 상기 설치 가능 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 표시하는 단계를 포함하는 것을 특징으로 한다.
상기 객체의 수평 규격을 산출하는 단계는 상기 객체의 3D 모델의 콜라이더(Collider) 데이터 중 가로(x) 및 세로(y)의 길이를 이용하여 상기 객체의 수평 규격을 산출하는 것을 특징으로 한다.
상기 설치 가능 평면을 도출하는 단계는 상기 현실 공간에 존재하는 평면 중 복수의 후보 평면을 구한 후, 상기 복수의 후보 평면 중 상기 객체의 수평 규격 보다 넓은 면적의 수평 규격을 가지는 후보 평면을 상기 설치 가능 평면으로 도출하는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 다른 견지에 따르면, 전술한 본 발명의 실시예에 따른 증강 현실을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.
본 발명에 따르면, 현실 공간에 가상의 객체, 예컨대, 전주 등을 설치한 증강 현실을 제공함으로써, 작업자는 실제로 설치 작업이 이루어지기 전, 증강 현실을 통해 현실 공간에서의 환경과의 간섭 여부를 손쉽게 파악할 수 있다.
도 1은 본 발명의 실시예에 따른 현실 공간에 객체를 설치하는 증강 현실을 제공하기 위한 장치의 구성을 설명하기 위한 흐름도이다.
도 2는 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 화면 예이다.
도 4 내지 도 7은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 합성한 후, 수행되는 부가 기능을 설명하기 위한 화면 예이다.
도 8은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 실시예에 따른 가상의 객체의 수평 규격을 도출하는 방법을 설명하기 위한 도면이다.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다.
먼저, 본 발명의 실시예에 따른 현실 공간에 객체를 설치하는 증강 현실을 제공하기 위한 장치의 구성을 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 현실 공간에 객체를 설치하는 증강 현실을 제공하기 위한 장치의 구성을 설명하기 위한 흐름도이다. 도 1을 참조하면, 증강 현실을 제공하기 위한 장치(100: 이하, '증강현실장치'로 축약함)는 통신부(110), 카메라부(120), 입력부(130), 표시부(140), 저장부(150) 및 제어부(160)를 포함한다.
통신부(110)는 네트워크를 통해 서버(미도시)와 통신하기 위한 것이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 예컨대, 통신부(110)는 서버(미도시)로부터 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위해 필요한 데이터를 수신할 수 있다.
카메라부(110)는 이미지 센서를 포함하며, 이미지 센서는 피사체에서 반사되는 빛을 입력받아 전기신호로 변환하며, CCD(Charged Coupled Device), CMOS(Complementary Metal-Oxide Semiconductor) 등을 기반으로 구현될 수 있다. 카메라부(110)는 아날로그-디지털 변환기(Analog to Digital Converter)를 더 포함할 수 있으며, 이미지 센서에서 출력되는 전기신호를 디지털 수열로 변환하여 복수의 픽셀을 가지는 이미지를 출력한다. 이러한 이미지는 현실 공간의 영상을 스캔 및 촬영하기 위한 것이다.
또한, 카메라부(110)는 깊이 센서 혹은 3D 센서를 포함할 수 있다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 카메라부(110)는 이미지 센서를 통해 이미지를 생성함과 동시에 3D 센서를 통해 촬영된 이미지의 각 픽셀에 대응하는 3차원 좌표를 검출할 수 있다. 한다. 이에 따라, 3D 센서를 통해 각 이미지의 픽셀의 카메라부(110)의 기준점, 예컨대, 초점 혹은 주점으로부터 객체까지의 거리를 식별할 수 있다. 깊이 센서 혹은 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다.
입력부(130)는 증강현실장치(100)를 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(160)에 전달한다. 입력부(130)는 증강현실장치(100)를 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(130)는 표시부(140)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(140)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(130)는 생략될 수도 있다.
표시부(140)는 증강현실장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(140)는 증강현실장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 특히, 표시부(140)는 본 발명의 실시예에 따라 카메라부(120)가 촬영한 현실 공간, 평면 사용자가 선택한 가상의 객체 등을 화면으로 출력하는 기능을 수행한다. 이러한 표시부(140)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(140)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(140)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(160)로 전송한다. 특히, 표시부(140)가 터치스크린으로 이루어진 경우, 입력부(130) 기능의 일부 또는 전부는 표시부(140)를 통해 이루어질 수 있다.
저장부(150)는 증강현실장치(100)의 동작에 필요한 프로그램 및 데이터를 저장한다. 특히, 저장부(150)는 증강현실장치(100)의 사용에 따라 발생하는 사용자 데이터를 저장할 수 있다. 예컨대, 저장부(150)는 본 발명의 실시예에 따른 가상의 객체, 사용자가 저장할 것으로 선택한 증강 현실 화면 등을 저장할 수 있다. 저장부(150)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다.
제어부(160)는 증강현실장치(100)의 전반적인 동작 및 증강현실장치(100)의 내부 블록(110 내지 150)들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(160)는 중앙처리장치(CPU: Central Processing Unit), 그래픽처리장치(GPU: Graphic Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등이 될 수 있다. 제어부(160)는 카메라부(120)를 통해 현실 공간을 스캔하고, 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식한 후, 객체를 설치할 수 있는 평면을 활성화할 수 있다. 이에 따라, 사용자에 의해 활성화된 평면 중 소정의 위치가 선택되면, 제어부(160)는 입력부(130) 혹은 표시부(140)를 통해 사용자의 선택을 감지하고, 선택된 평면에 가상의 객체를 합성하여 표시부(140)를 통해 표시하도록 제어한다. 이러한 제어부(160)의 동작은 아래에서 더 상세하게 설명될 것이다.
다음으로, 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 방법에 대해서 설명하기로 한다. 도 2는 본 발명의 일 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 흐름도이다. 도 3은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 화면 예이다.
도 2를 참조하면, 먼저, 제어부(160)는 표시부(140)를 통해 선택 가능한 복수의 객체를 표시할 수 있다. 이러한 화면 예가 도 3의 (A)에 도시되었다. 예컨대, 제어부(160)는 표시부(140)를 통해 복수의 서로 다른 규격의 전주, 복수의 서로 다른 규격의 개폐기를 선택 가능하도록 제공할 수 있다. 이에 따라, 사용자는 복수의 객체 중 증강하고자 하는 객체를 입력부(130) 혹은 표시부(140)를 통해 선택할 수 있다. 제어부(160)는 S110 단계에서 입력부(130) 혹은 표시부(140)를 통해 사용자의 선택을 감지하고, 증강하고자 하는 객체를 선택한다. 이때, '직선형 전주 16M'이 선택되었다고 가정한다.
증강하고자 하는 객체를 선택한 후, 사용자는 증강현실장치(100)의 카메라부(120)를 통해 객체, 예컨대, 전주를 설치하고자 하는 현실 공간을 포커싱할 수 있다. 그러면, 제어부(160)는 S120 단계에서 카메라부(120)를 통해 포커싱된 실제 공간을 스캔하고, 실제 공간 상의 평면을 인식할 수 있다. 이러한 인식은 도 3의 (B)와 같이 클라우드 포인트를 통해 이루어진다.
이어서, 제어부(160)는 S130 단계에서 카메라부(120)를 통해 인식된 평면 중 선택 가능한 평면을 활성화하여 표시한다. 예컨대, 도 3의 (C)와 같이 복수의 클라우드 포인트 중 선택 가능한 평면에 대한 클라우드 포인트의 색 혹은 형상을 변경하여 선택 가능한 평면을 표시할 수 있다. 이에 따라, 사용자는 입력부(130) 및 표시부(140) 중 어느 하나를 통해 활성화된 평면에서 증강하고자 하는 객체를 설치할 위치를 선택할 수 있다.
제어부(160)는 S140 단계에서 입력부(130) 및 표시부(140) 중 어느 하나를 통해 사용자의 선택을 감지하여, 가상의 객체를 설치할 위치를 결정하고, S150 단계에서 결정된 위치에 객체를 합성하여 표시부를 통해 표시한다. 예컨대, 도 3의 (C)와 같은 화면에서 사용자가 선택한 위치가 S라고 하면, 도 3의 (D)와 같이, 앞서 선택된 객체, 즉, 전주를 해당 위치 S에 합성하여 표시한다.
한편, 본 발명의 실시예에 따르면, 전술한 바와 같이, 객체를 현실 공간에 합성한 후, 다양한 부가 기능을 제공할 수 있다. 도 4 내지 도 7은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 합성한 후, 수행되는 부가 기능을 설명하기 위한 화면 예이다.
도 4를 참조하는 본 발명의 일 실시예에 따르면, 현실 공간에 합성된 가상의 객체의 위치를 수정할 수 있다. 제어부(160)는 입력부(130) 및 표시부(140) 중 어느 하나를 통해 사용자의 선택을 감지하여, 가상의 객체의 위치를 수정할 수 있다. 즉, 제어부(160)는 입력부(130) 및 표시부(140) 중 어느 하나를 통해 사용자의 객체 위치를 수정하는 입력을 감지하면, 수정된 위치에 객체를 이동시켜 표시부(140)를 통해 표시한다. 예컨대, 도 4의 (가)와 같은 화면에서 사용자가 선택한 객체의 위치를 이동하는 입력을 하면, 도 4의 (나)와 같이, 객체의 위치를 이동시켜 표시할 수 있다.
도 5를 참조하는 본 발명의 다른 실시예에 따르면, 증강된 객체가 실제로 동작 가능한 경우, 해당 동작이 이루어지도록 조작하고, 이에 따라, 현실 공간과의 간섭이 있는지 여부를 파악할 수 있도록 한다. 제어부(160)는 동작 가능한 가상의 객체, 예컨대, 개폐기의 도어를 열거나, 닫는 동작을 수행시키고, 도어가 현실 공간상에서 간섭이 되는지 여부를 시뮬레이션 할 수 있다. 즉, 제어부(160)는 도 5의 (다)와 같이, 개폐기의 도어가 닫힌 상태에서 도 5의 (라)와 같이, 개폐기의 도어를 열어보는 시뮬레이션을 수행할 수 있으며, 이에 따라, 현실 공간에서 도어가 간섭이 되는지 여부를 사용자가 인지할 수 있도록 표시부(140)를 통해 표시할 수 있다.
도 6을 참조하는 본 발명의 다른 실시예에 따르면, 증강된 객체가 실제로 동작 가능한 경우, 해당 동작이 이루어지도록 조작하고, 이에 따라, 현실 공간과의 간섭이 있는지 여부를 파악할 수 있도록 한다. 제어부(160)는 동작 가능한 가상의 객체, 예컨대, 개폐기의 도어를 열거나, 닫는 동작을 수행시키고, 도어가 현실 공간상에서 간섭이 되는지 여부를 시뮬레이션 할 수 있다. 즉, 제어부(160)는 도 5의 (다)와 같이, 개폐기의 도어가 닫힌 상태에서 도 5의 (라)와 같이, 개폐기의 도어를 열어보는 시뮬레이션을 수행할 수 있으며, 이에 따라, 현실 공간에서 도어가 간섭이 되는지 여부를 사용자가 인지할 수 있도록 표시부(140)를 통해 표시할 수 있다.
도 7을 참조하는 본 발명의 다른 실시예에 따르면, 증강된 각도기 객체를 통해 현실 공간의 객체의 필요한 부분에 대한 각도를 도출할 수 있다. 도 7에 도시된 바와 같이, 제어부(160)는 사용자의 입력에 따라 현실 공간에 각도기 객체(P)를 설치할 수 있고, 설치된 각도기 객체(P)를 통해 객체(O1)에서 필요한 부분에 대한 각도(a)를 측정할 수 있다.
도 7을 참조하는 본 발명의 다른 실시예에 따르면, 증강된 줄자 객체를 통해 현실 공간의 객체의 필요한 부분에 대한 길이를 도출할 수 있다. 도 7의 (마) 및 (바)에 도시된 바와 같이, 제어부(160)는 사용자의 입력에 따라 현실 공간에 측정 길이를 설정할 수 있는 줄자(R)를 설치할 수 있고, 설치된 줄자(R)를 통해 현실 공간에 객체를 설치할 때, 간섭 여부 및 다른 객체와의 이격 거리 등을 측정할 수 있다.
또한, 본 발명의 실시예에 따르면, 표시부(140)를 통해 표시된 증강 현실 화면은 사용자의 선택에 따라, 캡처되어 이미지 파일로 생성될 수 있다. 또한, 제어부(160)는 사용자의 선택에 따라 이러한 이미지 파일을 통신부(110)를 통해 다른 장치로 전송할 수 있다.
다음으로, 본 발명의 다른 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 방법에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 현실 공간에 가상의 객체를 설치하는 증강현실을 제공하기 위한 방법을 설명하기 위한 흐름도이다. 도 9는 본 발명의 실시예에 따른 가상의 객체의 수평 규격을 도출하는 방법을 설명하기 위한 도면이다.
먼저, 도 3 및 도 8을 참조하면, 제어부(160)는 표시부(140)를 통해 선택 가능한 복수의 객체를 표시할 수 있다. 이러한 화면 예가 도 3의 (A)에 도시되었다. 예컨대, 제어부(160)는 표시부(140)를 통해 복수의 서로 다른 규격의 전주, 복수의 서로 다른 규격의 개폐기를 선택 가능하도록 제공할 수 있다. 이에 따라, 사용자는 복수의 객체 중 증강하고자 하는 객체를 입력부(130) 혹은 표시부(140)를 통해 선택할 수 있다. 제어부(160)는 S210 단계에서 입력부(130) 혹은 표시부(140)를 통해 사용자의 선택을 감지하고, 증강하고자 하는 객체를 선택한다. 예컨대, '직선형 전주 16M'이 선택될 수 있다.
객체가 선택되면, 제어부(160)는 선택된 객체의 수평 규격을 산출한다. 여기서, 객체의 수평 규격은 객체가 증강 현실 상에서 차지하는 수평면의 면적을 의미한다. 즉, 객체의 수평 규격은 객체를 평면에 사영했을 때 차지하는 면적을 나타낸다. 이러한 수평 규격은 선택된 객체의 3D 모델에 대한 콜라이더(Collider) 데이터로부터 얻어진다. 이러한 수평 규격은 산출하기 위해 제어부(160)는 S220 단계에서 선택된 객체의 3D 모델(OBJ)로부터 콜라이더 데이터를 추출한다. 도 9를 참조하면, 콜라이더 데이터는 객체의 3D 모델(OBJ)이 차지하는 영역을 모두 감싸는 직육면체 형상(COL)에 대한 규격이다. 이러한 콜라이더 데이터는 직육면체 형상(COL)의 가로(x), 세로(y) 및 높이(z)를 포함한다. 이어서, 제어부(160)는 S230 단계에서 추출된 콜라이더 데이터 중 가로(x) 및 세로(y)의 길이를 이용하여 가로(x) 및 세로(y)의 길이의 곱을 통해 객체의 수평 규격을 산출한다. 즉, 객체의 수평 규격은 직육면체 형상(COL)의 밑면의 넓이가 된다. 이러한 객체의 수평 규격은 해당 객체를 설치할 수 있는 평면을 도출하는 데에 사용된다.
한편, 사용자는 객체를 선택한 후, 증강현실장치(100)의 카메라부(120)를 통해 객체, 예컨대, 전주를 설치하고자 하는 현실 공간을 포커싱할 수 있다. 그러면, 제어부(160)는 S240 단계에서 카메라부(120)를 통해 포커싱된 실제 공간을 스캔하고, 실제 공간 상의 평면을 인식할 수 있다. 이러한 인식은 도 3의 (B)와 같이 클라우드 포인트를 통해 이루어진다.
이어서, 제어부(160)는 S250 단계에서 카메라부(120)를 통해 촬영된 영상에서 복수의 특징점을 인식한다. 여기서, 특징점은 영상에서 색이 급격하게 변화하는 부분이며, 제어부(160)는 영상의 각 픽셀의 픽셀값을 통해 픽셀 간의 색 차이를 비교하여 그 색의 차이가 색이 소정 수치 이상 변화하는 부분을 선별하여 특징점을 인식할 수 있다.
다음으로, 제어부(160)는 S260 단계에서 복수의 특징점의 거리 및 깊이를 측정하여 복수의 특징점의 좌표를 도출한다. 이때, 제어부(160)는 카메라부(120)의 3D 센서를 통해 복수의 특징점 간의 상대적인 거리 및 카메라부(120)의 초점 혹은 주점으로부터의 거리인 깊이를 측정하여 현실 공간의 축적을 기초로 가상공간의 축적을 적용하여 좌표계를 생성하고, 생성된 좌표계에 따라 특징점의 좌표를 도출할 수 있다.
이어서, 제어부(160)는 S270 단계에서 좌표계를 기초로 복수의 특징점을 연결한 복수의 평면을 형성하고, 형성된 복수의 평면 중 지면과 평행하거나, 수직인 평면들을 모두 후보 평면으로 도출하여 후보 평면 리스트를 생성한다. 이때, 후보 평면은 활성화되지 않는다.
이어서, 제어부(160)는 S280 단계에서 후보 평면 리스트에 포함된 복수의 후보 평면 각각의 수평 규격을 산출한다. 이때, 제어부(160)는 좌표계를 통해 각 후보 평면의 가로와 세로의 길이를 구하여 후보 평면의 수평 규격을 산출할 수 있다.
다음으로, 제어부(160)는 S290 단계에서 복수의 후보 평면 중 수평 규격이 객체의 수평 규격 보다 큰 후보 평면을 선별하여 선택 가능한 평면으로 선정한다.
즉, 객체의 수평 규격 보다 작은 수평 규격을 가지는 후보 평면에는 객체를 시공할 수 없기 때문에 수평 규격이 객체의 수평 규격 보다 큰 후보 평면을 선택 가능한 평면으로 선정한다.
이어서, 제어부(160)는 S300 단계에서 선택 가능한 평면을 활성화하여 표시부(140)를 통해 표시한다. 예컨대, 도 3의 (C)와 같이 복수의 클라우드 포인트 중 선택 가능한 평면에 대한 클라우드 포인트의 색 혹은 형상을 변경하여 선택 가능한 평면을 표시할 수 있다. 이에 따라, 사용자는 입력부(130) 및 표시부(140) 중 어느 하나를 통해 활성화된 평면에서 증강하고자 하는 객체를 설치할 위치를 선택할 수 있다.
제어부(160)는 S310 단계에서 입력부(130) 및 표시부(140) 중 어느 하나를 통해 사용자의 선택을 감지하여, 가상의 객체를 설치할 위치를 결정하고, S320 단계에서 결정된 위치에 객체를 합성하여 표시부를 통해 표시한다. 예컨대, 도 3의 (C)와 같은 화면에서 사용자가 선택한 위치가 S라고 하면, 도 3의 (D)와 같이, 앞서 선택된 객체, 즉, 전주를 해당 위치 S에 합성하여 표시한다.
한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
100: 증강현실장치
110: 통신부
120: 카메라부
130: 입력부
140: 표시부
150: 저장부
160: 제어부

Claims (8)

  1. 객체 설치 시뮬레이션을 제공하기 위한 장치에 있어서,
    현실 공간을 스캔하기 위한 카메라부;
    카메라부가 촬영된 현실 공간을 표시하는 표시부; 및
    상기 카메라부를 통해 현실 공간이 스캔되면, 상기 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식한 후, 객체를 설치할 수 있는 평면인 설치 가능 평면을 도출하고, 도출된 설치 가능 평면을 활성화하고, 활성화된 설치 가능 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 상기 표시부를 통해 표시하는 제어부;를 포함하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 장치.
  2. 제1항에 있어서,
    상기 제어부는
    상기 객체를 평면 상에 사영(projection)할 때 차지하는 면적인 객체의 수평 규격을 산출하고, 상기 현실 공간에 존재하는 평면 중 복수의 후보 평면을 구한 후, 상기 복수의 후보 평면 중 상기 객체의 수평 규격 보다 넓은 면적의 수평 규격을 가지는 후보 평면을 상기 설치 가능 평면으로 도출하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 장치.
  3. 제2항에 있어서,
    상기 제어부는
    상기 객체의 3D 모델의 콜라이더(Collider) 데이터 중 가로(x) 및 세로(y)의 길이를 이용하여 상기 객체의 수평 규격을 산출하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 장치.
  4. 제2항에 있어서,
    상기 제어부는
    상기 평면으로부터 복수의 특징점을 검출하고,
    상기 복수의 특징점의 좌표를 도출하고,
    상기 복수의 특징점의 좌표를 통해 복수의 평면을 도출하고,
    복수의 평면 중 지표면에 수평하거나, 수직한 평면을 모두 후보 평면으로 도출하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 장치.
  5. 증강현실장치의 객체 설치 시뮬레이션을 제공하기 위한 방법에 있어서,
    증강하고자 하는 객체가 선택되면, 선택된 객체를 평면 상에 사영(projection)할 때 차지하는 면적인 객체의 수평 규격을 산출하는 단계;
    현실 공간을 촬영하여 현실 공간에 존재하는 평면을 클라우드 포인트를 통해 인식하는 단계;
    상기 객체의 수평 규격를 기초로 객체를 설치할 수 있는 평면인 설치 가능 평면을 도출하는 단계; 및
    상기 설치 가능 평면 중 소정의 위치가 선택되면, 선택된 평면에 가상의 객체를 합성하여 표시하는 단계;를 포함하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 방법.
  6. 제5항에 있어서,
    상기 객체의 수평 규격을 산출하는 단계는
    상기 객체의 3D 모델의 콜라이더(Collider) 데이터 중 가로(x) 및 세로(y)의 길이를 이용하여 상기 객체의 수평 규격을 산출하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 방법.
  7. 제6항에 있어서,
    상기 설치 가능 평면을 도출하는 단계는
    상기 현실 공간에 존재하는 평면 중 복수의 후보 평면을 구한 후, 상기 복수의 후보 평면 중 상기 객체의 수평 규격 보다 넓은 면적의 수평 규격을 가지는 후보 평면을 상기 설치 가능 평면으로 도출하는 것을 특징으로 하는
    증강 현실을 제공하기 위한 방법.
  8. 제5항 내지 제7항 중 어느 한 항에 따른 증강 현실을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
KR1020180152733A 2018-10-16 2018-11-30 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 KR102162873B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180123309 2018-10-16
KR1020180123309 2018-10-16

Publications (2)

Publication Number Publication Date
KR20200042829A true KR20200042829A (ko) 2020-04-24
KR102162873B1 KR102162873B1 (ko) 2020-10-07

Family

ID=70466005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152733A KR102162873B1 (ko) 2018-10-16 2018-11-30 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체

Country Status (1)

Country Link
KR (1) KR102162873B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170081964A (ko) * 2016-01-05 2017-07-13 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
KR20180006698A (ko) * 2016-07-11 2018-01-19 (주)디지탈테크 영상 인식 기반의 동물 감지 장치
KR20180109229A (ko) 2017-03-27 2018-10-08 삼성전자주식회사 전자 장치에서 증강현실 기능 제공 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170081964A (ko) * 2016-01-05 2017-07-13 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
KR20180006698A (ko) * 2016-07-11 2018-01-19 (주)디지탈테크 영상 인식 기반의 동물 감지 장치
KR20180109229A (ko) 2017-03-27 2018-10-08 삼성전자주식회사 전자 장치에서 증강현실 기능 제공 방법 및 장치

Also Published As

Publication number Publication date
KR102162873B1 (ko) 2020-10-07

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
KR101330805B1 (ko) 증강 현실 제공 장치 및 방법
KR101295712B1 (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
KR101665399B1 (ko) 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법
CN113741698A (zh) 一种确定和呈现目标标记信息的方法与设备
KR20120015922A (ko) 비가시 객체에 대한 증강 현실 정보 제공 장치 및 방법
US20120027305A1 (en) Apparatus to provide guide for augmented reality object recognition and method thereof
US9683833B2 (en) Surveying apparatus having a range camera
JP2014170511A (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
KR20150072954A (ko) 증강현실 서비스를 제공하는 방법 및 장치
CN113052919A (zh) 一种视觉传感器的标定方法及装置、电子设备和存储介质
JP2023546739A (ja) シーンの3次元モデルを生成するための方法、装置、およびシステム
US11321864B1 (en) User guided mode for measurement purposes
KR101253644B1 (ko) 위치 정보를 이용한 증강 현실 콘텐츠 출력 장치 및 방법
KR101912241B1 (ko) 부동산의 3차원 형상에 관한 증강 현실 이미지를 제공하는 증강 현실 서비스 제공 장치 및 제공 방법
KR20200080378A (ko) 차량의 번호판 인식을 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR20130142533A (ko) 스마트폰 실측기
KR102162873B1 (ko) 현실 공간에 가상의 객체를 설치하는 증강 현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
WO2017126072A1 (ja) 画像認識システム、カメラ状態推定装置及び記憶媒体
WO2019198446A1 (ja) 検出装置、検出方法、情報処理装置、及び情報処理プログラム
CN114723923B (zh) 一种传动解决方案模拟展示系统和方法
CN109214482A (zh) 一种室内定位方法、装置、终端设备及存储介质
KR20160109828A (ko) 증강 현실 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant