KR102257846B1 - 입체 모델 생성 장치 및 그 영상 표시 방법 - Google Patents

입체 모델 생성 장치 및 그 영상 표시 방법 Download PDF

Info

Publication number
KR102257846B1
KR102257846B1 KR1020180123381A KR20180123381A KR102257846B1 KR 102257846 B1 KR102257846 B1 KR 102257846B1 KR 1020180123381 A KR1020180123381 A KR 1020180123381A KR 20180123381 A KR20180123381 A KR 20180123381A KR 102257846 B1 KR102257846 B1 KR 102257846B1
Authority
KR
South Korea
Prior art keywords
dimensional space
model
space model
image data
display
Prior art date
Application number
KR1020180123381A
Other languages
English (en)
Other versions
KR20200042782A (ko
Inventor
신승호
유연걸
전진수
임국찬
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180123381A priority Critical patent/KR102257846B1/ko
Publication of KR20200042782A publication Critical patent/KR20200042782A/ko
Application granted granted Critical
Publication of KR102257846B1 publication Critical patent/KR102257846B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Abstract

실시예에 따라 입체 모델 생성 장치에서 수행되는 영상 표시 방법은, 입체 공간 모델을 생성하는 단계와, 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와, 영상 데이터를 디스플레이에 표시하는 단계를 포함한다.

Description

입체 모델 생성 장치 및 그 영상 표시 방법{3D MODEL PRODUCING APPARATUS AND METHOD FOR DISPLAYING IMAGE THEREOF}
본 발명은 입체 공간 모델을 생성하는 장치 및 입체 공간 모델의 영상을 표시하는 방법에 관한 것이다.
침입감시 시스템에서 감시 카메라는 보안 레벨을 좌우하는 중요 요소이다. 이러한 침입감시 시스템에서 감시 카메라의 설치 위치를 결정할 때에는 작업자가 침입감시 대상지역에 방문하여 직관적으로 후보 위치를 결정하고, 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후, 후보 위치에 감시 카메라를 설치하고 있다.
이처럼 침입감시 대상지역에 감시 카메라를 설치할 때에는 침입감시 대상지역 내에 각종 시설이나 가구 등이 존재하는 경우가 다반사이기 때문에 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치에 감시 카메라를 설치하여야 한다.
하지만, 작업자가 감시 카메라를 설치하고자 하는 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후 감시 카메라를 설치한 경우에는 작업자와 감시 카메라의 시점이 정확히 일치하지 않을 뿐만 아니라 사람눈과 감시 카메라의 화각이 동일하지 않기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 선정하는 것은 어려운 일이다.
아울러, 설치된 감시 카메라의 촬영 영상을 확인한 후에 감시 카메라의 설치 위치가 음영지역을 최소화할 수 있는 최적 위치가 아니라고 판단한 경우에는 설치된 감시 카메라를 철거하여 다른 위치에 재설치하여야 하는 번거로움이 있다.
한국등록특허 제1572618호 (등록일 : 2015년 11월 23일)
일 실시예에 따르면, 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시하는 입체 모델 생성 장치 및 그 영상 표시 방법을 제공한다.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 제 1 관점에 따른, 입체 모델 생성 장치에서 수행되는 영상 표시 방법은, 입체 공간 모델을 생성하는 단계와, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와, 상기 영상 데이터를 디스플레이에 표시하는 단계를 포함한다.
본 발명의 제 2 관점에 따른, 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램은 상기 영상 표시 방법에 따른 각각의 단계를 수행한다.
본 발명의 제 3 관점에 따르면, 상기 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 컴퓨터 프로그램이 컴퓨터 판독 가능 기록매체에 기록된다.
본 발명의 제 4 관점에 따른, 입체 모델 생성 장치는, 제어부와, 상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고, 상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어한다.
본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.
도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에 의한 표시 화면의 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.
도 1에 나타낸 바와 같이 일 실시예에 따른 입체 모델 생성 장치(100)는 정보 획득부(110), 사용자 입력부(120), 제어부(130) 및 디스플레이부(140)를 포함한다. 예를 들어, 제어부(130)는 CPU(Central Processing Unit)를 포함할 수 있다.
정보 획득부(110)는 입체 공간 모델을 생성하기 위한 실제 공간에 대한 정보를 획득한다. 여기서, 정보 획득부(110)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드(point cloud)를 획득할 수 있다. 이러한 정보 획득부(110)는 도 1에 도시한 바와 같이 실제 공간을 레이저 스캐너로 스캐닝하여 포인트 클라우드를 획득하는 레이저 스캐너(111)를 일체로 포함할 수 있고, 실제 공간을 촬영하여 영상을 획득하는 카메라(112)를 일체로 포함할 수 있다. 또는, 정보 획득부(110)는 외부에 별개로 구비된 레이저 스캐너 및 카메라로부터 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받아 획득할 수도 있다.
사용자 입력부(120)는 입체 모델 생성 장치(100)의 사용자가 입체 모델 생성 장치(100)에 각종 명령을 입력하기 위한 인터페이스 수단이다. 예를 들어, 입체 모델 생성 장치(100)에 의해 생성된 입체 공간 모델 내에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시킬 특정 위치를 지정하는 사용자 인터렉션(interaction) 이벤트를 사용자 입력부(120)를 통해 제어부(130)에 입력할 수 있다. 예컨대, 복수의 가상 카메라를 위치시킬 복수의 위치를 지정할 수 있고, 동일 위치에 복수의 가상 카메라를 위치시킬 수도 있다. 여기서, 가상 카메라가 갖는 소정의 성능이라 함은 가상 카메라의 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등을 포함할 수 있다. 즉, 실제 카메라가 갖는 모든 성능이 가상 카메라에 설정될 수 있다. 이러한 가상 카메라의 성능 설정 값은 사용자 입력부(120)를 이용하는 사용자 인터렉션 이벤트를 통해 제어부(130)에 입력할 수 있다.
제어부(130)는 입체 공간 모델을 생성하고, 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하고, 생성된 영상 데이터를 디스플레이부(140)로 하여금 표시하도록 제어한다. 여기서, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 감지하고, 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다.
이러한 제어부(130)는 실제 공간에 대응하는 입체 공간 모델을 생성할 수 있다. 정보 획득부(110)에 의해 획득된 실제 공간의 영상과 실제 공간의 포인트 클라우드를 정합하여 정합 영상을 생성하고, 실제 공간에 위치하는 객체를 메쉬 모델로 생성하며, 메쉬 모델에 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성할 수 있다. 여기서, 제어부(130)가 입체 공간에 소정 객체를 배치할 수 있으며, 이 경우에, 입체 공간 모델에는 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다.
아울러, 제어부(130)는 입체 공간 모델에 대해 특정 위치에서 보이는 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악하고, 가시 영역이 구분되어 입체 공간 모델을 표시하도록 디스플레이부(140)를 제어할 수 있다. 예를 들어, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하도록 디스플레이부(140)를 제어함으로써, 입체 공간 모델 내에 가상 카메라에 의한 가시 영역이 구분되도록 디스플레이부(140)에 표시할 수 있다.
디스플레이부(140)는 제어부(130)의 제어에 따라 입체 공간 모델 및 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 시작적으로 표시한다.
도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.
이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 입체 모델 생성 장치(100)에서 수행되는 영상 표시 방법에 대해 자세히 살펴보기로 한다. 일 실시예에 따른 입체 모델 생성 장치(100)는 다양한 방법으로 입체 공간 모델을 생성할 수 있으나, 아래의 설명에서는 실제 공간에 대하여 획득된 정보에 기초하여 실제 공간에 대응하는 입체 공간 모델을 생성하는 예에 대해 설명하기로 한다.
먼저, 입체 모델 생성 장치(100)의 정보 획득부(110)는 입체 공간 모델을 생성하고자 하는 실제 공간에 대한 정보를 획득한다. 예를 들어, 정보 획득부(110)의 레이저 스캐너(111)는 실제 공간을 스캐닝하여 포인트 클라우드를 획득하고, 획득된 포인트 클라우드를 제어부(130)에 전달할 수 있다. 예컨대, 레이저 스캐너(111)로는 라이다(LiDAR: Light Detection And Ranging) 장비가 이용될 수 있다. 아울러, 정보 획득부(110)의 카메라(112)는 레이저 스캐너(111)가 스캐닝한 동일한 실제 공간을 촬영하여 영상을 획득하고, 획득된 영상을 제어부(130)에 전달할 수 있다. 또는, 정보 획득부(110)는 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받고, 입력된 실제 공간에 대한 포인트 클라우드 및 영상을 제어부(130)에 전달할 수도 있다(S210).
그러면, 제어부(130)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드를 정합하여 정합 영상을 생성한다. 예를 들어, 제어부(130)는 실제 공간에 배치된 마커를 인식하여 카메라 영상과 포인트 클라우드 간 관계 정보를 계산하고, 계산된 관계 정보를 기초로 정합 영상을 생성할 수 있다(S220).
이어서, 제어부(130)는 정보 획득부(110)에 의해 획득된 실제 공간에 대한 정보를 기초로 실제 공간에 대응하는 메쉬 모델을 생성하며(S230), 메쉬 모델에 단계 S220에서 생성한 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성한다(S240).
다음으로, 제어부(130)는 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하여야 한다. 이처럼, 제어부(130)가 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 이유는 이때 생성한 영상 데이터를 이후의 단계 S270에서 디스플레이에 표시할 수 있는데, 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문이다. 이를 위해, 제어부(130)는 입체 공간 모델 내의 기 설정된 하나 이상의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 또는, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치를 결정하고, 결정된 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수도 있다. 이를 위해, 제어부(130)는 디스플레이부(140)로 하여금 단계 S240에서 생성된 입체 공간 모델을 표시하도록 제어하고, 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트가 발생하지는 지를 감시한다. 여기서, 사용자는 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정해 주는 사용자 인터렉션 이벤트를 발생시켜서 입체 공간 모델 내의 특정 위치에 대한 정보를 제어부(130)에 제공할 수 있다. 예컨대, 마우스 등과 같은 좌표지정수단을 이용하여 디스플레이부(140)에 표시 중인 입체 공간 모델 내의 특정 위치의 좌표를 지정해 줄 수 있으며, 제어부(130)는 특정 위치의 좌표 지정 값을 사용자 인터렉션 이벤트로서 감지할 수 있다. 이로써, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 이때, 제어부(130)는 기 설정된 값에 기초하거나 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 예컨대, 가상 카메라의 성능(예로서, 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등)이 반영된 영상 데이터를 생성할 수 있다. 또한, 동일 위치에 복수의 가상 카메라를 위치시킨 경우라면 각 가상 카메라에 대응하는 영상 데이터를 생성할 수 있고, 이때 각 가상 카메라에 설정된 성능이 상이할 경우 동일 위치이지만 서로 다른 영상 데이터를 생성할 수 있다(S250).
아울러, 제어부(130)는 단계 S250에서 생성한 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악한다. 그리고, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 설정할 수 있다. 단계 S250에서 복수의 가상 카메라가 입체 공간 모델 내에 위치된 경우 각각의 가상 카메라에 의한 가시 영역들의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있으며, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있다(S260).
다음으로, 제어부(130)는 가시 영역이 구분된 입체 공간 모델과 단계 S250에서 생성된 영상 데이터 및 가상 카메라의 위치를 렌더링하도록 디스플레이부(140)를 제어한다. 이로써, 디스플레이부(140)는 제어부(130)의 제어에 따라 도 3에 예시한 바와 같이 입체 공간 모델(도 3의 왼쪽)과 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터(도 3의 오른쪽) 및 가상 카메라의 위치(도 3의 카메라 아이콘)를 시작적으로 표시한다. 예를 들어, 가상 카메라의 위치는 도 3에 예시한 바와 같이 아이콘 형태로 표시할 수 있으며, 기호 등을 이용하여 표시할 수도 있다. 이때, 입체 공간 모델 내의 특정 위치에 위치한 가상 카메라에 의한 가시 영역의 폴리곤이 도 4에 예시한 바와 같이 특정 색상으로 표시되어 입체 공간 모델의 다른 공간들과 구분될 수 있다. 아울러, 입체 공간 모델 내의 복수의 위치에 위치한 복수의 가상 카메라에 의한 가시 영역들의 폴리곤이 서로 다른 색상으로 식별 가능하게 표시될 수 있고, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 식별 가능하게 표시될 수 있다(S270).
한편, 제어부(130)는 입체 공간에 소정 객체를 배치할 수 있다. 예를 들어, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 대한 감지 결과를 기초로 입체 공간 모델 내에 소정 객체를 배치할 수 있다. 이 경우에, 입체 공간 모델에는 제어부(130)에 의해 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 제어부(130)에 의해 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다. 이는 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터는 해당 위치에 있는 가상 카메라에 의한 가시 영역에 대응하는 것이며, 입체 공간 모델 내에 배치된 소정 객체가 이미 배치되어 있는 다른 객체에 의해 가려져서 해당 위치에 있는 가상 카메라에 의한 가시 영역에 포함되지 않을 수 있기 때문이다.
아울러, 단계 S250에서 생성되는 입체 공간 모델 내의 특정 위치의 가상 공간 전경에 대응하는 영상 데이터는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 얼마든지 변경될 수 있다. 예를 들어, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 가상 공간 전경에 대응하는 영상 데이터를 생성할 특정 위치가 변경될 수 있고, 해당 위치의 가상 카메라에 대한 성능(예컨대, 화각 값, 화소수 값 등)이 변경될 수 있다.
이러한 입체 모델 생성 장치(100) 및 그 영상 표시 방법을 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에서 활용할 경우에, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 입체 공간 모델 내의 소정 객체(예컨대, 가구 등)의 위치를 변경하였을 때에 특정 위치의 가상 카메라에 의해 입체 공간 전경이 변화되는 것을 디스플레이부(140)를 통해 확인할 수 있다. 아울러, 실제 공간에 침입자가 발생한 상황에 대해 입체 공간 모델 내에 가상 침입자를 렌더링함으로써, 침입자의 동선을 특정 위치의 가상 카메라에 의한 입체 공간 전경을 통해 보여줄 수도 있다.
지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다.
이러한 본 발명은 가상현실(Virtual Reality)을 이용하는 다양한 산업분야에 이용할 수 있으며, 특히 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에 널리 이용할 수 있다.
100: 입체 모델 생성 장치
110: 정보 획득부
120: 사용자 입력부
130: 제어부
140: 디스플레이부

Claims (8)

  1. 입체 모델 생성 장치에서 수행되는 영상 표시 방법으로서,
    입체 공간 모델을 생성하는 단계와,
    상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와,
    상기 영상 데이터를 디스플레이에 표시하는 단계를 포함하고,
    상기 입체 공간 모델을 생성하는 단계는,
    실제 공간을 촬영하여 획득한 실제 공간의 영상과, 상기 실제 공간을 스캐닝하여 획득한 포인트 클라우드를 정합한 정합 영상을 이용하여 상기 입체 공간 모델을 생성하고,
    상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계에서,
    사용자와의 인터렉션 이벤트를 감지한 결과에 기초하여 상기 입체 공간 모델 내의 상기 특정 위치를 결정하고, 상기 결정된 특정 위치에서 보이는 상기 입체 공간의 전경에 대응하는 영상 데이터를 생성하고,
    상기 특정 위치에 소정의 성능을 갖도록 설정한 복수의 가상 카메라를 위치시키고, 상기 복수의 가상 카메라의 성능에 기초하여 서로 다른 복수의 상기 영상 데이터를 생성하는 영상 표시 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 입체 공간 모델은 실제 공간에 대한 정보를 기초로 상기 실제 공간에 대응하는 메쉬 모델을 생성하고, 상기 메쉬 모델에 상기 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성하고,
    상기 입체 공간에 소정 객체를 배치한 경우에, 상기 입체 공간 모델에는 상기 소정 객체에 대응하는 데이터가 추가되고, 상기 디스플레이에는 상기 입체 공간 모델 중 상기 소정 객체의 위치에 따라 상기 소정 객체가 표시될 수도 있지만 표시되지 않을 수도 있는
    영상 표시 방법.
  4. 제 1 항에 있어서,
    상기 입체 공간 모델에 대해 상기 영상 데이터에 대응되는 가시 영역을 파악하는 단계와,
    상기 입체 공간 모델을 상기 디스플레이에 표시하되, 상기 입체 공간 모델 중 상기 가시 영역이 구분되도록 상기 디스플레이에 표시하는 단계를 더 포함하는
    영상 표시 방법.
  5. 제 4 항에 있어서,
    상기 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하여 구분되는
    영상 표시 방법.
  6. 제 1 항, 제 3 항 내지 제 5 항 중 어느 한 항에 기재된 영상 표시 방법에 따른 각각의 단계를 수행하는
    컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
  7. 제 1 항, 제 3 항 내지 제 5 항 중 어느 한 항에 기재된 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는
    컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
  8. 제어부와,
    상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고,
    상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어하고,
    상기 제어부는 실제 공간을 촬영하여 획득한 실제 공간의 영상과, 상기 실제 공간을 스캐닝하여 획득한 포인트 클라우드를 정합하여 상기 입체 공간 모델을 생성하고,
    상기 제어부는 사용자와의 인터렉션 이벤트를 감지한 결과에 기초하여 상기 입체 공간 모델 내의 상기 특정 위치를 결정하고, 결정된 특정 위치에서 보이는 상기 입체 공간의 전경에 대응하는 영상 데이터를 생성하고,
    상기 제어부는, 상기 특정 위치에 소정의 성능을 갖도록 설정한 복수의 가상 카메라를 위치시키고, 상기 복수의 가상 카메라의 성능에 기초하여 서로 다른 복수의 상기 영상 데이터를 생성하는 입체 모델 생성 장치.
KR1020180123381A 2018-10-16 2018-10-16 입체 모델 생성 장치 및 그 영상 표시 방법 KR102257846B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180123381A KR102257846B1 (ko) 2018-10-16 2018-10-16 입체 모델 생성 장치 및 그 영상 표시 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180123381A KR102257846B1 (ko) 2018-10-16 2018-10-16 입체 모델 생성 장치 및 그 영상 표시 방법

Publications (2)

Publication Number Publication Date
KR20200042782A KR20200042782A (ko) 2020-04-24
KR102257846B1 true KR102257846B1 (ko) 2021-05-28

Family

ID=70466267

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180123381A KR102257846B1 (ko) 2018-10-16 2018-10-16 입체 모델 생성 장치 및 그 영상 표시 방법

Country Status (1)

Country Link
KR (1) KR102257846B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102317182B1 (ko) * 2020-11-25 2021-10-27 주식회사 리얼이매진 3차원 객체와 2차원 배경을 이용한 합성 이미지 생성 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181148A (ja) * 2015-03-24 2016-10-13 日本原子力防護システム株式会社 仮想監視画像作成システム、情報設定システム並びにシミュレーションシステム
JP2017084201A (ja) * 2015-10-30 2017-05-18 セコム株式会社 警備シミュレーション装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101841668B1 (ko) * 2012-02-15 2018-03-27 한국전자통신연구원 입체 모델 생성 장치 및 방법
KR101572618B1 (ko) 2014-10-16 2015-12-02 연세대학교 산학협력단 라이더 시뮬레이션 장치 및 방법
KR20160059246A (ko) * 2014-11-18 2016-05-26 (주)그린아이티코리아 통합관제를 위한 3차원 모델링 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181148A (ja) * 2015-03-24 2016-10-13 日本原子力防護システム株式会社 仮想監視画像作成システム、情報設定システム並びにシミュレーションシステム
JP2017084201A (ja) * 2015-10-30 2017-05-18 セコム株式会社 警備シミュレーション装置

Also Published As

Publication number Publication date
KR20200042782A (ko) 2020-04-24

Similar Documents

Publication Publication Date Title
JP6367102B2 (ja) 監視システム
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
EP3588456A1 (en) Image processing apparatus, image processing method, and program
EP3136204B1 (en) Image processing device and image processing method
JP5655134B2 (ja) 3次元シーンにおけるテクスチャを生成する方法及び装置
JP2018180655A5 (ko)
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP2018055644A5 (ja) 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
JP6126501B2 (ja) カメラ設置シミュレータ及びそのコンピュータプログラム
KR20140056748A (ko) 영상 처리 방법 및 영상 처리 장치
JP6712778B2 (ja) 物体検知装置、物体検知システムおよび物体検知方法
JP2007243509A (ja) 画像処理装置
KR102170749B1 (ko) 투명 디스플레이를 포함하는 전자 장치 및 제어 방법
JP5101429B2 (ja) 画像監視装置
KR102163389B1 (ko) 입체 모델 생성 방법 및 장치
KR102257846B1 (ko) 입체 모델 생성 장치 및 그 영상 표시 방법
TWI556651B (zh) 具攝影機自動調派功能之3d影像監控系統及其監控方法
JP6700845B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018042074A1 (en) A method, apparatus and computer program product for indicating a seam of an image in a corresponding area of a scene
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
JP2013065351A (ja) 画像処理装置および画像処理方法
EP3805899A1 (en) Head mounted display system and scene scanning method thereof
US20220244788A1 (en) Head-mounted display
JP2020088840A (ja) 監視装置、監視システム、監視方法、監視プログラム
JP6987902B2 (ja) 制御装置、制御方法及びプログラム

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant