KR20200042782A - 3d model producing apparatus and method for displaying image thereof - Google Patents
3d model producing apparatus and method for displaying image thereof Download PDFInfo
- Publication number
- KR20200042782A KR20200042782A KR1020180123381A KR20180123381A KR20200042782A KR 20200042782 A KR20200042782 A KR 20200042782A KR 1020180123381 A KR1020180123381 A KR 1020180123381A KR 20180123381 A KR20180123381 A KR 20180123381A KR 20200042782 A KR20200042782 A KR 20200042782A
- Authority
- KR
- South Korea
- Prior art keywords
- model
- display
- image data
- stereoscopic
- dimensional space
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 입체 공간 모델을 생성하는 장치 및 입체 공간 모델의 영상을 표시하는 방법에 관한 것이다.The present invention relates to an apparatus for generating a three-dimensional space model and a method for displaying an image of the three-dimensional space model.
침입감시 시스템에서 감시 카메라는 보안 레벨을 좌우하는 중요 요소이다. 이러한 침입감시 시스템에서 감시 카메라의 설치 위치를 결정할 때에는 작업자가 침입감시 대상지역에 방문하여 직관적으로 후보 위치를 결정하고, 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후, 후보 위치에 감시 카메라를 설치하고 있다.In an intrusion monitoring system, a surveillance camera is an important factor that determines the security level. When determining the installation location of the surveillance camera in such an intrusion monitoring system, an operator visits the intrusion monitoring target area and intuitively determines the candidate position, and visually confirms the foreground of the intrusion monitoring target area in the vicinity of the candidate position. Is installing a surveillance camera.
이처럼 침입감시 대상지역에 감시 카메라를 설치할 때에는 침입감시 대상지역 내에 각종 시설이나 가구 등이 존재하는 경우가 다반사이기 때문에 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치에 감시 카메라를 설치하여야 한다.When installing a surveillance camera in an intrusion monitoring target area, there are many facilities or furniture in the intrusion monitoring target area, so the surveillance camera is installed in an optimal location to minimize shadow areas that are not captured by the surveillance camera. shall.
하지만, 작업자가 감시 카메라를 설치하고자 하는 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후 감시 카메라를 설치한 경우에는 작업자와 감시 카메라의 시점이 정확히 일치하지 않을 뿐만 아니라 사람눈과 감시 카메라의 화각이 동일하지 않기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 선정하는 것은 어려운 일이다.However, if a worker installs a surveillance camera after visually checking the foreground of an intrusion monitoring area near a candidate location where a worker wants to install a surveillance camera, the viewpoints of the operator and the surveillance camera do not exactly match, and the human eye Since the angle of view of the surveillance cameras is not the same, it is difficult to select an optimal position to minimize the shaded area not captured by the surveillance cameras.
아울러, 설치된 감시 카메라의 촬영 영상을 확인한 후에 감시 카메라의 설치 위치가 음영지역을 최소화할 수 있는 최적 위치가 아니라고 판단한 경우에는 설치된 감시 카메라를 철거하여 다른 위치에 재설치하여야 하는 번거로움이 있다.In addition, if it is determined that the installation position of the surveillance camera is not the optimal position to minimize the shaded area after confirming the captured image of the installed surveillance camera, there is a hassle of removing the installed surveillance camera and reinstalling it to another location.
일 실시예에 따르면, 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시하는 입체 모델 생성 장치 및 그 영상 표시 방법을 제공한다.According to an embodiment, there is provided a stereoscopic model generating apparatus and an image display method for displaying a foreground view at a specific location in a virtual space of a stereoscopic space model as an image.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned will be clearly understood by a person having ordinary knowledge to which the present invention belongs from the following description.
본 발명의 제 1 관점에 따른, 입체 모델 생성 장치에서 수행되는 영상 표시 방법은, 입체 공간 모델을 생성하는 단계와, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와, 상기 영상 데이터를 디스플레이에 표시하는 단계를 포함한다.According to a first aspect of the present invention, an image display method performed by an apparatus for generating a stereoscopic model includes generating a stereoscopic spatial model and generating image data corresponding to a foreground of a stereoscopic space viewed from a specific location in the stereoscopic spatial model. And displaying the image data on a display.
본 발명의 제 2 관점에 따른, 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램은 상기 영상 표시 방법에 따른 각각의 단계를 수행한다.The computer program stored in the computer-readable recording medium according to the second aspect of the present invention performs each step according to the image display method.
본 발명의 제 3 관점에 따르면, 상기 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 컴퓨터 프로그램이 컴퓨터 판독 가능 기록매체에 기록된다.According to a third aspect of the present invention, a computer program including instructions for performing each step according to the image display method is recorded on a computer-readable recording medium.
본 발명의 제 4 관점에 따른, 입체 모델 생성 장치는, 제어부와, 상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고, 상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어한다.According to a fourth aspect of the present invention, an apparatus for generating a stereoscopic model includes a control unit and a display unit displaying image data under the control of the control unit, wherein the control unit generates a stereoscopic spatial model and is within the stereoscopic spatial model. Image data corresponding to a foreground of a stereoscopic space viewed from a specific location is generated, and the display unit is controlled to display the image data.
본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.According to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image. If this is used when installing a surveillance camera in an intrusion monitoring target area, it is possible to freely install a virtual surveillance camera in the virtual space of the three-dimensional space model, so that the foreground that can be photographed by the surveillance camera can be checked, and thus is not captured by the surveillance camera. It is easy to select the optimal location to minimize shadow areas. In addition, if a plurality of virtual surveillance cameras are installed at the same location in the virtual space of the three-dimensional space model and the performance of each surveillance camera is set to be different from each other, the performance of the multiple surveillance cameras can be compared while checking the performance of the surveillance cameras at once.
도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에 의한 표시 화면의 예시도이다.1 is a block diagram of a three-dimensional model generating apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image display method performed in a stereoscopic model generating apparatus according to an embodiment of the present invention.
3 and 4 are exemplary views of a display screen by a three-dimensional model generating apparatus according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments allow the disclosure of the present invention to be complete, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of known functions or configurations will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.1 is a block diagram of a three-dimensional model generating apparatus according to an embodiment of the present invention.
도 1에 나타낸 바와 같이 일 실시예에 따른 입체 모델 생성 장치(100)는 정보 획득부(110), 사용자 입력부(120), 제어부(130) 및 디스플레이부(140)를 포함한다. 예를 들어, 제어부(130)는 CPU(Central Processing Unit)를 포함할 수 있다.As shown in FIG. 1, the three-dimensional
정보 획득부(110)는 입체 공간 모델을 생성하기 위한 실제 공간에 대한 정보를 획득한다. 여기서, 정보 획득부(110)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드(point cloud)를 획득할 수 있다. 이러한 정보 획득부(110)는 도 1에 도시한 바와 같이 실제 공간을 레이저 스캐너로 스캐닝하여 포인트 클라우드를 획득하는 레이저 스캐너(111)를 일체로 포함할 수 있고, 실제 공간을 촬영하여 영상을 획득하는 카메라(112)를 일체로 포함할 수 있다. 또는, 정보 획득부(110)는 외부에 별개로 구비된 레이저 스캐너 및 카메라로부터 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받아 획득할 수도 있다.The
사용자 입력부(120)는 입체 모델 생성 장치(100)의 사용자가 입체 모델 생성 장치(100)에 각종 명령을 입력하기 위한 인터페이스 수단이다. 예를 들어, 입체 모델 생성 장치(100)에 의해 생성된 입체 공간 모델 내에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시킬 특정 위치를 지정하는 사용자 인터렉션(interaction) 이벤트를 사용자 입력부(120)를 통해 제어부(130)에 입력할 수 있다. 예컨대, 복수의 가상 카메라를 위치시킬 복수의 위치를 지정할 수 있고, 동일 위치에 복수의 가상 카메라를 위치시킬 수도 있다. 여기서, 가상 카메라가 갖는 소정의 성능이라 함은 가상 카메라의 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등을 포함할 수 있다. 즉, 실제 카메라가 갖는 모든 성능이 가상 카메라에 설정될 수 있다. 이러한 가상 카메라의 성능 설정 값은 사용자 입력부(120)를 이용하는 사용자 인터렉션 이벤트를 통해 제어부(130)에 입력할 수 있다.The
제어부(130)는 입체 공간 모델을 생성하고, 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하고, 생성된 영상 데이터를 디스플레이부(140)로 하여금 표시하도록 제어한다. 여기서, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 감지하고, 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다.The
이러한 제어부(130)는 실제 공간에 대응하는 입체 공간 모델을 생성할 수 있다. 정보 획득부(110)에 의해 획득된 실제 공간의 영상과 실제 공간의 포인트 클라우드를 정합하여 정합 영상을 생성하고, 실제 공간에 위치하는 객체를 메쉬 모델로 생성하며, 메쉬 모델에 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성할 수 있다. 여기서, 제어부(130)가 입체 공간에 소정 객체를 배치할 수 있으며, 이 경우에, 입체 공간 모델에는 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다.The
아울러, 제어부(130)는 입체 공간 모델에 대해 특정 위치에서 보이는 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악하고, 가시 영역이 구분되어 입체 공간 모델을 표시하도록 디스플레이부(140)를 제어할 수 있다. 예를 들어, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하도록 디스플레이부(140)를 제어함으로써, 입체 공간 모델 내에 가상 카메라에 의한 가시 영역이 구분되도록 디스플레이부(140)에 표시할 수 있다.In addition, the
디스플레이부(140)는 제어부(130)의 제어에 따라 입체 공간 모델 및 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 시작적으로 표시한다.Under the control of the
도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an image display method performed in a stereoscopic model generating apparatus according to an embodiment of the present invention.
이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 입체 모델 생성 장치(100)에서 수행되는 영상 표시 방법에 대해 자세히 살펴보기로 한다. 일 실시예에 따른 입체 모델 생성 장치(100)는 다양한 방법으로 입체 공간 모델을 생성할 수 있으나, 아래의 설명에서는 실제 공간에 대하여 획득된 정보에 기초하여 실제 공간에 대응하는 입체 공간 모델을 생성하는 예에 대해 설명하기로 한다.Hereinafter, an image display method performed in the stereoscopic
먼저, 입체 모델 생성 장치(100)의 정보 획득부(110)는 입체 공간 모델을 생성하고자 하는 실제 공간에 대한 정보를 획득한다. 예를 들어, 정보 획득부(110)의 레이저 스캐너(111)는 실제 공간을 스캐닝하여 포인트 클라우드를 획득하고, 획득된 포인트 클라우드를 제어부(130)에 전달할 수 있다. 예컨대, 레이저 스캐너(111)로는 라이다(LiDAR: Light Detection And Ranging) 장비가 이용될 수 있다. 아울러, 정보 획득부(110)의 카메라(112)는 레이저 스캐너(111)가 스캐닝한 동일한 실제 공간을 촬영하여 영상을 획득하고, 획득된 영상을 제어부(130)에 전달할 수 있다. 또는, 정보 획득부(110)는 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받고, 입력된 실제 공간에 대한 포인트 클라우드 및 영상을 제어부(130)에 전달할 수도 있다(S210).First, the
그러면, 제어부(130)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드를 정합하여 정합 영상을 생성한다. 예를 들어, 제어부(130)는 실제 공간에 배치된 마커를 인식하여 카메라 영상과 포인트 클라우드 간 관계 정보를 계산하고, 계산된 관계 정보를 기초로 정합 영상을 생성할 수 있다(S220).Then, the
이어서, 제어부(130)는 정보 획득부(110)에 의해 획득된 실제 공간에 대한 정보를 기초로 실제 공간에 대응하는 메쉬 모델을 생성하며(S230), 메쉬 모델에 단계 S220에서 생성한 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성한다(S240).Subsequently, the
다음으로, 제어부(130)는 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하여야 한다. 이처럼, 제어부(130)가 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 이유는 이때 생성한 영상 데이터를 이후의 단계 S270에서 디스플레이에 표시할 수 있는데, 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문이다. 이를 위해, 제어부(130)는 입체 공간 모델 내의 기 설정된 하나 이상의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 또는, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치를 결정하고, 결정된 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수도 있다. 이를 위해, 제어부(130)는 디스플레이부(140)로 하여금 단계 S240에서 생성된 입체 공간 모델을 표시하도록 제어하고, 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트가 발생하지는 지를 감시한다. 여기서, 사용자는 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정해 주는 사용자 인터렉션 이벤트를 발생시켜서 입체 공간 모델 내의 특정 위치에 대한 정보를 제어부(130)에 제공할 수 있다. 예컨대, 마우스 등과 같은 좌표지정수단을 이용하여 디스플레이부(140)에 표시 중인 입체 공간 모델 내의 특정 위치의 좌표를 지정해 줄 수 있으며, 제어부(130)는 특정 위치의 좌표 지정 값을 사용자 인터렉션 이벤트로서 감지할 수 있다. 이로써, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 이때, 제어부(130)는 기 설정된 값에 기초하거나 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 예컨대, 가상 카메라의 성능(예로서, 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등)이 반영된 영상 데이터를 생성할 수 있다. 또한, 동일 위치에 복수의 가상 카메라를 위치시킨 경우라면 각 가상 카메라에 대응하는 영상 데이터를 생성할 수 있고, 이때 각 가상 카메라에 설정된 성능이 상이할 경우 동일 위치이지만 서로 다른 영상 데이터를 생성할 수 있다(S250).Next, the
아울러, 제어부(130)는 단계 S250에서 생성한 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악한다. 그리고, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 설정할 수 있다. 단계 S250에서 복수의 가상 카메라가 입체 공간 모델 내에 위치된 경우 각각의 가상 카메라에 의한 가시 영역들의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있으며, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있다(S260).In addition, the
다음으로, 제어부(130)는 가시 영역이 구분된 입체 공간 모델과 단계 S250에서 생성된 영상 데이터 및 가상 카메라의 위치를 렌더링하도록 디스플레이부(140)를 제어한다. 이로써, 디스플레이부(140)는 제어부(130)의 제어에 따라 도 3에 예시한 바와 같이 입체 공간 모델(도 3의 왼쪽)과 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터(도 3의 오른쪽) 및 가상 카메라의 위치(도 3의 카메라 아이콘)를 시작적으로 표시한다. 예를 들어, 가상 카메라의 위치는 도 3에 예시한 바와 같이 아이콘 형태로 표시할 수 있으며, 기호 등을 이용하여 표시할 수도 있다. 이때, 입체 공간 모델 내의 특정 위치에 위치한 가상 카메라에 의한 가시 영역의 폴리곤이 도 4에 예시한 바와 같이 특정 색상으로 표시되어 입체 공간 모델의 다른 공간들과 구분될 수 있다. 아울러, 입체 공간 모델 내의 복수의 위치에 위치한 복수의 가상 카메라에 의한 가시 영역들의 폴리곤이 서로 다른 색상으로 식별 가능하게 표시될 수 있고, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 식별 가능하게 표시될 수 있다(S270).Next, the
한편, 제어부(130)는 입체 공간에 소정 객체를 배치할 수 있다. 예를 들어, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 대한 감지 결과를 기초로 입체 공간 모델 내에 소정 객체를 배치할 수 있다. 이 경우에, 입체 공간 모델에는 제어부(130)에 의해 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 제어부(130)에 의해 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다. 이는 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터는 해당 위치에 있는 가상 카메라에 의한 가시 영역에 대응하는 것이며, 입체 공간 모델 내에 배치된 소정 객체가 이미 배치되어 있는 다른 객체에 의해 가려져서 해당 위치에 있는 가상 카메라에 의한 가시 영역에 포함되지 않을 수 있기 때문이다.Meanwhile, the
아울러, 단계 S250에서 생성되는 입체 공간 모델 내의 특정 위치의 가상 공간 전경에 대응하는 영상 데이터는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 얼마든지 변경될 수 있다. 예를 들어, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 가상 공간 전경에 대응하는 영상 데이터를 생성할 특정 위치가 변경될 수 있고, 해당 위치의 가상 카메라에 대한 성능(예컨대, 화각 값, 화소수 값 등)이 변경될 수 있다.In addition, the image data corresponding to the virtual space foreground at a specific location in the three-dimensional space model generated in step S250 may be changed to any number of user interaction events through the
이러한 입체 모델 생성 장치(100) 및 그 영상 표시 방법을 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에서 활용할 경우에, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 입체 공간 모델 내의 소정 객체(예컨대, 가구 등)의 위치를 변경하였을 때에 특정 위치의 가상 카메라에 의해 입체 공간 전경이 변화되는 것을 디스플레이부(140)를 통해 확인할 수 있다. 아울러, 실제 공간에 침입자가 발생한 상황에 대해 입체 공간 모델 내에 가상 침입자를 렌더링함으로써, 침입자의 동선을 특정 위치의 가상 카메라에 의한 입체 공간 전경을 통해 보여줄 수도 있다.When the stereoscopic
지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.As described so far, according to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image. If this is used when installing a surveillance camera in an intrusion monitoring target area, it is possible to freely install a virtual surveillance camera in the virtual space of the three-dimensional space model, so that the foreground that can be photographed by the surveillance camera can be checked, and thus is not captured by the surveillance camera. It is easy to select the optimal location to minimize shadow areas. In addition, if a plurality of virtual surveillance cameras are installed at the same location in the virtual space of the three-dimensional space model and the performance of each surveillance camera is set to be different from each other, the performance of the multiple surveillance cameras can be compared while checking the performance of the surveillance cameras at once.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed through the processor of a computer or other programmable data processing equipment are described in each step of the flowchart. It creates a means to do them. These computer program instructions can also be stored on a computer-readable or computer-readable recording medium that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular manner, so that it is computer- or computer-readable. It is also possible for the instructions stored in the recording medium to produce an article of manufacture containing instructions means for performing the functions described in each step of the flowchart. Since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable data. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments it is also possible that the functions mentioned in the steps occur out of order. For example, the two steps shown in succession may in fact be performed substantially simultaneously, or it is also possible that the steps are sometimes performed in reverse order depending on the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다.According to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image.
이러한 본 발명은 가상현실(Virtual Reality)을 이용하는 다양한 산업분야에 이용할 수 있으며, 특히 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에 널리 이용할 수 있다.The present invention can be used in a variety of industries using virtual reality (Virtual Reality), in particular, it can be widely used in the security field to provide intrusion monitoring service using virtual reality.
100: 입체 모델 생성 장치
110: 정보 획득부
120: 사용자 입력부
130: 제어부
140: 디스플레이부100: three-dimensional model generating device
110: information acquisition unit
120: user input
130: control unit
140: display unit
Claims (8)
입체 공간 모델을 생성하는 단계와,
상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와,
상기 영상 데이터를 디스플레이에 표시하는 단계를 포함하는
영상 표시 방법.As an image display method performed in the stereoscopic model generating apparatus,
Generating a three-dimensional spatial model,
Generating image data corresponding to a foreground of a stereoscopic space viewed from a specific location in the stereoscopic spatial model;
And displaying the image data on a display.
How to display video.
상기 영상 데이터를 생성하는 단계는, 상기 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 상기 가상 카메라의 성능에 기초하여 상기 영상 데이터를 생성하는
영상 표시 방법.According to claim 1,
In the generating of the image data, a virtual camera set to have a predetermined performance is positioned at the specific location, and the image data is generated based on the performance of the virtual camera.
How to display video.
상기 입체 공간 모델은 실제 공간에 대한 정보를 기초로 생성하고,
상기 입체 공간에 소정 객체를 배치한 경우에, 상기 입체 공간 모델에는 상기 소정 객체에 대응하는 데이터가 추가되고, 상기 디스플레이에는 상기 입체 공간 모델 중 상기 소정 객체의 위치에 따라 상기 소정 객체가 표시될 수도 있지만 표시되지 않을 수도 있는
영상 표시 방법.According to claim 1,
The three-dimensional space model is generated based on information about the real space,
When a predetermined object is placed in the stereoscopic space, data corresponding to the predetermined object is added to the stereoscopic space model, and the predetermined object may be displayed on the display according to the position of the predetermined object in the stereoscopic space model. But may not be displayed
How to display video.
상기 입체 공간 모델에 대해 상기 영상 데이터에 대응되는 가시 영역을 파악하는 단계와,
상기 입체 공간 모델을 상기 디스플레이에 표시하되, 상기 입체 공간 모델 중 상기 가시 영역이 구분되도록 상기 디스플레이에 표시하는 단계를 더 포함하는
영상 표시 방법.According to claim 1,
Identifying a visible area corresponding to the image data with respect to the stereoscopic space model;
Displaying the three-dimensional space model on the display, and further comprising displaying the three-dimensional space model on the display such that the visible area is distinguished.
How to display video.
상기 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하여 구분되는
영상 표시 방법.The method of claim 4,
The visible area is divided by rendering a polygon with a specific color.
How to display video.
컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.Performing each step according to the image display method according to any one of claims 1 to 5
A computer program stored on a computer readable recording medium.
컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.Claim 1 to 5 comprising instructions for performing each step according to the image display method according to any one of claims
A computer-readable recording medium in which a computer program is recorded.
상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고,
상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어하는
입체 모델 생성 장치.
A control unit,
It includes a display unit for displaying the image data under the control of the control unit,
The control unit generates a three-dimensional space model, generates image data corresponding to a foreground of a three-dimensional space seen from a specific location in the three-dimensional space model, and controls the display unit to display the image data
Three-dimensional model generating device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180123381A KR102257846B1 (en) | 2018-10-16 | 2018-10-16 | 3d model producing apparatus and method for displaying image thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180123381A KR102257846B1 (en) | 2018-10-16 | 2018-10-16 | 3d model producing apparatus and method for displaying image thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200042782A true KR20200042782A (en) | 2020-04-24 |
KR102257846B1 KR102257846B1 (en) | 2021-05-28 |
Family
ID=70466267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180123381A KR102257846B1 (en) | 2018-10-16 | 2018-10-16 | 3d model producing apparatus and method for displaying image thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102257846B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102317182B1 (en) * | 2020-11-25 | 2021-10-27 | 주식회사 리얼이매진 | Apparatus for generating composite image using 3d object and 2d background |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130094015A (en) * | 2012-02-15 | 2013-08-23 | 한국전자통신연구원 | Apparatus and method for producing 3d model |
KR101572618B1 (en) | 2014-10-16 | 2015-12-02 | 연세대학교 산학협력단 | Apparatus and method for simulating lidar |
KR20160059246A (en) * | 2014-11-18 | 2016-05-26 | (주)그린아이티코리아 | 3D modeling system for integrated monitoring |
JP2016181148A (en) * | 2015-03-24 | 2016-10-13 | 日本原子力防護システム株式会社 | Virtual monitoring image creation system, information setting system, and simulation system |
JP2017084201A (en) * | 2015-10-30 | 2017-05-18 | セコム株式会社 | Guard simulation device |
-
2018
- 2018-10-16 KR KR1020180123381A patent/KR102257846B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130094015A (en) * | 2012-02-15 | 2013-08-23 | 한국전자통신연구원 | Apparatus and method for producing 3d model |
KR101572618B1 (en) | 2014-10-16 | 2015-12-02 | 연세대학교 산학협력단 | Apparatus and method for simulating lidar |
KR20160059246A (en) * | 2014-11-18 | 2016-05-26 | (주)그린아이티코리아 | 3D modeling system for integrated monitoring |
JP2016181148A (en) * | 2015-03-24 | 2016-10-13 | 日本原子力防護システム株式会社 | Virtual monitoring image creation system, information setting system, and simulation system |
JP2017084201A (en) * | 2015-10-30 | 2017-05-18 | セコム株式会社 | Guard simulation device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102317182B1 (en) * | 2020-11-25 | 2021-10-27 | 주식회사 리얼이매진 | Apparatus for generating composite image using 3d object and 2d background |
Also Published As
Publication number | Publication date |
---|---|
KR102257846B1 (en) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5740884B2 (en) | AR navigation for repeated shooting and system, method and program for difference extraction | |
EP3588456A1 (en) | Image processing apparatus, image processing method, and program | |
JP5655134B2 (en) | Method and apparatus for generating texture in 3D scene | |
JP2018180655A5 (en) | ||
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP5799273B2 (en) | Dimension measuring device, dimension measuring method, dimension measuring system, program | |
JP6310149B2 (en) | Image generation apparatus, image generation system, and image generation method | |
JP7073092B2 (en) | Image processing equipment, image processing methods and programs | |
JP6126501B2 (en) | Camera installation simulator and its computer program | |
CN108629799B (en) | Method and equipment for realizing augmented reality | |
WO2019163212A1 (en) | Monitoring system and control method for monitoring system | |
JP5101429B2 (en) | Image monitoring device | |
KR101652594B1 (en) | Apparatus and method for providingaugmented reality contentents | |
JP2007243509A (en) | Image processing device | |
KR20110088995A (en) | Method and system to visualize surveillance camera videos within 3d models, and program recording medium | |
KR102163389B1 (en) | 3d model producing method and apparatus | |
KR20150064761A (en) | Electro device comprising transparent display and method for controlling thereof | |
JP6700845B2 (en) | Information processing apparatus, information processing method, and program | |
KR102257846B1 (en) | 3d model producing apparatus and method for displaying image thereof | |
KR20160073491A (en) | Interactive progress monitoring system using mobile terminal and user interface of the mobile terminal | |
JP6132246B2 (en) | Dimension measurement method | |
US20220366673A1 (en) | Point cloud data processing apparatus, point cloud data processing method, and program | |
KR101817756B1 (en) | PTM making system based on 3D model with interactive viewpoint control and method using the same | |
CA2956492A1 (en) | A method, mobile device and computer program for substituting a furnishing covering surface of in an image | |
JP2020088840A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |