KR20200042782A - 3d model producing apparatus and method for displaying image thereof - Google Patents

3d model producing apparatus and method for displaying image thereof Download PDF

Info

Publication number
KR20200042782A
KR20200042782A KR1020180123381A KR20180123381A KR20200042782A KR 20200042782 A KR20200042782 A KR 20200042782A KR 1020180123381 A KR1020180123381 A KR 1020180123381A KR 20180123381 A KR20180123381 A KR 20180123381A KR 20200042782 A KR20200042782 A KR 20200042782A
Authority
KR
South Korea
Prior art keywords
model
display
image data
stereoscopic
dimensional space
Prior art date
Application number
KR1020180123381A
Other languages
Korean (ko)
Other versions
KR102257846B1 (en
Inventor
신승호
유연걸
전진수
임국찬
조익환
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180123381A priority Critical patent/KR102257846B1/en
Publication of KR20200042782A publication Critical patent/KR20200042782A/en
Application granted granted Critical
Publication of KR102257846B1 publication Critical patent/KR102257846B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to an embodiment of the present invention, an image display method performed in a three-dimensional model generating device comprises the steps of: generating a three-dimensional space model; generating image data corresponding to a foreground of a three-dimensional space viewed from a specific position in the three-dimensional space model; and displaying image data on a display.

Description

입체 모델 생성 장치 및 그 영상 표시 방법{3D MODEL PRODUCING APPARATUS AND METHOD FOR DISPLAYING IMAGE THEREOF}3D model generating device and its image display method {3D MODEL PRODUCING APPARATUS AND METHOD FOR DISPLAYING IMAGE THEREOF}

본 발명은 입체 공간 모델을 생성하는 장치 및 입체 공간 모델의 영상을 표시하는 방법에 관한 것이다.The present invention relates to an apparatus for generating a three-dimensional space model and a method for displaying an image of the three-dimensional space model.

침입감시 시스템에서 감시 카메라는 보안 레벨을 좌우하는 중요 요소이다. 이러한 침입감시 시스템에서 감시 카메라의 설치 위치를 결정할 때에는 작업자가 침입감시 대상지역에 방문하여 직관적으로 후보 위치를 결정하고, 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후, 후보 위치에 감시 카메라를 설치하고 있다.In an intrusion monitoring system, a surveillance camera is an important factor that determines the security level. When determining the installation location of the surveillance camera in such an intrusion monitoring system, an operator visits the intrusion monitoring target area and intuitively determines the candidate position, and visually confirms the foreground of the intrusion monitoring target area in the vicinity of the candidate position. Is installing a surveillance camera.

이처럼 침입감시 대상지역에 감시 카메라를 설치할 때에는 침입감시 대상지역 내에 각종 시설이나 가구 등이 존재하는 경우가 다반사이기 때문에 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치에 감시 카메라를 설치하여야 한다.When installing a surveillance camera in an intrusion monitoring target area, there are many facilities or furniture in the intrusion monitoring target area, so the surveillance camera is installed in an optimal location to minimize shadow areas that are not captured by the surveillance camera. shall.

하지만, 작업자가 감시 카메라를 설치하고자 하는 후보 위치의 근처에서 목시적으로 침입감시 대상지역의 전경을 확인한 후 감시 카메라를 설치한 경우에는 작업자와 감시 카메라의 시점이 정확히 일치하지 않을 뿐만 아니라 사람눈과 감시 카메라의 화각이 동일하지 않기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 선정하는 것은 어려운 일이다.However, if a worker installs a surveillance camera after visually checking the foreground of an intrusion monitoring area near a candidate location where a worker wants to install a surveillance camera, the viewpoints of the operator and the surveillance camera do not exactly match, and the human eye Since the angle of view of the surveillance cameras is not the same, it is difficult to select an optimal position to minimize the shaded area not captured by the surveillance cameras.

아울러, 설치된 감시 카메라의 촬영 영상을 확인한 후에 감시 카메라의 설치 위치가 음영지역을 최소화할 수 있는 최적 위치가 아니라고 판단한 경우에는 설치된 감시 카메라를 철거하여 다른 위치에 재설치하여야 하는 번거로움이 있다.In addition, if it is determined that the installation position of the surveillance camera is not the optimal position to minimize the shaded area after confirming the captured image of the installed surveillance camera, there is a hassle of removing the installed surveillance camera and reinstalling it to another location.

한국등록특허 제1572618호 (등록일 : 2015년 11월 23일)Korean Registered Patent No. 1572618 (Registration Date: November 23, 2015)

일 실시예에 따르면, 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시하는 입체 모델 생성 장치 및 그 영상 표시 방법을 제공한다.According to an embodiment, there is provided a stereoscopic model generating apparatus and an image display method for displaying a foreground view at a specific location in a virtual space of a stereoscopic space model as an image.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned will be clearly understood by a person having ordinary knowledge to which the present invention belongs from the following description.

본 발명의 제 1 관점에 따른, 입체 모델 생성 장치에서 수행되는 영상 표시 방법은, 입체 공간 모델을 생성하는 단계와, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와, 상기 영상 데이터를 디스플레이에 표시하는 단계를 포함한다.According to a first aspect of the present invention, an image display method performed by an apparatus for generating a stereoscopic model includes generating a stereoscopic spatial model and generating image data corresponding to a foreground of a stereoscopic space viewed from a specific location in the stereoscopic spatial model. And displaying the image data on a display.

본 발명의 제 2 관점에 따른, 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램은 상기 영상 표시 방법에 따른 각각의 단계를 수행한다.The computer program stored in the computer-readable recording medium according to the second aspect of the present invention performs each step according to the image display method.

본 발명의 제 3 관점에 따르면, 상기 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 컴퓨터 프로그램이 컴퓨터 판독 가능 기록매체에 기록된다.According to a third aspect of the present invention, a computer program including instructions for performing each step according to the image display method is recorded on a computer-readable recording medium.

본 발명의 제 4 관점에 따른, 입체 모델 생성 장치는, 제어부와, 상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고, 상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어한다.According to a fourth aspect of the present invention, an apparatus for generating a stereoscopic model includes a control unit and a display unit displaying image data under the control of the control unit, wherein the control unit generates a stereoscopic spatial model and is within the stereoscopic spatial model. Image data corresponding to a foreground of a stereoscopic space viewed from a specific location is generated, and the display unit is controlled to display the image data.

본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.According to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image. If this is used when installing a surveillance camera in an intrusion monitoring target area, it is possible to freely install a virtual surveillance camera in the virtual space of the three-dimensional space model, so that the foreground that can be photographed by the surveillance camera can be checked, and thus is not captured by the surveillance camera. It is easy to select the optimal location to minimize shadow areas. In addition, if a plurality of virtual surveillance cameras are installed at the same location in the virtual space of the three-dimensional space model and the performance of each surveillance camera is set to be different from each other, the performance of the multiple surveillance cameras can be compared while checking the performance of the surveillance cameras at once.

도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에 의한 표시 화면의 예시도이다.
1 is a block diagram of a three-dimensional model generating apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image display method performed in a stereoscopic model generating apparatus according to an embodiment of the present invention.
3 and 4 are exemplary views of a display screen by a three-dimensional model generating apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments allow the disclosure of the present invention to be complete, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of known functions or configurations will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 입체 모델 생성 장치의 구성도이다.1 is a block diagram of a three-dimensional model generating apparatus according to an embodiment of the present invention.

도 1에 나타낸 바와 같이 일 실시예에 따른 입체 모델 생성 장치(100)는 정보 획득부(110), 사용자 입력부(120), 제어부(130) 및 디스플레이부(140)를 포함한다. 예를 들어, 제어부(130)는 CPU(Central Processing Unit)를 포함할 수 있다.As shown in FIG. 1, the three-dimensional model generating apparatus 100 according to an embodiment includes an information acquisition unit 110, a user input unit 120, a control unit 130, and a display unit 140. For example, the controller 130 may include a central processing unit (CPU).

정보 획득부(110)는 입체 공간 모델을 생성하기 위한 실제 공간에 대한 정보를 획득한다. 여기서, 정보 획득부(110)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드(point cloud)를 획득할 수 있다. 이러한 정보 획득부(110)는 도 1에 도시한 바와 같이 실제 공간을 레이저 스캐너로 스캐닝하여 포인트 클라우드를 획득하는 레이저 스캐너(111)를 일체로 포함할 수 있고, 실제 공간을 촬영하여 영상을 획득하는 카메라(112)를 일체로 포함할 수 있다. 또는, 정보 획득부(110)는 외부에 별개로 구비된 레이저 스캐너 및 카메라로부터 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받아 획득할 수도 있다.The information acquisition unit 110 acquires information about a real space for generating a three-dimensional space model. Here, the information acquisition unit 110 may acquire a point cloud obtained by scanning an image obtained by photographing a real space and a real space. 1, the information acquisition unit 110 may integrally include a laser scanner 111 that acquires a point cloud by scanning a real space with a laser scanner, and acquires an image by photographing the real space The camera 112 may be integrally included. Alternatively, the information acquisition unit 110 may receive and acquire a point cloud and an image for a real space through a communication interface (not shown) from a laser scanner and a camera separately provided outside.

사용자 입력부(120)는 입체 모델 생성 장치(100)의 사용자가 입체 모델 생성 장치(100)에 각종 명령을 입력하기 위한 인터페이스 수단이다. 예를 들어, 입체 모델 생성 장치(100)에 의해 생성된 입체 공간 모델 내에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시킬 특정 위치를 지정하는 사용자 인터렉션(interaction) 이벤트를 사용자 입력부(120)를 통해 제어부(130)에 입력할 수 있다. 예컨대, 복수의 가상 카메라를 위치시킬 복수의 위치를 지정할 수 있고, 동일 위치에 복수의 가상 카메라를 위치시킬 수도 있다. 여기서, 가상 카메라가 갖는 소정의 성능이라 함은 가상 카메라의 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등을 포함할 수 있다. 즉, 실제 카메라가 갖는 모든 성능이 가상 카메라에 설정될 수 있다. 이러한 가상 카메라의 성능 설정 값은 사용자 입력부(120)를 이용하는 사용자 인터렉션 이벤트를 통해 제어부(130)에 입력할 수 있다.The user input unit 120 is an interface means for a user of the three-dimensional model generating apparatus 100 to input various commands to the three-dimensional model generating apparatus 100. For example, a user interaction event designating a specific location to place a virtual camera set to have a predetermined performance in a stereoscopic space model generated by the stereoscopic model generating apparatus 100 through the user input unit 120 It can be input to the control unit 130. For example, it is possible to designate a plurality of locations to place a plurality of virtual cameras, or to place a plurality of virtual cameras at the same location. Here, the predetermined performance of the virtual camera may include an angle of view value, a number of pixels, a focal length value, an image sensor size value, and moving (rotational or moving) characteristic values of the virtual camera. That is, all the capabilities of the real camera can be set in the virtual camera. The performance setting value of the virtual camera may be input to the controller 130 through a user interaction event using the user input unit 120.

제어부(130)는 입체 공간 모델을 생성하고, 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하고, 생성된 영상 데이터를 디스플레이부(140)로 하여금 표시하도록 제어한다. 여기서, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 감지하고, 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다.The controller 130 generates a three-dimensional space model, generates image data corresponding to a foreground of the three-dimensional space seen from a specific location within the three-dimensional space model, and controls the display unit 140 to display the generated image data. Here, the control unit 130 detects a user interaction event through the user input unit 120, and based on the result of detecting the user interaction event, positions the virtual camera set to have a certain performance in a specific location in the stereoscopic space model and , Based on the performance of the virtual camera, it is possible to generate image data corresponding to the foreground of the three-dimensional space viewed from the corresponding location.

이러한 제어부(130)는 실제 공간에 대응하는 입체 공간 모델을 생성할 수 있다. 정보 획득부(110)에 의해 획득된 실제 공간의 영상과 실제 공간의 포인트 클라우드를 정합하여 정합 영상을 생성하고, 실제 공간에 위치하는 객체를 메쉬 모델로 생성하며, 메쉬 모델에 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성할 수 있다. 여기서, 제어부(130)가 입체 공간에 소정 객체를 배치할 수 있으며, 이 경우에, 입체 공간 모델에는 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다.The control unit 130 may generate a three-dimensional space model corresponding to the real space. The matched image is generated by matching the image of the real space and the point cloud of the real space acquired by the information acquisition unit 110, the object located in the real space is generated as a mesh model, and the texture extracted from the matched image in the mesh model A three-dimensional spatial model for an object can be generated by reflecting information. Here, the control unit 130 may place a predetermined object in the three-dimensional space, and in this case, data corresponding to the predetermined object is added to the three-dimensional space model, but is seen at a specific position according to the position of the predetermined object in the three-dimensional space model Object data corresponding to a predetermined object may be added to image data corresponding to the foreground of the stereoscopic space, but may not be added.

아울러, 제어부(130)는 입체 공간 모델에 대해 특정 위치에서 보이는 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악하고, 가시 영역이 구분되어 입체 공간 모델을 표시하도록 디스플레이부(140)를 제어할 수 있다. 예를 들어, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하도록 디스플레이부(140)를 제어함으로써, 입체 공간 모델 내에 가상 카메라에 의한 가시 영역이 구분되도록 디스플레이부(140)에 표시할 수 있다.In addition, the control unit 130 controls the display unit 140 to identify a visible area corresponding to the image data of the stereoscopic space view viewed from a specific position with respect to the stereoscopic model, and to display the stereoscopic spatial model by dividing the visible area. You can. For example, the control unit 130 controls the display unit 140 to render a polygon in a specific color for the visible area by the virtual camera, so that the visible area by the virtual camera is distinguished in the three-dimensional space model. (140).

디스플레이부(140)는 제어부(130)의 제어에 따라 입체 공간 모델 및 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 시작적으로 표시한다.Under the control of the control unit 130, the display unit 140 starts displaying the stereoscopic space model and the image data corresponding to the foreground of the stereoscopic space seen from a specific position in the stereoscopic space model.

도 2는 본 발명의 일 실시예에 따른 입체 모델 생성 장치에서 수행되는 영상 표시 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an image display method performed in a stereoscopic model generating apparatus according to an embodiment of the present invention.

이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 입체 모델 생성 장치(100)에서 수행되는 영상 표시 방법에 대해 자세히 살펴보기로 한다. 일 실시예에 따른 입체 모델 생성 장치(100)는 다양한 방법으로 입체 공간 모델을 생성할 수 있으나, 아래의 설명에서는 실제 공간에 대하여 획득된 정보에 기초하여 실제 공간에 대응하는 입체 공간 모델을 생성하는 예에 대해 설명하기로 한다.Hereinafter, an image display method performed in the stereoscopic model generating apparatus 100 according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2. The three-dimensional model generating apparatus 100 according to an embodiment may generate a three-dimensional space model in various ways, but in the following description, the three-dimensional space model corresponding to the real space is generated based on information obtained about the real space. An example will be described.

먼저, 입체 모델 생성 장치(100)의 정보 획득부(110)는 입체 공간 모델을 생성하고자 하는 실제 공간에 대한 정보를 획득한다. 예를 들어, 정보 획득부(110)의 레이저 스캐너(111)는 실제 공간을 스캐닝하여 포인트 클라우드를 획득하고, 획득된 포인트 클라우드를 제어부(130)에 전달할 수 있다. 예컨대, 레이저 스캐너(111)로는 라이다(LiDAR: Light Detection And Ranging) 장비가 이용될 수 있다. 아울러, 정보 획득부(110)의 카메라(112)는 레이저 스캐너(111)가 스캐닝한 동일한 실제 공간을 촬영하여 영상을 획득하고, 획득된 영상을 제어부(130)에 전달할 수 있다. 또는, 정보 획득부(110)는 통신 인터페이스(도시 생략됨)를 통해 실제 공간에 대한 포인트 클라우드 및 영상을 입력 받고, 입력된 실제 공간에 대한 포인트 클라우드 및 영상을 제어부(130)에 전달할 수도 있다(S210).First, the information acquiring unit 110 of the three-dimensional model generating apparatus 100 acquires information about an actual space to generate a three-dimensional space model. For example, the laser scanner 111 of the information acquisition unit 110 may acquire a point cloud by scanning an actual space, and transmit the acquired point cloud to the control unit 130. For example, LiDAR (Light Detection And Ranging) equipment may be used as the laser scanner 111. In addition, the camera 112 of the information acquisition unit 110 may acquire an image by photographing the same real space scanned by the laser scanner 111 and transmit the acquired image to the controller 130. Alternatively, the information acquisition unit 110 may receive a point cloud and image for the real space through a communication interface (not shown), and may transmit the point cloud and image for the input real space to the controller 130 ( S210).

그러면, 제어부(130)는 실제 공간을 촬영하여 획득한 영상과 실제 공간을 스캐닝하여 획득한 포인트 클라우드를 정합하여 정합 영상을 생성한다. 예를 들어, 제어부(130)는 실제 공간에 배치된 마커를 인식하여 카메라 영상과 포인트 클라우드 간 관계 정보를 계산하고, 계산된 관계 정보를 기초로 정합 영상을 생성할 수 있다(S220).Then, the controller 130 matches the point cloud obtained by scanning the real space with the image obtained by shooting the real space to generate a matched image. For example, the controller 130 may recognize the marker disposed in the real space, calculate relationship information between the camera image and the point cloud, and generate a matched image based on the calculated relationship information (S220).

이어서, 제어부(130)는 정보 획득부(110)에 의해 획득된 실제 공간에 대한 정보를 기초로 실제 공간에 대응하는 메쉬 모델을 생성하며(S230), 메쉬 모델에 단계 S220에서 생성한 정합 영상으로부터 추출한 텍스처 정보를 반영하여 객체에 대한 입체 공간 모델을 생성한다(S240).Subsequently, the control unit 130 generates a mesh model corresponding to the real space based on the information on the real space obtained by the information acquisition unit 110 (S230), and the mesh model from the matched image generated in step S220. A three-dimensional spatial model for an object is generated by reflecting the extracted texture information (S240).

다음으로, 제어부(130)는 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하여야 한다. 이처럼, 제어부(130)가 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 이유는 이때 생성한 영상 데이터를 이후의 단계 S270에서 디스플레이에 표시할 수 있는데, 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문이다. 이를 위해, 제어부(130)는 입체 공간 모델 내의 기 설정된 하나 이상의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 또는, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 감지한 결과에 기초하여 입체 공간 모델 내의 특정 위치를 결정하고, 결정된 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수도 있다. 이를 위해, 제어부(130)는 디스플레이부(140)로 하여금 단계 S240에서 생성된 입체 공간 모델을 표시하도록 제어하고, 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트가 발생하지는 지를 감시한다. 여기서, 사용자는 사용자 입력부(120)를 통해 입체 공간 모델 내의 특정 위치를 지정해 주는 사용자 인터렉션 이벤트를 발생시켜서 입체 공간 모델 내의 특정 위치에 대한 정보를 제어부(130)에 제공할 수 있다. 예컨대, 마우스 등과 같은 좌표지정수단을 이용하여 디스플레이부(140)에 표시 중인 입체 공간 모델 내의 특정 위치의 좌표를 지정해 줄 수 있으며, 제어부(130)는 특정 위치의 좌표 지정 값을 사용자 인터렉션 이벤트로서 감지할 수 있다. 이로써, 제어부(130)는 입체 공간 모델 내의 특정 위치를 지정하는 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 이때, 제어부(130)는 기 설정된 값에 기초하거나 사용자 인터렉션 이벤트를 인식한 결과에 기초하여 입체 공간 모델 내의 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 가상 카메라의 성능에 기초하여 해당 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성할 수 있다. 예컨대, 가상 카메라의 성능(예로서, 화각 값, 화소수 값, 초점거리 값, 이미지 센서 크기 값, 무빙(회전 또는 이동) 특성 값 등)이 반영된 영상 데이터를 생성할 수 있다. 또한, 동일 위치에 복수의 가상 카메라를 위치시킨 경우라면 각 가상 카메라에 대응하는 영상 데이터를 생성할 수 있고, 이때 각 가상 카메라에 설정된 성능이 상이할 경우 동일 위치이지만 서로 다른 영상 데이터를 생성할 수 있다(S250).Next, the controller 130 should generate image data corresponding to the foreground of the stereoscopic space seen from a specific location in the stereoscopic spatial model. As described above, the reason why the control unit 130 generates image data corresponding to the foreground of the three-dimensional space seen from a specific location in the three-dimensional space model is that the generated image data can be displayed on the display at a later step S270, which is intrusion monitoring. This is because when the surveillance camera is installed in the target area, the virtual surveillance camera can be freely installed in the virtual space of the three-dimensional space model to check the foreground that can be photographed by the surveillance camera. To this end, the controller 130 may generate image data corresponding to the foreground of the three-dimensional space viewed from one or more predetermined positions in the three-dimensional space model. Alternatively, the controller 130 determines a specific location in the stereoscopic space model based on a result of detecting a user interaction event designating a specific location in the stereoscopic spatial model, and image data corresponding to the foreground of the stereoscopic space viewed from the determined specific location You can also create To this end, the control unit 130 controls the display unit 140 to display the three-dimensional space model generated in step S240, and a user interaction event for designating a specific location in the three-dimensional space model through the user input unit 120 occurs Haji monitors. Here, the user may provide a control unit 130 with information on a specific location in the three-dimensional space model by generating a user interaction event specifying a specific location in the three-dimensional space model through the user input unit 120. For example, coordinates of a specific location in the three-dimensional space model being displayed on the display unit 140 may be designated using coordinate designation means such as a mouse, and the controller 130 detects the coordinate designation value of the specific location as a user interaction event. can do. Accordingly, the controller 130 may generate image data corresponding to the foreground of the stereoscopic space viewed from the specific location based on the result of recognizing the user interaction event designating the specific location in the stereoscopic spatial model. At this time, the controller 130 positions the virtual camera set to have a predetermined performance at a specific position in the stereoscopic space model based on a preset value or a result of recognizing a user interaction event, and based on the performance of the virtual camera It is possible to generate image data corresponding to the foreground of the three-dimensional space viewed from the corresponding location. For example, image data reflecting the performance of a virtual camera (eg, an angle of view value, a number of pixels, a focal length value, an image sensor size value, a moving (rotational or moving) characteristic value, etc.) may be generated. In addition, if a plurality of virtual cameras are located in the same location, image data corresponding to each virtual camera may be generated. In this case, if the performance set for each virtual camera is different, the same location but different image data may be generated. Yes (S250).

아울러, 제어부(130)는 단계 S250에서 생성한 입체 공간 전경의 영상 데이터에 대응되는 가시 영역을 파악한다. 그리고, 제어부(130)는 가상 카메라에 의한 가시 영역은 폴리곤(polygon)을 특정 색상으로 설정할 수 있다. 단계 S250에서 복수의 가상 카메라가 입체 공간 모델 내에 위치된 경우 각각의 가상 카메라에 의한 가시 영역들의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있으며, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 설정할 수 있다(S260).In addition, the control unit 130 grasps a visible area corresponding to the image data of the stereoscopic spatial foreground generated in step S250. In addition, the controller 130 may set a polygon to a specific color in a visible area by the virtual camera. When a plurality of virtual cameras are located in the three-dimensional space model in step S250, polygons of the visible regions by each virtual camera may be set in different colors, and polygons and ratios of overlapping regions among the visible regions by the plurality of virtual cameras may be set. Polygons of overlapping regions may be set to different colors (S260).

다음으로, 제어부(130)는 가시 영역이 구분된 입체 공간 모델과 단계 S250에서 생성된 영상 데이터 및 가상 카메라의 위치를 렌더링하도록 디스플레이부(140)를 제어한다. 이로써, 디스플레이부(140)는 제어부(130)의 제어에 따라 도 3에 예시한 바와 같이 입체 공간 모델(도 3의 왼쪽)과 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터(도 3의 오른쪽) 및 가상 카메라의 위치(도 3의 카메라 아이콘)를 시작적으로 표시한다. 예를 들어, 가상 카메라의 위치는 도 3에 예시한 바와 같이 아이콘 형태로 표시할 수 있으며, 기호 등을 이용하여 표시할 수도 있다. 이때, 입체 공간 모델 내의 특정 위치에 위치한 가상 카메라에 의한 가시 영역의 폴리곤이 도 4에 예시한 바와 같이 특정 색상으로 표시되어 입체 공간 모델의 다른 공간들과 구분될 수 있다. 아울러, 입체 공간 모델 내의 복수의 위치에 위치한 복수의 가상 카메라에 의한 가시 영역들의 폴리곤이 서로 다른 색상으로 식별 가능하게 표시될 수 있고, 복수의 가상 카메라에 의한 가시 영역 중 중첩 영역의 폴리곤과 비중첩 영역의 폴리곤에 대해 서로 다른 색상으로 식별 가능하게 표시될 수 있다(S270).Next, the control unit 130 controls the display unit 140 to render the three-dimensional space model in which the visible area is separated, the image data generated in step S250, and the position of the virtual camera. Thus, the display unit 140, under the control of the control unit 130, as illustrated in FIG. 3, image data corresponding to a stereoscopic space model (left side of FIG. 3) and a stereoscopic space viewed from a specific location in the stereoscopic space model. (Right of FIG. 3) and the position of the virtual camera (camera icon in FIG. 3) are displayed. For example, the position of the virtual camera may be displayed in the form of an icon, as illustrated in FIG. 3, or may be displayed using symbols. At this time, the polygon of the visible area by the virtual camera located at a specific position in the three-dimensional space model is displayed in a specific color as illustrated in FIG. 4 to be distinguished from other spaces of the three-dimensional space model. In addition, polygons of visible areas by a plurality of virtual cameras located at a plurality of positions in a three-dimensional space model may be identifiably displayed in different colors, and non-overlapping polygons of overlapping areas among visible areas by a plurality of virtual cameras The polygons of the region may be identifiably displayed in different colors (S270).

한편, 제어부(130)는 입체 공간에 소정 객체를 배치할 수 있다. 예를 들어, 제어부(130)는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 대한 감지 결과를 기초로 입체 공간 모델 내에 소정 객체를 배치할 수 있다. 이 경우에, 입체 공간 모델에는 제어부(130)에 의해 소정 객체에 대응하는 데이터가 추가되지만, 입체 공간 모델 중 소정 객체의 위치에 따라 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터에는 제어부(130)에 의해 소정 객체에 대응하는 객체 데이터가 추가될 수도 있지만 추가되지 않을 수도 있다. 이는 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터는 해당 위치에 있는 가상 카메라에 의한 가시 영역에 대응하는 것이며, 입체 공간 모델 내에 배치된 소정 객체가 이미 배치되어 있는 다른 객체에 의해 가려져서 해당 위치에 있는 가상 카메라에 의한 가시 영역에 포함되지 않을 수 있기 때문이다.Meanwhile, the control unit 130 may place a predetermined object in a three-dimensional space. For example, the controller 130 may place a predetermined object in the three-dimensional space model based on the detection result of the user interaction event through the user input unit 120. In this case, data corresponding to a predetermined object is added to the three-dimensional space model by the control unit 130, but the image data corresponding to the foreground of the three-dimensional space seen from a specific position according to the position of the predetermined object among the three-dimensional space models is controlled by the control unit 130. The object data corresponding to the predetermined object may be added by 130), but may not be added. This means that the image data corresponding to the foreground of the stereoscopic space viewed from a specific location corresponds to the visible area by the virtual camera at the corresponding location, and a predetermined object disposed in the stereoscopic space model is obscured by another object that is already disposed. This is because it may not be included in the visible area due to the virtual camera.

아울러, 단계 S250에서 생성되는 입체 공간 모델 내의 특정 위치의 가상 공간 전경에 대응하는 영상 데이터는 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트에 얼마든지 변경될 수 있다. 예를 들어, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 가상 공간 전경에 대응하는 영상 데이터를 생성할 특정 위치가 변경될 수 있고, 해당 위치의 가상 카메라에 대한 성능(예컨대, 화각 값, 화소수 값 등)이 변경될 수 있다.In addition, the image data corresponding to the virtual space foreground at a specific location in the three-dimensional space model generated in step S250 may be changed to any number of user interaction events through the user input unit 120. For example, a specific location to generate image data corresponding to a virtual space foreground may be changed through a user interaction event through the user input unit 120, and performance (for example, an angle of view value, a pixel) of the virtual camera of the corresponding location may be changed. Number value, etc.) can be changed.

이러한 입체 모델 생성 장치(100) 및 그 영상 표시 방법을 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에서 활용할 경우에, 사용자 입력부(120)를 통한 사용자 인터렉션 이벤트를 통해 입체 공간 모델 내의 소정 객체(예컨대, 가구 등)의 위치를 변경하였을 때에 특정 위치의 가상 카메라에 의해 입체 공간 전경이 변화되는 것을 디스플레이부(140)를 통해 확인할 수 있다. 아울러, 실제 공간에 침입자가 발생한 상황에 대해 입체 공간 모델 내에 가상 침입자를 렌더링함으로써, 침입자의 동선을 특정 위치의 가상 카메라에 의한 입체 공간 전경을 통해 보여줄 수도 있다.When the stereoscopic model generating apparatus 100 and its image display method are utilized in a security field that provides an intrusion monitoring service using virtual reality, certain objects in the stereoscopic spatial model through a user interaction event through the user input unit 120 When the position of the furniture (eg, furniture, etc.) is changed, it is possible to confirm through the display unit 140 that the stereoscopic space foreground is changed by the virtual camera at a specific position. In addition, by rendering a virtual intruder in a three-dimensional space model for a situation in which an intruder has occurred in the real space, it is also possible to show the movement of the intruder through a three-dimensional space view by a virtual camera at a specific location.

지금까지 설명한 바와 같이, 본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다. 이를 침입감시 대상지역에 감시 카메라를 설치할 때에 활용하면, 입체 공간 모델의 가상 공간 내에 자유롭게 가상의 감시 카메라를 설치하여 감시 카메라에 의해 촬영될 수 있는 전경을 확인할 수 있기 때문에, 감시 카메라에 의해 촬영되지 않는 음영지역을 최소화할 수 있는 최적 위치를 쉽게 선정할 수 있다. 또한, 입체 공간 모델의 가상 공간 내의 동일 위치에 가상의 감시 카메라를 복수로 설치하고 각 감시 카메라의 성능을 서로 상이하게 설정하면, 복수의 감시 카메라의 성능을 한꺼번에 확인하면서 비교해 볼 수 있다.As described so far, according to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image. If this is used when installing a surveillance camera in an intrusion monitoring target area, it is possible to freely install a virtual surveillance camera in the virtual space of the three-dimensional space model, so that the foreground that can be photographed by the surveillance camera can be checked, and thus is not captured by the surveillance camera. It is easy to select the optimal location to minimize shadow areas. In addition, if a plurality of virtual surveillance cameras are installed at the same location in the virtual space of the three-dimensional space model and the performance of each surveillance camera is set to be different from each other, the performance of the multiple surveillance cameras can be compared while checking the performance of the surveillance cameras at once.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed through the processor of a computer or other programmable data processing equipment are described in each step of the flowchart. It creates a means to do them. These computer program instructions can also be stored on a computer-readable or computer-readable recording medium that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular manner, so that it is computer- or computer-readable. It is also possible for the instructions stored in the recording medium to produce an article of manufacture containing instructions means for performing the functions described in each step of the flowchart. Since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable data. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments it is also possible that the functions mentioned in the steps occur out of order. For example, the two steps shown in succession may in fact be performed substantially simultaneously, or it is also possible that the steps are sometimes performed in reverse order depending on the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

본 발명의 실시예에 의하면, 실제 공간에 대응하는 입체 공간 모델을 생성한 후 입체 공간 모델의 가상 공간 내의 특정 위치에서 보이는 전경을 영상으로 표시할 수 있다.According to an embodiment of the present invention, after generating a three-dimensional space model corresponding to a real space, it is possible to display a foreground view at a specific location in the virtual space of the three-dimensional space model as an image.

이러한 본 발명은 가상현실(Virtual Reality)을 이용하는 다양한 산업분야에 이용할 수 있으며, 특히 가상현실을 이용하여 침입감시 서비스를 제공하는 보안 분야에 널리 이용할 수 있다.The present invention can be used in a variety of industries using virtual reality (Virtual Reality), in particular, it can be widely used in the security field to provide intrusion monitoring service using virtual reality.

100: 입체 모델 생성 장치
110: 정보 획득부
120: 사용자 입력부
130: 제어부
140: 디스플레이부
100: three-dimensional model generating device
110: information acquisition unit
120: user input
130: control unit
140: display unit

Claims (8)

입체 모델 생성 장치에서 수행되는 영상 표시 방법으로서,
입체 공간 모델을 생성하는 단계와,
상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하는 단계와,
상기 영상 데이터를 디스플레이에 표시하는 단계를 포함하는
영상 표시 방법.
As an image display method performed in the stereoscopic model generating apparatus,
Generating a three-dimensional spatial model,
Generating image data corresponding to a foreground of a stereoscopic space viewed from a specific location in the stereoscopic spatial model;
And displaying the image data on a display.
How to display video.
제 1 항에 있어서,
상기 영상 데이터를 생성하는 단계는, 상기 특정 위치에 소정의 성능을 갖도록 설정한 가상 카메라를 위치시키고, 상기 가상 카메라의 성능에 기초하여 상기 영상 데이터를 생성하는
영상 표시 방법.
According to claim 1,
In the generating of the image data, a virtual camera set to have a predetermined performance is positioned at the specific location, and the image data is generated based on the performance of the virtual camera.
How to display video.
제 1 항에 있어서,
상기 입체 공간 모델은 실제 공간에 대한 정보를 기초로 생성하고,
상기 입체 공간에 소정 객체를 배치한 경우에, 상기 입체 공간 모델에는 상기 소정 객체에 대응하는 데이터가 추가되고, 상기 디스플레이에는 상기 입체 공간 모델 중 상기 소정 객체의 위치에 따라 상기 소정 객체가 표시될 수도 있지만 표시되지 않을 수도 있는
영상 표시 방법.
According to claim 1,
The three-dimensional space model is generated based on information about the real space,
When a predetermined object is placed in the stereoscopic space, data corresponding to the predetermined object is added to the stereoscopic space model, and the predetermined object may be displayed on the display according to the position of the predetermined object in the stereoscopic space model. But may not be displayed
How to display video.
제 1 항에 있어서,
상기 입체 공간 모델에 대해 상기 영상 데이터에 대응되는 가시 영역을 파악하는 단계와,
상기 입체 공간 모델을 상기 디스플레이에 표시하되, 상기 입체 공간 모델 중 상기 가시 영역이 구분되도록 상기 디스플레이에 표시하는 단계를 더 포함하는
영상 표시 방법.
According to claim 1,
Identifying a visible area corresponding to the image data with respect to the stereoscopic space model;
Displaying the three-dimensional space model on the display, and further comprising displaying the three-dimensional space model on the display such that the visible area is distinguished.
How to display video.
제 4 항에 있어서,
상기 가시 영역은 폴리곤(polygon)을 특정 색상으로 렌더링하여 구분되는
영상 표시 방법.
The method of claim 4,
The visible area is divided by rendering a polygon with a specific color.
How to display video.
제 1 항 내지 제 5 항 중 어느 한 항에 기재된 영상 표시 방법에 따른 각각의 단계를 수행하는
컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
Performing each step according to the image display method according to any one of claims 1 to 5
A computer program stored on a computer readable recording medium.
제 1 항 내지 제 5 항 중 어느 한 항에 기재된 영상 표시 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는
컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
Claim 1 to 5 comprising instructions for performing each step according to the image display method according to any one of claims
A computer-readable recording medium in which a computer program is recorded.
제어부와,
상기 제어부의 제어에 따라 영상 데이터를 표시하는 디스플레이부를 포함하고,
상기 제어부는, 입체 공간 모델을 생성하고, 상기 입체 공간 모델 내의 특정 위치에서 보이는 입체 공간의 전경에 대응하는 영상 데이터를 생성하며, 상기 영상 데이터를 표시하도록 상기 디스플레이부를 제어하는
입체 모델 생성 장치.
A control unit,
It includes a display unit for displaying the image data under the control of the control unit,
The control unit generates a three-dimensional space model, generates image data corresponding to a foreground of a three-dimensional space seen from a specific location in the three-dimensional space model, and controls the display unit to display the image data
Three-dimensional model generating device.
KR1020180123381A 2018-10-16 2018-10-16 3d model producing apparatus and method for displaying image thereof KR102257846B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180123381A KR102257846B1 (en) 2018-10-16 2018-10-16 3d model producing apparatus and method for displaying image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180123381A KR102257846B1 (en) 2018-10-16 2018-10-16 3d model producing apparatus and method for displaying image thereof

Publications (2)

Publication Number Publication Date
KR20200042782A true KR20200042782A (en) 2020-04-24
KR102257846B1 KR102257846B1 (en) 2021-05-28

Family

ID=70466267

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180123381A KR102257846B1 (en) 2018-10-16 2018-10-16 3d model producing apparatus and method for displaying image thereof

Country Status (1)

Country Link
KR (1) KR102257846B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102317182B1 (en) * 2020-11-25 2021-10-27 주식회사 리얼이매진 Apparatus for generating composite image using 3d object and 2d background

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094015A (en) * 2012-02-15 2013-08-23 한국전자통신연구원 Apparatus and method for producing 3d model
KR101572618B1 (en) 2014-10-16 2015-12-02 연세대학교 산학협력단 Apparatus and method for simulating lidar
KR20160059246A (en) * 2014-11-18 2016-05-26 (주)그린아이티코리아 3D modeling system for integrated monitoring
JP2016181148A (en) * 2015-03-24 2016-10-13 日本原子力防護システム株式会社 Virtual monitoring image creation system, information setting system, and simulation system
JP2017084201A (en) * 2015-10-30 2017-05-18 セコム株式会社 Guard simulation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094015A (en) * 2012-02-15 2013-08-23 한국전자통신연구원 Apparatus and method for producing 3d model
KR101572618B1 (en) 2014-10-16 2015-12-02 연세대학교 산학협력단 Apparatus and method for simulating lidar
KR20160059246A (en) * 2014-11-18 2016-05-26 (주)그린아이티코리아 3D modeling system for integrated monitoring
JP2016181148A (en) * 2015-03-24 2016-10-13 日本原子力防護システム株式会社 Virtual monitoring image creation system, information setting system, and simulation system
JP2017084201A (en) * 2015-10-30 2017-05-18 セコム株式会社 Guard simulation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102317182B1 (en) * 2020-11-25 2021-10-27 주식회사 리얼이매진 Apparatus for generating composite image using 3d object and 2d background

Also Published As

Publication number Publication date
KR102257846B1 (en) 2021-05-28

Similar Documents

Publication Publication Date Title
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
EP3588456A1 (en) Image processing apparatus, image processing method, and program
JP5655134B2 (en) Method and apparatus for generating texture in 3D scene
JP2018180655A5 (en)
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP5799273B2 (en) Dimension measuring device, dimension measuring method, dimension measuring system, program
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP7073092B2 (en) Image processing equipment, image processing methods and programs
JP6126501B2 (en) Camera installation simulator and its computer program
CN108629799B (en) Method and equipment for realizing augmented reality
WO2019163212A1 (en) Monitoring system and control method for monitoring system
JP5101429B2 (en) Image monitoring device
KR101652594B1 (en) Apparatus and method for providingaugmented reality contentents
JP2007243509A (en) Image processing device
KR20110088995A (en) Method and system to visualize surveillance camera videos within 3d models, and program recording medium
KR102163389B1 (en) 3d model producing method and apparatus
KR20150064761A (en) Electro device comprising transparent display and method for controlling thereof
JP6700845B2 (en) Information processing apparatus, information processing method, and program
KR102257846B1 (en) 3d model producing apparatus and method for displaying image thereof
KR20160073491A (en) Interactive progress monitoring system using mobile terminal and user interface of the mobile terminal
JP6132246B2 (en) Dimension measurement method
US20220366673A1 (en) Point cloud data processing apparatus, point cloud data processing method, and program
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
CA2956492A1 (en) A method, mobile device and computer program for substituting a furnishing covering surface of in an image
JP2020088840A (en) Monitoring device, monitoring system, monitoring method, and monitoring program

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant