KR101246844B1 - 3d 입체 관제 시스템 및 그 제공방법 - Google Patents

3d 입체 관제 시스템 및 그 제공방법 Download PDF

Info

Publication number
KR101246844B1
KR101246844B1 KR1020110044553A KR20110044553A KR101246844B1 KR 101246844 B1 KR101246844 B1 KR 101246844B1 KR 1020110044553 A KR1020110044553 A KR 1020110044553A KR 20110044553 A KR20110044553 A KR 20110044553A KR 101246844 B1 KR101246844 B1 KR 101246844B1
Authority
KR
South Korea
Prior art keywords
information
external object
modeling
modeling information
control system
Prior art date
Application number
KR1020110044553A
Other languages
English (en)
Other versions
KR20120126615A (ko
Inventor
이수부
Original Assignee
빅시스템즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 빅시스템즈 주식회사 filed Critical 빅시스템즈 주식회사
Priority to KR1020110044553A priority Critical patent/KR101246844B1/ko
Publication of KR20120126615A publication Critical patent/KR20120126615A/ko
Application granted granted Critical
Publication of KR101246844B1 publication Critical patent/KR101246844B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3D 입체 관제 시스템 및 그 제공방법이 개시된다. 상기 3D 입체 관제 시스템은 관제 대상이 되는 대상공간의 3D 모델링 정보를 저장하는 공간 모델링 DB, 상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보를 획득하기 위한 외부 오브젝트 판단 모듈, 상기 3D 모델링 정보를 디스플레이 장치에 디스플레이하고, 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 상응하는 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나를 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이하기 위한 제어모듈을 포함한다.

Description

3D 입체 관제 시스템 및 그 제공방법{System for 3D stereo control system and providing method thereof}
본 발명은 3D 입체 관제 시스템 및 그 제공방법에 관한 것으로, 보다 상세하게는 넓은 지역을 한눈에 보고 판단할 수 있도록 관제대상 공간을 3D 모델링 정보로 모델링 하고, 상기 3D 모델링 정보 상에 관제대상 공간에 위치하는 오브젝트들을 표현하여 효과적인 관제가 이루어질 수 있도록 하는 3D 입체 관제 시스템 및 그 제공방법에 관한 것이다.
도로, 항공, 또는 기타 다양한 관제 시스템이 널리 사용되고 있다.
도 1은 종래의 관제 시스템의 일 예를 나타내는 도면인데, 도 1에 도시된 바와 같이 종래의 관제 시스템은 전통적인 2D 영상을 기반으로 하고 있어서, 공간 정보 전달이 미약할 뿐만 아니라 모니터도 멀티큐브 및 여러 대의 모니터를 사용하거나 하나의 모니터를 일정 구역으로 분리하여 관제 대상 공간을 모니터링 하고 있다. 따라서, 여러 대의 모니터의 베젤(bezel) 즉, 테두리가 시야를 가리거나 공간상의 정보가 분할되어 유저(관제자)에게 전달되는 불편함이 있었다. 또한, 실제 삼차원 정보인 공간정보가 2차원의 평면상에 표현되므로 왜곡된 영상이 모니터링 되고, 2D 평면상에서는 절곡면에서 영상의 흐름이 끊기는 등 실제의 환경을 정확히 모사하는데 제약이 있다.
또한, 영상획득 수단(예컨대, CCTV 카메라 등)을 통해 획득된 실사정보가 단순히 관제실에 있는 모니터에 전달되는데 그치고 있어서, 정보의 활용이나 응용이 극히 제한적이었다. 예컨대, 관제대상 공간에 위치하는 특정 오브젝트를 확대하기 위해서는 실제로 영상획득 수단을 줌인하여야 하거나, 현재 획득된 영상을 단순히 확대하는데 그치게 된다. 따라서, 오브젝트를 확대하게 되면 확대된 만큼 관제 대상 공간을 디스플레이할 수 없게 된다. 즉, 종래의 관제 시스템은 줌인을 하거나 특정 오브젝트를 보다 상세히 보기 위해서는 관제자의 시야가 오브젝트에 다가가는 효과를 갖도록 디스플레이가 되므로, 모니터링되는 전체 공간의 범위가 확연하게 줄어들 수 밖에 없게 되는 문제점이 있었다.
따라서, 본 발명이 이루고자 하는 기술적인 과제는 3D 입체영상을 기반으로 하는 광각(wide angle) 관제시스템의 구축을 통해 보다 정확한 공간정보를 전달할 수 있는 3D 입체 관제 시스템 및 그 제공방법을 제공하는 것이다.
또한, 여러 대의 모니터 또는 모니터를 분할하여 사용하던 화면을 이음새가 없는 하나의 광각 디스플레이 장치로 전환하여, 베젤이나 이음새, 분할된 공간정보가 주던 가시적인 불편함을 해소하고 사실적인 현장정보를 전달할 수 있는 3D 입체 관제 시스템 및 그 제공방법을 제공하는 것이다.
또한, 관제대상인 대상공간 또는 상기 대상공간에 위치하는 외부 오브젝트를 3D 모델링 정보로 표현할 수 있어서, 대상공간에 포함된 오브젝트 또는 상기 외부 오브젝트에 대한 정보의 접근이나 확인, 또는 정보의 응용을 적극적으로 수행할 수 있는 3D 입체 관제 시스템 및 그 제공방법을 제공하는 것이다.
또한, 특정 오브젝트를 보다 자세히 모니터링 하기 위해 종래에는 상기 오브젝트가 줌인이 되는 것을 대신해, 상기 특정 오브젝트가 유저(관제자) 방향으로 Z축 상에서 가까운 깊이로 디스플레이하도록 하여, 전체 대상공간의 모니터링 범위를 좁히지 않고도 상기 특정 오브젝트에 대한 보다 상세한 디스플레이정보 및 기타 추가적인 정보를 얻을 수 있는 3D 입체 관제 시스템 및 그 제공방법을 제공하는 것이다.
상기 기술적 과제를 달성하기 위한 3D 입체 관제 시스템은 관제 대상이 되는 대상공간의 3D 모델링 정보를 저장하는 공간 모델링 DB, 상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보를 획득하기 위한 외부 오브젝트 판단 모듈, 상기 3D 모델링 정보를 디스플레이 장치에 디스플레이하고, 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 상응하는 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나를 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이하기 위한 제어모듈을 포함한다.
상기 제어모듈은 상기 3D 모델링 정보에 포함된 공간 오브젝트 또는 상기 외부 오브젝트 중 적어도 하나를 선택하는 선택신호를 유저 단말기로부터 수신하고, 수신된 상기 선택신호에 응답하여 상기 3D 모델링 정보는 제1깊이에 디스플레이하고, 선택신호에 상응하는 선택 오브젝트의 모델링 정보 또는 실사정보는 상기 제1깊이보다 유저 방향에 가까운 제2깊이로 디스플레이할 수 있다.
상기 제어모듈은 상기 제2깊이에 상기 선택 오브젝트의 모델링 정보가 디스플레이되는 경우, 상기 유저 단말기로부터의 요청에 따라 상기 모델링 정보를 회전하거나, 다른 각도에서의 상기 모델링 정보를 디스플레이할 수 있다.
상기 3D 입체 관제 시스템은 복수의 외부 오브젝트들의 모델링 정보가 저장된 외부 오브젝트 DB를 더 포함하며, 상기 제어모듈은 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 상기 오브젝트 모델링 정보가 상기 외부 오브젝트 DB에 존재하는 경우, 상기 오브젝트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이할 수 있다.
상기 외부 오브젝트 DB는 상기 외부 오브젝트에 대한 추가정보를 더 포함하며, 상기 제어모듈은 상기 외부 오브젝트의 상기 오브젝트 모델링 정보가 상기 3D 모델링 정보 상에 디스플레이되거나 상기 제2깊이에서 디스플레이되는 경우, 상기 외부 오브젝트에 대응되는 추가정보를 선택적으로 디스플레이할 수 있다.
상기 제어모듈은 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 오브젝트 모델링 정보가 상기 3D 입체 관제 시스템에 미리 저장되어 있지 않은 경우, 미리 설정된 디폴트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이할 수 있다.
상기 3D 입체 관제 시스템은 상기 외부 오브젝트에 대한 정보에 기초하여 상기 외부 오브젝트의 모델링 정보를 생성하기 위한 모델링 모듈을 더 포함하며, 상기 제어모듈은 상기 모델링 모듈에 의해 생성된 상기 외부 오브젝트의 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이할 수 있다.
상기 제어모듈은 상기 외부 오브젝트에 대한 정보를 출력하는 영상획득 수단에 대한 정보, 상기 영상획득 수단이 감시하는 서브공간의 상기 대상공간에서의 위치, 상기 서브공간 내에서 상기 외부 오브젝트의 현재 위치에 대한 정보 중 적어도 하나에 기초하여 상기 3D 모델링 정보 상에서의 상기 특정 위치를 판단할 수 있다.
상기 디스플레이 장치는 곡면 디스플레이 장치로 구현되는 것을 특징으로할 수 있다.
상기 대상공간의 3D 모델링 정보는 BIM(Building Information Modeling) 정보 또는 GIS(geographic information system) 정보 중 적어도 하나를 포함할 수 있다.
상기 기술적 과제를 해결하기 위한 3D 입체 관제 시스템 제공방법은 3D 입체 관제 시스템에 의해 관제 대상이 되는 대상공간의 3D 모델링 정보가 곡면 디스플레이 장치상에 디스플레이되는 단계, 상기 3D 입체 관제 시스템에 의해 상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보가 획득되는 단계, 및 상기 3D 입체 관제 시스템에 의해 획득된 상기 외부 오브젝트에 대한 정보에 상응하는 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계를 포함한다.
상기 3D 입체 관제 시스템 제공방법은 상기 3D 모델링 정보에 포함된 공간 오브젝트 또는 상기 외부 오브젝트 중 적어도 하나를 선택하는 선택신호를 유저 단말기로부터 수신하는 단계, 수신된 상기 선택신호에 응답하여 상기 3D 모델링 정보는 제1깊이에 디스플레이하고, 선택신호에 상응하는 선택 오브젝트의 모델링 정보 또는 실사정보는 상기 제1깊이보다 유저 방향에 가까운 제2깊이로 디스플레이하는 단계를 더 포함할 수 있다.
상기 3D 입체 관제 시스템 제공방법은 상기 유저 단말기로부터의 요청에 따라 상기 제2깊이에서 상기 선택 오브젝트의 모델링 정보가 회전되거나, 다른 각도에서의 상기 모델링 정보가 디스플레이되는 단계를 더 포함할 수 있다.
상기 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계는 복수의 외부 오브젝트들의 모델링 정보가 저장된 외부 오브젝트 DB에서 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 상기 오브젝트 모델링 정보가 상기 외부 오브젝트 DB에 존재하는지 판단하는 단계, 판단결과 존재하는 경우, 상기 외부 오브젝트 DB에 존재하는 상기 오브젝트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이하는 단계를 포함할 수 있다.
상기 3D 입체 관제 시스템 제공방법은 상기 외부 오브젝트의 상기 오브젝트 모델링 정보가 상기 3D 모델링 정보 상에 디스플레이되거나 상기 제2깊이에서 디스플레이되는 경우, 상기 외부 오브젝트에 대응되며 상기 외부 오브젝트 DB에 저장된 추가정보를 선택적으로 디스플레이하는 단계를 더 포함할 수 있다.
상기 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계는 상기 외부 오브젝트에 대한 정보를 출력하는 영상획득 수단에 대한 정보, 상기 영상획득 수단이 감시하는 서브공간의 상기 대상공간에서의 위치, 상기 서브공간 내에서 상기 외부 오브젝트의 현재 위치에 대한 정보 중 적어도 하나에 기초하여 상기 3D 모델링 정보 상에서의 상기 특정 위치를 판단하는 단계를 포함할 수 있다. 상기 3D 입체 관제 시스템 제공방법은 프로그램을 기록한 컴퓨터 판독가능한 기록매체에 저장될 수 있다.
본 발명에 따른 3D 입체 관제 시스템은 따라서, 본 발명이 이루고자 하는 기술적인 과제는 3D 입체영상을 기반으로 하는 광각(wide angle) 관제시스템의 구축을 통해보다 정확한 공간정보를 전달할 수 있고, 공간 또는 오브젝트가 3D 정보로써 모델링 될 수 있으므로 정보의 활용성을 높일 수 있는 효과가 있다.
또한, 관제대상 공간자체를 3D 모델링 정보 또는 실사정보로 선택적으로 디스플레이할 수 있어서, 사실적인 공간정보의 전달과 함께 상기 공간을 구성하는 오브젝트에 대한 활용성, 응용가능성이 높은 효과가 있다.
또한, 여러 대의 모니터 또는 모니터를 분할하여 사용하던 화면을 이음새가 없는 하나의 초광각 디스플레이 장치으로 전환하여, 베젤이나 이음새, 분할된 공간정보가 주던 가시적인 불편함을 해소하고 사실적인 현장정보를 즉, 관제대상 공간에 몰입하여 모니터링할 수 있는 효과가 있다.
또한, 특정 오브젝트를 보다 자세히 모니터링 하기 위해 상기 특정 오브젝트가 유저(관제자) 방향 즉, Z축 상에서 가까운 깊이에 디스플레이되도록 하여, 전체 대상공간의 모니터링 범위를 좁히지 않고도 상기 특정 오브젝트에 대한 보다 상세한 디스플레이정보 및 기타 추가적인 정보를 얻을 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 종래의 관제시스템의 일 예를 나타내는 도면이다.
도 2는 본 발명의 실시 예에 3D 입체 관제 시스템 제공방법을 구현하기 위한 개략적인 구성을 나타내는 도면이다.
도 3은 본 발명의 실시 예에 따른 3D 입체 관제 시스템의 개략적인 구성을 나타내는 도면이다.
도 4는 본 발명의 실시 예에 따른 3D 입체 관제 시스템에서 외부 오브젝트를 대상공간에 대응되는 3D 모델링 정보 상에 디스플레이하는 방법을 설명하기 위한 도면이다.
도 5 내지 도 9는 본 발명의 실시 예에 따른 3D 입체 관제 시스템에 따라 디스플레이 장치상에 디스플레이될 수 있는 결과의 일 예들을 나타내는 도면이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다.
반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 2는 본 발명의 실시 예에 3D 입체 관제 시스템 제공방법을 구현하기 위한 개략적인 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 실시 예에 따른 3D 입체 관제 시스템 제공방법을 구현하기 위해서는 3D 입체 관제 시스템(100)이 구비된다. 상기 3D 입체 관제 시스템(100)은 본 발명의 실시 예에 따른 디스플레이 장치(200)에 관제대상이 되는 대상 공간 즉, 모니터링 되는 공간에 대한 정보를 디스플레이할 수 있다. 또한, 상기 3D 입체 관제 시스템(100)은 상기 대상공간에 위치하는 외부 오브젝트에 대한 정보를 상기 디스플레이 장치(200)에 디스플레이할 수도 있다.
상기 3D 입체 관제 시스템(100)에 의해 디스플레이되는 상기 대상공간정보는 3D로 모델링된 모델링 정보일 수 있다. 이를 위해 상기 3D 입체 관제 시스템(100)은 상기 대상공간에 상응하는 공간정보 즉, 공간 모델링 정보를 저장하고 있다. 상기 공간 모델링 정보는 상기 대상공간이 건물인 경우 소정의 BIM(Building Information Modeling) 정보를 포함할 수 있다. 또한, 상기 공간이 외부공간인 경우는 소정의 GIS(geographic information system) 정보를 포함할 수도 있다. 따라서, 상기 공간 모델링 정보는 상기 3D 입체 관제 시스템(100)이 관제하는 대상공간에 상응하는 BIM 정보 및/또는 상기 GIS 정보를 포함할 수 있다.
상기 공간 모델링 정보를 표현할 수 있는 선행기술들이 공지된 바 있다. 예컨대, 상기 공간 모델링 정보는 한국특허출원(출원번호 10-2007-0060641, "공간 맵 저작 방법 및 그 도구, 공간 맵을 이용한 자동화 시스템")에 개시된 바 있는 소정의 표준공간데이터로 표현될 수 있다. 또는, 상기에 개시된 표준공간데이터에 소정의 GIS 정보들이 융합되어 실내외 공간을 동시에 표현할 수 있도록 정의된 소정의 모델링 정보가 별도로 정의될 수도 있다. 기타 다양한 데이터 스트럭쳐(data structure) 및/또는 알고리즘을 통해 소정의 대상공간이 3D 모델링 정보로 모델링될 수 있다.
상기 디스플레이 장치(200)는 종래의 평면 모니터로 구현될 수도 있지만, 본 발명의 기술적 사상 및 효과를 달성하기 위해 곡면 디스플레이 장치(예컨대, 초광각(와이드) 곡면 디스플레이 또는 스크린 등)로 구현되는 것이 바람직하다. 따라서, 하나의 상기 디스플레이 장치(200)로 상기 대상공간을 모니터링 할 수 있으므로, 화면 분할 또는 베젤 등에 대한 관제의 불편함과 모니터별로 디스플레이되는 공간이 전체 대상공간에서 어디에 위치하는지 등을 파악하는데 불편한 점을 해소할 수 있는 효과가 있다. 구현 예에 따라서는, 상기 디스플레이 장치(200)는 360도의 실린더 형으로 구현될 수도 있으며, 이러한 경우에는 대상공간은 특정 위치를 기준으로 360도의 파노라마 영상을 통해 모니터링될 수도 있다.
한편, 상기 3D 입체 관제 시스템(100)은 영상획득 시스템(400)으로부터 상기 대상공간에 포함된 각각의 공간(이하, '서브공간')에 대한 정보를 수신할 수 있다. 상기 영상획득 시스템(400)은 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)을 포함할 수 있다. 또한, 상기 영상획득 시스템(400)에는 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)로부터 획득된 영상들에 대한 정보를 저장하는 영상저장 장치(410)가 더 포함될 수도 있다. 상기 3D 입체 관제 시스템(100)은 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)로부터 직접 상기 서브공간에 대한 정보를 수신할 수도 있고, 상기 영상저장 장치(410)를 통해 상기 서브공간에 대한 정보를 수신할 수도 있다.
상기 3D 입체 관제 시스템(100)은 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각에 대한 정보(예컨대, 영상획득 장치의 식별정보, 상기 영상획득 장치가 모니터링하는 서브공간에 대한 정보 등)를 미리 저장하고 있을 수 있다. 따라서, 상기 3D 입체 관제 시스템(100)은 상기 대상공간의 3D 모델링 정보 및 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각에 대한 정보에 기초하여 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)가 획득하는 각각의 영상에 대응하는 각각의 공간 즉, 서브공간의 위상(위치 및 상태), 속성, 상기 서브공간과 다른 서브공간의 상관관계 등을 알 수 있다.
상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각은 서로 종류가 다를 수도 있다. 예컨대, 상기 대상공간의 특정 서브공간을 촬영하기 위해서는 회전형 카메라가 설치될 수도 있고, 다른 서브공간을 촬영하기 위해서는 고정형 카메라가 설치될 수도 있다. 영상획득 장치의 종류는 대상공간 또는 서브공간의 특성에 따라 적합하게 선택될 수 있다.
본 발명의 실시 예에 따른 상기 대상공간 중 적어도 일부 영역은 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)에 의해 모니터링 될 수 있다. 따라서, 상기 3D 입체 관제 시스템(100)은 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각에 의해 획득되는 실사영상 정보를, 상기 3D 모델링 정보 상에서 상기 실사영상 정보에 대응되는 위치에 선택적으로 디스플레이할 수도 있다.
상기 3D 입체 관제 시스템(100)은 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각에 대응되는 영상 즉, 서브공간의 영상을 모니터링 하면서, 상기 서브공간에 외부 오브젝트(예컨대, 상기 서브공간에 특정 물체 또는 사람 등)가 출현 및/또는 이동하는 경우, 상기 서브공간이 상기 대상공간상에서 어디에 위치하는지를 판단하고, 판단된 결과에 따라 상기 외부 오브젝트를 상기 대상공간에 해당하는 3D 모델링 정보 상에 디스플레이할 수 있다.
한편, 상기 외부 오브젝트 역시 소정의 모델링 방식에 의해 모델링되는 정보일 수 있다. 상기 대상공간에 출현할 수 있는 외부 오브젝트가 한정된 오브젝트인 경우, 상기 외부 오브젝트에 대한 모델링 정보 즉, 오브젝트 모델링 정보가 상기 3D 입체 관제 시스템(100)에 미리 저장되어 있을 수 있다. 구현 예에 따라서는, 상기 3D 입체 관제 시스템(100)이 상기 대상공간에 출현하는 외부 오브젝트를 실시간으로 파악하여, 소정의 방식으로 상기 오브젝트를 모델링 하고, 모델링된 오브젝트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이할 수도 있다. 만약, 상기 외부 오브젝트가 실시간으로 모델링 되기 적합하지 않은 경우(예컨대, 모델링 하기 충분하지 않은 시간 내에 대상공간 또는 서브공간을 지나가는 경우 등)에는 소정의 디폴트 모델링 정보(예컨대, 간단한 도형 등)가 상기 외부 오브젝트에 대응되는 모델링 정보로 이용될 수도 있다.
상기 유저 단말기(300)는 상기 3D 입체 관제 시스템(100)으로 소정의 요청신호를 전송하거나, 상기 3D 입체 관제 시스템(100)을 제어하기 위한 소정의 제어신호를 전송할 수 있는 단말기일 수 있다. 상기 유저 단말기(300)는 관제자 또는 정당한 권한을 가진자가 이용하는 단말기일 수 있다. 예컨대, 상기 유저 단말기(300)를 통해 상기 3D 입체 관제 시스템(100)으로 소정의 오브젝트를 선택하는 신호가 수신될 수 있다. 그러면, 상기 3D 입체 관제 시스템(100)은 상기 오브젝트를 보다 명확하게 유저가 볼 수 있도록 소정의 방식으로 상기 오브젝트를 3D 방식으로 디스플레이할 수 있다. 본 발명의 기술적 사상에 의하면, 상기 3D 입체 관제 시스템(100)은 상기 유저 단말기(300)에 의해 선택된 오브젝트에 대한 정보를 줌인하는 형식이 아니라, 3D 디스플에상에서 유저 방향으로 가까운 깊이(depth)에 디스플레이하도록 할 수 있다. 즉, 종래의 줌인 방식과 같이 유저가 선택된 오브젝트에 가까이 접근하여 상기 오브젝트를 확인하도록 하는 방식이 아니라, 선택된 상기 오브젝트를 상기 3D 모델링 정보 상에서 추출하여 유저 방향으로 가져오는 방식으로 상기 오브젝트에 대한 상세정보를 디스플레이하도록 할 수 있다. 즉, 모니터링 되는 대상공간은 소저의 제1깊이(예컨대, 원래 디스플레이되던 깊이)에 그대로 디스플레이하고 있는 상태에서 선택된 오브젝트만, 가까운 깊이 즉, 제2깊이에 디스플레이할 수 있다. 따라서, 종래에 특정 오브젝트를 보다 상세하게 확인하기 위해서 줌인 방식을 쓰는 경우에는, 대상공간에 대한 시야범위가 좁아질 수밖에 없는 문제점이 존재하였지만, 본 발명의 기술적 사상에 의하면, 대상공간의 시야 범위는 그대로 둔 채, 선택된 오브젝트만을 별도로 추출하여보다 3D 입체상에서보다 가까이 디스플레이함으로써 종래의 문제점을 해결할 수 있는 효과가 있다.
상기 선택된 오브젝트 즉, 선택 오브젝트가 상기 제2깊이에서 디스플레이될 때는, 상기 선택 오브젝트의 모델링 정보가 디스플레이될 수도 있고, 상기 선택 오브젝트의 실사 정보가 디스플레이될 수도 있다. 상기 실사 정보가 디스플레이되는 경우에는 상기 실사 정보는 상기 선택 오브젝트의 정지이미지일 수도 있고, 상기 선택 오브젝트의 실사 동영상일 수도 있다. 상기 정지 이미지 또는 상기 동영상 이미지는 상기 선택 오브젝트가 출현한 서브공간에 대응되는 영상획득 장치로부터 수신될 수 있다. 또한, 상기 선택 오브젝트가 이동체이고 특정 서브공간에서 다른 서브공간으로 이동한 경우, 상기 3D 입체 관제 시스템(100)은 상기 특정 서브공간에서의 실사 동영상을 상기 제2깊이에서 디스플레이하다가, 상기 특정 서브공간을 벗어나서 상기 다른 서브공간으로 이동한 경우, 상기 서브공간 간의 위상관계와 상기 선택 오브젝트의 이동방향을 계산하여 상기 다른 서브공간에 대응되는 영상획득 장치가 무엇인지를 판단할 수도 있다. 따라서, 상기 선택 오브젝트가 상기 특정 서브공간을 벗어나서 상기 다른 서브공간으로 이동한 경우, 상기 3D 입체 관제 시스템(100)은 상기 다른 서브공간에 대응되는 영상 즉 영상획득 장치가 무엇인지를 자동으로 판단하고, 연속하여 상기 외부 오브젝트에 대한 실사 동영상을 상기 제2깊이에서 디스플레이할 수도 있다.
또한, 상기 선택 오브젝트는 상기 외부 오브젝트 뿐만 아니라, 상기 3D 모델링 정보에 포함된 공간 오브젝트(예컨대, 건물, 나무, 또는 기타 인공조성물 등)일 수도 있다. 상기 공간 오브젝트와 상기 외부 오브젝트를 구분하는 기준은 대상공간 즉, 상기 3D 모델링 정보에 포함된 오브젝트인지 아닌지 여부일 수 있다. 예컨대, 미리 특정 대상공간에 대응되는 3D 모델링 정보가 생성되어 상기 3D 입체 관제 시스템(100)에 저장되어 있을 수 있다. 그러면, 상기 3D 모델링 정보에 포함된 오브젝트는 상기 대상공간을 구성하는 오브젝트 즉, 공간 오브젝트로 분류될 수 있고, 그렇지 않은 오브젝트, 즉, 관제 중에 새롭게 출현하는 오브젝트를 외부 오브젝트로 분류할 수 있다. 어떠한, 오브젝트든 유저는 상기 유저 단말기(300)를 통해 오브젝트를 선택할 수 있으며, 그러면 상기 3D 입체 관제 시스템(100)은 상기 오브젝트를 유저방향으로 추출하여 제2깊이에서 디스플레이할 수 있다. 또한, 상기 제2깊이에서 디스플레이되는 상기 선택 오브젝트는 유저의 조작에 따라 회전하거나, 다양한 각도에서 보여지도록 제어될 수 있다.
도 3은 본 발명의 실시 예에 따른 3D 입체 관제 시스템의 개략적인 구성을 나타내는 도면이다.
도 3을 참조하면, 본 발명의 실시 예에 따른 3D 입체 관제 시스템(100)은 제어모듈(110), 외부 오브젝트 판단모듈(120), 및 공간 모델링 DB(130)를 포함한다. 상기 3D 입체 관제 시스템(100)은 외부 오브젝트 DB(140) 및/또는 모델링 모듈(150)을 더 포함할 수 있다.
본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스(resource)의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다. 따라서, 상기 모듈은 본 명세서에서 정의되는 기능을 수행하는 하드웨어 및 소프트웨어의 결합을 의미하며 특정 물리적 구성을 의미하는 것은 아니다.
또한, 상기 3D 입체 관제 시스템(100)은 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비한 논리적인 구성을 의미할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 3D 입체 관제 시스템(100)은 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 3D 입체 관제 시스템(100)은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다.
예컨대, 상기 제어모듈(110), 상기 외부 오브젝트 판단모듈(120), 상기 공간 모델링 DB(130), 상기 외부 오브젝트 DB(140), 및/또는 상기 모델링 모듈(150) 각각은 서로 다른 물리적 장치에 위치할 수도 있고, 동일한 물리적 장치에 위치할 수도 있다. 또한, 구현 예에 따라서는 상기 제어모듈(110), 상기 외부 오브젝트 판단모듈(120), 상기 공간 모델링 DB(130), 상기 외부 오브젝트 DB(140), 및/또는 상기 모델링 모듈(150) 각각을 구성하는 소프트웨어 및/또는 하드웨어의 결합 역시 서로 다른 물리적 장치에 위치하고, 서로 다른 물리적 장치에 위치한 구성들이 서로 유기적으로 결합되어 각각의 상기 모듈들을 구현할 수도 있다.
상기 제어 모듈(110)은 상기 3D 입체 관제 시스템(100)에 포함되는 다른 구성(예컨대, 상기 외부 오브젝트 판단모듈(120), 상기 공간 모델링 DB(130), 상기 외부 오브젝트 DB(140), 및/또는 상기 모델링 모듈(150) 등)의 기능 및/또는 리소스(resource)를 제어할 수 있다.
상기 공간 모델링 DB(130)는 관제 대상이 되는 대상공간의 3D 모델링 정보를 저장할 수 있다. 상기 3D 모델링 정보는 전술한 바와 같이 BIM 정보 및/또는 GIS 정보 중 적어도 하나를 포함하거나, 공간을 표현할 수 있는 별도의 모델링 언어로 표현될 수 있다.
상기 외부 오브젝트 판단모듈(120)은 상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보를 획득할 수 있다. 상기 외부 오브젝트에 대한 정보는 상기 외부 오브젝트의 모델링 정보 또는 상기 외부 오브젝트를 포함하는 실사영상정보를 포함할 수 있다. 상기 외부 오브젝트 판단모듈(120)이 상기 외부 오브젝트에 대한 정보를 획득하기 위해서는, 후술할 바와 같이 소정의 모델링 모듈(150)로부터 상기 외부 오브젝트의 모델링 정보를 실시간으로 수신할 수도 있고, 외부 오브젝트 DB(140)로부터 미리 저장된 모델링 정보를 추출할 수도 있다.
이를 위해 상기 외부 오브젝트 판단모듈(120)은 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430) 각각으로부터 서브공간의 영상 정보를 수신할 수 있다. 그리고, 상기 서브공간의 영상정보에서 특정 물체 또는 사람 즉, 외부 오브젝트가 출현하는지를 판단할 수 있다. 그러면, 상기 외부 오브젝트 판단모듈(120)은 출현된 상기 외부 오브젝트가 미리 저장된 오브젝트 모델링 정보에 대응하는지를 판단할 수 있다. 상기 미리 저장된 오브젝트 모델링 정보는 상기 외부 오브젝트 DB(140)에 저장되어 있을 수 있다. 또는, 상기 모델링 모듈(150)로 상기 외부 오브젝트에 대한 영상정보를 출력하고, 출력된 영상정보에 기초하여 생성된 모델링 정보를 상기 모델링 모듈(150)로부터 수신할 수도 있다.
구현 예에 따라서는, 상기 적어도 하나의 영상획득 장치(예컨대, 420, 및 430)가 아니라 별도로 적어도 하나의 외부 오브젝트에 대한 시뮬레이션 정보(예컨대, 상기 외부 오브젝트의 모델링 정보, 위치정보, 위치정보의 변화 등)를 소정의 시스템 또는 장치로부터 수신할 수도 있다. 이러한 경우에는 상기 3D 입체 관제 시스템(100)은 3D 몰입 시뮬레이션 시스템의 기능도 수행할 수 있다.
상기 제어모듈(110)은 상기 대상공간에 상응하는 3D 모델링 정보를 상기 디스플레이 장치(200)에 디스플레이할 수 있다. 또한, 상기 제어모듈(110)은 상기 외부 오브젝트 판단모듈(120)로부터 상기 외부 오브젝트에 대한 정보를 수신하고, 수신된 사이 외부 오브젝트를 3D 모델링 정보상에 디스플레이할 수 있다. 물론, 상기 제어모듈(110)은 현실의 대상공간에서의 상기 외부 오브젝트의 위치에 상응하도록 상기 3D 모델링 정보 상에 상기 외부 오브젝트에 대한 정보를 디스플레이할 수 있다. 상기 3D 모델링 정보 상에 디스플레이되는 상기 외부 오브젝트에 대한 정보는 상기 외부 오브젝트의 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사영상정보일 수 있다.
이처럼 상기 디스플레이 장치(200)에 상기 3D 모델링 정보 및 상기 외부 오브젝트가 디스플레이되면, 상기 제어모듈(110)은 유저 단말기(300)로부터 상기 3D 모델링 정보에 포함된 공간 오브젝트 및/또는 상기 외부 오브젝트의 선택신호를 수신할 수 있다. 상기 선택신호는 선택된 오브젝트 즉, 선택 오브젝트를 보다 상세히 보기 위해 상기 유저 단말기(300)로부터 출력되는 요청일 수 있다. 그러면, 상기 제어모듈(110)은 전술한 바와 같이 상기 선택 오브젝트를 상기 3D 모델링 정보가 디스플레이되는 깊이보다 관찰자 방향(즉, 화면이 향하는 방향)에 더 가까운 소정의 제2깊이에 디스플레이할 수 있다. 상기 3D 모델링 정보는 상기 선택신호가 수신되기 전에 디스플레이되던 원래의 깊이 또는 상기 제2깊이 보다 더 먼 소정의 제1깊이에 디스플레이할 수 있다. 예컨대, 도 5에 도시된 바와 같이, 소정의 선택 오브젝트(예컨대, 보병, 31)이 선택된 경우, 상기 선택 오브젝트(31)는 3D 모델링 정보가 디스플레이되는 깊이보다 유저(관제자) 방향으로 더 가까운 소정의 제2깊이에 디스플레이될 수 있다.
이처럼 상기 제2깊이에 상기 선택 오브젝트의 모델링 정보가 디스플레이되는 경우, 상기 제어모듈(110)은 상기 유저 단말기(300) 요청에 따라 상기 모델링 정보를 회전하거나, 다른 각도에서의 상기 선택 오브젝트의 모델링 정보를 디스플레이할 수 있다. 즉, 상기 선택 오브젝트에 대한 삼차원 모델링 정보가 존재하므로, 유저(관제자)는 상기 제2깊이에 디스플레이된 상기 선택 오브젝트의 모델링 정보를 회전시키거나 다른 방향에서 바라볼 수 있도록 하여 상기 선택 오브젝트에 대한 상세한 정보를 확인할 수 있다.
한편, 상기 외부 오브젝트들의 오브젝트 모델링 정보는 상기 외부 오브젝트 DB(140)에 미리 저장되어 있을 수 있다. 즉, 상기 3D 입체 관제 시스템(100)이 관제하는 대상공간에 반복적으로 출현하거나, 출현하는 것이 예정되어 있는 외부 오브젝트가 존재하는 경우, 상기 외부 오브젝트는 미리 상기 외부 오브젝트 DB(140)에 저장되어 있을 수 있다. 그러면, 상기 외부 오브젝트 판단모듈(120)이 상기 외부 오브젝트가 출현되었음을 판단한 경우, 상기 외부 오브젝트의 영상정보에 기초하여 상기 외부 오브젝트 DB(140)에 저장된 복수의 오브젝트 모델링 정보 중에서 상기 외부 오브젝트에 상응하는 오브젝트 모델링 정보가 존재하는지를 판단할 수 있다. 이를 위해 상기 외부 오브젝트 판단모듈(120)은 소정의 영상인식 알고리즘을 이용할 수도 있다.
상기 외부 오브젝트 DB(140)에 상기 외부 오브젝트의 오브젝트 모델링 정보가 저장되어 있는 경우, 상기 외부 오브젝트 판단모듈(120)은 상기 외부 오브젝트의 오브젝트 모델링 정보를 상기 제어모듈(110)로 전달할 수 있다. 또한, Z축 방향(즉, 유저 또는 화면방향)의 거리 등에 대한 정보를 전달할 수도 있다. 상기 Z축 방향의 거리정보는 상기 외부 오브젝트가 복수의 영상획득 장치에 의해 모니터링되는 경우에 판단될 수도 있고, 소정의 영상분석 또는 인식알고리즘을 이용해 추정된 Z축 방향의 거리정보가 이용될 수도 있다. 그러면, 상기 제어모듈(110)은 상기 거리정보에 따라 상기 3D 모델링 정보 상에서 상기 외부 오브젝트의 오브젝트 모델링 정보가 디스플레이될 크기를 결정할 수도 있다.
만약, 상기 외부 오브젝트에 대한 모델링 정보가 미리 저장되어 있지 않은 경우, 상기 제어모듈(110)이 디스플레이하는 외부 오브젝트의 모델링 정보는 디폴트 모델링 정보 및/또는 상기 모델링 모듈(150)에 의해 실시간으로 모델링되는 모델링 정보일 수 있다. 즉, 상기 외부 오브젝트 판단모듈(120)은 출현한 외부 오브젝트에 대응되는 모델링 정보가 미리 상기 외부 오브젝트 DB(140)에 저장되어 있지 않다고 판단할 수 있다. 그러면, 상기 외부 오브젝트 판단모듈(120)은 상기 모델링 모듈(150)로 상기 외부 오브젝트의 영상정보를 전달하고, 상기 모델링 모듈(150)은 실시간으로 상기 외부 오브젝트의 영상정보에 기초하여 상기 외부 오브젝트를 모델링할 수도 있다. 이때에는 상기 모델링 모듈(150)은 상기 영상정보에 기초하여 인식할 수 있는 정보만으로 간략히 상기 외부 오브젝트의 모델링 정보를 생성할 수 있다. 예컨대, 상기 외부 오브젝트의 대략적인 윤곽만을 모델링 정보로써 생성할 수도 있다. 만약, 상기 외부 오브젝트를 복수의 방향에서 모니터링하는 영상획득 장치가 존재하는 경우, 상기 영상획득 장치 각각에 의해 획득된 상기 외부 오브젝트의 다양한 각도에서의 영상정보를 이용하는 경우에는, 상기 모델링 모듈(150)은 상기 외부 오브젝트의 모델링 정보를 3D로 구현할 수도 있다. 물론, 이를 위해 상기 모델링 모듈(150)은 획득된 영상정보를 분석하고, 그에 기초하여 모델링 정보를 생성할 수 있는 다양한 알고리즘을 이용할 수 있다.
한편, 다른 실시 예에 의하면, 미리 저장된 오브젝트 모델링 정보가 없는 경우에는, 상기 제어모듈(110)은 디폴트 모델링 정보(예컨대, 미리 정해진 단순한 도형 등)를 상기 외부 오브젝트의 오브젝트 모델링 정보로 이용할 수도 있다. 상기 3D 입체 관제 시스템(100)의 연산처리능력이 실시간 모델링을 수행하기 충분치 않거나, 상기 외부 오브젝트의 움직임이 빠른 경우에는 이처럼 상기 디폴트 모델링 정보가 이용될 수도 있다. 또는, 단순히 상기 외부 오브젝트의 실사정보가 상기 3D 모델링 정보상에 디스플레이될 수도 있다. 또는 상기 외부 오브젝트가 디스플레이되기 전부터 상기 영상획득 장치(예컨대, 410)가 상기 외부 오브젝트의 모델링을 미리 수행할 수도 있다. 이때는 상기 영상획득 장치(예컨대, 410)가 모니터링 하는 공간에 비해 상기 영상획득 장치(예컨대, 410)에 의해 상기 디스플레이 장치(200)에 디스플레이되는 공간은 더 작을 수도 있다.
한편, 구현 예에 따라, 상기 외부 오브젝트 DB(140)에 특정 오브젝트에 대한 추가정보(예컨대, 모델링 정보 이외의 추가적인 설명정보)가 존재하는 경우, 상기 제어모듈(110)은 상기 추가정보를 더 디스플레이할 수도 있다. 이때 상기 추가정보 역시 상기 제2깊이에서 디스플레이될 수도 있지만, 이에 한정되는 것은 아니다. 상기 추가정보는 예컨대, 선택 오브젝트가 건물인 경우, 건물의 연면적, 층수, 방수, 등의 정보일 수 있다. 기타 선택 오브젝트의 종류에 따라 다양한 추가정보가 미리 상기 외부 오브젝트 DB(140)에 저장되어 있을 수 있으며, 상기 추가정보의 일 예들은 도 5 내지 도 9에 도시된 정보들(예컨대, 32, 42, 52, 71 등)일 수 있다.
도 4는 본 발명의 실시 예에 따른 3D 입체 관제 시스템에서 외부 오브젝트를 대상공간에 대응되는 3D 모델링 정보상에 디스플레이하는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 상기 제어모듈(110)은 소정의 외부 오브젝트가 출현 또는 모니터링된 경우, 상기 외부 오브젝트의 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보를 3D 모델링 정보 상의 특정 위치에 디스플레이할 수 있다. 이때, 상기 특정 위치를 판단하기 위해 상기 제어모듈(110)은 상기 외부 오브젝트에 대한 정보를 획득한 영상획득 장치(예컨대, 420)에 대한 정보(예컨대, 상기 영상획득 장치(420)의 식별정보), 상기 영상획득 장치(420)가 감시하는 서브공간(10)의 상기 대상공간에서의 위치 및/또는 상기 서브공간 내에서 상기 외부 오브젝트의 현재 위치에 대한 정보 등을 이용하여, 상기 외부 오브젝트가 존재하는 실제 공간상의 위치에 맞게 상기 외부 오브젝트에 대한 정보가 3D 모델링 정보 상의 특정 위치에 디스플레이할 수 있다.
즉, 상기 3D 입체 관제 시스템(100)은 영상획득 장치 각각이 감시하는 서브공간에 대한 정보를 미리 가지고 있을 수 있다. 상기 서브공간 역시 상기 3D 모델링 정보를 표현하는 방식으로 정의되어 있을 수 있다. 그러면, 상기 제어모듈(110)은 상기 외부 오브젝트를 모니터링한 영상획득 장치를 파악하고, 그에 따라 상기 상기 3D 모델링 정보상에서의 특정공간(20)을 결정할 수 있다. 그러고, 상기 서브공간(10) 내에서 상기 외부 오브젝트의 상대적 위치에 따라 상기 특정 공간(20)내에서 상기 외부 오브젝트에 대한 정보가 디스플레이될 위치가 결정될 수 있다.
도 5 내지 도 9는 본 발명의 실시 예에 따른 3D 입체 관제 시스템에 따라 디스플레이 장치상에 디스플레이될 수 있는 결과의 일 예들을 나타내는 도면이다.
도 5 내지 도 9는 미리 외부 오브젝트의 오브젝트 모델링 정보가 저장되어 있는 경우를 도시하고 있는데, 먼저, 도 5를 참조하면, 곡면 디스플레이 장치(200)에 도 5에 도시된 바와 같은 3D 모델링 정보가 디스플레이되고 있다. 그리고 상기 3D 모델링 정보 상에 복수의 외부 오브젝트(예컨대, 탱크, 보병, 헬리콥터 등)이 디스플레이되고 있다. 그러면, 유저는 상기 유저 단말기(300)를 통해 소정의 오브젝트(30)를 선택할 수 있다. 그러면, 상기 3D 입체 관제 시스템(100)은 선택된 선택 오브젝트(30)의 모델링 정보(31)를 상기 3D 모델링 정보보다 유저 방향(Z축 방향)으로 더 가까운 소정의 제2깊이에 디스플레이할 수 있다. 물론, 상기 3D 입체 관제 시스템(100)은 상기 선택 오브젝트(30)에 대한 소정의 추가정보가 상기 외부 오브젝트 DB(140)에 존재하는 경우, 상기 추가정보를 도 5에 도시된 바와 같이 상기 제2깊이에 더 디스플레이할 수도 있다. 물론, 추가정보와 상기 모델링 정보(31)가 반드시 같은 깊이에 디스플레이되어야 하는 것은 아니다. 또한, 상기 추가정보는 반드시 텍스트 정보만을 의미하는 것은 아니며, 미리 저장된 영상, 음성, 또는 동영상 정보 등 어떠한 형태의 정보로도 구현될 수 있다.
도 6 및 도 7을 참조하면, 도 5와는 달리 탱크(헬리콥터)가 선택 오브젝트(40, 50)로써 선택된 경우를 나타낸다. 그러면, 전술한 바와 같이 선택된 탱크(헬리콥터)에 해당하는 모델링 정보(41, 51)가 제2깊이에 디스플레이될 수 있으며, 소정의 추가정보(42, 52)가 디스플레이될 수도 있다.
도 8은 소정의 선택 오브젝트가 선택된 경우, 상기 선택 오브젝트의 실사정보(60)가 소정의 제2깊이에 디스플레이되는 경우를 나타낸다. 상기 실사정보는 상기 선택 오브젝트를 모니터링 하는 영상획득장치가 획득하고 있는 실시간 정보 또는 소정 시점의 영상정보 중 적어도 하나일 수 있다.
도 9는 소정의 선택 오브젝트가 선택된 경우, 상기 선택 오브젝트의 실사정보(70) 및 상기 선택 오브젝트의 추가정보(71)가 소정의 제2깊이에 디스플레이되는 경우을 나타낸다.
상술한 바와 같이 본 발명의 실시 예에 따른 3D 입체 관제 시스템(100)은 관제 대상공간의 특성, 상기 대상공간에 위치할 수 있는 외부 오브젝트의 종류 및 특성에 따라 3D 모델링 정보 및/또는 오브젝트 모델링 정보를 미리 저장하거나, 실시간으로 생성하면서 대상공간에 포함된 오브젝트의 실사 정보를 단순히 전달하는 것이 아니라 다양한 추가정보 또는 회전이나 각도의 변환과 같은 다양한 응용이 가능해질 수 있는 효과를 제공한다. 또한, 특정 오브젝트를 상세히 보려하는 경우에도 전술한 바와 같이 줌인하는 것이 아니라, 대상공간 전체의 3D 모델링 정보의 시야범위를 유지한 채 상기 특정 오브젝트만을 보다 확대해서 보거나 추가정보를 볼 수 있는 효과가 있다.
본 발명의 실시 예에 따른 3D 입체 관제 시스템 제공방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드 디스크, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (17)

  1. 관제 대상이 되는 대상공간의 3D 모델링 정보를 저장하는 공간 모델링 DB;
    상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보를 획득하기 위한 외부 오브젝트 판단 모듈;
    상기 3D 모델링 정보를 디스플레이 장치에 디스플레이하고, 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 상응하는 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나를 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이하기 위한 제어모듈을 포함하는 3D 입체 관제 시스템.
  2. 제 1항에 있어서, 상기 제어모듈은,
    상기 3D 모델링 정보에 포함된 공간 오브젝트 또는 상기 외부 오브젝트 중 적어도 하나를 선택하는 선택신호를 유저 단말기로부터 수신하고, 수신된 상기 선택신호에 응답하여 상기 3D 모델링 정보는 제1깊이에 디스플레이하고, 선택신호에 상응하는 선택 오브젝트의 모델링 정보 또는 실사정보는 상기 제1깊이보다 유저 방향에 가까운 제2깊이로 디스플레이하는 3D 입체 관제 시스템.
  3. 제 2항에 있어서, 상기 제어모듈은,
    상기 제2깊이에 상기 선택 오브젝트의 모델링 정보가 디스플레이되는 경우, 상기 유저 단말기로부터의 요청에 따라 상기 모델링 정보를 회전하거나, 다른 각도에서의 상기 모델링 정보를 디스플레이하는 3D 입체 관제 시스템.
  4. 제 2항에 있어서, 상기 3D 입체 관제 시스템은,
    복수의 외부 오브젝트들의 모델링 정보가 저장된 외부 오브젝트 DB를 더 포함하며,
    상기 제어모듈은,
    상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 상기 오브젝트 모델링 정보가 상기 외부 오브젝트 DB에 존재하는 경우, 상기 오브젝트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이하는 3D 입체 관제 시스템.
  5. 제 4항에 있어서, 상기 외부 오브젝트 DB는 상기 외부 오브젝트에 대한 추가정보를 더 포함하며,
    상기 제어모듈은,
    상기 외부 오브젝트의 상기 오브젝트 모델링 정보가 상기 3D 모델링 정보 상에 디스플레이되거나 상기 제2깊이에서 디스플레이되는 경우, 상기 외부 오브젝트에 대응되는 추가정보를 선택적으로 디스플레이하는 3D 입체 관제 시스템.
  6. 제 1항에 있어서, 상기 제어모듈은,
    상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 오브젝트 모델링 정보가 상기 3D 입체 관제 시스템에 미리 저장되어 있지 않은 경우, 미리 설정된 디폴트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이하는 3D 입체 관제 시스템.
  7. 제 1항에 있어서, 상기 3D 입체 관제 시스템은,
    상기 외부 오브젝트에 대한 정보에 기초하여 상기 외부 오브젝트의 모델링 정보를 생성하기 위한 모델링 모듈을 더 포함하며,
    상기 제어모듈은,
    상기 모델링 모듈에 의해 생성된 상기 외부 오브젝트의 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이하는 3D 입체 관제 시스템.
  8. 제 1항에 있어서, 상기 제어모듈은,
    상기 외부 오브젝트에 대한 정보를 출력하는 영상획득 수단에 대한 정보, 상기 영상획득 수단이 감시하는 서브공간의 상기 대상공간에서의 위치, 상기 서브공간 내에서 상기 외부 오브젝트의 현재 위치에 대한 정보 중 적어도 하나에 기초하여 상기 3D 모델링 정보 상에서의 상기 특정 위치를 판단하는 3D 입체 관제 시스템.
  9. 제 1항에 있어서, 상기 디스플레이 장치은,
    곡면 디스플레이 장치으로 구현되는 것을 특징으로하는 3D 입체 관제 시스템.
  10. 제 1항에 있어서, 상기 대상공간의 3D 모델링 정보는,
    BIM(Building Information Modeling) 정보 또는 GIS(geographic information system) 정보 중 적어도 하나를 포함하는 3D 입체 관제 시스템
  11. 3D 입체 관제 시스템에 의해 관제 대상이 되는 대상공간의 3D 모델링 정보가 곡면 디스플레이 장치상에 디스플레이되는 단계;
    상기 3D 입체 관제 시스템에 의해 상기 대상공간의 특정 위치에 위치하는 외부 오브젝트(object)에 대한 정보가 획득되는 단계; 및
    상기 3D 입체 관제 시스템에 의해 획득된 상기 외부 오브젝트에 대한 정보에 상응하는 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계를 포함하는 3D 입체 관제 시스템 제공방법.
  12. 제 11항에 있어서, 상기 3D 입체 관제 시스템 제공방법은,
    상기 3D 모델링 정보에 포함된 공간 오브젝트 또는 상기 외부 오브젝트 중 적어도 하나를 선택하는 선택신호를 유저 단말기로부터 수신하는 단계;
    수신된 상기 선택신호에 응답하여 상기 3D 모델링 정보는 제1깊이에 디스플레이하고, 선택신호에 상응하는 선택 오브젝트의 모델링 정보 또는 실사정보는 상기 제1깊이보다 유저 방향에 가까운 제2깊이로 디스플레이하는 단계를 더 포함하는 3D 입체 관제 시스템 제공방법.
  13. 제 12항에 있어서, 상기 3D 입체 관제 시스템 제공방법은,
    상기 유저 단말기로부터의 요청에 따라 상기 제2깊이에서 상기 선택 오브젝트의 모델링 정보가 회전되거나, 다른 각도에서의 상기 모델링 정보가 디스플레이되는 단계를 더 포함하는 3D 입체 관제 시스템 제공방법.
  14. 제 12항에 있어서, 상기 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계는,
    복수의 외부 오브젝트들의 모델링 정보가 저장된 외부 오브젝트 DB에서 상기 외부 오브젝트 판단모듈에 의해 획득된 상기 외부 오브젝트에 대한 정보에 대응되는 상기 오브젝트 모델링 정보가 상기 외부 오브젝트 DB에 존재하는지 판단하는 단계;
    판단결과 존재하는 경우, 상기 외부 오브젝트 DB에 존재하는 상기 오브젝트 모델링 정보를 상기 3D 모델링 정보 상에 디스플레이하는 단계를 포함하는 3D 입체 관제 시스템 제공방법.
  15. 제 14항에 있어서, 상기 3D 입체 관제 시스템 제공방법은,
    상기 외부 오브젝트의 상기 오브젝트 모델링 정보가 상기 3D 모델링 정보 상에 디스플레이되거나 상기 제2깊이에서 디스플레이되는 경우, 상기 외부 오브젝트에 대응되며 상기 외부 오브젝트 DB에 저장된 추가정보를 선택적으로 디스플레이하는 단계를 더 포함하는 3D 입체 관제 시스템 제공방법.
  16. 제 11항에 있어서, 상기 오브젝트 모델링 정보 또는 상기 외부 오브젝트의 실사정보 중 적어도 하나가 상기 특정 위치에 상응하는 상기 3D 모델링 정보 상에 디스플레이되는 단계는,
    상기 외부 오브젝트에 대한 정보를 출력하는 영상획득 수단에 대한 정보, 상기 영상획득 수단이 감시하는 서브공간의 상기 대상공간에서의 위치, 상기 서브공간 내에서 상기 외부 오브젝트의 현재 위치에 대한 정보 중 적어도 하나에 기초하여 상기 3D 모델링 정보 상에서의 상기 특정 위치를 판단하는 단계를 포함하는 3D 입체 관제 시스템 제공방법.
  17. 제 11 항 내지 제 16항 중 어느 한 항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체.
KR1020110044553A 2011-05-12 2011-05-12 3d 입체 관제 시스템 및 그 제공방법 KR101246844B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110044553A KR101246844B1 (ko) 2011-05-12 2011-05-12 3d 입체 관제 시스템 및 그 제공방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110044553A KR101246844B1 (ko) 2011-05-12 2011-05-12 3d 입체 관제 시스템 및 그 제공방법

Publications (2)

Publication Number Publication Date
KR20120126615A KR20120126615A (ko) 2012-11-21
KR101246844B1 true KR101246844B1 (ko) 2013-03-25

Family

ID=47511915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110044553A KR101246844B1 (ko) 2011-05-12 2011-05-12 3d 입체 관제 시스템 및 그 제공방법

Country Status (1)

Country Link
KR (1) KR101246844B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190141914A (ko) 2018-06-15 2019-12-26 인하대학교 산학협력단 3차원 오디오 신호를 이용한 항공 관제 시스템 및 항공 관제 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101992662B1 (ko) * 2017-11-23 2019-06-25 (주) 피플소프트 Gis 정보를 이용한 3차원 지형과 cctv 영상의 정합을 통한 3차원 기반 cctv 관제 시스템
KR102120680B1 (ko) * 2018-07-09 2020-06-09 서울시립대학교 산학협력단 3차원 bim 객체 모델링 서버 및 이를 포함하는 3차원 bim 객체 모델링 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060103495A (ko) * 2005-02-16 2006-10-02 메가칩스 엘에스아이 솔루션스 가부시키 가이샤 3차원 그래픽 표시 시스템 및 표시장치와, 전자 메시지전송 시스템 및 표시장치
KR20110045589A (ko) * 2009-10-27 2011-05-04 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060103495A (ko) * 2005-02-16 2006-10-02 메가칩스 엘에스아이 솔루션스 가부시키 가이샤 3차원 그래픽 표시 시스템 및 표시장치와, 전자 메시지전송 시스템 및 표시장치
KR20110045589A (ko) * 2009-10-27 2011-05-04 삼성전자주식회사 3차원 공간 인터페이스 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190141914A (ko) 2018-06-15 2019-12-26 인하대학교 산학협력단 3차원 오디오 신호를 이용한 항공 관제 시스템 및 항공 관제 방법

Also Published As

Publication number Publication date
KR20120126615A (ko) 2012-11-21

Similar Documents

Publication Publication Date Title
US11632516B2 (en) Capture, analysis and use of building data from mobile devices
US11165959B2 (en) Connecting and using building data acquired from mobile devices
CN108830894B (zh) 基于增强现实的远程指导方法、装置、终端和存储介质
AU2021203688B2 (en) Volumetric depth video recording and playback
CN107636534B (zh) 用于图像处理的方法和系统
CN109887003B (zh) 一种用于进行三维跟踪初始化的方法与设备
US10061486B2 (en) Area monitoring system implementing a virtual environment
US8823855B2 (en) User equipment and method for providing augmented reality (AR) service
US9171402B1 (en) View-dependent textures for interactive geographic information system
KR101583286B1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
EP2996088B1 (en) Method for visualising surface data together with panorama image data of the same surrounding
US20190356936A9 (en) System for georeferenced, geo-oriented realtime video streams
EP2830028B1 (en) Controlling movement of a camera to autonomously track a mobile object
EP3448020B1 (en) Method and device for three-dimensional presentation of surveillance video
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
KR101600456B1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
JP7167134B2 (ja) 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
EP2159756B1 (en) Point-cloud clip filter
CN113869231B (zh) 一种用于获取目标对象的实时图像信息的方法与设备
KR20140145217A (ko) 공간정보를 이용한 3차원 가상 모델링 시스템 및 그 방법
CN109906600A (zh) 模拟景深
CA3069813C (en) Capturing, connecting and using building interior data from mobile devices
KR101246844B1 (ko) 3d 입체 관제 시스템 및 그 제공방법
KR101700651B1 (ko) 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee