KR101691524B1 - 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치 - Google Patents

4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치 Download PDF

Info

Publication number
KR101691524B1
KR101691524B1 KR1020150131582A KR20150131582A KR101691524B1 KR 101691524 B1 KR101691524 B1 KR 101691524B1 KR 1020150131582 A KR1020150131582 A KR 1020150131582A KR 20150131582 A KR20150131582 A KR 20150131582A KR 101691524 B1 KR101691524 B1 KR 101691524B1
Authority
KR
South Korea
Prior art keywords
data
information
item
map
visualization
Prior art date
Application number
KR1020150131582A
Other languages
English (en)
Other versions
KR20160059947A (ko
Inventor
장태환
조재현
Original Assignee
엔쓰리엔 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔쓰리엔 주식회사 filed Critical 엔쓰리엔 주식회사
Publication of KR20160059947A publication Critical patent/KR20160059947A/ko
Application granted granted Critical
Publication of KR101691524B1 publication Critical patent/KR101691524B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06393Score-carding, benchmarking or key performance indicator [KPI] analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Human Computer Interaction (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Geometry (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Game Theory and Decision Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Emergency Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 서버 시스템에서 수신되는 데이터를 통합하여 시각화하는 방법을 개시하고 있다. 상기 방법은 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 데이터 추출 단계, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 단계 및 상기 생성된 컨텐츠를 시각화하고 제어하는 시각화 제어 단계를 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현된다.

Description

4D 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치{VISUALIZAION METHOD AND SYSTEM, AND INTEGRATED DATA FILE GENERATING METHOD AND APPARATUS FOR 4D DATA}
본 발명은 데이터 시각화 시스템에서 기존 2D 및 3D 표시 방식을 유지하며, 추가로 4D 방식의 데이터를 생성하고 표시하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치에 관한 것으로, 보다 상세하게는 로우 데이터를 기반으로 4D 데이터를 생성하고, 생성된 4D 데이터를 쉽고 빠르게 표시하기 위한 시각화 및 통합 데이터 파일 생성 방법에 관한 것이다.
일반적으로, 데이터 시각화 방법은 데이터의 종류에 따라 각각의 일반적인 표시방법을 가진다. 예를 들어 1차원 데이터의 경우 시계열 데이터 표시방법을 사용하고 2차원 데이터는 플롯(Plot) 차트와 같은 맵(Map) 형태의 데이터로 표시한다. 그리고 3개 이상의 차원을 가진 데이터는 2차원 데이터 표시방법에 차트 내 항목의 색상이나 크기에 변화를 주어 3차원 데이터를 표시하게 된다.
하지만 이런 일반적인 표시방법을 적용하기에는 현재 사용자가 사용하게 되는 데이터의 크기와 생성주기가 과거와는 비교할 수 없을 만큼 크고 빨라졌기 때문에 사용자는 데이터를 시각화 하는 방법에 어려움을 느끼고 있다. 더불어 고생해서 만든 시각화 결과물이 사용자에게 혼란만을 가중시키고 유용한 정보로서의 역할을 하지 못하고 있다. 그리하여 더 많은 데이터를 시각화 할수록 사용자는 어떻게 시각화된 데이터를 읽고 해석해야 하는지에 대해서 점점 더 어려움에 처하게 된다. 이로써 사용자는 데이터를 명확하게 하고 효과적으로 정보를 공유하려는 데이터 시각화의 본래 취지를 달성하기 어렵게 되었다.
따라서 기존의 데이터 시각화 표시방법을 유지하며, 즉, 1차원 데이터를 표시하는 시계열 표시방법과 2차원 이상의 데이터를 표시하는 맵(Map) 방식의 데이터 표시방법을 유지하며, 새로운 방식의 데이터 시각화 방법 및 이를 위한 효과적인 데이터 저장방법이 요구되었고, 이를 위해 다음과 같은 몇 가지 방법이 제안되었다.
먼저 고정된 데이터 표시 방식이 아닌 피봇(Pivot) 기능으로 다차원 변수를 유동적으로 가져가는 방법이 다음과 같이 고안되었다(Systems and methods for visualizing multi-dimensional data in spreadsheets and other data structures 유럽 등록특허 01077420, 2007년 10월 10일). 여기서, 사용자는 적어도 다차원 데이터에 대한 시각화 방법을 갖기는 했지만 여전히 2개의 축을 통한 2D 데이터 표시만을 제공하게 된다. 그리고 이런 시각화 방법은 데이터를 해석하는 과정에서도 어떤 데이터가 우선인지를 알 수 없게 된다. 또 데이터를 조회하는 과정에서도 시스템 또는 소프트웨어(S/W)와 여러 번의 인터랙션(Interaction)을 거친 후에야 원하는 결과를 얻게 된다.
두번째로, 다차원 데이터를 큐브(Cube) 형태의 데이터로 구성하여 데이터를 피봇(Pivot)하거나 한번에 여러 변수의 데이터를 나열하여 보는 방식으로 시각화하는 방법도 있다(다차원 데이터베이스(database)의 조회 및 시각화를 위한 컴퓨터 시스템 및 방법, 일본, 2006년 11월 24일).
이렇게 1~2차원 데이터 표시방식을 나열하고 통합하여 하나의 디스플레이로 제공하는 방식을 통해 사용자는 더 많은 데이터를 한번에 볼 수 있는 방법이 고안되었지만, 데이터가 많아지면 많아질수록 해석의 한계점을 가지게 된다. 더불어 화면상에 표시되는 데이터가 많아 질수록 사용자는 더 많은 인터랙션(Interaction)을 거쳐야 하며, 이런 것 때문에 교육을 받지 않은 사용자는 사용성에 문제점을 가지게 된다.
결론적으로 상기와 같은 몇 가지 방법은 데이터를 표시한다는 시각화 기본취지에는 부합하나 시각화를 통한 빠른 데이터의 습득 그리고 그를 통한 빠른 의사결정이라는 사용자의 궁극적인 목적을 달성하기에 어려움이 많다.
상기한 문제점을 해결하기 위한 본 발명의 목적은 기존 데이터 시각화 방법 및 그를 위한 데이터 저장 방법과는 다른, 사용자가 데이터를 직관적으로 판단하고 의사결정 할 수 있는 빅 데이터(Big Data) 시대의 새로운 방식의 시각화 및 통합 파일 생성 방법 및 시스템을 제공하는 것이다.
또한, 본 발명의 다른 목적은 본 발명은 기존 시각화 시스템이 제공하는 대부분의 시각화 방법을 유지하면서도 새로운 방식의 시각화 방법론 및 데이터 저장기술을 통해 사용자의 BPM(Business Performance Management) 속도를 높이고, MTTR(Mean Time To Repair)을 낮추는 것이다.
상기한 목적을 달성하기 위한 본 발명의 서버 시스템에서 수신되는 데이터를 통합하여 시각화하는 방법은 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 데이터 추출 단계, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 단계 및 상기 생성된 컨텐츠를 시각화하고 제어하는 시각화 제어 단계를 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
상기 로우데이터는 이미지, 비디오, 텍스트, GIS 정보, 센서 데이터, 시스템 데이터 및 설비 데이터 중 적어도 하나를 포함할 수 있다.
모든 리소스가 POD(Pixel on demand) 기술을 활용하여 네트워크 사용량을 줄이며 통합되도록 구현할 수 있다.
데이터 중 일부는 필요한 경우 타일 서비스(Tile Service)를 사용해 컨텐츠 서버로부터 클라이언트로 한번에 전송되는 데이터의 해상도 및 전송량을 조절하여 전송될 수 있다.
상기 컨텐츠 생성 단계는, 상기 추출된 정보의 각 아이템을 오브젝트화한 오브젝트를 시각화 공간에 통합 구현하는 데이터 구조인 맵(map)을 생성하는 맵 생성 단계를 포함하되, 상기 맵, 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
상기 맵은 3D 데이터를 표시하기 위한 세 개의 축 중 2개는 2D 캔버스로, 1개의 축은 깊이(depth)를 표시하는 줌 레벨(zoom level)로 표시되되, 각각의 줌 레벨의 맵들은 시간축을 갖도록 구현하여 4D 데이터를 시각화할 수 있다.
상기 맵에 통합된 각각의 오브젝트는 속성을 정의하여 시각이 포함된 4D 시각화 공간 상에 표시되고, 상기 오브젝트의 속성 정보는 실제 물리적인 파일 위치, 사용자 인터페이스 상의 위치, 색상, 폰트 및 배경 중 적어도 하나와 관련된 정보를 포함할 수 있다.
상기 맵을 생성함에 있어 기준값보다 많은 양의 디스크를 사용하는 리소스의 경우, 공유 가능한 중앙 집중형 디스크에 통합 파일을 위치시키고, 실제 맵 파일 포맷에서는 상기 파일의 링크(link)를 사용할 수 있다.
상기 맵의 생성 방식은 자동 및 수동 생성 방식을 가지며, 자동 맵 생성에 있어서, 상기 추출된 정보를 통합하기 위한 설정 정보로, 맵의 공간적 또는 계층적 배치를 특정하기 위한 위치 템플릿(Location Template) 정보, 배경 정보 생성을 위한 타일 정보(tile service), 동적 콘텐츠 생성을 위한 프로젝트 설정 정보, 맵에 표기될 오브젝트의 속성을 정의한 룰 스크립트(rule script) 및 로우 데이터의 수신 주기 및 맵 생성 동작 실행 순서를 결정하는 실행 스케줄러(run scheduler)를 이용하여, 상기 맵 데이터를 생성할 수 있다.
수동 맵 생성에 있어서, 모든 로우 데이타를 오브젝트로 생성하여 임의로 시각화 공간에 배치하고 각 오브젝트의 속성 변경을 통해 수동으로 맵을 생성할 수 있다.
복수 개의 맵에서, 상위 레벨 아이템의 상태는 하위 레벨 아이템의 상태값을 반영하여 결정될 수 있다.
상기 생성된 맵을 포함하는 통합 컨텐츠는 하나의 파일 또는 중앙 집중형 DB 시스템을 통해 제공될 수 있다.
상기 시각화 제어 단계에 있어서, 클라이언트는 상기 맵을 시각화하기 위한 뷰어(viewer) 및 시각화되는 화면을 편집하기 위한 맵 에디터(editor)를 통해 맵을 시각화할 수 있다.
상기 뷰어는 복수 레벨의 맵을 수직/수평으로 통합한 통합 컨텐츠 위에서 확대/축소(zoom in/zoom out)를 구현하여 이동하고, 패닝(panning)을 통해 하나의 레벨의 맵에서 필요한 부분만을 보도록 구성될 수 있다.
상기 뷰어는 통합된 맵 컨텐츠를 UI(User Interface) 상에 표기하기 위한 UI 시각화 공간인 캔버스(canvas)을 가지고, 상기 캔버스(canvas)는 시간축을 가지고 있어, 시간축의 변경을 통해 특정 시간대의 데이터가 조회 또는 재생(playback)될 수 있다.
상기 뷰어의 캔버스 외에 통합된 맵의 각 오브젝트들도 개별 시간축을 가지며, 각 오브젝트의 시간축을 상기 캔버스의 시간축과 별도로 설정가능할 수 있다.
상기 뷰어의 캔버스(canvas)는 적어도 하나의 셀(cell)로 구분하고, 상기 구분된 셀에 하나의 맵 또는 적어도 하나의 오브젝트를 표시하도록 구현할 수 있다.
상기 캔버스(canvas)는 임의로 복수 개의 정형 또는 비정형 셀(cell)로 분할하여 사용가능하고, 이미 분할된 셀은 하나의 셀로 통합가능하고, 통합된 하나의 셀은 캔버스가 될 수 있다.
한번 분할된 화면 구성은 즐겨찾기 기능을 통해 템플릿화되어 추후 요청에 따라 재구성되도록 설정될 수 있다.
상기 뷰어의 분할된 셀마다 서로 다른 시간축으로 맵 또는 오브젝트를 표시하도록 구현될 수 있다.
상기 뷰어의 각 캔버스에 시각화된 현재 레벨에서 특정 아이템을 중심으로 확대할 경우, 다음 레벨에서 상기 특정 아이템에 해당하는 연관데이터를 자동으로 표시할 수 있다.
상기 뷰어 및 에디터에서 통합된 데이터를 검색할 경우 데이터 검색 범위를 현재 디스플레이되는 물리적 화면의 범위로 자동 설정할 수 있다.
상기 맵 에디터는 상기 서버 시스템과의 인터랙션(interaction)에 의해 상기 복수 개의 맵간의 링크 설정을 변경하거나 또는 특정 맵과 외부 매체와의 링크를 설정하여 컨텐츠를 생성할 수 있다. 상기 맵 에디터는 각각 생성된 복수 개의 맵간의 계층정보, 상태정보 및 연결정보를 임의로 생성 또는 변경가능할 수 있다.
상기 서버 시스템에서 수신되는 데이터의 통합 및 시각화를 위해 데이터를 저장할 때, 주기적으로 상기 계층정보, 상기 상태정보, 상기 연결정보를 저장하고, 맵을 생성하여 상기 클라이언트가 저장된 정보의 시간축을 조정하여 재생(playback)할 수 있다.
상기 서버 시스템에서 수신되는 상기 계층 정보, 상기 상태 정보 및 상기 연결 정보는 서로 다른 수집 주기로 수집되고 서로 다른 맵 생성 주기로 시각화될 수 있다.
상기한 목적을 달성하기 위한 본 발명의 수신되는 데이터를 통합하여 시각화하는 시스템은 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하고, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 서버 및 상기 생성된 컨텐츠를 분배하기 위한 미디어 분배 서버를 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
상기한 목적을 달성하기 위한 본 발명의 서버 시스템에서 수신되는 데이터를 통합한 파일을 생성하는 방법은 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 데이터 추출 단계, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하여 파일 형태로 생성하는 컨텐츠 파일 생성 단계를 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
상기한 목적을 달성하기 위한 본 발명의 수신되는 데이터를 통합하여 파일을 생성하는 장치는 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 데이터 추출부 및 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하여 파일 형태로 생성하는 컨텐츠 파일 생성부를 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
상기한 목적을 달성하기 위한 본 발명의 서버 시스템에서 수신되는 데이터를 통합하여 시각화하는 방법은 수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) 간의 관계를 나타내는 계층 정보, 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 데이터 추출 단계, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 단계 및 클라이언트에게 시각화 공간을 제어할 수 있도록 해주는 클라이언트 뷰어 및 에디터를 제공하는 시각화 도구 제공 단계를 포함하는 포함하되, 상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현될 수 있다.
본 발명의 4D 데이터 시각화 방법 및 장치에 따르면, 사용자는 마우스, 터치패스, 터치스크린을 통한 줌 인/아웃(Zoom In/Out), 패닝(Panning) 기술 및 다차원 데이터를 논리/물리 맵(Map)으로 저장하는 시각화 방식을 통해 빠른 시간 안에 다차원/대용량 데이터에 대한 직관력을 가질 수 있으며 이를 통한 BPM을 높이고 MTTR을 낮추는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 시각화 방법에 적용될 수 있는 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따라 로우 데이터를 통합하여 4D 맵 데이터를 생성하는 개념을 설명하기 위한 블록도,
도 3은 맵 데이터의 오브젝트 및 시각화 공간과 각 맵간의 링크 관계를 설명하기 위한 도면,
도 4a는 본 발명의 일 실시예에 따른 맵 데이터에서 시간축을 구현하여 저장하기 위한 구성을 설명하기 위한 개념도,
도 4b는 본 발명의 일 실시예에 따른 맵 데이터의 z축에 시간축을 설정하여 구현되는 구성을 설명하기 위한 개념도,
도 5는 본 발명의 일 실시예에 따른 맵 데이터를 생성하는 과정을 나타내는 흐름도,
도 6은 하나의 캔버스에 복수 개의 셀을 구분하여 맵 데이터를 표시하는 모습을 도시한 도면,
도 7a는 사용자 경험 기반 컨텐츠에서 맵 간의 링크 관계를 설명하기 위한 도면이고, 도 7b는 맵과 외부 도메인과의 링크 관계를 설명하기 위한 도면,
도 8은 본 발명의 일 실시예에 따른 4D 맵 데이터 생성 장치를 개략적으로 나타낸 블록도,
도 9a 내지 9b는 계층적 구조의 데이터를 나타낸 도면이고, 도 9c는 데이터를 표시하는 소정 방법을 예시적으로 나타낸 도면,
도 10은 상태/이벤트 정보 및 KPI를 사용자 인터페이스 상에 표시하는 방법을 설명하기 위한 도면,
도 11은 클라이언트와 미디어 분배 서버 간에 특정 선택 화면에 대한 확대/축소 콘트롤에 대응하는 과정을 구체적으로 나타낸 흐름도,
도 12는 사용자와의 인터랙션에 의한 데이터 검색 기능을 설명하기 위한 도면,
도 13은 사용자와의 인터랙션에 의한 시간에 따른 플레이 조회 및 재생 기능을 설명하기 위한 도면,
도 14는 생성된 맵 데이터를 저장하는 매체를 설명하기 위한 도면,
도 15는 본 발명의 다른 실시예에 따른 미디어 분배 서버가 별도 영상 수신부로부터 영상 데이터를 수신하여 클라이언트로 분배하는 방법을 설명하기 위한 도면,
도 16은 본 발명의 맵 데이터 시각화 방법에 적용될 수 있는 POD 기술을 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
본 명세서 상에서 다음의 용어는 다음과 같이 정의한다.
맵(map)은 오브젝트에 시간축을 포함시켜 시각화 공간에 통합 구현한 통합 데이터를 의미한다. 맵은 맵 데이터로 불릴 수 있다.
오브젝트는 데이터 오브젝트로, 맵 상에 나타날 수 있도록 로우데이터를 오브젝트화 한 것이다. 예컨대, 온도 정보와 같은 데이터를 포함할 수 있다. 각 데이터는 시간 정보를 포함하고 있기 때문에, 오브젝트도 시간 정보를 포함하도록 구현하여 시각화 공간에 매핑시킬 수 있다. 시각화 공간은 오브젝트를 표시하는 디스플레이 공간을 나타내며, 시각화 공간 내에 복수 개의 오브젝트들이 표현될 수 있다.
아이템(item)은 로우데이터로부터 추출되는 정보를 의미하고, 이러한 아이템에 메타데이터 등이 추가되어 맵에 구현되면 오브젝트가 될 수 있다.
캔버스(canvas)는 화면을 논리적인 뷰로 구성한 것으로, 캔버스는 복수 개의 정형 또는 비정형의 셀(cell)로 분할 가능하다. 즉, 캔버스가 분할되어 형성되는 것을 셀이라 하고, 셀도 또한 복수 개로 분할 가능하다. 각 셀에는 맵 데이터 및 오브젝트가 개별적으로 수용될 수 있다. 각 셀에 오브젝트는 복수 개가 수용될 수 있다. 또한, 셀에는 카메라 영상이 수용될 수도 있다.
뷰어(viewer)는 클라이언트(client)의 디스플레이 화면에 맵 데이터를 디스플레이하기 위한 소프트웨어이고, 에디터(editor)는 뷰어를 통해 디스플레이되는 맵 데이터의 화면 구성을 용이하게 편집할 수 있도록 클라이언트에서 동작하는 소프트웨어이다.
컨텐츠(contents)는 적어도 하나의 맵 데이터을 포함한 완전한 형태의 정보로써, 사용자의 경험을 넣어 하나의 스토리텔링(storytelling) 형식으로 제공될 수 있다. 사용자는 맵 간의 링크(link) 관계를 사용자 편의로 임의로 설정하거나 맵과 외부 데이터와의 링크 등을 포함시켜 사용자 경험 기반의 컨텐츠를 생성할 수 있다. 도 1은 본 발명의 일 실시예에 따른 시각화 방법에 적용될 수 있는 시스템을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 시각화 시스템은 로우 데이터 제공부(110-1, 110-2, 110-3, ..., 110-N), 맵 생성 서버(120), 미디어 분배 서버(125) 및 복수 개의 클라이언트(130-1, 130-2, 130-3, ..., 130-N)를 포함할 수 있다.
도 1을 참조하면, 로우 데이터 제공부(110-1~110-N)는 대상 장비의 상태와 관련된 로우 데이터(로우 데이터는 고장 여부와 관련될 수 있음)를 센싱하여 센싱된 로우 데이터를 맵 생성 서버(120)로 전송한다. 로우 데이터 제공부(110-1~110-N)는 센싱 대상 장비의 상태를 감시하기 위한 센서일 수 있다. 예컨대, 장비 불량을 감지할 수 있는 센서를 포함할 수 있다. 예컨대, 온도 센서, 회전 감지 센서, 수분 감지 센서, 접촉 불량 감지 센서, 연료 감지 센서, 전압/전류 감지 센서, 산소 센서, 인원 계수 센서, GPS 센서, 적외선 센서, 지자계 센서 등을 포함할 수 있다. 센서의 종류는 반드시 이에 한정되는 것은 아니다. 로우 데이터 제공부(110-1~110-N)는 IP 카메라, 디지털 또는 아날로그 카메라 및 비디오 서버(미도시)를 포함할 수 있다. 로우 데이터 제공부(110-1~110-N)를 통해 센싱되는 정보는 영상 데이터, 비디오 데이터, 텍스트 데이터, 폴리곤 데이터 및 GIS 데이터, 센서 데이터, 시스템 데이터, 설비 데이터 중 적어도 하나를 포함할 수 있다. 여기서, 비디오 데이터는 MPEG-4. H.264, HEVC(High Efficiency Video Coding) 등의 방법을 통해 인코딩된 디지털 스트림일 수 있다.
센싱되는 정보는 맵 생성 서버(120)로 유무선 네트워크(미도시)를 이용하여 전송될 수 있다. 경우에 따라, 소정 비디오 데이터는 미디어 분배 서버(125: MD(Media Distribution) 서버)로 직접 입력되어 맵 데이터와 함께 클라이언트(130-1~130-N)로 스트리밍될 수 있다. 정보가 송수신되는 무선 네트워크는 LTE(Long Term Evolution), 3G 네트워크, Wibro, WLAN(Wireless Local Area Network) 등을 포함할 수 있다.
상기 IP 카메라, 아날로그 또는 디지털 카메라는 영상을 촬영하여 압축된 디지털 영상 스트림을 제공하는 카메라를 의미할 수 있고, IP 카메라, 아날로그 또는 디지털 카메라는 특정 해상도로 영상을 촬영할 수 있고, 촬영된 비디오 영상은 POD(Pixel On Demand) 기술을 통해 낮은 대역폭으로도 고화질의 영상으로 클라이언트(130-1~130-N)에게 제공될 수 있다.
로우 데이터 제공부(110-1~110-N)는 영상을 제공하는 임의의 영상 서버(미도시)로 구성될 수 있고, 예컨대, VOD(Video On Demand) 서버가 될 수 있다. 또한, 데이터 제공부(110-1~110-N)는 복수 개로 구성될 수 있고, 직접 유무선 네트워크를 이용하여 맵 생성 서버(120) 또는 미디어 분배 서버(125)로 데이터를 전송할 수도 있다.
맵 생성 서버(120)는 데이터 제공부(110-1~110-N)로부터 제공되는 로우 데이터로부터 상태 정보 및 이벤트 정보를 추출하여 4D 통합 데이터를 생성할 수 있다. 맵 생성 서버(120)는 추출된 상태 정보 및 이벤트 정보를 기반으로 메타데이터를 생성할 수 있고, 사용자 인터페이스의 배경으로 사용되는 시각화 공간의 메타데이터와 함께 통합하여 하나의 저장 가능한 맵(map) 데이터를 구성할 수 있다. 맵 생성 서버(120)에서 생성되는 메타데이터에는, 로우데이터로부터 추출된 상태 및 이벤트 데이터의 디스플레이 위치, 색상, 폰트 및 배경과 관련된 데이터를 포함할 수 있다. 로우데이터와 통합되는 타일 이미지는 동적 타일(dynamic tile) 이미지를 포함할 수 있다. 데이터 통합은 IPQ(Intelligent Pixel Query) 및 POD(Pixel On Demand) 기술을 이용하여 수행될 수 있다. IPQ 기술 및 POD 기술은 이하 도 15를 통해 상세히 설명한다.
이때, 캔버스에 포함되는 각 셀(cell)은 각각 시간축을 가질 수 있고, 시간에 따른 데이터 조회가 가능하다. 각 셀에 포함된 데이터 오브젝트뿐만 아니라, 시각화 공간에도 시간축을 구현할 수 있다. 하나의 셀에는 상기 통합된 4D 맵 데이터 및 오브젝트가 표시될 수 있고, 하나의 캔버스에는 복수 개의 셀이 여러 가지 배치 방식으로 표시될 수 있다.
미디어 분배 서버(125)는 맵 생성 서버(120)에서 통합 생성된 4D 데이터를 클라이언트(130-1~130-N)의 출력조건에 맞게 분배하여 전송한다. 미디어 분배 서버(125)는 별도로 입력되는 비디오 데이터를 맵 데이터와의 링크를 통해 클라이언트(130-1~130-N)에게 스트리밍할 수 있다. 즉, 비디오뿐만 아니라 이미지와 같은 대량의 디스크를 사용하는 로우 데이터의 경우에는, 공유 가능한 중앙집중형 디스크에 파일을 위치시키고, 실제 맵 파일에서는 해당 파일의 링크를 사용할 수 있다. 이때, 네트워크 자원의 효율성 제고를 위해 POD 기술이 이용될 수 있다.
클라이언트(130-1~130-N)는 미디어 분배 서버(125)로부터 전송되는 4D 데이터를 수신하여 사용자 인터페이스를 통해 디스플레이할 수 있다. 클라이언트(130-1~130-N)는 데스크탑 PC, 태블릿 PC, 스마트 폰, 노트북, 랩톱 컴퓨터, 모니터, TV 등을 포함할 수 있다. 그 외에도, 상기 클라이언트(130-1~130-N)는 디스플레이 장치와 입력 장치를 포함하는 다른 종류의 장치를 포함할 수 있다. 클라이언트(130-1~130-N)에서 뷰어 및 에디터가 실행될 수 있다. 뷰어와 에디터는 맵 생성 서버(120) 또는 미디어 분배 서버(125)를 통해 배포될 수 있다. 뷰어는 생성된 4D 맵 데이터를 시각화하는 소프트웨어로써, 클라이언트(130-1~130-N)의 사용자에게 4D 데이터를 디스플레이하고, 원하는 데이터의 조회, 검색, 직접 캔버스 내의 셀 개수, 셀의 배치를 돕는다. 에디터는 클라이언트(130-1~130-N)의 사용자가 사용자 경험 기반의 컨텐츠 생성 등을 사용자 편의에 따라 맵 데이터의 시각화를 편집할 수 있는 편집도구를 제공한다.
도 2는 본 발명의 일 실시예에 따라 로우 데이터를 통합하여 4D 맵 데이터를 생성하는 개념을 설명하기 위한 블록도이다.
도 2를 참조하면, 맵 생성 서버는 로우 데이터 제공부로부터 수신되는 로우 데이터(210-1, 210-2, 210-3, 210-4, 210-5, 210-6, 210-7, 210-8)를 파싱하여 메타데이터(220)를 생성한다. 수신되는 데이터(210-1, 210-2, 210-3, 210-4, 210-5, 210-6, 210-7, 210-8)는 전술한 바와 같이, 이미지(210-1), 비디오(210-2), 텍스트(210-3), 폴리곤(210-4) 및 GIS 데이터(210-5), 센서데이터(210-6), 시스템 데이터(210-7), 설비 데이터(210-8) 중 적어도 하나를 포함할 수 있다. 서버는 수신되는 로우데이터(210-1, 210-2, 210-3, 210-4, 210-5, 210-6, 210-7, 210-8)를 임의의 데이터베이스(임시 스토리지 및 대용량 데이터베이스 포함)에 실시간으로 저장할 수 있다. 이때, 로우 데이터에 시간 정보를 포함하여 특정 시간대에 특정 로우 데이터가 수신됨을 표시할 수 있다.
그리고는, 맵 생성 서버는 서로 다른 속성의 데이터를 통합하기 위해 필요한 메타데이터(220)를 생성한다. 메타데이터(220)는 디스플레이되는 위치(화면 상에 표시되는 위치), 색상, 폰트 및 배경 정보 중 적어도 하나를 포함할 수 있다. 만약, 맵 생성 데이터가 파일 형태로 저장되는 경우, 물리적인 파일의 위치(파일 형태로 수신 데이터를 저장한 물리적인 위치)에 대한 메타데이터를 함께 생성할 수 있다. 생성된 메타데이터(220)와 배경 타일 이미지(230)와 통합하여 맵 데이터(240)를 생성할 수 있다.
4D 맵 데이터의 구현과 관련하여, 종래 3D 데이터의 표현을 위해서는, 3D 공간을 2D로 표시하는 디스플레이 방법이 필요하였지만, 4D 데이터를 표시하기 위해서는 모든 데이터 오브젝트 및 시각화 공간 자체가 시간의 개념을 포함해야 한다.
따라서, 3D 기존 세축 중 2개는 2D 캔버스에 1개의 축은 depth를 표시하는 줌 레벨(Zoom Level)로 표시할 수 있다. 이때, 각각의 줌 레벨들은 시간축을 가지도록 구현할 수 있다. 결론적으로, 모든 오브젝트와 시각화 공간에 시간축을 구현하였고, 이러한 데이터를 생성/저장하기 위한 특별한 포맷을 맵(map: 240)이라고 부를 수 있고, 이러한 맵 데이터(240)는 이기종 데이터의 실제 물리적인 파일의 위치, 사용자 인터페이스 상의 위치, 색상, 폰트 및 배경 등의 메타데이터(220)와 사용자 인터페이스의 최종 배경으로 사용되는 타일 이미지의 메타 데이터(230)를 통합하여 하나의 저장가능한 파일 또는 DBMS로 구성될 수 있다.
또한, 전술한 바와 같이, 이러한 맵 데이터(240)로 통합함에 있어, IPQ 및 POD를 고려함으로써 낮은 대역폭(bandwidth)로 고화질의 비디오 및 영상을 구현하였을 뿐만 아니라 로컬 UI(User Interface) 상의 위치와 GIS 상의 위치를 동기화하여 저장할 수 있도록 구현할 수 있다. 이러한 IPQ와 POD 기술에 대한 설명은 이하 도 14 및 15를 통해 하도록 한다.
이러한 맵 데이터(240)는 미디어 분배 서버를 통해 클라이언트에게 공유될 수 있고, 공유된 맵 데이터(240)를 디스플레이하기 위해서는 뷰어(미도시)를 사용할 수 있다.
맵 데이터(240)의 특징은 다음과 같다. i) 이미지(210-1)와 비디오(210-2)와 같은 대용량의 디스크를 사용하는 리소스의 경우에는 공유 가능한 중앙 집중형 디스크에 파일을 위치시키고, 실제로 맵 데이터(240)에서는 해당 파일의 링크를 사용할 수 있다. 또한, ii) 필요한 경우, 이미지(210-1)나 비디오(210-2)를 포함하는 모든 리소스를 하나의 파일로 묶어 제공할 수 있다. 더욱이, iii) 데이터가 표시되는 공간뿐만 아니라 각각의 오브젝트들도 자신이 디스플레이해야 할 데이터의 시각 정보를 가지고 있으며, iv) 오브젝트와 시각화 공간은 GIS를 기반으로 하는 로컬/글로벌(local/global) 위치 정보를 포함할 수 있다. 마지막으로, v) 모든 데이터는 POD 기술을 포함할 수 있다.
도 3은 맵 데이터의 오브젝트 및 시각화 공간과 각 맵간의 링크 관계를 설명하기 위한 도면이다.
도 3을 참조하면, 복수 개의 맵은 서로 링크 관계를 가질 수 있다. 맵 간의 링크는 레벨 간의 depth를 정의하며, 특정 데이터 오브젝트(310)의 레벨 간의 관계를 정의할 수 있다. 데이터 오브젝트(310)는 시각화 공간(320) 내에 소정 형태를 가지고 표시될 수 있으며, 깜빡거리는 형태로 이상 감지와 같은 이벤트를 표시할 수 있다. 사용자의 뷰어에서 도 3의 최상위의 레벨 1의 맵에서 이벤트가 발생하고 있는 방 1을 클릭(또는 줌 인)하면, 레벨 1의 맵과 링크(링크 1)가 되어 있는 레벨 2의 맵이 디스플레이될 수 있다. 상위 레벨 아이템의 상태 정보는 하위 레벨 아이템의 상태 정보를 반영하여 결정될 수 있다.
레벨 2의 맵에는 방 1의 하위 계층의 데이터 오브젝트 및 시각화 공간이 포함되어 있고, 데스크 1 및 2, 및 캐비넷이 포함되어 있다. 하나의 상위 레벨의 오브젝트는 복수 개의 하위 레벨의 오브젝트와 링크될 수 있고, 이러한 각 오브젝트 및 맵 간의 링크 관계도 각 맵별로 정의될 수 있다. 또한, 링크된 오브젝트의 위치는 서로 다른 레벨의 맵 별로 다를 수 있다. 레벨 2의 맵에서 이벤트가 발생 중인 데스크 1을 클릭하면, 레벨 2와 레벨 3 맵의 링크(링크 2)에 의해 레벨 3의 맵이 디스플레이될 수 있고, 레벨 3에는 데스크 1의 하위 센서들(센서 1 및 센서 2)이 포함될 수 있다. 이렇게 링크된 맵을 추종하여, 최하위 레벨의 오브젝트인 센서 2에서 이벤트가 발생 중임을 사용자는 확인할 수 있다.
도 4a는 본 발명의 일 실시예에 따른 맵 데이터에서 시간축을 구현하여 저장하기 위한 구성을 설명하기 위한 개념도이다.
도 4a를 참조하면, 통합 4D 데이터는 3개의 축과 별도 시간축을 통해 구현될 수 있다. 즉, 4D 통합 데이터를 표시하기 위해 모든 오브젝트와 시각화 공간 자체가 시간의 개념을 포함해야 하므로, 기존 3축 중 2개(x축 및 y축)는 시각화 공간을 베이스로 하는 맵 헝태의 데이터로 구성하고, 이러한 복수 개의 맵 데이터를 각각의 레벨 depth에 따라 z축 방향으로 중첩하여 구현할 수 있다. 그리고는, 서로 다른 레벨의 맵은 서로 다른 시간축을 포함할 수 있고, 하나의 맵에서 서로 다른 오브젝트는 각각 서로 다른 시간축을 포함하여, 사용자가 서로 다른 시간 축으로 복수 개의 오브젝트를 볼 수 있도록 구현된다. 또한, 하나의 맵의 시각화 공간을 복수 개의 부분으로 분할하여 분할된 부분마다 시간축을 별도로 설정할 수도 있다. 이렇게 다양한 시각화 공간에 별도의 시간축을 갖도록 구현함으로써, 추후 사용자가 특정 아이템에 대한 과거 데이터 조회 및 검색에 자유도를 높이고 사용자는 자신의 경험을 따라 얼마든지 직관적인 데이터 시각화가 가능하다. 도 4b는 본 발명의 일 실시예에 따른 맵 데이터의 z축에 시간축을 설정하여 구현되는 구성을 설명하기 위한 개념도이다.
도 4b를 참조하면, 3개의 축에 2개는 시각화 공간을 베이스로 하는 맵 형태의 데이터를 구현하고 z축을 시간으로 설정하여, 단일 레벨 맵 데이터를 시간의 흐름에 따라 구현되도록 맵 데이터를 시각화할 수 있다. 이러한 시각화 방식을 복수의 레벨에 구현하여 사용자의 요청에 의해 요청된 레벨의 맵 데이터를 반환하여 시각화할 수 있다.
데이터를 통합 시각화하기 위해 데이터를 저장함에 있어서, 계층정보, 상태 정보 및 링크 정보를 주기적으로 저장하고, 맵을 자동 또는 수동으로 생성할 수 있다. 클라이언트는 저장된 정보의 시간축을 조정하여 재생할 수 있다. 또한, 계층 정보, 상태 정보 및 링크 정보는 서로 다른 수집 주기로 수집될 수 있고, 이들 정보를 가지고 맵을 생성하는 주기도 서로 다르게 설정할 수 있다.
도 5는 본 발명의 일 실시예에 따른 맵 데이터를 생성하는 과정을 나타내는 흐름도이다.
도 5를 참조하면, 맵 생성 서버는 로우 데이터를 수집 입력한다(S510). 일반적으로, 입력되는 로우데이터는 상호 연관성을 가질 수 있다. 예컨대, 동일한 장비에 대한 영상, 온도, 연료량 등을 예시로 들 수 있다. 특별한 상호 관련성이 없는 경우에도 통합 맵 데이터 생성의 대상이 될 수 있고, 입력되는 로우 데이터는 전술한 바와 같이, 영상, 텍스트 이외 다른 형태의 모든 정형/비정형 데이터를 포함할 수 있다.
서버는 입력되는 로우데이터로부터 계층 정보 및 상태/이벤트 정보를 추출한다(S520). 서버는 입력된 데이터 중에서 계층 정보 및 상태/이벤트 정보를 추출할 수 있다. 계층 정보는 로우데이터의 계층 구조를 지시하는 정보이다. 예컨대, 로우데이터 1의 하위 계층 데이터는 로우 데이터 2 및 4이고, 로우 데이터 2는 하위 계층 데이터로 5를 둔다 등의 정보가 계층 정보에 포함될 수 있다. 상태 정보는 대상 장비(아이템)의 상태를 나타내는 정보를 의미할 수 있다. 이는 실제 수치로 표시될 수 있다. 상태 정보는 영상 데이터도 포함할 수 있다. 하나의 아이템은 복수 개의 상태 정보를 가질 수 있다. 즉, 특정 대상 장비의 온도, 전류량, 유압, 모니터링 영상 등의 상태 정보가 하나의 아이템에 대해 존재할 수 있다. 이벤트 정보는 특정 이벤트(상황)이 발생됨을 표시하는 정보이다. 예컨대, 특정 아이템의 센싱 온도가 50℃인데, 해당 아이템의 임계 온도 값이 40℃이면, 임계 온도를 초과하여, 경고 이벤트가 표시되어야 하고, 이러한 이벤트 발생을 나타내는 정보가 이벤트 정보이다. 즉, 서버는 입력되는 로우 데이터 중에서 계층 정보 및 상태/이벤트를 추출할 수 있다. 또는, 경우에 따라 외부 링크 데이터를 추출할 수도 있다.
그리고는, 추출된 데이터를 기반으로 맵 오브젝트의 속성을 생성한다(S530). 맵 오브젝트의 속성은 전술한 메타데이터를 의미하는 것으로, 추출된 상태/이벤트 데이터, 및 외부 링크 데이터의 물리적인 파일 위치, 디스플레이 위치, 색상, 폰트 및 배경을 포함하는 메타데이터를 말하며, 룰 스크립트, 위치 템플릿 등을 포함한다.
그리고는, 추출된 오브젝트 속성 정보(메타데이터)를 기반으로 타일(배경)의 데이터와 통합하여, 맵을 생성할 수 있다(S540). 오브젝트의 속성 정보 중 디스플레이 위치를 기반으로, 상태/이벤트 정보가 표시될 위치를 결정할 수 있다. 예컨대, 시각화 공간 내에서 특정 영상 또는 특정 텍스트의 위치, GIS 상의 특정 객체의 표시 위치, 표시 사이즈 등을 결정하여 맵을 생성할 수 있다. 이러한 위치 정보는 위치 템플릿(Location Template) 정보와 룰 스크립트에 의해 관리될 수 있다. 서버는 각각의 오브젝트 및 시각화 공간에 시간축을 구현하여 통합 맵 데이터를 고속으로 생성할 수 있다. 또한, 맵 데이터를 보는 사용자는 편리한 인터페이스를 통해 맵의 오브젝트의 시간에 따른 정보를 검색할 수 있다. 사용자는 사용자 인터페이스를 통해 맵 데이터 중에서 원하는 항목들을 선택하면 팝업 방식으로 관련 상세 상태 정보를 확인할 수 있다. 또한, 맵 데이터에 포함된 영상은 POD 방식을 통해 배율과 관계 없이 동일한 해상도를 가지면서 확대될 수 있다.
도 6은 하나의 캔버스에 복수 개의 셀을 구분하여 맵 데이터를 표시하는 모습을 도시한 도면이다.
도 6을 참조하면, 사용자가 하나의 캔버스를 복수 개의 셀로 구분하고, 하나의 셀에 하나의 맵 데이터를 표시할 수 있도록 구현할 수 있다. 여기서, 셀 분할은 분할 횟수에 제한이 없으며, 각 셀들은 맵 데이터뿐만 아니라 오브젝트를 수용할 수 있다. 또한 카메라 영상이 셀에 수용될 수 있다.
이미 분할된 셀들은 다시 하나의 셀로 통합될 수 있다. 이렇게 통합된 셀은 결국 캔버스가 된다. 또한, 한번 분할된 화면 구성은 즐겨찾기 기능을 통해 템플릿화될 수 있다. 사용자는 언제든지 템플릿을 통해 용이하게 화면 구성을 다시 찾을 수 있다. 하나의 셀들은 각 영역 내에서 줌인/아웃 및 패닝 기능들을 제공할 수 있다.
도 7a는 사용자 경험 기반 컨텐츠에서 맵 간의 링크 관계를 설명하기 위한 도면이고, 도 7b는 맵과 외부 도메인과의 링크 관계를 설명하기 위한 도면이다.
도 7a를 참조하면, 기본적으로 맵은 로우데이터에 포함된 계층 정보를 가지고 레벨 간의 링크가 기본 설정되어 순차적이고 순환가능한 계층 구조를 가질 수 있다. 이때, 사용자는 특정 컨텐츠를 사용자의 경험을 기반으로 자신의 스토리텔링이 포함되도록 설정할 수 있다. 사용자는 자신이 여러 맵을 시각화하고자 하는 순서으로 맵 링크 설정을 재생성할 수 있다. 즉, 계층의 순차적인 구조를 벗어나 사용자 편의의 계층 구조를 재입력할 수 있다. 예컨대, 레벨 1의 맵에서 마우스 조작 한 번으로 레벨 4로 이동할 수 있도록 설정할 수 있고, 특정 아이템을 클릭시 해당 아이템의 하위 계층 아이템이 아닌 다른 아이템이 연결되도록 할 수도 있다. 이는 맵 링크 설정을 사용자가 재설정함으로써 이루어질 수 있고, 이러한 특정 유형의 컨텐츠의 흐름은 템플릿화하여, 추후 다시 이러한 내용으로 용이하게 시각화되도록 할 수 있다.
도 7b의 실시예는 사용자 경험을 토대로 맵과 외부 링크를 걸어놓은 것으로, 맵에 대한 마우스 조작에 반응하여, 특정 외부 링크(예컨대, 웹 페이지)가 열리도록 설정할 수 있다. 외부 링크는 웹 페이지뿐만 아니라, 동영상, 사운드, 플래쉬 등의 멀티미디어 부가정보들과 텍스트 등을 연결할 수도 있다.
도 8은 본 발명의 일 실시예에 따른 4D 맵 데이터 생성 장치를 개략적으로 나타낸 블록도이다. 도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따른 4D 맵 데이터 생성 장치는 수신부(810), 데이터 추출부(820), 맵 생성부(830) 및 미디어 분배 서버(850)를 포함할 수 있다.
도 8을 참조하면, 4D 맵 데이터 생성 장치는 전술한 맵 생성 서버(도 1 참조)와 동일한 기능을 수행하는 구성일 수 있다.
수신부(810)는 데이터 제공부(미도시)로부터 수신되는 각종 데이터를 수신할 수 있다. 수신부(810)는 데이터 수신을 위한 통신 프로세서 및/또는 안테나를 포함할 수 있다. 수신부(810)는 데이터 제공부로부터 로우 데이터를 수신하여 데이터 추출부(820)로 전송한다.
데이터 추출부(820)는 로우 데이터로부터 계층 정보(822), 상태 정보(824) 및 외부 링크 정보(826)의 3가지 정보를 추출할 수 있다. 계층 정보(822)는 각각의 로우데이터들 간의 계층 관계를 나타내는 정보를 포함할 수 있다. 이는 도 9a 내지 9c를 통해 상세히 설명한다.
도 9a 내지 9b는 계층적 구조의 데이터를 나타낸 도면이고, 도 9c는 데이터를 표시하는 소정 방법을 예시적으로 나타낸 도면이다.
도 9a를 참조하면, 계층 정보는 각 레벨에 따른 로우데이터의 구조를 정의한다. 예컨대, 발전소 제 1 공장의 정보가 레벨 1에, 발전소 제 1 공장에 포함된 터빈과 보호 계전기의 정보가 레벨 2 및 레벨 3에 각각 포함될 수 있다. 레벨 2 및 3에 대한 하위 트리 구조가 레벨 3 내지 레벨 4에 포함될 수 있다. 레벨은 반드시 레벨 4까지 국한되는 것은 아니다. 즉, 계층 정보는 구조를 가지고 있는 데이터의 상위 또는 하위 데이터간의 논리적/물리적 연결 관계를 포함하고, 이를 표현하는 일반적인 정보이다. 이를 통해 맵 간의 기본적인 링크 관계가 정의될 수 있다.
계층 관계에 있는 데이터는 도 9b와 같이 표시될 수 있다. 전술한 바와 같이, 2개 축에 대해서는 각 레벨에 대한 데이터가 표시되고, 하나의 축은 레벨 depth를 나타내며, 각 레벨의 데이터는 별도의 시간축을 가지고 있어, 추후 데이터 통합시 레벨별 시간축 정보를 조회할 수 있도록 한다.
상하위 연결이 없는 단독 아이템의 경우, 해당 레벨을 추출하여 시각화할 수 있다. 루트(root: 최상위 레벨 데이터를 의미)부터 리프(leaf: 연결된 하위 레벨 데이터를 의미)에 이르는 구조화된 데이터는 요청된 레벨의 데이터를 추출하여 시각화할 수 있다. 이때, 하나의 레벨에는 해당 레벨의 데이터만 표시하거나(910), 해당 레벨과 하나의 리프만을 표시할 수도 있고(920), 하위 몇 개 레벨의 데이터를 구조화해 디스플레이할 수도 있다(930).
다시 도 8로 돌아가서, 데이터 추출부(820)는 계층 정보(822)외에 상태 정보(824)를 추출할 수 있다. 상태 정보(824)는 아이템의 상태를 지시하는 정보일 수 있고, 이벤트를 나타내는 정보일 수 있다. 경우에 따라 영상 정보도 포함할 수 있다. 이하 도 10을 참조하여 보다 상세히 설명한다.
도 10은 상태/이벤트 정보 및 KPI(Key Performance Indicator)를 사용자 인터페이스 상에 표시하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 데이터 추출부(820)는 루트부터 리프에 이르기까지 모든 아이템에 대한 상태/이벤트 정보를 추출할 수 있다. 이벤트 정보는 사용자 인터페이스 상에 신호등 또는 기타 다른 표시 방법으로 시각화될 수 있다. 예컨대, 붉은 색이면 에러를, 초록색이면 정상을, 노란색이면 경고를 표시하는 것으로 설정할 수 있다. 또한, 상태 정보와 더불어 상태정보의 실제 수치값(예컨대, 온도 관련 정보인 경우, 실제 온도 값(30℃)) 및 KPI(Key Performance Indicator)를 표시하기 위해 도 10에 도시된 바와 같이, 매트릭 테이블(metrics table)을 동시에 추출할 수 있다.
다시 도 8로 돌아가서, 데이터 추출부(820)는 계층 정보(822)와 상태 정보(824) 이외에 외부 링크 데이터(826)를 추출할 수 있다. 외부 링크 데이터(826)는 각 아이템들이 타 시스템과 연계될 수 있도록 외부 연동 URL을 추출하여 각 아이템에 매핑할 수 있도록 제공되는 정보이다.
맵 생성부(830)는 위치 템플릿(832), 타일 정보(834), 프로젝트 설정(842), 룰 스트립트(844) 및 실행 스케줄러(846) 정보를 기반으로 추출된 로우데이터를 통합하여 맵 데이터를 생성할 수 있다.
위치 템플릿 정보(832)는 복수 개의 유형의 셀 배치 정보를 포함할 수 있다. 예컨대, 하나의 캔버스 내에 복수 개의 셀의 배치의 여러 유형 정보를 포함하고 있을 수 있다. 또한, 템플릿 정보는 사용자 경험 기반의 맵 간의 링크 관계 정보를 포함할 수 있다. 예컨대, 로우데이터로부터 추출된 특정 계층 정보(822)에 매핑되는 소정 유형의 템플릿을 결정할 수 있다. 예컨대, 계층 정보(822)가 4단일 경우, 보유하고 있는 위치 템플릿 정보(832)를 통해 4단의 계층 중 어느 유형의 위치 템플릿에 속하는지를 결정하고(디폴트 유형을 설정가능함), 결정된 소정 유형(예컨대, 3번 유형)의 셀 배치 및 맵 간의 링크 관계를 갖는 템플릿이 정의될 수 있다. 이를 통해, 사용자가 원하는 특정 유형의 템플릿을 생성해 놓으면, 추후 동일한 템플릿을 불러와서 동일한 화면 구성을 쉽게 재배열할 수 있다.
타일 정보(834)는 사용자 인터페이스의 배경 정보를 저장하고 있다. 즉, 사용자 인터페이스 화면에서 배경으로 나타나는 배경 정보를 저장하여, 맵 생성부(830)가 맵 데이터를 생성할 때, 취합된 데이터의 배경으로 시각화되도록 한다.
프로젝트 설정(842) 정보는 맵 생성부(830)에서의 동적 콘텐트를 생성하는 프로젝트의 각종 설정 정보를 포함하고 있다.
룰 스크립트(844)는 맵에 표시되는 각종 오브젝트들의 기본 배치 정보, 맵에 표기될 오브젝트들의 색상, 폰트 등을 정의하고 있다. 룰 스크립트(844)의 설정 정보는 룰 시스템에 의해 새로운 설정의 생성, 저장 및 기존 설정 삭제 등의 관리가 이루어질 수 있다.
또한, 수신되는 로우 데이터의 주기는 항상 달라질 수 있기 때문에, 데이터 통합부(830)는 실행 스케줄러(846)를 가지고, 정의된 스케줄에 의해 자동/수동으로 수신 데이터의 주기를 변경하여 데이터 통합을 실행할 수 있다. 실행 스케줄러(846)는 데이터 추출부터 맵 생성까지의 작업 순서 정보를 포함하고 있다.
맵 생성부(830)를 통해 생성된 맵 데이터는 미디어 분배 서버(850)를 통해 제어될 수 있다. 미디어 분배 서버(850)는 클라이언트로부터의 디스플레이 요청에 대응하여 디스플레이 관련 신호를 클라이언트로 전송할 수 있다. 맵 생성부(830) 및 미디어 분배 서버(850)는 하나의 서버 장치에 존재할 수도 있고, 각각이 별도 서버로 분리되어 존재할 수도 있다.
미디어 분배 서버(850)는 생성된 맵 데이터를 시각화하기 위한 뷰어(viewer) 및 에디터(editor)를 구현할 수 있다. 뷰어는 여러 개의 레벨을 이동하는 방법으로 줌인/아웃(zoom in/out) 방식을 구현하고 있고, 하나의 레벨에서 필요한 부분만을 보기 위해, 패닝(panning) 기능을 구현한다.
패닝 기능의 경우, 통합 맵 데이터에 복수 개의 셀이 부분적으로 표시되어 있을 때, 패닝으로 인해, 다른 영역의 셀이 일측 방향으로 치우쳐 표시될 수 있다. 이와 같이 출력 조건이 변경되면, 미디어 분배 서버(850)는 변경된 출력 조건을 부분적으로 만족하는 임시 맵 데이터를 클라이언트 장치의 사용자 인터페이스에 제공할 수 있다. 즉, 미디어 분배 서버(850)는 전체 맵 데이터를 제공받고 있으므로, 일측으로 치우친 변경된 뷰를 구성하여 언제든지 클라이언트에 제공할 수 있다.
즉 미디어 분배서버(850)는 사용자가 필요로 하는 양만큼의 뷰를 실시간으로 재구성하여 클라이언트 뷰어 또는 에디터에 제공할 수 있다.
본 발명의 4D 데이터의 시각화 방법에 있어서, 디스플레이되는 화면 상에서 각 아이템은 동적 상황 알람(dynamic status alarm)을 통해 상태 정보를 자동갱신하도록 구현하고, 팝업(popup) 기능을 통해 KPI 등의 상세 정보를 볼 수 있도록 구현할 수 있다. 또한, 외부 시스템과의 연계를 위해 URL 링크(URL link) 기능을 구현할 수 있다. 또한, 마우스 또는 터치디바이스 등의 입력시스템의 간단한 조작만으로 확대/축소를 구현할 수 있을 뿐만 아니라 특정 아이템을 확대했을 경우, 해당 아이템과 연계된 다음 레벨의 아이템이 보일 수 있도록 구현할 수 있다.
도 11은 클라이언트와 미디어 분배 서버 간에 특정 선택 화면에 대한 확대/축소 콘트롤에 대응하는 과정을 구체적으로 나타낸 흐름도이다.
본 발명의 4D 데이터의 시각화 방법을 구현함에 있어, 클라이언트(1110)에서는 마우스와 터치스크린, 터치 패널을 사용할 수 있고, 각 레벨간 이동은 마우스 클릭, 마우스 휠, 터치(스크린, 패널)의 손가락 확대/축소 방식을 통해 이동할 수 있으며, 각 레벨간의 논리적 링크 기능을 구현할 수 있다. 즉, 각 레벨의 특정 아이템을 중심으로 확대할 경우, 다음 맵 레벨에서 해당 아이템에 해당하는 연관 데이터를 자동으로 표시할 수 있도록 구현할 수 있다.
도 11을 참조하면, 클라이언트(1110)가 캔버스에 포함된 여러 셀 중에 특정 셀을 선택하는 경우(S1102), 선택된 셀에 특정 맵 데이터를 디스플레이해달라는 디스플레이 요청 신호를 서버(1120)로 전송한다(S1104). 서버(1120)는 선택된 셀의 맵 데이터를 클라이언트(1110)로 전송한다(S1106). 클라이언트(1110)의 사용자 인터페이스에서는 서버(1120)로부터 전송되는 선택 셀의 맵 데이터를 기반으로 해당 맵 데이터를 선택된 셀에 디스플레이한다(S1108). 이때, 사용자가 사용자 제어 장비(예컨대, 마우스, 터치스크린, 터치 패널, 키보드 등을 포함할 수 있음)를 통해 맵 상의 특정 아이템에 대한 확대/축소 콘트롤을 수행하면(S1110), 클라이언트(1110)는 서버(1120)로 확대/축소 요청을 전송하고(S1110), 서버(1120)는 해당 맵의 다음/이전 레벨에서 해당 아이템에 대한 연관 데이터를 추출한다(S1114). 예컨대, 도 9a 및 9b를 참조하여 설명하면, 레벨 2의 (3)을 확대하는 경우, 다음 레벨에는 (5), (6)을 중심으로 자동으로 표시하여 주고, 만약 (2)를 확대할 경우, (4), (5)를 중심으로 표시할 수 있다. 즉, 서버(1120)는 추출된 아이템에 대한 연관 데이터와 줌인/아웃되는 시각화 공간에 대한 줌인/아웃 디스플레이 정보를 포함하여 클라이언트(1110)로 전송하고, 클라이언트(1110)는 서버(1120)로부터 전송된 정보를 받아 줌인/아웃된 디스플레이 화면에 연관 데이터를 표시한다(S1118). 이와 같이, 상위에서 하위 레벨간 논리적 연결 구조를 가지게 된다.
본 발명의 다른 실시예에 따르면, 아이템간의 기본 논리적 연결이 있음에도 불구하고, 강제적으로 타 아이템을 연결시킬 수 있다. 예컨대, 아이템 (3)을 확대했음에도 불구하고, 강제적으로 (4)번 맵으로 연결되도록 강제할 수 있다. 또한, 하나의 레벨을 건너뛰어 다음 레벨의 맵으로 강제 연결할 수도 있다. 이를 통해, 사용자는 루트 레벨에서 최종 리프 레벨로 한번에 이동할 수 있고, 반대의 경우도 마찬가지로 가능하다.
도 12는 사용자와의 인터랙션에 의한 데이터 검색 기능을 설명하기 위한 도면이다.
도 12를 참조하면, 사용자의 데이터 검색 범위를 인터랙션에 의해 시각화된 물리적 화면의 범위로 자동 설정하도록 구현하여 사용자는 간단한 마우스 조작만으로 데이터 검색 범위에 대한 빠르고 직관적인 조작이 가능할 수 있다. 즉, 시간에 따라 변화는 데이터에 대한 검색을 용이하게 하도록, 현재 디스플레이되는 물리적 화면에 집중하여 검색 조건 및 검색 항목을 입력하면 해당 화면에서의 데이터만을 검색대상으로 하여 검색이 수행되고, 결과값을 반환할 수 있다. 이때, 결과값의 시간적인 변화도 반환할 수 있다.
도 13은 사용자와의 인터랙션에 의한 시간에 따른 플레이 조회 및 재생 기능을 설명하기 위한 도면이다.
도 13을 참조하면, 모든 레벨의 맵 데이터는 시간축을 가지고 있고, 사용자는 언제든지 시간축의 변경을 통해 과거 특정 아이템의 데이터를 조회할 수 있을 뿐만 아니라, 특정 시점부터 맵에 표시된 모든 아이템에 대해 재생(playback)할 수 있다. 즉, 캔버스뿐만 아니라 각 아이템들도 별개의 시간축을 가지고 있어 특정 아이템의 시간축을 전체 캔버스의 시간축과 별도로 설정할 수 있다. 이를 통해 비디오, 텍스트, 영상, 사용자 인터랙션 등을 통합하여 재생하는 기능인 operation playback 기능을 구현할 수 있다. 즉, 모든 시각화 공간에는 시간 개념이 포함되어 있어 사용자는 언제든지 자신이 원하는 시간대의 데이터를 조회 및 재생할 수 있다.
도 14는 생성된 맵 데이터를 저장하는 매체를 설명하기 위한 도면이다.
도 14를 참조하면, 생성된 맵 데이터(1420)는 맵 파일 포맷(1420)으로 저장될 수도 있고, 데이터베이스(1430)에 저장될 수도 있다. 맵 파일 포맷(1420)으로 생성하여 로컬에 놓을 수도 있고, 데이터베이스(1430)를 통해 중앙에 놓을 수도 있다.
도 15는 본 발명의 다른 실시예에 따른 미디어 분배 서버가 별도 영상 수신부로부터 영상 데이터를 수신하여 클라이언트로 분배하는 방법을 설명하기 위한 도면이다.
도 15를 참조하면, 미디어 분배 서버(1510)는 영상 정보(예컨대, 비디오 정보)를 수신하는 별도의 영상 수신부(1505)로부터 영상 정보를 입력받아 맵 생성 서버에서 생성된 맵 데이터에 링크를 걸어 클라이언트로 제공할 수 있다. 예컨대, 맵 데이터의 특정 아이템과 관련된 영상을 실제 맵 상에 올려놓을 수도 있지만, 그렇지 않고, 영상 수신부(1505)로부터 별도 수신하여 해당 아이템에 링크를 걸어놓을 수 있다. 사용자는 해당 아이템에 대한 링크를 통해 영상을 스트리밍할 수 있다. 이 경우, 대용량의 디스크를 차지하는 이미지 및 비디오 데이터를 데이터베이스에 저장하고, 실제 맵 파일을 로컬 스토리지에 저장하여 저장 공간의 효율성을 극대화시킬 수 있다. 또한, 클라이언트(1520-1~1520-N)의 인터랙션의 효율도 제고될 수 있다.
도 16은 본 발명의 맵 데이터 시각화 방법에 적용될 수 있는 POD 기술을 설명하기 위한 도면이다. POD 기술은 대한민국 공개특허 KR10-2002-0052190(2002.07.02) 및 미국 공개특허 10110680(2002.12.19)에 개시되어 있다.
도 16을 참조하면, 미디어 분배 서버(1630)는 복수 개의 영상(1610, 1620)이 클라이언트(1640)의 화면에서 통합되어 디스플레이되어야 하는 경우, 클라이언트(1640)에서의 디스플레이 화면의 해상도 정보를 통해 통합되어야 하는 복수 개의 영상(1610, 1620)의 해상도를 변경 제공함으로써 대역폭을 감소시키지 않고 통합 영상을 효율적으로 클라이언트(1640)로 전송할 수 있다. 이러한 기술을 POD라 한다. 도 16의 실시예에서는, 영상 1(1610) 및 영상 2(1620)가 모두 Full HD로써, 1920 x 1080의 해상도로 5Mbps로 전송되는 환경에서, 클라이언트(1640)의 디스플레이 화면 상에 동일한 Full HD 화면을 전송하는 상황을 가정한다. 미디어 분배 서버(1630)는 클라이언트(1640)의 디스플레이 화면에서의 화질 정보를 기반으로 두 영상(1610, 1620)을 트랜스코딩한다. 즉, 하나의 영상이 각각 1920 x 540의 해상도를 갖도록 트랜스코딩한 후, 통합하였을 때, 1920 x 1080의 Full HD 영상이 생성되도록 하여 앞서 하나의 영상을 전송하였을 때 사용하였던 대역폭(5Mbps)과 동일한 대역폭으로 통합된 영상을 제공할 수 있다.
또한, 본 발명의 맵 데이터 시각화 방법에 적용될 수 있는 IPQ 기술은 대한민국 공개특허 KR10-2003-0092955(2002.07.02) 및 미국 공개특허 10345432(2013.12.4)에 개시되어 있다.
IPQ는 소정 소프트웨어(에디터)를 통해 비디오 영상과 위성 지도, 상태 정보 등의 이기종 데이터를 자유롭게 편집할 수 있는 기술로써, 실시간 모니터링 및 통합 제어 시나리오를 확정하여 통합 모니터링 및 제어 컨텐츠를 편집할 수 있도록 한다. 이는 전체 영역 중 선택된 국소 영역의 데이터만 빠르게 전송하여 용량이 큰 이미지 데이터의 확대 축소 이동이 용이하도록 구현될 수 있다. 또한, 별도의 상황판이 존재하는 경우, 상황판과의 완벽한 동기화를 제공할 수 있고, 카메라 화면, 소리 경고 및 연결된 외부 장비 통제를 모두 연동하여 완벽한 알람 기능을 제공할 수 있다. 또한, 에디터를 통해 자유로운 화면 구성 및 컨텐츠를 저장할 수 있고, 실시간 알람의 처리 기능을 제공한다. 또한, GIS 맵에 비디오 영상을 위치시키는 등의 편집 기능을 내장할 수 있다.
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (14)

  1. 서버 시스템에서 수신되는 데이터를 통합하여 시각화하는 방법에 있어서,
    수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) - 아이템은 상태 또는 이벤트 모니터링을 위한 대상 객체임 - 간의 관계를 나타내는 계층 정보, 시간에 따라 동적으로 변화하는 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보를 추출하는 데이터 추출 단계;
    상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 단계; 및
    상기 생성된 컨텐츠를 시각화하고 제어하는 시각화 제어 단계를 포함하되,
    상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현되는 것을 특징으로 하는 4D 데이터 시각화 방법.
  2. 제 1 항에 있어서,
    상기 로우데이터는 이미지, 비디오, 텍스트, GIS 정보, 센서 데이터, 시스템 데이터 및 설비 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  3. 제 1 항에 있어서,
    상기 서버 시스템과 관련된 모든 리소스가 POD(Pixel on demand) 기술을 활용하여 네트워크 사용량을 줄이며 통합되도록 구현하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  4. 제 1 항에 있어서,
    데이터 중 일부는 타일 서비스(Tile Service)를 사용해 컨텐츠 서버로부터 클라이언트로 한번에 전송되는 데이터의 해상도 및 전송량을 조절하여 전송되는 것을 특징으로 하는 4D 데이터 시각화 방법.
  5. 제 1 항에 있어서,
    상기 계층 정보는 상기 로우데이터에 포함된 각 아이템의 물리적 상하위로 표시할 뿐만 아니라, 논리적인 상하위 관계를 반영하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  6. 제 1 항에 있어서,
    상기 상태 정보는 각 아이템의 현 상태정보와 각 아이템으로부터 발생되는 모든 이벤트 정보를 포함하며, 각 아이템을 통해 관리되는 KPI(Key Performance Indicator) 정보를 포함하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  7. 제 1 항에 있어서,
    상기 데이터 추출 단계는 상기 계층 정보, 상기 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 추출하는 단계를 포함하고,
    상기 연결정보는 상기 시각화 제어 단계에서 각 아이템과 인터랙션을 통해 클라이언트에서 표시되거나 타시스템과 연계될 수 있는 외부 연동주소를 갖는 것을 특징으로 하는 4D 데이터 시각화 방법.
  8. 제 7 항에 있어서,
    클라이언트에 의해 확대/축소 인터랙션이 요청되는 경우, 클라이언트에 의해 선택되거나 화면 중심에 있는 아이템을 기준으로, 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 활용하여 일관된 시각화 공간을 제공하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  9. 제 1 항에 있어서,
    상기 서버 시스템에서 수신되는 데이터의 통합 및 시각화를 위해 데이터를 저장할 때, 주기적으로 상기 계층정보, 상기 상태정보, 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결정보를 저장하고, 맵을 생성하여 클라이언트가 저장된 정보의 시간축을 조정하여 재생(playback)하는 것을 특징으로 하는 4D 데이터 시각화 방법.
  10. 제 1 항에 있어서,
    상기 서버 시스템에서 수신되는 상기 계층 정보, 상기 상태 정보 및 각 아이템이 인터랙션에 의해 내외부 시스템과 관계를 맺을 수 있도록 하는 연결 정보는 서로 다른 수집 주기로 수집되고 서로 다른 맵 생성 주기로 시각화되는 것을 특징으로 하는 4D 데이터 시각화 방법.
  11. 수신되는 데이터를 통합하여 시각화하는 시스템에 있어서,
    수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) - 아이템은 상태 또는 이벤트 모니터링을 위한 대상 객체임 - 간의 관계를 나타내는 계층 정보, 시간에 따라 동적으로 변화하는 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보를 추출하고, 상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 서버; 및
    상기 생성된 컨텐츠를 분배하기 위한 미디어 분배 서버를 포함하되,
    상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현되는 것을 특징으로 하는 4D 데이터 시각화 시스템.
  12. 서버 시스템에서 수신되는 데이터를 통합한 파일을 생성하는 방법에 있어서,
    수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) - 아이템은 상태 또는 이벤트 모니터링을 위한 대상 객체임 - 간의 관계를 나타내는 계층 정보, 시간에 따라 동적으로 변화하는 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보를 추출하는 데이터 추출 단계;
    상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하여 파일 형태로 생성하는 컨텐츠 파일 생성 단계를 포함하되,
    상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현되는 것을 특징으로 하는 4D 데이터 통합 파일 생성 방법.
  13. 수신되는 데이터를 통합하여 파일을 생성하는 장치에 있어서,
    수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) - 아이템은 상태 또는 이벤트 모니터링을 위한 대상 객체임 - 간의 관계를 나타내는 계층 정보, 시간에 따라 동적으로 변화하는 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보를 추출하는 데이터 추출부; 및
    상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하여 파일 형태로 생성하는 컨텐츠 파일 생성부를 포함하되,
    상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현되는 것을 특징으로 하는 4D 데이터 통합 파일 생성 장치.
  14. 서버 시스템에서 수신되는 데이터를 통합하여 시각화하는 방법에 있어서,
    수신되는 적어도 하나의 로우 데이터로부터, 아이템(item) - 아이템은 상태 또는 이벤트 모니터링을 위한 대상 객체임 - 간의 관계를 나타내는 계층 정보, 시간에 따라 동적으로 변화하는 각 아이템의 상태 또는 이벤트(event)를 나타내는 상태 정보를 추출하는 데이터 추출 단계;
    상기 추출된 정보를 오브젝트(object)로 생성하고, 생성된 오브젝트를 시각화 공간에 통합 구현하는 컨텐츠 생성 단계; 및
    클라이언트에게 시각화 공간을 제어할 수 있도록 해주는 클라이언트 뷰어 및 에디터를 제공하는 시각화 도구 제공 단계를 포함하는 포함하되,
    상기 오브젝트 및 시각화 공간은 각각 위치 정보 및 시간 정보를 가지면서 통합되어 4D 데이터로 구현되는 것을 특징으로 하는 4D 데이터 시각화 방법.
KR1020150131582A 2014-11-19 2015-09-17 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치 KR101691524B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140161653 2014-11-19
KR20140161653 2014-11-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150003442A Division KR101559838B1 (ko) 2014-11-19 2015-01-09 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160059947A KR20160059947A (ko) 2016-05-27
KR101691524B1 true KR101691524B1 (ko) 2016-12-30

Family

ID=54348485

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150003442A KR101559838B1 (ko) 2014-11-19 2015-01-09 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치
KR1020150131582A KR101691524B1 (ko) 2014-11-19 2015-09-17 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020150003442A KR101559838B1 (ko) 2014-11-19 2015-01-09 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치

Country Status (3)

Country Link
US (2) US9767621B2 (ko)
JP (1) JP6760719B2 (ko)
KR (2) KR101559838B1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150035823A1 (en) 2013-07-31 2015-02-05 Splunk Inc. Systems and Methods for Using a Three-Dimensional, First Person Display to Convey Data to a User
KR101559838B1 (ko) * 2014-11-19 2015-10-13 엔쓰리엔 주식회사 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치
KR101887594B1 (ko) * 2016-06-20 2018-08-13 엔쓰리엔 주식회사 클라우드 네트워크 기반 데이터 시각화 방법 및 장치
US10216367B1 (en) * 2016-07-29 2019-02-26 Northrop Grumman Systems Corporation Automated visualization and interaction algorithm
KR101961278B1 (ko) * 2017-10-17 2019-07-17 이승리 네트워크를 통한 사업장 정보 제공 장치, 방법 및 시스템
US10762250B2 (en) * 2018-01-08 2020-09-01 Nuvolo Technologies Corporation Interpreter framework for a computer file
KR101958199B1 (ko) * 2018-11-29 2019-03-14 (주)부품디비 중소형 플랜트의 유지보수 엔지니어링 역량 강화를 위한 모델기반의 형상관리시스템
JP6959956B2 (ja) 2019-04-10 2021-11-05 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム
CN110727386A (zh) * 2019-09-12 2020-01-24 湖南新云网科技有限公司 一种用于电子白板的操作图元方法、系统及存储介质
CN112540815B (zh) * 2020-11-23 2023-05-05 深圳晶泰科技有限公司 多Web 3D场景离屏渲染方法
CN112380405B (zh) * 2020-12-10 2023-03-14 中国人民解放军战略支援部队信息工程大学 一种基于地图的旅行事件多维一体化可视化方法
CN116664722B (zh) * 2023-07-27 2023-10-13 山东新卓诚智慧科技有限公司 一种智慧环保的大数据可视化处理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009019358A (ja) 2007-07-10 2009-01-29 Hitachi Plant Technologies Ltd 自動除塵機
KR101169093B1 (ko) 2005-01-12 2012-07-26 마이크로소프트 코포레이션 데이터의 타임 라인 기반 시각화를 위한 아키텍쳐 및 엔진

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106402A (ja) * 1995-10-11 1997-04-22 Sharp Corp 地理情報検索装置及び関連情報検索装置
US8843850B2 (en) * 1999-07-22 2014-09-23 Tavusi Data Solutions Llc Graphic-information flow for visually analyzing patterns and relationships
US7024046B2 (en) * 2000-04-18 2006-04-04 Real Time Image Ltd. System and method for the lossless progressive streaming of images over a communication network
KR100467240B1 (ko) 2000-08-17 2005-01-24 주식회사 이노티브 영상 데이터 디스플레이 시스템 및 방법
US7042468B2 (en) * 2001-05-04 2006-05-09 Disney Enterprises, Inc. Text overlay for multi-dimensional construction project models
JP2003295763A (ja) * 2002-04-03 2003-10-15 Toshiba Corp 道路情報システム
US7756907B2 (en) * 2003-09-16 2010-07-13 The Board Of Trustees Of The Leland Stanford Jr. University Computer systems and methods for visualizing data
US7609257B2 (en) * 2004-03-29 2009-10-27 Oculus Info Inc. System and method for applying link analysis tools for visualizing connected temporal and spatial information on a user interface
US20060044307A1 (en) * 2004-08-24 2006-03-02 Kyuman Song System and method for visually representing project metrics on 3-dimensional building models
US20090300528A1 (en) * 2006-09-29 2009-12-03 Stambaugh Thomas M Browser event tracking for distributed web-based processing, spatial organization and display of information
US20110214050A1 (en) * 2006-09-29 2011-09-01 Stambaugh Thomas M Virtual systems for spatial organization, navigation, and presentation of information
US8200618B2 (en) * 2007-11-02 2012-06-12 International Business Machines Corporation System and method for analyzing data in a report
US8566736B1 (en) * 2009-01-19 2013-10-22 Pixar Visualization of value resolution for multidimensional parameterized data
US8838282B1 (en) * 2009-11-16 2014-09-16 Comverge, Inc. Method and system for providing a central controller that can communicate across heterogenous networks for reaching various energy load control devices
WO2012010510A1 (en) 2010-07-21 2012-01-26 Spectralmind Gmbh Method and system to organize and visualize media items
JP5761561B2 (ja) * 2011-05-10 2015-08-12 国際航業株式会社 画像表示処理装置
US9070216B2 (en) * 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US20130321458A1 (en) * 2012-05-30 2013-12-05 Northrop Grumman Systems Corporation Contextual visualization via configurable ip-space maps
US20130335413A1 (en) * 2012-06-13 2013-12-19 National Chiao Tung University System and method for estimating construction duration
JP2015535992A (ja) * 2012-09-24 2015-12-17 キャタピラー インコーポレイテッドCaterpillar Incorporated 採掘作業の制御及び点検
US8799799B1 (en) * 2013-05-07 2014-08-05 Palantir Technologies Inc. Interactive geospatial map
US9852238B2 (en) * 2014-04-24 2017-12-26 The Board Of Trustees Of The University Of Illinois 4D vizualization of building design and construction modeling with photographs
KR101559838B1 (ko) * 2014-11-19 2015-10-13 엔쓰리엔 주식회사 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101169093B1 (ko) 2005-01-12 2012-07-26 마이크로소프트 코포레이션 데이터의 타임 라인 기반 시각화를 위한 아키텍쳐 및 엔진
JP2009019358A (ja) 2007-07-10 2009-01-29 Hitachi Plant Technologies Ltd 自動除塵機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
강인석 외 3인, "건설시설물 공정정보 시각화를 위한 4D CAD 시스템의 개발 및 적용사례분석",한국철도학회 논문집 제10권 제4호, pp.373-380, 2007.8.

Also Published As

Publication number Publication date
JP2016100001A (ja) 2016-05-30
US20170345221A1 (en) 2017-11-30
US20160140771A1 (en) 2016-05-19
KR20160059947A (ko) 2016-05-27
KR101559838B1 (ko) 2015-10-13
JP6760719B2 (ja) 2020-09-23
US10242506B2 (en) 2019-03-26
US9767621B2 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
KR101691524B1 (ko) 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치
US20220400259A1 (en) Transferring system for huge and high quality images on network and method thereof
US10554934B2 (en) Systems and methods for managing and displaying video sources
Gaffuri Toward web mapping with vector data
Veas et al. Mobile augmented reality for environmental monitoring
CN100421625C (zh) 图像保存显示系统、其维修管理系统、及图像保存显示方法
JP4552005B2 (ja) 電子新聞表示装置
GB2550131A (en) Apparatus and methods for a user interface
KR20100018988A (ko) 멀티미디어 디지털 콘텐츠의 축약정보 추출시스템과 축약 정보를 활용한 다중 멀티미디어 콘텐츠 디스플레이 시스템 및 그 방법
KR20140064775A (ko) 미디어 방송을 위한 자동 동적 레이아웃 디자인 시스템 및 방법
WO2003012680A1 (en) Network image server
JP2010515934A (ja) マルチフレーム表示システムの機能強化アレイ
WO2011008612A1 (en) Synchronizing video images and three dimensional visualization images
CN112100408B (zh) 历史实体数据的展示方法、装置及设备
EP2763409A2 (en) Systems and methods for managing access to surveillance cameras
KR101887594B1 (ko) 클라우드 네트워크 기반 데이터 시각화 방법 및 장치
KR20240044096A (ko) 4d 데이터를 시각화하기 위한 시각화 방법 및 시스템, 및 통합 데이터 파일 생성 방법 및 장치
KR20130124757A (ko) 비디오 관리 시스템 및 그 영상 제어 방법
Pattath et al. Real-time scalable visual analysis on mobile devices
Zang et al. Design and Application of 3D Geographic Information Visualization System Based on Skyline
CN117707883A (zh) 一种用于云平台与云上业务运行监控可视化的方法及系统
KR20130046607A (ko) 비디오 관리 시스템 및 비디오 데이터 처리 방법
AU2002322153A1 (en) Network image server
Burchett et al. Collaborative visualization for layered sensing
JP2006053794A (ja) メタデータ流通システムおよび方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191226

Year of fee payment: 4

R401 Registration of restoration
R401 Registration of restoration