KR102317854B1 - User interface for real-time monitoring - Google Patents

User interface for real-time monitoring Download PDF

Info

Publication number
KR102317854B1
KR102317854B1 KR1020210032219A KR20210032219A KR102317854B1 KR 102317854 B1 KR102317854 B1 KR 102317854B1 KR 1020210032219 A KR1020210032219 A KR 1020210032219A KR 20210032219 A KR20210032219 A KR 20210032219A KR 102317854 B1 KR102317854 B1 KR 102317854B1
Authority
KR
South Korea
Prior art keywords
entity
image
change
graphic
rate
Prior art date
Application number
KR1020210032219A
Other languages
Korean (ko)
Inventor
손세미
Original Assignee
주식회사 에스아이에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스아이에이 filed Critical 주식회사 에스아이에이
Priority to KR1020210032219A priority Critical patent/KR102317854B1/en
Priority to KR1020210139983A priority patent/KR20220127730A/en
Application granted granted Critical
Publication of KR102317854B1 publication Critical patent/KR102317854B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Debugging And Monitoring (AREA)
  • Electric Clocks (AREA)

Abstract

A computer program stored in a computer-readable storage medium provides a user interface for real-time monitoring when executed by one or more processors of a computing device. The user interface may comprise: a first layer that displays a first image including the geographic information; and a second layer that displays a first graphic including a grid including one or more tiles displayed in a preset size, wherein each of the one or more tiles displays to indicate a rate of change of a corresponding area in the first image.

Description

실시간 모니터링을 위한 사용자 인터페이스{User interface for real-time monitoring}User interface for real-time monitoring}

본 개시는 실시간 모니터링을 위한 사용자 인터페이스 제공 방법에 관한 것으로, 구체적으로 지리적 정보를 포함하는 이미지의 모니터링을 위한 사용자 인터페이스 제공 방법에 관한 것이다. The present disclosure relates to a method of providing a user interface for real-time monitoring, and more particularly, to a method of providing a user interface for monitoring an image including geographic information.

최근 들어 딥러닝의 발전으로 물체 식별 딥러닝 모델이 공공, 산업, 군사 등 분야를 막론하고 널리 적용되고 있다. 특히 물체 식별 딥러닝 모델은 CCTV, 위성영상 등의 분야에서 높은 활용성이 기대되고 있다. 한편 인공위성으로부터 고해상도의 위성 영상을 획득하는 기술 또한 보편화되었다. 위성영상 분야에서 물체 식별 딥러닝 모델의 활용도가 높아짐에 따라, 위성영상으로부터 획득되는 정보 또는 위성영상으로부터 사용자에게 전달되는 정보의 양과 다양성 또한 크게 증가하고 있다. With the recent development of deep learning, object identification deep learning models are being widely applied in public, industrial, and military fields. In particular, object identification deep learning models are expected to be highly useful in fields such as CCTV and satellite images. Meanwhile, technology for acquiring high-resolution satellite images from artificial satellites has also become common. As the application of deep learning models for object identification in the field of satellite images increases, the amount and diversity of information acquired from satellite images or information delivered to users from satellite images is also greatly increasing.

이에 따라, 위성영상에 관한 정보를 제공함에 있어서 사용자 편의성도 함께 제공하는 것이 필요하다. 일부 서비스 애플리케이션은 위성영상에서 사용자들에게 전달될 정보를 표시하기 위하여 그래픽과 같은 표시자를 생성한다. 위성영상에 관한 정보 제공에 있어 이와 같은 다양한 표시자들의 가시성을 개선하고, 스크린 영역의 이용률을 개선하며, 궁극적으로 막대한 양의 정보를 사용자에게 효율적으로 전달할 수 있는 사용자 인터페이스의 개발이 요구된다. Accordingly, in providing information on satellite images, it is necessary to provide user convenience as well. Some service applications create indicators, such as graphics, to display information to be conveyed to users in satellite imagery. In providing information on satellite images, it is required to develop a user interface that can improve the visibility of such various indicators, improve the utilization rate of the screen area, and ultimately deliver a huge amount of information to the user.

대한민국 공개특허 2020-0087079Republic of Korea Patent Publication 2020-0087079

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 실시간 모니터링을 위한 사용자 인터페이스 제공 방법에 관한 것이다. The present disclosure is devised in response to the above-described background technology, and relates to a method of providing a user interface for real-time monitoring.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 과제를 해결하기 위한 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램을 제공하고자 한다. 상기 컴퓨터 프로그램은 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행되는 경우 실시간 모니터링을 위한 사용자 인터페이스를 제공하며, 상기 사용자 인터페이스는, 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어; 및 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)를 포함하는 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어; 를 포함할 수 있다.An object of the present invention is to provide a computer program stored in a computer-readable storage medium for solving the above problems. The computer program, when executed by one or more processors of a computing device, provides a user interface for real-time monitoring, the user interface comprising: a first layer, displaying a first image comprising geographic information; and displaying a first graphic including a grid including one or more tiles displayed in a preset size, wherein each of the one or more tiles indicates a rate of change of a corresponding area in the first image, second layer; may include.

또한, 상기 하나 이상의 타일들의 상기 사전 설정된 크기는, 상기 제 1 이미지에 표시되는 지리적 정보의 축척 레벨과 무관하게 고정될 수 있다.Also, the preset size of the one or more tiles may be fixed regardless of a scale level of geographic information displayed in the first image.

또한, 상기 하나 이상의 타일들 중 어느 하나인 제 1 타일의 색상은, 상기 제 1 타일과 대응되는 상기 제 1 이미지 내의 영역인 제 1 영역의 상기 변화율에 적어도 기초하여 결정될 수 있다.Also, the color of the first tile, which is one of the one or more tiles, may be determined based on at least the change rate of the first area, which is an area in the first image corresponding to the first tile.

또한, 상기 변화율은, 하나 이상의 변화율 구간을 포함하며, 상기 하나 이상의 변화율 구간 각각에는 서로 상이한 색상 속성이 할당되고, 상기 제 1 타일의 색상은, 상기 제 1 영역의 상기 변화율의 최대값이 포함되는 상기 하나 이상의 변화율 구간에 할당된 상기 색상 속성에 기초하여 결정될 수 있다.In addition, the rate of change includes one or more change rate sections, different color properties are assigned to each of the one or more change rate sections, and the color of the first tile includes the maximum value of the rate of change of the first region. It may be determined based on the color attribute allocated to the one or more change rate intervals.

또한, 상기 사용자 인터페이스는, 상기 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는, 제 3 레이어; 를 더 포함하고, 상기 제 2 그래픽은, 제 1 엔티티를 포함하는 엔티티들(entities)로 구성되고, 상기 제 1 엔티티는, 상기 객체 중 적어도 일부이며 상기 제 1 엔티티에 대응되는 제 1 객체가 검출된 위치를 가이드할 수 있다.In addition, the user interface may include: a third layer configured to display a second graphic corresponding to each object detected by inputting the first image into one or more object detection algorithms; further comprising, wherein the second graphic is composed of entities including a first entity, wherein the first entity is at least a part of the object and a first object corresponding to the first entity is detected position can be guided.

또한, 상기 제 1 엔티티의 크기는, 상기 제 1 객체에 포함된 상기 객체의 개수에 적어도 기초하여 결정될 수 있다.Also, the size of the first entity may be determined based on at least the number of the objects included in the first object.

또한, 상기 제 1 엔티티의 색상은, 상기 제 1 객체와 연관되는 제 1 객체 검출 알고리즘 및 상기 제 1 객체의 검출 시점인 제 1 검출 시점 중 적어도 하나에 기초하여 결정될 수 있다.In addition, the color of the first entity may be determined based on at least one of a first object detection algorithm associated with the first object and a first detection time that is a detection time of the first object.

또한, 상기 제 1 엔티티의 색상은, 상기 제 1 이미지를 상기 제 1 객체 검출 알고리즘에 입력하여 검출된 제 2 객체에 대응되는 제 2 엔티티의 색상과 대응되는 색상 계열을 가지고, 그리고 상기 제 1 검출 시점이 임계 시점보다 후행하는 경우에 시각적으로 강조될 수 있다.In addition, the color of the first entity has a color series corresponding to the color of the second entity corresponding to the second object detected by inputting the first image into the first object detection algorithm, and the first detection A time point may be visually emphasized if it lags a critical time point.

또한, 상기 제 3 레이어는, 상기 제 1 엔티티가 상기 엔티티들 중 적어도 일부인 제 3 엔티티와 임계치 미만의 간격을 가지는 경우, 그리고 사전 설정된 클러스터링 조건을 만족하는 경우에, 상기 제 1 엔티티 및 상기 제 3 엔티티를 대체하여, 상기 제 1 엔티티 및 상기 제 3 엔티티를 기초로 생성된 클러스터링된(clustered) 엔티티를 디스플레이 하고, 상기 사전 설정된 클러스터링 조건은, 상기 제 1 객체와 연관되는 제 1 객체 검출 알고리즘과, 상기 제 3 엔티티에 대응되는 제 3 객체와 연관되는 제 3 객체 검출 알고리즘이 서로 대응되는지 여부, 그리고 상기 제 1 객체 및 상기 제 3 객체 중 적어도 하나의 검출 시점이 임계 시점보다 후행하는지 여부 중 적어도 하나를 포함할 수 있다.In addition, the third layer includes the first entity and the third entity when the first entity has a distance less than a threshold from a third entity that is at least some of the entities, and when a preset clustering condition is satisfied. replacing an entity, displaying a clustered entity generated based on the first entity and the third entity, wherein the preset clustering condition comprises: a first object detection algorithm associated with the first object; At least one of whether a third object detection algorithm associated with a third object corresponding to the third entity corresponds to each other, and whether a detection time of at least one of the first object and the third object follows a threshold time. may include.

또한, 상기 클러스터링된 엔티티는, 상기 제 1 객체 검출 알고리즘과 상기 제 3 객체 검출 알고리즘이 서로 대응되고, 그리고 상기 제 1 객체 및 상기 제 3 객체의 상기 검출 시점이 모두 상기 임계 시점보다 선행하는 경우에 디스플레이 될 수 있다.In addition, the clustered entity may be determined when the first object detection algorithm and the third object detection algorithm correspond to each other, and both the detection times of the first object and the third object precede the threshold time. can be displayed.

또한, 상기 사용자 인터페이스는, 상기 객체 또는 상기 변화율 중 적어도 하나가 알림 발생 조건을 만족하는 경우, 상기 객체 또는 상기 변화율에 관한 알림을 디스플레이 하도록 허용되는, 제 4 레이어; 를 더 포함하고, 상기 알림 발생 조건은, 상기 객체의 검출 지역에 관한 조건, 상기 객체의 유형에 관한 조건, 상기 객체의 검출량에 관한 조건, 상기 변화율이 탐지되는 지역에 관한 조건, 및 상기 변화율의 변동에 관한 조건 중 적어도 하나를 포함할 수 있다.In addition, the user interface may include: a fourth layer, which is allowed to display a notification regarding the object or the rate of change when at least one of the object or the rate of change satisfies a condition for generating a notification; further comprising, wherein the notification generation condition includes a condition regarding the detection area of the object, a condition regarding the type of the object, a condition regarding the detection amount of the object, a condition regarding the area in which the change rate is detected, and a condition regarding the change rate. It may include at least one of conditions related to variation.

또한, 상기 알림은, 상기 알림 발생 조건을 만족하는 객체가 검출된 위치 또는 상기 알림 발생 조건을 만족하는 변화율이 탐지된 위치 중 적어도 하나를 가이드 하는 상기 사용자 인터페이스 내의 위치에, 둘 이상의 알림 수준 중 어느 하나의 수준을 시각적으로 나타내는 제 3 그래픽을 디스플레이 하는 것을 포함할 수 있다.In addition, the notification is, at a location in the user interface that guides at least one of a location where an object satisfying the notification generation condition is detected or a location where a change rate satisfying the notification generation condition is detected, any of two or more notification levels It may include displaying a third graphic visually representing one level.

또한, 상기 사용자 인터페이스는, 상기 컴퓨팅 장치로 수신된 영상의 촬영 지역과 대응되는, 상기 제 1 이미지 내 영역에 제 4 그래픽을 디스플레이 하는, 제 5 레이어; 를 더 포함하고, 상기 제 4 그래픽은, 상기 제 1 이미지의 축척 레벨에 적어도 기초하여, 상기 촬영 지역의 경계에 관한 제 1 영상 정보, 상기 영상의 촬영 주체에 관한 제 2 영상 정보, 및 상기 영상의 촬영 일시에 관한 제 3 영상 정보 중 적어도 하나를 포함하도록 결정될 수 있다.In addition, the user interface may include: a fifth layer configured to display a fourth graphic in an area within the first image corresponding to a photographing area of the image received by the computing device; further comprising, wherein the fourth graphic includes, based at least on the scale level of the first image, first image information about a boundary of the photographing area, second image information about a photographing subject of the image, and the image It may be determined to include at least one of the third image information regarding the photographing date and time of .

또한, 상기 사용자 인터페이스는, 종합 정보를 디스플레이 하는 제 6 레이어를 더 포함하고, 상기 종합 정보는, 상기 제 1 그래픽 내지 상기 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함할 수 있다.In addition, the user interface may further include a sixth layer for displaying comprehensive information, and the synthetic information may include information related to at least a portion of the first graphic to the fourth graphic.

전술한 배경기술에 대응하여 안출된, 사용자 단말에서 실시간 모니터링을 위한 사용자 인터페이스를 표시하는 방법으로서, 상기 방법은, 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어를 디스플레이 하는 단계; 및 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어를 디스플레이 하는 단계; 를 포함할 수 있다.A method of displaying a user interface for real-time monitoring in a user terminal, devised in response to the above background art, the method comprising: displaying a first layer, displaying a first image including geographic information; and displaying a first graphic that is a grid including one or more tiles displayed in a preset size, and displaying each of the one or more tiles to indicate a rate of change of a corresponding area in the first image. displaying the layer; may include.

전술한 배경기술에 대응하여 안출된, 사용자 단말로서, 상기 사용자 단말은, 하나 이상의 코어를 포함하는 프로세서; 메모리; 및 사용자 인터페이스를 제공하는 출력부; 를 포함하고, 상기 사용자 인터페이스는, 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어; 및 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어; 를 포함할 수 있다. A user terminal devised in response to the above-mentioned background art, the user terminal comprising: a processor including one or more cores; Memory; and an output unit providing a user interface; including, wherein the user interface comprises: a first layer for displaying a first image including geographic information; and displaying a first graphic that is a grid including one or more tiles displayed in a preset size, and displaying each of the one or more tiles to indicate a rate of change of a corresponding area in the first image. Layer; may include.

본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions that are not mentioned are clearly to those of ordinary skill in the art to which the present disclosure belongs from the description below. can be understood

본 개시의 몇몇 실시예에 따르면, 실시간 모니터링을 위한 사용자 인터페이스를 제공할 수 있다.According to some embodiments of the present disclosure, a user interface for real-time monitoring may be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. .

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 몇몇 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 제공하는 컴퓨팅 장치를 나타낸 블록도이다.
도 2는 본 개시의 일 실시예에 따라 네트워크 함수를 나타낸 개략도이다.
도 3은 본 개시의 몇몇 실시예에 실시간 모니터링을 위한 사용자 인터페이스를 구성할 수 있는 레이어들을 도시한 블록 구성도이다.
도 4는 본 개시의 몇몇 실시예에 따른 사용자 인터페이스를 예시적으로 도시한 도면이다.
도 5는 도 4의 A 부분을 확대한 것으로, 본 개시의 몇몇 실시예에 따른 제 1 그래픽을 예시적으로 도시한 도면이다.
도 6은 본 개시의 몇몇 실시예에 따른 제 1 그래픽을 종래 기술과 대비하여 예시적으로 도시한 도면이다.
도 7은 본 개시의 몇몇 실시예에 따른 제 2 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다.
도 8은 본 개시의 몇몇 실시예에 따른 제 2 그래픽을 디스플레이 하기 위한 순서도이다.
도 9는 본 개시의 몇몇 실시예에 따른 제 3 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다.
도 10은 본 개시의 몇몇 실시예에 따른 제 3 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다.
도 11은 도 4의 B 부분을 확대한 것으로, 본 개시의 몇몇 실시예에 따른 제 4 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다.
도 12는 본 개시의 몇몇 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 제공하기 위한 순서도이다.
도 13은 본 개시의 몇몇 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다.
Various aspects are now described with reference to the drawings, in which like reference numbers are used to refer to like elements collectively. In the following examples, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. It will be evident, however, that such aspect(s) may be practiced without these specific details.
1 is a block diagram illustrating a computing device that provides a user interface for real-time monitoring according to some embodiments of the present disclosure.
2 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure;
3 is a block diagram illustrating layers capable of configuring a user interface for real-time monitoring in some embodiments of the present disclosure.
4 is a diagram exemplarily illustrating a user interface according to some embodiments of the present disclosure.
FIG. 5 is an enlarged view of part A of FIG. 4 and exemplarily illustrates a first graphic according to some embodiments of the present disclosure.
6 is a diagram exemplarily illustrating a first graphic according to some embodiments of the present disclosure in comparison with the prior art.
7 is a diagram exemplarily illustrating a method of displaying a second graphic according to some embodiments of the present disclosure.
8 is a flowchart for displaying a second graphic according to some embodiments of the present disclosure.
9 is a diagram exemplarily illustrating a method of displaying a third graphic according to some embodiments of the present disclosure.
10 is a diagram exemplarily illustrating a method of displaying a third graphic according to some embodiments of the present disclosure.
FIG. 11 is an enlarged view of part B of FIG. 4 and exemplarily illustrates a method of displaying a fourth graphic according to some embodiments of the present disclosure.
12 is a flowchart for providing a user interface for real-time monitoring according to some embodiments of the present disclosure.
13 is a simplified, general schematic diagram of an example computing environment in which some embodiments of the present disclosure may be implemented.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the present disclosure. However, it is apparent that these embodiments may be practiced without these specific descriptions.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.The terms “component,” “module,” “system,” and the like, as used herein, refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or execution of software. For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and the computing device may be a component. One or more components may reside within a processor and/or thread of execution. A component may be localized within one computer. A component may be distributed between two or more computers. In addition, these components can execute from various computer readable media having various data structures stored therein. Components may communicate via a network such as the Internet with another system, for example via a signal having one or more data packets (eg, data and/or signals from one component interacting with another component in a local system, distributed system, etc.) may communicate via local and/or remote processes depending on the data being transmitted).

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Also, the terms "comprises" and/or "comprising" should be understood to mean that the feature and/or element in question is present. However, it should be understood that the terms "comprises" and/or "comprising" do not exclude the presence or addition of one or more other features, elements and/or groups thereof. Also, unless otherwise specified or otherwise clear from context to refer to a singular form, the singular in the specification and claims should generally be construed to mean "one or more."

또한, "이상" 및/또는 "미만"은, "초과" 및/또는 "이하"로 해석될 수 있으며, 그 반대의 해석도 가능할 수 있다.In addition, "more than" and/or "less than" may be interpreted as "more than" and/or "less than", and vice versa.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those skilled in the art will further appreciate that the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein may be implemented in electronic hardware, computer software, or combinations of both. It should be recognized that they can be implemented with To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.Descriptions of the presented embodiments are provided to enable those skilled in the art to use or practice the present invention. Various modifications to these embodiments will be apparent to those skilled in the art of the present disclosure. The generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present invention is not limited to the embodiments presented herein. This invention is to be construed in its widest scope consistent with the principles and novel features presented herein.

본 개시에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호교환 가능하게 사용될 수 있다. In the present disclosure, a network function, an artificial neural network, and a neural network may be used interchangeably.

본 개시내용에서 "지리적 정보를 포함하는 이미지" 라는 용어는, 영상 획득 장치로부터 획득되어 컴퓨팅 장치(100)로 수신되는 지리적 영상을 의미하는 용어로서 사용될 수 있다. 영상 획득 장치는 하나 이상의 위성일 수 있으며, 이 경우 지리적 정보를 포함하는 이미지는 위성으로부터 촬영된 위성 영상일 수 있다. 즉, 지리적 정보를 포함하는 이미지는, 임의의 위성이 임의의 시점에 임의의 지역을 촬영한 영상일 수 있다. 다만 이에 한정되는 것은 아니며, 예컨대 지리적 정보를 포함하는 이미지는 드론 영상, 비행기 영상 등을 포함하는 항공 이미지일 수 있다. In the present disclosure, the term “image including geographic information” may be used as a term meaning a geographic image obtained from an image acquisition device and received by the computing device 100 . The image acquisition device may be one or more satellites, and in this case, the image including geographic information may be a satellite image taken from the satellite. That is, the image including geographic information may be an image obtained by capturing an arbitrary area at an arbitrary time by any satellite. However, the present invention is not limited thereto, and for example, the image including geographic information may be an aerial image including a drone image, an airplane image, and the like.

본 개시내용에서 "실시간 모니터링"이라는 용어는, 컴퓨팅 장치(100) 또는 서버(미도시)로 영상이 수신되는 것에 응답하여, 수신된 영상을 딥러닝 알고리즘에 기초하여 판독하고, 판독 데이터를 실시간으로 제공하는 것을 의미하는 용어로서 사용될 수 있다. 즉, 실시간 모니터링은, 사용자가 영상을 선택하여 딥러닝 알고리즘을 통한 판독을 개시하는 것이 아닌, 영상의 수신에 응답하여 실시간으로 딥러닝 알고리즘에 기초하여 판독이 개시되는 것일 수 있다. 또한, 실시간 모니터링은, 수신된 영상에 대한 딥러닝 알고리즘의 판독이 완료된 후에 비로소 판독 데이터가 제공되는 것이 아닌, 판독 진행 중 객체가 검출되거나 변화가 탐지되는 등의 이벤트 발생 시 실시간으로 연관된 판독 데이터를 제공하는 것일 수 있다. In the present disclosure, the term "real-time monitoring" refers to, in response to an image being received by the computing device 100 or a server (not shown), the received image is read based on a deep learning algorithm, and the read data is read in real time. It can be used as a term meaning to provide. That is, in the real-time monitoring, the reading may be started based on the deep learning algorithm in real time in response to the reception of the image, rather than the user selecting an image and starting reading through the deep learning algorithm. In addition, real-time monitoring does not provide read data only after the deep learning algorithm reads the received image is completed, but reads related read data in real time when an event such as an object is detected or a change is detected while reading is in progress. may be provided.

본 개시내용에서 "딥러닝 알고리즘"이라는 용어는, 지리적 정보를 포함하는 이미지로부터 객체를 검출하거나, 변화를 탐지하거나, 이 밖에 데이터를 생성하는 일련의 인퍼런스(inference) 과정 및/또는 인퍼런스를 수행하는 하나 이상의 모듈들을 지칭하는 용어로 사용될 수 있다. 예컨대 본 개시내용에서 딥러닝 알고리즘은 변화 탐지 알고리즘, 또는 객체 검출 알고리즘을 포함할 수 있다. In the present disclosure, the term "deep learning algorithm" refers to a series of inference processes and/or inferences that detect objects, detect changes, or otherwise generate data from images including geographic information. may be used as a term to refer to one or more modules that perform For example, the deep learning algorithm in the present disclosure may include a change detection algorithm, or an object detection algorithm.

변화 탐지 알고리즘은, 위성에 의해 촬영된 지역의 영상으로부터 변화 양상을 탐지할 수 있다. 예컨대, 변화 탐지 알고리즘은, 촬영된 지역 중 적어도 일부에서의 임의의 두 시점 사이의 변화율을 산출할 수 있다. The change detection algorithm may detect a change pattern from an image of an area photographed by a satellite. For example, the change detection algorithm may calculate a rate of change between any two viewpoints in at least a part of the photographed area.

객체 검출 알고리즘은, 위성에 의해 촬영된 지역의 영상으로부터 사전 학습된 유형의 객체들을 검출할 수 있다. 예컨대, 항공기 객체를 검출하기 위한 알고리즘 A에 수신된 위성 영상을 입력하는 경우, 입력된 위성 영상에 존재하는 항공기 객체들이 검출될 수 있다. The object detection algorithm may detect pre-learned types of objects from an image of an area photographed by a satellite. For example, when a received satellite image is input to the algorithm A for detecting an aircraft object, aircraft objects existing in the input satellite image may be detected.

한편 검출하기 위한 객체 유형에 따라 하나 이상의 알고리즘이 존재할 수 있으며, 하나의 실시간 모니터링 프로젝트에 있어서 하나 이상의 서로 다른 알고리즘들이 동시에 사용될 수 있다. 예컨대, 항공기 객체를 검출하기 위한 알고리즘 A와 잠수함 객체를 검출하기 위한 알고리즘 B가 하나의 실시간 모니터링 프로젝트에 사용될 수 있다. 이 경우, 사용자 인터페이스 상에서, 알고리즘 A에 기초하여 검출된 객체(즉, 항공기 객체)들은 알고리즘 B에 기초하여 검출된 객체(즉, 잠수함 객체)들과 시각적으로 구분되도록 디스플레이 될 수 있다. 전술한 예시는 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다.Meanwhile, one or more algorithms may exist according to an object type for detection, and one or more different algorithms may be used simultaneously in one real-time monitoring project. For example, Algorithm A for detecting aircraft objects and Algorithm B for detecting submarine objects may be used in one real-time monitoring project. In this case, on the user interface, objects detected based on algorithm A (ie, aircraft objects) may be displayed to be visually distinguished from objects detected based on algorithm B (ie, submarine objects). The above-described example is merely an example, and does not limit the present disclosure.

본 개시내용에서 딥러닝 알고리즘은, 메모리(130)에 저장된 컴퓨터 프로그램을 구성하는 것일 수 있다. 즉, 프로세서(120)는 저장된 컴퓨터 프로그램을 판독하여, 딥러닝 알고리즘에 위성 영상을 입력하고, 딥러닝 알고리즘의 판독 데이터를 획득할 수 있다. 그리고 획득된 데이터를 기초로 사용자 인터페이스(200)를 생성할 수 있다. 예컨대 본 개시내용에서 판독 데이터는, 후술할 제 1 내지 제 4 그래픽 중 하나 이상을 통하여 디스플레이 될 수 있다. In the present disclosure, the deep learning algorithm may constitute a computer program stored in the memory 130 . That is, the processor 120 may read the stored computer program, input the satellite image to the deep learning algorithm, and obtain read data of the deep learning algorithm. In addition, the user interface 200 may be generated based on the obtained data. For example, in the present disclosure, read data may be displayed through one or more of first to fourth graphics to be described later.

다만 이에 한정되지 않으며, 딥러닝 알고리즘은 서버(미도시)의 메모리에 저장된 컴퓨터 프로그램을 구성하는 것일 수 있다. 즉, 서버의 프로세서는 딥러닝 알고리즘을 통해 위성 영상으로부터 판독 데이터를 획득하고, 이를 컴퓨팅 장치(100)로 전송하거나, 또는 획득된 판독 데이터를 기초로 생성한 사용자 인터페이스(200)를 컴퓨팅 장치(100)로 전송할 수 있다. However, the present invention is not limited thereto, and the deep learning algorithm may constitute a computer program stored in a memory of a server (not shown). That is, the processor of the server acquires read data from the satellite image through a deep learning algorithm, and transmits it to the computing device 100 , or transmits the user interface 200 generated based on the obtained read data to the computing device 100 . ) can be transmitted.

본 개시내용에서 "그래픽"이라는 용어는, 정보 전달을 위한 시각적 요소를 지칭하는 용어로 사용될 수 있으며, 여기서 정보 전달은, 상술한 지리적 정보를 포함하는 이미지에 관한 정보 전달, 또는 지리적 정보를 포함하는 이미지를 딥러닝 알고리즘에 입력하여 획득되는 판독 데이터에 관한 정보 전달을 의미할 수 있다. 시각적 요소는, 예컨대 사진, 그래프, 다이어그램, 문자, 숫자, 기호, 도형, 일러스트레이션, 색상, 애니메이션, 또는 이들의 집합, 배열, 배치 등일 수 있다. In the present disclosure, the term "graphic" may be used as a term referring to a visual element for information transfer, wherein information transfer includes information transfer about an image including the above-described geographic information, or information including geographic information. It may mean delivering information about read data obtained by inputting an image to a deep learning algorithm. The visual element may be, for example, a photograph, graph, diagram, letter, number, symbol, figure, illustration, color, animation, or a set, arrangement, arrangement, or the like thereof.

보다 구체적으로, 본 개시내용에서 그래픽은, 이미지 내 탐지되는 변화에 관한 정보 전달을 위한 제 1 그래픽, 이미지 내 검출되는 객체에 관한 정보 전달을 위한 제 2 그래픽, 이미지 내 탐지되는 변화 및/또는 이미지 내 검출되는 객체에 관한 알림 정보 전달을 위한 제 3 그래픽, 또는 이미지의 촬영에 관한 정보 전달을 위한 제 4 그래픽을 포함할 수 있다. 제 1 내지 제 4 그래픽 각각은, 예시한 시각적 요소들 중 어느 하나, 또는 이 밖에 각각의 정보 전달을 위해 사용될 수 있는 임의의 시각적 요소들을 포함할 수 있다.More specifically, a graphic in the present disclosure includes a first graphic for conveying information regarding a detected change in an image, a second graphic for conveying information regarding a detected object in the image, a detected change in an image and/or an image It may include a third graphic for transmitting notification information about an object detected within, or a fourth graphic for transmitting information regarding photographing of an image. Each of the first to fourth graphics may include any one of the illustrated visual elements, or any other visual elements that can be used for each information transfer.

본 개시내용에서 "타일"이라는 용어는, 임의의 크기의 영역을 빈틈이나 겹치는 부분 없이 채우는 일정한 형태의 도형들 각각을 지칭하는 용어로 사용될 수 있다. 타일로 사용 가능한 도형의 형태는 매우 다양하며, 예컨대 정삼각형, 정사각형, 정육각형, 마름모, 직사각형, 사다리꼴 등의 다각형이거나, 또는 곡선 형태의 비정형 도형일 수도 있다. In the present disclosure, the term “tile” may be used as a term to refer to each of figures of a certain shape that fills an area of an arbitrary size without gaps or overlapping portions. The shape of a figure that can be used as a tile is very diverse, and for example, it may be a polygon such as an equilateral triangle, a square, a regular hexagon, a rhombus, a rectangle, a trapezoid, or an irregular shape of a curved shape.

상술한 "그래픽"의 의미와 관련하여, "타일"또는 "타일"들의 집합, 배열, 배치 또한 "그래픽"의 일례일 수 있다. 본 개시내용에서 "타일"은 특히, 이미지 내 탐지되는 변화에 관한 정보 전달을 위한 제 1 그래픽의 일례를 설명하기 위해 사용된다. 즉, 임의의 크기의 영역인 이미지를 일정한 형태의 도형들로 채우고, 각각의 도형들(즉, 타일)의 속성이 대응되는 이미지 내 일 부분에서 탐지되는 변화에 관한 정보를 전달하게끔 할 수 있다. 전술한 내용은 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다. Regarding the meaning of "graphic" as described above, a set, arrangement, and arrangement of "tile" or "tile" may also be an example of "graphic". In the present disclosure, “tile” is used to describe an example of a first graphic, particularly for conveying information regarding a detected change in an image. That is, it is possible to fill an image, which is a region of an arbitrary size, with figures of a certain shape, and to transmit information about a change detected in a part of the image corresponding to the properties of each figure (ie, tile). The foregoing is merely an example, and does not limit the present disclosure.

도 1은 본 개시의 일 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 제공하는 컴퓨팅 장치를 나타낸 블록도이다.1 is a block diagram illustrating a computing device providing a user interface for real-time monitoring according to an embodiment of the present disclosure.

도 1에 도시된 컴퓨팅 장치(100)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 본 개시의 일 실시예에서 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 컴퓨팅 장치(100)를 구성할 수도 있다. The configuration of the computing device 100 shown in FIG. 1 is only a simplified example. In an embodiment of the present disclosure, the computing device 100 may include other components for performing the computing environment of the computing device 100 , and only some of the disclosed components may configure the computing device 100 .

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 네트워크부(110), 프로세서(120), 메모리(130), 출력부(140) 및 입력부(150)를 포함할 수 있다.The computing device 100 according to an embodiment of the present disclosure may include a network unit 110 , a processor 120 , a memory 130 , an output unit 140 , and an input unit 150 .

본 개시의 실시예들에 따른 컴퓨팅 장치(100)는 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.The computing device 100 according to embodiments of the present disclosure may include a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, and the like. and may include all types of terminals capable of accessing a wired/wireless network.

본 개시의 일 실시예에 따른 네트워크부(110)는 임의의 형태의 유선 또는 무선 통신 시스템들을 사용할 수 있다.The network unit 110 according to an embodiment of the present disclosure may use any type of wired or wireless communication systems.

본 개시에서 네트워크부(110)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In the present disclosure, the network unit 110 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN). can In addition, the network may be a well-known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication, such as infrared (IrDA) or Bluetooth (Bluetooth).

본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The techniques described herein may be used in the networks mentioned above, as well as in other networks.

본 개시의 일 실시예에 따른 프로세서(120)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝 및/또는 사용자 인터페이스의 제공을 위한 프로세서를 포함할 수 있다. 프로세서(120)는 메모리(130)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 기계 학습을 위한 데이터 처리를 수행하거나 및/또는 사용자 인터페이스를 제공할 수 있다. 본 개시의 일 실시예에 따라 프로세서(120)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(120)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(120)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The processor 120 according to an embodiment of the present disclosure may be configured with one or more cores, and may include a central processing unit (CPU) of a computing device, a general purpose graphics processing unit (GPGPU), It may include a processor for data analysis, deep learning, and/or provision of a user interface, such as a tensor processing unit (TPU). The processor 120 may read a computer program stored in the memory 130 to perform data processing for machine learning according to an embodiment of the present disclosure and/or provide a user interface. According to an embodiment of the present disclosure, the processor 120 may perform an operation for learning the neural network. The processor 120 is for learning of a neural network such as processing input data for learning in deep learning (DL), extracting features from input data, calculating an error, and updating the weight of the neural network using backpropagation. calculations can be performed. At least one of a CPU, a GPGPU, and a TPU of the processor 120 may process learning of a network function. For example, the CPU and the GPGPU can process learning of a network function and data classification using the network function together. In addition, in an embodiment of the present disclosure, learning of a network function and data classification using the network function may be processed by using the processors of a plurality of computing devices together. In addition, the computer program executed in the computing device according to an embodiment of the present disclosure may be a CPU, GPGPU, or TPU executable program.

본 개시의 일 실시예에 따른 메모리(130)는 프로세서(120)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 저장할 수 있다.The memory 130 according to an embodiment of the present disclosure may store any type of information generated or determined by the processor 120 and any type of information received by the network unit 110 .

본 개시의 일 실시예에 따른 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.The memory 130 according to an embodiment of the present disclosure may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory, ROM, Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM) Only memory), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The computing device 100 may operate in relation to a web storage that performs a storage function of the memory 130 on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 출력부(140)는, 본 개시의 일 실시예에 따른 사용자 인터페이스를 표시할 수 있다. 출력부(140)는 도 3 내지 6 및 도 8 내지 10에 도시된 바와 같은 사용자 인터페이스를 표시할 수 있다. 이하에서 도시되고 그리고 후술되는 사용자 인터페이스들은 예시일 뿐, 본 개시는 이에 제한되지 않는다.The output unit 140 according to an embodiment of the present disclosure may display a user interface according to an embodiment of the present disclosure. The output unit 140 may display a user interface as shown in FIGS. 3 to 6 and 8 to 10 . The user interfaces shown and described below are examples only, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 출력부(140)는 프로세서(120)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 출력할 수 있다.The output unit 140 according to an embodiment of the present disclosure may output any type of information generated or determined by the processor 120 and any type of information received by the network unit 110 .

본 개시의 일 실시예에 따른 출력부(140)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이 모듈은 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이 모듈이라 지칭될 수 있는데, 상기 투명 디스플레이 모듈의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다.The output unit 140 according to an embodiment of the present disclosure includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), and an organic light-emitting diode (OLED). , OLED), a flexible display, and a three-dimensional display (3D display) may include at least one. Some of these display modules may be configured as a transparent type or a light transmitting type so that the outside can be viewed through them. This may be referred to as a transparent display module, and a representative example of the transparent display module is a TOLED (Transparent OLED).

본 개시의 일 실시예에 따른 입력부(150)를 통해 사용자 입력을 수신할 수 있다. 본 개시의 일 실시예에 따른 입력부(150)는 사용자 입력을 수신 받기 위한 키 및/또는 버튼들을 구비할 수 있다. 입력부(150)를 통한 사용자 입력에 따라 본 개시의 실시예들에 따른 사용자 인터페이스를 제공하기 위한 컴퓨터 프로그램이 실행될 수 있다.A user input may be received through the input unit 150 according to an embodiment of the present disclosure. The input unit 150 according to an embodiment of the present disclosure may include a key and/or buttons for receiving a user input. A computer program for providing a user interface according to embodiments of the present disclosure may be executed according to a user input through the input unit 150 .

본 개시의 실시예들에 따른 입력부(150)는 사용자의 버튼 조작 또는 터치 입력을 감지하여 신호를 수신하거나, 카메라 또는 마이크로폰을 통하여 사용자 등의 음성 또는 동작을 수신하여 이를 입력 신호로 변환할 수도 있다. 이를 위해 음성 인식(Speech Recognition) 기술 또는 동작 인식(Motion Recognition) 기술들이 사용될 수 있다.The input unit 150 according to embodiments of the present disclosure may receive a signal by sensing a user's button manipulation or a touch input, or may receive a user's voice or motion through a camera or microphone and convert it into an input signal. . For this purpose, speech recognition technology or motion recognition technology may be used.

본 개시의 실시예들에 따른 입력부(150)는 컴퓨팅 장치(100)와 연결된 외부 입력 장비로서 구현될 수도 있다. 예를 들어, 입력 장비는 사용자 입력을 수신하기 위한 터치 패드, 터치 펜, 키보드 또는 마우스 중 적어도 하나일 수 있으나, 이는 예시일 뿐이며 본 개시는 이에 제한되는 것은 아니다.The input unit 150 according to embodiments of the present disclosure may be implemented as an external input device connected to the computing device 100 . For example, the input device may be at least one of a touch pad, a touch pen, a keyboard, or a mouse for receiving a user input, but this is only an example and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 입력부(150)는 사용자 터치 입력을 인식할 수 있다. 본 개시의 일 실시예에 따른 입력부(150)는 출력부(140)와 동일한 구성일 수도 있다. 입력부(150)는 사용자의 선택 입력을 수신하도록 구현되는 터치 스크린으로 구성될 수 있다. 터치 스크린은 접촉식 정전용량 방식, 적외선 광 감지 방식, 표면 초음파(SAW) 방식, 압전 방식, 저항막 방식 중 어느 하나의 방식이 사용될 수 있다. 전술한 터치 스크린에 대한 자세한 기재는 본 발명의 일 실시예에 따른 예시일 뿐이며, 다양한 터치 스크린 패널이 컴퓨팅 장치(100)에 채용될 수 있다. 터치 스크린으로 구성된 입력부(150)는 터치 센서를 포함할 수 있다. 터치 센서는 입력부(150)의 특정 부위에 가해진 압력 또는 입력부(150)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 프로세서(120)로 전송한다. 이로써, 프로세서(120)는 입력부(150)의 어느 영역이 터치 되었는지 여부 등을 인식할 수 있게 된다.The input unit 150 according to an embodiment of the present disclosure may recognize a user touch input. The input unit 150 according to an embodiment of the present disclosure may have the same configuration as the output unit 140 . The input unit 150 may be configured as a touch screen configured to receive a user's selection input. For the touch screen, any one of a contact capacitive method, an infrared light sensing method, a surface ultrasonic wave (SAW) method, a piezoelectric method, and a resistive film method may be used. The detailed description of the above-described touch screen is merely an example according to an embodiment of the present invention, and various touch screen panels may be employed in the computing device 100 . The input unit 150 configured as a touch screen may include a touch sensor. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the input unit 150 or capacitance generated in a specific portion of the input unit 150 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure at the time of the touch. When there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to the touch controller. The touch controller processes the signal(s) and then sends the corresponding data to the processor 120 . Accordingly, the processor 120 can recognize which area of the input unit 150 has been touched, and the like.

본 개시의 일 실시예에서 서버는 서버의 서버 환경을 수행하기 위한 다른 구성들이 포함될 수도 있다. 서버는 임의의 형태의 장치는 모두 포함할 수 있다. 서버는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다.In an embodiment of the present disclosure, the server may include other configurations for performing a server environment of the server. The server may include any type of device. The server is a digital device, and may be a digital device equipped with a processor, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone, and having a computing capability with a memory.

본 개시의 일 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 사용자 단말로 제공하기 위한 동작을 수행하는 서버(미도시)는 네트워크부, 프로세서 및 메모리를 포함할 수 있다.A server (not shown) that performs an operation for providing a user interface for real-time monitoring to a user terminal according to an embodiment of the present disclosure may include a network unit, a processor, and a memory.

서버는 본 개시의 실시예들에 따른 사용자 인터페이스를 생성할 수 있다. 서버는 생성한 사용자 인터페이스를 사용자 단말로 전송할 수 있다. 또는, 서버는 본 개시의 실시예들에 따른 사용자 인터페이스를 생성하게끔 하기 위한 정보를 네트워크를 통해 사용자 단말에 제공하는 컴퓨팅 시스템일 수 있다. 이러한 경우, 사용자 단말은 서버에 액세스할 수 있는 임의의 형태의 컴퓨팅 장치(100)일 수 있다. 서버의 프로세서는 네트워크부를 통해 사용자 단말로 사용자 인터페이스를 전송할 수 있다. 또는 서버의 프로세서는 네트워크부를 통해 사용자 단말로 사용자 인터페이스를 생성하게끔 하기 위한 정보를 전송할 수 있다. The server may generate a user interface according to embodiments of the present disclosure. The server may transmit the generated user interface to the user terminal. Alternatively, the server may be a computing system that provides information for generating a user interface according to embodiments of the present disclosure to a user terminal through a network. In this case, the user terminal may be any type of computing device 100 that can access the server. The processor of the server may transmit the user interface to the user terminal through the network unit. Alternatively, the processor of the server may transmit information for generating a user interface to the user terminal through the network unit.

본 개시의 실시예들에 따른 서버는 예를 들어, 클라우드 서버일 수 있다. 서버는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The server according to embodiments of the present disclosure may be, for example, a cloud server. The server may be a web server that processes the service. The above-described types of servers are merely examples, and the present disclosure is not limited thereto.

본 개시의 실시예들에 따른 서버에 포함된 네트워크부, 프로세서 및 메모리 각각은, 전술한 컴퓨팅 장치(100)에 포함된 네트워크부(110), 프로세서(120) 및 메모리(130)와 동일한 역할을 수행하거나 또는 동일하게 구성될 수 있다.Each of the network unit, the processor, and the memory included in the server according to the embodiments of the present disclosure performs the same role as the network unit 110 , the processor 120 and the memory 130 included in the above-described computing device 100 . or may be configured in the same way.

본 개시의 실시예들에서 레이어는, 사용자 인터페이스에 디스플레이 되는, 여러 개의 화상을 겹쳐서 표시하기 위하여 사용하는 층을 의미할 수 있다. 둘 이상의 레이어는 겹쳐서 표시될 수도 있다. 둘 이상의 레이어가 겹쳐서 표시되는 경우, 하나의 레이어에 다른 레이어가 가려져, 보이지 않을 수 있다. 또는, 둘 이상의 레이어가 겹쳐서 표시되고, 상위 레이어가 일부 반 투명하게 표시되는 경우 하위 레이어의 적어도 일부가 보일 수 있다. 둘 이상의 레이어는 동일한 크기일 수 있다. 또한, 둘 이상의 레이어는 상이한 크기일 수도 있다. 레이어는 하나 이상의 영역을 포함할 수 있다. 또한, 레이어는 하나 이상의 디스플레이 객체를 포함할 수 있다.In embodiments of the present disclosure, a layer may mean a layer that is displayed on a user interface and is used to overlap and display multiple images. Two or more layers may be overlapped and displayed. When two or more layers are overlapped and displayed, one layer may be obscured by another layer, and thus may not be visible. Alternatively, when two or more layers are overlapped and displayed and an upper layer is partially displayed semi-transparently, at least a portion of a lower layer may be visible. Two or more layers may have the same size. Also, the two or more layers may be of different sizes. A layer may include one or more regions. In addition, a layer may include one or more display objects.

본 개시의 실시예들에서 레이어는 복수의 영역으로 분할될 수 있다. 복수의 영역들은 겹쳐지지 않는 화면 상의 일 공간일 수 있다. 하나의 레이어는 하나의 영역만을 포함할 수도 있고, 또는 복수의 영역을 포함할 수도 있다. 하나의 영역은 하나 이상의 디스플레이 객체를 포함할 수 있다. In embodiments of the present disclosure, a layer may be divided into a plurality of regions. The plurality of areas may be one space on the screen that does not overlap. One layer may include only one region or a plurality of regions. One area may include one or more display objects.

본 개시의 실시예들에서 객체는 프로그램, 명령어 또는 데이터 각각에 대응되는 그림, 기호 또는 글자의 집합일 수 있다. 본 개시의 일 실시예에 따라 객체는 사용자 선택 입력을 수신하기 위해 사용될 수 있다. 예를 들어, 객체에 대한 사용자 입력을 수신하는 경우, 프로세서(120)는 해당 객체에 대응되어 저장된 명령어 또는 데이터를 실행하여 사용자 인터페이스에 표시할 수 있다. 본 개시의 실시예들에서 객체와 디스플레이 객체는 동일한 의미로 해석될 수 있다.In embodiments of the present disclosure, an object may be a set of pictures, symbols, or characters corresponding to programs, commands, or data, respectively. According to an embodiment of the present disclosure, an object may be used to receive a user selection input. For example, when receiving a user input for an object, the processor 120 may execute a stored command or data corresponding to the object and display it on the user interface. In embodiments of the present disclosure, an object and a display object may be interpreted as the same meaning.

본 개시의 실시예들에서, “표시”는 출력부(140)를 통해 사용자에게 데이터가 보여 지도록 하는 동작일 수 있다. “표시”와 “디스플레이”는 상호 교환 가능하게 사용될 수 있다.In embodiments of the present disclosure, “display” may be an operation of displaying data to a user through the output unit 140 . “Display” and “display” may be used interchangeably.

이하에서는 본 개시의 실시예들에 따라 실시간 모니터링을 위한 사용자 인터페이스를 제공하는 방법에 관하여 설명한다.Hereinafter, a method of providing a user interface for real-time monitoring according to embodiments of the present disclosure will be described.

도 2는 본 개시의 일 실시예에 따라 네트워크 함수를 나타낸 개략도이다.2 is a schematic diagram illustrating a network function according to an embodiment of the present disclosure;

본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 상호 교환 가능하게 사용될 수 있다. 예를 들어, 본 개시내용에서의 딥러닝 알고리즘을 구성하는 하나 이상의 모듈 각각은, 이하에서 구체적으로 설명될 신경망에 기반하여 동작할 수 있다. Throughout this specification, computational models, neural networks, network functions, and neural networks may be used interchangeably. For example, each of one or more modules constituting the deep learning algorithm in the present disclosure may operate based on a neural network, which will be described in detail below.

신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.A neural network may be composed of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network is configured by including at least one or more nodes. Nodes (or neurons) constituting the neural networks may be interconnected by one or more links.

신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. In the neural network, one or more nodes connected through a link may relatively form a relationship between an input node and an output node. The concepts of an input node and an output node are relative, and any node in an output node relationship with respect to one node may be in an input node relationship in a relationship with another node, and vice versa. As described above, an input node-to-output node relationship may be created around a link. One or more output nodes may be connected to one input node through a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In the relationship between the input node and the output node connected through one link, the value of the data of the output node may be determined based on data input to the input node. Here, a link interconnecting the input node and the output node may have a weight. The weight may be variable, and may be changed by the user or algorithm in order for the neural network to perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node sets values input to input nodes connected to the output node and links corresponding to the respective input nodes. An output node value may be determined based on the weight.

상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in a neural network, one or more nodes are interconnected through one or more links to form an input node and an output node relationship within the neural network. The characteristics of the neural network may be determined according to the number of nodes and links in the neural network, the correlation between the nodes and the links, and the value of a weight assigned to each of the links. For example, when the same number of nodes and links exist and there are two neural networks having different weight values of the links, the two neural networks may be recognized as different from each other.

신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may consist of a set of one or more nodes. A subset of nodes constituting the neural network may constitute a layer. Some of the nodes constituting the neural network may configure one layer based on distances from the initial input node. For example, a set of nodes having a distance n from the initial input node may constitute n layers. The distance from the initial input node may be defined by the minimum number of links that must be traversed to reach the corresponding node from the initial input node. However, the definition of such a layer is arbitrary for description, and the order of the layer in the neural network may be defined in a different way from the above. For example, a layer of nodes may be defined by a distance from the final output node.

최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다. The initial input node may refer to one or more nodes to which data is directly input without going through a link in a relationship with other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network. In addition, the hidden node may mean nodes constituting the neural network other than the first input node and the last output node.

본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The neural network according to an embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be the same as the number of nodes in the output layer, and the number of nodes decreases and then increases again as progresses from the input layer to the hidden layer. can In addition, the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be less than the number of nodes in the output layer, and the number of nodes decreases as the number of nodes progresses from the input layer to the hidden layer. have. In addition, the neural network according to another embodiment of the present disclosure may be a neural network in which the number of nodes in the input layer may be greater than the number of nodes in the output layer, and the number of nodes increases as the input layer progresses to the hidden layer. can The neural network according to another embodiment of the present disclosure may be a neural network in a combined form of the aforementioned neural networks.

딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. A deep neural network (DNN) may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can be used to identify the latent structures of data. In other words, it can identify the potential structure of photos, texts, videos, voices, and music (for example, what objects are in the photos, what the text and emotions are, what the texts and emotions are, etc.) . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs). machine), a deep belief network (DBN), a Q network, a U network, a Siamese network, a Generative Adversarial Network (GAN), and the like. The description of the deep neural network described above is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In an embodiment of the present disclosure, the network function may include an autoencoder. The auto-encoder may be a kind of artificial neural network for outputting output data similar to input data. The auto encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between the input/output layers. The number of nodes in each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with reduction from the bottleneck layer to the output layer (symmetrically with the input layer). The auto-encoder can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to a dimension after preprocessing the input data. In the auto-encoder structure, the number of nodes of the hidden layer included in the encoder may have a structure that decreases as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes between the encoder and the decoder) is too small, a sufficient amount of information may not be conveyed, so a certain number or more (e.g., more than half of the input layer, etc.) ) may be maintained.

뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다. The neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.

뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained in a way that minimizes output errors. In the training of a neural network, iteratively inputs the training data to the neural network, calculates the output of the neural network and the target error for the training data, and calculates the error of the neural network from the output layer of the neural network to the input layer in the direction to reduce the error. It is a process of updating the weight of each node in the neural network by backpropagation in the direction. In the case of teacher learning, learning data in which the correct answer is labeled in each learning data is used (ie, labeled learning data), and in the case of comparative learning, the correct answer may not be labeled in each learning data. That is, for example, the learning data in the case of teacher learning regarding data classification may be data in which categories are labeled in each of the learning data. Labeled training data is input to the neural network, and an error can be calculated by comparing the output (category) of the neural network with the label of the training data. As another example, in the case of comparison learning about data classification, an error may be calculated by comparing the input training data with the neural network output. The calculated error is back propagated in the reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back propagation. A change amount of the connection weight of each node to be updated may be determined according to a learning rate. The computation of the neural network on the input data and the backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of repetitions of the learning cycle of the neural network. For example, in the early stage of training of a neural network, a high learning rate can be used to enable the neural network to quickly acquire a certain level of performance, thereby increasing efficiency, and using a low learning rate at the end of learning can increase accuracy.

뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.In the training of neural networks, in general, the training data may be a subset of the actual data (that is, the data to be processed using the trained neural network), so the error on the training data is reduced but the error on the real data is reduced. There may be increasing learning cycles. Overfitting is a phenomenon in which errors on actual data increase by over-learning on training data as described above. For example, a phenomenon in which a neural network that has learned a cat by showing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing errors in machine learning algorithms. In order to prevent such overfitting, various optimization methods can be used. In order to prevent overfitting, methods such as increasing the training data, regularization, and dropout that deactivate some of the nodes of the network in the process of learning, and the use of a batch normalization layer are applied. can

도 3은 본 개시의 몇몇 실시예에 실시간 모니터링을 위한 사용자 인터페이스를 구성할 수 있는 레이어들을 도시한 블록 구성도이다. 3 is a block diagram illustrating layers capable of configuring a user interface for real-time monitoring in some embodiments of the present disclosure.

도 3을 참고하면, 본 개시의 몇몇 실시예에 따른 사용자 인터페이스(200)는, 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는 제 1 레이어(310), 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고 하나 이상의 타일들 각각이 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는 제 2 레이어(320), 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는 제 3 레이어(330), 객체 또는 변화율 중 적어도 하나가 알림 발생 조건을 만족하는 경우, 객체 또는 변화율에 관한 알림인 제 3 그래픽을 디스플레이 하도록 허용되는 제 4 레이어(340), 컴퓨팅 장치(100)로 수신된 영상의 촬영 지역과 대응되는 제 1 이미지 내 영역에 제 4 그래픽을 디스플레이 하는 제 5 레이어(350), 그리고 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관된 정보를 포함하는 종합 정보를 디스플레이 하는 제 6 레이어(360) 중 적어도 하나를 포함할 수 있다. Referring to FIG. 3 , the user interface 200 according to some embodiments of the present disclosure includes a first layer 310 displaying a first image including geographic information, and one or more tiles displayed in a preset size. A second layer 320 that displays a first graphic that is a grid and displays a rate of change of a corresponding area in the first image in which each of one or more tiles is displayed, and the first image is input to one or more object detection algorithms When at least one of the third layer 330 for displaying a second graphic corresponding to each detected object, the object, or the rate of change satisfies the condition for generating a notification, the third graphic that is a notification regarding the object or rate of change is allowed to be displayed a fourth layer 340 to be a fourth layer 340 , a fifth layer 350 for displaying a fourth graphic in a region within the first image corresponding to a capturing region of an image received by the computing device 100 , and first to fourth graphics It may include at least one of the sixth layer 360 that displays comprehensive information including information related to at least a part of it.

프로세서(120)는, 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는 제 1 레이어(310), 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고 하나 이상의 타일들 각각이 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는 제 2 레이어(320), 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는 제 3 레이어(330), 객체 또는 변화율 중 적어도 하나가 알림 발생 조건을 만족하는 경우, 객체 또는 변화율에 관한 알림인 제 3 그래픽을 디스플레이 하도록 허용되는 제 4 레이어(340), 컴퓨팅 장치(100)로 수신된 영상의 촬영 지역과 대응되는 제 1 이미지 내 영역에 제 4 그래픽을 디스플레이 하는 제 5 레이어(350), 그리고 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관된 정보를 포함하는 종합 정보를 디스플레이 하는 제 6 레이어(360) 중 적어도 하나를 디스플레이 하도록 출력부(140)를 제어할 수 있다. 다만, 상술한 구성 요소들은 사용자 인터페이스(200)를 구현하는데 있어서 필수적인 것은 아니어서, 사용자 인터페이스(200)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The processor 120 displays a first graphic that is a grid including a first layer 310 that displays a first image including geographic information, and one or more tiles displayed in a preset size, and displays one or more tiles. A second layer 320 for displaying each of the two to indicate a rate of change of a corresponding area in the first image, and a second layer 320 for displaying a second graphic corresponding to each detected object by inputting the first image into one or more object detection algorithms. When at least one of the three layers 330, the object or the rate of change satisfies the condition for generating a notification, the fourth layer 340 that is allowed to display a third graphic that is a notification regarding the object or rate of change is received by the computing device 100 A fifth layer 350 for displaying a fourth graphic in a region within the first image corresponding to the capturing region of the image, and a fifth layer for displaying comprehensive information including information related to at least a portion of the first graphic to the fourth graphic The output unit 140 may be controlled to display at least one of the six layers 360 . However, since the above-described components are not essential in implementing the user interface 200 , the user interface 200 may have more or fewer components than those listed above.

제 1 그래픽 내지 제 4 그래픽, 그리고 종합 정보에 관한 자세한 내용은 이하에서 도 4 내지 도 11을 통하여 후술한다. Detailed information on the first to fourth graphics and the comprehensive information will be described later with reference to FIGS. 4 to 11 .

도 4는 본 개시의 몇몇 실시예에 따른 사용자 인터페이스를 예시적으로 도시한 도면이다. 4 is a diagram exemplarily illustrating a user interface according to some embodiments of the present disclosure.

도 5는 도 4의 A 부분을 확대한 것으로, 본 개시의 몇몇 실시예에 따른 제 1 그래픽을 예시적으로 도시한 도면이다. FIG. 5 is an enlarged view of part A of FIG. 4 and exemplarily illustrates a first graphic according to some embodiments of the present disclosure.

도 6은 본 개시의 몇몇 실시예에 따른 제 1 그래픽을 종래 기술과 대비하여 예시적으로 도시한 도면이다. 6 is a diagram exemplarily illustrating a first graphic according to some embodiments of the present disclosure in comparison with the prior art.

도 7은 본 개시의 몇몇 실시예에 따른 제 2 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다. 7 is a diagram exemplarily illustrating a method of displaying a second graphic according to some embodiments of the present disclosure.

도 8은 본 개시의 몇몇 실시예에 따른 제 2 그래픽을 디스플레이 하기 위한 순서도이다. 8 is a flowchart for displaying a second graphic according to some embodiments of the present disclosure.

도 9는 본 개시의 몇몇 실시예에 따른 제 3 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다. 9 is a diagram exemplarily illustrating a method of displaying a third graphic according to some embodiments of the present disclosure.

도 10은 본 개시의 몇몇 실시예에 따른 제 3 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다. 10 is a diagram exemplarily illustrating a method of displaying a third graphic according to some embodiments of the present disclosure.

도 11은 도 4의 B 부분을 확대한 것으로, 본 개시의 몇몇 실시예에 따른 제 4 그래픽을 디스플레이 하는 방법을 예시적으로 도시한 도면이다. FIG. 11 is an enlarged view of part B of FIG. 4 and exemplarily illustrates a method of displaying a fourth graphic according to some embodiments of the present disclosure.

도 4는 사용자 인터페이스(200)가 제 1 레이어(310) 및 제 3 레이어(330) 내지 제 6 레이어(360)를 포함하도록 디스플레이 되는 일례를 도시한다. 4 shows an example in which the user interface 200 is displayed to include a first layer 310 and a third layer 330 to a sixth layer 360 .

제 1 레이어(310)는, 지리적 정보를 포함하는 제 1 이미지(210)를 디스플레이 할 수 있다. 프로세서(120)는, 지리적 정보를 포함하는 제 1 이미지(210)를 디스플레이 하도록 출력부(140)를 제어할 수 있고, 한편 디스플레이 하기 위한 제 1 이미지(210)를 수신하도록 네트워크부(110)를 제어할 수 있다. The first layer 310 may display a first image 210 including geographic information. The processor 120 may control the output unit 140 to display the first image 210 including geographic information, and the network unit 110 to receive the first image 210 for display. can be controlled

지리적 정보를 포함하는 제 1 이미지(210)는, 사용자의 입력에 따라 축척 레벨이 변경될 수 있다. 즉, 지리적 정보를 포함하는 제 1 이미지(210)는 (Zoom) 인 또는 줌 아웃 될 수 있다. 이 경우 축척 레벨은, 축척 레벨 컨트롤부(미도시) 상에서의 입력(예를 들어, 슬라이더 UI에서 핸들에 대한 입력), 제 1 이미지(210) 상에서의 스크롤 입력, 또는 축척 레벨 값의 직접 입력(예를 들어, 축척 레벨 입력창에 100%, 150% 등의 축척 레벨 값을 입력)이나, 이 밖에 가능한 임의의 형태의 입력에 의해 변경될 수 있다. 지리적 정보를 포함하는 제 1 이미지(210)의 축척 레벨의 변경에 따라, 후술할 제 1 내지 4 그래픽 중 적어도 일부의 위치 및/또는 외관은 동적으로 변경되어 디스플레이 될 수 있다. The scale level of the first image 210 including geographic information may be changed according to a user input. That is, the first image 210 including geographic information may be zoomed in or zoomed out. In this case, the scale level is an input on a scale level control unit (not shown) (eg, an input for a handle in the slider UI), a scroll input on the first image 210, or a direct input of a scale level value ( For example, it may be changed by inputting a scale level value such as 100% or 150% in the scale level input window) or any other possible input. According to a change in the scale level of the first image 210 including geographic information, the position and/or appearance of at least a portion of first to fourth graphics to be described later may be dynamically changed and displayed.

한편 도 4는 지리적 정보를 포함하는 제 1 이미지(210)가 제 1 레이어(310)의 단일한 영역에 디스플레이 되는 예시를 도시하였으나, 이에 한정되는 것은 아니다. 예컨대 지리적 정보를 포함하는 제 1 이미지(210)는 둘 이상의 분할된 영역에서 동시에 디스플레이 될 수 있다. 가령, 지리적 정보를 포함하는 제 1 이미지(210)내의 둘 이상의 서로 다른 지리적 영역들에 대한 모니터링이 필요한 경우, 제 1 레이어(310)는 둘 이상의 분할된 영역에서 서로 다른 지리적 영역들의 이미지를 각각 디스플레이 할 수 있다. 또는, 지리적 정보를 포함하는 제 1 이미지(210)를 서로 다른 딥러닝 알고리즘에 입력하여 획득된 서로 다른 판독 데이터에 대한 모니터링이 필요한 경우, 제 1 레이어(310)는 둘 이상의 분할된 영역에서 서로 다른 판독 데이터를 각각 디스플레이 할 수 있다. Meanwhile, FIG. 4 illustrates an example in which the first image 210 including geographic information is displayed on a single area of the first layer 310, but is not limited thereto. For example, the first image 210 including geographic information may be displayed simultaneously in two or more divided regions. For example, when monitoring of two or more different geographic areas in the first image 210 including geographic information is required, the first layer 310 displays images of different geographic areas in two or more divided areas, respectively. can do. Alternatively, when it is necessary to monitor different read data obtained by inputting the first image 210 including geographic information into different deep learning algorithms, the first layer 310 is different from each other in two or more divided areas. Read data can be displayed individually.

한편 판독 데이터는, 후술할 제 1 내지 제 4 그래픽 중 하나 이상을 통하여 디스플레이 될 수 있으며, 하나 이상의 기준에 따라 필터링 되어 디스플레이 될 수 있다. 구체적으로, 판독 데이터는, 사용자 인터페이스(200) 내의 하나 이상의 제어부(203, 204)들을 통해 필터링 되어 디스플레이 될 수 있다. Meanwhile, the read data may be displayed through one or more of first to fourth graphics to be described later, and may be displayed after being filtered according to one or more criteria. Specifically, the read data may be filtered and displayed through one or more control units 203 and 204 in the user interface 200 .

예컨대, 알고리즘 관련 제어부(203)에 대한 사용자 입력에 따라, 제 1 이미지(210)를 특정한 알고리즘에 입력하여 획득된 판독 데이터만이 디스플레이 될 수 있다. 가령, 알고리즘 관련 제어부(203)에서 항공기 객체를 검출하기 위한 알고리즘 A를 선택하는 사용자 입력에 따라, 제 1 이미지(210)를 알고리즘 A에 입력하여 획득된 판독 데이터, 즉 제 1 이미지(210)에서 검출되는 대형 항공기, 중형 항공기, 소형 항공기 등의 항공기 객체들에 대응되는 제 2 그래픽(230)만이 디스플레이 될 수 있다. For example, according to a user input to the algorithm-related control unit 203 , only read data obtained by inputting the first image 210 into a specific algorithm may be displayed. For example, according to a user input for selecting an algorithm A for detecting an aircraft object in the algorithm-related control unit 203 , the first image 210 is input to the algorithm A and read data obtained, that is, from the first image 210 . Only the second graphic 230 corresponding to the detected aircraft objects such as a large aircraft, a medium aircraft, and a small aircraft may be displayed.

또는, 기간 관련 제어부(204)에 대한 사용자 입력에 따라, 제 1 이미지(210)를 알고리즘에 입력하여, 제 1 시점(도 4에서 '시작일'로 표기됨)부터 제 2 시점(도 4에서 '종료일'로 표기됨)까지의 제 1 기간 동안 획득된 판독 데이터만이 디스플레이 될 수 있다. 가령, 제 1 기간에 대하여 탐지된 변화율에 관한 제 1 그래픽(220), 그리고/또는 제 1 기간 동안 검출된 객체에 관한 제 2 그래픽(230)만이 디스플레이 될 수 있다. 한편 기간에 관한 사용자의 입력이 수신되지 않는 경우, 사용자 인터페이스(200)는 오늘 0시부터 현재 시점까지의 획득된 판독 데이터를 디폴트로 디스플레이 할 수 있다. 전술한 예시는 일 실시예에 불과할 뿐, 본 개시를 한하지 않는다. Alternatively, according to a user input to the period-related control unit 204, the first image 210 is input to the algorithm, and from the first time point (indicated as 'start date' in FIG. 4) to the second time point (' Only read data acquired during the first period up to 'end date') can be displayed. For example, only a first graphic 220 relating to a detected rate of change for a first time period and/or a second graphic 230 relating to an object detected during the first time period may be displayed. Meanwhile, when a user input regarding the period is not received, the user interface 200 may display the read data obtained from 0 o'clock today to the present time by default. The above-described example is merely an example, and does not limit the present disclosure.

제 2 레이어(320)는, 사전 설정된 크기로 표시되는 하나 이상의 타일들(221a, 221b, 221c, 221d, 221e: 221)을 포함하는 그리드(Grid)를 포함하는 제 1 그래픽(220)을 디스플레이 할 수 있고, 한편 하나 이상의 타일들(221) 각각은 제 1 이미지(210) 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 할 수 있다. 프로세서(120)는, 사전 설정된 크기로 표시되는 하나 이상의 타일들(221)을 포함하는 그리드를 포함하는 제 1 그래픽(220)을 디스플레이 하고, 하나 이상의 타일들(221) 각각은 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는 제 2 레이어를 디스플레이 하도록 출력부(140)를 제어할 수 있다. 한편 프로세서(120)는, 하나 이상의 타일들(221) 각각이 대응되는 제 1 이미지(210) 내의 영역의 변화율을 산출할 수 있다. 다만 이에 한정되는 것은 아니며, 서버(미도시)의 프로세서에 의해 상술한 변화율이 산출되고, 산출된 변화율이 네트워크부(110)를 통해 컴퓨팅 장치(100)로 전송될 수 있다. The second layer 320 may display the first graphic 220 including a grid including one or more tiles 221a, 221b, 221c, 221d, 221e: 221 displayed in a preset size. Alternatively, each of the one or more tiles 221 may be displayed to indicate a change rate of a corresponding region in the first image 210 . The processor 120 displays a first graphic 220 including a grid including one or more tiles 221 displayed at a preset size, each of the one or more tiles 221 corresponding to a corresponding in the first image. The output unit 140 may be controlled to display the second layer that is displayed to indicate the change rate of the area to be used. Meanwhile, the processor 120 may calculate a change rate of a region in the first image 210 to which each of the one or more tiles 221 corresponds. However, the present invention is not limited thereto, and the above-described rate of change may be calculated by the processor of the server (not shown), and the calculated rate of change may be transmitted to the computing device 100 through the network unit 110 .

제 1 그래픽(220)과 관련하여, 도 5 및 도 6을 참고할 수 있다. 구체적으로 도 5는, 도 4의 A 부분의 사용자 인터페이스(200)를 나타낸 것으로, 제 1 그래픽(220)을 포함하는 제 2 레이어(320)가 추가로 디스플레이 되는 일례를 도시한다. With respect to the first graphic 220 , reference may be made to FIGS. 5 and 6 . Specifically, FIG. 5 shows the user interface 200 of part A of FIG. 4 , and shows an example in which the second layer 320 including the first graphic 220 is additionally displayed.

제 2 레이어(320)의 디스플레이 여부에 관한 제어는, 예컨대 제어부(222)에 대한 사용자 입력에 따라 수행될 수 있다. 도 4 및 도 5는, 제어부(222)가 제 2 레이어(320)의 디스플레이 여부를 제어하는 사용자 입력을 수신 가능한 토글 버튼을 포함하는 일례를 도시한다. 다만 이에 한정되는 것은 아니며, 예컨대 제 2 레이어(320)는 사용자 입력과 무관하게 상시 디스플레이 될 수 있고, 또는 사전 설정된 조건(예를 들어, 딥러닝 알고리즘 판독을 통해 변화가 탐지된 경우, 또는 관심 지역의 변화율이 임계치를 초과한 경우 등)이 만족되는 경우에 자동으로 디스플레이 될 수 있다. Control on whether the second layer 320 is displayed may be performed according to a user input to the controller 222 , for example. 4 and 5 show an example in which the control unit 222 includes a toggle button capable of receiving a user input for controlling whether the second layer 320 is displayed. However, the present invention is not limited thereto, and for example, the second layer 320 may be displayed at all times regardless of user input, or a preset condition (eg, when a change is detected through deep learning algorithm reading, or a region of interest) It can be automatically displayed when the rate of change of ' exceeds a threshold, etc.).

하나 이상의 타일들(221)은, 사전 설정된 크기로 표시될 수 있고, 상기 사전 설정된 크기는 제 1 이미지(210)에 표시되는 지리적 정보의 축척 레벨과 무관하게 고정될 수 있다. 즉, 사용자의 입력에 따라 축척 레벨이 변경되어 제 1 이미지(210)가 줌 인 또는 줌 아웃 되는 경우에도, 하나 이상의 타일들(221)의 크기는 사전 설정된 크기로 고정되어 표시될 수 있다. The one or more tiles 221 may be displayed in a preset size, and the preset size may be fixed regardless of the scale level of the geographic information displayed in the first image 210 . That is, even when the first image 210 is zoomed in or zoomed out due to a change in the scale level according to a user input, the sizes of the one or more tiles 221 may be fixedly displayed to a preset size.

예컨대, 하나 이상의 타일들(221)의 크기는 50px*50px의 정방형으로 사전 설정될 수 있다. 이 경우, 50px*50px의 크기로 표시되는 하나 이상의 타일들(221)을 포함하는 그리드인 제 1 그래픽(220)을 디스플레이 할 수 있다. 또한 하나 이상의 타일들(221)의 크기는 제 1 이미지(210)의 축척 레벨과 무관하게, 즉 예컨대 제 1 이미지(210)의 축척 레벨이 100%인 경우와 150%인 경우에서 모두 50px*50px의 크기로 표시될 수 있다. For example, the size of the one or more tiles 221 may be preset to a square of 50px*50px. In this case, the first graphic 220 that is a grid including one or more tiles 221 displayed in a size of 50px*50px may be displayed. Also, the size of the one or more tiles 221 is 50px*50px regardless of the scale level of the first image 210 , ie, when the scale level of the first image 210 is 100% and 150%. can be expressed in the size of

다만, 이에 한정되는 것은 아니며, 하나 이상의 타일들(221)의 크기는 임의의 크기로 사전 설정될 수 있다. 또한, 하나 이상의 타일들(221)의 크기의 값은 컴퓨터 프로그램에 디폴트 값으로 설정될 수 있고, 이후 사용자의 입력에 의해 디폴트 값과 상이한 값으로 변경되어 설정될 수도 있다. 가령, 하나 이상의 타일들(221)의 크기의 디폴트 값이 50px*50px로 설정되고, 이후 사용자의 입력에 의해 80px*80px로 변경되어 설정될 수 있다. 이 경우, 80px*80px의 크기로 표시되는 하나 이상의 타일들(221)의 크기는 제 1 이미지(210)의 축척 레벨과 무관하게, 즉 예컨대 제 1 이미지(210)의 축척 레벨이 100%인 경우와 150%인 경우에서 모두 80px*80px의 크기로 표시될 수 있다. However, the present invention is not limited thereto, and the size of the one or more tiles 221 may be preset to an arbitrary size. In addition, the value of the size of the one or more tiles 221 may be set as a default value in a computer program, and then may be set by being changed to a value different from the default value by a user input. For example, a default value of the size of the one or more tiles 221 may be set to 50px*50px and then changed to 80px*80px by a user input. In this case, the size of the one or more tiles 221 displayed in the size of 80px*80px is independent of the scale level of the first image 210 , that is, for example, when the scale level of the first image 210 is 100%. and 150%, it can be displayed in a size of 80px*80px.

상술한 내용에서는 하나 이상의 타일들(221)이 정방형의 모양을 가지는 경우를 예시로 들었으나, 이에 한정되는 것은 아니다. 예컨대, 하나 이상의 타일들(221)의 모양은 육각형, 별 모양 등 임의의 도형으로 설정될 수 있다. 또는, 하나 이상의 타일들(221)의 모양은 컴퓨터 프로그램에 디폴트 값으로 설정될 수 있고, 이후 사용자의 입력에 의해 디폴트 값과 상이한 값으로 변경되어 설정될 수도 있다. 가령, 하나 이상의 타일들(221)의 모양의 디폴트 값이 정방형으로 설정되고, 이후 사용자의 입력에 의해 육각형으로 변경되어 설정될 수 있다. In the above description, a case in which one or more tiles 221 have a square shape is exemplified, but the present invention is not limited thereto. For example, the shape of the one or more tiles 221 may be set to an arbitrary shape, such as a hexagon or a star shape. Alternatively, the shape of the one or more tiles 221 may be set as a default value in a computer program, and then changed and set to a value different from the default value by a user input. For example, a default value of the shape of the one or more tiles 221 may be set to a square and then changed to a hexagon according to a user's input.

한편 하나 이상의 타일들(221) 각각은, 제 1 이미지(210)내의 대응되는 영역의 변화율을 나타내도록 디스플레이 될 수 있다. 구체적으로, 하나 이상의 타일들(221) 중 어느 하나인 제 1 타일의 색상은, 제 1 타일과 대응되는 제 1 이미지(210) 내의 영역인 제 1 영역의 변화율에 기초하여 결정될 수 있다. Meanwhile, each of the one or more tiles 221 may be displayed to indicate a change rate of a corresponding area in the first image 210 . In detail, the color of the first tile, which is one of the one or more tiles 221 , may be determined based on a change rate of the first area, which is an area in the first image 210 corresponding to the first tile.

제 1 영역의 변화율은, 제 1 영역에 대응하는 지리적 영역에서 제 1 시점 및 제 2 시점 사이의 기간 동안의 탐지된 변화를 정량적으로 산출한 값일 수 있다. 예를 들어, 제 1 영역의 변화율은, 제 1 영역에 포함되는 픽셀들의 변화율일 수 있다. 가령, 제 1 영역에 포함되는 픽셀들 각각의 속성(색, 밝기 등)에 기초하여 제 1 시점 및 제 2 시점 간 픽셀의 변화율을 산출할 수 있다. 다만 이에 한정되는 것은 아니며, 제 1 영역의 변화율은 예컨대 제 1 영역의 면적 중 변화가 탐지되는 픽셀이 차지하는 면적의 비율이거나, 또는 상술한 값들을 종합하여 산출되는 값일 수도 있다. The rate of change of the first area may be a value obtained by quantitatively calculating a detected change during a period between the first time point and the second time point in the geographic area corresponding to the first area. For example, the rate of change of the first region may be a rate of change of pixels included in the first region. For example, the rate of change of the pixel between the first time point and the second time point may be calculated based on the properties (color, brightness, etc.) of each of the pixels included in the first area. However, the present invention is not limited thereto, and the rate of change of the first region may be, for example, a ratio of an area occupied by a pixel in which a change is detected among the areas of the first region, or a value calculated by synthesizing the above-described values.

변화율은 하나 이상의 변화율 구간을 포함할 수 있고, 하나 이상의 변화율 구간 각각에는 서로 상이한 색상 속성이 할당될 수 있다. 도 4의 제어부(222)는, 변화율이 5개의 변화율 구간을 포함하는 일례를 도시한다. 예컨대, 변화율 값 0.2, 0.4, 0.6, 0.8, 그리고 1.0을 기준으로 변화율 구간을 나누고, 0.0 이상 0.2 미만의 변화율 구간에 대하여 무색, 0.2 이상 0.4 미만의 변화율 구간에 대하여 연노랑색, 0.4 이상 0.6 미만의 변화율 구간에 대하여 개나리색, 0.6 이상 0.8 미만의 변화율 구간에 대하여 주황색, 그리고 0.8 이상 1.0 미만의 변화율 구간에 대하여 빨간색의 색상 속성이 할당될 수 있다. The rate of change may include one or more change rate intervals, and different color attributes may be assigned to each of the one or more rate of change intervals. The control unit 222 of FIG. 4 shows an example in which the rate of change includes five change rate sections. For example, the change rate section is divided based on the change rate values 0.2, 0.4, 0.6, 0.8, and 1.0, and the change rate section of 0.0 or more and less than 0.2 is colorless, the change rate section of 0.2 or more and less than 0.4 is light yellow, and 0.4 or more and less than 0.6. The color attribute of forsythia may be assigned to the change rate section, orange to the change rate section 0.6 or more and less than 0.8, and red to the change rate section 0.8 or more and less than 1.0.

이 경우, 하나 이상의 타일들(221) 각각은, 대응되는 제 1 이미지 내의 영역의 변화율에 기초하여, 무색(221a), 연노랑색(221b), 개나리색(221c), 주황색(221d), 그리고 빨간색(221e) 중 어느 하나의 색상을 디스플레이 할 수 있다. 가령, 제 1 영역의 변화율이 0.5인 경우, 제 1 영역에 대응되는 제 1 타일은 개나리색(221c) 색상을 디스플레이 하도록 결정될 수 있다. In this case, each of the one or more tiles 221 is a colorless 221a, a light yellow 221b, a forsythia 221c, an orange 221d, and a red color based on a change rate of a region in the corresponding first image. Any one of colors 221e may be displayed. For example, when the change rate of the first area is 0.5, the first tile corresponding to the first area may be determined to display the forsythia color 221c.

다만 이에 한정되는 것은 아니다. 예컨대, 변화율은 5개 이외의 개수의 변화율 구간을 포함할 수 있고(예를 들어, 2개 또는 10개의 변화율 구간 등), 또는 변화율의 구간을 나누지 않을 수 있다. 가령, 변화율의 증감에 따라 연속적으로 변화되는 색상 속성이 할당될 수 있다. 예컨대, 0.0의 변화율에 대하여 무색의 색상 속성을 할당하고, 1.0의 변화율에 대하여 빨간색의 색상 속성을 할당하고, 0.0 및 1.0 사이의 변화율에 대하여는 무색 및 빨간색 사이에서 연속적인 그라데이션(Gradient) 색상 속성이 할당될 수 있다. However, the present invention is not limited thereto. For example, the rate of change may include a number of change rate sections other than 5 (eg, 2 or 10 change rate sections, etc.), or may not divide the rate of change sections. For example, a color attribute that is continuously changed according to an increase or decrease in a change rate may be assigned. For example, a color property of colorless is assigned to a rate of change of 0.0, a color property of red is assigned to a rate of change of 1.0, and a continuous gradient color property between colorless and red for a rate of change between 0.0 and 1.0. can be assigned.

한편 제 1 타일의 색상은, 제 1 타일이 대응되는 제 1 영역의 변화율의 최대값이 포함되는 하나 이상의 변화율 구간에 할당된 색상에 기초하여 결정될 수 있다. 예컨대, 제 1 영역의 변화율이 제 1 영역에 포함되는 픽셀들의 변화율인 경우, 제 1 타일의 색상은, 제 1 영역에 포함되는 픽셀들의 변화율 중 최대값이 포함되는 어느 하나의 변화율 구간, 및 해당 변화율 구간에 할당된 색상 속성에 기초하여 결정될 수 있다. 가령, 제 1 영역에 포함되는 픽셀들의 변화율 중 최대값이 0.5인 경우, 0.5의 변화율이 포함되는 변화율 구간(예컨대, 0.4 이상 0.6 미만의 변화율 구간)이 식별될 수 있고, 해당 변화율 구간에 할당된 색상 속성(예컨대, 개나리색)에 따른 색상이 제 1 타일의 색상으로 결정될 수 있다. Meanwhile, the color of the first tile may be determined based on a color allocated to one or more change rate sections including the maximum change rate of the first region to which the first tile corresponds. For example, when the rate of change of the first region is the rate of change of pixels included in the first region, the color of the first tile includes any one change rate interval including the maximum value among the rates of change of pixels included in the first region, and the corresponding It may be determined based on the color attribute assigned to the change rate interval. For example, when the maximum value among the rate of change of pixels included in the first region is 0.5, a rate of change section including a rate of change of 0.5 (for example, a section with a rate of change of 0.4 or more and less than 0.6) may be identified and assigned to the corresponding rate of change section. A color according to a color attribute (eg, forsythia color) may be determined as the color of the first tile.

상술한 내용에서는 변화율 구간 각각에 대하여 상이한 색상 속성을 할당하고, 타일들의 색상을 통해 영역의 변화율을 나타내는 것을 중심으로 기재하였으나, 이에 한정되는 것은 아니다. 예컨대, 색상 이외에 시각적으로 식별 가능한 임의의 속성을 통하여, 타일들이 대응되는 영역의 변화율을 나타내도록 디스플레이 할 수 있다. 가령, 하나 이상의 변화율 구간 각각에 대하여 간격이 상이한 빗금, 도트(Dot)등의 패턴 속성을 할당할 수 있고, 이 경우 타일들 각각은 대응되는 영역의 변화율에 따라 간격이 상이한 패턴으로 채워질 수 있다. 또는, 하나 이상의 변화율 구간 각각에 대하여 테두리의 외양(색상, 두께, 투명도 등)의 속성을 상이하게 할당하거나, 하나 이상의 변화율 구간 각각에 대하여 동일한 색상 속성을 할당하되 색상의 채도 및/또는 명도 속성을 상이하게 할당할 수도 있다. 이 경우, 타일들 각각은, 예컨대 낮은 변화율에 대해서는 채도 및/또는 명도가 낮은 빨간색 색상으로 디스플레이 되고, 높은 변화율에 대해서는 채도 및/또는 명도가 높은 빨간색 색상으로 디스플레이 될 수 있다. 전술한 예시는 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다. In the above description, different color properties are assigned to each change rate section and the change rate of the area is indicated through the colors of the tiles, but the present invention is not limited thereto. For example, the tiles may be displayed to indicate the change rate of the corresponding area through any visually identifiable property other than the color. For example, pattern properties such as hatches and dots having different intervals may be assigned to each of the one or more rate-of-change sections, and in this case, each of the tiles may be filled with patterns having different intervals according to the rate of change of the corresponding area. Alternatively, different properties of the appearance (color, thickness, transparency, etc.) of the border are assigned to each of one or more rate of change sections, or the same color property is assigned to each of one or more rate of change sections, but the color saturation and/or brightness properties It may be assigned differently. In this case, each of the tiles, for example, may be displayed as a red color with low saturation and/or brightness for a low change rate, and may be displayed as a red color with high saturation and/or brightness for a high change rate. The above-described example is merely an example, and does not limit the present disclosure.

한편, 제 1 그래픽(220)의 투명도는 사용자 입력에 따라 변경 가능할 수 있다. 예컨대 투명도 제어부(223)에 대한 사용자 입력에 따라, 제 1 그래픽(220)의 투명도가 변경될 수 있다. 도 4 및 도 5는, 투명도 제어부(223)가 투명도를 변경하기 위한 슬라이더 및 핸들을 포함하고, 한편 하나 이상의 타일들(221)들이 투명도 제어부(223)에서 설정된 임의의 투명도 값을 가짐에 따라, 각각의 타일들(221)에 대응하는 제 1 이미지 내 영역들이 시각적으로 인지 가능한 일례를 도시한다. 다만 이에 한정되는 것은 아니며, 예컨대 제 2 레이어(320)는 사용자 입력과 무관하게 사전 설정된 투명도 값을 갖도록 고정되거나, 또는 투명도 값을 가지지 않을 수 있다. Meanwhile, the transparency of the first graphic 220 may be changed according to a user input. For example, according to a user input to the transparency controller 223 , the transparency of the first graphic 220 may be changed. 4 and 5 show, as the transparency control unit 223 includes a slider and a handle for changing the transparency, while one or more tiles 221 have an arbitrary transparency value set in the transparency control unit 223, An example in which regions in the first image corresponding to each of the tiles 221 are visually recognizable is illustrated. However, the present invention is not limited thereto, and for example, the second layer 320 may be fixed to have a preset transparency value irrespective of a user input, or may not have a transparency value.

이와 같이, 축척 레벨과 무관하게 고정된 크기를 가지는 하나 이상의 타일들(221)을 통하여 지리적 정보를 포함하는 이미지의 변화율을 나타냄으로써, 픽셀 단위 방식으로 변화율을 표현하는 종래 기술에 비하여 보다 직관적으로 넓은 지역의 변화율을 확인할 수 있으며, 변화율이 높은 지역을 쉽게 탐색 가능하다. 이와 관련하여 도 6을 참고할 수 있다. As described above, by representing the rate of change of the image including geographic information through one or more tiles 221 having a fixed size regardless of the scale level, it is more intuitively wider than the prior art of expressing the rate of change in a pixel unit method. You can check the rate of change of the region, and you can easily search for an area with a high rate of change. In this regard, reference may be made to FIG. 6 .

도 6(a)는 종래 기술에 따라, 지리적 정보를 포함하는 이미지로부터 탐지된 변화율을 픽셀 단위의 방식으로 표현하는 일례를 도시한다. 대조적으로 도 6(b)는 본 개시의 몇몇 실시예에 따라, 지리적 정보를 포함하는 이미지로부터 탐지된 변화율을 타일 단위의 방식으로 표현하는 일례를 도시한다. 한편 도 6(b)에서는 도 6(a)와의 비교의 용이성을 위하여 제 1 이미지의 도시가 생략되었으나, 투명도를 가지는 타일들을 통해 제 1 이미지가 시각적으로 인지 가능하도록 표시될 수 있음은 도 5를 참고하여 전술한 설명으로부터 명백할 것이다. FIG. 6( a ) shows an example of expressing a change rate detected from an image including geographic information in a pixel-by-pixel manner according to the prior art. In contrast, FIG. 6B illustrates an example of expressing a rate of change detected from an image including geographic information in a tile-by-tile manner, according to some embodiments of the present disclosure. Meanwhile, although the illustration of the first image is omitted in FIG. 6(b) for ease of comparison with FIG. 6(a), it is shown in FIG. It will be apparent from the foregoing description with reference.

종래 기술은 변화가 탐지된 픽셀들 각각을, 탐지된 변화율에 따라 시각적으로 구분되도록 표시한다. 예를 들어 높은 값의 변화율을 가지는 픽셀들을 우상향 빗금 또는 파란색 색상(229a), 중간 값의 변화율을 가지는 픽셀들을 좌상향 빗금 또는 초록색 색상(228a), 낮은 값의 변화율을 가지는 픽셀들을 도트 또는 빨간색 색상(227a)로 표시할 수 있다. The prior art displays each of the pixels in which a change is detected to be visually distinguished according to the detected rate of change. For example, pixels having a high rate of change are shaded to the right or blue color 229a, pixels having a medium change rate are hatched to the left or green color 228a, and pixels having a low rate of change are dot or red color. (227a).

픽셀 단위로 변화율을 표시하는 경우, 변화가 탐지된 구체적인 위치를 확인하는 데에 이점이 있을 수 있다. 그러나 넓은 지역을 모니터링 하는 경우에는 변화가 탐지된 지역을 식별하기가 곤란하며, 한편 탐지되는 변화의 경향성을 파악하는 것 또한 용이하지 않을 수 있다. Expressing the rate of change in units of pixels may be advantageous in identifying the specific location where the change was detected. However, in the case of monitoring a large area, it may be difficult to identify the area where the change is detected, and it may not be easy to identify the trend of the detected change.

가령 도 6(a)를 참고하면, 좌측 중앙 부분에서 낮은 값의 변화율을 가지는 픽셀들(227a)과 중간 값의 변화율을 가지는 픽셀들(228a)이 매우 인접하여 표시되고 있고, 한편 중앙 하단 부분에서는 높은 값의 변화율을 가지는 픽셀들(229a)에 에워싸인 곳에 중간 값의 변화율을 가지는 픽셀들(228a)이 표시되고 있다. 이 경우, 축척 레벨이 낮아질 수록, 즉 제 1 이미지가 줌 아웃 될수록 픽셀들이 나타내는 서로 다른 변화율을 시각적으로 식별하는 것이 곤란해진다. 나아가, 제 1 이미지의 중앙 하단 부분에 근접할수록 변화율이 높아진다는 등의 변화의 경향성을 파악하는 것이 용이하지 않다. For example, referring to FIG. 6(a) , pixels 227a having a low rate of change and pixels 228a having a rate of change of an intermediate value are displayed very adjacent to each other in the central left portion, while at the lower center portion Pixels 228a having an intermediate value of change are displayed where the pixels 229a having a high value of change are surrounded. In this case, as the scale level decreases, that is, as the first image is zoomed out, it becomes difficult to visually identify the different rates of change represented by the pixels. Furthermore, it is not easy to grasp the tendency of change, such as that the rate of change increases as it approaches the lower center of the first image.

대조적으로, 본 개시의 몇몇 실시예에 따르면, 제 1 이미지 내의 영역에서 탐지된 변화율은, 해당 영역에 대응되는 타일들 각각의 색상을 통해 표시된다. 가령 도 6(b)를 참고하면, 낮은 값의 변화율을 가지는 픽셀들이 주로 포함된 영역에 대응하는 타일(227b)은, 높은 값의 변화율을 가지는 픽셀들이 주로 포함된 영역에 대응하는 타일(229b)과 구분되는 색상으로 표시될 수 있다. 이 경우 제 1 이미지에서 탐지되는 변화의 대략적인 분포를 한 눈에 볼 수 있는 바, 직관적으로 넓은 지역의 변화율을 확인할 수 있으며, 변화율이 높은 지역을 쉽게 탐색 가능한 이점을 가진다. In contrast, according to some embodiments of the present disclosure, a change rate detected in a region in the first image is displayed through a color of each of tiles corresponding to the region. For example, referring to FIG. 6B , a tile 227b corresponding to an area mainly including pixels having a low change rate is a tile 229b corresponding to an area mainly including pixels having a high change rate. It may be displayed in a color that distinguishes it from In this case, since the approximate distribution of the change detected in the first image can be seen at a glance, the change rate of a wide area can be intuitively confirmed, and it is possible to easily search for an area with a high change rate.

나아가 본 개시의 몇몇 실시예에 따른 하나 이상의 타일들의 크기는 제 1 이미지의 축척 레벨과 무관하게 고정되는 바, 종래의 픽셀 단위의 변화율 표시 방식과 같이 변화가 탐지된 구체적인 위치를 확인 가능한 이점 또한 가질 수 있다. 즉, 제 1 이미지(210)가 줌 인 되는 경우에도 하나 이상의 타일들의 크기가 대응하는 비율로 확대되지 않고 사전 설정된 크기로 고정됨으로써, 타일들 각각의 색상은 대응하는 영역의 변화율을 나타내도록 동적으로 변화될 수 있고, 이에 따라 변화가 탐지된 구체적인 위치를 확인 가능한 것은 물론, 좁은 지역의 세부적인 변화율 또한 확인 가능할 수 있다. Furthermore, since the size of one or more tiles according to some embodiments of the present disclosure is fixed regardless of the scale level of the first image, it has the advantage of confirming the specific location where the change is detected, like the conventional method of displaying the change rate in units of pixels. can That is, even when the first image 210 is zoomed in, the sizes of one or more tiles are fixed to a preset size without being enlarged at a corresponding ratio, so that the color of each of the tiles is dynamically changed to indicate the change rate of the corresponding area. may be changed, and accordingly, a specific location where the change is detected may be confirmed, as well as a detailed rate of change in a narrow area may be confirmed.

제 3 레이어(330)는, 제 1 이미지(210)를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽(230)을 디스플레이 할 수 있다. 프로세서(120)는 제 1 이미지(210)를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽(230)을 디스플레이 하도록 출력부(140)를 제어할 수 있다. 한편 프로세서(120)는, 제 1 이미지(210)의 수신에 응답하여 제 1 이미지(2210)를 객체 검출 알고리즘에 입력하여 검출되는 객체를 획득할 수 있다. 다만 이에 한정되는 것은 아니며, 서버(미도시)의 프로세서에 의해 상술한 객체 검출이 수행되고, 검출된 객체에 관한 데이터가 네트워크부(110)를 통해 컴퓨팅 장치(100)로 전송될 수 있다.The third layer 330 may display the second graphic 230 corresponding to each object detected by inputting the first image 210 into one or more object detection algorithms. The processor 120 may control the output unit 140 to display the second graphic 230 corresponding to each object detected by inputting the first image 210 into one or more object detection algorithms. Meanwhile, the processor 120 may acquire the detected object by inputting the first image 2210 into the object detection algorithm in response to the reception of the first image 210 . However, the present invention is not limited thereto, and the above-described object detection may be performed by a processor of a server (not shown), and data regarding the detected object may be transmitted to the computing device 100 through the network unit 110 .

제 3 레이어(330)에 디스플레이 되는 제 2 그래픽(230)은, 제 1 엔티티를 포함하는 엔티티들(entities)로 구성될 수 있다. 엔티티들(231a, 231b, 231c, 231d: 231, 232a, 232b, 232c: 232)은, 엔티티들 각각이 대응되는 객체들의 검출에 관한 정보를 나타낼 수 있다. 또한, 엔티티들(231, 232)의 위치 및/또는 외관은 동적으로 변경되어 디스플레이 될 수 있다. The second graphic 230 displayed on the third layer 330 may include entities including the first entity. Entities 231a, 231b, 231c, 231d: 231, 232a, 232b, 232c: 232 may represent information regarding detection of objects corresponding to each of the entities. In addition, the position and/or appearance of the entities 231 and 232 may be dynamically changed and displayed.

제 2 그래픽(230)과 관련하여, 도 7 및 도 8을 참고할 수 있다. 구체적으로 도 7은, 엔티티들(231, 232) 각각이 대응되는 객체의 검출된 위치 및/또는 대응되는 객체의 개수에 적어도 기초하여 디스플레이 되고, 디스플레이 된 엔티티들(231, 232)이 제 1 이미지의 축척 레벨 및/또는 대응되는 객체의 검출 시점에 적어도 기초하여 동적으로 변경되는 일례를 도시한다. 도 8은 제 2 그래픽을 구성하는 엔티티들이 제 1 이미지의 축척 레벨 및 또는 대응되는 객체의 검출 시점에 적어도 기초하여 동적으로 변경되는 일례의 순서도를 도시한다. With respect to the second graphic 230 , reference may be made to FIGS. 7 and 8 . Specifically, in FIG. 7 , each of the entities 231 and 232 is displayed based on at least the detected position of the corresponding object and/or the number of the corresponding object, and the displayed entities 231 and 232 are displayed in the first image. An example of dynamically changing based on at least the scale level of , and/or the detection time of the corresponding object is shown. 8 shows an exemplary flow chart in which the entities constituting the second graphic are dynamically changed based at least on the scale level of the first image and/or the detection time of the corresponding object.

한편 엔티티들(231, 232)의 형태와 관련하여, 도 7은 엔티티들이 원형의 도형인 경우를 예시로 들었으나, 이에 한정되는 것은 아니다. 예컨대, 엔티티들(231, 232)은 육각형, 별 모양 등 임의의 모양의 도형일 수 있으며, 또는 대응되는 객체에 관한 정보를 나타내는 아이콘(예를 들어, 대응되는 객체의 유형을 시각화 한 아이콘 등)이거나 텍스트(예를 들어, 대응되는 객체의 개수, 또는 대응되는 객체와 연관되는 알고리즘의 명칭 등)일 수 있다. 엔티티들(231, 232)의 형태는 컴퓨터 프로그램에 디폴트 값으로 설정될 수 있고, 이후 사용자의 입력에 의해 디폴트 값과 상이한 값으로 변경되어 설정될 수도 있다. 가령, 엔티티들(231, 232)의 형태의 디폴트 값이 원형으로 설정되고, 이후 사용자의 입력에 의해 육각형으로 변경되어 설정될 수 있다. 전술한 예시는 일 실시예에 불과하며, 본 개시를 제한하지 않는다.Meanwhile, with respect to the shapes of the entities 231 and 232 , FIG. 7 exemplifies a case in which the entities are circular figures, but is not limited thereto. For example, the entities 231 and 232 may be figures of any shape such as a hexagon or a star shape, or an icon indicating information about a corresponding object (eg, an icon that visualizes the type of the corresponding object, etc.) or text (eg, the number of corresponding objects or the name of an algorithm associated with the corresponding object, etc.). The shape of the entities 231 and 232 may be set as a default value in a computer program, and then may be changed and set to a value different from the default value by a user input. For example, a default value of the shape of the entities 231 and 232 may be set to a circular shape, and then changed to a hexagonal shape according to a user's input. The above-described example is merely an example, and does not limit the present disclosure.

엔티티들은(231, 232), 엔티티들 각각이 대응되는 객체들의 검출에 관한 정보를 나타내도록 디스플레이 될 수 있다. 구체적으로, 제 1 엔티티는, 제 1 엔티티에 대응되는 제 1 객체가 검출된 위치를 가이드 할 수 있다. 제 1 엔티티의 크기는, 제 1 객체에 포함된 객체의 개수에 적어도 기초하여 결정될 수 있다. 제 1 엔티티의 색상은, 제 1 객체와 연관되는 제 1 객체 검출 알고리즘 및 제 1 객체의 검출 시점인 제 1 검출 시점 중 적어도 하나에 기초하여 결정될 수 있다. 예컨대, 동일한 객체 검출 알고리즘(예를 들어, 제 1 객체 검출 알고리즘)을 통해 검출된 객체들 각각에 대응되는 엔티티들은 모두 동일한 색상 계열에 속하는 색상을 가질 수 있다. 그리고/또는, 검출 시점이 임계 시점보다 후행하는 객체에 대응하는 엔티티의 색상은, 검출 시점이 임계 시점보다 선행하는 객체에 대응하는 엔티티의 색상에 비하여 시각적으로 강조될 수 있다. 이하에서 엔티티의 위치, 크기 및 색상의 결정에 관하여 보다 자세하게 설명한다. Entities 231 and 232 may be displayed such that each of the entities indicates information regarding detection of a corresponding object. Specifically, the first entity may guide a location where the first object corresponding to the first entity is detected. The size of the first entity may be determined based on at least the number of objects included in the first object. The color of the first entity may be determined based on at least one of a first object detection algorithm associated with the first object and a first detection time point that is a detection time point of the first object. For example, all entities corresponding to objects detected through the same object detection algorithm (eg, the first object detection algorithm) may have colors belonging to the same color series. And/or, the color of the entity corresponding to the object having the detection time following the threshold time may be visually emphasized compared to the color of the entity corresponding to the object having the detection time preceding the threshold time. Determination of the position, size, and color of the entity will be described in more detail below.

먼저 제 1 엔티티는, 제 1 엔티티에 대응되는 제 1 객체가 검출된 위치를 가이드 할 수 있다. 도 7은, 각각의 엔티티들(231, 232)에 대응되는 객체가 검출된 위치 상에 표시되는 일례를 도시한다. 예컨대, 제 1 엔티티에 대응되는 제 1 객체가 (41.13331, 17.21532)의 좌표 값을 갖는 위치에서 검출된 경우, (41.13331, 17.21532)의 좌표에 해당하는 제 1 이미지(210)의 위치 상에 제 1 엔티티가 디스플레이 될 수 있다. 또는, 제 1 엔티티에 대응되는 제 1 객체가 둘 이상의 객체를 포함하는 경우, 즉 예컨대 제 1 엔티티가 후술할 클러스터링된 엔티티(231a, 232c)인 경우, 제 1 엔티티는 둘 이상의 객체 각각의 좌표 값의 중간 지점에 디스플레이 될 수 있다. 가령, 둘 이상의 객체 각각의 좌표 값들의 평균인 좌표 값에 해당하는 제 1 이미지(210)의 위치 상에 제 1 엔티티가 디스플레이 되거나, 또는 둘 이상의 객체 각각의 객체 유형 등에 가중치를 부여하여 산출된, 각각의 좌표 값들의 가중 평균인 좌표 값에 해당하는 제 1 이미지(210)의 위치 상에 제 1 엔티티가 디스플레이 될 수 있다. First, the first entity may guide the location where the first object corresponding to the first entity is detected. 7 illustrates an example in which an object corresponding to each of the entities 231 and 232 is displayed on a detected position. For example, when the first object corresponding to the first entity is detected at a position having a coordinate value of (41.13331, 17.21532), the first object is located on the position of the first image 210 corresponding to the coordinate of (41.13331, 17.21532). Entities can be displayed. Alternatively, when the first object corresponding to the first entity includes two or more objects, that is, for example, when the first entity is clustered entities 231a and 232c to be described later, the first entity is the coordinate value of each of the two or more objects. can be displayed at the midpoint of For example, the first entity is displayed on the position of the first image 210 corresponding to the coordinate value that is the average of the coordinate values of each of the two or more objects, or calculated by weighting the object type of each of the two or more objects, The first entity may be displayed on the position of the first image 210 corresponding to the coordinate value that is the weighted average of the respective coordinate values.

다만 이에 한정되는 것은 아니며, 예컨대 제 1 엔티티는, 제 1 엔티티에 대응되는 제 1 객체가 검출된 위치를 지시할 수 있다. 즉, 제 1 객체가 검출된 위치 상에 디스플레이 되는 것 외에도, 제 1 객체가 검출된 위치와 인접한 위치에서 제 1 객체가 검출된 위치를 지시하는 표시자(예를 들어, 화살표 등의 그래픽, 또는 좌표 값 등의 텍스트)를 포함하여 디스플레이 되거나, 또는 별도의 영역에서 제 1 객체가 검출된 위치를 지시하는 표시자를 포함하여 디스플레이 될 수 있다. However, the present invention is not limited thereto, and for example, the first entity may indicate a location where the first object corresponding to the first entity is detected. That is, in addition to being displayed on the position where the first object is detected, an indicator (eg, a graphic such as an arrow, or text such as coordinate values), or an indicator indicating a position where the first object is detected in a separate area may be displayed.

다음으로 제 1 엔티티의 크기는, 제 1 객체에 포함된 객체의 개수에 적어도 기초하여 결정될 수 있다. 즉, 제 1 엔티티에 대응되는 제 1 객체에 포함된 객체의 개수가 많을수록, 제 1 엔티티는 더 큰 크기로 디스플레이 될 수 있다. 도 7은, 세 개의 객체와 대응되는 엔티티(231a, 232c)가, 하나의 객체와 대응되는 엔티티(232a, 232b, 231b, 231c, 231d)보다 더 큰 크기로 디스플레이 되는 일례를 도시한다. Next, the size of the first entity may be determined based on at least the number of objects included in the first object. That is, as the number of objects included in the first object corresponding to the first entity increases, the first entity may be displayed in a larger size. 7 illustrates an example in which the entities 231a and 232c corresponding to three objects are displayed in a larger size than the entities 232a, 232b, 231b, 231c, and 231d corresponding to one object.

제 1 엔티티의 크기와 제 1 객체에 포함된 객체의 개수 간의 상관 관계는 사전 설정된 로직에 따를 수 있다. 예컨대, 사전 설정된 로직은 정비례 함수, 지수 함수, 또는 로그 함수 등일 수 있으며, 또는 하기와 같은 테이블일 수 있다:The correlation between the size of the first entity and the number of objects included in the first object may be based on a preset logic. For example, the preset logic may be a direct proportional function, an exponential function, a log function, etc., or may be a table such as:

엔티티 크기entity size 대응되는 객체의 개수number of corresponding objects 100%100% 1개One 120%120% 2 - 10개2 - 10 140%140% 10 - 50개10 - 50 160%160% 50 - 100개50 - 100 180%180% 100 - 150개100 - 150 200%200% 150 - 200개150 - 200 220%220% 200 - 300개200 - 300 240%240% 300 - 400개300 - 400 +20%+20% +100개+100

상술한 내용에서는 엔티티의 크기를 통하여 대응되는 객체의 개수가 표현되는 경우를 예시로 들었으나, 이에 한정되는 것은 아니다. 예컨대, 각각의 엔티티에 대응되는 객체의 개수는, 엔티티의 크기뿐만 아니라, 엔티티의 색상, 엔티티의 테두리의 형태, 엔티티와 인접하여 렌더링 될 수 있는 태그, 또는 엔티티 상에 디스플레이 되는 텍스트 등에 따라 표현될 수도 있다. 가령, 엔티티에 대응되는 객체의 개수가 많을수록 엔티티 내부의 색상 또는 엔티티의 테두리가 시각적으로 강조되도록(예컨대, 원색에 가까운 색상 또는 볼드(Bold)한 테두리 등) 표시되거나, 또는 엔티티를 선택하는 사용자 입력(예컨대, 클릭, 호버 등)에 응답하여 엔티티에 대응되는 객체의 개수 정보를 포함하는 태그 등이 렌더링 되어 디스플레이 될 수 있다. In the above description, the case in which the number of corresponding objects is expressed through the size of the entity is exemplified, but the present invention is not limited thereto. For example, the number of objects corresponding to each entity may be expressed according to not only the size of the entity, but also the color of the entity, the shape of the border of the entity, a tag that can be rendered adjacent to the entity, or text displayed on the entity. may be For example, as the number of objects corresponding to an entity increases, a color inside the entity or a border of the entity is displayed to be visually emphasized (eg, a color close to the primary color or a bold border, etc.), or a user input for selecting an entity In response (eg, click, hover, etc.), a tag including information on the number of objects corresponding to an entity may be rendered and displayed.

또는, 엔티티 상에 해당 엔티티에 대응되는 객체의 개수 정보가 함께 디스플레이 될 수 있다. 도 7은, 둘 이상의 객체와 대응되는 엔티티(231a, 232c)의 경우 엔티티 상에 객체의 개수 정보(즉, "3")를 디스플레이 하고, 하나의 객체와 대응되는 엔티티(232a, 232b, 231b, 231c, 231d)의 경우 객체의 개수 정보를 디스플레이 하지 않는 일례를 도시한다. 이 경우, 지나치게 많은 개수 정보가 표시되는 것을 막는 한편, 둘 이상의 많은 객체를 포함하는 엔티티의 시각적 인지성을 향상시킴으로써, 사용자로 하여금 분석이 필요한 지역을 빠르게 탐색할 수 있도록 하고, 궁극적으로 검출된 객체에 대한 정보를 사용자에게 효율적으로 전달할 수 있다. Alternatively, information on the number of objects corresponding to the corresponding entity may be displayed together on the entity. 7 shows, in the case of entities 231a and 232c corresponding to two or more objects, information on the number of objects (ie, "3") is displayed on the entities, and entities 232a, 232b, 231b corresponding to one object are displayed. 231c and 231d) show an example in which information on the number of objects is not displayed. In this case, by preventing excessive number information from being displayed and improving the visual recognition of an entity including two or more objects, the user can quickly search for an area requiring analysis, and ultimately the detected object information can be efficiently communicated to users.

다음으로 제 1 엔티티의 색상은, 제 1 객체와 연관되는 제 1 객체 검출 알고리즘 및 제 1 객체의 검출 시점인 제 1 검출 시점 중 적어도 하나에 기초하여 결정될 수 있다. 예컨대, 동일한 객체 검출 알고리즘(예를 들어, 제 1 객체 검출 알고리즘)을 통해 검출된 객체들 각각에 대응되는 엔티티들은 모두 동일한 색상 계열에 속하는 색상을 가질 수 있다. Next, the color of the first entity may be determined based on at least one of a first object detection algorithm associated with the first object and a first detection time that is a detection time of the first object. For example, all entities corresponding to objects detected through the same object detection algorithm (eg, the first object detection algorithm) may have colors belonging to the same color series.

이와 관련하여 도 7의 (a)는, 알고리즘 1과 연관되는 엔티티(231a)가 검정색 계열의 색상(도 7에서 도트 패턴으로 도시됨)을 가지고, 알고리즘 2와 연관되는 엔티티(232a, 232b)가 보라색 계열의 색상(도 7에서 우상향 패턴으로 도시됨)을 가지는 일례를 도시한다. 다만 이에 한정되는 것은 아니며, 서로 대응되는 알고리즘과 연관되는 엔티티들은 색상 계열 이외에도 테두리의 형태, 또는 엔티티의 형태가 동일한 유형으로 디스플레이 될 수 있다. 예컨대, 알고리즘 1과 연관되는 엔티티들은 원형의 도형으로 디스플레이 되고, 알고리즘 2와 연관되는 엔티티들은 별 모양의 도형으로 디스플레이 될 수 있다. In this regard, FIG. 7(a) shows that the entity 231a associated with the algorithm 1 has a black color (shown as a dot pattern in FIG. 7), and the entities 232a and 232b associated with the algorithm 2 are An example having a purple-based color (shown as a pattern upward in FIG. 7 ) is shown. However, the present invention is not limited thereto, and entities related to algorithms corresponding to each other may be displayed in the same type as the shape of the border or the shape of the entity in addition to the color series. For example, entities associated with algorithm 1 may be displayed in a circular shape, and entities associated with algorithm 2 may be displayed in a star shape.

그리고/또는, 동일한 객체 검출 알고리즘을 통해 검출된 객체들 각각에 대응되는 엔티티들 중에서도, 검출 시점이 임계 시점보다 후행하는 객체에 대응하는 엔티티의 색상은, 검출 시점이 임계 시점보다 선행하는 객체에 대응하는 엔티티의 색상에 비하여 시각적으로 강조될 수 있다. 즉, 동일한 색상 계열을 가지는 엔티티들 중에서도, 최신 검출 객체(즉, 검출 시점이 임계 시점보다 후행하는 객체)와 대응되는 엔티티는, 누적 객체(즉, 검출 시점이 임계 시점보다 선행하는 객체)와 대응되는 엔티티에 비하여 시각적으로 강조될 수 있다. And/or, among entities corresponding to each of the objects detected through the same object detection algorithm, a color of an entity corresponding to an object having a detection time that follows a threshold time corresponds to an object whose detection time precedes the threshold time It can be visually emphasized compared to the color of the entity. That is, among entities having the same color series, an entity corresponding to the latest detection object (that is, an object whose detection time is later than the threshold time) corresponds to an accumulated object (ie, an object whose detection time precedes the threshold time) It can be visually emphasized compared to the entity being

여기서 임계 시점은 다양한 값으로 설정될 수 있으며, 예컨대 임계 시점은 현재 시점으로부터 과거 방향으로 1시간 이내일 수 있다. 이 경우, 현재 시점의 시각이 14:00인 경우, 임계 시점은 13:00이며, 예컨대 13:10에 검출된 객체(즉, 검출 시점이 임계 시점보다 후행하는 객체)에 대응되는 엔티티는, 12:50에 검출된 객체(즉, 검출 시점이 임계 시점보다 선행하는 객체)에 비하여 시각적으로 강조될 수 있다. Here, the threshold time may be set to various values, for example, the threshold time may be within one hour in the past from the current time. In this case, when the time of the current time is 14:00, the threshold time is 13:00, for example, the entity corresponding to the object detected at 13:10 (that is, the object whose detection time follows the threshold time) is 12 The object detected at :50 (ie, an object whose detection time point precedes the threshold time point) may be visually emphasized.

검출 시점에 따라 시각적으로 강조되는 방법과 관련하여 도 7의 (a)는, 최신 검출 객체에 대응하는 엔티티(232a)가 누적 객체에 대응하는 엔티티(232b) 보다 더 진한 색상으로 디스플레이 되는 일례를 도시한다(도 7에서는, 빗금의 간격이 더 좁을수록 더 진한 색상인 것으로 도시함). 다만 이에 한정되는 것은 아니며, 예컨대 최신 검출 객체의 경우 점멸하도록 디스플레이 하거나, 상이한 색상의 엔티티로 표시하거나, 또는 엔티티의 형상이나 엔티티의 테두리의 형상을 상이하게 함으로써, 누적 객체와 시각적으로 구분되도록 할 수 있다. In relation to the method of visually highlighting according to the detection point, FIG. 7A shows an example in which the entity 232a corresponding to the latest detection object is displayed in a darker color than the entity 232b corresponding to the accumulated object. (In FIG. 7, it is shown that the narrower the spacing between the hatches, the darker the color). However, the present invention is not limited thereto. For example, in the case of the latest detection object, it can be visually distinguished from the accumulated object by displaying it blinking, displaying it as an entity of a different color, or making the shape of the entity or the shape of the edge of the entity different. have.

한편 둘 이상의 엔티티들은 서로 임계치 미만의 간격을 가지는 경우, 그리고 사전 설정된 클러스터링 조건을 만족하는 경우에 클러스터링된(Clustered) 엔티티로 대체되어 디스플레이 될 수 있다. 이와 관련하여 도 8을 참조할 수 있다. Meanwhile, two or more entities may be replaced with a clustered entity and displayed when they have an interval less than a threshold value and when a preset clustering condition is satisfied. In this regard, reference may be made to FIG. 8 .

먼저, 제 1 엔티티가 엔티티들 중 적어도 일부인 제 3 엔티티와 임계치 미만의 간격을 가지는지 여부를 판단할 수 있다(S110). 예컨대 검출된 객체가 서로 인접하여 위치하는 경우, 각 객체에 대응되는 엔티티들은 임계치 미만의 간격을 가질 정도로 가깝게 놓여질 수 있다. 또는, 임계치 이상의 간격을 가지는 둘 이상의 엔티티들의 경우에도, 제 1 이미지의 축척 레벨의 변경에 따라(즉, 제 1 이미지가 줌 아웃 되는 경우에) 임계치 미만의 간격을 가지도록 동적으로 변경되어 디스플레이 될 수 있다. First, it may be determined whether the first entity has an interval less than a threshold value from a third entity that is at least some of the entities ( S110 ). For example, when detected objects are located adjacent to each other, entities corresponding to each object may be placed close enough to have an interval less than a threshold value. Alternatively, even in the case of two or more entities having a spacing greater than or equal to a threshold, the display may be dynamically changed and displayed to have a spacing less than the threshold according to a change in the scale level of the first image (ie, when the first image is zoomed out). can

이와 관련하여 도 7의 (a) 및 (b)는, 클러스터링된 엔티티(231a)가 제 1 이미지의 축척 레벨의 변경에 따라(즉, 줌 인), 서로 중첩되지 않는 세 개의 독립적인 엔티티(231b, 231c, 231d)로 변경되어 디스플레이 되는 일례를 도시한다. 한편 엔티티의 크기 및 객체의 개수 간의 상관 관계에 관하여 상술한 것과 같이, 3개의 객체와 대응되는 클러스터링된 엔티티(231a)가 줌 인에 따라 각각 1개의 객체와 대응되는 독립적인 엔티티들(231b, 231c, 231d)로 변경되며, 엔티티 각각의 크기 또한 작아진 것을 확인할 수 있다. In this regard, (a) and (b) of FIG. 7 shows that the clustered entity 231a is three independent entities 231b that do not overlap each other as the scale level of the first image is changed (ie, zoomed in). , 231c, 231d) shows an example of being changed and displayed. Meanwhile, as described above with respect to the correlation between the size of the entity and the number of objects, as the clustered entity 231a corresponding to three objects zooms in, independent entities 231b and 231c corresponding to one object, respectively. , 231d), and it can be seen that the size of each entity is also reduced.

한편 여기서 임계치 미만의 간격은, 제 1 엔티티 및 제 3 엔티티의 중심점을 기준으로 하거나, 또는 제 1 엔티티 및 제 3 엔티티의 경계선을 기준으로 계산될 수 있다. 또는, 제 1 엔티티와 제 3 엔티티가 중첩되는 경우에, 제 1 엔티티가 제 3 엔티티와 임계치 미만의 간격을 가지는 것으로 판단될 수 있다. Meanwhile, the interval less than the threshold may be calculated based on the center point of the first entity and the third entity, or the boundary line between the first entity and the third entity. Alternatively, when the first entity and the third entity overlap, it may be determined that the first entity and the third entity have a distance less than a threshold.

제 1 엔티티가 제 3 엔티티와 임계치 이상의 간격을 가지는 것으로 판단되는 경우(S110, No), 제 1 엔티티 및 제 3 엔티티는 별도의 클러스터링된 엔티티를 생성하지 않고, 제 1 엔티티 및 제 3 엔티티가 그대로 디스플레이 될 수 있다. When it is determined that the first entity and the third entity have a distance greater than or equal to the threshold (S110, No), the first entity and the third entity do not create separate clustered entities, and the first entity and the third entity remain as they are. can be displayed.

반면, 제 1 엔티티가 제 3 엔티티와 임계치 이상의 간격을 가지는 것으로 판단되는 경우(S110, Yes), 제 1 엔티티 및 제 3 엔티티를 대체하여, 제 1 엔티티 및 제 3 엔티티를 기초로 생성된 클러스터링된 엔티티를 디스플레이 할 지 여부를 결정하기 위해, 사전 설정된 로직(S120, S130)을 만족하는지 여부에 대한 판단으로 나아갈 수 있다. On the other hand, if it is determined that the first entity and the third entity have an interval greater than or equal to the threshold (S110, Yes), the first entity and the third entity are replaced, and the clustered clustered entity generated based on the first entity and the third entity is replaced. In order to determine whether to display the entity, it may proceed to a determination as to whether the preset logic ( S120 , S130 ) is satisfied.

사전 설정된 클러스터링 조건은, 먼저 제 1 엔티티에 대응되는 제 1 객체와 연관되는 제 1 객체 검출 알고리즘과, 제 3 엔티티에 대응되는 제 3 객체와 연관되는 제 3 객체 검출 알고리즘이 서로 대응되는지 여부를 판단할 수 있다(S120). 여기서 서로 대응되는 객체 검출 알고리즘은, 예컨대 동일한 알고리즘을 의미할 수 있다. 즉, 사전 설정된 클러스터링 조건은, 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 서로 동일한지 여부를 판단할 수 있다. 다만 이에 한정되는 것은 아니며, 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 모두 서로 유사하거나 실질적으로 동일한 유형의 객체를 검출하기 위한 알고리즘인 경우, 또는 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 동일한 목적의 프로젝트 수행을 위해 생성된 알고리즘인 경우(예컨대, 제 1 검출 알고리즘과 제 3 객체 검출 알고리즘이 모두 코로나 방역 목적의 프로젝트 수행을 위해 생성된 알고리즘인 경우 등)에도, 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 서로 대응되는 것으로 판단할 수 있다. The preset clustering condition is determined whether the first object detection algorithm associated with the first object corresponding to the first entity and the third object detection algorithm associated with the third object corresponding to the third entity correspond to each other. It can be done (S120). Here, the object detection algorithms corresponding to each other may refer to, for example, the same algorithm. That is, the preset clustering condition may determine whether the first object detection algorithm and the third object detection algorithm are identical to each other. However, the present invention is not limited thereto, and when both the first object detection algorithm and the third object detection algorithm are algorithms for detecting objects of a similar or substantially the same type, or the first object detection algorithm and the third object detection algorithm Even in the case of an algorithm generated to perform a project for the same purpose (for example, when both the first detection algorithm and the third object detection algorithm are algorithms generated to perform a project for the purpose of corona prevention, etc.), the first object detection algorithm and the It may be determined that the third object detection algorithms correspond to each other.

제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 서로 대응되지 않는 것으로 판단되는 경우(S120, NO), 제 1 엔티티 및 제 3 엔티티는 별도의 클러스터링된 엔티티를 생성하지 않고, 제 1 엔티티 및 제 3 엔티티가 그대로 디스플레이 될 수 있다. 즉, 제 1 엔티티 및 제 3 엔티티가 임계치 미만의 간격을 가지는 경우에도, 서로 대응되지 않는 알고리즘을 갖는 제 1 엔티티 및 제 3 엔티티는, 임계치 미만의 간격을 가지는 경우에도 클러스터링 되지 않을 수 있다. 이와 관련하여 도 7의 (b)는, 알고리즘 1과 연관되는 엔티티(231c) 및 알고리즘 2와 연관되는 엔티티(232b)가, 서로 중첩됨에도 불구하고 클러스터링 되지 않고 각각 독립적으로 디스플레이 되는 일례를 도시한다. When it is determined that the first object detection algorithm and the third object detection algorithm do not correspond to each other ( S120 , NO), the first entity and the third entity do not create separate clustered entities, but the first entity and the third entity Entities can be displayed as they are. That is, even when the first entity and the third entity have an interval less than the threshold, the first entity and the third entity having algorithms that do not correspond to each other may not be clustered even when the interval is less than the threshold. In this regard, FIG. 7B illustrates an example in which the entity 231c associated with the algorithm 1 and the entity 232b associated with the algorithm 2 are displayed independently of each other without being clustered even though they overlap each other.

이와 같이 둘 이상의 엔티티들이 임계치 미만의 간격을 가짐에도 불구하고 서로 상이한 알고리즘에 연관되어 클러스터링 되지 않는 경우에, 상기 둘 이상의 엔티티들 중 대응되는 객체의 검출 시점이 보다 최근인 엔티티가 다른 엔티티들 보다 위쪽에 디스플레이 될 수 있다. 또는, 상기 둘 이상의 엔티티들 중 사용자가 선택한(예를 들어, 클릭 또는 호버 등) 엔티티가 다른 엔티티들 보다 위쪽에 디스플레이 될 수 있다. 또는, 특정한 알고리즘과 연관된 엔티티가 다른 알고리즘과 연관된 엔티티들보다 위쪽에 디스플레이 되도록 사전 설정될 수 있다. 전술한 예시는 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다. In this way, in the case where two or more entities are not clustered in association with a different algorithm despite having an interval less than the threshold, an entity having a more recent detection time of a corresponding object among the two or more entities is higher than other entities can be displayed on Alternatively, an entity selected by a user (eg, click or hover, etc.) among the two or more entities may be displayed above other entities. Alternatively, an entity associated with a particular algorithm may be preset to be displayed above entities associated with another algorithm. The above-described example is merely an example, and does not limit the present disclosure.

한편 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 서로 대응되는 것으로 판단되는 경우에는(S120, YES), 제 1 객체 검출 알고리즘과 연관되는 제 1 엔티티 및 제 3 객체 검출 알고리즘과 연관되는 제 3 엔티티에 기초하여 클러스터링된 엔티티가 생성되고, 클러스터링된 엔티티는 제 1 엔티티 및 제 3 엔티티를 대체하여 디스플레이 될 수 있다. 이와 관련하여 도 7의 (b)는 둘 이상의 엔티티들(232a, 232b)이 서로 대응되는 객체 검출 알고리즘인 알고리즘 2와 연관되는 일례를 도시하고, 도 7의 (c)는 상기 둘 이상의 엔티티들(232a, 232b)을 기초로 생성된 클러스터링된 엔티티(232c)가 디스플레이 되는 일례를 도시한다. Meanwhile, when it is determined that the first object detection algorithm and the third object detection algorithm correspond to each other ( S120 , YES), the first entity associated with the first object detection algorithm and the third entity associated with the third object detection algorithm A clustered entity is generated based on , and the clustered entity may be displayed by replacing the first entity and the third entity. In this regard, FIG. 7(b) shows an example in which two or more entities 232a and 232b are associated with Algorithm 2, which is an object detection algorithm corresponding to each other, and FIG. 7(c) shows the two or more entities ( An example in which a clustered entity 232c generated based on 232a and 232b is displayed is shown.

또는, 사전 설정된 클러스터링 조건은, 제 1 객체 검출 알고리즘과 제 3 객체 검출 알고리즘이 서로 대응되는 것으로 판단되는 경우(S120, YES)에, 제 1 객체 및 상기 제 3 객체 중 적어도 하나의 검출 시점이 임계 시점보다 후행하는지 여부를 더 판단할 수 있다(S130). Alternatively, as for the preset clustering condition, when it is determined that the first object detection algorithm and the third object detection algorithm correspond to each other (S120, YES), the detection time of at least one of the first object and the third object is critical It may be further determined whether or not it follows the starting point (S130).

제 1 객체 및 제 3 객체 중 적어도 하나의 검출 시점이 임계 시점보다 후행하는 것으로 판단되는 경우(S130, NO), 제 1 엔티티 및 제 3 엔티티는 별도의 클러스터링된 엔티티를 생성하지 않고, 제 1 엔티티 및 제 3 엔티티가 그대로 디스플레이 될 수 있다. 즉, 제 1 엔티티 및 제 3 엔티티가 임계치 미만의 간격을 가지고, 서로 동일한 알고리즘을 갖는 경우에도, 제 1 엔티티 및 제 3 엔티티는 클러스터링 되지 않을 수 있다. When it is determined that the detection time of at least one of the first object and the third object follows the threshold time (S130, NO), the first entity and the third entity do not create a separate clustered entity, and the first entity and the third entity may be displayed as it is. That is, the first entity and the third entity may not be clustered even when the first entity and the third entity have an interval less than a threshold and have the same algorithm as each other.

한편 제 1 객체 및 제 3 객체의 검출시점이 모두 임계 시점보다 선행하는 것으로 판단되는 경우(S130, YES), 제 1 객체와 대응되는 제 1 엔티티 및 제 3 객체와 대응되는 제 3 엔티티에 기초하여 클러스터링된 엔티티가 생성되고, 클러스터링된 엔티티는 제 1 엔티티 및 제 3 엔티티를 대체하여 디스플레이 될 수 있다. On the other hand, when it is determined that both the detection times of the first object and the third object precede the threshold time (S130, YES), based on the first entity corresponding to the first object and the third entity corresponding to the third object A clustered entity is created, and the clustered entity may be displayed replacing the first entity and the third entity.

이와 관련하여 도 7의 (b) 및 (c)는, 둘 이상의 엔티티들(232a, 232b) 중 어느 하나의 엔티티(232a)의 검출 시점이 임계시점보다 후행하여 서로 클러스터링 되지 않고 독립적으로 디스플레이 되다가(도 7의 (b)), 시간이 경과하여 둘 이상의 엔티티들의 검출시점이 모두 임계 시점보다 선행하게 된 시점에 이르렀을 때, 둘 이상의 엔티티들(232a, 232b)에 기초하여 생성된 클러스터링된 엔티티(232c)가 둘 이상의 엔티티(232a, 232b)를 대체하여 디스플레이 되는 일례를 도시한다. In this regard, in (b) and (c) of Figure 7, the detection time of any one of the two or more entities 232a and 232b follows the threshold time and is displayed independently without being clustered with each other ( In (b) of FIG. 7 ), when time has elapsed and the detection time point of the two or more entities all comes before the critical time point, the clustered entity generated based on the two or more entities 232a and 232b ( An example in which 232c is displayed replacing two or more entities 232a and 232b is shown.

여기서 임계 시점은 다양한 값으로 설정될 수 있으며, 예컨대 임계 시점은 현재 시점으로부터 과거 방향으로 1시간 이내일 수 있다. 이 경우, 현재 시점의 시각이 14:00인 경우, 예컨대 동일한 알고리즘과 연관되고 서로 중첩되는 두 엔티티 중 어느 하나와 대응되는 객체의 검출 시점이 13:10 라면(즉, 검출 시점이 임계 시점보다 후행하는 객체), 서로 중첩되는 두 엔티티는 알고리즘의 대응 여부와 무관하게 클러스터링 되지 않고, 독립적으로 디스플레이 될 수 있다. 반대로, 서로 중첩되는 두 엔티티 각각에 대응하는 객체들의 검출시점이 모두 13:00 이전(예컨대, 12:50) 이라면, 서로 중첩되는 두 엔티티에 기초하여 클러스터링된 객체가 생성되고, 클러스터링 된 객체는 서로 중첩되는 두 엔티티를 대체하여 디스플레이 될 수 있다. Here, the threshold time may be set to various values, for example, the threshold time may be within one hour in the past from the current time. In this case, if the time of the current time is 14:00, for example, if the detection time of an object corresponding to any one of two entities related to the same algorithm and overlapping each other is 13:10 (ie, the detection time is later than the threshold time) object), the two entities overlapping each other are not clustered and can be displayed independently regardless of the correspondence of the algorithm. Conversely, if the detection times of the objects corresponding to each of the two overlapping entities are all before 13:00 (eg, 12:50), a clustered object is created based on the two overlapping entities, and the clustered objects are mutually It can be displayed by replacing two overlapping entities.

이와 같이 제 1 이미지를 객체 검출 알고리즘에 입력하여 검출된 객체들에 관한 정보를, 각각의 엔티티들의 위치 및/또는 외관의 다양한 요소들을 이용하여 표현함으로써, 검출된 객체에 관한 다차원적 정보를 사용자에게 간단한 그래픽의 형태로 제공할 수 있다. 또한, 제 1 이미지의 축척 레벨의 변경 및/또는 시간의 경과에 따라 각각의 엔티티들을 동적으로 변경하여 디스플레이 함으로써, 사용자 인터페이스가 지나치게 복잡해지는 것을 방지하고, 사용자에게 보다 필요한 정보를 사용자가 쉽게 탐색할 수 있도록 직관적으로 제공할 수 있다. In this way, by inputting the first image into the object detection algorithm and expressing information about the detected objects using various elements of the location and/or appearance of each entity, multidimensional information about the detected object is provided to the user. It can be provided in the form of a simple graphic. In addition, by changing the scale level of the first image and/or dynamically changing and displaying each entity according to the passage of time, the user interface is prevented from becoming too complicated, and the user can easily search for information more necessary for the user. can be provided intuitively.

한편 도 8에서는 객체 검출 알고리즘이 서로 대응되는지 여부를 먼저 판단하고(S120), 그리고 검출 시점이 임계 시점보다 후행하는지 여부를 후속하여 판단하는(S130) 일례를 도시하였으나, 이에 한정되는 것은 아니다. 즉, 반대로 검출시점이 임계 시점보다 후행하는지 여부를 먼저 판단하고, 그리고 객체 검출 알고리즘이 서로 대응되는지 여부를 후속하여 판단할 수 있다. Meanwhile, FIG. 8 illustrates an example of first determining whether the object detection algorithms correspond to each other (S120) and subsequently determining whether the detection time is later than a critical time (S130), but is not limited thereto. That is, on the contrary, it may be determined first whether the detection time point follows the critical time point, and it may be subsequently determined whether the object detection algorithms correspond to each other.

제 4 레이어(340)는, 딥러닝 알고리즘 판독을 통해 검출된 객체 또는 탐지된 변화율이 알림 발생 조건을 만족하는 경우, 해당 객체 또는 해당 변화율에 관한 알림인 제 3 그래픽(240)을 디스플레이 할 수 있다. 프로세서(120)는, 제 1 이미지(210)에 기초하여 검출된 객체 또는 탐지된 변화율이 알림 발생 조건을 만족하는 경우, 해당 객체 또는 해당 변화율에 관한 알림인 제 3 그래픽(240)을 디스플레이 하도록 출력부(140)를 제어할 수 있다. 한편 메모리(130)는, 사용자가 사전 설정하거나, 또는 디폴트 값으로 설정되어 있는 알림 발생 조건을 저장할 수 있으며, 프로세서(120)는 메모리(130)에 저장된 상기 알림 발생 조건을 판독하여, 검출된 객체 또는 탐지된 변화에 관한 알림 발생 여부를 결정할 수 있다. 이 경우 알림 발생 여부를 결정하는 것은, 제 3 그래픽(240)의 디스플레이 여부에 대한 결정 및/또는 제 3 그래픽(240)이 디스플레이 되는 방법에 대한 결정(예컨대, 제 3 그래픽(240)이 디스플레이 되는 위치 및/또는 외관에 대한 결정)을 포함할 수 있다. 다만 이에 한정되는 것은 아니며, 서버(미도시)의 프로세서에 의해 상술한 알림 발생 여부의 결정이 수행되고, 알림 발생이 결정되는 경우 제 3 그래픽(240)을 디스플레이 하기 위한 데이터가 네트워크부(110)를 통해 컴퓨팅 장치(100)로 전송될 수 있다. The fourth layer 340 may display a third graphic 240 that is a notification about the object or the change rate when the object or the detected change rate through deep learning algorithm reading satisfies the notification generation condition. . When the detected object or the detected change rate based on the first image 210 satisfies a condition for generating a notification, the processor 120 outputs to display the third graphic 240 that is a notification regarding the corresponding object or the corresponding change rate. The unit 140 may be controlled. Meanwhile, the memory 130 may store a notification generation condition preset by the user or set as a default value, and the processor 120 reads the notification generation condition stored in the memory 130 and detects the object. Alternatively, it may be determined whether to generate a notification regarding the detected change. In this case, determining whether to generate a notification is determining whether to display the third graphic 240 and/or determining how to display the third graphic 240 (eg, when the third graphic 240 is displayed) location and/or appearance). However, the present invention is not limited thereto, and the determination of whether the above-described notification is generated is performed by the processor of the server (not shown), and when the notification is determined, data for displaying the third graphic 240 is transmitted to the network unit 110 . may be transmitted to the computing device 100 through

알림 발생 조건은, 객체의 검출 지역에 관한 조건, 객체의 유형에 관한 조건, 및 객체의 검출량에 관한 조건, 변화율이 탐지되는 지역에 관한 조건, 및 변화율의 변동에 관한 조건 중 적어도 하나를 포함할 수 있다. The notification generating condition may include at least one of a condition regarding a detection area of an object, a condition regarding the type of object, and a condition regarding a detection amount of an object, a condition regarding an area in which a rate of change is detected, and a condition regarding a change in the rate of change. can

객체의 검출 지역에 관한 조건은, 객체 검출과 관련하여 관심 지역을 설정하는 것일 수 있다. 예컨대, 'Atlanta Intl. Airport(애틀란타 국제 공항)'을 관심 지역으로 설정하고, Atlanta Intl. Airport 지역에서 객체가 검출되는 경우 알림이 발생하도록 설정할 수 있다. 또는, 이 외의 알림 발생 조건과 결합하여, 예컨대 Atlanta Intl. Airport 지역에서 특정한 객체가 검출되는 경우 및/또는 Atlanta Intl. Airport 지역에서 객체 검출량이 특정 비율 및/또는 개수로 변동되는 경우에 알림이 발생하도록 설정할 수 있다. The condition regarding the detection region of the object may be to set the region of interest in relation to the object detection. For example, 'Atlanta Intl. Airport (Atlanta International Airport) as the region of interest, and Atlanta Intl. It can be set to generate a notification when an object is detected in the Airport area. Or, in combination with other notification generating conditions, for example, Atlanta Intl. When a specific object is detected in the Airport area and/or Atlanta Intl. A notification may be set to occur when the detection amount of objects in the airport area changes at a specific rate and/or number.

객체의 유형에 관한 조건은, 관심 객체를 설정하는 것일 수 있다. 예컨대, 중형 항공기인 'B330'을 관심 객체로 설정하고, B330 객체가 검출되는 경우 알림이 발생하도록 설정할 수 있다. 또는, 이 외의 알림 발생 조건과 결합하여, 예컨대 B330 객체가 특정 지역에서 검출되는 경우 및/또는 B330 객체의 검출량이 특정 비율 및/또는 개수로 변동되는 경우에 알림이 발생하도록 설정할 수 있다. The condition regarding the type of object may be to set the object of interest. For example, a medium-sized aircraft 'B330' may be set as an object of interest, and a notification may be generated when the B330 object is detected. Alternatively, in combination with other notification generation conditions, for example, it can be set to generate a notification when the B330 object is detected in a specific area and/or when the detection amount of the B330 object is changed at a specific ratio and/or number.

객체의 검출량에 관한 조건은, 객체의 검출량이 특정 비율 및/또는 개수로 변동되는 경우에 알림이 발생하도록 설정하는 것일 수 있다. 예컨대, 객체 탐지 시, 이전 영상 대비 검출량이 임의의 비율 및/또는 개수로 증감 시, 어제 대비 검출량 평균이 임의의 비율 및/또는 개수로 증감 시, 또는 어제 대비 일일 편차가 임의의 비율 및/또는 개수로 증감 시에 알림이 발생하도록 설정할 수 있다. 또는, 이 외의 알림 발생 조건과 결합하여, 예컨대 특정 객체의 검출량이 특정 비율 및/또는 개수로 변동되고, 해당 변동이 특정 지역에서 검출되는 경우에 알림이 발생하도록 설정할 수 있다.The condition regarding the detection amount of the object may be set to generate a notification when the detection amount of the object is changed by a specific ratio and/or number. For example, when detecting an object, when the detection amount is increased or decreased by an arbitrary ratio and/or number compared to the previous image, when the average detection amount is increased or decreased by an arbitrary ratio and/or number compared to yesterday, or when the daily deviation from yesterday is increased or decreased by an arbitrary ratio and/or It can be set to generate a notification when the number increases or decreases. Alternatively, in combination with other notification generating conditions, for example, a notification may be set to occur when the detection amount of a specific object is changed at a specific ratio and/or number and the corresponding variation is detected in a specific area.

변화율이 탐지되는 지역에 관한 조건은, 변화율 탐지와 관련하여 관심 지역을 설정하는 것일 수 있다. 예컨대, 'Atlanta Intl. Airport'을 관심 지역으로 설정하고, Atlanta Intl. Airport 지역에서 변화가 탐지되는 경우 알림이 발생하도록 설정할 수 있다. 또는, 이 외의 알림 발생 조건과 결합하여, 예컨대 Atlanta Intl. Airport 지역에서 임계치 이상의 변화율이 탐지되는 경우에 알림이 발생하도록 설정할 수 있다. The condition regarding the region in which the rate of change is detected may be to set the region of interest in relation to the detection of the rate of change. For example, 'Atlanta Intl. Airport' as the region of interest, and Atlanta Intl. An alert can be set to occur when a change is detected in the Airport area. Or, in combination with other notification generating conditions, for example, Atlanta Intl. An alert can be set to occur when a change rate greater than a threshold is detected in the airport area.

변화율의 변동에 관한 조건은, 탐지된 변화율이 특정 비율 및/또는 값으로 변동되는 경우에 알림이 발생하도록 설정하는 것일 수 있다. 예컨대, 탐지된 변화율이 임계치를 초과하거나 임계치에 미달되는 경우, 또는 탐지된 변화율이 어제 대비 특정 비율 및/또는 값으로 증감하는 경우에 알림이 발생하도록 설정할 수 있다. 또는, 이 외의 알림 발생 조건과 결합하여, 예컨대 변화율이 특정 비율 및/또는 값으로 변동되고, 해당 변동이 특정 지역에서 탐지되는 경우에 알림이 발생하도록 설정할 수 있다. The condition regarding the change of the rate of change may be set to generate a notification when the detected rate of change is changed by a specific rate and/or value. For example, a notification may be set to occur when the detected rate of change exceeds or falls below a threshold, or when the detected rate of change increases or decreases by a specific rate and/or value compared to yesterday. Alternatively, in combination with other notification generating conditions, for example, a notification may be set to occur when a change rate is changed at a specific rate and/or value and the corresponding variation is detected in a specific area.

상술한 알림 발생 조건이 만족되는 경우, 알림 발생 조건을 만족하는 객체가 검출된 위치 또는 알림 발생 조건을 만족하는 변화율이 탐지된 위치 중 적어도 하나를 가이드 하는 제 3 그래픽(240)이 사용자 인터페이스(200) 내에 디스플레이 될 수 있다. 예컨대 알림 발생 조건을 만족하는 객체가 검출된 위치 또는 알림 발생 조건을 만족하는 변화율이 탐지된 위치 상에 제 3 그래픽이 디스플레이 될 수 있다. 또는 제 3 그래픽은, 알림 발생 조건을 만족하는 객체가 검출된 위치 또는 알림 발생 조건을 만족하는 변화율이 탐지된 위치를 지시할 수 있다. 예컨대, 객체가 검출된 위치 또는 변화율이 탐지된 위치와 인접한 위치에서 상기 위치를 지시하는 표시자(예를 들어, 화살표 등의 그래픽, 또는 좌표 값 등의 텍스트)를 포함하여 디스플레이 되거나, 또는 배너 등과 같은 별도의 영역에서 상기 표시자를 포함하여 디스플레이 될 수 있다. When the above-described notification generation condition is satisfied, a third graphic 240 for guiding at least one of a location where an object satisfying the notification generation condition is detected or a location where a change rate satisfying the notification generation condition is detected is displayed on the user interface 200 ) can be displayed. For example, the third graphic may be displayed on a position at which an object satisfying the notification generating condition is detected or a position at which a change rate satisfying the notification generating condition is detected. Alternatively, the third graphic may indicate a position at which an object satisfying a notification generating condition is detected or a position at which a change rate satisfying the notification generating condition is detected. For example, the object is displayed including an indicator (eg, a graphic such as an arrow, or text such as a coordinate value) in a position adjacent to the position where the object is detected or the position where the rate of change is detected, or a banner or the like. The indicator may be displayed in the same separate area.

한편 제 3 그래픽(240)은, 둘 이상의 알림 수준 중 어느 하나의 수준을 시각적으로 나타낼 수 있다. 알림 수준은, 발생한 알림의 내용에 대해 사용자가 어느 정도의 관심을 가지고 있는지 여부에 따라 둘 이상의 서로 상이한 수준들로 구분될 수 있다. 서로 상이한 알림 수준을 나타내는 제 3 그래픽들은, 서로 다른 방법(예를 들어, 서로 다른 위치 및/또는 외관)으로 디스플레이 될 수 있다. Meanwhile, the third graphic 240 may visually represent any one of two or more notification levels. The notification level may be divided into two or more different levels according to the degree of interest of the user to the content of the generated notification. The third graphics representing different notification levels may be displayed in different ways (eg, different locations and/or appearances).

알림 수준은, 알림의 발생 조건과 함께 설정될 수 있다. 즉, 알림 발생 조건과 알림 수준을 매칭하여, 해당 알림 발생 조건에 따른 알림 발생 시에 어떠한 알림 수준의 알림이 발생될 것인지를 사전 설정할 수 있다. The notification level may be set together with a condition for generating a notification. That is, by matching the notification generation condition with the notification level, it is possible to preset which notification level will be generated when a notification is generated according to the notification generation condition.

가령, 사용자가 B330 항공기의 검출에 대하여 가장 높은 수준의 관심을 가지고 있는 경우, 사용자는 B330 항공기가 검출되는 경우에 가장 높은 알림 수준(예컨대, 경계 수준)의 알림이 발생하도록 설정할 수 있다. 경계 수준의 알림은, 모든 상황보다 우선하여 사용자에게 전달될 수 있는 알림을 의미할 수 있다. B330 항공기가 검출되어 경계 수준의 알림이 발생되는 경우, 알림에 따른 제 3 그래픽은 B330 항공기가 검출된 위치 상에 점멸하도록 표시되는 빨간색의 아이콘, 그리고 B330 항공기 검출에 관한 정보를 포함하도록 렌더링 되는 팝업 윈도우를 포함할 수 있다. For example, if the user has the highest level of interest in the detection of the B330 aircraft, the user may set the alert of the highest alert level (eg, alert level) to occur when the B330 aircraft is detected. The alert level notification may mean a notification that can be delivered to the user prior to all situations. When a B330 aircraft is detected and an alert level alert is generated, the third graphic according to the alert is a red icon displayed to blink on the location where the B330 aircraft is detected, and a popup rendered to include information about the detection of the B330 aircraft It may include windows.

또는, 사용자가 Atlanta Intl. Airport 지역에서의 변화율 탐지에 대하여 높은 수준(상술한 가장 높은 수준보다는 낮은 수준)의 관심을 가지고 있는 경우, 사용자는 Atlanta Intl. Airport 지역에서 변화율이 탐지되는 경우에 높은 알림 수준(예컨대, 주의 수준)의 알림이 발생하도록 설정할 수 있다. Atlanta Intl. Airport 지역에서 변화율이 탐지됨에 따라 주의 수준의 알림이 발생되는 경우, 알림에 따른 제 3 그래픽은 변화율이 탐지된 Atlanta Intl. Airport 지역의 특정 위치 상에 점멸하도록 표시되는 노란색의 아이콘, 그리고 변화율 탐지에 관한 정보를 포함하도록 화면 상단에 렌더링 되는 팝업 배너를 포함할 수 있다. Alternatively, the user may register for Atlanta Intl. If you have a high level of interest (less than the highest level described above) for rate-of-change detection in the Airport area, you can use the Atlanta Intl. When a change rate is detected in the airport area, it may be set to generate a notification of a high notification level (eg, attention level). Atlanta Intl. When a caution level alert is generated as a rate of change is detected in the Airport area, the third graphic according to the alert is an Atlanta Intl. It may include a yellow icon that is displayed to blink on a specific location in the Airport area, and a pop-up banner that is rendered at the top of the screen to include information about change rate detection.

또는, 사용자가 잠수함의 검출에 대하여 보통 수준의 관심을 가지고 있는 경우, 사용자는 잠수함이 검출되는 경우에 보통 알림 수준(예컨대, 일반 수준)의 알림이 발생하도록 설정할 수 있다. 잠수함이 검출되어 일반 수준의 알림이 발생되는 경우, 알림에 따른 제 3 그래픽은 잠수함이 검출된 위치 상에 점멸하지 않도록 표시되는 파란색의 아이콘을 포함할 수 있다. Alternatively, when the user has a moderate level of interest in the detection of a submarine, the user may set a notification of a normal level (eg, a normal level) to be generated when a submarine is detected. When a submarine is detected and a general level notification is generated, the third graphic according to the notification may include a blue icon displayed so as not to blink on the detected position of the submarine.

제 3 그래픽이 알림 수준을 시각적으로 나타내는 것과 관련하여 전술한 예시들은 일 실시예에 불과할 뿐, 본 개시를 제한하지 않는다. 가령 상이한 수준의 알림 수준 각각에 대응하는 제 3 그래픽들은, 서로 상이한 형태의 테두리, 상이한 모양, 또는 상이한 크기를 가짐으로써 시각적으로 구분될 수 있다. The above-described examples in relation to the third graphic visually indicating the notification level are merely exemplary and do not limit the present disclosure. For example, the third graphics corresponding to each of the different notification levels may be visually distinguished by having different borders, different shapes, or different sizes.

한편, 제 3 그래픽에 대하여 상술한 내용과 관련하여 도 9를 참고할 수 있다. 구체적으로 도 9는, 각각 일반 수준을 나타내는 제 3 그래픽(241a), 주의 수준을 나타내는 제 3 그래픽(241b), 그리고 경계 수준을 나타내는 제 3 그래픽(241c)이, 각각의 알림 발생 수준을 만족하는 객체가 검출된 위치 상에 디스플레이 된 일례를 도시한다. Meanwhile, reference may be made to FIG. 9 in relation to the above-described content of the third graphic. Specifically, FIG. 9 shows that the third graphic 241a indicating the general level, the third graphic 241b indicating the attention level, and the third graphic 241c indicating the alert level, respectively, satisfy each notification occurrence level. An example is shown in which an object is displayed on a detected position.

또한, 알림 발생 조건의 설정 및 알림 수준의 설정과 관련하여 도 10을 참고할 수 있다. 구체적으로 도 10은, 객체 검출에 따른 알림의 발생 조건을 설정하기 위한 사용자 인터페이스의 일례를 도시한다. 도 10에 도시된 사용자 인터페이스는, 예컨대 사용자 인터페이스(200)를 구성하는 일 영역이거나, 사용자 인터페이스(200) 상에서의 사용자의 선택에 따라 렌더링 될 수 있는 일 영역이거나(예를 들어, 사용자 인터페이스(200) 좌/우측 상단의 햄버거 메뉴(미도시) 클릭에 응답하여 디스플레이 되는 슬라이딩 메뉴), 또는 팝업 윈도우와 같이 사용자의 입력에 따라 렌더링 되는 별도의 레이어 내의 일 영역일 수 있다. 다만 이에 한정되는 것은 아니다. Also, reference may be made to FIG. 10 in relation to the setting of the notification generating condition and the setting of the notification level. Specifically, FIG. 10 shows an example of a user interface for setting a condition for generating a notification according to object detection. The user interface shown in FIG. 10 is, for example, a region constituting the user interface 200 or a region that can be rendered according to a user's selection on the user interface 200 (eg, the user interface 200 ). ) may be an area within a separate layer rendered according to a user's input, such as a sliding menu displayed in response to a click of a left/right top hamburger menu (not shown) or a pop-up window. However, the present invention is not limited thereto.

도 10의 좌측 도면은, 관심 객체 및/또는 관심 객체의 검출 지역에 관한 조건을 선택하는 방법의 일례를 도시한다. 예컨대 관심 객체의 설정은, 드롭다운 메뉴(242)에서 알고리즘을 먼저 선택하고, 후속하는 드롭다운 메뉴에서 해당 알고리즘에 포함되어 있는 세부 객체 유형들 중 적어도 일부를 이어 선택함으로써 수행될 수 있다. 검출 지역에 관한 조건 또한, 드롭다운 메뉴(243)에서 적어도 하나의 관심 지역을 선택함으로써 수행될 수 있다. 관심 객체 및/또는 관심 객체의 검출 지역에 관한 조건 선택이 완료되면, 해당 관심 객체에 대한 정보를 포함하는 박스(244a)가 렌더링 될 수 있고, '알림 만들기' 버튼(245)을 선택하여 보다 상세한 알림 발생 조건을 설정할 수 있다. The left diagram of FIG. 10 shows an example of a method of selecting an object of interest and/or a condition related to a detection region of the object of interest. For example, the setting of the object of interest may be performed by first selecting an algorithm from the drop-down menu 242 and subsequently selecting at least some of the detailed object types included in the corresponding algorithm from the subsequent drop-down menu. The condition regarding the detection region may also be performed by selecting at least one region of interest from the drop-down menu 243 . When the selection of conditions regarding the object of interest and/or the detection region of the object of interest is completed, a box 244a including information on the object of interest may be rendered, and the 'create notification' button 245 may be selected to provide more detailed information. You can set the notification trigger condition.

도 10의 중앙 도면은, 추가된 관심 객체(244a)에 관하여 보다 상세한 알림 발생 조건 및 알림 수준을 설정하는 방법의 일례를 도시한다. 예컨대 '알림 만들기' 버튼(245)의 선택에 따라, 컨텍스트 메뉴가 렌더링 될 수 있다. 컨텍스트 메뉴는 알림 발생 조건을 설정할 수 있는 드롭다운 메뉴(246) 및/또는 알림 수준을 설정할 수 있는 드롭다운 메뉴(247)를 포함할 수 있다. 특히 알림 발생 조건을 설정할 수 있는 드롭다운 메뉴(246)의 경우, 상세 조건을 설정하기 위한 입력창을 더 포함할 수 있다. 가령, '이전 영상 대비 검출량 증가'와 같은 알림 발생 조건을 설정한 경우, 검출량 증가의 값을 비율 또는 개수의 단위로 설정 가능한 입력창이 활성화될 수 있다. 다만 이에 한정되는 것은 아니며, 예컨대 단순히 '객체 탐지 시'와 같은 알림 발생 조건을 설정한 경우, 상세 조건을 설정하기 위한 입력창은 비활성화 되거나, 또는 디스플레이 되지 않을 수 있다. 가능한 알림 발생 조건 및/또는 알림 수준의 예시에 관하여는 상술하였으므로, 여기에서는 자세한 설명을 생략한다. The central diagram of FIG. 10 shows an example of a method of setting a more detailed notification generation condition and notification level with respect to the added object of interest 244a. For example, according to the selection of the 'make notification' button 245, a context menu may be rendered. The context menu may include a drop-down menu 246 for setting a notification generating condition and/or a drop-down menu 247 for setting a notification level. In particular, in the case of the drop-down menu 246 for setting a notification generation condition, an input window for setting detailed conditions may be further included. For example, when a notification generation condition such as 'increase in detection amount compared to the previous image' is set, an input window capable of setting a value of increase in detection amount in units of a ratio or number may be activated. However, the present invention is not limited thereto, and when a notification generation condition such as 'when an object is detected' is simply set, the input window for setting the detailed condition may be inactivated or not displayed. Since examples of possible notification generating conditions and/or notification levels have been described above, a detailed description thereof will be omitted herein.

도 10의 우측 도면은, 알림 발생 조건 및 알림 수준이 설정 완료된 상태의 일례를 도시한다. 구체적으로, 추가된 관심 객체의 검출량이 두 개의 지역(AOI 1, AOI 2) 중 어느 하나에서 이전 영상에 비해 N% 이상 증가하는 경우에 주의 수준으로 발생하도록 설정된 알림(244b)의 일례를 도시한다. The right diagram of FIG. 10 shows an example of a state in which a notification generation condition and a notification level have been set. Specifically, an example of a notification 244b set to occur at the attention level when the detection amount of the added object of interest increases by more than N% compared to the previous image in either of the two regions (AOI 1, AOI 2) is shown. .

알림 발생 조건 및 알림 수준 설정과 관련하여 상술한 내용에서는 드롭다운 메뉴 및 입력창이 예시를 기재하였으나 이에 한정되는 것은 아니다. 관심 객체, 검출 지역, 알림 발생 조건, 및/또는 알림 수준 각각의 값의 선택은, 예컨대 둘 이상의 자동추천 태그들로 제공되는 값들 중에서 어느 하나를 선택하거나, 슬라이딩 버튼을 사용하여 둘 이상의 값들 중 어느 하나를 선택하거나, 또는 검색창에서의 검색어 입력을 통해 검색 결과 중 어느 하나가 선택되는 등의 임의의 가능한 방식들로 수행될 수 있다. In the above description regarding notification generation conditions and notification level settings, examples of drop-down menus and input windows have been described, but the present invention is not limited thereto. The selection of each value of the object of interest, detection region, notification generating condition, and/or notification level may be performed, for example, by selecting any one of the values provided by two or more auto-recommended tags, or by using a sliding button to select any one of the two or more values. It may be performed in any possible manner, such as selecting one or selecting one of the search results through input of a search term in the search box.

이와 같이, 알림 발생 조건을 만족하는 객체의 검출 및/또는 변화의 탐지에 응답하여 알림을 즉각적으로 디스플레이 함으로써, 사용자는 수신된 영상에 대한 판독의 진행 중에도 관심 이벤트가 감지된 것을 실시간으로 확인 가능할 수 있다.In this way, by immediately displaying a notification in response to detection of an object that satisfies the notification generation condition and/or detection of a change, the user can check in real time that the event of interest is detected even while reading the received image. have.

한편 본 개시의 알림에 대하여 상술한 설명은 제 3 그래픽(240)을 디스플레이 하는 것을 중심으로 기재되었으나, 이에 한정되는 것은 아니다. 예컨대, 알림은 청각적 요소(예컨대, 알림 수준에 따라 음량, 패턴 등이 구분되는 알림 사운드의 발생 등)일 수 있으며, 또는 시각적 요소(예컨대, 상술한 제 3 그래픽(240), 또는 텍스트 등의 가능한 시각적 요소) 및 청각적 요소의 결합일 수 있다. 즉, 본 개시에 따른 알림은, 관심 객체의 검출을 사용자에게 인지시키기 위한 임의의 방법 및/또는 요소로 구성될 수 있다. Meanwhile, the above description of the notification of the present disclosure has been mainly described with respect to displaying the third graphic 240 , but is not limited thereto. For example, the notification may be an auditory element (eg, generation of a notification sound with a volume, a pattern, etc. distinguished according to the notification level, etc.) or a visual element (eg, the above-described third graphic 240 or text, etc.). possible visual elements) and auditory elements. That is, the notification according to the present disclosure may be configured with any method and/or element for recognizing the detection of the object of interest to the user.

제 5 레이어(350)는, 수신된 영상의 촬영 지역과 대응되는 제 1 이미지(210) 내의 영역에 제 4 그래픽(250)을 디스플레이 할 수 있다. 프로세서(120)는, 네트워크부(110)를 통해 수신된 영상의 촬영 지역과 대응되는 제 1 이미지(210) 내의 영역에 제 4 그래픽(250)을 디스플레이 하도록 출력부(140)를 제어할 수 있다. The fifth layer 350 may display the fourth graphic 250 in an area within the first image 210 corresponding to the capturing area of the received image. The processor 120 may control the output unit 140 to display the fourth graphic 250 in an area within the first image 210 corresponding to the capturing area of the image received through the network unit 110 . .

제 4 그래픽(250)은, 제 1 이미지(210)의 축척 레벨에 적어도 기초하여, 촬영 지역의 경계에 관한 제 1 영상 정보, 영상의 촬영 주체에 관한 제 2 영상 정보, 및 영상의 촬영 일시에 관한 제 3 영상 정보 중 적어도 하나를 포함하도록 결정될 수 있다. The fourth graphic 250 may include, based on at least the scale level of the first image 210 , first image information about the boundary of the photographing area, second image information about the subject of the image, and the capture date and time of the image. It may be determined to include at least one of the related third image information.

제 4 그래픽(250)과 관련하여, 도 11을 참고할 수 있다. 도 11의 (a)는 낮은 축척 레벨에서 디스플레이 되는 제 4 그래픽의 일례를 나타내고, 도 11의 (b)는 비교적 높은 축척 레벨에서 디스플레이 되는 제 4 그래픽의 일례를 나타낸다. 보다 구체적으로, 낮은 축척 레벨(도 11(a))에서의 제 4 그래픽(250)은, 촬영 지역의 경계에 관한 제 1 영상 정보(251), 즉 촬영 지역을 나타내는 경계선인 사각형 도형만을 디스플레이 할 수 있다. 대조적으로, 높은 축척 레벨(도 11(b))에서의 제 4 그래픽(250)은, 촬영 지역의 경계에 관한 제 1 영상 정보(251)뿐만 아니라, 영상의 촬영 주체, 즉 이 경우 위성의 식별정보에 관한 제 2 영상 정보(252b) 및 영상의 촬영 일시에 관한 제 3 영상 정보(252a) 또한 디스플레이 할 수 있다. 다만 이에 한정되는 것은 아니다. Regarding the fourth graphic 250 , reference may be made to FIG. 11 . 11A shows an example of the fourth graphic displayed at a low scale level, and FIG. 11B shows an example of the fourth graphic displayed at a relatively high scale level. More specifically, the fourth graphic 250 at a low scale level (FIG. 11(a)) may display only the first image information 251 about the boundary of the shooting area, that is, a rectangular shape that is a boundary line indicating the shooting area. can In contrast, the fourth graphic 250 at a high scale level (FIG. 11(b)) shows the identification of the subject of the image, ie, the satellite in this case, as well as the first image information 251 about the boundary of the imaging area. The second image information 252b related to the information and the third image information 252a related to the capture date and time of the image may also be displayed. However, the present invention is not limited thereto.

다시 말해, 예컨대 축척 레벨이 임계 레벨보다 낮아진 경우, 제 4 그래픽(250)은 보다 적은 정보만을 포함하도록 디스플레이 될 수 있고, 반대로 축척 레벨이 임계 레벨보다 높아진 경우, 제 4 그래픽(250)은 보다 정보들을 포함하도록 디스플레이 될 수 있다. 이에 따라, 사용자 인터페이스가 지나치게 복잡해지는 것을 방지하고, 궁극적으로 사용자에게 보다 필요한 정보를 사용자가 쉽게 확인할 수 있는 사용자 인터페이스를 제공할 수 있다. In other words, for example, when the scale level is lower than the threshold level, the fourth graphic 250 may be displayed to include less information, conversely, when the scale level is higher than the threshold level, the fourth graphic 250 is more informational. can be displayed to include Accordingly, it is possible to prevent the user interface from becoming too complicated and ultimately provide a user interface through which the user can easily check information more necessary for the user.

한편, 제 4 그래픽(250)을 포함하는 제 5 레이어(350)는, 사용자 입력에 따라 디스플레이 되지 않을 수 있다. 이와 관련하여 다시 도 4를 참고하면, 제 5 레이어(350)의 디스플레이 여부에 관한 제어는, 예컨대 제어부(253)에 대한 사용자 입력에 따라 수행될 수 있다. 도 4는, 제어부(253)가 '풋 프린트 숨기기'및 '풋 트래픽 숨기기' 버튼을 포함하는 일례를 도시한다. 가령, '풋 프린트 숨기기' 버튼에 대한 선택 입력이 수신되는 경우, 제 5 레이어(350)는 디스플레이 되지 않을 수 있다. 또는, '풋 프린트 숨기기' 버튼에 대한 선택해제 입력이 수신되는 경우, 제 5 레이어(350)는 디스플레이 될 수 있다. 또는, '풋 프린트 숨기기'버튼에 대한 선택해제 입력이 수신되고, '풋 트래픽 숨기기' 버튼에 대한 선택 입력이 수신되는 경우, 제 1 이미지(210)의 축척 레벨과 무관하게, 제 4 그래픽은 촬영 지역의 경계에 관한 제 1 영상 정보(251)만을 포함하도록 디스플레이 될 수 있다. 전술한 예시들은 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다. Meanwhile, the fifth layer 350 including the fourth graphic 250 may not be displayed according to a user input. Referring back to FIG. 4 in this regard, control on whether the fifth layer 350 is displayed may be performed according to, for example, a user input to the controller 253 . 4 shows an example in which the control unit 253 includes 'hide footprint' and 'hide foot traffic' buttons. For example, when a selection input for a 'hide footprint' button is received, the fifth layer 350 may not be displayed. Alternatively, when a deselect input for the 'hide footprint' button is received, the fifth layer 350 may be displayed. Alternatively, when a deselect input for the 'hide footprint' button is received and a selection input for the 'hide foot traffic' button is received, regardless of the scale level of the first image 210, the fourth graphic is captured It may be displayed to include only the first image information 251 about the boundary of the region. The above-described examples are merely exemplary and do not limit the present disclosure.

제 6 레이어(360)는, 상술한 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함하는 종합 정보(260)를 디스플레이 할 수 있다. 프로세서(120)는, 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함하는 종합 정보(260)를 디스플레이 하도록 출력부(140)를 제어할 수 있다. 종합 정보(260)와 관련하여, 다시 도 4를 참고할 수 있다.The sixth layer 360 may display the comprehensive information 260 including information related to at least a portion of the first to fourth graphics described above. The processor 120 may control the output unit 140 to display the comprehensive information 260 including information related to at least a portion of the first graphic to the fourth graphic. Regarding the aggregate information 260 , reference may be made again to FIG. 4 .

도 4는, 종합 정보(260)가 제 1 이미지로부터 검출된 객체의 검출량(261)과 검출량 변동 추이(262)에 관한 정보, 즉 제 2 그래픽(230)과 연관되는 정보를 포함하도록 디스플레이 되는 일례를 도시한다. 구체적으로, 도 4의 종합 정보(260)는 제 1 시점부터 제 2 시점까지의 제 1 기간 동안의 전체 객체의 검출량에 관한 정보(도 4에서 '총 검출 객체'로 표기됨), 제 1 기간 동안의 각 객체 유형 별 객체의 검출량에 관한 정보(261, 도 4에서 각 객체 유형은 '최하위 레벨'로 표기됨), 그리고 제 1 기간보다 선행하는 제 2 기간 동안의 검출량과 비교하여 제 1 기간 동안의 검출량의 증감 여부에 관한 정보(262)를 포함한다. 4 is an example in which the comprehensive information 260 is displayed to include information related to the detection amount 261 and the detection amount change trend 262 of the object detected from the first image, that is, information related to the second graphic 230 . shows Specifically, the comprehensive information 260 of FIG. 4 includes information on the amount of detection of all objects during the first period from the first time point to the second time point (indicated as 'total detection objects' in FIG. 4), the first period Information on the detection amount of each object type for each object type during the period (261, each object type is denoted as 'lowest level' in FIG. 4), and the detection amount for the second period preceding the first period compared with the detection amount for the first period Information 262 on whether or not the detection amount is increased or decreased during the period is included.

특히, 검출량의 증감 여부에 관한 정보(262)는, 증감 여부를 사용자에게 전달할 수 있는 문자, 숫자, 기호, 또는 도형 등으로 구성되어 디스플레이 될 수 있다. 가령, 임의의 객체에 대하여 제 2 기간 동안의 검출량이 10이고, 제 1 기간 동안의 검출량이 17인 경우, 제 1 검출량과 제 2 검출량의 비교에 관한 정보(262)는 17(+7), 17(10), 17(+), 10 > 17, 또는 +7과 같이 디스플레이 될 수 있다. In particular, the information 262 on whether the detection amount is increased or decreased may be displayed by being composed of letters, numbers, symbols, or figures that can transmit whether the detection amount is increased or decreased to a user. For example, if the detection amount for the second period for an arbitrary object is 10 and the detection amount for the first period is 17, the information 262 about the comparison of the first detection amount and the second detection amount is 17 (+7), It can be displayed as 17(10), 17(+), 10 > 17, or +7.

다만 이에 한정되는 것은 아니며, 종합 정보(260)는 제 2 그래픽(230) 외에도 변화율에 관한 제 1 그래픽(220), 알림에 관한 제 3 그래픽(240) 및/또는 영상 정보에 관한 제 4 그래픽(250)과 연관되는 정보를 포함할 수 있다. However, it is not limited thereto, and the comprehensive information 260 includes, in addition to the second graphic 230 , the first graphic 220 about the rate of change, the third graphic 240 about the notification, and/or the fourth graphic ( 250) and related information.

예를 들어, 종합 정보(260)는 제 1 그래픽(220)과 연관되는 정보를 포함하는 경우, 예컨대 제 1 기간 동안의 평균 변화율 또는 최대 변화율에 관한 정보(즉, 평균 변화율의 값, 또는 최대 변화율이 탐지된 지역에 관한 정보 등), 또는 제 1 기간보다 선행하는 제 2 기간 동안의 평균 변화율 또는 최대 변화율과 비교하여 제 1 기간 동안의 평균 변화율 또는 최대 변화율의 증감 여부에 관한 정보를 포함할 수 있다. For example, when the aggregate information 260 includes information associated with the first graphic 220 , for example, information about an average rate of change or a maximum rate of change during the first period (ie, a value of an average rate of change, or a maximum rate of change) information about this detected area, etc.), or whether the average rate of change or the maximum rate of change during the first period has increased or decreased compared to the average rate of change or the maximum rate of change for a second period preceding the first period. have.

또는, 종합 정보(260)는, 제 3 그래픽(240)과 연관되는 정보를 포함하는 경우, 예컨대 제 1 기간 동안의 알림 발생 총 횟수에 관한 정보, 제 1 기간 동안 발생한 알림의 알림 수준 별 횟수에 관한 정보, 제 1 기간 동안 발생한 알림과 대응되는 객체 또는 변화율에 관한 정보(즉, 알림 발생 조건을 만족한 객체의 유형, 검출 지역, 검출량에 관한 정보, 또는 알림 발생 조건을 만족한 변화율의 탐지 지역에 관한 정보 등)에 관한 정보를 포함할 수 있다. Alternatively, when the comprehensive information 260 includes information related to the third graphic 240 , for example, information about the total number of notifications generated during the first period, the number of notifications generated during the first period per notification level information, information on the object or change rate corresponding to the alert generated during the first period (ie, the type of object that satisfies the alert generating condition, the detection area, the detection amount, or the detection area of the change rate satisfying the alert generating condition) information, etc.) may be included.

또는, 종합 정보(260)는, 제 4 그래픽(250)과 연관되는 정보를 포함하는 경우, 예컨대 수신된 영상의 촬영 지역에 관한 정보(지명, 좌표 등), 또는 영상의 촬영 주체인 위성의 식별 정보(위성의 명칭 등)에 관한 정보를 포함할 수 있다. 전술한 예시는 일 예시에 불과할 뿐, 본 개시를 제한하지 않는다. Alternatively, when the comprehensive information 260 includes information related to the fourth graphic 250 , for example, information about a photographing area of a received image (name, coordinates, etc.), or identification of a satellite that is a photographing subject of the image It may include information about information (names of satellites, etc.). The above-described example is merely an example, and does not limit the present disclosure.

한편 여기서 제 1 기간은, 오늘 0시부터 현재 시점까지의 기간일 수 있다. 즉, 오늘 0시부터 현재 시점까지의 기간동안 획득된 판독 데이터가 제 1 그래픽 내지 제 4 그래픽 중 하나 이상을 통하여 디스플레이 될 수 있고, 이와 연동하여 종합 정보(260)는 오늘 0시부터 현재 시점까지의 기간동안 디스플레이 된 판독 데이터인 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함할 수 있다.Meanwhile, the first period may be a period from 0 o'clock today to the present time. That is, the read data acquired during the period from today's 0 o'clock to the current time point may be displayed through one or more of the first to fourth graphics, and in conjunction with this, the comprehensive information 260 is displayed from today's 0 o'clock to the current time point. may include information associated with at least a portion of the first to fourth graphics that are read data displayed during the period of .

다만 이에 한정되는 것은 아니며, 제 1 기간은 사용자 입력에 따라 임의의 기간으로 설정될 수 있다. 가령 상술한 기간 관련 제어부(204)에 대한 사용자 입력에 따라, 제 1 시점(도 4에서 '시작일'로 표기됨)부터 제 2 시점(도 4에서 '종료일'로 표기됨)까지의 제 1 기간동안 획득된 판독 데이터가 제 1 그래픽 내지 제 4 그래픽 중 하나 이상을 통하여 디스플레이 될 수 있고, 이와 연동하여 종합 정보(260)는 제 1 기간동안 디스플레이 된 판독 데이터인 제 1 그래픽 내지 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함할 수 있다.However, the present invention is not limited thereto, and the first period may be set to an arbitrary period according to a user input. For example, according to a user input to the aforementioned period-related control unit 204, a first period from a first time point (indicated as 'start date' in FIG. 4) to a second time point (indicated as 'end date' in FIG. 4) The read data acquired during the period may be displayed through one or more of the first graphic to the fourth graphic, and in conjunction therewith, the comprehensive information 260 is at least one of the first graphic to the fourth graphic which is the read data displayed during the first period. It may include information associated with some.

한편 제 2 기간은, 상술한 제 1 기간보다 선행하는 기간일 수 있다. 예컨대, 제 1 기간이 오늘 0시부터 현재 시점(예를 들어, 14시)까지의 기간인 경우, 제 2 기간은 전일 0시부터 24시까지의 기간이거나, 전일 0시부터 14시까지의 기간이거나, 실시간 모니터링 개시 시점부터 전일 24시까지의 기간이거나, 또는 이 밖에 사용자가 지정한 임의의 기간일 수 있다. 이 경우, 종합 정보(260)는, 예컨대 전일 0시부터 14시까지의 객체 검출량과 비교하여, 당일 0시부터 14시까지의 검출량이 증가하였는지, 또는 감소하였는지에 대한 정보(252)를 디스플레이 할 수 있다. Meanwhile, the second period may be a period preceding the above-described first period. For example, if the first period is a period from 00:00 today to the present time (eg, 14:00), the second period is a period from 00:00 to 24:00 of the previous day, or a period from 00:00 to 14:00 of the previous day, It may be a period from the start of real-time monitoring to 24 hours the day before, or any other period designated by the user. In this case, the comprehensive information 260 may display, for example, information 252 on whether the detection amount from 0 o'clock to 14:00 on the day increased or decreased compared with the detection amount of the object from 0 o'clock to 14:00 of the previous day.

도 12는 본 개시의 일 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 제공하기 위한 순서도이다.12 is a flowchart for providing a user interface for real-time monitoring according to an embodiment of the present disclosure.

컴퓨팅 장치(100)는 지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어를 디스플레이 할 수 있다(단계 S110). The computing device 100 may display a first layer, which displays a first image including geographic information (step S110).

컴퓨팅 장치(100)는 사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드인 제 1 그래픽을 디스플레이 하고, 하나 이상의 타일들 각각이 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어를 디스플레이 할 수 있다(단계 S120). The computing device 100 displays a first graphic that is a grid including one or more tiles displayed in a preset size, and displays a second graphic such that each of the one or more tiles indicates a rate of change of a corresponding area in the first image. A layer may be displayed (step S120).

본 개시의 일 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스는, 실시간 모니터링을 제공하는 로직에 의해 구현될 수 있다.The user interface for real-time monitoring according to an embodiment of the present disclosure may be implemented by logic providing real-time monitoring.

전술한 실시간 모니터링을 제공하는 로직은, 그와 대응되는 모듈, 회로 또는 수단에 의해 구현될 수도 있다.The logic for providing the real-time monitoring described above may be implemented by a module, circuit or means corresponding thereto.

이와 같은 본 개시의 일 실시예에 따른 실시간 모니터링을 위한 사용자 인터페이스를 제공하기 위한 컴퓨팅 장치(100), 제 1 레이어(310), 및 제 2 레이어(320)의 자세한 설명은 도 1 내지 12를 참조하여 전술한 내용으로 대체될 수 있으며, 전술한 내용에 기초하여 실시간 모니터링을 위한 사용자 인터페이스를 제공하기 위한 방법은 단계별로 내용이 추가, 수정, 삭제가 될 수 있다.For detailed descriptions of the computing device 100 , the first layer 310 , and the second layer 320 for providing a user interface for real-time monitoring according to an embodiment of the present disclosure, refer to FIGS. 1 to 12 . Therefore, it can be replaced with the above-mentioned contents, and the method for providing a user interface for real-time monitoring based on the above-described contents can be added, modified, or deleted step by step.

도 13은 본 개시의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도이다.13 is a simplified, general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

본 개시가 일반적으로 컴퓨팅 장치에 의해 구현될 수 있는 것으로 전술되었지만, 당업자라면 본 개시가 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어 및/또는 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로써 구현될 수 있다는 것을 잘 알 것이다.Although the present disclosure has been described above generally as being capable of being implemented by a computing device, those skilled in the art will appreciate that the present disclosure is a combination of hardware and software and/or in combination with computer-executable instructions and/or other program modules that may be executed on one or more computers. It will be appreciated that it can be implemented as a combination.

일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드(handheld) 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, those skilled in the art will appreciate that the methods of the present disclosure can be applied to single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, and the like. It will be appreciated that each of these may be implemented in other computer system configurations, including operable in conjunction with one or more associated devices.

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computers typically include a variety of computer-readable media. Any medium accessible by a computer can be a computer-readable medium, and such computer-readable media includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-transitory media. including removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media. Computer-readable storage media includes volatile and non-volatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media. A computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터 등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data, etc. in a modulated data signal such as a carrier wave or other transport mechanism, and Includes any information delivery medium. The term modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An example environment 1100 implementing various aspects of the disclosure is shown including a computer 1102 , the computer 1102 including a processing unit 1104 , a system memory 1106 , and a system bus 1108 . do. The system bus 1108 couples system components, including but not limited to system memory 1106 , to the processing device 1104 . The processing device 1104 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 1104 .

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may further be interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read only memory (ROM) 1110 and random access memory (RAM) 1112 . A basic input/output system (BIOS) is stored in non-volatile memory 1110, such as ROM, EPROM, EEPROM, etc., which is the basic input/output system (BIOS) that helps transfer information between components within computer 1102, such as during startup. contains routines. RAM 1112 may also include high-speed RAM, such as static RAM, for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 may also be configured with an internal hard disk drive (HDD) 1114 (eg, EIDE, SATA) - this internal hard disk drive 1114 may also be configured for external use within a suitable chassis (not shown). Yes-, magnetic floppy disk drive (FDD) 1116 (eg, for reading from or writing to removable diskette 1118), and optical disk drive 1120 (eg, CD-ROM) for reading from, or writing to, disk 1122, or other high capacity optical media such as DVD. The hard disk drive 1114 , the magnetic disk drive 1116 , and the optical disk drive 1120 are connected to the system bus 1108 by the hard disk drive interface 1124 , the magnetic disk drive interface 1126 , and the optical drive interface 1128 , respectively. ) can be connected to The interface 1124 for external drive implementation includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer-readable media provide non-volatile storage of data, data structures, computer-executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of computer readable media above refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, etc. It will be appreciated that other tangible computer-readable media such as etc. may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure.

운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in the drive and RAM 1112 , including an operating system 1130 , one or more application programs 1132 , other program modules 1134 , and program data 1136 . All or portions of the operating system, applications, modules, and/or data may also be cached in RAM 1112 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into the computer 1102 via one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140 . Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are often connected to the processing unit 1104 through an input device interface 1142 that is connected to the system bus 1108, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also coupled to the system bus 1108 via an interface, such as a video adapter 1146 . In addition to the monitor 1144, the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communications. Remote computer(s) 1148 may be workstations, computing device computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are typically connected to computer 1102 . Although it includes many or all of the components described for it, only memory storage device 1150 is shown for simplicity. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, eg, a wide area network (WAN) 1154 . Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 through a wired and/or wireless communication network interface or adapter 1156 . Adapter 1156 may facilitate wired or wireless communication to LAN 1152 , which also includes a wireless access point installed therein for communicating with wireless adapter 1156 . When used in a WAN networking environment, the computer 1102 may include a modem 1158, be connected to a communication computing device on the WAN 1154, or establish communications over the WAN 1154, such as over the Internet. have other means. A modem 1158 , which may be internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142 . In a networked environment, program modules described for computer 1102 , or portions thereof, may be stored in remote memory/storage device 1150 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, printers, scanners, desktop and/or portable computers, portable data assistants (PDAs), communications satellites, wireless detectable tags. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a, b, g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) makes it possible to connect to the Internet, etc. without a wire. Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station. Wi-Fi networks use a radio technology called IEEE 802.11 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example, at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). .

본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.One of ordinary skill in the art of this disclosure will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, instructions, information, signals, bits, symbols and chips that may be referenced in the above description are voltages, currents, electromagnetic waves, magnetic fields or particles, optical fields particles or particles, or any combination thereof.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 소프트웨어로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as software) or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 제조 물품은 임의의 컴퓨터-판독가능 저장장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term article of manufacture includes a computer program, carrier, or media accessible from any computer-readable storage device. For example, computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.). Also, various storage media presented herein include one or more devices and/or other machine-readable media for storing information.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on design priorities, it is understood that the specific order or hierarchy of steps in the processes may be rearranged within the scope of the present disclosure. The appended method claims present elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (16)

컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행되는 경우 실시간 모니터링을 위한 사용자 인터페이스를 제공하며, 상기 사용자 인터페이스는,
지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어;
사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)를 포함하는 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어; 및
상기 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는, 제 3 레이어;
를 포함하고,
상기 제 2 그래픽은,
제 1 엔티티를 포함하는 엔티티들(entities)로 구성되고, 상기 제 1 엔티티의 색상은, 상기 객체 중 적어도 일부이며 상기 제 1 엔티티에 대응되는 제 1 객체의 검출 시점인 제 1 검출 시점이 임계 시점보다 후행하는 경우에 시각적으로 강조되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable storage medium, wherein the computer program provides a user interface for real-time monitoring when executed by one or more processors of a computing device, the user interface comprising:
a first layer displaying a first image including geographic information;
displaying a first graphic including a grid including one or more tiles displayed in a preset size, each of the one or more tiles indicating a rate of change of a corresponding area in the first image, 2 layers; and
a third layer for displaying a second graphic corresponding to each detected object by inputting the first image into one or more object detection algorithms;
including,
The second graphic is
It is composed of entities including a first entity, and the color of the first entity is at least a part of the object, and a first detection time, which is a detection time of a first object corresponding to the first entity, is a critical time. Visually emphasized in the following cases,
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 하나 이상의 타일들의 상기 사전 설정된 크기는,
상기 제 1 이미지에 표시되는 지리적 정보의 축척 레벨과 무관하게 고정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
the preset size of the one or more tiles,
fixed irrespective of the scale level of geographic information displayed in the first image;
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 하나 이상의 타일들 중 어느 하나인 제 1 타일의 색상은,
상기 제 1 타일과 대응되는 상기 제 1 이미지 내의 영역인 제 1 영역의 상기 변화율에 적어도 기초하여 결정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The color of the first tile, which is any one of the one or more tiles,
determined based at least on the rate of change of a first area that is an area in the first image corresponding to the first tile;
A computer program stored on a computer-readable storage medium.
제 3항에 있어서,
상기 변화율은,
하나 이상의 변화율 구간을 포함하며, 상기 하나 이상의 변화율 구간 각각에는 서로 상이한 색상 속성이 할당되고,
상기 제 1 타일의 색상은,
상기 제 1 영역의 상기 변화율의 최대값이 포함되는 상기 하나 이상의 변화율 구간에 할당된 상기 색상 속성에 기초하여 결정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
4. The method of claim 3,
The rate of change is
one or more rate-of-change intervals, wherein different color properties are assigned to each of the one or more rate-of-change intervals;
The color of the first tile is
determined based on the color attribute assigned to the one or more rate-of-change sections including the maximum value of the rate of change of the first region;
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 제 1 엔티티는, 상기 제 1 객체가 검출된 위치를 가이드하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The first entity guides the location where the first object is detected,
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 제 1 엔티티의 크기는,
상기 제 1 객체에 포함된 상기 객체의 개수에 적어도 기초하여 결정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The size of the first entity is,
is determined based on at least the number of the objects included in the first object,
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 제 1 엔티티의 색상은,
상기 제 1 객체와 연관되는 제 1 객체 검출 알고리즘에 추가적으로 기초하여 결정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The color of the first entity is,
determined further based on a first object detection algorithm associated with the first object;
A computer program stored on a computer-readable storage medium.
제 7항에 있어서,
상기 제 1 엔티티의 색상은,
상기 제 1 이미지를 상기 제 1 객체 검출 알고리즘에 입력하여 검출된 제 2 객체에 대응되는 제 2 엔티티의 색상과 대응되는 색상 계열을 가지는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
8. The method of claim 7,
The color of the first entity is,
having a color series corresponding to a color of a second entity corresponding to a second object detected by inputting the first image into the first object detection algorithm;
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 제 3 레이어는,
상기 제 1 엔티티가 상기 엔티티들 중 적어도 일부인 제 3 엔티티와 임계치 미만의 간격을 가지는 경우, 그리고 사전 설정된 클러스터링 조건을 만족하는 경우에, 상기 제 1 엔티티 및 상기 제 3 엔티티를 대체하여, 상기 제 1 엔티티 및 상기 제 3 엔티티를 기초로 생성된 클러스터링된(clustered) 엔티티를 디스플레이 하고,
상기 사전 설정된 클러스터링 조건은,
상기 제 1 객체와 연관되는 제 1 객체 검출 알고리즘과, 상기 제 3 엔티티에 대응되는 제 3 객체와 연관되는 제 3 객체 검출 알고리즘이 서로 대응되는지 여부, 그리고 상기 제 1 객체 및 상기 제 3 객체 중 적어도 하나의 검출 시점이 임계 시점보다 후행하는지 여부 중 적어도 하나를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The third layer is
If the first entity has a distance less than a threshold from a third entity that is at least some of the entities, and if a preset clustering condition is satisfied, replace the first entity and the third entity, the first entity Display an entity and a clustered entity generated based on the third entity,
The preset clustering condition is
Whether a first object detection algorithm associated with the first object and a third object detection algorithm associated with a third object corresponding to the third entity correspond to each other, and at least one of the first object and the third object at least one of whether one detection time point lags a threshold time point;
A computer program stored on a computer-readable storage medium.
제 9항에 있어서,
상기 클러스터링된 엔티티는,
상기 제 1 객체 검출 알고리즘과 상기 제 3 객체 검출 알고리즘이 서로 대응되고, 그리고 상기 제 1 객체 및 상기 제 3 객체의 상기 검출 시점이 모두 상기 임계 시점보다 선행하는 경우에 디스플레이 되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
10. The method of claim 9,
The clustered entity is
Displayed when the first object detection algorithm and the third object detection algorithm correspond to each other, and both the detection times of the first object and the third object precede the threshold time,
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 사용자 인터페이스는,
상기 객체 또는 상기 변화율 중 적어도 하나가 알림 발생 조건을 만족하는 경우, 상기 객체 또는 상기 변화율에 관한 알림을 디스플레이 하도록 허용되는, 제 4 레이어;
를 더 포함하고,
상기 알림 발생 조건은,
상기 객체의 검출 지역에 관한 조건, 상기 객체의 유형에 관한 조건, 상기 객체의 검출량에 관한 조건, 상기 변화율이 탐지되는 지역에 관한 조건, 및 상기 변화율의 변동에 관한 조건 중 적어도 하나를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user interface is
a fourth layer that is allowed to display a notification regarding the object or the rate of change when at least one of the object or the rate of change satisfies a condition for generating a notification;
further comprising,
The conditions for generating the notification are:
At least one of a condition related to the detection area of the object, a condition related to the type of the object, a condition related to the detection amount of the object, a condition related to an area in which the change rate is detected, and a condition related to a change of the change rate,
A computer program stored on a computer-readable storage medium.
제 11항에 있어서,
상기 알림은,
상기 알림 발생 조건을 만족하는 객체가 검출된 위치 또는 상기 알림 발생 조건을 만족하는 변화율이 탐지된 위치 중 적어도 하나를 가이드 하는 상기 사용자 인터페이스 내의 위치에, 둘 이상의 알림 수준 중 어느 하나의 수준을 시각적으로 나타내는 제 3 그래픽을 디스플레이 하는 것을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
12. The method of claim 11,
The notification is
Any one of two or more notification levels is visually displayed at a location in the user interface that guides at least one of a location where an object satisfying the notification generation condition is detected or a location where a change rate satisfying the notification generation condition is detected. displaying a third graphic representing
A computer program stored on a computer-readable storage medium.
제 1항에 있어서,
상기 사용자 인터페이스는,
상기 컴퓨팅 장치로 수신된 영상의 촬영 지역과 대응되는, 상기 제 1 이미지 내 영역에 제 4 그래픽을 디스플레이 하는, 제 5 레이어;
를 더 포함하고,
상기 제 4 그래픽은,
상기 제 1 이미지의 축척 레벨에 적어도 기초하여, 상기 촬영 지역의 경계에 관한 제 1 영상 정보, 상기 영상의 촬영 주체에 관한 제 2 영상 정보, 및 상기 영상의 촬영 일시에 관한 제 3 영상 정보 중 적어도 하나를 포함하도록 결정되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user interface is
a fifth layer for displaying a fourth graphic in an area within the first image corresponding to a capturing area of the image received by the computing device;
further comprising,
The fourth graphic is
Based on at least the scale level of the first image, at least one of first image information about the boundary of the photographing area, second image information about the subject of the image, and third image information about the capture date and time of the image determined to include one,
A computer program stored on a computer-readable storage medium.
제 13항에 있어서,
상기 사용자 인터페이스는,
종합 정보를 디스플레이 하는 제 6 레이어를 더 포함하고,
상기 종합 정보는,
상기 제 1 그래픽 내지 상기 제 4 그래픽 중 적어도 일부와 연관되는 정보를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
14. The method of claim 13,
The user interface is
Further comprising a sixth layer for displaying the aggregate information,
The general information is
comprising information associated with at least a portion of the first graphic to the fourth graphic,
A computer program stored on a computer-readable storage medium.
사용자 단말에서 실시간 모니터링을 위한 사용자 인터페이스를 표시하는 방법으로서,
지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어를 디스플레이 하는 단계;
사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어를 디스플레이 하는 단계; 및
상기 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는, 제 3 레이어를 디스플레이 하는 단계;
를 포함하고,
상기 제 2 그래픽은,
제 1 엔티티를 포함하는 엔티티들(entities)로 구성되고, 상기 제 1 엔티티의 색상은, 상기 객체 중 적어도 일부이며 상기 제 1 엔티티에 대응되는 제 1 객체의 검출 시점인 제 1 검출 시점이 임계 시점보다 후행하는 경우에 시각적으로 강조되는,
사용자 단말에서 실시간 모니터링을 위한 사용자 인터페이스를 표시하는 방법.
A method of displaying a user interface for real-time monitoring in a user terminal, comprising:
displaying a first layer, displaying a first image including geographic information;
A second layer that displays a first graphic that is a grid including one or more tiles displayed in a preset size, and displays each of the one or more tiles to indicate a rate of change of a corresponding area in the first image. displaying; and
displaying a third layer by inputting the first image into one or more object detection algorithms to display a second graphic corresponding to each detected object;
including,
The second graphic is
It is composed of entities including a first entity, and the color of the first entity is at least a part of the object, and a first detection time, which is a detection time of a first object corresponding to the first entity, is a critical time. Visually emphasized in the following cases,
A method of displaying a user interface for real-time monitoring in a user terminal.
사용자 단말로서,
하나 이상의 코어를 포함하는 프로세서;
메모리; 및
사용자 인터페이스를 제공하는 출력부;
를 포함하고,
상기 사용자 인터페이스는,
지리적 정보를 포함하는 제 1 이미지를 디스플레이 하는, 제 1 레이어;
사전 설정된 크기로 표시되는 하나 이상의 타일들을 포함하는 그리드(Grid)인 제 1 그래픽을 디스플레이 하고, 상기 하나 이상의 타일들 각각이 상기 제 1 이미지 내의 대응되는 영역의 변화율을 나타내도록 디스플레이 하는, 제 2 레이어; 및
상기 제 1 이미지를 하나 이상의 객체 검출 알고리즘에 입력하여 검출되는 객체 각각에 대응되는 제 2 그래픽을 디스플레이 하는, 제 3 레이어;
를 포함하고,
상기 제 2 그래픽은,
제 1 엔티티를 포함하는 엔티티들(entities)로 구성되고, 상기 제 1 엔티티의 색상은, 상기 객체 중 적어도 일부이며 상기 제 1 엔티티에 대응되는 제 1 객체의 검출 시점인 제 1 검출 시점이 임계 시점보다 후행하는 경우에 시각적으로 강조되는,
사용자 단말.


As a user terminal,
a processor including one or more cores;
Memory; and
an output unit providing a user interface;
including,
The user interface is
a first layer displaying a first image including geographic information;
A second layer that displays a first graphic that is a grid including one or more tiles displayed in a preset size, and displays each of the one or more tiles to indicate a rate of change of a corresponding area in the first image. ; and
a third layer for displaying a second graphic corresponding to each detected object by inputting the first image into one or more object detection algorithms;
including,
The second graphic is
It is composed of entities including a first entity, and the color of the first entity is at least a part of the object, and a first detection time, which is a detection time of a first object corresponding to the first entity, is a critical time. Visually emphasized in the following cases,
user terminal.


KR1020210032219A 2021-03-11 2021-03-11 User interface for real-time monitoring KR102317854B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210032219A KR102317854B1 (en) 2021-03-11 2021-03-11 User interface for real-time monitoring
KR1020210139983A KR20220127730A (en) 2021-03-11 2021-10-20 User interface for real-time monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210032219A KR102317854B1 (en) 2021-03-11 2021-03-11 User interface for real-time monitoring

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210139983A Division KR20220127730A (en) 2021-03-11 2021-10-20 User interface for real-time monitoring

Publications (1)

Publication Number Publication Date
KR102317854B1 true KR102317854B1 (en) 2021-10-26

Family

ID=78268450

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210032219A KR102317854B1 (en) 2021-03-11 2021-03-11 User interface for real-time monitoring
KR1020210139983A KR20220127730A (en) 2021-03-11 2021-10-20 User interface for real-time monitoring

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210139983A KR20220127730A (en) 2021-03-11 2021-10-20 User interface for real-time monitoring

Country Status (1)

Country Link
KR (2) KR102317854B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090036400A (en) * 2007-10-09 2009-04-14 삼성테크윈 주식회사 Searching system for image and the method of the same
JP2013152689A (en) * 2011-12-27 2013-08-08 Aisin Aw Co Ltd Input system
KR20190029610A (en) * 2016-08-24 2019-03-20 구글 엘엘씨 Image acquisition system based on change detection
KR20200087079A (en) 2017-11-22 2020-07-20 구글 엘엘씨 Dynamic change of visual properties of markers on digital map

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090036400A (en) * 2007-10-09 2009-04-14 삼성테크윈 주식회사 Searching system for image and the method of the same
JP2013152689A (en) * 2011-12-27 2013-08-08 Aisin Aw Co Ltd Input system
KR20190029610A (en) * 2016-08-24 2019-03-20 구글 엘엘씨 Image acquisition system based on change detection
KR20200087079A (en) 2017-11-22 2020-07-20 구글 엘엘씨 Dynamic change of visual properties of markers on digital map

Also Published As

Publication number Publication date
KR20220127730A (en) 2022-09-20

Similar Documents

Publication Publication Date Title
US11501572B2 (en) Object behavior anomaly detection using neural networks
US11468636B2 (en) 3D hand shape and pose estimation
KR102585877B1 (en) method and device for adjusting an image
US20190279345A1 (en) Method for correcting image by device and device therefor
US10937141B2 (en) Deep learning based image comparison device, method and computer program stored in computer readable medium
US11694334B2 (en) Segmenting objects in vector graphics images
EP4088226A1 (en) Radioactive data generation
KR102455875B1 (en) Method and apparatus for bone age assessment
US11803177B1 (en) Method and apparatus for detecting anomaly data
CN114445667A (en) Image detection method and method for training image detection model
CN108154153A (en) Scene analysis method and system, electronic equipment
KR102402194B1 (en) Deep learning based end-to-end o-ring defect inspection method
KR102500258B1 (en) Method for detecting anomaly of product
KR20210107559A (en) Method to identify label
KR102317854B1 (en) User interface for real-time monitoring
CN114219946B (en) Text image binarization method and device, electronic equipment and medium
KR102247245B1 (en) Method to generate label
KR20220050014A (en) User interface for video analysis
KR102317855B1 (en) User interface for project analysis
KR102366382B1 (en) User interface for editing and automatic evaluation
KR102569976B1 (en) Method for processing medical image
US20230316470A1 (en) Method for correcting image by device and device therefor
KR102322600B1 (en) Method to display data
US20240078163A1 (en) Systems and methods for visualizing machine intelligence
KR102410404B1 (en) Smart mirror using under display camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant