KR102567496B1 - Control system including neural network that learns visual objects - Google Patents

Control system including neural network that learns visual objects Download PDF

Info

Publication number
KR102567496B1
KR102567496B1 KR1020220145922A KR20220145922A KR102567496B1 KR 102567496 B1 KR102567496 B1 KR 102567496B1 KR 1020220145922 A KR1020220145922 A KR 1020220145922A KR 20220145922 A KR20220145922 A KR 20220145922A KR 102567496 B1 KR102567496 B1 KR 102567496B1
Authority
KR
South Korea
Prior art keywords
electronic device
information
processor
area
display
Prior art date
Application number
KR1020220145922A
Other languages
Korean (ko)
Inventor
안희석
Original Assignee
안희석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안희석 filed Critical 안희석
Priority to KR1020220145922A priority Critical patent/KR102567496B1/en
Application granted granted Critical
Publication of KR102567496B1 publication Critical patent/KR102567496B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4753End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a control system. The control system comprises: at least one display; a first processor controlling the at least one display to divide the at least one display into a plurality of zones; a first electronic device comprising a first communication circuit configured to be connected to other electronic devices through a neural network and a network; a second processor; and a second electronic device comprising a second communication circuit configured to be connected to the first electronic device via the network. The first processor may be configured to receive information processed through the second processor; display the received information on one zone designated among the plurality of zones; based on the received information, identify, through the neural network, first information processed with the high frequency through the second processor or second information recently processed; identify the access to the network through the second communication circuit; and in response to the identification, display the first information or the second information on the designated one zone. Other embodiments may be provided. The control system aims to provide a user environment according to the histories of users accessing the video wall.

Description

시각적 객체를 학습하는 뉴럴네트워크를 포함하는 관제 시스템{CONTROL SYSTEM INCLUDING NEURAL NETWORK THAT LEARNS VISUAL OBJECTS}Control system including neural network learning visual objects {CONTROL SYSTEM INCLUDING NEURAL NETWORK THAT LEARNS VISUAL OBJECTS}

다양한 실시예들은, 시각적 객체를 학습하는 뉴럴네트워크를 포함하는 관제 시스템에 관한 것이다. Various embodiments relate to a control system including a neural network learning a visual object.

관제 시스템이 활용되는 비디오 월은, 복수의 디스플레이들이 연결된 형태의 대형 디스플레이 패널을 의미할 수 있다. 비디오 월을 포함하는 시스템은, 대형 화면으로 영상을 표시할 수 있어, 범죄 예방, 증거 수집, 재난 예방 등을 목적으로 하는 관제 시스템 등에 활용될 수 있다.A video wall in which a control system is utilized may refer to a large display panel in which a plurality of displays are connected. A system including a video wall can display images on a large screen, and thus can be used in a control system for purposes such as crime prevention, evidence collection, and disaster prevention.

비디오 월은, 대형 디스플레이 패널을 이용하고 있어, 다양한 정보를 제공할 수 있다. 비디오 월에서 제공하는 대형 디스플레이 패널을 활용하는 관제 시스템은, 복수의 사용자가 접속하여, 사용자의 업무를 수행할 수 있다. 대형 디스플레이를 포함하는 관제 시스템은, 비디오 월에 접속하는 사용자의 히스토리에 따른, 사용자 환경을 제공하고자 한다.The video wall uses a large display panel and can provide various information. A control system utilizing a large display panel provided by a video wall allows a plurality of users to access and perform user tasks. A control system including a large display seeks to provide a user environment according to a user's history accessing a video wall.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved in this document is not limited to the technical problem mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

일 실시예에 따르면, 관제 시스템은, 적어도 하나의 디스플레이, 상기 적어도 하나의 디스플레이를 복수의 영역들(zones)로 분할하도록 제어하는 제1 프로세서, 뉴럴 네트워크 및 네트워크를 통해 다른 전자 장치와 연결되도록 구성되는 제1 통신 회로를 포함하는 제1 전자 장치와, 제2 프로세서 및 상기 제1 전자 장치와 상기 네트워크를 통해 연결되도록 구성되는 제2 통신 회로를 포함하는 제2 전자 장치를 포함할 수 있다. 일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 프로세서를 통해 처리되는 정보들을 수신하고, 상기 수신된 정보를 상기 복수의 영역들 중 지정된 하나의 영역에 표시하고, 상기 수신된 정보들을 바탕으로, 상기 뉴럴 네트워크를 통해, 상기 제2 프로세서를 통해 처리되는 빈도가 높은 제1 정보 또는 최근 처리되는 제2 정보를 식별하고, 상기 제2 통신 회로를 통해 상기 네트워크에 접속함을 식별하고, 상기 식별에 응답하여, 상기 지정된 하나의 영역 상에, 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다. According to an embodiment, the control system is configured to be connected to at least one display, a first processor controlling the at least one display to be divided into a plurality of zones, a neural network, and other electronic devices through the network. and a second electronic device including a second communication circuit configured to be connected to a second processor and the first electronic device through the network. According to an embodiment, the first processor receives information processed through the second processor, displays the received information in a designated one area among the plurality of areas, and based on the received information In this way, through the neural network, first information that is frequently processed through the second processor or second information that is recently processed is identified, and access to the network is identified through the second communication circuit, In response to the identification, the first information or the second information may be displayed on the designated one area.

일 실시예에 따르면, 전자 장치를 포함하는 관제 시스템의 방법은, 다른 전자 장치의 프로세서를 통해 처리되는 정보를 수신하고, 상기 수신된 정보를 적어도 하나의 디스플레이에 분할된 복수의 영역들 중 지정된 하나의 영역에 표시하고, 상기 수신된 정보들을 바탕으로, 뉴럴 네트워크를 통해, 상기 다른 전자 장치의 프로세서를 통해 처리되는 빈도가 높은 제1 정보 또는 최근 처리되는 제2 정보를 식별하고, 상기 다른 전자 장치가 상기 전자 장치와 연결된 네트워크에 접속함을 식별하고, 상기 식별에 응답하여, 상기 지정된 하나의 영역 상에, 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다.According to an embodiment, a method of a control system including an electronic device receives information processed through a processor of another electronic device, and transmits the received information to a designated one of a plurality of areas divided on at least one display. In the area of, based on the received information, first information that is frequently processed through a neural network or processor of the other electronic device or second information that is recently processed is identified, and the other electronic device may be configured to identify access to a network connected to the electronic device, and display the first information or the second information on the designated area in response to the identification.

일 실시예에 따른, 뉴럴 네트워크 또는 가상 환경(예: 메타 버스)을 활용한 관제 시스템은, 사용자들 각각에 대응되는 사용자 환경을 제공함으로써, 비디오 월(대형 디스플레이) 내의 분할된 영역에서, 작업을 수행할 수 있다. 각각의 분할된 영역은, 사용자에 따라 별도의 환경을 제공할 수 있다. 관제 시스템은, 가상 환경 내에서 구현됨에 따라, 시간적 제약 또는 공간적 제약을 극복할 수 있다. According to an embodiment, a control system using a neural network or a virtual environment (eg, a meta bus) provides a user environment corresponding to each user to perform tasks in a divided area within a video wall (large display). can be done Each divided area may provide a separate environment according to the user. As the control system is implemented in a virtual environment, it can overcome temporal or spatial limitations.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.

도 1은, 다양한 실시예들에 따른 관제 시스템의 블록도이다.
도 2는, 일 실시예에 따른 전자 장치가 메모리 내에 저장된 파라미터들의 집합으로부터 획득하는 뉴럴 네트워크를 설명하기 위한 예시적인 도면이다.
도 3은, 일 실시예에 따른 복수의 영역들을 사용하는 관제시스템의 디스플레이의 일 예를 도시한다.
도 4는, 일 실시예에 따른, 각기 다른 작업을 하는 사용자의 예시를 나타내는 도면이다.
도 5는, 일 실시예에 따른, 각각의 영역에서의 작업의 독립성을 예시적으로 나타내는 도면이다.
도 6는, 일 실시예에 따른, 복수의 영역들 중 일부 영역들에 접근 가능한 사용자의 작업을 예시적으로 나타내는 도면이다.
도 7a, 도 7b 및 도 7c는, 일 실시예에 따른, 외부 전자 장치를 활용하여, 가상 관제시스템에 접속하여, 관제 시스템을 제어하는 것을 예시적으로 나타내는 도면이다.
1 is a block diagram of a control system according to various embodiments.
2 is an exemplary diagram for explaining a neural network obtained by an electronic device from a set of parameters stored in a memory according to an exemplary embodiment.
3 illustrates an example of a display of a control system using a plurality of regions according to an exemplary embodiment.
4 is a diagram illustrating examples of users performing different tasks, according to an exemplary embodiment.
5 is a diagram illustratively illustrating independence of work in each area according to an embodiment.
6 is a diagram illustrating an example of a user's work accessible to some areas among a plurality of areas, according to an exemplary embodiment.
7A, 7B, and 7C are diagrams illustrating exemplarily controlling a control system by accessing a virtual control system by utilizing an external electronic device, according to an embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only illustrated for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention These may be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can apply various changes and can have various forms, so the embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosures, and includes modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다. Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component, Similarly, the second component may also be referred to as the first component.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these examples. Like reference numerals in each figure indicate like elements.

도 1은, 다양한 실시예들에 따른 관제 시스템의 블록도이다. 1 is a block diagram of a control system according to various embodiments.

도 1을 참조하면, 관제 시스템(100)은, 지역 내 치안 및/또는 안전을 유지하기 위하여 CCTV를 포함하는 카메라들로부터 정보를 획득할 수 있다. 관제 시스템(100)은, 건물의 유지 보수 또는 공장의 제품 제조 공정을 모니터링 하기 위하여 건물 또는 공장에 설치된 카메라들로부터 정보를 획득할 수 있다. 상기 관제 시스템(100)을 이용하는 사용자들이 디스플레이(150)를 모니터링하고, 모니터링 결과에 기반하여 액션을 수행할 수 있다. 상기 액션은, 구조대 호출, 긴급 방송, 공정 수정 또는 유지 보수를 포함할 수 있다. 관제 시스템(100)은, 관제 시스템(100)에서 사용자에게 할당된 업무를 수행하도록, 관제 시스템(100)에 접속하는, 사용자에 따라 지정된 화면에 사용자의 업무와 관련된 환경을 제공하도록 구성될 수 있다. Referring to FIG. 1 , the control system 100 may obtain information from cameras including CCTVs in order to maintain public order and/or safety in an area. The control system 100 may obtain information from cameras installed in buildings or factories in order to monitor building maintenance or factory product manufacturing processes. Users using the control system 100 may monitor the display 150 and perform actions based on monitoring results. The action may include calling a rescue team, emergency broadcasting, process modification or maintenance. The control system 100 may be configured to provide an environment related to the user's work on a screen designated according to the user accessing the control system 100 so as to perform tasks assigned to the user in the control system 100. .

일 실시예에 따르면, 관제 시스템(100)은, 제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103), 제4 전자 장치(104), 및/또는 디스플레이(150)를 포함할 수 있다. 제1 전자 장치(101)는, 디스플레이(150)를 제어하고, 다른 전자 장치들(예: 제2 전자 장치(102), 제3 전자 장치(103), 및/또는 제4 전자 장치(104))로부터 데이터를 주고받을 수 있는 장치일 수 있다. 제1 전자 장치(101)는, 관제 시스템(100)을 관장하는 서버일 수 있다. 일 실시예에 따르면, 제1 전자 장치(101)는, 서비스 제공자의 서버를 포함할 수 있다. 서버는 하나 이상의 PC 및/또는 워크스테이션을 포함할 수 있다. 일 실시예에서, 제1 전자 장치(101)와 연결된 카메라는 지정된 위치에서 비디오를 캡쳐하는 폐쇄회로 TV(Closed Circuit Tele-Vision, CCTV)를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는 서로 다른 위치에 배치된 하나 이상의 카메라각각에서 캡쳐되고 있는 비디오를 동시에 수신하여 처리할 수 있다. According to an embodiment, the control system 100 includes a first electronic device 101, a second electronic device 102, a third electronic device 103, a fourth electronic device 104, and/or a display ( 150) may be included. The first electronic device 101 controls the display 150, and other electronic devices (eg, the second electronic device 102, the third electronic device 103, and/or the fourth electronic device 104). ) may be a device capable of exchanging data from. The first electronic device 101 may be a server managing the control system 100 . According to an embodiment, the first electronic device 101 may include a server of a service provider. A server may include one or more PCs and/or workstations. In one embodiment, the camera connected to the first electronic device 101 may include a Closed Circuit Tele-Vision (CCTV) that captures video from a designated location. The electronic device 101 according to an embodiment may simultaneously receive and process videos captured by one or more cameras disposed at different locations.

제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103), 및 제4 전자 장치(104)는 네트워크(199)에 접속할 수 있다. 상기 네트워크(199)는, 인터넷, LAN(Local Area Network), WAN(Wide Area Network), 이더넷 또는 이들의 조합과 같은 유선 네트워크를 포함할 수 있다. 상기 네트워크는, LTE(Long Term Evolution), 5g NR(New Radio), WiFi(Wireless Fidelity), Zigbee, NFC(Near Field Communication), Bluetooth, BLE(Bluetooth Low-Energy) 또는 이들의 조합과 같은 무선 네트워크를 포함할 수 있다. 제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103) 및 제4 전자 장치(104)는 네트워크(199)를 통해 연결되는 것으로 도시하였으나, 제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103) 및 제4 전자 장치(104)는 케이블을 통해 직접적으로 연결될 수 있다. The first electronic device 101 , the second electronic device 102 , the third electronic device 103 , and the fourth electronic device 104 may access the network 199 . The network 199 may include a wired network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof. The network is a wireless network such as LTE (Long Term Evolution), 5g NR (New Radio), WiFi (Wireless Fidelity), Zigbee, NFC (Near Field Communication), Bluetooth, BLE (Bluetooth Low-Energy) or a combination thereof can include Although the first electronic device 101 , the second electronic device 102 , the third electronic device 103 , and the fourth electronic device 104 are shown connected through the network 199 , the first electronic device 101 ), the second electronic device 102, the third electronic device 103, and the fourth electronic device 104 may be directly connected through cables.

일 실시예에 따르면, 제1 전자 장치(101)는, 메모리(110), 프로세서(120), 통신 회로(130), 및 뉴럴 네트워크(140) 중 적어도 하나를 포함할 수 있다. 메모리(110), 프로세서(120), 통신 회로(130) 및 뉴럴 네트워크(140) 및 디스플레이(150)는, 통신 버스와 같은 전자 소자에 의해 서로 전기적 또는 작동적으로 연결될 수 있다. 제1 전자 장치(101)에 포함된 하드웨어 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. According to an embodiment, the first electronic device 101 may include at least one of a memory 110 , a processor 120 , a communication circuit 130 , and a neural network 140 . The memory 110, the processor 120, the communication circuit 130 and the neural network 140, and the display 150 may be electrically or operatively connected to each other by electronic devices such as a communication bus. The type and/or number of hardware included in the first electronic device 101 is not limited to that shown in FIG. 1 . For example, the electronic device 101 may include only some of the hardware components shown in FIG. 1 .

일 실시예에 따른 제1 전자 장치(101)의 메모리(110)는 프로세서(120)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(110)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 110 of the first electronic device 101 according to an embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor 120 . The memory 110 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is. The volatile memory may include, for example, at least one of Dynamic RAM (DRAM), Static RAM (SRAM), Cache RAM, and Pseudo SRAM (PSRAM). The nonvolatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC). can

메모리(110) 내에서, 프로세서(120)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 제1 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(120)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행할 수 있다.In the memory 110 , one or more instructions indicating an operation to be performed on data by the processor 120 may be stored. A set of instructions may refer to firmware, operating system, process, routine, sub-routine and/or application. For example, the first electronic device 101 and/or the processor 120 of the electronic device 101 may execute a set of a plurality of instructions distributed in the form of an application.

일 실시예에 따른 제1 전자 장치(101)는 메모리(110) 내에 저장되는 데이터베이스(database, DB)에 기반하여, 메모리(110)에 저장되는 정보를 관리할 수 있다. 일 실시예에서, 데이터베이스는 전자 장치(101) 내에서 실행되는 독립적인 어플리케이션들 및/또는 전자 장치(101)를 포함하는 복수의 전자 장치들 사이에서 공유되기 위하여 체계화된(systematized) 정보의 집합 또는 상기 정보를 관리하는 하나 이상의 어플리케이션 중 적어도 하나를 포함할 수 있다. 상기 정보의 집합에서, 서로 다른 정보가 타입, 컬럼(column), 레코드 및/또는 테이블과 같은 단위에 기반하여 서로 조합될 수 있다. 정보의 조합은, 데이터베이스 내에서 정보의 추가, 삭제, 변경(update) 및 검색에 이용될 수 있다. 예를 들어, 전자 장치(101)가 지정된 조건의 정보를 검색하는 상태에서, 전자 장치(101)는 데이터베이스를 이용하여 상기 조건에 만족하는 정보 및 상기 정보와 함께 조합된 다른 정보를 더 식별할 수 있다.The first electronic device 101 according to an embodiment may manage information stored in the memory 110 based on a database (DB) stored in the memory 110 . In one embodiment, the database is a set of information systematized to be shared between independent applications running within the electronic device 101 and/or a plurality of electronic devices including the electronic device 101, or It may include at least one of one or more applications that manage the information. In the set of information, different pieces of information may be combined with each other based on units such as type, column, record, and/or table. Combinations of information may be used to add, delete, update, and retrieve information within the database. For example, in a state in which the electronic device 101 searches for information of a specified condition, the electronic device 101 may further identify information satisfying the condition and other information combined with the information using a database. there is.

일 실시예에 따른 전자 장치(101)의 프로세서(120)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(120)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(120)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 120 of the electronic device 101 according to an embodiment may include a hardware component for processing data based on one or more instructions. Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU). The number of processors 120 may be one or more. For example, the processor 120 may have a structure of a multi-core processor such as a dual core, quad core, or hexa core.

일 실시예에 따른 전자 장치(101)의 통신 회로(130)는 제1 전자 장치(101) 및 전자 장치(101)와 구별되는 다른 전자 장치(예를 들어, 제2 전자 장치(102), 제3 전자 장치(103), 제4 전자 장치(104)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 통신 회로(130)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(Optic/Electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(130)는, 이더넷(ethernet), LAN(Local Area Network), WAN(Wide Area Network), WiFi(Wireless Fidelity), Bluetooth, BLE(Bluetooth Low Energy), ZigBee, LTE(Long Term Evolution), 5G NR(New Radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다. The communication circuit 130 of the electronic device 101 according to an embodiment includes a first electronic device 101 and another electronic device (eg, a second electronic device 102, a It may include a hardware component for supporting transmission and/or reception of electrical signals between the third electronic device 103 and the fourth electronic device 104. The communication circuit 130 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter. The communication circuit 130 includes Ethernet, Local Area Network (LAN), Wide Area Network (WAN), Wireless Fidelity (WiFi), Bluetooth, Bluetooth Low Energy (BLE), ZigBee, Long Term Evolution (LTE), Transmission and/or reception of electrical signals may be supported based on various types of protocols such as 5G New Radio (NR).

일 실시예에 따른 전자 장치(101)의 디스플레이(150)는 사용자에게 시각화된 정보를 출력할 수 있다. 전자 장치(101)에 연결 가능한 디스플레이(150)의 개수는 하나 이상일 수 있다. 복수의 디스플레이(150)가 전자 장치(101)에 연결된 경우, 전자 장치(101)는, 예를 들어, 복수의 디스플레이(150) 각각에 전자 장치(101)와 연결된 복수의 카메라로부터 수신되고 있는 비디오를 표시할 수 있다.The display 150 of the electronic device 101 according to an embodiment may output visualized information to the user. The number of displays 150 connectable to the electronic device 101 may be one or more. When a plurality of displays 150 are connected to the electronic device 101, the electronic device 101 may, for example, receive video from a plurality of cameras connected to the electronic device 101 on each of the plurality of displays 150. can be displayed.

일 실시예에서, 디스플레이(150)는, 그래픽 처리 유닛(Graphic Processing Unit, GPU)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 일 실시예에서, 상기 GPU는 프로세서(120)의 적어도 일부로 포함될 수 있다. 디스플레이(240)는 FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.In one embodiment, the display 150 may be controlled by a controller such as a graphic processing unit (GPU) to output visualized information to a user. In one embodiment, the GPU may be included as at least part of the processor 120 . The display 240 may include a flat panel display (FPD) and/or electronic paper. The FPD may include a Liquid Crystal Display (LCD), a Plasma Display Panel (PDP), and/or one or more Light Emitting Diodes (LEDs). The LED may include organic LED (OLED).

다양한 실시예들에 따른 전자 장치(101)는 카메라로부터 수신되는 비디오를 인식하여, 카메라에 의해 캡쳐되고 있는 이벤트를 식별할 수 있다. 식별된 이벤트가 지정된 이벤트, 예를 들어, 응급 환자 발생과 같이 긴급 대응(emergency response)이 필요한 이벤트인 경우, 전자 장치(101)는 사용자에게 지정된 이벤트의 발생을 알릴 수 있다. 일 실시예에 따른 전자 장치(101)는 지정된 이벤트의 식별에 응답하여, 지정된 이벤트에 대응하는 외부 전자 장치로, 지정된 이벤트의 발생을 알리는 신호를 송신할 수 있다. 예를 들어, 외부 전자 장치가 응급 구조 센터의 서버인 경우, 제1 전자 장치(101)는 응급 환자 발생과 같은 지정된 이벤트의 식별에 응답하여, 외부 전자 장치로 지정된 이벤트의 발생을 알리는 신호(예, 응급 구조대 출동 요청)를 송신할 수 있다.The electronic device 101 according to various embodiments may recognize a video received from a camera and identify an event being captured by the camera. If the identified event is a designated event, eg, an event that requires an emergency response, such as an emergency patient, the electronic device 101 may notify the user of the occurrence of the designated event. In response to identification of the designated event, the electronic device 101 according to an embodiment may transmit a signal notifying occurrence of the designated event to an external electronic device corresponding to the designated event. For example, when the external electronic device is a server of an emergency rescue center, the first electronic device 101 responds to identification of a designated event such as an occurrence of an emergency patient, and sends a signal informing the external electronic device of the occurrence of a designated event (eg , emergency rescue team dispatch request) can be transmitted.

다양한 실시예들에 따른 제1 전자 장치(101)는 식별된 이벤트에 기반하여, 데이터베이스 내에 카메라로부터 수신되는 비디오의 적어도 일부분을 저장할 수 있다. 예를 들어, 제1 전자 장치(101)는 데이터베이스 내에 상기 비디오의 적어도 일부분 및 상기 일부분에 대응하는 이벤트의 조합을 저장할 수 있다. 저장된 조합은, 이벤트에 기반하는 비디오의 검색 및/또는 분석을 위해 이용될 수 있다. The first electronic device 101 according to various embodiments may store at least a portion of a video received from a camera in a database based on the identified event. For example, the first electronic device 101 may store at least a portion of the video and a combination of events corresponding to the portion in a database. The stored combinations may be used for event-based retrieval and/or analysis of video.

일 실시예에 따른, 제1 전자 장치(101)의 메모리(110) 내에, 뉴럴 네트워크(140)와 관련된 파라미터들의 집합이 저장될 수 있다. 뉴럴 네트워크(140)는, 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 인식 모델이다. 뉴럴 네트워크(140)는 인공 뉴런들을 통해 인간의 인지 작용이나 학습 과정을 수행할 수 있다. 뉴럴 네트워크(140)와 관련된 파라미터들은, 예를 들어, 뉴럴 네트워크(140)에 포함된 복수의 노드들 및/또는 상기 복수의 노드들 사이의 연결에 할당되는(assigned) 가중치를 나타낼 수 있다. 일 실시예에 따른 제1 전자 장치(101)의 메모리(110) 내에 저장된 파라미터들의 집합에 의해 나타나는 뉴럴 네트워크(140)의 구조는 도 2를 통해 후술될 것이다. 메모리(110) 내에 저장된 뉴럴 네트워크(140)의 개수는, 도 1에 도시된 바에 제한되지 않으며, 복수의 뉴럴 네트워크들 각각에 대응하는 파라미터들의 집합들이 메모리(110) 내에 저장될 수 있다.According to an embodiment, a set of parameters related to the neural network 140 may be stored in the memory 110 of the first electronic device 101 . The neural network 140 is a software or hardware implemented cognitive model that mimics the computational power of a biological system using a large number of artificial neurons (or nodes). The neural network 140 may perform a human cognitive function or a learning process through artificial neurons. Parameters related to the neural network 140 may represent, for example, weights assigned to a plurality of nodes included in the neural network 140 and/or connections between the plurality of nodes. A structure of the neural network 140 represented by a set of parameters stored in the memory 110 of the first electronic device 101 according to an embodiment will be described later with reference to FIG. 2 . The number of neural networks 140 stored in the memory 110 is not limited to that shown in FIG. 1 , and sets of parameters corresponding to each of a plurality of neural networks may be stored in the memory 110 .

일 실시예에 따르면, 프로세서(120)는, 제1 전자 장치(101)에 실장되는 측면에서 제1 프로세서로 참조될 수 있다. 제2 전자 장치(102), 제3 전자 장치(103), 및 제4 전자 장치(104) 각각은, 제2 프로세서, 제3 프로세서, 및 제4 프로세서를 포함할 수 있다. 상기 제1 프로세서는, 상기 제2 프로세서를 통해 처리되는 정보들을 수신할 수 있다. 제2 프로세서를 통해 처리되는 정보들은, 제2 전자 장치에 접속한 사용자가 처리한 정보일 수 있다. 제1 프로세서는, 상기 수신된 정보를 디스플레이(150) 내의 상기 복수의 영역들 중 지정된 하나의 영역에 표시할 수 있다. 제1 프로세서는, 상기 수신된 정보들을 바탕으로, 상기 뉴럴 네트워크를 통해, 상기 제2 프로세서를 통해 처리되는 빈도가 높은 제1 정보 또는 최근 처리되는 제2 정보를 식별할 수 있다. 제1 프로세서는, 제2 전자 장치(102)가 상기 네트워크에 접속함을 식별하고, 상기 식별에 응답하여, 상기 지정된 하나의 영역 상에, 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다. According to an embodiment, the processor 120 may be referred to as a first processor in terms of being mounted in the first electronic device 101 . Each of the second electronic device 102 , the third electronic device 103 , and the fourth electronic device 104 may include a second processor, a third processor, and a fourth processor. The first processor may receive information processed through the second processor. Information processed through the second processor may be information processed by a user accessing the second electronic device. The first processor may display the received information on a designated one area among the plurality of areas in the display 150 . The first processor may identify first information that is frequently processed through the neural network or second information that is recently processed through the second processor, based on the received information. The first processor is configured to identify that the second electronic device 102 accesses the network and, in response to the identification, display the first information or the second information on the designated area. can

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 식별자에 대응되도록 매칭할 수 있다. 예를 들면, 제2 전자 장치의 사용자의 ID를 바탕으로, 메모리(110)에 저장된 제1 정보 또는 제2 정보를 상기 사용자와 매칭할 수 있다. 제1 프로세서는, 상기 매칭된 정보를 바탕으로, 상기 제2 전자 장치와 구별되는 제3 전자 장치를 통해 상기 식별자가 입력됨을 식별하면, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 지정된 하나의 영역 상에 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다. 예를 들면, 사용자가 제2 전자 장치(102)외에 제3 전자 장치(103)를 통해 접속하더라도, 프로세서(120)는, 식별자를 바탕으로, 디스플레이(150)의 분할된 영역 중 제3 전자 장치(103)에 대응되는 영역에 상기 제1 정보 또는 상기 제2 정보를 표시할 수 있다. According to an embodiment, the first processor may match the identified first information or the second information to correspond to the identifier based on the identifier input through the second electronic device. For example, based on the ID of the user of the second electronic device, the first information or the second information stored in the memory 110 may be matched with the user. If the first processor identifies that the identifier is input through a third electronic device that is different from the second electronic device based on the matched information, the first processor converts the identified first information or the second information to the designated one. It may be configured to display the first information or the second information on an area of . For example, even if the user accesses through the third electronic device 103 in addition to the second electronic device 102, the processor 120, based on the identifier, the third electronic device in the divided area of the display 150 The first information or the second information may be displayed in an area corresponding to (103).

일 실시예에 따르면, 상기 제2 전자 장치(102)의 제2 프로세서는, 상기 제1 정보 또는 상기 제2 정보에 포함되는 시각적 객체의 사이즈를 조절하기 위한 입력을 바탕으로, 상기 시각적 객체의 사이즈를 조절과 관련된 제3 정보를 상기 제1 전자 장치로 송신할 수 있다. 상기 제1 프로세서는, 상기 제3 정보를 수신함을 바탕으로, 상기 시각적 객체의 크기가 상기 지정된 하나의 영역의 크기보다 크면, 상기 시각적 객체의 일부를 상기 지정된 하나의 영역에 표시하도록 구성될 수 있다. 이와 관련한 구체적인 예시는 도 5를 통해 후술한다. According to an embodiment, the second processor of the second electronic device 102 determines the size of the visual object based on an input for adjusting the size of the visual object included in the first information or the second information. Third information related to adjusting may be transmitted to the first electronic device. The first processor may be configured to display a part of the visual object in the one designated area when the size of the visual object is greater than the size of the one designated area based on receiving the third information. . A specific example related to this will be described later with reference to FIG. 5 .

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 상기 식별자에 대응되는 관리자 권한을 식별할 수 있다. 제1 프로세서는, 상기 관리자 권한을 바탕으로, 상기 복수의 영역들 중 적어도 하나의 영역을 상기 식별자에 할당하도록 구성될 수 있다. According to an embodiment, the first processor may identify administrator authority corresponding to the identifier based on the identifier input through the second electronic device. The first processor may be configured to allocate at least one area among the plurality of areas to the identifier based on the manager authority.

상기 제1 프로세서는, 상기 관리자 권한이 제1 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 전체에 표시하도록 구성될 수 있다. 관리자 권한은, 제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103) 및 제4 전자 장치(104)를 사용하는 사용자들 중 한명이고, 나머지 사용자들을 관리하는 사람일 수 있다. 관리자 ID로 접속한 경우, 사용자는, 디스플레이 전체 화면에 시각적 객체를 제공할 수 있다. The first processor may be configured to display a partial visual object among information obtained from the second electronic device on all of the plurality of regions, based on the manager authority being identified as the first authority. Administrator authority is one of the users of the first electronic device 101, the second electronic device 102, the third electronic device 103, and the fourth electronic device 104, and a person who manages the other users. can be When accessing with a manager ID, the user can provide a visual object on the entire display screen.

상기 제1 프로세서는, 상기 관리자 권한이 제2 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 중 지정된 영역을 포함하는 일부 영역들에 표시하도록 구성될 수 있다. 상기 제2 권한은, 디스플레이 전체 영역에 접근하지 못하고, 일부 지정된 영역만 접근할 수 있는 권한일 수 있다. 제2 권한의 관리자 ID로 접속한 경우, 사용자는, 디스플레이 중 지정된 영역에 시각적 객체를 표시할 수 있다. The first processor is configured to display some visual objects among information obtained from the second electronic device on some areas including a designated area among the plurality of areas, based on the administrator authority being identified as the second authority. can be configured. The second authority may be authority not to access the entire area of the display, but to access only a part of a designated area. When access is made with the manager ID of the second authority, the user can display a visual object in a designated area of the display.

관리자의 시각적 객체의 조절은 도 6을 통해 후술한다. Control of visual objects by the manager will be described later with reference to FIG. 6 .

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치(102), 제3 전자 장치(103) 및 제4 전자 장치(104)와 상이한 외부 전자 장치가 상기 네트워크(199)를 통해 접속함을 식별할 수 있다. 상기 외부 전자 장치는, 관제 시스템을 구성하는 전자 장치와 상이한 전자 장치일 수 있다. 상기 외부 전자 장치로, 상기 복수의 영역들을 포함하는 상기 디스플레이(150)의 표시 화면을 전송할 수 있다. 상기 디스플레이(150)의 표시 화면은 가상의 메타 버스 환경에 구현된 표시 화면으로 외부 전자 장치에 표시될 수 있다. 상기 외부 전자 장치는, 외부 프로세서를 포함할 수 있고, 상기 외부 프로세서는, 상기 전송된 표시 화면 중 하나의 영역상에, 데이터의 입력을 식별할 수 있다. 외부 프로세서는, 사용자가 외부 전자를 통해 입력된 데이터를 식별할 수 있다. 상기 외부 프로세서는, 상기 식별된 데이터의 입력을 바탕으로, 상기 제1 프로세서로, 상기 디스플레이 상의 상기 하나의 영역에 대응되는 영역에 상기 입력을 표시하도록 구성될 수 있다. According to an embodiment, the first processor connects an external electronic device different from the second electronic device 102 , the third electronic device 103 , and the fourth electronic device 104 through the network 199 . can be identified. The external electronic device may be an electronic device different from an electronic device constituting the control system. The display screen of the display 150 including the plurality of areas may be transmitted to the external electronic device. The display screen of the display 150 is a display screen implemented in a virtual metabus environment and can be displayed on an external electronic device. The external electronic device may include an external processor, and the external processor may identify data input on one area of the transmitted display screen. The external processor may identify data input by the user through external electronic means. The external processor may be configured to display the input in an area corresponding to the one area on the display as the first processor based on the input of the identified data.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 상기 하나의 영역에 대응되는 영역에 다른 입력을 식별하면, 상기 제3 전자 장치로, 상기 제3 전자 장치의 표시 영역에서 상기 하나의 영역에 대응되는 영역에 상기 다른 입력을 표시하도록 구성될 수 있다. According to an embodiment, the first processor, when identifying another input to the area corresponding to the one area through the second electronic device, sends the third electronic device to the display area of the third electronic device. The other input may be displayed in an area corresponding to the one area.

메타 버스 환경과 관련하여, 동작하는 관제 시스템의 예시는, 도 7a, 도 7b, 및 도 7c를 통해 후술한다.An example of a control system that operates in relation to the metabus environment will be described later with reference to FIGS. 7A, 7B, and 7C.

도 2는 일 실시예에 따른 전자 장치가 메모리 내에 저장된 파라미터들의 집합으로부터 획득하는 뉴럴 네트워크(140)를 설명하기 위한 예시적인 도면이다. 도 2의 뉴럴 네트워크(140)는 도 1의 뉴럴 네트워크(140)에 대응할 수 있다.2 is an exemplary diagram for explaining a neural network 140 obtained from a set of parameters stored in a memory by an electronic device according to an exemplary embodiment. The neural network 140 of FIG. 2 may correspond to the neural network 140 of FIG. 1 .

도 2를 참고하면, 뉴럴 네트워크(140)는 복수의 레이어들을 포함할 수 있다. 예를 들어, 뉴럴 네트워크(140)는 입력 레이어(141), 하나 이상의 히든 레이어들(142) 및 출력 레이어(143)를 포함할 수 있다. 입력 레이어(141)는 입력 데이터를 나타내는 벡터(예, 입력 레이어(141)에 포함된 노드들의 개수에 대응하는 원소들(elements)을 가지는 벡터)를 수신할 수 있다. 입력 데이터에 의해 발생된, 입력 레이어(141) 내 노드들 각각에서 발생된 신호들은, 입력 레이어(141)에서 히든 레이어들(142)로 송신될 수 있다. 출력 레이어(143)는, 히든 레이어들(142)로부터 수신된 하나 이상의 신호들에 기반하여, 뉴럴 네트워크(140)의 출력 데이터를 생성할 수 있다. 상기 출력 데이터는, 예를 들어, 출력 레이어(143)에 포함된 노드들의 개수에 대응하는 원소들을 가지는 벡터를 포함할 수 있다.Referring to FIG. 2 , the neural network 140 may include a plurality of layers. For example, the neural network 140 may include an input layer 141 , one or more hidden layers 142 , and an output layer 143 . The input layer 141 may receive a vector representing input data (eg, a vector having elements corresponding to the number of nodes included in the input layer 141). Signals generated by each of the nodes in the input layer 141 generated by the input data may be transmitted from the input layer 141 to the hidden layers 142 . The output layer 143 may generate output data of the neural network 140 based on one or more signals received from the hidden layers 142 . The output data may include, for example, a vector having elements corresponding to the number of nodes included in the output layer 143 .

도 2를 참고하면, 하나 이상의 히든 레이어들(142)이 입력 레이어(141) 및 출력 레이어(143) 사이에 위치할 수 있고, 입력 레이어(141)를 통해 전달된 입력 데이터를 예측하기 쉬운 값으로 변환할 수 있다. 입력 레이어(141), 하나 이상의 히든 레이어들(142) 및 출력 레이어(143)는 복수의 노드들을 포함할 수 있다. 하나 이상의 히든 레이어들(142)은 CNN(convolutional neural network)에서의 콘볼루션 필터(convolution filter) 또는 완전 연결 레이어(fully connected layer)이거나, 특별한 기능이나 특징을 기준으로 묶인 다양한 종류의 필터 또는 레이어일 수 있다. 일 실시예에서, 하나 이상의 히든 레이어들(142)은 출력 값이 현재 시간의 히든 레이어에 다시 입력되는 리커런트 뉴럴 네트워크(recurrent neural network; RNN)에 기반하는 레이어일 수 있다. 일 실시예에 따른 뉴럴 네트워크(140)는 다수의(numerous) 히든 레이어들(142)을 포함하여, 딥 뉴럴 네트워크(deep neural network)를 형성할 수 있다. 딥 뉴럴 네트워크를 학습시키는 것을 딥 러닝(deep learning)이라 한다. 뉴럴 네트워크(140)의 노드 중에서, 히든 레이어들(142)에 포함된 노드를 가리켜 히든 노드라 한다.Referring to FIG. 2 , one or more hidden layers 142 may be positioned between the input layer 141 and the output layer 143, and input data transmitted through the input layer 141 may be converted into values that are easy to predict. can be converted The input layer 141, one or more hidden layers 142, and the output layer 143 may include a plurality of nodes. The one or more hidden layers 142 may be convolution filters or fully connected layers in a convolutional neural network (CNN), or various types of filters or layers grouped based on special functions or characteristics. can In one embodiment, one or more hidden layers 142 may be a layer based on a recurrent neural network (RNN) whose output values are input back to the hidden layer at the current time. The neural network 140 according to an embodiment may include a plurality of hidden layers 142 to form a deep neural network. Training a deep neural network is called deep learning. Among the nodes of the neural network 140, nodes included in the hidden layers 142 are referred to as hidden nodes.

입력 레이어(141) 및 하나 이상의 히든 레이어들(142)에 포함된 노드들은 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있고, 히든 레이어 및 출력 레이어에 포함된 노드들도 연결 가중치를 가지는 연결선을 통해 서로 연결될 수 있다. 뉴럴 네트워크(140)를 튜닝 및/또는 트레이닝하는 것은, 뉴럴 네트워크(140)에 포함된 레이어들(예, 입력 레이어(141), 하나 이상의 히든 레이어들(142) 및 출력 레이어(143)) 각각에 포함된 노드들 사이의 연결 가중치를 변경하는 것을 의미할 수 있다. 뉴럴 네트워크(140)의 튜닝은, 예를 들어, 지도 학습(supervised learning) 및/또는 비지도 학습(unsupervised learning)에 기반하여 수행될 수 있다.Nodes included in the input layer 141 and one or more hidden layers 142 may be connected to each other through a connection line having a connection weight, and nodes included in the hidden layer and the output layer may also be connected to each other through a connection line having a connection weight. can be connected Tuning and/or training the neural network 140 is performed on each of the layers (eg, the input layer 141, one or more hidden layers 142, and the output layer 143) included in the neural network 140. It may mean changing the connection weight between included nodes. Tuning of the neural network 140 may be performed based on, for example, supervised learning and/or unsupervised learning.

일 실시예에 따른 전자 장치는, 비지도 학습에서 강화 학습(reinforcement learning)에 기반하여 뉴럴 네트워크(140)를 튜닝할 수 있다. 예를 들어, 전자 장치는, 뉴럴 네트워크(140)가 에이전트를 제어하기 위해 이용하는 정책 정보를, 에이전트 및 환경 사이의 상호 작용(interaction)에 기반하여 변경할 수 있다. 일 실시예에 따른 전자 장치는, 상기 상호 작용에 의한 상기 에이전트의 목표 및/또는 보상을 극대화하기 위하여, 상기 뉴럴 네트워크(140)에 의한 상기 정책 정보의 변경을 야기할 수 있다.An electronic device according to an embodiment may tune the neural network 140 based on reinforcement learning in unsupervised learning. For example, the electronic device may change policy information used by the neural network 140 to control the agent based on an interaction between the agent and the environment. The electronic device according to an embodiment may cause the policy information to be changed by the neural network 140 in order to maximize the agent's goal and/or reward through the interaction.

도 3은, 일 실시예에 따른 복수의 영역들을 사용하는 관제시스템의 디스플레이의 일 예를 도시한다. 3 illustrates an example of a display of a control system using a plurality of regions according to an exemplary embodiment.

도 3을 참조하면, 관제 시스템(100)은, 디스플레이(150)를 포함할 수 있다. 디스플레이(150)는, 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)을 포함할 수 있다. 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)은, 디스플레이(150)상에 구분되는 가상의 영역들일 수 있다. 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)은, 프로세서(예: 도 1의 프로세서(120))에 의해서 분할될 수 있다. 프로세서(120)는, 디스플레이(150)를 사용하도록 등록된 사용자들(201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, 201i)에 대응하도록 분할될 수 있다. 분할된 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)의 크기나 형상은, 동일할 수 있으나, 제한되지 않는다. 예를 들면, 제1 사용자(201a)가 사용하는 제1 영역(211)과 제2 사용자(201b)가 사용하는 제2 영역(212)의 형상 또는 크기는 동일할 수 있다. 다른 예를 들면, 제1 사용자(201a)가 사용하는 제1 영역(211)과 제3 사용자(201c)가 사용하는 제3 영역(213)의 형상 또는 크기는 상이할 수 있다. 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)의 크기나 형상은, 사용자 별로 미리 지정될 수 있다. 예를 들면, 프로세서(120)는, 미리 지정된 크기나 형상을 바탕으로, 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)을 사용자들(201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, 201i)에게 제공할 수 있다. Referring to FIG. 3 , the control system 100 may include a display 150 . The display 150 may include a plurality of regions 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , and 219 . The plurality of regions 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , and 219 may be virtual regions distinguished on the display 150 . The plurality of areas 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , and 219 may be divided by a processor (eg, the processor 120 of FIG. 1 ). The processor 120 may be divided to correspond to users 201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, and 201i registered to use the display 150 . The divided regions 211, 212, 213, 214, 215, 216, 217, 218, and 219 may have the same size or shape, but are not limited thereto. For example, the shape or size of the first area 211 used by the first user 201a and the second area 212 used by the second user 201b may be the same. For another example, the shape or size of the first area 211 used by the first user 201a and the third area 213 used by the third user 201c may be different. The size or shape of the plurality of regions 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , and 219 may be previously designated for each user. For example, the processor 120 assigns the plurality of regions 211, 212, 213, 214, 215, 216, 217, 218, and 219 to the users 201a, 201b, and 219 based on a predetermined size or shape. 201c, 201d, 201e, 201f, 201g, 201h, 201i).

일 실시예에 따르면, 사용자들(201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, 201i)에 따라, 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219)을 통해 제공되는 환경은 상이할 수 있다. 예를 들면, 사용자들(201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, 201i)의 이전 작업 히스토리를 학습한 뉴럴 네트워크(예: 도 1의 뉴럴 네트워크(140))를 통해, 프로세서(120)는, 복수의 영역들(211, 212, 213, 214, 215, 216, 217, 218, 219) 각각에 상이한 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제1 사용자(201a)에게 제1 영역(211)을 통해, 제1 사용자(201a)의 이전 사용 히스토리를 바탕으로, 작업 환경을 제공할 수 있다. 프로세서(120)는, 제2 사용자(201b)에게 제2 영역(212)을 통해, 제2 사용자(201b)의 이전 사용 히스토리를 바탕으로, 작업 환경을 제공할 수 있다.According to an embodiment, a plurality of areas 211, 212, 213, 214, 215, 216, 217, and 218 are provided according to users 201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, and 201i. , 219) may be different. For example, the processor 201a, 201b, 201c, 201d, 201e, 201f, 201g, 201h, and 201i through a neural network (eg, the neural network 140 of FIG. 1) that has learned previous work histories. 120 may provide different environments to each of the plurality of areas 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , and 219 . For example, the processor 120 may provide a work environment to the first user 201a through the first area 211 based on the previous use history of the first user 201a. The processor 120 may provide a work environment to the second user 201b through the second area 212 based on the previous use history of the second user 201b.

프로세서(120)가 제공하는 상이한 작업 환경과 관련하여, 도 4를 바탕으로 설명한다.Regarding the different working environments provided by the processor 120, it will be described based on FIG. 4.

도 4는, 일 실시예에 따른, 각기 다른 작업을 하는 사용자의 예시를 나타내는 도면이다.4 is a diagram illustrating examples of users performing different tasks, according to an exemplary embodiment.

도 4를 참조하면, 사용자들(201a, 201b, 201c, 201d, 201e)은 각자에게 할당된 작업을 수행할 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해, 사용자들(201a, 201b, 201c, 201d, 201e)의 작업 내용 또는 주요 작업에 대하여 학습할 수 있다. 예를 들면, 제1 사용자(201a)는, 전체 작업 환경(300) 중 제1 시각적 객체(301)를 주로 관찰하는 업무를 수행할 수 있다. 제2 사용자(201b)는, 전체 작업 환경(300) 전체를 관리하는 업무를 수행할 수 있다. 제3 사용자(201c)는, 전체 작업 환경(300) 중 일부 환경(310)을 관리할 수 있다. 예를 들면, 제3 사용자(201c)는 일부 환경(310)내의 제1 시각적 객체(301) 및 제2 시각적 객체(302)를 관리할 수 있다. 제4 사용자(201d)는 전체 작업 환경(300) 중 제2 시각적 객체(302)를 관찰하는 업무를 수행할 수 있다. 제5 사용자(201e)는 전체 작업 환경(300) 중 제3 시각적 객체(303)를 관찰하는 업무를 수행할 수 있다. Referring to FIG. 4 , users 201a, 201b, 201c, 201d, and 201e may perform assigned tasks. The processor 120 may learn work contents or main tasks of the users 201a, 201b, 201c, 201d, and 201e through the neural network 140 . For example, the first user 201a may perform a task of mainly observing the first visual object 301 in the entire work environment 300 . The second user 201b may perform a task of managing the entire work environment 300 . The third user 201c may manage a part of the environment 310 of the entire work environment 300 . For example, the third user 201c may manage the first visual object 301 and the second visual object 302 within the partial environment 310 . The fourth user 201d may perform a task of observing the second visual object 302 in the entire work environment 300 . The fifth user 201e may perform a task of observing the third visual object 303 in the entire work environment 300 .

프로세서(120)는 뉴럴 네트워크(140)를 통해, 제1 사용자(201a)의 작업 패턴을 학습할 수 있다. 예를 들면, 프로세서(120)는, 전체 작업 환경(300) 내의 시각적 객체들 중 제1 사용자(201a)가 주로 활용하는 시각적 객체를 식별할 수 있다. 제1 사용자(201a)가 제1 시각적 객체(301)를 확대하거나, 제1 시각적 객체(301)를 클릭하는 동작을 수행하면, 뉴럴 네트워크(140)는, 제1 사용자의 클릭 또는 확대 대상인 제1 시각적 객체(301)와 관련된 정보를 학습할 수 있다. 예를 들면, 뉴럴 네트워크(140)는, 제1 시각적 객체(301)를 하나 이상의 벡터들을 포함하는 데이터로 전환하여, 입력 레이어를 통해 출력 레이어로 출력 데이터를 출력할 수 있다. 뉴럴 네트워크(140)는 출력 데이터를 바탕으로, 제1 시각적 객체(301)를 식별할 수 있다. 제1 시각적 객체(301)는, 동일한 사물뿐만 아니라 유사한 사물을 포함할 수 있다. 예를 들어, 시각적 객체는 동일한 사람 또는 사물일 수 있다. 다른 예를 들어, 시각적 객체는, 동일한 의상을 착용한 다른 사람이거나, 동일 종류의 이동 수단을 구분할 수 있다. 예를 들어, 뉴럴 네트워크(140)는, 도로를 이동하는 차량과 사람으로 구분할 수 있다. 뉴럴 네트워크(140)는, 학습의 단계 또는 사용자의 패턴에 따라, 차량 또는 사람을 세분화하여 구분할 수 있다. 예를 들어, 뉴럴 네트워크(140)는, 차량을 자동차, 오토바이, 또는 자전거로 구분하거나, 뉴럴 네트워크(140)는, 사람을, 어린이, 어른, 또는 성별로 구분할 수 있다. The processor 120 may learn the work pattern of the first user 201a through the neural network 140 . For example, the processor 120 may identify a visual object mainly utilized by the first user 201a from among visual objects within the entire work environment 300 . When the first user 201a enlarges the first visual object 301 or performs an operation of clicking the first visual object 301, the neural network 140 performs an operation of clicking or enlarging the first visual object 301 by the first user 201a. Information related to the visual object 301 may be learned. For example, the neural network 140 may convert the first visual object 301 into data including one or more vectors and output output data to an output layer through an input layer. The neural network 140 may identify the first visual object 301 based on the output data. The first visual object 301 may include similar objects as well as identical objects. For example, the visual objects may be the same person or thing. For another example, the visual object may be another person wearing the same costume or a means of transportation of the same type. For example, the neural network 140 may classify a vehicle and a person moving on a road. The neural network 140 may subdivide and classify vehicles or people according to learning stages or user patterns. For example, the neural network 140 may classify vehicles as cars, motorcycles, or bicycles, and the neural network 140 may classify people as children, adults, or genders.

일 실시예에 따르면, 뉴럴 네트워크(140)는, 제1 사용자(201a)의 작업 패턴을 참조하여, 제1 사용자(201a)의 주된 관찰 대상을 식별할 수 있다. 제1 사용자(201a)는, 전체 작업 환경(300)을 관찰하다, 제1 시각적 객체(301)를 확인하고, 제1 시각적 객체(301)와 관련된 이벤트를 제공할 수 있다. 제1 사용자(201a)는 다른 시각적 객체들(302, 303)을 관찰하다, 이벤트를 제공하지 않을 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제1 사용자(201a)의 주된 작업 객체를 식별할 수 있고, 식별된 작업 객체를 메모리(예: 도 1의 메모리(110))에 저장할 수 있다. 예를 들어, 제1 사용자(201a)가 다른 시각적 객체들에 제공하는 이벤트 횟수보다 제1 시각적 객체(301)에 제공하는 이벤트 횟수가 많은 경우, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제1 사용자(201a)의 주된 작업 객체를 제1 시각적 객체(301)를 식별할 수 있다. According to an embodiment, the neural network 140 may identify the main observation target of the first user 201a by referring to the work pattern of the first user 201a. The first user 201a may observe the entire work environment 300 , check the first visual object 301 , and provide an event related to the first visual object 301 . The first user 201a may not provide an event while observing other visual objects 302 and 303 . The processor 120 may identify a main task object of the first user 201a from among the visual objects identified through the neural network 140, and store the identified task object in a memory (eg, the memory 110 of FIG. 1 ). )) can be stored. For example, when the number of events provided to the first visual object 301 is greater than the number of events provided to other visual objects by the first user 201a, the processor 120 via the neural network 140 Among the identified visual objects, the first visual object 301 may be identified as the main work object of the first user 201a.

일 실시예에 따르면, 뉴럴 네트워크(140)는, 제2 사용자(201b)의 작업 패턴을 참조하여, 제2 사용자(201b)의 주된 관찰 대상을 식별할 수 있다. 제2 사용자(201b)는, 전체 작업 환경(300)을 관찰하다, 제1 시각적 객체(301), 제2 시각적 객체(302), 및/또는 제3 시각적 객체(303)을 확인하고, 전체 환경(300)과 관련된 이벤트를 제공할 수 있다. 제2 사용자(201b)는 시각적 객체들(301, 302, 303)을 관찰하다, 이벤트를 제공하지 않을 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들을 포함하는 전체 작업 환경(300)을 관찰함을 식별할 수 있고, 식별된 전체 작업 환경을 제2 사용자(201b)의 주된 작업 패턴으로 메모리(예: 도 1의 메모리(110))에 저장할 수 있다. 예를 들어, 제1 사용자(201a)가 다른 시각적 객체들에 제공하는 이벤트 횟수보다 시각적 객체들(301, 302, 303)을 포함하는 작업 환경을 관찰하는 횟수가 많은 경우, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 및 시각적 객체들을 포함하는 전체 작업 환경 중 제2 사용자(201b)의 주된 작업을 전체 작업 환경(300)임을 식별할 수 있다. According to an embodiment, the neural network 140 may identify the main observation target of the second user 201b by referring to the work pattern of the second user 201b. The second user 201b observes the entire work environment 300, checks the first visual object 301, the second visual object 302, and/or the third visual object 303, and the entire environment An event related to (300) may be provided. The second user 201b may observe the visual objects 301, 302, and 303 and may not provide an event. The processor 120 may identify that the entire work environment 300 including visual objects identified through the neural network 140 is observed, and the identified entire work environment is the main task of the second user 201b. It can be stored in a memory (eg, memory 110 of FIG. 1) as a pattern. For example, when the number of times the first user 201a observes the work environment including the visual objects 301, 302, and 303 is greater than the number of events provided to other visual objects, the processor 120: Among the visual objects identified through the neural network 140 and the entire working environment including the visual objects, the main task of the second user 201b may be identified as the entire working environment 300 .

일 실시예에 따르면, 뉴럴 네트워크(140)는, 제3 사용자(201c)의 작업 패턴을 참조하여, 제3 사용자(201c)의 주된 관찰 대상을 식별할 수 있다. 제3 사용자(201c)는, 전체 작업 환경(300)을 관찰하다, 제1 시각적 객체(301) 및 제2 시각적 객체(302)를 확인하고, 제1 시각적 객체(301) 및 제2 시각적 객체(302)와 관련된 이벤트를 제공할 수 있다. 제3 사용자(201c)는 다른 제3 시각적 객체(303)을 관찰하다, 이벤트를 제공하지 않을 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제3 사용자(201c)의 주된 작업 객체를 식별할 수 있고, 식별된 작업 객체를 메모리(예: 도 1의 메모리(110))에 저장할 수 있다. 예를 들어, 제3 사용자(201c)가 다른 시각적 객체들에 제공하는 이벤트 횟수보다 제1 시각적 객체(301) 및 제2 시각적 객체(302)에 제공하는 이벤트 횟수가 많은 경우, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제3 사용자(201c)의 주된 작업 객체를 제1 시각적 객체(301) 및 제2 시각적 객체(302)를 식별할 수 있다. According to an embodiment, the neural network 140 may identify the main observation target of the third user 201c by referring to the work pattern of the third user 201c. The third user 201c observes the entire work environment 300, checks the first visual object 301 and the second visual object 302, and the first visual object 301 and the second visual object ( 302) and related events may be provided. The third user 201c observes another third visual object 303 and may not provide an event. The processor 120 may identify a main task object of the third user 201c from among the visual objects identified through the neural network 140, and store the identified task object in a memory (eg, the memory 110 of FIG. 1 ). )) can be stored. For example, when the number of events provided to the first visual object 301 and the second visual object 302 is greater than the number of events provided to other visual objects by the third user 201c, the processor 120 , among the visual objects identified through the neural network 140, the first visual object 301 and the second visual object 302 may be identified as the main task objects of the third user 201c.

일 실시예에 따르면, 뉴럴 네트워크(140)는, 제4 사용자(201d)의 작업 패턴을 참조하여, 제4 사용자(201d)의 주된 관찰 대상을 식별할 수 있다. 제4 사용자(201d)는, 전체 작업 환경(300)을 관찰하다, 제2 시각적 객체(302)를 확인하고, 제2 시각적 객체(302)와 관련된 이벤트를 제공할 수 있다. 제4 사용자(201d)는 다른 시각적 객체들(301, 303)을 관찰하다, 이벤트를 제공하지 않을 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제4 사용자(201d)의 주된 작업 객체를 식별할 수 있고, 식별된 작업 객체를 메모리(예: 도 1의 메모리(110))에 저장할 수 있다. 예를 들어, 제4 사용자(201d)가 다른 시각적 객체들에 제공하는 이벤트 횟수보다 제2 시각적 객체(302)에 제공하는 이벤트 횟수가 많은 경우, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제4 사용자(201d)의 주된 작업 객체를 제2 시각적 객체(302)를 식별할 수 있다. According to an embodiment, the neural network 140 may identify the main observation target of the fourth user 201d by referring to the work pattern of the fourth user 201d. The fourth user 201d may observe the entire work environment 300 , check the second visual object 302 , and provide an event related to the second visual object 302 . The fourth user 201d may not provide an event while observing the other visual objects 301 and 303 . The processor 120 may identify a main task object of the fourth user 201d from among the visual objects identified through the neural network 140, and store the identified task object in a memory (eg, the memory 110 of FIG. 1 ). )) can be stored. For example, when the number of events provided to the second visual object 302 is greater than the number of events provided to other visual objects by the fourth user 201d, the processor 120 via the neural network 140 Among the identified visual objects, the second visual object 302 may be identified as the main work object of the fourth user 201d.

일 실시예에 따르면, 뉴럴 네트워크(140)는, 제5 사용자(201e)의 작업 패턴을 참조하여, 제5 사용자(201e)의 주된 관찰 대상을 식별할 수 있다. 제5 사용자(201e)는, 전체 작업 환경(300)을 관찰하다, 제3 시각적 객체(303)를 확인하고, 제3 시각적 객체(303)와 관련된 이벤트를 제공할 수 있다. 제5 사용자(201e)는 다른 시각적 객체들(301, 302)을 관찰하다, 이벤트를 제공하지 않을 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제5 사용자(201e)의 주된 작업 객체를 식별할 수 있고, 식별된 작업 객체를 메모리(예: 도 1의 메모리(110))에 저장할 수 있다. 예를 들어, 제5 사용자(201e)가 다른 시각적 객체들에 제공하는 이벤트 횟수보다 제3 시각적 객체(303)에 제공하는 이벤트 횟수가 많은 경우, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 시각적 객체들 중 제5 사용자(201e)의 주된 작업 객체를 제3 시각적 객체(303)를 식별할 수 있다. According to an embodiment, the neural network 140 may identify the main observation target of the fifth user 201e by referring to the work pattern of the fifth user 201e. The fifth user 201e may observe the entire work environment 300 , check the third visual object 303 , and provide an event related to the third visual object 303 . The fifth user 201e may not provide an event while observing the other visual objects 301 and 302 . The processor 120 may identify a main task object of the fifth user 201e from among the visual objects identified through the neural network 140, and store the identified task object in a memory (eg, the memory 110 of FIG. 1 ). )) can be stored. For example, when the number of events provided to the third visual object 303 is greater than the number of events provided to other visual objects by the fifth user 201e, the processor 120, through the neural network 140 Among the identified visual objects, the third visual object 303 may be identified as the main work object of the fifth user 201e.

일 실시예에 따르면, 프로세서(120)는, 사용자들의 주된 작업 객체 또는 작업 환경을 식별함을 바탕으로, 사용자들 각각에 맞는 작업 객체 및 작업 환경을 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 디스플레이(150) 중 제1 영역(211)에 연결된 외부 전자 장치(예: 도 1의 제2 전자 장치(102), 제3 전자 장치(103) 또는 제4 전자 장치(104))를 식별하고, 상기 외부 전자 장치를 통해 접속하는 사용자들(201a, 201b, 201c, 201d, 201e)을 식별할 수 있다. 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 사용자들(201a, 201b, 201c, 201d, 201e)별의 작업 객체 또는 작업환경을 바탕으로, 제1 영역(211)에 연결된 외부 전자 장치에 식별자(ID)를 입력한 제1 사용자(201a)에 대응되는 작업 객체 또는 작업 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제1 사용자(201a)가 제1 영역(211)에 연결된 외부 전자 장치에 접속함을 식별함을 바탕으로, 제1 영역(211)에 제1 사용자(201a)의 주된 작업 객체로 인식된 제1 시각적 객체(301)를 제1 영역(211)에 제공할 수 있다. According to an embodiment, the processor 120 may provide a work object and a work environment suitable for each user based on identifying the main work object or work environment of the users. According to an embodiment, the processor 120 is connected to the first region 211 of the display 150 (eg, the second electronic device 102 of FIG. 1 , the third electronic device 103 or The fourth electronic device 104) may be identified, and users 201a, 201b, 201c, 201d, and 201e accessed through the external electronic device may be identified. The processor 120 determines an external electronic device connected to the first area 211 based on a work object or work environment for each of the users 201a, 201b, 201c, 201d, and 201e identified through the neural network 140. A work object or work environment corresponding to the first user 201a inputting the identifier (ID) may be provided. For example, the processor 120 assigns the first user 201a to the first area 211 based on identifying that the first user 201a accesses an external electronic device connected to the first area 211 . The first visual object 301 recognized as the main work object of ) may be provided to the first area 211 .

일 실시예에 따르면, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 사용자들(201a, 201b, 201c, 201d, 201e)별의 작업 객체 또는 작업환경을 바탕으로, 제2 영역(211)에 연결된 외부 전자 장치에 식별자(ID)를 입력한 제2 사용자(202a)에 대응되는 작업 객체 또는 작업 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제2 사용자(202a)가 제2 영역(212)에 연결된 외부 전자 장치에 접속함을 식별함을 바탕으로, 제2 영역(212)에 제2 사용자(201b)의 주된 작업으로 인식된 전체 작업 환경(300)을 제2 영역(212)에 제공할 수 있다. According to an embodiment, the processor 120 determines the second area 211 based on a work object or work environment for each of the users 201a, 201b, 201c, 201d, and 201e identified through the neural network 140. ), a work object or work environment corresponding to the second user 202a inputting an identifier (ID) into an external electronic device connected to the second user 202a may be provided. For example, the processor 120 assigns the second user 201b to the second area 212 based on identifying that the second user 202a accesses an external electronic device connected to the second area 212. The entire work environment 300 recognized as the main work of ) may be provided to the second area 212 .

일 실시예에 따르면, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 사용자들(201a, 201b, 201c, 201d, 201e)별의 작업 객체 또는 작업환경을 바탕으로, 제3 영역(213)에 연결된 외부 전자 장치에 식별자(ID)를 입력한 제3 사용자(201c)에 대응되는 작업 객체 또는 작업 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제3 사용자(201c)가 제3 영역(213)에 연결된 외부 전자 장치에 접속함을 식별함을 바탕으로, 제3 영역(213)에 제3 사용자(201c)의 주된 작업 객체로 인식된 제1 시각적 객체(301) 및 제2 시각적 객체(302)를 포함하는 일부 환경(310)을 제3 영역(211)에 제공할 수 있다. According to an embodiment, the processor 120 determines the third area 213 based on a work object or work environment for each of the users 201a, 201b, 201c, 201d, and 201e identified through the neural network 140. A work object or work environment corresponding to the third user 201c who inputs an identifier (ID) into an external electronic device connected to ) may be provided. For example, the processor 120 assigns the third user 201c to the third area 213 based on identifying that the third user 201c accesses an external electronic device connected to the third area 213. A partial environment 310 including the first visual object 301 and the second visual object 302 recognized as the main task object of ) may be provided to the third area 211 .

일 실시예에 따르면, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 사용자들(201a, 201b, 201c, 201d, 201e)별의 작업 객체 또는 작업환경을 바탕으로, 제4 영역(214)에 연결된 외부 전자 장치에 식별자(ID)를 입력한 제4 사용자(201d)에 대응되는 작업 객체 또는 작업 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제4 사용자(201d)가 제4 영역(214)에 연결된 외부 전자 장치에 접속함을 식별함을 바탕으로, 제4 영역(214)에 제4 사용자(201d)의 주된 작업 객체로 인식된 제2 시각적 객체(302)를 제4 영역(214)에 제공할 수 있다. According to an embodiment, the processor 120 determines the fourth area 214 based on a work object or work environment for each of the users 201a, 201b, 201c, 201d, and 201e identified through the neural network 140. A work object or work environment corresponding to the fourth user 201d who inputs an identifier (ID) into an external electronic device connected to ) may be provided. For example, the processor 120 assigns the fourth user 201d to the fourth area 214 based on identifying that the fourth user 201d accesses an external electronic device connected to the fourth area 214 . The second visual object 302 recognized as the main work object of ) may be provided to the fourth area 214 .

일 실시예에 따르면, 프로세서(120)는, 뉴럴 네트워크(140)를 통해 식별된 사용자들(201a, 201b, 201c, 201d, 201e)별의 작업 객체 또는 작업환경을 바탕으로, 제5 영역(215)에 연결된 외부 전자 장치에 식별자(ID)를 입력한 제5 사용자(201e)에 대응되는 작업 객체 또는 작업 환경을 제공할 수 있다. 예를 들면, 프로세서(120)는, 제5 사용자(201e)가 제5 영역(215)에 연결된 외부 전자 장치에 접속함을 식별함을 바탕으로, 제5 영역(215)에 제5 사용자(201e)의 주된 작업 객체로 인식된 제3 시각적 객체(303)를 제5 영역(215)에 제공할 수 있다. According to an embodiment, the processor 120 determines the fifth area 215 based on a work object or work environment for each of the users 201a, 201b, 201c, 201d, and 201e identified through the neural network 140. ), a work object or work environment corresponding to the fifth user 201e who has input an identifier (ID) into an external electronic device connected to the external electronic device may be provided. For example, the processor 120 assigns the fifth user 201e to the fifth area 215 based on identifying that the fifth user 201e accesses an external electronic device connected to the fifth area 215 . The third visual object 303 recognized as the main work object of ) may be provided to the fifth area 215 .

일 실시예에 따르면, 제1 영역(211)에 제1 사용자(201a)가 사용하는 외부 전자 장치가 연결되고, 제2 영역(212)에 제2 사용자(201b)가 사용하는 외부 전자 장치가 연결되고, 제3 영역(213)에 제3 사용자(201c)가 사용하는 외부 전자 장치가 연결되고, 제4 영역(214)에 제4 사용자(201d)가 사용하는 외부 전자 장치가 연결되고, 제5 영역(211)에 제5 사용자(201e)가 사용하는 외부 전자 장치가 연결되는 것으로 설명하였으나, 이에 한정되지 않는다. 예를 들어, 제1 사용자(201a)가 제1 영역(211)에 연결된 외부 전자 장치와 다른 외부 전자 장치를 통해 접속하는 경우, 다른 외부 전자 장치와 연결된 영역으로, 제1 시각적 객체(301)가 표시될 수 있다. 제1 사용자(201a)가 제2 영역(212)에 연결된 외부 전자 장치를 통해 관제 시스템(100)에 접속하는 경우, 프로세서(120)는, 제1 시각적 객체(301)를 제2 영역(212)에 표시할 수 있다. According to an embodiment, an external electronic device used by the first user 201a is connected to the first area 211, and an external electronic device used by the second user 201b is connected to the second area 212. The external electronic device used by the third user 201c is connected to the third area 213, the external electronic device used by the fourth user 201d is connected to the fourth area 214, and the fifth Although it has been described that an external electronic device used by the fifth user 201e is connected to the area 211, it is not limited thereto. For example, when the first user 201a accesses through an external electronic device that is different from the external electronic device connected to the first area 211, the first visual object 301 is displayed in the area connected to the other external electronic device. can be displayed When the first user 201a accesses the control system 100 through an external electronic device connected to the second area 212, the processor 120 converts the first visual object 301 to the second area 212. can be displayed on

일 실시예에 따르면, 각각의 시각적 객체는, 차량, 사람 등을 예시로 하여, 관제 시스템에 관찰되는 사물을 대상을 예시적으로 설명하였으나, 이에 한정되지 않는다. 예를 들면, 시각적 객체는, 공장의 공정 라인 또는 조립 부품들을 나타낼 수 있고, 운송 모듈의 운송 경로 및 운송 장치 등을 포함할 수 있다. 시각적 객체는, 관제 시스템(100)이 적용되는 환경에 따라 다양하게 적용될 수 있다. According to one embodiment, each visual object has been described as an object observed in the control system by taking a vehicle, a person, etc. as an example, but is not limited thereto. For example, the visual object may represent a process line or assembly parts of a factory, and may include a transportation path and transportation device of a transportation module. The visual object may be variously applied depending on the environment to which the control system 100 is applied.

도 5는, 일 실시예에 따른, 각각의 영역에서의 작업의 독립성을 예시적으로 나타내는 도면이다.5 is a diagram illustratively illustrating independence of work in each area according to an embodiment.

도 5를 참조하면, 디스플레이(150)의 각각의 영역은 독립적으로 동작하도록 구성될 수 있다. 제1 영역(211)에 다양한 시각적 객체를 포함하는 예시적인 제1 화면(401a)이 제공되고, 제2 영역(212)에 다양한 시각적 객체를 포함하는 예시적인 제2 화면(402)이 제공될 수 있다. 제1 영역(211)에 접속한 외부 전자 장치를 사용하는 제1 사용자(201a)가 제1 화면(401a)의 일부를 확대하여, 확대 화면(401b)을 사용하는 경우, 확대 화면(401b)은, 제1 영역(211) 내에서만 제공될 수 있다. 예를 들면, 원본 영역(P1)에 대응되는 크기를 가지는 제1 화면(401a)은 확대되어, 확대 영역(P2)에 대응되는 크기로 확대될 수 있다. 확대 영역(P2)은, 제1 영역(211)의 면적보다 넓은 면적을 가질 수 있다. 예를 들면, 확대 영역(P2)은, 제2 영역(212)의 일부에 중첩될 수 있다. 프로세서(120)는, 확대 영역(P2)으로 변환된 제1 화면(401a)을 제2 영역(212)에서는 표시하지 않고, 확대 영역(P2) 중 제1 영역(211)에 중첩된 영역만을 표시할 수 있다. Referring to FIG. 5 , each area of the display 150 may be configured to operate independently. An exemplary first screen 401a including various visual objects may be provided in the first region 211, and an exemplary second screen 402 including various visual objects may be provided in the second region 212. there is. When the first user 201a using an external electronic device connected to the first area 211 enlarges a part of the first screen 401a and uses the enlarged screen 401b, the enlarged screen 401b is , may be provided only within the first region 211 . For example, the first screen 401a having a size corresponding to the original area P1 may be enlarged to a size corresponding to the enlarged area P2. The enlarged area P2 may have an area larger than that of the first area 211 . For example, the enlarged area P2 may overlap a portion of the second area 212 . The processor 120 does not display the first screen 401a converted to the enlarged area P2 on the second area 212, and displays only the area overlapping the first area 211 of the enlarged area P2. can do.

일 실시예에 따르면, 디스플레이(150)는 하나의 디스플레이로 동작하지만, 각각의 영역을 별도의 장치처럼 사용할 수 있다. 프로세서는, 각각의 사용자에게 할당된 영역들은, 지정된 사용자의 작업만 표시되도록 설정될 수 있다. 관제 시스템(100)은, 각각의 사용자에게 자신의 작업만 표시되는 영역을 제공함으로써, 업무의 집중도를 높이고, 업무를 향상시킬 수 있다. According to an embodiment, the display 150 operates as a single display, but each area may be used as a separate device. The processor may be configured to display only tasks of a designated user in areas allocated to each user. The control system 100 can increase the concentration of work and improve work by providing each user with an area in which only their work is displayed.

도 6은, 일 실시예에 따른, 복수의 영역들 중 일부 영역들에 접근 가능한 사용자의 작업을 예시적으로 나타내는 도면이다. 6 is a diagram illustrating an example of a user's work accessible to some areas among a plurality of areas, according to an exemplary embodiment.

도 6을 참조하면, 디스플레이(150)는, 영역들(211, 212, 213)에 사용자별로 할당된 시각적 객체를 포함하는 화면을 제공할 수 있다. 복수의 사용자들과 구별되는 관리자가 관제 시스템(100)에 접속하는 경우, 상기 관리자는, 복수의 영역들(211, 212, 213)에 시각적 객체를 표시할 수 있다. Referring to FIG. 6 , the display 150 may provide a screen including visual objects allocated to regions 211 , 212 , and 213 for each user. When a manager who is distinguished from a plurality of users accesses the control system 100 , the manager may display visual objects in the plurality of areas 211 , 212 , and 213 .

일 실시예에 따르면, 상기 관리자는, 전체 관제 시스템을 관리하는 총괄 관리자일 수 있고, 관제 시스템을 이용하는 사용자들 중 일부를 관리하는 관리자(예: 팀장)일 수 있다. 관리자는 관리자에 할당된 외부 전자 장치 또는 아이디를 바탕으로, 관제 시스템(100)에 접속할 수 있다. 관리자는, 시각적 객체(510)를 제1 영역(211), 제2 영역(212), 및 제3 영역(213)에 표시할 수 있다. 예를 들면, 시각적 객체(510)는, 제1 영역(211), 제2 영역(212) 및 제3 영역(213)을 가로 질러 표시할 수 있다. 예를 들어, 제1 영역(211)을 이용하는 제1 사용자(211a), 제2 영역(212)을 이용하는 제2 사용자(211b), 제3 영역(213)을 이용하는 제3 사용자(211c)는, A로 표시되는 시각적 객체를 관리하는 팀일 수 있다. 관리자는 제1 사용자(211a), 제2 사용자(211b) 및 제3 사용자(211c)를 관리하는 관리자일 수 있다. 관리자는, 팀원인 제1 사용자(211a), 제2 사용자(211b) 및 제3 사용자(211c)가 이용하는 제1 영역(211), 제2 영역(212) 및 제3 영역(213)의 전체 화면을 통해 시각적 객체(510)를 제공할 수 있다. 제1 영역(211), 제2 영역(212) 및 제3 영역(213)과 같이 연속된 영역의 경우, 하나의 시각적 객체(510)로 표시하지만, 서로 연속되지 않은 영역에 각각의 시각적 객체를 제공할 수 있다. According to one embodiment, the manager may be a general manager who manages the entire control system, or a manager (eg, team leader) who manages some of the users using the control system. The manager may access the control system 100 based on an external electronic device or ID assigned to the manager. A manager may display the visual object 510 on the first area 211 , the second area 212 , and the third area 213 . For example, the visual object 510 may be displayed across the first area 211 , the second area 212 and the third area 213 . For example, a first user 211a using the first area 211, a second user 211b using the second area 212, and a third user 211c using the third area 213, It could be the team that manages the visual object represented by A. An administrator may be an administrator who manages the first user 211a, the second user 211b, and the third user 211c. The manager controls the entire screen of the first area 211, the second area 212, and the third area 213 used by the first user 211a, the second user 211b, and the third user 211c, who are members of the team. A visual object 510 may be provided through. Contiguous areas such as the first area 211, the second area 212, and the third area 213 are displayed as one visual object 510, but each visual object is displayed in areas that are not contiguous with each other. can provide

도 7a, 도 7b 및 도 7c는, 일 실시예에 따른, 외부 전자 장치를 활용하여, 가상 관제시스템에 접속하여, 관제 시스템을 제어하는 것을 예시적으로 나타내는 도면이다.7A, 7B, and 7C are diagrams illustrating exemplarily controlling a control system by accessing a virtual control system by utilizing an external electronic device, according to an embodiment.

도 7a를 참조하면, 관제 시스템(100)은, 메타버스 또는 메타버스 자율트윈을 이용할 수 있다. 예를 들면, 관제 시스템(100)을 구현한 프로그램을 통해, 사용자는, 도 1의 제2 전자 장치(102), 제3 전자 장치(103) 및 제4 전자 장치(104)와 상이한 외부 전자 장치를 통해 관제 시스템(100)을 구현한 프로그램에 접속할 수 있다. 외부 전자 장치는, 사용자에게 메타 버스 환경(601)을 사용자에게 시각적으로 제공할 수 있다. 사용자는, 메타 버스 환경(601) 내에서, 실제 디스플레이(150)의 각각의 영역들에 접속할 수 있다. Referring to FIG. 7A , the control system 100 may use a metaverse or a metaverse autonomous twin. For example, through a program that implements the control system 100, the user can select an external electronic device different from the second electronic device 102, the third electronic device 103, and the fourth electronic device 104 of FIG. It is possible to access the program implementing the control system 100 through. The external electronic device may visually provide the meta bus environment 601 to the user. A user may access each area of the actual display 150 within the meta bus environment 601 .

도 7a는, 제3 사용자(201c)가 제2 영역(212)을 외부 전자 장치를 통해 관찰하는 것을 나타낸다. 외부 전자 장치는, 메타 버스 환경(601)을 구현한 전자 장치(예: 도 1의 전자 장치(101))에 네트워크(예: 도 1의 네트워크(199))를 통해 접속할 수 있다. 외부 전자 장치는, 제3 사용자의 개인 단말(예: 휴대폰, 테블릿 PC) 또는 PC를 포함할 수 있다. 제3 사용자는, 메타 버스 환경(601)을 통하여, 제2 영역(212)에 표시된 하나의 시각적 객체(611)를 클릭하거나, 변형할 수 있다. 예를 들면, 제2 사용자(201b)는, 상기 시각적 객체(611)에 관한 작업(예: 네이밍 또는 라벨링)을 수행함으로써, 상기 시각적 객체(611)는 변형된 시각적 객체(611')로 표시될 수 있다. 상기 변형된 시각적 객체(611')는 사용자의 외부 전자 장치에서 수행하였으나, 수행된 내용은, 제1 전자 장치(101)를 통해 디스플레이(150)에 표시될 수 있다. 이와 관련하여, 도 7b, 및 도 7c를 바탕으로 설명한다.7A shows that the third user 201c observes the second area 212 through an external electronic device. An external electronic device may access an electronic device implementing the metabus environment 601 (eg, the electronic device 101 of FIG. 1 ) through a network (eg, the network 199 of FIG. 1 ). The external electronic device may include a third user's personal terminal (eg, mobile phone, tablet PC) or PC. A third user may click or transform one visual object 611 displayed in the second area 212 through the metaverse environment 601 . For example, the second user 201b performs a task (eg, naming or labeling) on the visual object 611, so that the visual object 611 is displayed as a modified visual object 611'. can Although the transformed visual object 611 ′ was executed in the user's external electronic device, the executed contents may be displayed on the display 150 through the first electronic device 101 . In this regard, it will be described based on FIGS. 7B and 7C.

도 7b 및 도 7c를 참조하면, 제2 사용자(201b)가 외부 전자 장치를 통해, 제2 영역(212)에 대응하는 시각적 객체(611)를 변형된 시각적 객체(611')로 변환할 수 있다. 변형된 시각적 객체(611')와 관련된 정보를 수신한 제1 전자 장치(101)는, 디스플레이(150)의 제2 영역(212) 내에서 관련 내용을 표시할 수 있다. 예를 들면, 프로세서(120)는, 변형된 시각적 객체(611')와 관련된 정보를 수신함에 기반하여, 변형된 시각적 객체(611')에 대응되는 시각적 객체에 상기 정보를 반영할 수 있다. 프로세서(120)는, 시각적 객체(611) 및 변형된 시각적 객체(611')에 대응되는 시각적 객체가 제2 시각적 객체(302)임을 식별할 수 있다. 프로세서(120)는 상기 제2 시각적 객체(302)를 식별함을 바탕으로, 제2 시각적 객체(302)를 변형된 시각적 객체(611')에 대응되는 변형된 제2 시각적 객체(302')로 변환할 수 있다. Referring to FIGS. 7B and 7C , a second user 201b may convert a visual object 611 corresponding to the second area 212 into a modified visual object 611' through an external electronic device. . Upon receiving the information related to the transformed visual object 611', the first electronic device 101 may display related content within the second area 212 of the display 150. For example, based on receiving information related to the transformed visual object 611', the processor 120 may reflect the information to a visual object corresponding to the transformed visual object 611'. The processor 120 may identify the second visual object 302 as a visual object corresponding to the visual object 611 and the transformed visual object 611'. Based on the identification of the second visual object 302, the processor 120 converts the second visual object 302 into a transformed second visual object 302' corresponding to the transformed visual object 611'. can be converted

일 실시예에 따르면, 프로세서(120)는, 메타 버스 환경(601) 내에서 변형된 제2 영역(212)의 시각적 객체만(예: 제2 영역(212) 내의 제2 시각적 객체(302))을 변형할 수 있다. 하지만, 이에 한정되지 않고, 프로세서(120)는, 메타 버스 환경(601) 내에서 변형된 시각적 객체(예: 제2 시각적 객체(302))를 바탕으로, 디스플레이(150)에 표시된 제2 시각적 객체(302)를 변형할 수 있다. 예를 들면, 제2 시각적 객체(302)는, 제2 영역(212), 제3 영역(213) 및 제4 영역(214)에 표시될 수 있다. 프로세서(120)는, 변형된 시각적 객체(611')가 제2 시각적 객체(302)임을 인식함을 바탕으로, 디스플레이(150)에 표시된 모든 제2 시각적 객체(302)를 변형된 제2 시각적 객체(302')로 변환할 수 있다. According to one embodiment, the processor 120 only transforms the visual object of the second area 212 within the metaverse environment 601 (eg, the second visual object 302 within the second area 212). can transform However, the processor 120 is not limited thereto, and the second visual object displayed on the display 150 is based on the transformed visual object (eg, the second visual object 302) within the metaverse environment 601. (302) can be modified. For example, the second visual object 302 may be displayed on the second area 212 , the third area 213 , and the fourth area 214 . Based on recognizing that the transformed visual object 611' is the second visual object 302, the processor 120 converts all second visual objects 302 displayed on the display 150 to the transformed second visual object. (302').

상술한 실시예에 따른, 관제 시스템(100)은, 외부에서 접속 가능한 메타버스 환경(610)을 구현함으로써, 사용자는, 관제 시스템(100)에 연결된 전자 장치들(예: 제1 전자 장치(101), 제2 전자 장치(102), 제3 전자 장치(103), 및 제4 전자 장치(104)) 외의 다른 전자 장치들을 통해, 가상으로 구현된 관제 시스템에 접속할 수 있다. 사용자는, 메타 버스 환경(601) 내의 관제 시스템을 통해, 관제 업무를 수행하고, 수행된 관제 업무와 관련된 데이터는 제1 전자 장치(101)로 전송될 수 있다. 메타 버스 환경(601)의 구현을 통해, 사용자는, 장소 및/또는 시간의 제약없이, 관제 시스템(100)을 이용할 수 있다. According to the above-described embodiment, the control system 100 implements a metaverse environment 610 that can be accessed from the outside, so that the user can access electronic devices connected to the control system 100 (eg, the first electronic device 101 ), through electronic devices other than the second electronic device 102, the third electronic device 103, and the fourth electronic device 104, it is possible to access the virtually implemented control system. The user may perform a control task through the control system in the metabus environment 601, and data related to the performed control task may be transmitted to the first electronic device 101. Through the implementation of the meta bus environment 601, the user can use the control system 100 without restriction of location and/or time.

상술한 실시예에 따른, 관제 시스템은, 적어도 하나의 디스플레이, 상기 적어도 하나의 디스플레이를 복수의 영역들(zones)로 분할하도록 제어하는 제1 프로세서, 뉴럴 네트워크 및 네트워크를 통해 다른 전자 장치와 연결되도록 구성되는 제1 통신 회로를 포함하는 제1 전자 장치와, 제2 프로세서 및 상기 제1 전자 장치와 상기 네트워크를 통해 연결되도록 구성되는 제2 통신 회로를 포함하는 제2 전자 장치를 포함할 수 있다. According to the above-described embodiment, the control system includes at least one display, a first processor controlling the at least one display to be divided into a plurality of zones, a neural network, and connected to other electronic devices through the network. It may include a first electronic device including a configured first communication circuit, a second processor, and a second electronic device including a second communication circuit configured to be connected to the first electronic device through the network.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 프로세서를 통해 처리되는 정보들을 수신하고, 상기 수신된 정보를 상기 복수의 영역들 중 지정된 하나의 영역에 표시하고, 상기 수신된 정보들을 바탕으로, 상기 뉴럴 네트워크를 통해, 상기 제2 프로세서를 통해 처리되는 빈도가 높은 제1 정보 또는 최근 처리되는 제2 정보를 식별하고, 상기 제2 통신 회로를 통해 상기 네트워크에 접속함을 식별하고, 상기 식별에 응답하여, 상기 지정된 하나의 영역 상에, 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다. According to an embodiment, the first processor receives information processed through the second processor, displays the received information in a designated one area among the plurality of areas, and based on the received information In this way, through the neural network, first information that is frequently processed through the second processor or second information that is recently processed is identified, and access to the network is identified through the second communication circuit, In response to the identification, the first information or the second information may be displayed on the designated one area.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 식별자에 대응되도록 매칭하고, 상기 매칭된 정보를 바탕으로, 상기 제2 전자 장치와 구별되는 제3 전자 장치를 통해 상기 식별자가 입력됨을 식별하면, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 지정된 하나의 영역 상에 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성될 수 있다. According to an embodiment, the first processor matches the identified first information or the second information to correspond to the identifier based on the identifier input through the second electronic device, and the matched information Based on, if it is identified that the identifier is input through a third electronic device distinct from the second electronic device, the identified first information or the second information is displayed on the designated one area. It may be configured to display the second information.

일 실시예에 따르면, 상기 제2 프로세서는, 상기 제1 정보 또는 상기 제2 정보에 포함되는 시각적 객체의 사이즈를 조절하기 위한 입력을 바탕으로, 상기 시각적 객체의 사이즈를 조절과 관련된 제3 정보를 상기 제1 전자 장치로 송신하고, 상기 제1 프로세서는, 상기 제3 정보를 수신함을 바탕으로, 상기 시각적 객체의 크기가 상기 지정된 하나의 영역의 크기보다 크면, 상기 시각적 객체의 일부를 상기 지정된 하나의 영역에 표시하도록 구성될 수 있다. According to an embodiment, the second processor receives third information related to adjusting the size of the visual object based on an input for adjusting the size of the visual object included in the first information or the second information. transmission to the first electronic device, and the first processor, on the basis of receiving the third information, if the size of the visual object is greater than the size of the one designated area, the first processor converts a part of the visual object to the designated one area. It can be configured to display in the area of.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 상기 식별자에 대응되는 관리자 권한을 식별하고, 상기 관리자 권한을 바탕으로, 상기 복수의 영역들 중 적어도 하나의 영역을 상기 식별자에 할당하도록 구성될 수 있다. According to an embodiment, the first processor identifies administrator authority corresponding to the identifier based on the identifier input through the second electronic device, and based on the manager authority, among the plurality of areas. It may be configured to assign at least one region to the identifier.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 관리자 권한이 제1 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 전체에 표시하도록 구성될 수 있다. According to an embodiment, the first processor may be configured to display some visual objects among information acquired from the second electronic device on all of the plurality of areas, based on the administrator authority being identified as the first authority. can

일 실시예에 따르면, 상기 제1 프로세서는, 상기 관리자 권한이 제2 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 중 지정된 영역을 포함하는 일부 영역들에 표시하도록 구성될 수 있다. According to an embodiment, the first processor, based on the administrator authority being identified as the second authority, converts some visual objects among information obtained from the second electronic device to a designated area among the plurality of areas. It can be configured to display in some areas.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치와 상이한 제3 전자 장치가 상기 네트워크를 통해 접속함을 식별하고, 상기 제3 전자 장치로, 상기 복수의 영역들을 포함하는 상기 디스플레이의 표시 화면을 전송할 수 있다. According to an embodiment, the first processor identifies that a third electronic device different from the second electronic device accesses through the network, and, as the third electronic device, the display including the plurality of regions. The display screen of can be transmitted.

상기 제3 전자 장치는, 제3 프로세서를 포함하고, 상기 제3 프로세서는, 상기 전송된 표시 화면 중 하나의 영역상에, 데이터의 입력을 식별하고, 상기 식별된 데이터의 입력을 바탕으로, 상기 제1 프로세서로, 상기 디스플레이 상의 상기 하나의 영역에 대응되는 영역에 상기 입력을 표시하도록 구성될 수 있다. The third electronic device includes a third processor, and the third processor identifies an input of data on one area of the transmitted display screen, and based on the input of the identified data, The first processor may be configured to display the input in an area corresponding to the one area on the display.

일 실시예에 따르면, 상기 제1 프로세서는, 상기 제2 전자 장치를 통해 상기 하나의 영역에 대응되는 영역에 다른 입력을 식별하면, 상기 제3 전자 장치로, 상기 제3 전자 장치의 표시 영역에서 상기 하나의 영역에 대응되는 영역에 상기 다른 입력을 표시하도록 구성될 수 있다. According to an embodiment, the first processor, when identifying another input to the area corresponding to the one area through the second electronic device, sends the third electronic device to the display area of the third electronic device. The other input may be displayed in an area corresponding to the one area.

일 실시예에 따르면, 상기 뉴럴 네트워크는, 상기 제1 프로세서로부터 상기 제2 프로세서를 통해 처리되는 정보들을 수신하고, 상기 수신된 정보들을 바탕으로, 상기 제1 정보 또는 상기 제2 정보를 갱신하도록 구성될 수 있다. According to an embodiment, the neural network is configured to receive information processed through the second processor from the first processor, and to update the first information or the second information based on the received information. It can be.

일 실시예에 따르면, 상기 제1 정보는, 상기 제2 전자 장치의 사용자를 통해 지시된 시각적 객체들을 학습하여 획득될 수 있다. According to an embodiment, the first information may be acquired by learning visual objects indicated by the user of the second electronic device.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, an electronic device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeably interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integral part or the smallest unit of a part or part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Claims (10)

관제 시스템에 있어서,
적어도 하나의 디스플레이;
상기 적어도 하나의 디스플레이를 복수의 영역들(zones)로 분할하도록 제어하는 제1 프로세서, 뉴럴 네트워크 및 제1 통신 회로를 포함하는 제1 전자 장치; 및
제2 프로세서 및 상기 제1 전자 장치와 네트워크를 통해 연결되도록 상기 제1 통신 회로와 통신 채널을 개설하도록 구성되는 제2 통신 회로를 포함하는 제2 전자 장치; 를 포함하고,
상기 제1 프로세서는,
상기 제2 프로세서를 통해 처리되는 정보들을 수신하고,
상기 수신된 정보를 상기 복수의 영역들 중 지정된 하나의 영역에 표시하고,
상기 수신된 정보들을 바탕으로, 상기 뉴럴 네트워크를 통해, 상기 제2 프로세서를 통해 처리되는 빈도가 높은 제1 정보 또는 최근 처리되는 제2 정보를 식별하고,
상기 제2 통신 회로를 통해 상기 제2 전자 장치가 상기 네트워크에 접속함을 식별하고,
상기 식별에 응답하여, 상기 지정된 하나의 영역 상에, 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성되고,
상기 뉴럴 네트워크는,
상기 제1 프로세서로부터 상기 제2 프로세서를 통해 처리되는 정보들을 수신하고,
상기 수신된 정보들을 바탕으로, 상기 제1 정보 또는 상기 제2 정보를 갱신하도록 구성되고,
상기 제1 정보는,
상기 뉴럴네트워크를 통해, 상기 제2 전자 장치의 사용자가 상기 지정된 영역 상에 표시되는 시각적 객체들 중 상기 사용자에 의한 입력에 대응되는 시각적 객체를 학습하여 획득되는,
관제 시스템.
In the control system,
at least one display;
a first electronic device including a first processor, a neural network, and a first communication circuit that controls to divide the at least one display into a plurality of zones; and
a second electronic device comprising a second processor and a second communication circuit configured to establish a communication channel with the first communication circuit to be connected to the first electronic device through a network; including,
The first processor,
Receiving information processed through the second processor;
Displaying the received information in a designated area among the plurality of areas;
Based on the received information, identify first information that is frequently processed through the neural network and through the second processor or second information that is recently processed,
Identifying that the second electronic device accesses the network through the second communication circuit;
In response to the identification, configured to display the first information or the second information on the designated one area;
The neural network,
Receiving information processed through the second processor from the first processor;
Based on the received information, configured to update the first information or the second information,
The first information,
Obtained by the user of the second electronic device learning a visual object corresponding to an input by the user among visual objects displayed on the designated area through the neural network,
control system.
제1항에 있어서,
상기 제1 프로세서는,
상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 식별자에 대응되도록 매칭하고,
상기 매칭된 정보를 바탕으로, 상기 제2 전자 장치와 구별되는 제3 전자 장치를 통해 상기 식별자가 입력됨을 식별하면, 식별된 상기 제1 정보 또는 상기 제2 정보를 상기 지정된 하나의 영역 상에 상기 제1 정보 또는 상기 제2 정보를 표시하도록 구성되는,
관제 시스템.
According to claim 1,
The first processor,
Based on the identifier input through the second electronic device, matching the identified first information or the second information to correspond to the identifier,
Based on the matched information, if it is identified that the identifier is input through a third electronic device distinct from the second electronic device, the identified first information or the second information is displayed on the designated one area. configured to display the first information or the second information;
control system.
제1항에 있어서,
상기 제2 프로세서는,
상기 제1 정보 또는 상기 제2 정보에 포함되는 시각적 객체의 사이즈를 조절하기 위한 입력을 바탕으로, 상기 시각적 객체의 사이즈를 조절과 관련된 제3 정보를 상기 제1 전자 장치로 송신하고,
상기 제1 프로세서는,
상기 제3 정보를 수신함을 바탕으로, 상기 시각적 객체의 크기가 상기 지정된 하나의 영역의 크기보다 크면, 상기 시각적 객체의 일부를 상기 지정된 하나의 영역에 표시하도록 구성되는,
관제 시스템.
According to claim 1,
The second processor,
Transmitting third information related to adjusting the size of the visual object to the first electronic device based on an input for adjusting the size of the visual object included in the first information or the second information;
The first processor,
Based on receiving the third information, if the size of the visual object is greater than the size of the one designated area, displaying a part of the visual object in the one designated area,
control system.
제1항에 있어서,
상기 제1 프로세서는,
상기 제2 전자 장치를 통해 입력된 식별자를 바탕으로, 상기 식별자에 대응되는 관리자 권한을 식별하고,
상기 관리자 권한을 바탕으로, 상기 복수의 영역들 중 적어도 하나의 영역을 상기 식별자에 할당하도록 구성되는,
관제 시스템.
According to claim 1,
The first processor,
Based on the identifier input through the second electronic device, an administrator authority corresponding to the identifier is identified;
Based on the manager authority, at least one area among the plurality of areas is configured to be allocated to the identifier,
control system.
제4항에 있어서,
상기 제1 프로세서는,
상기 관리자 권한이 제1 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 전체 에 표시하도록 구성되는,
관제 시스템.
According to claim 4,
The first processor,
Based on the administrator authority being identified as the first authority, some visual objects among the information obtained from the second electronic device are displayed on all of the plurality of regions.
control system.
제4항에 있어서,
상기 제1 프로세서는,
상기 관리자 권한이 제2 권한으로 식별됨을 바탕으로, 상기 제2 전자 장치로부터 획득된 정보 중 일부 시각적 객체를 상기 복수의 영역들 중 지정된 영역을 포함하는 일부 영역들에 표시하도록 구성되는,
관제 시스템.
According to claim 4,
The first processor,
Based on the administrator authority being identified as the second authority, some visual objects of information obtained from the second electronic device are displayed in some areas including a designated area among the plurality of areas,
control system.
제1항에 있어서,
상기 제1 프로세서는,
상기 제2 전자 장치와 상이한 제3 전자 장치가 상기 네트워크를 통해 접속함을 식별하고,
상기 제3 전자 장치로, 상기 복수의 영역들을 포함하는 상기 디스플레이의 표시 화면을 전송하고,
상기 제3 전자 장치는,
제3 프로세서를 포함하고,
상기 제3 프로세서는,
상기 전송된 표시 화면 중 하나의 영역상에, 데이터의 입력을 식별하고,
상기 식별된 데이터의 입력을 바탕으로, 상기 제1 프로세서로, 상기 디스플레이 상의 상기 하나의 영역에 대응되는 영역에 상기 입력을 표시하도록 구성되는,
관제 시스템.
According to claim 1,
The first processor,
Identifying that a third electronic device different from the second electronic device accesses through the network;
transmits a display screen of the display including the plurality of regions to the third electronic device;
The third electronic device,
a third processor;
The third processor,
On an area of one of the transmitted display screens, identify input of data;
Based on the input of the identified data, the first processor is configured to display the input in an area corresponding to the one area on the display,
control system.
제7항에 있어서,
상기 제1 프로세서는, 상기 제2 전자 장치를 통해 상기 하나의 영역에 대응되는 영역에 다른 입력을 식별하면, 상기 제3 전자 장치로, 상기 제3 전자 장치의 표시 영역에서 상기 하나의 영역에 대응되는 영역에 상기 다른 입력을 표시하도록 구성되는,
관제 시스템.
According to claim 7,
When the first processor identifies another input to the area corresponding to the one area through the second electronic device, the first processor responds to the one area in the display area of the third electronic device to the third electronic device. configured to display the other input in the area to be,
control system.
삭제delete 제1항에 있어서,
상기 제1 정보는,
상기 제2 전자 장치의 사용자를 통해 지시된 시각적 객체들을 학습하여 획득된,
관제 시스템.
According to claim 1,
The first information,
Obtained by learning visual objects indicated by the user of the second electronic device,
control system.
KR1020220145922A 2022-11-04 2022-11-04 Control system including neural network that learns visual objects KR102567496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220145922A KR102567496B1 (en) 2022-11-04 2022-11-04 Control system including neural network that learns visual objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220145922A KR102567496B1 (en) 2022-11-04 2022-11-04 Control system including neural network that learns visual objects

Publications (1)

Publication Number Publication Date
KR102567496B1 true KR102567496B1 (en) 2023-08-16

Family

ID=87848135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220145922A KR102567496B1 (en) 2022-11-04 2022-11-04 Control system including neural network that learns visual objects

Country Status (1)

Country Link
KR (1) KR102567496B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101251304B1 (en) * 2012-11-26 2013-04-05 주식회사 누리콘 Picture control device
KR101372358B1 (en) * 2013-09-24 2014-03-12 주식회사 다누시스 System for displaying of video data
KR101723456B1 (en) * 2016-11-30 2017-04-06 주식회사 보미온 multi video wall control system of Display-Port daisy chain pattern, and control method for the same
KR101849229B1 (en) * 2017-08-25 2018-05-24 (주)비전정보통신 CCTV video monitoring system using voice recognition
KR101885581B1 (en) * 2016-08-05 2018-08-06 한국산업기술대학교산학협력단 Wall display system and method for operating wall display system
KR102146650B1 (en) * 2020-03-23 2020-08-20 배민호 Method and apparatus for designing cctv control system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101251304B1 (en) * 2012-11-26 2013-04-05 주식회사 누리콘 Picture control device
KR101372358B1 (en) * 2013-09-24 2014-03-12 주식회사 다누시스 System for displaying of video data
KR101885581B1 (en) * 2016-08-05 2018-08-06 한국산업기술대학교산학협력단 Wall display system and method for operating wall display system
KR101723456B1 (en) * 2016-11-30 2017-04-06 주식회사 보미온 multi video wall control system of Display-Port daisy chain pattern, and control method for the same
KR101849229B1 (en) * 2017-08-25 2018-05-24 (주)비전정보통신 CCTV video monitoring system using voice recognition
KR102146650B1 (en) * 2020-03-23 2020-08-20 배민호 Method and apparatus for designing cctv control system

Similar Documents

Publication Publication Date Title
US20200326687A1 (en) Relevance based digital building
Dankan Gowda et al. Internet of things: Internet revolution, impact, technology road map and features.
CA2962999C (en) Diagnosing slow tasks in distributed computing
EP3479531B1 (en) Automated configuration of machine-to-machine systems
US20170012929A1 (en) Integration of devices through a social networking platform
Hossain et al. Virtual caregiver: an ambient-aware elderly monitoring system
Ahmad et al. Leveraging 6G, extended reality, and IoT big data analytics for healthcare: A review
CN101632050A (en) But the building automation system and the framework of dynamic expansion and configuration automatically
DE112021008273T5 (en) Systems, facilities, articles of manufacture and processes for cross-training and collaborative artificial intelligence for proactive data management and analysis
US20180167467A1 (en) Automated learning universal gateway
Fraile et al. Context-aware multiagent system: Planning home care tasks
US11601949B2 (en) Distributed edge-environment computing platform for context-enabled ambient intelligence, environmental monitoring and control, and large-scale near real-time informatics
US11373191B2 (en) Systems, devices, components and methods for dynamically displaying performance scores associated with the performance of a building or structure
Raj et al. Edge/Fog Computing Paradigm: The Concept, Platforms and Applications.
US11934284B2 (en) Method and system for synthetic application monitoring
KR102567496B1 (en) Control system including neural network that learns visual objects
Fattah et al. Restful web services composition using semantic ontology for elderly living assistance services
Miya et al. Artificial intelligence advancement for 6G communication: a visionary approach
CN103167012A (en) Real-time dynamic decision system and method thereof
US20230273922A1 (en) Building data platform with a distributed digital twin
US11894944B2 (en) Building data platform with an enrichment loop
US20240211480A1 (en) Information aggregation in a multi-modal entity-feature graph for intervention prediction
Fraile et al. Hocama: Home care hybrid multiagent architecture
KR20140087117A (en) Remote monitoring system and method based on a smart collaboration
Zhang et al. Supporting personizable virtual Internet of Things

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant