KR102472368B1 - Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry - Google Patents

Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry Download PDF

Info

Publication number
KR102472368B1
KR102472368B1 KR1020200064578A KR20200064578A KR102472368B1 KR 102472368 B1 KR102472368 B1 KR 102472368B1 KR 1020200064578 A KR1020200064578 A KR 1020200064578A KR 20200064578 A KR20200064578 A KR 20200064578A KR 102472368 B1 KR102472368 B1 KR 102472368B1
Authority
KR
South Korea
Prior art keywords
terminal
work
context
access
unit
Prior art date
Application number
KR1020200064578A
Other languages
Korean (ko)
Other versions
KR20210147398A (en
Inventor
남훈
전지혜
Original Assignee
주식회사 두손씨엔에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 두손씨엔에이 filed Critical 주식회사 두손씨엔에이
Priority to KR1020200064578A priority Critical patent/KR102472368B1/en
Publication of KR20210147398A publication Critical patent/KR20210147398A/en
Application granted granted Critical
Publication of KR102472368B1 publication Critical patent/KR102472368B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/252Integrating or interfacing systems involving database management systems between a Database Management System and a front-end application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06F21/46Structures or tools for the administration of authentication by designing passwords or checking the strength of passwords
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

본 발명의 빅데이터 구축 장치는 하나의 완성품을 생산하는 복수의 기업의 단말과 통신을 위한 통신부와, 상기 복수의 기업의 생산 정보를 통합하여 저장하는 저장부와, 상기 통신부를 통해 상기 복수의 단말 중 어느 하나의 단말로부터 접속 요청 메시지를 수신하면, 수신된 접속 요청 메시지에 대를 기초로 상기 단말이 상기 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행하는 접속처리부와, 상기 인증 결과, 인증에 성공하면, 상기 단말에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당하고, 상기 저장부의 상기 생산 정보 중 상기 단말이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 상기 할당된 작업 공간에 로드한 후, 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 통신부를 통해 상기 단말에 전송하는 작업할당부를 포함하는 작업관리부를 포함한다. The big data construction apparatus of the present invention includes a communication unit for communication with terminals of a plurality of companies producing one finished product, a storage unit for integrating and storing production information of the plurality of companies, and the plurality of terminals through the communication unit. When receiving an access request message from any one of the terminals, the access processing unit performs authentication on whether the terminal has permission to access the production information of the plurality of companies based on the received access request message. And, as a result of the authentication, if the authentication is successful, a work space, which is a volatile memory space of a size corresponding to the terminal, is allocated, and among the production information of the storage unit, production information corresponding to a job performed by a company to which the terminal belongs is assigned and a work management unit including a work assignment unit for copying and loading the assigned work space and then transmitting an access response message including an access address of the assigned work space to the terminal through the communication unit.

Figure 112020054445356-pat00029
Figure 112020054445356-pat00029

Description

하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 장치 및 이를 위한 방법{Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry}Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry}

본 발명은 빅데이터 구축 기술에 관한 것으로, 보다 상세하게는, 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 장치 및 이를 위한 방법에 관한 것이다. The present invention relates to big data construction technology, and more particularly, to a big data construction apparatus and method for sharing production information between a plurality of companies that produce one finished product.

생산은 사람의 경제 활동의 주된 활동이며 토지나 원재료 등에서 사람의 요구를 충족하는 재화를 만드는 행위나 그 과정을 가리킨다. Production is the main activity of human economic activity and refers to the act or process of making goods that meet human needs from land or raw materials.

한국공개특허 제2006-0126749호 2006년 12월 08일 공개 (명칭: 웹-애플리케이션이 기업 관리 데이터를 액세스 가능하게하기 위한 방법, 장치 및 컴퓨터 프로그램)Korean Patent Publication No. 2006-0126749 published on December 08, 2006 (Title: Method, device and computer program for making corporate management data accessible by web-application) 한국공개특허 제2008-0098304호 2008년11월07일 공개 (명칭: 데이터베이스 접근 인증을 위한 권한 관리체계 및데이터베이스 계정 보호 방법)Korean Patent Publication No. 2008-0098304 published on November 7, 2008 (Name: Authorization management system for database access authentication and database account protection method)

본 발명의 목적은 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 장치 및 이를 위한 방법을 제공함에 있다. An object of the present invention is to provide a big data construction device and method for sharing production information between a plurality of companies producing one finished product.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 빅데이터 구축 장치는 하나의 완성품을 생산하는 복수의 기업의 단말과 통신을 위한 통신부와, 상기 복수의 기업의 생산 정보를 통합하여 저장하는 저장부와, 상기 통신부를 통해 상기 복수의 단말 중 어느 하나의 단말로부터 접속 요청 메시지를 수신하면, 수신된 접속 요청 메시지를 기초로 상기 단말이 상기 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행하는 접속처리부와, 상기 인증 결과, 인증에 성공하면, 상기 단말에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당하고, 상기 저장부의 상기 생산 정보 중 상기 단말이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 상기 할당된 작업 공간에 로드한 후, 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 통신부를 통해 상기 단말에 전송하는 작업할당부를 포함하는 작업관리부를 포함한다. Big data construction apparatus according to a preferred embodiment of the present invention for achieving the above object is to integrate a communication unit for communication with terminals of a plurality of companies producing one finished product, and production information of the plurality of companies. When an access request message is received from any one of the plurality of terminals through the storage unit and the communication unit, the terminal can access production information of the plurality of companies based on the received connection request message An access processing unit that authenticates whether or not there is an authority, and as a result of the authentication, if the authentication is successful, allocates a workspace that is a volatile memory space of a size corresponding to the terminal, and among the production information of the storage unit, the terminal After copying the production information corresponding to the work performed by the belonging company and loading it into the assigned work space, a connection response message including the access address of the assigned work space is transmitted to the terminal through the communication unit. It includes a work management unit that includes a request.

상기 접속 요청 메시지는 상기 단말의 사용자의 식별자 및 패스워드와, 상기 단말의 컨텍스트를 포함하며, 상기 컨텍스트는 단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함한다. The access request message includes an identifier and password of a user of the terminal and a context of the terminal, and the context includes a device identifier of the terminal, a type of terminal, access location, access time, access IP, access port, and access network information. It includes the type, identification information of the access network and the application used for the connection.

상기 접속처리부는 상기 단말의 사용자의 식별자 및 패스워드를 통해 사용자의 계정이 기 등록된 계정인지 여부를 인증하는 계정인증부와, 어느 하나의 계층의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 되는 복수의 연산을 포함하는 복수의 계층을 포함하는 컨텍스트인증망을 이용하여 상기 컨텍스트가 상기 등록된 계정에 부합하는지 여부를 인증하는 컨텍스트인증부를 포함한다. The access processing unit includes an account authentication unit that authenticates whether the user's account is a pre-registered account through the user's identifier and password of the terminal, and a weight is applied to the calculation result of any one layer to be input to the next layer. and a context authentication unit that authenticates whether the context corresponds to the registered account by using a context authentication network including a plurality of layers including a plurality of operations.

상기 컨텍스트인증망은 상기 컨텍스트를 입력받는 입력계층과, 상기 입력계층의 컨텍스트에 대해 가중치 행렬로 구성된 제1 필터를 통해 컨볼루션 연산을 수행하여 제1 특징지도를 구성하는 컨볼루션계층과, 상기 컨볼루션계층의 제1 특징지도에 대해 가중치 행렬로 구성된 제2 필터를 통해 풀링 연산을 수행하여 제2 특징지도를 구성하는 풀링계층과, 상기 풀링계층의 제2 특징지도를 변환하여 하나의 열로 정렬하는 평탄화계층과, 복수의 연산 노드를 포함하며, 복수의 연산 노드 각각이 하나의 열로 정렬된 제2 특징지도에 대해 가중치가 적용된 활성화함수를 통한 연산을 수행하여 상기 복수의 연산 노드 각각에 대응하는 연산값을 산출하는 완전연결계층과, 복수의 기업 각각에 대응하는 복수의 출력 노드를 포함하며, 상기 완전연결계층의 상기 복수의 연산 노드의 연산값에 대해 활성화함수를 통한 연산을 수행하여 상기 컨텍스트를 가지는 단말이 상기 복수의 기업 각각에 속할 확률을 나타내는 컨텍스트벡터를 산출하고, 산출된 확률을 출력값으로 출력하는 출력계층을 포함한다. The context authentication network includes an input layer that receives the context, a convolution layer that constructs a first feature map by performing a convolution operation through a first filter composed of a weight matrix for the context of the input layer, and the convolution layer that constructs a first feature map. A pooling layer constituting a second feature map by performing a pooling operation on the first feature map of the solution layer through a second filter composed of a weight matrix, and converting the second feature map of the pooling layer and arranging them into one column An operation corresponding to each of the plurality of operation nodes is performed by performing an operation through an activation function to which a weight is applied to the second feature map including a flattening layer and a plurality of operation nodes, each of which is arranged in a single column. It includes a fully-connected layer that calculates a value, and a plurality of output nodes corresponding to each of a plurality of companies, and performs an operation through an activation function on the calculated values of the plurality of operation nodes of the fully-connected layer to obtain the context. and an output layer that calculates a context vector representing a probability that a terminal belongs to each of the plurality of companies and outputs the calculated probability as an output value.

상기 장치는 기업이 알려진 학습용 컨텍스트에 대해 알려진 기업에 따라 레이블을 설정하고, 상기 컨텍스트인증망에 상기 학습용 컨텍스트를 입력한 후, 상기 컨텍스트인증망이 학습용 컨텍스트에 대해 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하면, 상기 설정된 레이블과 상기 출력값의 차이인 손실값을 산출하는 손실함수

Figure 112020054445356-pat00001
의 손실값이 최소가 되도록 상기 컨텍스트인증망의 가중치를 최적하되, 동일한 복수의 학습용 컨텍스트를 이용하여 상기
Figure 112020054445356-pat00002
의 값을 1, 0.5 및 0으로 변경하면서 상기 컨텍스트인증망에 대한 학습을 수행하는 학습부를 더 포함한다. The apparatus sets a label according to a known company for a known learning context, inputs the learning context to the context authentication network, and then the context authentication network performs a plurality of calculations in which a weight is applied to the learning context. When an output value is calculated, a loss function that calculates a loss value that is the difference between the set label and the output value
Figure 112020054445356-pat00001
Optimizing the weight of the context authentication network so that the loss value of
Figure 112020054445356-pat00002
A learning unit for performing learning on the context authentication network while changing the value of 0 to 1, 0.5, and 0 is further included.

여기서, 상기 Ecm은 손실함수를 나타내고, 상기 hy는 레이블에 따라 알려진 기업을 나타내는 원핫인코딩벡터이고, 상기 fy는 상기 출력값이고, 상기 cy는 레이블에 따라 알려진 기업의 복수의 컨텍스트벡터 중 중심벡터이고, 상기 y는 기업 인덱스이고, 상기 N은 y의 최댓값이고, 상기

Figure 112020054445356-pat00003
는 하이퍼파라미터이다. Here, Ecm represents a loss function, hy is a one-hot encoding vector representing a company known according to a label, fy is the output value, cy is a center vector among a plurality of context vectors of a company known according to a label, The y is the company index, the N is the maximum value of y, and the
Figure 112020054445356-pat00003
is a hyperparameter.

상기 작업관리부는 상기 통신부를 통해 상기 단말이 상기 작업 공간에 접속하면, 상기 단말이 상기 작업 공간에서 수행하는 작업을 모니터링하여 상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 작업인증부를 더 포함한다. The work management unit further includes a work authentication unit that monitors a work performed by the terminal in the work space when the terminal accesses the work space through the communication unit and determines whether the work performed by the terminal is a valid work. do.

상기 작업인증부는 상기 단말이 상기 작업 공간에서 접속한 후 시간 순서에 따라 기록된 복수의 로그를 순차로 추출하고, 추출된 복수의 로그 각각의 특징을 나타내는 복수의 로그벡터를 생성하고, 복수의 로그벡터를 로그가 기록된 시간 순서에 따라 정렬하여 제공하며, 로그가 기록된 시간을 나타내는 시간 벡터를 생성하는 전처리부와, 상기 복수의 로그벡터에 대응하는 시간 벡터 및 상기 컨텍스트벡터를 결합하여 시간 순서로 정렬된 복수의 작업로그벡터를 생성하는 벡터결합부와, 상기 복수의 작업로그벡터에 대해 복수의 스테이지의 순서대로 가중치가 적용되는 하나 이상의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하고, 상기 산출된 작업속성벡터로부터 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업인지 여부를 나타내는 확률을 산출하고, 산출된 확률을 출력하는 작업인증망을 포함한다. The work authentication unit sequentially extracts a plurality of logs recorded in chronological order after the terminal accesses the workspace, generates a plurality of log vectors representing characteristics of each of the plurality of extracted logs, and generates a plurality of log vectors. A pre-processing unit that provides vectors in order according to the time order in which the logs were recorded, and generates a time vector representing the time at which the log was recorded, and a time vector corresponding to the plurality of log vectors and the context vector are combined to provide the time order. A vector combiner for generating a plurality of work log vectors arranged in , and a task performed by the terminal in the work space by performing one or more operations to which weights are applied in order of a plurality of stages to the plurality of work log vectors. A task attribute vector representing the attribute of is calculated, a probability indicating whether a task performed by the terminal in the workspace is a task authorized to be performed by the terminal is calculated from the calculated task attribute vector, and the calculated probability is It includes the work certification network that outputs.

상기 작업인증망은 순차로 정렬된 복수의 스테이지로 이루어지는 것을 특징으로 한다. 또한, 상기 작업인증망은 상기 복수의 스테이지에 대응하여 시간 순서로 정렬된 복수의 작업로그벡터를 상기 복수의 스테이지 별로 입력받는 작업입력층과, 이전 스테이지의 상태값과 현 스테이지의 입력값인 작업로그벡터에 대해 상태 및 입력 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 상태값을 다음 스테이지에 전달하는 복수의 은닉셀을 포함하되, 상기 복수의 은닉셀 중 마지막 은닉셀은 이전 스테이지의 상태값에 대해 상태 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 현 스테이지의 상태값에 출력 가중치를 적용하여 단말이 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하는 작업은닉층과, 상기 작업속성벡터를 복수의 속성값으로 구분하여 구분된 복수의 속성값을 출력하는 작업출력층과, 상기 산출된 복수의 속성값에 대해 가중치가 적용되는 복수의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업일 확률과 상기 단말이 수행하도록 인가되지 않은 작업일 확률을 나타내는 판별값을 산출하는 판별층을 포함한다. The work authentication network is characterized in that it consists of a plurality of stages arranged in sequence. In addition, the work certification network includes a work input layer that receives a plurality of work log vectors arranged in chronological order corresponding to the plurality of stages for each of the plurality of stages, and a state value of the previous stage and an input value of the current stage. A state value of the current stage is calculated by performing an operation to which a state and an input weight are applied to the log vector, and then a plurality of hidden cells are passed to the next stage, wherein the last of the plurality of hidden cells The hidden cell calculates the state value of the current stage by performing an operation to which the state weight is applied to the state value of the previous stage, and then applies the output weight to the calculated state value of the current stage. A job hidden layer that calculates a job attribute vector representing the attribute of , a job output layer that divides the job attribute vector into a plurality of attribute values and outputs a plurality of separated attribute values, and a weight value for the calculated plurality of attribute values. Discrimination layer for calculating a discriminant value representing a probability that a task performed by the terminal in the workspace is a task authorized to be performed by the terminal and a probability that the task is not authorized to be performed by the terminal by performing a plurality of applied operations. includes

상기 장치는 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업이면, 상기 단말이 상기 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 상기 수정된 생산 정보로 상기 저장부의 생산 정보를 업데이트하는 기록처리부를 더 포함한다. If the work performed in the work space is a work authorized for the terminal to be performed, the device determines the production information modified according to the result of the work performed by the terminal in the work space, as the modified production information. A recording processing unit for updating the production information of the storage unit is further included.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 빅데이터 구축 방법은 하나의 완성품을 생산하는 복수의 기업의 생산 정보를 통합하여 저장한 상태에서, 접속처리부가 상기 복수의 기업 중 어느 하나의 기업의 단말로부터 접속 요청 메시지를 수신하는 단계와, 상기 접속처리부가 수신된 접속 요청 메시지를 기초로 상기 단말이 상기 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행하는 단계와, 상기 인증 결과, 인증에 성공하면, 작업관리부가 상기 단말에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당하는 단계와, 상기 작업관리부가 상기 생산 정보 중 상기 단말이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 상기 할당된 작업 공간에 로드하는 단계와, 상기 작업관리부가 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 통신부를 통해 상기 단말에 제공하는 단계를 포함한다. In the big data construction method according to a preferred embodiment of the present invention for achieving the above object, in a state in which production information of a plurality of companies producing one finished product is integrated and stored, the connection processing unit among the plurality of companies Receiving an access request message from a terminal of any one company, and authenticating whether the terminal has permission to access production information of the plurality of companies based on the connection request message received by the connection processing unit. and, as a result of the authentication, if the authentication is successful, allocating a work space, which is a volatile memory space of a size corresponding to the terminal by the work management unit, and copying production information corresponding to the work to be performed and loading it into the assigned work space; and the work manager providing a connection response message including an access address of the assigned work space to the terminal through the communication unit. It includes steps to

상기 접속 요청 메시지는 상기 단말의 사용자의 식별자 및 패스워드와, 상기 단말의 컨텍스트를 포함하며, 상기 컨텍스트는 단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함한다. 여기서, 상기 인증을 수행하는 단계는 상기 접속처리부가 상기 단말의 사용자의 식별자 및 패스워드를 통해 사용자의 계정이 기 등록된 계정인지 여부를 인증하는 단계와, 상기 접속처리부가 어느 하나의 계층의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 되는 복수의 연산을 포함하는 복수의 계층을 포함하는 컨텍스트인증망을 이용하여 상기 컨텍스트가 상기 등록된 계정에 부합하는지 여부를 인증하는 단계를 포함한다. The access request message includes an identifier and password of a user of the terminal and a context of the terminal, and the context includes a device identifier of the terminal, a type of terminal, access location, access time, access IP, access port, and access network information. It includes the type, identification information of the access network and the application used for the connection. Here, the step of performing the authentication includes the step of authenticating, by the connection processing unit, whether the user's account is a pre-registered account through the user's identifier and password of the terminal, and the connection processing unit's operation result of any one layer. and authenticating whether the context corresponds to the registered account by using a context authentication network including a plurality of layers including a plurality of operations that are input to the next layer by applying a weight to .

상기 컨텍스트인증망을 이용하여 상기 컨텍스트가 상기 등록된 계정에 부합하는지 여부를 인증하는 단계는 상기 컨텍스트인증망의 입력계층이 상기 컨텍스트를 입력받는 단계와, 상기 컨텍스트인증망의 컨볼루션계층이 상기 입력계층의 컨텍스트에 대해 가중치 행렬로 구성된 제1 필터를 통해 컨볼루션 연산을 수행하여 제1 특징지도를 구성하는 단계와, 상기 컨텍스트인증망의 풀링계층이 상기 컨볼루션계층의 제1 특징지도에 대해 가중치 행렬로 구성된 제2 필터를 통해 풀링 연산을 수행하여 제2 특징지도를 구성하는 단계와, 상기 컨텍스트인증망의 평탄화계층이 상기 풀링계층의 제2 특징지도를 변환하여 하나의 열로 정렬하는 단계와, 상기 컨텍스트인증망의 복수의 연산 노드를 포함하는 완전연결계층이 하나의 열로 정렬된 제2 특징지도에 대해 가중치가 적용된 활성화함수를 통한 연산을 수행하여 상기 복수의 연산 노드 각각에 대응하는 연산값을 산출하는 단계와, 상기 컨텍스트인증망의 상기 복수의 기업 각각에 대응하는 복수의 출력 노드를 포함하는 출력계층이 상기 완전연결계층의 상기 복수의 연산 노드의 연산값에 대해 활성화함수를 통한 연산을 수행하여 상기 컨텍스트를 가지는 단말이 상기 복수의 기업 각각에 속할 확률을 나타내는 컨텍스트벡터를 산출하고, 산출된 확률을 출력값으로 출력하는 단계를 포함한다. The step of authenticating whether the context corresponds to the registered account using the context authentication network includes: receiving the context by an input layer of the context authentication network; Constructing a first feature map by performing a convolution operation on the context of the layer through a first filter composed of a weight matrix; Constructing a second feature map by performing a pooling operation through a second filter composed of matrices; converting the second feature map of the pooling layer by the flattening layer of the context authentication network and arranging them into one column; An operation value corresponding to each of the plurality of operation nodes is calculated by performing an operation through an activation function with a weight applied to the second feature map in which a fully connected layer including a plurality of operation nodes of the context authentication network is arranged in a single column. calculating, and an output layer including a plurality of output nodes corresponding to each of the plurality of companies of the context authentication network performs an operation through an activation function on the calculation values of the plurality of calculation nodes of the fully connected layer and calculating a context vector representing a probability that a terminal having the context belongs to each of the plurality of companies, and outputting the calculated probability as an output value.

상기 접속 요청 메시지를 수신하는 단계 전, 학습부가 기업이 알려진 학습용 컨텍스트에 대해 알려진 기업에 따라 레이블을 설정하는 단계와, 상기 학습부가 상기 컨텍스트인증망에 상기 학습용 컨텍스트를 입력한 후, 상기 컨텍스트인증망이 학습용 컨텍스트에 대해 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하면, 상기 설정된 레이블과 상기 출력값의 차이인 손실값을 산출하는 손실함수

Figure 112020054445356-pat00004
의 손실값이 최소가 되도록 상기 컨텍스트인증망의 가중치를 최적하되, 동일한 복수의 학습용 컨텍스트를 이용하여 상기
Figure 112020054445356-pat00005
의 값을 1, 0.5 및 0으로 변경하면서 상기 컨텍스트인증망에 대한 학습을 수행하는 단계를 더 포함한다. 여기서, 상기 Ecm은 손실함수를 나타내고, 상기 hy는 레이블에 따라 알려진 기업을 나타내는 원핫인코딩벡터이고, 상기 fy는 상기 출력값이고, 상기 cy는 레이블에 따라 알려진 기업의 복수의 컨텍스트벡터 중 중심벡터이고, 상기 y는 기업 인덱스이고, 상기 N은 y의 최댓값이고, 상기
Figure 112020054445356-pat00006
는 하이퍼파라미터인 것을 특징으로 한다. Before the step of receiving the access request message, the learning unit sets a label according to the known company for the known learning context, and after the learning unit inputs the learning context to the context authentication network, the context authentication network When an output value is calculated through a plurality of operations to which weights are applied for this learning context, a loss function that calculates a loss value that is the difference between the set label and the output value
Figure 112020054445356-pat00004
Optimizing the weight of the context authentication network so that the loss value of
Figure 112020054445356-pat00005
The step of performing learning on the context authentication network while changing the value of 1, 0.5, and 0 is further included. Here, Ecm represents a loss function, hy is a one-hot encoding vector representing a company known according to a label, fy is the output value, cy is a center vector among a plurality of context vectors of a company known according to a label, The y is the company index, the N is the maximum value of y, and the
Figure 112020054445356-pat00006
is a hyperparameter.

상기 방법은 상기 작업관리부가 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 통신부를 통해 상기 단말에 제공하는 단계 후, 상기 작업관리부의 작업인증부가 상기 단말이 상기 작업 공간에 접속하면, 상기 단말이 상기 작업 공간에서 수행하는 작업을 모니터링하여 상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 단계를 더 포함한다. In the method, after the work management unit provides the terminal with an access response message including the access address of the assigned workspace through the communication unit, when the work authentication unit of the work management unit accesses the workspace, the terminal accesses the workspace. , Monitoring a task performed by the terminal in the workspace to determine whether the task performed by the terminal is a legitimate task.

상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 단계는 상기 작업인증부의 전처리부가 상기 단말이 상기 작업 공간에서 수행하는 작업을 시간 순서에 따라 기록한 로그로부터 시간 순서로 정렬된 복수의 로그벡터를 생성하는 단계와, 상기 작업인증부의 벡터결합부가 상기 복수의 로그벡터에 대응하는 시간 벡터 및 상기 컨텍스트벡터를 결합하여 시간 순서로 정렬된 복수의 작업로그벡터를 생성하는 벡터결합부와, 상기 작업인증부의 작업인증망이 상기 복수의 작업로그벡터에 대해 복수의 스테이지의 순서대로 가중치가 적용되는 하나 이상의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하고, 상기 산출된 작업속성벡터로부터 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업인지 여부를 나타내는 확률을 산출하고, 산출된 확률을 출력하는 단계를 포함한다. The step of determining whether or not the task performed by the terminal is a legitimate task may include a plurality of log vectors arranged in chronological order from a log recorded in chronological order by the pre-processing unit of the work authentication unit, in which the task performed by the terminal in the workspace is recorded in chronological order. a vector combiner for generating a plurality of work log vectors arranged in chronological order by combining the time vector and the context vector corresponding to the plurality of log vectors; A negative work authentication network performs one or more calculations to which weights are applied to the plurality of work log vectors in order of a plurality of stages to calculate a work attribute vector representing attributes of work performed by the terminal in the work space; and calculating a probability indicating whether the task performed by the terminal in the workspace is a task authorized to be performed by the terminal from the calculated task attribute vector, and outputting the calculated probability.

상기 산출된 확률을 출력하는 단계는 순차로 정렬된 복수의 스테이지로 이루어진 상기 작업인증망의 작업입력층이 상기 복수의 스테이지에 대응하여 시간 순서로 정렬된 복수의 작업로그벡터를 상기 복수의 스테이지 별로 입력받는 단계와, 상기 작업인증망의 작업출력층의 복수의 은닉셀 각각이 이전 스테이지의 상태값과 현 스테이지의 입력값인 작업로그벡터에 대해 상태 및 입력 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 상태값을 다음 스테이지에 전달하되, 상기 복수의 은닉셀 중 마지막 은닉셀은 이전 스테이지의 상태값에 대해 상태 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 현 스테이지의 상태값에 출력 가중치를 적용하여 출력값인 단말이 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하는 단계와, 상기 작업인증망의 작업출력층이 상기 작업속성벡터를 복수의 속성값으로 구분하여 구분된 복수의 속성값을 출력하는 단계와, In the step of outputting the calculated probability, the work input layer of the work certification network composed of a plurality of stages arranged in sequence generates a plurality of work log vectors arranged in time order corresponding to the plurality of stages for each of the plurality of stages. In the step of receiving an input, each of a plurality of hidden cells of the work output layer of the work authentication network performs an operation in which the state and input weight are applied to the state value of the previous stage and the work log vector, which is the input value of the current stage, to obtain the current stage After calculating the state value, the calculated state value is passed to the next stage, and the last hidden cell among the plurality of hidden cells performs an operation in which a state weight is applied to the state value of the previous stage to obtain the state value of the current stage After calculating, calculating a job attribute vector representing a property of a job performed by a terminal in a workspace, which is an output value, by applying an output weight to the calculated state value of the current stage; dividing the attribute vector into a plurality of attribute values and outputting a plurality of attribute values;

상기 작업인증망의 판별층이 상기 복수의 속성값에 대해 가중치가 적용되는 복수의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업일 확률과 상기 단말이 수행하도록 인가되지 않은 작업일 확률을 나타내는 판별값을 산출하는 단계를 포함한다. The determination layer of the work authentication network performs a plurality of calculations to which weights are applied to the plurality of attribute values, and the probability that the work performed by the terminal in the work space is a work authorized to be performed by the terminal and the terminal and calculating a discriminant value representing a probability that the task is not authorized to be performed.

상기 방법은 상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 단계 후, 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업이면, 기록처리부가 상기 단말이 상기 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 상기 수정된 생산 정보로 상기 저장부의 생산 정보를 업데이트하는 단계를 더 포함한다. In the method, after the step of determining whether a job performed by the terminal is a legitimate job, if the job performed in the workspace is a job authorized to be performed by the terminal, the recording processing unit determines whether the terminal performed in the workspace. The method further includes updating the production information of the storage unit with the corrected production information when production information corrected according to the operation result exists.

본 발명의 실시예에 따르면, 빅데이터를 구축함으로써, 하나의 완성품을 생산하는 복수의 기업 간 생산 정보를 공유할 수 있다. 이에 따라, 복수의 기업 간 협업이 필요한 전체적인 업무 프로세스를 용이하게 관리할 수 있고, 생산성이 향상될 수 있다. 이때, 심층신경망을 이용하여 정보 공유가 가능한 사용자를 판별함으로써 보안이 향상될 수 있다. According to an embodiment of the present invention, by building big data, it is possible to share production information between a plurality of companies that produce one finished product. Accordingly, it is possible to easily manage an overall business process requiring collaboration between a plurality of companies, and productivity may be improved. At this time, security can be improved by determining users who can share information using a deep neural network.

도 1은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 제어부의 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 접속처리부의 세부 구성을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 의 접속처리부의 컨텍스트인증망의 구성을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 컨텍스트인증망의 학습을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업관리부의 세부 구성을 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업인증부의 세부 구성을 설명하기 위한 도면이다.
도 11 내지 도 13은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업인증망의 구성을 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining the configuration of a big data construction system for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
2 is a diagram for explaining the configuration of an apparatus for building big data for sharing production information between a plurality of companies that produce one finished product according to an embodiment of the present invention.
3 is a diagram for explaining the configuration of a control unit of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
4 is a diagram for explaining the detailed configuration of the connection processing unit of the apparatus for building big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
5 and 6 are diagrams for explaining the configuration of the context authentication network of the connection processing unit of the device for building big data for sharing production information among a plurality of companies that produce one finished product according to an embodiment of the present invention. .
7 and 8 are diagrams for explaining learning of a context authentication network of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
9 is a diagram for explaining a detailed configuration of a work management unit of an apparatus for constructing big data for sharing production information among a plurality of companies producing one finished product according to an embodiment of the present invention.
10 is a diagram for explaining the detailed configuration of a work authentication unit of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
11 to 13 are diagrams for explaining the configuration of a work authentication network of a device for building big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.
14 is a flowchart illustrating a big data construction method for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in this specification and claims described below should not be construed as being limited to a common or dictionary meaning, and the inventors should use their own invention in the best way. It should be interpreted as a meaning and concept corresponding to the technical idea of the present invention based on the principle that it can be properly defined as a concept of a term for explanation. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, so various equivalents that can replace them at the time of the present application. It should be understood that there may be water and variations.

본 발명의 실시예의 설명 및 특허 청구 범위에서, "네트워크"는 컴퓨터 시스템들 및/또는 모듈들 간의 전자 데이터를 전송할 수 있게 하는 하나 이상의 데이터 링크로서 정의된다. 정보가 네트워크 또는 동종 혹은 이종의 통신 접속, 즉, 유선, 무선, 또는 유선 또는 무선의 조합인 통신 접속을 통하여 컴퓨터 시스템에 전송되거나 제공될 때, 이 접속은 컴퓨터-판독가능매체로서 이해될 수 있다. 컴퓨터 판독가능 명령어는, 예를 들면, 범용 컴퓨터 시스템 또는 특수 목적 컴퓨터 시스템이 특정 기능 또는 기능의 그룹을 수행하도록 하는 명령어 및 데이터를 포함한다. 컴퓨터 실행가능 명령어는, 예를 들면, 어셈블리어, 또는 심지어는 소스코드와 같은 이진, 중간 포맷 명령어일 수 있다. 더욱이, 본 발명은 퍼스널 컴퓨터, 랩톱 컴퓨터, 핸드헬드 장치, 멀티프로세서 시스템, 마이크로프로세서-기반 또는 프로그램 가능한 가전제품(programmable consumer electronics), 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 모바일 전화, 휴대폰, 이동통신단말기, 스마트폰, PDA, 페이저(pager) 등을 포함하는 다양한 유형의 컴퓨터 시스템 구성을 가지는 네트워크 컴퓨팅 환경에서, 상기 컴퓨터 시스템들을 대상으로 적용될 수 있다. In the description and claims of embodiments of the present invention, a "network" is defined as one or more data links that enable the transfer of electronic data between computer systems and/or modules. When information is transmitted or provided to a computer system over a network or over a communication connection of any kind or kind, i.e., wired, wireless, or a combination of wired and wireless, the connection may be understood as a computer-readable medium. . Computer readable instructions include, for example, instructions and data that cause a general purpose or special purpose computer system to perform a particular function or group of functions. Computer executable instructions may be, for example, binary, intermediate format instructions, such as assembly language, or even source code. Moreover, the present invention relates to personal computers, laptop computers, handheld devices, multiprocessor systems, microprocessor-based or programmable consumer electronics, network PCs, minicomputers, mainframe computers, mobile telephones, cellular phones, and mobile devices. In a network computing environment having various types of computer system configurations including communication terminals, smart phones, PDAs, pagers, etc., the above computer systems may be applied.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.

먼저, 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 시스템에 대해서 설명하기로 한다. 도 1은 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 시스템의 구성을 설명하기 위한 도면이다. First, a system for building big data for sharing production information between a plurality of companies that produce one finished product will be described. 1 is a diagram for explaining the configuration of a system for building big data for sharing production information between a plurality of companies producing one finished product.

도 1을 참조하면, 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 시스템(이하, '빅데이터시스템'으로 축약함)은 하나의 완성품을 생산하는 복수의 기업이 완성품의 생산과 관련된 모든 정보를 공유하기 위한 시스템이다. 여기서, 하나의 완성품이 '섬유 원단 제품'이라고 가정할 수 있다. 이러한 경우, 복수의 기업은 섬유 원단에 염색을 주력하는 하는 원단 가공 기업인 염색 업체, 섬유 원단에 대해 다양한 특성을 부여하는 원단 가공 기업인 가공 업체, 생산된 원단에 대해 불량을 확인하고 불량에 대한 결과를 제공하는 기업인 검사 업체, 원단 제품을 기획, 개발하고 원단 제품을 생산하는 브랜드 업체로부터 오더를 받아 생산을 지시 관리하여 브랜드 업체에 납품하는 기업인 로컬 업체, 생산된 원단으로 섬유 원단 제품을 만들어 판매하는 기업인 브랜드 기업 등을 포함할 수 있다. Referring to Figure 1, a system for building big data for sharing production information between a plurality of companies producing one finished product (hereinafter abbreviated as 'big data system') is a system in which a plurality of companies producing one finished product It is a system for sharing all information related to the production of finished products. Here, it can be assumed that one finished product is a 'textile fabric product'. In this case, a plurality of companies are a dyeing company, which is a fabric processing company that focuses on dyeing textile fabrics, a processing company, which is a fabric processing company that gives various characteristics to textile fabrics, and a fabric processing company that checks for defects in the produced fabric and reports the results of the defects. Inspection company, a company that provides fabric products, a local company that receives orders from brand companies that plan, develop and produce fabric products, directs and manages production, and delivers them to brand companies, a local company that makes and sells textile products with manufactured fabrics It may include branded companies and the like.

빅데이터시스템은 공유서버(10) 및 복수의 단말(20)을 포함한다. 복수의 단말(20)은 하나의 완성품을 생산하는 복수의 기업의 복수의 임직원 사용자들이 사용하는 장치이다. 이러한 단말(20)은 데스크톱, 노트북, 태블릿, 스마트폰 등을 예시할 수 있다. 복수의 단말(20)은 접속 네트워크 및 코어 네트워크를 포함하는 네트워크를 통해 공유서버(10)에 접속할 수 있다. The big data system includes a shared server 10 and a plurality of terminals 20. The plurality of terminals 20 are devices used by a plurality of employees and users of a plurality of companies that produce one finished product. Such a terminal 20 may exemplify a desktop, a laptop, a tablet, a smart phone, and the like. A plurality of terminals 20 may access the shared server 10 through a network including an access network and a core network.

공유서버(10)는 본 발명의 실시예에 따른 복수의 기업의 생산 정보를 통합하여 빅데이터를 구축하는 데이터베이스 서버의 역할을 수행한다. 또한, 공유서버(10)는 복수의 단말(20)에 대해 복수의 기업의 생산 정보에 접근할 수 있는 자격이 있는지 여부를 인증하고, 인증에 성공한 단말(20)에 대해서만 생산 정보에 접근하도록 하는 인증 서버의 역할을 동시에 수행한다. 더욱이, 공유서버(10)는 악의적인 공격으로부터 원본 데이터, 즉, 생산 정보를 보호하기 위하여 단말(20)과 생산 정보의 원본을 분리하여 관리하는 보안 서버의 역할을 수행할 수 있다. The sharing server 10 serves as a database server that builds big data by integrating production information of a plurality of companies according to an embodiment of the present invention. In addition, the sharing server 10 authenticates whether a plurality of terminals 20 are qualified to access production information of a plurality of companies, and allows access to production information only for terminals 20 that have succeeded in authentication. It acts as an authentication server at the same time. Moreover, the sharing server 10 may serve as a security server that separates and manages the terminal 20 and the original production information in order to protect original data, that is, production information, from malicious attacks.

그러면, 전술한 공유서버(10)의 구성에 대해 보다 상세하게 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 구성을 설명하기 위한 도면이다. 도 3은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 제어부의 구성을 설명하기 위한 도면이다. 먼저, 도 2를 참조하면, 본 발명의 실시예에 따른 공유서버(10)는 통신부(11), 저장부(12) 및 제어부(13)를 포함한다. Then, the configuration of the aforementioned sharing server 10 will be described in more detail. 2 is a diagram for explaining the configuration of an apparatus for building big data for sharing production information between a plurality of companies that produce one finished product according to an embodiment of the present invention. 3 is a diagram for explaining the configuration of a control unit of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention. First, referring to FIG. 2 , a sharing server 10 according to an embodiment of the present invention includes a communication unit 11 , a storage unit 12 and a control unit 13 .

통신부(11)는 네트워크를 통해 단말(20)과 통신하기 위한 것이다. 통신부(11)는 제어부(13)의 제어에 따라 단말(20)로부터 데이터를 수신하거나, 단말(20)에 데이터를 전송할 수 있다. 통신부(11)는 네트워크를 통해 데이터를 송수신하기 위해 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(modem)을 포함할 수 있다. 이러한 통신부(11)는 네트워크를 통해 단말(20)로부터 수신되는 데이터, 예컨대, 접속 요청 메시지 등을 제어부(13)로 전달할 수 있다. 또한, 통신부(11)는 제어부(13)로부터 전달 받은 데이터, 예컨대, 접속 응답 메시지 등을 네트워크를 통해 단말(20)로 전송할 수 있다. The communication unit 11 is for communicating with the terminal 20 through a network. The communication unit 11 may receive data from the terminal 20 or transmit data to the terminal 20 under the control of the control unit 13 . The communication unit 11 may include a modem that modulates a transmitted signal and demodulates a received signal in order to transmit and receive data through a network. The communication unit 11 may transmit data received from the terminal 20 through a network, for example, an access request message, etc. to the control unit 13 . In addition, the communication unit 11 may transmit data received from the control unit 13, for example, an access response message, etc. to the terminal 20 through a network.

저장부(12)는 공유서버(10)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 특히, 저장부(12)는 제어부(13)의 제어에 따라 복수의 기업의 생산 정보를 통합하여 저장하는 데이터베이스를 포함한다. 더욱이, 저장부(12)는 관리 대상인 복수의 단말(20) 각각의 식별자(ID), 패스워크(PW) 등을 저장할 수 있다. 저장부(12)에 저장되는 각 종 데이터는 인증된 단말(200)에 의해 등록, 삭제, 변경, 추가될 수 있다. The storage unit 12 serves to store programs and data necessary for the operation of the sharing server 10 . In particular, the storage unit 12 includes a database for integrating and storing production information of a plurality of companies under the control of the control unit 13 . Furthermore, the storage unit 12 may store an identifier (ID), a password (PW), and the like of each of the plurality of terminals 20 to be managed. Various types of data stored in the storage unit 12 may be registered, deleted, changed, or added by the authenticated terminal 200 .

제어부(13)는 공유서버(10)의 전반적인 동작 및 공유서버(10)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(13)는 중앙처리장치(central processing unit), 디지털신호처리기(digital signal processor) 등이 될 수 있다. 도 3을 참조하면, 제어부(13)는 접속처리부(100), 작업관리부(200), 기록처리부(300) 및 학습부(400)를 포함한다. The control unit 13 may control the overall operation of the sharing server 10 and signal flow between internal blocks of the sharing server 10, and may perform a data processing function of processing data. The controller 13 may be a central processing unit, a digital signal processor, or the like. Referring to FIG. 3 , the control unit 13 includes a connection processing unit 100 , a work management unit 200 , a recording processing unit 300 and a learning unit 400 .

접속처리부(100)는 단말(20)이 저장부(12)에 저장된 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부를 인증하기 위한 것이다. 접속처리부(100)는 통신부(11)를 통해 복수의 기업의 복수의 단말(20) 중 어느 하나의 단말(20)로부터 접속 요청 메시지를 수신하면, 수신된 접속 요청 메시지를 기초로 단말(20)이 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행한다. 이때, 접속처리부(100)는 심층신경망(DNN: Deep Neural Network) 모델을 이용하여 단말(20)에 대한 인증 프로세스의 일부 혹은 전부를 수행할 수 있다. The connection processing unit 100 is for authenticating whether the terminal 20 has permission to access production information of a plurality of companies stored in the storage unit 12 . When the connection processing unit 100 receives an access request message from any one terminal 20 of a plurality of terminals 20 of a plurality of companies through the communication unit 11, the terminal 20 is sent based on the received connection request message. Authentication is performed on whether or not there is authority to access the production information of the plurality of companies. At this time, the access processing unit 100 may perform part or all of the authentication process for the terminal 20 using a deep neural network (DNN) model.

작업관리부(200)는 인증에 성공한 단말(20)에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당할 수 있다. 또한, 작업관리부(200)는 저장부(12)에 저장된 생산 정보 중 단말(20)이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 할당된 작업 공간에 로드한다. 그런 다음, 작업관리부(200)는 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 통신부(11)를 통해 인증에 성공한 단말(20)에 전송한다. 또한, 작업관리부(200)는 인증에 성공한 단말(20)이 작업 공간에 접근하면, 인증에 성공한 단말(20)이 작업 공간에서 수행하는 작업을 모니터링하여 단말(20)이 수행하는 작업이 정당한 작업인지 여부를 판별한다. 이때, 작업관리부(200)는 심층신경망(DNN) 모델을 이용하여 단말(20)이 수행하는 작업이 정당한 작업인지 여부를 판별할 수 있다. The task management unit 200 may allocate a work space, which is a volatile memory space of a size corresponding to the terminal 20 that has succeeded in authentication. In addition, the work management unit 200 copies production information corresponding to a job performed by a company to which the terminal 20 belongs among production information stored in the storage unit 12 and loads it into an assigned work space. Then, the work management unit 200 transmits an access response message including the access address of the assigned work space to the terminal 20 that has succeeded in authentication through the communication unit 11 . In addition, when the terminal 20 that has succeeded in authentication approaches the workspace, the task management unit 200 monitors the task performed by the terminal 20 that has succeeded in authentication in the workspace so that the task performed by the terminal 20 is a legitimate task. determine whether or not At this time, the task management unit 200 may determine whether the task performed by the terminal 20 is a valid task by using a deep neural network (DNN) model.

기록처리부(300)는 인증에 성공한 단말(20)이 작업 공간에서 수행하는 작업이 그 단말(20)이 수행하도록 인가된 작업이면, 단말(20)이 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 수정된 생산 정보로 저장부(12)의 생산 정보를 업데이트한다. If the work performed by the terminal 20 that has succeeded in authentication in the workspace is a job authorized to be performed by the terminal 20, the recording processing unit 300 records the modified work according to the result of the work performed by the terminal 20 in the workspace. If the production information exists, the production information in the storage unit 12 is updated with the corrected production information.

학습부(400)는 전술한 바와 같이, 접속처리부(100)가 이용하는 심층신경망 모델 및 작업관리부(200)가 이용하는 심층신경망 모델에 대한 학습을 수행한다. 이러한 학습부(400)의 구체적인 동작에 대해서는 아래에서 보다 상세하게 설명하기로 한다. As described above, the learning unit 400 performs learning on the deep neural network model used by the connection processing unit 100 and the deep neural network model used by the task management unit 200 . A specific operation of the learning unit 400 will be described in more detail below.

다음으로, 전술한 접속처리부(100), 작업관리부(200), 기록처리부(300) 및 학습부(400) 각각에 대해 보다 상세하게 설명하기로 한다. 먼저, 접속처리부(100)에 대해 보다 상세하게 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 접속처리부의 세부 구성을 설명하기 위한 도면이다. 도 5 및 도 6은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 의 접속처리부의 컨텍스트인증망의 구성을 설명하기 위한 도면이다. 도 7 및 도 8은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 컨텍스트인증망의 학습을 설명하기 위한 도면이다. Next, each of the aforementioned connection processing unit 100, work management unit 200, recording processing unit 300, and learning unit 400 will be described in detail. First, the connection processing unit 100 will be described in more detail. 4 is a diagram for explaining the detailed configuration of the connection processing unit of the apparatus for building big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention. 5 and 6 are diagrams for explaining the configuration of the context authentication network of the connection processing unit of the device for building big data for sharing production information among a plurality of companies that produce one finished product according to an embodiment of the present invention. . 7 and 8 are diagrams for explaining learning of a context authentication network of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 접속처리부(100)는 계정인증부(110) 및 컨텍스트인증부(120)를 포함한다. 특히, 컨텍스트인증부(120)는 컨텍스트인증망(121)을 포함한다. Referring to FIG. 4 , the connection processing unit 100 according to an embodiment of the present invention includes an account authentication unit 110 and a context authentication unit 120 . In particular, the context authentication unit 120 includes a context authentication network 121 .

전술한 바와 같이, 접속처리부(100)는 통신부(11)를 통해 단말(20)로부터 접속 요청 메시지를 수신할 수 있다. 여기서, 접속 요청 메시지는 단말(20)의 사용자의 식별자 및 패스워드를 포함하는 계정과, 단말(20)의 컨텍스트를 포함한다. 특히, 컨텍스트는 단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함한다. As described above, the connection processing unit 100 may receive an access request message from the terminal 20 through the communication unit 11 . Here, the access request message includes an account including an identifier and password of a user of the terminal 20 and a context of the terminal 20 . In particular, the context includes the device identifier of the terminal, the type of terminal, access location, access time, access IP, access port, access network type, access network identification information, and an application used for access.

계정인증부(110)는 단말(20)의 사용자의 식별자(ID) 및 패스워드(PW)를 포함하는 계정을 저장부(12)에 기 저장된 사용자의 계정과 비교하여 단말(20)이 전송한 사용자의 계정이 기 등록된 계정인지 여부를 인증할 수 있다. The account authentication unit 110 compares the account including the identifier (ID) and password (PW) of the user of the terminal 20 with the user's account previously stored in the storage unit 12, and the user transmitted by the terminal 20. It is possible to authenticate whether the account of is a pre-registered account.

컨텍스트인증부(120)는 심층신경망인 컨텍스트인증망(121)을 이용하여 단말(20)의 컨텍스트가 단말(20)의 등록된 계정에 부합하는지 여부를 인증한다. 동일 기업에 속하는 복수의 단말(20), 즉, 동일 기업의 임직원이 사용하는 복수의 단말(20)은 상호간에 상관도가 높은 컨텍스트를 가진다. 이에 따라, 컨텍스트인증망(121)은 학습부(400)에 의해 단말(20)의 컨텍스트를 통해 단말(20)이 속한 기업을 식별하도록 학습된다. 따라서 컨텍스트인증부(120)는 컨텍스트인증망(121)을 이용하여 기업을 식별한 후, 단말(20)의 계정이 식별된 기업의 임직원에 부여된 계정인지 여부를 판별함으로써 단말(20)의 컨텍스트가 단말(20)의 등록된 계정에 부합하는지 여부를 인증할 수 있다. The context authentication unit 120 authenticates whether the context of the terminal 20 matches the registered account of the terminal 20 using the deep neural network context authentication network 121 . A plurality of terminals 20 belonging to the same company, that is, a plurality of terminals 20 used by executives and employees of the same company have contexts having a high degree of correlation with each other. Accordingly, the context authentication network 121 is learned by the learning unit 400 to identify the company to which the terminal 20 belongs through the context of the terminal 20 . Therefore, the context authentication unit 120 identifies the company using the context authentication network 121, and then determines whether the account of the terminal 20 is an account assigned to the executives and employees of the identified company, thereby determining the context of the terminal 20. It is possible to authenticate whether or not matches the registered account of the terminal 20 .

한편, 도 5 및 도 6을 참조하면, 컨텍스트인증망(121)은 복수의 계층을 포함한다. 즉, 컨텍스트인증망(121)은 순차로 입력계층(input layer: IL), 컨볼루션계층(convolution layer: CL), 풀링계층(pooling layer: PL), 평탄화계층(Flatten Layer, FL) 및 완전연결계층(fully-connected layer: FCL) 및 출력계층(output layer: OL)을 포함한다. Meanwhile, referring to FIGS. 5 and 6 , the context authentication network 121 includes a plurality of layers. That is, the context authentication network 121 sequentially includes an input layer (IL), a convolution layer (CL), a pooling layer (PL), a flattening layer (FL), and a fully connected layer. It includes a fully-connected layer (FCL) and an output layer (OL).

컨텍스트인증부(120)는 단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함하는 컨텍스트를 이진 코드(binary code)로 변환하고, 이진 코드로 변환된 컨텍스트를 입력계층(IL)에 맞춰 소정 크기의 적어도 하나의 채널을 가지는 행렬(채널×행×열)로 정렬한 후, 컨텍스트인증망(121)에 입력한다. The context authentication unit 120 converts the context including the device identifier of the terminal, the type of terminal, the access location, the access time, the access IP, the access port, the type of access network, the identification information of the access network, and the application used for the connection into binary. code (binary code), and after arranging the context converted to binary code into a matrix (channel × row × column) having at least one channel of a predetermined size according to the input layer (IL), the context authentication network (121 ) into the

입력계층(IL)은 소정 크기의 적어도 하나의 채널을 가지는 입력 행렬(채널×행×열)로 이루어진다. 예컨대, 입력행렬은 도 5에 도시된 바와 같이, (채널×행×열) = (2×7×12)의 크기를 가질 수 있다. 입력계층(IL) 입력 행렬의 원소로 이진 코드로 변환된 컨텍스트가 입력된다. The input layer IL is composed of an input matrix (channel×row×column) having at least one channel of a predetermined size. For example, as shown in FIG. 5, the input matrix may have a size of (channel × row × column) = (2 × 7 × 12). The context converted into binary code is input as an element of an input layer (IL) input matrix.

컨볼루션계층(CL) 및 풀링계층(PL)은 적어도 하나의 특징 지도(FM: Feature Map)로 구성된다. 특징 지도는 소정 크기의 행렬로 구성된다. 특징 지도는 이전 계층의 값에 대해 가중치가 적용된 연산 수행 결과로 생성된다. 이러한 가중치는 필터를 통해 적용된다. 여기서, 필터는 소정 크기의 적어도 하나의 채널을 가지는 행렬이며, 필터를 이루는 행렬의 각 원소의 값이 가중치(w)가 된다. 따라서 특징 지도를 이루는 행렬의 각 원소에는 이전 계층에서 필터(W)를 이용한 가중치가 적용된 연산에 따라 산출된 값이 저장된다. The convolution layer (CL) and the pooling layer (PL) are composed of at least one feature map (FM). A feature map is composed of a matrix of a predetermined size. The feature map is created as a result of performing weighted operations on the values of the previous layer. These weights are applied via filters. Here, the filter is a matrix having at least one channel of a predetermined size, and the value of each element of the matrix constituting the filter becomes a weight (w). Therefore, in each element of the matrix constituting the feature map, a value calculated according to the weighted operation using the filter W in the previous layer is stored.

컨볼루션계층(CL)은 적어도 하나의 제1 특징지도를 포함한다. 컨볼루션계층(CL)을 구성하는 제1 특징지도(FM1)는 입력계층(IL)에 입력된 컨텍스트에 대해 가중치 행렬로 구성된 제1 필터(W1)를 통해 컨볼루션 연산(convolution)을 수행한 결과로 생성된다. The convolutional layer (CL) includes at least one first feature map. The first feature map (FM1) constituting the convolution layer (CL) is the result of performing the convolution operation (convolution) through the first filter (W1) composed of the weight matrix for the context input to the input layer (IL). is created with

풀링계층(PL)은 적어도 하나의 제2 특징지도(FM2)를 포함한다. 풀링계층(PL)을 구성하는 제2 특징지도(FM2)는 제1 특징지도(FM1)에 대해 가중치 행렬로 구성된 제2 필터(W2)를 통해 풀링(pooling 또는 subsampling) 연산을 수행한 결과로 생성된다. The pooling layer PL includes at least one second feature map FM2. The second feature map FM2 constituting the pooling layer PL is generated as a result of performing a pooling or subsampling operation on the first feature map FM1 through the second filter W2 composed of a weight matrix. do.

평탄화계층(FL)은 다음 계층의 형태에 맞춰 이전 계층의 형태를 변환하는 역할을 수행한다. 즉, 평탄화계층(FL)은 행렬 형태인 풀링계층(PL)의 제2 특징지도(FM2)를 완전연결계층(fully-connected layer: FCL)의 연산 노드에 맞춰 열 형태로 변경한다. 예컨대, 평탄화계층(FL)은 제2 특징지도(FM2)가 1×6×6(채널×행×열)의 형태라면, 이를 36(열)의 형태로 변경한다. 이러한 변경에 따라 제2 특징지도의 행렬 형태의 값들이 순차로 하나의 열로 정렬되어 완전연결계층(fully-connected layer: FCL)의 복수의 연산 노드에 입력될 수 있다. The flattening layer FL serves to transform the shape of the previous layer to match the shape of the next layer. That is, the flattening layer FL changes the second feature map FM2 of the pooling layer PL, which is in matrix form, into a column form according to an operation node of a fully-connected layer (FCL). For example, if the second feature map FM2 is in the shape of 1×6×6 (channels×rows×columns), the flattening layer FL changes it to a shape of 36 (columns). According to this change, matrix-type values of the second feature map may be sequentially arranged in one column and input to a plurality of operation nodes of a fully-connected layer (FCL).

도 6을 참조하면, 완전연결계층(FCL)은 복수의 연산 노드(C1, C2, ..., Cx)를 포함한다. 완전연결계층(FCL)의 복수의 연산 노드(C1, C2, ..., Cx) 각각은 평탄화계층(FL)에 의해 하나의 열로 정렬된 제2 특징지도(FM2)에 대해 가중치(w)가 적용된 활성화함수를 통한 연산을 수행하여 복수의 연산 노드(C1, C2, ..., Cx) 각각에 대응하는 연산값을 산출한다. 여기서, 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. Referring to FIG. 6, the fully connected layer (FCL) includes a plurality of operation nodes C1, C2, ..., Cx. Each of the plurality of operation nodes (C1, C2, ..., Cx) of the fully connected layer (FCL) has a weight (w) with respect to the second feature map (FM2) arranged in one column by the flattening layer (FL). An operation value corresponding to each of the plurality of operation nodes C1, C2, ..., Cx is calculated by performing an operation through the applied activation function. Here, the activation function may include sigmoid, hyperbolic tangent (tanh), exponential linear unit (ELU), rectified linear unit (ReLU), leaky ReLU, Maxout, Minout, Softmax, and the like. .

출력계층(OL)은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업에 대응하는 수의 출력 노드(O1, O2, ..., Oy)를 포함한다. 즉, 복수의 출력 노드(O1, O2, ..., Oy) 각각은 복수의 기업에 대응한다. The output layer OL includes a number of output nodes O1, O2, ..., Oy corresponding to a plurality of companies producing one finished product according to an embodiment of the present invention. That is, each of the plurality of output nodes O1, O2, ..., Oy corresponds to a plurality of companies.

출력계층(OL)의 복수의 출력 노드(O1, O2, ..., Oy)는 완전연결계층(FCL)의 복수의 연산 노드(C1, C2, ..., Cx)의 연산값에 대해 활성화함수를 통한 연산을 수행하여 접속 요청 메시지를 통해 접속 요청 메시지를 통해 컨텍스트를 전송한 단말(20)이 속하는 기업 및 단말(20)을 사용하는 임직원의 특성을 나타내는 컨텍스트벡터를 산출한다. 즉, 복수의 출력 노드(O1, O2, ..., Oy)는 완전연결계층(FCL)의 복수의 연산 노드(C1, C2, ..., Cx)의 연산값에 대해 활성화함수를 통한 연산을 수행하여 복수의 출력 노드(O1, O2, ..., Oy) 각각의 출력값을 산출한다. 전술한 바와 같이, 복수의 출력 노드(O1, O2, ..., Oy) 각각은 복수의 기업에 대응한다. 예컨대, 제1 출력노드(O1)는 기업 A에 대응하며, 제2 출력노드(O1)는 기업 B에 대응하며, 제3 출력노드(O1)는 기업 C에 대응하며, 제y 출력노드(Oy)는 기업 H에 대응할 수 있다. 또한, 복수의 출력 노드(O1, O2, ..., Oy) 각각의 출력값은 접속 요청 메시지를 통해 컨텍스트를 전송한 단말(20)이 해당 출력 노드(O1, O2, ..., Oy 중 어느 하나)에 대응하는 기업에 속할 확률을 나타낸다. 일례로, 제1 출력노드(O1)가 기업 A에 대응하며, 제1 출력노드(O1)의 출력값이 0.221987이라면, 접속 요청 메시지를 통해 컨텍스트를 전송한 단말(20)이 기업 A의 임직원이 사용하는 단말일 확률은 22%이다. 다른 예로, 제2 출력노드(O2)가 기업 B에 대응하며, 제2 출력노드(O2)의 출력값이 0.878911이라면, 접속 요청 메시지를 통해 컨텍스트를 전송한 단말(20)이 기업 B의 임직원이 사용하는 단말일 확률은 88%이다. 이에 따라, 복수의 출력노드(O1, O2, ..., Oy)의 출력값을 모두 연결한 컨텍스트벡터 F=[f1, f2, f3, ..., fy]는 접속 요청 메시지를 통해 컨텍스트를 전송한 단말(20)이 속하는 기업 및 단말(20)을 사용하는 임직원의 특성을 나타내는 벡터 표현이라고 할 수 있다. The plurality of output nodes (O1, O2, ..., Oy) of the output layer (OL) are activated for the calculation values of the plurality of operation nodes (C1, C2, ..., Cx) of the fully connected layer (FCL) By performing an operation through a function, a context vector representing the characteristics of the company to which the terminal 20 that transmitted the context through the access request message belongs and the employee using the terminal 20 is calculated. That is, the plurality of output nodes (O1, O2, ..., Oy) operate through the activation function for the calculated values of the plurality of operation nodes (C1, C2, ..., Cx) of the fully connected layer (FCL). is performed to calculate the output value of each of the plurality of output nodes O1, O2, ..., Oy. As described above, each of the plurality of output nodes O1, O2, ..., Oy corresponds to a plurality of enterprises. For example, the first output node O1 corresponds to company A, the second output node O1 corresponds to company B, the third output node O1 corresponds to company C, and the y th output node Oy ) can correspond to entity H. In addition, the output value of each of the plurality of output nodes (O1, O2, ..., Oy) determines which one of the output nodes (O1, O2, ..., Oy) the terminal 20 that transmitted the context through the connection request message 1) represents the probability of belonging to the corresponding company. For example, if the first output node O1 corresponds to company A and the output value of the first output node O1 is 0.221987, the terminal 20 that transmits the context through the access request message is used by employees of company A. There is a 22% probability that it is a terminal that As another example, if the second output node O2 corresponds to company B and the output value of the second output node O2 is 0.878911, the terminal 20 transmitting the context through the access request message is used by an employee of company B. There is an 88% probability that the terminal is Accordingly, the context vector F=[f1, f2, f3, ..., fy], which connects all the output values of the plurality of output nodes (O1, O2, ..., Oy), transmits the context through the connection request message. It can be said to be a vector expression representing the characteristics of the company to which one terminal 20 belongs and the executives and employees using the terminal 20 .

한편, 학습부(400)는 컨텍스트인증망(121)이 컨텍스트를 전송한 단말(20)이 속하는 기업 및 단말(20)을 사용하는 임직원의 특성을 나타내는 컨텍스트벡터를 생성하도록 학습시킬 수 있다. 컨텍스트벡터는 복수의 출력노드(O1, O2, ..., Oy)의 출력값을 연결한 것이며, 복수의 출력노드(O1, O2, ..., Oy) 각각의 출력값 [f1, f2, f3, ..., fy]은 입력 받은 컨텍스트를 전송한 단말(20)이 해당 출력노드(O1, O2, ..., Oy 중 어느 하나)에 대응하는 기업에 속할 확률을 나타낸다. 따라서 학습부(400)는 컨텍스트인증망(121)이 컨텍스트에 대한 연산을 통해 입력 받은 컨텍스트를 전송한 단말(20)이 속한 기업을 분류할 수 있도록 학습시키는 것이라고도 할 수 있다. Meanwhile, the learning unit 400 may teach the context authentication network 121 to generate a context vector representing the characteristics of the company to which the terminal 20 transmitting the context belongs and the employee using the terminal 20 . The context vector is obtained by connecting the output values of a plurality of output nodes (O1, O2, ..., Oy), and the output values of each of the plurality of output nodes (O1, O2, ..., Oy) [f1, f2, f3, ..., fy] represent the probability that the terminal 20 that has transmitted the input context belongs to the company corresponding to the corresponding output node (O1, O2, ..., Oy). Therefore, the learning unit 400 can also be said to teach the context authentication network 121 to classify the company to which the terminal 20 that has transmitted the input context through the operation on the context belongs.

이러한 학습부(400)는 학습하고자 하는 기업에 따라 컨텍스트인증망(121)의 출력계층(OL)을 설정한다. 예컨대, 설명의 편의 상, 학습하고자 하는 기업이 기업 A, 기업 B, 기업 C 및 기업 D를 포함하여 4개 존재한다고 가정한다. 이에 따라, 컨텍스트인증망(121)의 출력계층(OL)은 4개의 출력노드(O1, O2, O3, O4)를 가지며, 컨텍스트벡터의 길이는 4가된다. The learning unit 400 sets the output layer OL of the context authentication network 121 according to the company to learn. For example, for convenience of explanation, it is assumed that four companies including company A, company B, company C, and company D exist. Accordingly, the output layer OL of the context authentication network 121 has four output nodes O1, O2, O3, and O4, and the length of the context vector is 4.

다음으로, 학습부(400)는 기업이 알려진 단말(20)이 전송한 컨텍스트를 학습용 컨텍스트로 마련한다. 그런 다음, 학습부(400)는 기업이 알려진 학습용 컨텍스트에 대해 알려진 기업에 따라 레이블을 설정한다. 이어서, 학습부(400)는 컨텍스트인증망(121)에 학습용 컨텍스트를 입력한다. 이에 따라, 컨텍스트인증망(121)이 학습용 컨텍스트에 대해 학습되지 않은 가중치가 적용되는 복수의 연산을 통해 출력값을 산출한다. 그러면, 학습부(400)는 다음의 수학식 1과 같은 손실함수를 이용하여 설정된 레이블과 출력값의 차이를 나타내는 수학식 1의 손실함수의 손실값이 최소가 되도록 컨텍스트인증망(121)의 가중치를 최적화한다. Next, the learning unit 400 prepares the context transmitted by the terminal 20 known to the company as a learning context. Then, the learning unit 400 sets a label according to a known company for a learning context in which the company is known. Then, the learning unit 400 inputs the learning context to the context authentication network 121 . Accordingly, the context authentication network 121 calculates an output value through a plurality of operations to which unlearned weights are applied to the learning context. Then, the learning unit 400 sets the weight of the context authentication network 121 so that the loss value of the loss function of Equation 1 representing the difference between the set label and the output value is minimized by using the loss function of Equation 1 below. optimize

Figure 112020054445356-pat00007
Figure 112020054445356-pat00007

Figure 112020054445356-pat00008
Figure 112020054445356-pat00008

수학식 1에서 Ecm은 레이블과, 컨텍스트인증망(121)의 출력값과의 차이를 산출하기 위한 손실함수를 나타낸다. 여기서, 컨텍스트인증망(121)의 출력값은 컨텍스트벡터(F = [f1, f2, ..., fy] 혹은 복수의 출력노드(O1 내지 Oy) 각각의 출력값이 될 수 있다. 여기서, hy는 레이블에 따라 알려진 기업을 나타내는 원핫인코딩(one hot encoding)벡터이다. fy는 컨텍스트벡터 혹은 출력노드의 출력값을 나타낸다. cy는 레이블에 따라 알려진 기업의 복수의 컨텍스트벡터 중 중심벡터를 나타낸다. y는 기업 인덱스이며, N은 y의 최댓값이다. 예컨대, 학습하고자 하는 기업이 기업 4개 존재한다고 가정하면, y는 양의 정수이며, 1 부터 4까지의 값을 가지며, N은 4이다. 한편, 수학식 1에서

Figure 112020054445356-pat00009
는 하이퍼파라미터로 수학식 1의 첫 번째 텀과 두 번째 텀의 반영 비율을 조절하기 위한 파라미터이다. 수학식 1에 보인 바와 같이, 하이퍼파라미터
Figure 112020054445356-pat00010
는 그 값이 1, 0.5 및 0으로 전환되며, 학습부(400)는 동일한 학습 데이터인 학습용 컨텍스트를 이용하여
Figure 112020054445356-pat00011
의 값을 1, 0.5 및 0으로 전환하면서, 컨텍스트인증망(121)에 대해 1차 내지 3차의 학습을 수행한다. 이러한 1차 내지 3차의 학습에 대해서 설명하면 다음과 같다. In Equation 1, Ecm represents a loss function for calculating a difference between a label and an output value of the context authentication network 121. Here, the output value of the context authentication network 121 may be a context vector (F = [f1, f2, ..., fy] or an output value of each of a plurality of output nodes O1 to Oy. Here, hy is a label It is a one hot encoding vector representing a company known according to fy represents a context vector or an output value of an output node cy represents a center vector among a plurality of context vectors of a known company according to a label y represents a company index , and N is the maximum value of y. For example, assuming that there are 4 companies to learn, y is a positive integer and has a value from 1 to 4, and N is 4. On the other hand, Equation 1 at
Figure 112020054445356-pat00009
Is a hyperparameter and is a parameter for adjusting the reflection ratio of the first term and the second term of Equation 1. As shown in Equation 1, the hyperparameter
Figure 112020054445356-pat00010
is converted to 1, 0.5, and 0, and the learning unit 400 uses the same learning data, the learning context
Figure 112020054445356-pat00011
1st to 3rd learning is performed on the context authentication network 121 while changing the value of 1, 0.5, and 0. The first to third learning is described as follows.

먼저, 학습부(400)는

Figure 112020054445356-pat00012
로 설정하여 학습을 수행하는 1차 학습을 수행한다. 1차 학습 시, 학습부(400)는 기업이 알려진 단말(20)이 전송한 컨텍스트를 학습용 컨텍스트로 마련한다. 그런 다음, 학습부(400)는 학습용 컨텍스트의 알려진 기업에 따라 레이블을 설정한다. 1차 학습 시, 레이블은 다음의 표 1과 같이 원핫인코딩(one hot encoding) 벡터로 설정한다. First, the learning unit 400
Figure 112020054445356-pat00012
Set to , and perform the primary learning that performs learning. At the time of primary learning, the learning unit 400 prepares the context transmitted by the terminal 20 known to the company as a context for learning. Then, the learning unit 400 sets a label according to the known company of the learning context. During the first learning, the label is set as a one hot encoding vector as shown in Table 1 below.

학습용 컨텍스트의 알려진 기업Known Enterprises in Learning Context 기댓값expected value O4O4 O3O3 O2O2 O1O1 기업 AFirm A 00 00 00 1One 기업 Bcompany B 00 00 1One 00 기업 Ccompany C 00 1One 00 00 기업 Dcompany D 1One 00 00 00

표 1과 같이 레이블을 설정한 후, 학습부(400)는 학습용 컨텍스트를 컨텍스트인증망(121)에 입력한다. 그러면, 컨텍스트인증망(121)이 학습용 컨텍스트에 대해 학습되지 않은 가중치(w)가 적용되는 복수의 연산을 수행하여 컨텍스트벡터를 산출할 것이다.

Figure 112020054445356-pat00013
이기 때문에 학습부(400)는 다음의 수학식 2와 같은 손실함수를 통해 레이블인 원핫인코딩벡터와 컨텍스트벡터 혹은 복수의 출력노드(O1 내지 Oy, 예컨대, y=4) 각각의 출력값의 차이인 손실함수의 손실값이 최소화되도록 컨텍스트인증망(121)의 가중치를 최적화한다. After setting labels as shown in Table 1, the learning unit 400 inputs the learning context to the context authentication network 121. Then, the context authentication network 121 calculates a context vector by performing a plurality of operations to which the unlearned weight w is applied to the learning context.
Figure 112020054445356-pat00013
Therefore, the learning unit 400 uses a loss function such as Equation 2 below to obtain a loss, which is the difference between the one-hot encoding vector, which is a label, and the context vector, or the output value of each of the plurality of output nodes (O1 to Oy, for example, y = 4) The weight of the context authentication network 121 is optimized so that the loss value of the function is minimized.

Figure 112020054445356-pat00014
Figure 112020054445356-pat00014

전술한 바와 같은 1차 학습은 복수의 학습용 컨텍스트를 통해 이루어질 수 있다. 이러한 1차 학습이 완료된 후, 학습부(400)는 복수의 학습용 컨텍스트를 1차 학습이 완료된 컨텍스트인증망(121)에 입력함으로써, 컨텍스트인증망(121)을 통해 복수의 학습용 컨텍스트로부터 복수의 컨텍스트벡터를 도출할 수 있다. 그런 다음, 학습부(400)는 도출된 복수의 컨텍스트벡터 각각을 컨텍스트인증망(121)을 통해 형성되는 벡터공간 상에 사상하여 복수의 컨텍스트벡터의 값에 따라 회사별로 분류할 수 있다. 예를 들면, 앞서 가정한 바와 같이 컨텍스트벡터의 길이가 4이고, 컨텍스트벡터의 값이 F= [f4, f3, f2, f1] = [0.01, 0.01, 0.01, 0.97]이면, 해당 컨텍스트벡터는 기업 A에 대응하는 제1 출력노드(O1)의 출력값에 대응하는 f1의 확률이 가장 높기 때문에 기업 A에 속하는 것으로 분류할 수 있다. 예컨대, 도 7에 1차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간에 사상된 기업 A와 기업 B의 컨텍스트벡터의 분포를 도시하였다. 이와 같이, 1차 학습의 결과로 컨텍스트인증망(121)은 벡터공간의 경계선(BL: Borderline)을 기준으로 컨텍스트벡터를 통해 기업 A와 기업 B를 구분할 수 있다. The primary learning as described above may be performed through a plurality of learning contexts. After the primary learning is completed, the learning unit 400 inputs the plurality of learning contexts into the context authentication network 121 where the primary learning is completed, and thus, the plurality of learning contexts are obtained from the plurality of learning contexts through the context authentication network 121. vectors can be derived. Then, the learning unit 400 may map each of the derived context vectors onto a vector space formed through the context authentication network 121 and classify each company according to the values of the plurality of context vectors. For example, as assumed above, if the length of the context vector is 4 and the value of the context vector is F= [f4, f3, f2, f1] = [0.01, 0.01, 0.01, 0.97], the corresponding context vector is Since the probability of f1 corresponding to the output value of the first output node O1 corresponding to A is the highest, it can be classified as belonging to company A. For example, FIG. 7 shows the distribution of context vectors of companies A and B mapped to a vector space formed through the context authentication network 121 that has been primarily learned. As such, as a result of the primary learning, the context authentication network 121 can distinguish company A and company B through the context vector based on the borderline (BL) of the vector space.

다음으로, 학습부(400)는

Figure 112020054445356-pat00015
로 설정하여 학습을 수행하는 2차 학습을 수행한다. 2차 학습 시, 학습부(400)는 1차 학습 시 사용된 학습용 컨텍스트를 마련한다. 그런 다음, 학습부(400)는 학습용 컨텍스트의 알려진 기업에 따라 레이블을 설정한다. 2차 학습 시, 학습부(400)는 하나의 학습용 컨텍스트에 대응하여 2 종의 레이블을 설정한다. 즉, 학습부(400)는 상기의 표 1과 같이 원핫인코딩벡터를 통해 제1 레이블을 설정한다. 또한, 학습부(400)는 학습부(400)는 1차 학습이 완료된 컨텍스트인증망(121)에 의해 형성되는 벡터공간 상에서 동일 분류, 즉, 동일 기업의 컨텍스트벡터의 중심벡터를 선택하여 제2 레이블로 설정한다. 예컨대, 도 7을 참조하면, 기업 A의 복수의 컨텍스트벡터 중에서 중간값을 가지는 컨텍스트벡터를 중심벡터(Ca1)로 선택하고, 기업 B의 복수의 컨텍스트벡터 중에서 중간값을 가지는 컨텍스트벡터를 중심벡터(Cb1)로 선택한다. Next, the learning unit 400
Figure 112020054445356-pat00015
Set to , and perform secondary learning that performs learning. In the second learning, the learning unit 400 prepares the learning context used in the first learning. Then, the learning unit 400 sets a label according to the known company of the learning context. During secondary learning, the learning unit 400 sets two types of labels corresponding to one learning context. That is, the learning unit 400 sets the first label through the one-hot encoding vector as shown in Table 1 above. In addition, the learning unit 400 selects the center vector of the context vector of the same classification, that is, the same company, on the vector space formed by the context authentication network 121 for which the primary learning has been completed. set to label For example, referring to FIG. 7 , a context vector having a median value among a plurality of context vectors of company A is selected as a center vector (Ca1), and a context vector having a median value among a plurality of context vectors of company B is a center vector ( Select Cb1).

학습부(400)는 학습용 컨텍스트를 컨텍스트인증망(121)에 입력한다. 그러면, 컨텍스트인증망(121)이 학습용 컨텍스트에 대해 가중치(w)가 적용되는 복수의 연산을 수행하여 컨텍스트벡터를 산출할 것이다.

Figure 112020054445356-pat00016
이기 때문에 학습부(400)는 수학식 1로부터 수학식 3과 같은 손실함수를 도출하고, 도출된 손실함수를 통해 레이블과 컨텍스트벡터 혹은 복수의 출력노드(O1 내지 Oy, 예컨대, y=4) 각각의 출력값의 차이인 손실함수의 손실값이 최소화되도록 컨텍스트인증망(121)의 가중치를 최적화한다. The learning unit 400 inputs the learning context to the context authentication network 121 . Then, the context authentication network 121 calculates a context vector by performing a plurality of operations to which a weight w is applied to the learning context.
Figure 112020054445356-pat00016
Therefore, the learning unit 400 derives a loss function such as Equation 3 from Equation 1, and through the derived loss function, a label and a context vector or a plurality of output nodes (O1 to Oy, for example, y = 4), respectively The weight of the context authentication network 121 is optimized so that the loss value of the loss function, which is the difference between the output values of , is minimized.

Figure 112020054445356-pat00017
Figure 112020054445356-pat00017

수학식 3에서, hy는 제1 레이블이며, cy는 제2 레이블이다. 전술한 바와 같은 2차 학습 절차는 1차 학습에서 사용된 복수의 학습용 컨텍스트를 통해 반복해서 이루어질 수 있다. In Equation 3, hy is the first label and cy is the second label. The secondary learning procedure as described above may be repeatedly performed through a plurality of learning contexts used in the primary learning.

이러한 2차 학습이 완료된 후, 학습부(400)는 2차 학습에 사용된 복수의 학습용 컨텍스트를 2차 학습이 완료된 컨텍스트인증망(121)에 입력함으로써, 컨텍스트인증망(121)을 통해 복수의 학습용 컨텍스트로부터 복수의 컨텍스트벡터를 도출할 수 있다. 그런 다음, 학습부(400)는 도출된 복수의 컨텍스트벡터 각각을 컨텍스트인증망(121)을 통해 형성되는 벡터공간 상에 사상하여 복수의 컨텍스트벡터의 값에 따라 회사별로 분류할 수 있다. 예컨대, 도 8에 2차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간에 사상된 기업 A와 기업 B의 컨텍스트벡터의 분포를 도시하였다. 이와 같이, 2차 학습에서는 원핫인코딩벡터 뿐만 아니라 중심벡터(예컨대, Ca1, Cb1)를 이용하여 학습을 수행한다. 이에 따라, 1차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간(도 7)에 비해 2차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간(도 8) 상에서 모든 컨텍스트벡터는 동종의 중심벡터와의 상관도에 따라 도 8에 도시된 화살표 방향과 같이 동종의 중심벡터 방향으로 이동한다. 예컨대, 어느 하나의 학습용 컨텍스트로부터 도출되는 컨텍스트벡터를 비교하여 관찰하면, 1차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간(도 7) 상에서의 컨텍스트벡터(f1st) 대비 2차로 학습된 컨텍스트인증망(121)을 통해 형성되는 벡터공간(도 8) 상에서의 컨텍스트벡터(f2nd)는 중심벡터 방향으로 이동되었다. 즉, 2차 학습에서는 원핫인코딩벡터 뿐만 아니라 중심벡터(예컨대, Ca1, Cb1)를 이용하여 학습을 수행하기 때문에 원핫인코딩벡터에 의한 분류뿐만 아니라 중심벡터를 기준으로 하는 동종의 컨텍스트벡터 간의 상관도가 추가로 학습된다. 따라서 2차 학습의 결과로 컨텍스트인증망(121)은 벡터공간의 경계선(BL: Borderline)을 기준으로 컨텍스트벡터를 통해 기업 A와 기업 B를 구분할 수 있을 뿐만 아니라, 클러스터서클(CCA, CCB) 내에서 중심벡터와의 거리를 통해 컨텍스트벡터 간의 유사도가 학습된다. After the secondary learning is completed, the learning unit 400 inputs the plurality of learning contexts used in the secondary learning to the context authentication network 121 in which the secondary learning is completed, so that the plurality of learning contexts are obtained through the context authentication network 121. A plurality of context vectors may be derived from the learning context. Then, the learning unit 400 may map each of the derived context vectors onto a vector space formed through the context authentication network 121 and classify each company according to the values of the plurality of context vectors. For example, FIG. 8 shows the distribution of context vectors of companies A and B mapped to a vector space formed through the context authentication network 121 secondarily learned. In this way, in the secondary learning, learning is performed using not only one-hot encoding vectors but also center vectors (eg, Ca1 and Cb1). Accordingly, compared to the vector space (FIG. 7) formed through the firstly learned context authentication network 121, all context vectors are formed on the vector space (FIG. 8) formed through the secondly learned context authentication network 121. According to the degree of correlation with the same type of center vector, it moves in the direction of the same type of center vector as indicated by the arrow shown in FIG. 8 . For example, when the context vectors derived from any one learning context are compared and observed, the secondly learned context vectors (f1st) on the vector space (FIG. 7) formed through the firstly learned context authentication network 121 are compared. The context vector f2nd on the vector space (FIG. 8) formed through the context authentication network 121 is moved in the direction of the center vector. That is, in the secondary learning, since learning is performed using not only one-hot encoding vectors but also center vectors (eg, Ca1 and Cb1), correlation between homogeneous context vectors based on center vectors as well as classification by one-hot encoding vectors is improved. learn more Therefore, as a result of the secondary learning, the context authentication network 121 can not only distinguish between company A and company B through the context vector based on the boundary line (BL: Borderline) of the vector space, but also within the cluster circle (CCA, CCB). In , the similarity between context vectors is learned through the distance from the center vector.

다음으로, 학습부(400)는

Figure 112020054445356-pat00018
로 설정하여 학습을 수행하는 3차 학습을 수행한다. 3차 학습 시, 학습부(400)는 1차 및 2차 학습 시 사용된 학습용 컨텍스트와 동일한 학습용 컨텍스트를 이용한다. 이에 따라, 학습부(400)는 학습용 컨텍스트의 알려진 기업에 따라 레이블을 설정한다. 3차 학습 시, 또한, 학습부(400)는 학습부(400)는 2차 학습이 완료된 컨텍스트인증망(121)에 의해 형성되는 벡터공간 상에서 동일 분류, 즉, 동일 기업의 컨텍스트벡터의 중심벡터를 선택하여 레이블로 설정한다. 예컨대, 도 8을 참조하면, 기업 A의 복수의 컨텍스트벡터 중에서 중간값을 가지는 컨텍스트벡터를 중심벡터(Ca2)로 선택하고, 기업 B의 복수의 컨텍스트벡터 중에서 중간값을 가지는 컨텍스트벡터를 중심벡터(Cb2)로 선택한다. Next, the learning unit 400
Figure 112020054445356-pat00018
Set to , and perform the 3rd learning that performs learning. During the 3rd learning, the learning unit 400 uses the same learning context as the learning context used in the 1st and 2nd learning. Accordingly, the learning unit 400 sets a label according to a known company of a learning context. During the tertiary learning, the learning unit 400 also performs the same classification on the vector space formed by the context authentication network 121 where the secondary learning is completed, that is, the central vector of the context vector of the same company. to set it as a label. For example, referring to FIG. 8 , a context vector having a median value among a plurality of context vectors of company A is selected as a center vector (Ca2), and a context vector having a median value among a plurality of context vectors of company B is a center vector ( Select Cb2).

학습부(400)는 학습용 컨텍스트를 컨텍스트인증망(121)에 입력한다. 그러면, 컨텍스트인증망(121)이 학습용 컨텍스트에 대해 가중치(w)가 적용되는 복수의 연산을 수행하여 컨텍스트벡터를 산출할 것이다.

Figure 112020054445356-pat00019
이기 때문에 학습부(400)는 수학식 1로부터 수학식 4와 같은 손실함수를 도출하여 도출된 손실함수를 통해 레이블과 컨텍스트벡터 혹은 복수의 출력노드(O1 내지 Oy, 예컨대, y=4) 각각의 출력값의 차이인 손실함수의 손실값이 최소화되도록 컨텍스트인증망(121)의 가중치를 최적화한다. The learning unit 400 inputs the learning context to the context authentication network 121 . Then, the context authentication network 121 calculates a context vector by performing a plurality of operations to which a weight w is applied to the learning context.
Figure 112020054445356-pat00019
Therefore, the learning unit 400 derives a loss function such as Equation 4 from Equation 1, and through the derived loss function, each of the label and context vector or a plurality of output nodes (O1 to Oy, for example, y = 4) The weights of the context authentication network 121 are optimized so that a loss value of a loss function, which is a difference between output values, is minimized.

Figure 112020054445356-pat00020
Figure 112020054445356-pat00020

수학식 3에서, cy는 레이블인 중심벡터이다. 전술한 바와 같은 3차 학습 절차는 1차 혹은 2차 학습에서 사용된 복수의 학습용 컨텍스트와 동일한 학습용 컨텍스트를 이용하여 반복해서 수행된다. 이러한 3차 학습에서는 2차 학습의 결과에 따른 중심벡터(Ca2, Cb2)를 이용하여 학습을 수행하기 때문에 중심벡터(Ca2, Cb2)를 기준으로 하는 동종의 컨텍스트벡터 간의 상관도가 추가로 학습된다. 이에 따라, 그 분류가 보다 명확해지며, 복수의 컨텍스트벡터 상호간의 상관도가 학습되기 때문에 복수의 컨텍스트벡터를 상관관계에 따른 연산에 이용할 수 있다. In Equation 3, cy is a central vector that is a label. The tertiary learning procedure as described above is repeatedly performed using the same learning context as the plurality of learning contexts used in the first or second learning. In this tertiary learning, since learning is performed using the central vector (Ca2, Cb2) according to the result of the secondary learning, the correlation between context vectors of the same kind based on the central vector (Ca2, Cb2) is additionally learned. . Accordingly, the classification becomes clearer, and since the degree of correlation between a plurality of context vectors is learned, the plurality of context vectors can be used for calculation based on the correlation.

다음으로, 본 발명의 실시예에 따른 작업관리부(200)에 대해서 설명하기로 한다. 도 9는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업관리부의 세부 구성을 설명하기 위한 도면이다. 도 10은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업인증부의 세부 구성을 설명하기 위한 도면이다. 도 11 내지 도 13은 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축을 위한 장치의 작업인증망의 구성을 설명하기 위한 도면이다. 도 9를 참조하면, 작업관리부(200)는 작업할당부(210) 및 작업인증부(220)를 포함한다. Next, the work management unit 200 according to an embodiment of the present invention will be described. 9 is a diagram for explaining a detailed configuration of a work management unit of an apparatus for constructing big data for sharing production information among a plurality of companies producing one finished product according to an embodiment of the present invention. 10 is a diagram for explaining the detailed configuration of a work authentication unit of an apparatus for constructing big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention. 11 to 13 are diagrams for explaining the configuration of a work authentication network of a device for building big data for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention. Referring to FIG. 9 , the work management unit 200 includes a work allocation unit 210 and a job certification unit 220 .

작업할당부(210)는 인증에 성공한 단말(20)이 생산 정보에 대한 검색, 열람, 업로드, 다운로드, 업데이트 등의 작업을 수행할 수 있도록 하기 위한 것이다. 이때, 작업할당부(210)는 인증에 성공한 단말(20)에 대해 생산 정보의 원본이 저장된 저장부(12)의 영역과 물리적으로 분리된 메모리 공간인 작업 공간을 제공하며, 생산 정보의 원본 대신 생산 정보의 복사본을 제공함으로써, 생산 정보를 보호한다. The task assigning unit 210 is for enabling the terminal 20 that has successfully authenticated to perform tasks such as searching, viewing, uploading, downloading, and updating production information. At this time, the work allocation unit 210 provides a workspace, which is a memory space physically separated from the area of the storage unit 12 in which the original production information is stored, to the terminal 20 that has succeeded in authentication, instead of the original production information. Protect production information by providing copies of production information.

보다 구체적으로, 작업할당부(210)는 접속처리부(100)의 인증 결과, 인증에 성공하면, 단말(20)의 인증에 사용된 컨텍스트벡터, 즉, 단말(20)이 속한 기업에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당한다. 또한, 작업할당부(210)는 저장부(12)에 저장된 생산 정보 중 단말(20)이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 할당된 작업 공간에 로드한다. 그리고 작업할당부(210)는 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 통신부(11)를 통해 단말(20)에 전송한다. More specifically, the task allocation unit 210 determines the authentication result of the connection processing unit 100, and if the authentication is successful, the context vector used for authentication of the terminal 20, that is, the size corresponding to the company to which the terminal 20 belongs. Allocates a working space, a volatile memory space of In addition, the work allocator 210 copies production information corresponding to a job performed by a company to which the terminal 20 belongs among production information stored in the storage unit 12 and loads it into an assigned work space. In addition, the work assignment unit 210 transmits an access response message including an access address of the assigned work space to the terminal 20 through the communication unit 11 .

작업인증부(220)는 통신부(11)를 통해 단말(20)이 작업 공간에 접속하면, 단말(20)이 작업 공간에서 수행하는 작업을 모니터링하여 단말(20)이 수행하는 작업이 정당한 작업인지 여부를 판별하기 위한 것이다. 만약, 작업인증부(220)는 정당한 작업이 아닌 것으로 판별된 경우, 해당 단말(20)의 공유서버(10)에 대한 접속을 차단할 수 있다. 그리고 작업인증부(220)는 통신부(11)를 통해 공유서버(10)의 관리자가 사용하는 장치에 경보를 전송할 수 있다. When the terminal 20 accesses the work space through the communication unit 11, the work authentication unit 220 monitors the work performed by the terminal 20 in the work space to determine whether the work performed by the terminal 20 is a valid work. It is to determine whether If the work authentication unit 220 determines that the work is not legitimate, it may block the connection of the terminal 20 to the sharing server 10 . In addition, the work authentication unit 220 may transmit an alarm to a device used by a manager of the sharing server 10 through the communication unit 11 .

도 10을 참조하면, 작업인증부(220)는 전처리부(221), 벡터결합부(223) 및 작업인증망(225)을 포함한다. Referring to FIG. 10 , the work authentication unit 220 includes a pre-processing unit 221, a vector combiner 223 and a work authentication network 225.

전처리부(221)는 복수의 로그벡터(L1 내지 Ln) 및 복수의 로그벡터(L1 내지 Ln) 각각에 대응하는 시간 벡터(T1 내지 Tn)를 생성하기 위한 것이다. 보다 자세히 설명하면, 단말(20)이 작업 공간에 접속한 후 로그(log)가 시간 순서에 따라 기록되며, 전처리부(221)는 시간 순서에 따라 기록된 복수의 로그를 순차로 추출하고, 수집된 복수의 로그 각각의 특징을 추출하여 복수의 로그벡터(L1 내지 Ln)를 생성하고, 생성된 복수의 로그벡터(L1 내지 Ln)를 로그가 기록된 시간 순서에 따라 정렬하여 제공한다. 또한, 전처리부(221)는 복수의 로그벡터(L1 내지 Ln) 각각에 대응하여 로그가 기록된 시간을 나타내는 시간 벡터(T1 내지 Tn)를 생성한다. The pre-processing unit 221 is for generating a plurality of log vectors L1 to Ln and time vectors T1 to Tn corresponding to each of the plurality of log vectors L1 to Ln. More specifically, after the terminal 20 accesses the workspace, logs are recorded in chronological order, and the pre-processing unit 221 sequentially extracts and collects a plurality of logs recorded in chronological order. A plurality of log vectors (L1 to Ln) are generated by extracting features of each of the plurality of logs, and the generated plurality of log vectors (L1 to Ln) are sorted and provided according to the time order in which the logs are recorded. In addition, the pre-processing unit 221 generates time vectors T1 to Tn representing log recording times corresponding to each of the plurality of log vectors L1 to Ln.

벡터결합부(221)는 복수의 로그벡터(L1 내지 Ln)에 대응하는 시간 벡터(T1 내지 Tn)를 결합하고, 추가로 컨텍스트벡터(F)를 결합하여 시간 순서로 정렬된 복수의 작업로그벡터(X1=L1+T1+F 내지 Xn=Ln+Tn+F)를 생성한다. The vector combiner 221 combines the time vectors T1 to Tn corresponding to the plurality of log vectors L1 to Ln, and additionally combines the context vector F to a plurality of work log vectors arranged in time order. (X1=L1+T1+F to Xn=Ln+Tn+F).

작업인증망(225)은 복수의 작업로그벡터(Xt: X1 내지 Xn)에 대해 복수의 스테이지(S1 내지 Sn)의 순서대로 가중치가 적용되는 하나 이상의 연산을 수행하여 단말(20)이 작업 공간에서 수행하는 작업을 예측하여 예측된 작업의 속성을 나타내는 작업속성벡터(Y)를 산출한다. 그리고 작업인증망(225)은 산출된 작업속성벡터(Y)로부터 단말(20)이 작업 공간에서 수행하는 작업이 단말이 수행하도록 인가된 작업인지 여부를 나타내는 확률을 산출하고, 산출된 확률을 출력한다. The work authentication network 225 performs one or more calculations to which weights are applied in order of a plurality of stages S1 to Sn for a plurality of work log vectors Xt: X1 to Xn, so that the terminal 20 is in the work space. A task attribute vector (Y) representing the predicted task property is calculated by predicting the task to be performed. Then, the work authentication network 225 calculates a probability indicating whether the work performed by the terminal 20 in the work space is a work authorized to be performed by the terminal from the calculated work attribute vector Y, and outputs the calculated probability. do.

도 11을 참조하면, 작업인증망(225)은 심층신경망(DNN: Deep Neural Network)이며, 작업예측망(WEN) 및 판별망(DEN)을 포함한다. 작업예측망(WEN)은 RNN(Recurrent Neural Network), LTSM(Long Short-Term Memory models), GRU(Gated recurrent unit) 등을 예시할 수 있다. 작업예측망(WEN)은 복수의 스테이지(S1 내지 Sn)로 이루어지며, 작업입력층(WIN), 작업은닉층(WHL) 및 작업출력층(WOL)을 포함한다. 스테이지(S1 내지 Sn)의 길이(n)는 미리 결정된다. Referring to FIG. 11 , the task authentication network 225 is a deep neural network (DNN) and includes a task prediction network (WEN) and a discriminating network (DEN). The work prediction network (WEN) may include a recurrent neural network (RNN), long short-term memory models (LTSM), and a gated recurrent unit (GRU). The work prediction network (WEN) is composed of a plurality of stages (S1 to Sn), and includes a work input layer (WIN), a work hidden layer (WHL), and a work output layer (WOL). The length n of the stages S1 to Sn is predetermined.

작업입력층(WIL)은 단말(20)이 작업 공간에서 수행하는 작업을 예측하여 예측된 작업의 속성을 나타내는 작업속성벡터(Y)를 산출하기 위한 복수(n)의 입력으로 이루어진다. 즉, 작업입력층(WIL)에는 시간 순서로 정렬된 복수의 작업로그벡터(X1 내지 Xn)가 입력된다. 작업은닉층(WHL)은 스테이지의 개수(n)에 해당하는 복수의 은닉셀(HC)을 포함하며, 복수의 은닉셀(HC)은 복수의 작업로그벡터(X1 내지 Xn)에 대해 가중치가 적용되는 하나 이상의 연산을 순환 방식으로 수행하여 작업속성벡터(Y)를 산출한다. 작업출력층(WOL)은 마지막 스테이지(Sn)의 은닉셀(HCn)에 의해 산출된 작업속성벡터(Y)를 출력한다. The task input layer (WIL) is composed of a plurality of (n) inputs for predicting a task to be performed by the terminal 20 in the workspace and calculating a task attribute vector (Y) representing the properties of the predicted task. That is, a plurality of work log vectors X1 to Xn arranged in chronological order are input to the work input layer WIL. The working hidden layer (WHL) includes a plurality of hidden cells (HC) corresponding to the number of stages (n), and the plurality of hidden cells (HC) are weighted for a plurality of work log vectors (X1 to Xn). One or more operations are performed in a recursive manner to calculate the work attribute vector (Y). The work output layer (WOL) outputs the work attribute vector (Y) calculated by the hidden cell (HCn) of the last stage (Sn).

한편, 도 12를 참조하면, 은닉셀(HC)은 가중치(Weight, Wx, Wh, Wy)가 적용되는 하나 이상의 연산으로 이루어진다. 여기서, 연산은 활성화함수(Activation Function)를 적용한 연산을 의미한다. 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. 또한, 하나의 은닉셀(HC)에서 가중치는 입력값인 작업로그벡터(Xt)에 적용되는 입력 가중치 Wx, 이전 스테이지의 상태값 Ht-1에 대해 적용되는 상태 가중치 Wh 및 출력값 Yt에 대해 적용되는 출력 가중치 Wy를 포함한다. 예컨대, 은닉셀(HC)에 적용되는 가중치가 적용되는 연산은 다음의 수학식 5를 예시할 수 있다. Meanwhile, referring to FIG. 12, the hidden cell HC is composed of one or more calculations to which weights (Weight, Wx, Wh, Wy) are applied. Here, the operation means an operation to which an activation function is applied. Activation functions may include sigmoid, hyperbolic tangent (tanh), exponential linear unit (ELU), rectified linear unit (ReLU), leaky ReLU, Maxout, Minout, and Softmax. In addition, in one hidden cell (HC), the weight is the input weight Wx applied to the work log vector (Xt), the state weight Wh applied to the state value Ht-1 of the previous stage, and the output value Yt applied to the input value Include the output weight Wy. For example, the following Equation 5 may be exemplified as an operation to which the weight applied to the hidden cell HC is applied.

Figure 112020054445356-pat00021
Figure 112020054445356-pat00021

Figure 112020054445356-pat00022
Figure 112020054445356-pat00022

여기서, b는 임계치 혹은 바이어스이다. 특히, tanh 함수, ReLU 함수는 다른 활성화함수로 변경될 수 있다. 수학식 1과 도 9를 참조하면, 복수의 은닉셀(HCt) 각각은 이전 스테이지(St-1)의 은닉셀(HCt-1)이 연산한 이전 스테이지(St-1)의 상태값(Ht-1)과 자신의 스테이지(St)의 입력값(Xt)에 대해 가중치(W: Wh, Wx, Wy)가 적용되는 연산을 수행하여 현 스테이지(St)의 상태값(Ht) 및 출력값(Yt)을 산출할 수 있다. Here, b is a threshold or bias. In particular, the tanh function and the ReLU function can be changed to other activation functions. Referring to Equation 1 and FIG. 9, each of the plurality of hidden cells HCt has a state value Ht- of the previous stage St-1 calculated by the hidden cell HCt-1 of the previous stage St-1. 1) and the state value (Ht) and output value (Yt) of the current stage (St) by performing an operation in which weights (W: Wh, Wx, Wy) are applied to the input value (Xt) of the own stage (St) can be calculated.

작업예측망(WEN)의 작업입력층(WIN)이 시간 순서에 따라 정렬된 복수의 작업로그벡터(X1 내지 Xn) 각각을 작업은닉층(WHL)의 대응하는 은닉셀, 즉, 제1 내지 제n 은닉셀(HC1 내지 HCn)에 입력한다. 그러면, 작업은닉층(WHL)의 제1 내지 제n 은닉셀(HC1 내지 HCn) 각각은 이전 스테이지(St-1)의 은닉셀(HCt-1)이 연산한 이전 스테이지(St-1)의 상태값(Ht-1)과 자신(HCt)의 스테이지(St)의 입력값(Xt)에 대해 가중치가 적용되는 연산을 수행하여 현 스테이지(St)의 상태값(Ht)을 산출한 후, 산출된 상태값(Ht)을 다음 스테이지(St+1)의 은닉셀(HCt+1)로 전달한다. 예컨대, 제1 은닉셀(HC1)은 초기 상태값(H0)에 상태 가중치(Wh)를 적용하고, 제1 작업로그벡터(X1)에 입력 가중치(Wx)를 적용하여 제1 스테이지(S1)의 상태값(H1)을 산출한다. 제1 은닉셀(HC1)의 경우, 이전 스테이지가 없기 때문에 초기 상태값(H0)을 이용한다. 이어서, 제2 은닉셀(HC2)은 이전 스테이지인 제1 스테이지(S1)의 상태값(H1)에 상태 가중치(Wh)를 적용하고, 제2 작업로그벡터(X2)에 입력 가중치(Wx)를 적용하여 제2 스테이지(S2)의 상태값(H2)을 산출한다. 그리고 제3 은닉셀(HC3)은 이전 스테이지인 제2 스테이지(S2)의 상태값(H2)에 상태 가중치(Wh)를 적용하고, 제3 작업로그벡터(X3)에 입력 가중치(Wx)를 적용하여 제3 스테이지(S3)의 상태값(H3)을 산출하는 식이다. 이와 같이, 복수의 은닉셀(HCt)은 이전 스테이지의 상태값(Ht-1)과 현 스테이지의 입력값인 작업속성벡터(Xt)에 대해 상태 및 입력 가중치(Wh, Wx)가 적용되는 연산을 수행하여 현 스테이지의 상태값(Ht)을 산출하고, 산출된 상태값(Ht)을 다음 스테이지(St+1)로 전달한다. The work input layer WIN of the work prediction network WEN converts each of the plurality of work log vectors X1 to Xn arranged in chronological order into corresponding hidden cells of the work hidden layer WHL, that is, the first to nth It is input to the hidden pixels (HC1 to HCn). Then, each of the first to nth hidden cells HC1 to HCn of the working hidden layer WHL has a state value of the previous stage St-1 calculated by the hidden cell HCt-1 of the previous stage St-1 After calculating the state value (Ht) of the current stage (St) by performing an operation to which a weight is applied to (Ht-1) and the input value (Xt) of the stage (St) of itself (HCt), the calculated state The value (Ht) is transferred to the hidden cell (HCt+1) of the next stage (St+1). For example, the first hidden cell HC1 applies the state weight Wh to the initial state value H0 and applies the input weight Wx to the first work log vector X1 to obtain the first stage S1. State value H1 is calculated. In the case of the first hidden pixel HC1, since there is no previous stage, the initial state value H0 is used. Subsequently, the second hidden cell HC2 applies the state weight Wh to the state value H1 of the first stage S1, which is the previous stage, and applies the input weight Wx to the second work log vector X2. By applying, the state value H2 of the second stage S2 is calculated. And the third hidden cell HC3 applies the state weight Wh to the state value H2 of the second stage S2, which is the previous stage, and applies the input weight Wx to the third work log vector X3. This is an equation for calculating the state value H3 of the third stage S3. In this way, the plurality of hidden cells HCt performs an operation in which the state and input weights (Wh, Wx) are applied to the state value (Ht-1) of the previous stage and the work attribute vector (Xt), which is the input value of the current stage. , the state value (Ht) of the current stage is calculated, and the calculated state value (Ht) is transferred to the next stage (St+1).

이와 같은 연산의 수행 중 마지막 은닉셀인 제n 은닉셀(HCn)은 이전 스테이지인 제n-1 스테이지(Sn-1)의 상태값(Hn-1)에 상태 가중치(Wh)를 적용하여 현 스테이지인 제n 스테이지(Sn)의 상태값(Hn)을 산출한다. 그런 다음, 제n 은닉셀(HCn)은 현 스테이지인 제n 스테이지(Sn)의 상태값(Hn)에 출력 가중치(Wy)를 적용하는 연산을 수행하여 출력값, 즉, 작업속성벡터(Y)를 산출한다. During the execution of such an operation, the n-th hidden pixel (HCn), which is the last hidden pixel, applies the state weight (Wh) to the state value (Hn-1) of the n-1th stage (Sn-1), which is the previous stage, to obtain the current stage. The state value Hn of the n-th stage Sn is calculated. Then, the n-th hidden cell HCn performs an operation of applying an output weight Wy to the state value Hn of the n-th stage Sn, which is the current stage, to obtain an output value, that is, a work attribute vector Y yield

이와 같이, 본 발명의 실시예에 따른 작업예측망(WEN)에서 작업입력층(WIL)은 복수의 스테이지(S1 내지 Sn) 각각에 대응하여 시간 순서로 정렬된 복수의 작업로그벡터(X1 내지 Xn)를 복수의 스테이지(S1 내지 Sn) 별로 입력받는다. 그러면, 작업은닉층(WHL)의 마지막 은닉셀(HCn)을 제외한 복수의 은닉셀(HC1 내지 HCn-1)은 이전 스테이지(St-1)의 상태값(Ht-1)과 현 스테이지(St)의 입력값인 작업로그벡터(Xt)에 대해 상태 및 입력 가중치(Wx, Wh)가 적용되는 연산을 수행하여 현 스테이지의 상태값(Ht)을 산출한 후, 산출된 상태값을 다음 스테이지(St+1)에 전달한다. 그러면, 마지막 은닉셀(HCn)은 이전 스테이지(Sn-1)의 상태값(Hn-1)과 현 스테이지(Sn)의 입력값인 제n 작업로그벡터(Xn)에 대해 상태 및 입력 가중치(Wx, Wh)가 적용되는 연산을 수행하여 현 스테이지(Sn)의 상태값(Hn)을 산출한 후, 산출된 현 스테이지의 상태값(Hn)에 출력 가중치(Wy)를 적용하여 단말(20)이 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터(Y)를 산출한다. As such, in the work prediction network (WEN) according to an embodiment of the present invention, the work input layer (WIL) is a plurality of work log vectors (X1 to Xn) arranged in time order corresponding to each of the plurality of stages (S1 to Sn). ) is input for each of the plurality of stages S1 to Sn. Then, the plurality of hidden cells HC1 to HCn-1, except for the last hidden cell HCn of the working hidden layer WHL, have a state value Ht-1 of the previous stage St-1 and the current stage St. After calculating the state value (Ht) of the current stage by performing an operation to which the state and input weights (Wx, Wh) are applied to the work log vector (Xt), which is an input value, the calculated state value is converted to the next stage (St+ 1) forwarded to Then, the last hidden cell (HCn) has a state and an input weight (Wx) for the state value (Hn-1) of the previous stage (Sn-1) and the n-th work log vector (Xn), which is the input value of the current stage (Sn). , Wh) is applied to calculate the state value (Hn) of the current stage (Sn), and then the output weight (Wy) is applied to the calculated state value (Hn) of the current stage so that the terminal 20 can A work attribute vector (Y) representing the attributes of work performed in the work space is calculated.

도 12 및 도 13을 참조하면, 작업예측망(WEN)의 작업출력층(WOL)은 복수의 속성노드(Y1 내지 Yp)를 가지며, 복수의 속성노드(Y1 내지 Yp) 각각은 작업속성벡터(Y = [y1, y2, ..., yp])의 각 자리의 값(y1, y2, ..., yp)을 속성값으로 입력받는다. 즉, 작업출력층(WOL)은 작업속성벡터(Y)를 복수의 속성값(y1, y2, ..., yp)으로 구분한다. 그리고 작업출력층(WOL)은 단말(20)이 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터(Y)를 출력하되, 복수의 속성노드(Y1 내지 Yp) 각각의 속성값(y1, y2, ..., yp)의 형식으로 판별망(DEN)에 출력한다. 즉, 작업출력층(WOL)은 복수의 속성노드(Y1 내지 Yp) 각각의 속성값(y1, y2, ..., yp)을 판별망(DEN)으로 출력한다. 12 and 13, the work output layer (WOL) of the work prediction network (WEN) has a plurality of attribute nodes (Y1 to Yp), and each of the plurality of attribute nodes (Y1 to Yp) is a work attribute vector (Y = The value (y1, y2, ..., yp) of each digit of [y1, y2, ..., yp]) is input as an attribute value. That is, the work output layer (WOL) divides the work attribute vector (Y) into a plurality of attribute values (y1, y2, ..., yp). Further, the work output layer (WOL) outputs a work attribute vector (Y) representing the attribute of the work performed by the terminal 20 in the work space, and the attribute values (y1, y2, ..., yp) is output to the discriminant network (DEN). That is, the work output layer (WOL) outputs the attribute values (y1, y2, ..., yp) of each of the plurality of attribute nodes (Y1 to Yp) to the discrimination network (DEN).

도 12 및 도 13을 참조하면, 판별망(DEN)은 하나의 계층으로 이루어진다. 즉, 판별망(DEN)은 판별층(DEL)을 포함한다. 판별층(DEL)은 산출된 작업속성벡터(Y)에 대해 가중치가 적용되는 복수의 연산을 수행하여 단말(20)이 작업 공간에서 수행하는 작업이 단말(20)이 수행하도록 인가된 작업일 확률과 단말(20)이 수행하도록 인가되지 않은 작업일 확률을 산출한다. Referring to FIGS. 12 and 13 , the discrimination network DEN consists of one layer. That is, the discrimination network DEN includes the discrimination layer DEL. The determination layer (DEL) performs a plurality of operations to which weights are applied to the calculated work attribute vector (Y), and the probability that the work performed by the terminal 20 in the work space is the work authorized to be performed by the terminal 20 and a probability that the terminal 20 is not authorized to perform the task.

판별층(DEL)은 2개의 판별노드(D1, D2)를 포함한다. 제1 판별노드(D1)는 작업이 단말(20)이 수행하도록 인가된 작업에 대응한다. 제2 판별노드(D2)는 단말(20)이 수행하도록 인가되지 않은 작업에 대응한다. 판별층(DEL)은 2개의 판별노드(D1, D2)는 작업예측망(WEN)의 작업속성벡터(Y) 혹은 복수의 속성값(y1 내지 yp)에 대해 활성화함수를 통해 가중치가 적용되는 연산을 수행하여 2개의 판별노드(D1, D2) 각각의 판별값을 산출한다. 전술한 바와 같이, 제1 판별노드(D1)는 작업이 단말(20)이 수행하도록 인가된 작업에 대응하며, 제2 판별노드(D2)는 단말(20)이 수행하도록 인가되지 않은 작업에 대응한다. 또한, 제1 판별노드(D1)의 출력인 제1 판별값은 단말(10) 수행하는 작업이 단말(20)이 수행하도록 인가된 작업일 확률을 나타낸다. 그리고 제2 판별노드(D2)의 출력인 제2 판별값은 단말(10) 수행하는 작업이 단말(20)이 수행하도록 인가되지 않은 작업을 확률을 나타낸다. 이에 따라, 작업인증망(225)은 제1 판별노드(D1) 및 제2 판별노드(D2) 각각의 판별값으로부터 단말(10) 수행하는 작업이 단말(20)이 수행하도록 인가된 작업을 수행하는지 여부를 판단할 수 있다. 일례로, 제1 판별노드(D1) 및 제2 판별노드(D2) 각각의 판별값이 0.282 및 0.718이라면, 제1 판별값에 따라 단말(10) 수행하는 작업이 단말(20)이 수행하도록 인가된 작업일 확률이 28%이고, 제2 판별값에 따라 단말(10) 수행하는 작업이 단말(20)이 수행하도록 인가되지 않은 작업을 확률이 72%임을 나타낸다. 따라서 작업인증망(225)은 현재 단말(10)이 단말(20)이 수행하도록 인가되지 않은 작업을 수행하고 있는 것으로 판단할 수 있다. The discrimination layer DEL includes two discrimination nodes D1 and D2. The first determination node D1 corresponds to a job authorized for the terminal 20 to perform. The second determination node D2 corresponds to a task that the terminal 20 is not authorized to perform. In the discriminant layer (DEL), the two discriminant nodes (D1 and D2) are weighted through an activation function for the task attribute vector (Y) of the work prediction network (WEN) or a plurality of attribute values (y1 to yp). is performed to calculate the discriminant value of each of the two discriminant nodes D1 and D2. As described above, the first determination node D1 corresponds to a job that the terminal 20 is authorized to perform, and the second determination node D2 corresponds to a job that the terminal 20 is not authorized to perform. do. In addition, the first determination value, which is an output of the first determination node D1, indicates a probability that the operation performed by the terminal 10 is a job authorized for the terminal 20 to perform. And, the second determination value, which is an output of the second determination node D2, represents a probability that a job to be performed by the terminal 10 is a job to which the terminal 20 is not authorized to perform. Accordingly, the work authentication network 225 performs the work authorized for the terminal 20 to perform the work to be performed by the terminal 10 from the discrimination values of each of the first determination node D1 and the second determination node D2. You can judge whether or not to do it. For example, if the respective discriminant values of the first discriminant node D1 and the second discriminant node D2 are 0.282 and 0.718, the operation performed by the terminal 10 according to the first discriminant value is applied to the terminal 20 to be performed. It indicates that the probability that the task has been performed is 28%, and the probability that the task performed by the terminal 10 according to the second determination value is a task that the terminal 20 is not authorized to perform is 72%. Accordingly, the work authentication network 225 may determine that the terminal 10 is currently performing a job that the terminal 20 is not authorized to perform.

학습부(400)는 작업인증망(225)이 현재 단말(10)이 단말(20)이 수행하도록 인가되지 않은 작업을 수행하고 있는지 여부를 나타내는 판별값을 산출하도록 학습시킬 수 있다. 이러한 작업인증망(225)에 대한 학습 방법에 대해 설명한다. The learning unit 400 may teach the work authentication network 225 to calculate a discrimination value indicating whether the current terminal 10 is performing a job that the terminal 20 is not authorized to perform. A learning method for this work authentication network 225 will be described.

학습부(400)는 하나의 완성품을 생산하는 복수의 기업에 속한 복수의 단말(20)을 실제로 사용하게 하여 실제 사용되는 복수의 필드 데이터를 획득할 수 있다. 또한, 학습부(400)는 학습이 완료된 컨텍스트인증망(121)을 통해 필드 데이터로부터 컨텍스트벡터(F)를 얻을 수 있다. 그리고 학습부(400)는 컨텍스트벡터(F)와 더불어 로그벡터(L1 내지 Ln) 및 시간 벡터(T1 내지 Tn)를 얻을 수 있다. 이에 따라, 학습부(400)는 필드 데이터로부터 얻어진 컨텍스트벡터(F), 로그벡터(L1 내지 Ln) 및 시간 벡터(T1 내지 Tn)를 결합하여 복수의 작업로그벡터(Xt: X1 내지 Xn)를 생성하여 학습 데이터의 시험군을 마련할 수 있다. 또한, 학습부(400)는 학습 데이터의 시험군의 일부를 변형시켜 학습 데이터의 대조군을 마련할 수 있다. 학습 데이터의 시험군 및 대조군이 마련되면, 학습부(150)는 학습 데이터의 시험군에 대한 레이블로 [D1, D2] = (1, 0)을 설정하고, 학습 데이터의 대조군에 대한 레이블로 [D1, D2] = (0, 1)을 설정한다. The learning unit 400 may acquire a plurality of actually used field data by actually using a plurality of terminals 20 belonging to a plurality of companies producing one finished product. In addition, the learning unit 400 may obtain a context vector F from field data through the context authentication network 121 for which learning has been completed. In addition, the learning unit 400 may obtain log vectors L1 to Ln and time vectors T1 to Tn in addition to the context vector F. Accordingly, the learning unit 400 generates a plurality of work log vectors (Xt: X1 to Xn) by combining the context vector (F), log vectors (L1 to Ln), and time vectors (T1 to Tn) obtained from the field data. A test group of learning data can be prepared by creating a test group. Also, the learning unit 400 may prepare a control group of the learning data by modifying a part of the test group of the learning data. When the test group and control group of the learning data are prepared, the learning unit 150 sets [D1, D2] = (1, 0) as a label for the test group of the learning data, and [ D1, D2] = (0, 1).

그런 다음, 학습부(400)는 작업인증망(225)에 학습 데이터를 입력한다. 그러면, 작업인증망(225)의 작업예측망(WEN)은 학습용의 복수의 작업로그벡터(Xt: X1 내지 Xn)에 대해 복수의 스테이지(S1 내지 Sn)의 순서대로 가중치(Wx, Wh, Wy)가 적용되는 하나 이상의 연산을 수행하여 단말(20)이 작업 공간에서 수행하는 작업을 예측하여 예측된 작업의 속성을 나타내는 작업속성벡터(Y)를 산출한다. 그리고 작업인증망(225)의 판별층(DEL)은 산출된 작업속성벡터(Y)에 대해 가중치(w)가 적용되는 복수의 연산을 수행하여 단말(20)이 작업 공간에서 수행하는 작업이 인가된 작업일 확률과 인가되지 않은 작업일 확률을 판별값으로 산출하고, 산출된 판별값을 출력한다. 그러면, 학습부(400)는 앞서 설정된 레이블과 판별값의 차이인 이진 교차 엔트로피 손실(binary cross entropy loss)을 산출하고, 산출된 손실이 최소가 되도록 최적화 알고리즘을 통해 작업인증망(225)의 가중치를 최적화한다. 학습부(400)는 시험군 및 대조군을 포함하는 복수의 서로 다른 학습 데이터를 이용하여 작업인증망(225)의 가중치를 최적화하는 절차를 복수 번 반복함으로써 작업인증망(225)을 학습시킬 수 있다. Then, the learning unit 400 inputs learning data to the work certification network 225 . Then, the work prediction network (WEN) of the work certification network 225 weights (Wx, Wh, Wy) in order of a plurality of stages (S1 to Sn) for a plurality of work log vectors (Xt: X1 to Xn) for learning ) is applied to predict a task to be performed by the terminal 20 in the workspace, and a task attribute vector (Y) representing properties of the predicted task is calculated. In addition, the determination layer (DEL) of the work authentication network 225 performs a plurality of operations to which a weight (w) is applied to the calculated work attribute vector (Y), and the work performed by the terminal 20 in the work space is authorized. The probability of an approved operation and the probability of an unapproved operation are calculated as discriminant values, and the calculated discriminant value is output. Then, the learning unit 400 calculates the binary cross entropy loss, which is the difference between the previously set label and the discrimination value, and the weight of the work certification network 225 through an optimization algorithm so that the calculated loss is minimized. optimize The learning unit 400 may train the work certification network 225 by repeating a procedure of optimizing the weight of the work certification network 225 using a plurality of different learning data including a test group and a control group a plurality of times. .

다음으로, 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 방법에 대해서 설명하기로 한다. 도 14는 본 발명의 실시예에 따른 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 방법을 설명하기 위한 흐름도이다. 도 14의 생산 정보 공유를 위한 방법은 학습부(400)가 앞서 설명된 컨텍스트인증망(121) 및 작업인증망(225)의 학습을 모두 완료한 상태에서 시작된다. Next, a big data construction method for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention will be described. 14 is a flowchart illustrating a big data construction method for sharing production information between a plurality of companies producing one finished product according to an embodiment of the present invention. The method for sharing production information of FIG. 14 starts in a state in which the learning unit 400 has completed learning of the previously described context authentication network 121 and work authentication network 225 .

도 14를 참조하면, 공유서버(10)의 저장부(12)는 S110 단계에서 생산 정보를 저장한 상태이다. 생산 정보의 저장은 공유서버(10) 제어부(13)의 기록처리부(300)에 의해 이루어질 수 있다. Referring to FIG. 14 , the storage unit 12 of the sharing server 10 stores production information in step S110. The storage of production information may be performed by the recording processing unit 300 of the control unit 13 of the sharing server 10 .

생산 정보가 저장된 상태에서 공유서버(10) 제어부(13)의 접속처리부(100)는 S120 단계에서 통신부(11)를 통해 접속 요청 메시지를 수신할 수 있다. 접속 요청 메시지는 단말(20)의 사용자의 식별자 및 패스워드를 포함하는 계정과, 단말(20)의 컨텍스트를 포함한다. 특히, 컨텍스트는 단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함한다. In the state where the production information is stored, the connection processing unit 100 of the control unit 13 of the sharing server 10 may receive an access request message through the communication unit 11 in step S120. The access request message includes an account including an identifier and password of a user of the terminal 20 and a context of the terminal 20 . In particular, the context includes the device identifier of the terminal, the type of terminal, access location, access time, access IP, access port, access network type, access network identification information, and an application used for access.

접속 요청 메시지를 수신한 후, 접속처리부(100)는 S130 단계에서 접속 요청 메시지를 기초로 단말(20)이 복수의 기업의 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행한다. 이때, 접속처리부(100)의 계정인증부(110)는 단말(20)의 사용자의 식별자(ID) 및 패스워드(PW)를 포함하는 계정을 저장부(12)에 기 저장된 사용자의 계정과 비교하여 단말(20)이 전송한 사용자의 계정이 기 등록된 계정인지 여부를 인증한다. 그리고 접속처리부(100)의 컨텍스트인증부(120)는 심층신경망인 컨텍스트인증망(121)을 이용하여 단말(20)의 컨텍스트가 단말(20)의 등록된 계정에 부합하는지 여부를 인증한다. 동일 기업에 속하는 복수의 단말(20), 즉, 동일 기업의 임직원이 사용하는 복수의 단말(20)은 상호간에 상관도가 높은 컨텍스트를 가진다. 이에 따라, 컨텍스트인증망(121)은 학습부(400)에 의해 단말(20)의 컨텍스트를 통해 단말(20)이 속한 기업을 식별하도록 학습된다. 따라서 컨텍스트인증부(120)는 컨텍스트인증망(121)을 이용하여 기업을 식별한 후, 단말(20)의 계정이 식별된 기업의 임직원에 부여된 계정인지 여부를 판별함으로써 단말(20)의 컨텍스트가 단말(20)의 등록된 계정에 부합하는지 여부를 인증할 수 있다. After receiving the access request message, the access processing unit 100 performs authentication on whether the terminal 20 has permission to access production information of a plurality of companies based on the access request message in step S130. At this time, the account authentication unit 110 of the connection processing unit 100 compares the account including the user's identifier (ID) and password (PW) of the terminal 20 with the user's account previously stored in the storage unit 12. It is authenticated whether the user's account transmitted by the terminal 20 is a pre-registered account. Further, the context authentication unit 120 of the connection processing unit 100 authenticates whether the context of the terminal 20 matches the registered account of the terminal 20 using the deep neural network context authentication network 121 . A plurality of terminals 20 belonging to the same company, that is, a plurality of terminals 20 used by executives and employees of the same company have contexts having a high degree of correlation with each other. Accordingly, the context authentication network 121 is learned by the learning unit 400 to identify the company to which the terminal 20 belongs through the context of the terminal 20 . Therefore, the context authentication unit 120 identifies the company using the context authentication network 121, and then determines whether the account of the terminal 20 is an account assigned to the executives and employees of the identified company, thereby determining the context of the terminal 20. It is possible to authenticate whether or not matches the registered account of the terminal 20 .

다음으로, 제어부(13)의 작업할당부(210)는 S140 단계에서 인증에 성공한 단말(20)의 인증에 사용된 컨텍스트벡터로부터 단말(20)이 속한 기업을 식별하고, 식별된 기업에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당한다. 또한, 작업할당부(210)는 S150 단계에서 저장부(12)에 저장된 생산 정보 중 단말(20)이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 앞서 할당된 작업 공간에 생산 정보의 복사본을 로드한다. 그런 다음, 그리고 작업할당부(210)는 S160 단계에서 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 통신부(11)를 통해 단말(20)에 전송한다. 이와 같이, 단말(20)에 할당된 작업 공간은 생산 정보의 원본이 저장된 저장부(12)의 영역과 물리적으로 분리된 메모리 공간이고, 생산 정보의 원본 대신 생산 정보의 복사본을 제공한다. 이로써, 생산 정보의 원본을 보호할 수 있다. Next, the task allocator 210 of the control unit 13 identifies the company to which the terminal 20 belongs from the context vector used for authentication of the terminal 20 that has succeeded in authentication in step S140, and provides information corresponding to the identified company. Allocates a working space, which is a volatile memory space of size . In addition, the work allocator 210 copies the production information corresponding to the work performed by the company to which the terminal 20 belongs among the production information stored in the storage unit 12 in step S150 and stores the production information in the previously allocated work space. load a copy Then, the work assignment unit 210 transmits an access response message including the access address of the work space allocated in step S160 to the terminal 20 through the communication unit 11 . In this way, the work space allocated to the terminal 20 is a memory space physically separated from the area of the storage unit 12 in which the original production information is stored, and provides a copy of the production information instead of the original production information. In this way, the original of the production information can be protected.

작업인증부(220)는 통신부(11)를 통해 단말(20)이 작업 공간에 접속하면, S170 단계에서 단말(20)이 작업 공간에서 수행하는 작업, 예컨대, 검색, 열람, 업로드, 다운로드, 업데이트 등을 모니터링할 수 있다. 이때, 작업인증부(220)는 S180 단계에서 도 10 내지 도 13을 통해 설명된 바와 같이, 작업인증망(225)을 이용하여 단말(20)이 수행하는 작업이 정당한 작업인지 여부를 판별할 수 있다. 만약, 작업인증부(220)는 정당한 작업이 아닌 것으로 판별된 경우, 해당 단말(20)의 공유서버(10)에 대한 접속을 차단할 수 있다. 그리고 작업인증부(220)는 통신부(11)를 통해 공유서버(10)의 관리자가 사용하는 장치에 경보를 전송할 수 있다. When the terminal 20 accesses the workspace through the communication unit 11, the work authentication unit 220 performs operations performed by the terminal 20 in the workspace in step S170, such as search, reading, upload, download, and update. etc. can be monitored. At this time, as described through FIGS. 10 to 13 in step S180, the work authentication unit 220 may determine whether or not the work performed by the terminal 20 is a legitimate work using the work authentication network 225. have. If the work authentication unit 220 determines that the work is not legitimate, it may block the connection of the terminal 20 to the sharing server 10 . In addition, the work authentication unit 220 may transmit an alarm to a device used by a manager of the sharing server 10 through the communication unit 11 .

한편, 작업인증부(220)의 판별에 따라 단말(20)이 작업 공간에서 수행하는 작업이 그 단말(20)이 수행하도록 인가된 작업이면, 기록처리부(300)는 S190 단계에서 단말(20)이 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 수정된 생산 정보로 저장부(12)의 생산 정보를 업데이트한다. On the other hand, if the work performed by the terminal 20 in the workspace according to the determination of the work authentication unit 220 is a work authorized to be performed by the terminal 20, the recording processing unit 300 records the terminal 20 in step S190. If production information corrected according to the result of work performed in this workspace exists, the production information in the storage unit 12 is updated with the corrected production information.

한편, 전술한 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. On the other hand, the method according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks ( It includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, etc. Examples of program commands may include high-level language wires that can be executed by a computer using an interpreter, as well as machine language wires such as those produced by a compiler. These hardware devices may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred examples, but these examples are illustrative and not limiting. As such, those skilled in the art to which the present invention belongs will understand that various changes and modifications can be made according to the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.

10: 공유서버 11: 통신부
12: 저장부 13: 제어부
20: 단말 100: 접속처리부
110: 계정인증부 120: 컨텍스트인증부
121: 컨텍스트인증망 200: 작업관리부
210: 작업할당부 220: 작업인증부
221: 전처리부 223: 결합부
225: 작업인증망 300: 기록처리부
400: 학습부
10: shared server 11: communication unit
12: storage unit 13: control unit
20: terminal 100: connection processing unit
110: account authentication unit 120: context authentication unit
121: context authentication network 200: work management unit
210: work allocation unit 220: work certification unit
221: pre-processing unit 223: coupling unit
225: work authentication network 300: record processing unit
400: learning unit

Claims (12)

빅데이터 구축 장치에 있어서,
하나의 완성품을 생산하는 복수의 기업의 단말과 통신을 위한 통신부;
상기 복수의 기업이 상기 완성품을 생산하기 위해 원재료에서 상기 완성품을 만드는 과정에 대한 정보이고 상기 복수의 기업이 공유하기 위한 정보인 생산 정보를 통합하여 저장하는 저장부; 및
상기 통신부를 통해 상기 복수의 단말 중 어느 하나의 단말로부터 접속 요청 메시지를 수신하면, 수신된 접속 요청 메시지를 기초로 상기 단말이 상기 복수의 기업의 상기 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행하는 접속처리부;
상기 인증 결과, 인증에 성공하면, 상기 단말에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당하고, 상기 저장부의 상기 생산 정보 중 상기 단말이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 상기 할당된 작업 공간에 로드한 후, 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 통신부를 통해 상기 단말에 전송하는 작업할당부를 포함하는 작업관리부;
를 포함하며,
상기 접속 요청 메시지는
상기 단말의 사용자의 식별자 및 패스워드와, 상기 단말의 컨텍스트를 포함하며,
상기 컨텍스트는
단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함하고,
상기 접속처리부는
상기 단말의 사용자의 식별자 및 패스워드를 통해 사용자의 계정이 기 등록된 계정인지 여부를 인증하는 계정인증부; 및
어느 하나의 계층의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 되는 복수의 연산을 포함하는 복수의 계층을 포함하는 컨텍스트인증망을 이용하여 상기 컨텍스트가 상기 등록된 계정에 부합하는지 여부를 인증하는 컨텍스트인증부;
를 포함하며,
상기 컨텍스트인증망은
상기 컨텍스트를 입력받는 입력계층;
상기 입력계층의 컨텍스트에 대해 가중치 행렬로 구성된 제1 필터를 통해 컨볼루션 연산을 수행하여 제1 특징지도를 구성하는 컨볼루션계층;
상기 컨볼루션계층의 제1 특징지도에 대해 가중치 행렬로 구성된 제2 필터를 통해 풀링 연산을 수행하여 제2 특징지도를 구성하는 풀링계층;
상기 풀링계층의 제2 특징지도를 변환하여 하나의 열로 정렬하는 평탄화계층;
복수의 연산 노드를 포함하며, 복수의 연산 노드 각각이 하나의 열로 정렬된 제2 특징지도에 대해 가중치가 적용된 활성화함수를 통한 연산을 수행하여 상기 복수의 연산 노드 각각에 대응하는 연산값을 산출하는 완전연결계층; 및
복수의 기업 각각에 대응하는 복수의 출력 노드를 포함하며, 상기 완전연결계층의 상기 복수의 연산 노드의 연산값에 대해 활성화함수를 통한 연산을 수행하여 상기 컨텍스트를 가지는 단말이 상기 복수의 기업 각각에 속할 확률을 나타내는 컨텍스트벡터를 산출하고, 산출된 확률을 출력값으로 출력하는 출력계층;
를 포함하는 것을 특징으로 하는
빅데이터 구축 장치.
In the big data construction device,
A communication unit for communication with terminals of a plurality of companies producing one finished product;
A storage unit for integrating and storing production information, which is information about a process of making the finished product from raw materials for the plurality of companies to produce the finished product, and is information to be shared by the plurality of companies; and
When receiving an access request message from any one of the plurality of terminals through the communication unit, based on the received access request message, whether the terminal has permission to access the production information of the plurality of companies an access processing unit that performs authentication for;
As a result of the authentication, if the authentication is successful, a work space, which is a volatile memory space of a size corresponding to the terminal, is allocated, and among the production information of the storage unit, production information corresponding to a job performed by a company to which the terminal belongs is copied. a work management unit including a work allocating unit that loads the allocated workspace and transmits an access response message including an access address of the allocated workspace to the terminal through the communication unit;
Including,
The connection request message
It includes an identifier and password of a user of the terminal and a context of the terminal,
The context is
Includes device identifier of the terminal, type of terminal, access location, access time, access IP, access port, type of access network, identification information of the access network, and application used for access,
The connection processing unit
an account authentication unit authenticating whether or not the user's account is a pre-registered account through the user's identifier and password of the terminal; and
Authenticating whether the context corresponds to the registered account using a context authentication network including a plurality of layers including a plurality of calculations that are input to the next layer by applying a weight to the operation result of one layer context authentication unit;
Including,
The context authentication network
an input layer receiving the context;
a convolution layer constituting a first feature map by performing a convolution operation on the context of the input layer through a first filter composed of a weight matrix;
a pooling layer constituting a second feature map by performing a pooling operation on the first feature map of the convolution layer through a second filter composed of a weight matrix;
a flattening layer transforming the second feature map of the pooling layer and arranging them into one column;
Including a plurality of calculation nodes, calculating a calculation value corresponding to each of the plurality of calculation nodes by performing an operation through an activation function to which a weight is applied to a second feature map in which each of the plurality of calculation nodes is arranged in a column fully connected layer; and
It includes a plurality of output nodes corresponding to each of a plurality of companies, and performs an operation through an activation function on the calculation values of the plurality of calculation nodes of the fully connected layer so that the terminal having the context is sent to each of the plurality of companies. an output layer that calculates a context vector indicating a probability of belonging and outputs the calculated probability as an output value;
characterized in that it includes
Big data building device.
삭제delete 삭제delete 제1항에 있어서,
상기 장치는
기업이 알려진 학습용 컨텍스트에 대해 알려진 기업에 따라 레이블을 설정하고,
상기 컨텍스트인증망에 상기 학습용 컨텍스트를 입력한 후,
상기 컨텍스트인증망이 학습용 컨텍스트에 대해 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하면,
상기 설정된 레이블과 상기 출력값의 차이인 손실값을 산출하는 손실함수
Figure 112022066267634-pat00023
의 손실값이 최소가 되도록 상기 컨텍스트인증망의 가중치를 최적하되, 동일한 복수의 학습용 컨텍스트를 이용하여 상기
Figure 112022066267634-pat00024
의 값을 1, 0.5 및 0으로 변경하면서 상기 컨텍스트인증망에 대한 학습을 수행하는 학습부;를 더 포함하며,
상기 Ecm은 손실함수를 나타내고,
상기 hy는 레이블에 따라 알려진 기업을 나타내는 원핫인코딩벡터이고,
상기 fy는 상기 출력값이고,
상기 cy는 레이블에 따라 알려진 기업의 복수의 컨텍스트벡터 중 중심벡터이고,
상기 y는 기업 인덱스이고,
상기 N은 y의 최댓값이고,
상기
Figure 112022066267634-pat00025
는 하이퍼파라미터인 것을 특징으로 하는
빅데이터 구축 장치.
According to claim 1,
The device
Set labels according to known companies for learning contexts where companies are known;
After entering the learning context into the context authentication network,
When the context authentication network calculates an output value through a plurality of calculations to which weights are applied to the learning context,
A loss function that calculates a loss value that is the difference between the set label and the output value
Figure 112022066267634-pat00023
Optimizing the weight of the context authentication network so that the loss value of
Figure 112022066267634-pat00024
A learning unit that performs learning on the context authentication network while changing the value of 1, 0.5 and 0
The Ecm represents a loss function,
The hy is a one-hot encoding vector representing a known company according to the label,
The fy is the output value,
The cy is a central vector among a plurality of context vectors of companies known according to labels,
Where y is the company index,
Wherein N is the maximum value of y,
remind
Figure 112022066267634-pat00025
is a hyperparameter, characterized in that
Big data building device.
제1항에 있어서,
상기 작업관리부는
상기 통신부를 통해 상기 단말이 상기 작업 공간에 접속하면, 상기 단말이 상기 작업 공간에서 수행하는 작업을 모니터링하여 상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 작업인증부;
를 더 포함하는 것을 특징으로 하는
빅데이터 구축 장치.
According to claim 1,
The work management department
When the terminal accesses the work space through the communication unit, a work authentication unit that monitors the work performed by the terminal in the work space and determines whether the work performed by the terminal is a valid work;
characterized in that it further comprises
Big data building device.
제5항에 있어서,
상기 작업인증부는
상기 단말이 상기 작업 공간에서 접속한 후 시간 순서에 따라 기록된 복수의 로그를 순차로 추출하고, 추출된 복수의 로그 각각의 특징을 나타내는 복수의 로그벡터를 생성하고, 복수의 로그벡터를 로그가 기록된 시간 순서에 따라 정렬하여 제공하며, 로그가 기록된 시간을 나타내는 시간 벡터를 생성하는 전처리부;
상기 복수의 로그벡터에 대응하는 시간 벡터 및 상기 컨텍스트벡터를 결합하여 시간 순서로 정렬된 복수의 작업로그벡터를 생성하는 벡터결합부; 및
상기 복수의 작업로그벡터에 대해 복수의 스테이지의 순서대로 가중치가 적용되는 하나 이상의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하고, 상기 산출된 작업속성벡터로부터 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업인지 여부를 나타내는 확률을 산출하고, 산출된 확률을 출력하는 작업인증망;
을 포함하는 것을 특징으로 하는
빅데이터 구축 장치.
According to claim 5,
The work certification department
After the terminal accesses the workspace, a plurality of logs recorded according to time sequence are sequentially extracted, a plurality of log vectors representing characteristics of each of the plurality of extracted logs are generated, and the plurality of log vectors are converted into logs. a pre-processing unit that sorts and provides data according to recorded time order and generates a time vector indicating a time when the log was recorded;
a vector combining unit generating a plurality of work log vectors arranged in chronological order by combining a time vector corresponding to the plurality of log vectors and the context vector; and
One or more operations to which weights are applied are performed on the plurality of work log vectors in order of a plurality of stages to calculate a work attribute vector representing the attribute of a work performed by the terminal in the work space, and the calculated work attribute a work certification network that calculates a probability indicating whether a task performed by the terminal in the workspace is a task authorized to be performed by the terminal from a vector, and outputs the calculated probability;
characterized in that it includes
Big data building device.
제6항에 있어서,
상기 작업인증망은
순차로 정렬된 복수의 스테이지로 이루어지며,
상기 복수의 스테이지에 대응하여 시간 순서로 정렬된 복수의 작업로그벡터를 상기 복수의 스테이지 별로 입력받는 작업입력층;
이전 스테이지의 상태값과 현 스테이지의 입력값인 작업로그벡터에 대해 상태 및 입력 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 상태값을 다음 스테이지에 전달하는 복수의 은닉셀을 포함하되,
상기 복수의 은닉셀 중 마지막 은닉셀은 이전 스테이지의 상태값에 대해 상태 가중치가 적용되는 연산을 수행하여 현 스테이지의 상태값을 산출한 후, 산출된 현 스테이지의 상태값에 출력 가중치를 적용하여 출력값인 단말이 작업 공간에서 수행하는 작업의 속성을 나타내는 작업속성벡터를 산출하는 작업은닉층;
상기 작업속성벡터를 복수의 속성값으로 구분하여 구분된 복수의 속성값을 출력하는 작업출력층; 및
상기 복수의 속성값에 대해 가중치가 적용되는 복수의 연산을 수행하여 상기 단말이 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업일 확률과 상기 단말이 수행하도록 인가되지 않은 작업일 확률을 나타내는 판별값을 산출하는 판별층;
을 포함하는 것을 특징으로 하는
빅데이터 구축 장치.
According to claim 6,
The work authentication network
It consists of a plurality of stages arranged in sequence,
a work input layer which receives a plurality of work log vectors arranged in chronological order corresponding to the plurality of stages for each of the plurality of stages;
The state value of the current stage is calculated by performing an operation to which the state and input weight are applied to the state value of the previous stage and the work log vector, which is the input value of the current stage, and then the calculated state value is passed to the next stage. Including a hidden pixel,
The last hidden cell among the plurality of hidden pixels calculates the state value of the current stage by performing an operation to which state weights are applied to the state value of the previous stage, and then applies the output weight to the calculated state value of the current stage to obtain an output value a task hidden layer that calculates a task attribute vector representing properties of a task performed by the terminal in the workspace;
a job output layer that divides the job attribute vector into a plurality of attribute values and outputs a plurality of attribute values; and
A probability that a task performed by the terminal in the workspace by performing a plurality of operations to which weights are applied to the plurality of attribute values is a task authorized to be performed by the terminal and a probability that the task is not authorized to be performed by the terminal Discrimination layer for calculating a discriminant value representing ;
characterized in that it includes
Big data building device.
제7항에 있어서,
상기 장치는
상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업이면, 상기 단말이 상기 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 상기 수정된 생산 정보로 상기 저장부의 생산 정보를 업데이트하는 기록처리부;
를 더 포함하는 것을 특징으로 하는
빅데이터 구축 장치.
According to claim 7,
The device
If the work performed in the work space is a work authorized to be performed by the terminal, if there is production information corrected according to the result of the work performed by the terminal in the work space, production of the storage unit is performed with the corrected production information. a recording processing unit that updates information;
characterized in that it further comprises
Big data building device.
빅데이터 구축 방법에 있어서,
하나의 완성품을 생산하는 복수의 기업이 있을 때, 상기 복수의 기업이 상기 완성품을 생산하기 위해 원재료에서 상기 완성품을 만드는 과정에 대한 정보이고 상기 복수의 기업이 공유하기 위한 정보인 생산 정보를 통합하여 저장한 상태에서, 접속처리부가 상기 복수의 기업 중 어느 하나의 기업의 단말로부터 접속 요청 메시지를 수신하는 단계;
상기 접속처리부가 수신된 접속 요청 메시지를 기초로 상기 단말이 상기 복수의 기업의 상기 생산 정보에 접근할 수 있는 권한이 있는지 여부에 대해 인증을 수행하는 단계;
상기 인증 결과, 인증에 성공하면, 작업관리부가 상기 단말에 상응하는 크기의 휘발성 메모리 공간인 작업 공간을 할당하는 단계;
상기 작업관리부가 상기 생산 정보 중 상기 단말이 속하는 기업이 수행하는 작업에 상응하는 생산 정보를 복사하여 상기 할당된 작업 공간에 로드하는 단계;
상기 작업관리부가 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 단말에 제공하는 단계;
를 포함하며,
상기 접속 요청 메시지는
상기 단말의 사용자의 식별자 및 패스워드와, 상기 단말의 컨텍스트를 포함하며,
상기 컨텍스트는
단말의 기기 식별자, 단말의 종류, 접속 위치, 접속 시간, 접속 아이피, 접속 포트, 접속 네트워크의 종류, 접속 네트워크의 식별 정보 및 접속에 사용된 애플리케이션을 포함하고,
상기 인증을 수행하는 단계는
상기 접속처리부가 상기 단말의 사용자의 식별자 및 패스워드를 통해 사용자의 계정이 기 등록된 계정인지 여부를 인증하는 단계; 및
상기 접속처리부가 어느 하나의 계층의 연산 결과에 가중치가 적용되어 다음 계층의 입력이 되는 복수의 연산을 포함하는 복수의 계층을 포함하는 컨텍스트인증망을 이용하여 상기 컨텍스트가 상기 등록된 계정에 부합하는지 여부를 인증하는 단계;
를 포함하며,
상기 작업관리부가 상기 할당된 작업 공간의 접속 주소를 포함하는 접속 응답 메시지를 상기 단말에 제공하는 단계 후,
상기 작업관리부의 작업인증부가 상기 단말이 상기 작업 공간에 접속하면, 상기 단말이 상기 작업 공간에서 수행하는 작업을 모니터링하여 상기 단말이 수행하는 작업이 정당한 작업인지 여부를 판별하는 단계;
상기 판별 결과, 상기 작업 공간에서 수행하는 작업이 상기 단말이 수행하도록 인가된 작업이면, 기록처리부가 상기 단말이 상기 작업 공간에서 수행한 작업 결과에 따라 수정된 생산 정보가 존재하는 경우, 상기 수정된 생산 정보로 기 저장된 생산 정보를 업데이트하는 단계;
를 더 포함하는 것을 특징으로 하는
빅데이터 구축 방법.
In the big data construction method,
When there are a plurality of companies producing one finished product, the plurality of companies are information on the process of making the finished product from raw materials to produce the finished product, and the production information, which is information for the plurality of companies to share, is integrated Receiving a connection request message from a terminal of one of the plurality of companies by the connection processing unit in the stored state;
performing authentication on whether or not the terminal has authority to access the production information of the plurality of companies based on the connection request message received by the connection processing unit;
Allocating, by a work management unit, a work space, which is a volatile memory space of a size corresponding to the terminal, if the authentication is successful as a result of the authentication;
copying, by the work manager, production information corresponding to a work performed by a company to which the terminal belongs, among the production information, and loading the copy into the assigned work space;
providing, by the work manager, an access response message including an access address of the assigned work space to the terminal;
Including,
The connection request message
It includes an identifier and password of a user of the terminal and a context of the terminal,
The context is
Includes device identifier of the terminal, type of terminal, access location, access time, access IP, access port, type of access network, identification information of the access network, and application used for access,
The step of performing the authentication is
authenticating whether the user's account is a pre-registered account through the user's identifier and password of the terminal by the access processing unit; and
The connection processing unit checks whether the context corresponds to the registered account by using a context authentication network including a plurality of layers including a plurality of calculations that are input to the next layer by applying weights to calculation results of one layer. certifying whether or not;
Including,
After the work management unit provides an access response message including an access address of the allocated work space to the terminal,
When the terminal accesses the work space, the work authentication unit of the work management unit monitors the work performed by the terminal in the work space and determines whether the work performed by the terminal is a legitimate work;
As a result of the determination, if the work performed in the work space is a work authorized for the terminal to be performed, if production information corrected according to the result of the work performed by the terminal in the work space exists, the recording processor modifies the modified production information. Updating pre-stored production information with production information;
characterized in that it further comprises
How to build big data.
삭제delete 제9항에 있어서,
상기 접속 요청 메시지를 수신하는 단계 전,
학습부가 기업이 알려진 학습용 컨텍스트에 대해 알려진 기업에 따라 레이블을 설정하는 단계;
상기 학습부가 상기 컨텍스트인증망에 상기 학습용 컨텍스트를 입력한 후, 상기 컨텍스트인증망이 학습용 컨텍스트에 대해 가중치가 적용되는 복수의 연산을 통해 출력값을 산출하면,
상기 설정된 레이블과 상기 출력값의 차이인 손실값을 산출하는 손실함수
Figure 112022066267634-pat00026
의 손실값이 최소가 되도록 상기 컨텍스트인증망의 가중치를 최적하되, 동일한 복수의 학습용 컨텍스트를 이용하여 상기
Figure 112022066267634-pat00027
의 값을 1, 0.5 및 0으로 변경하면서 상기 컨텍스트인증망에 대한 학습을 수행하는 단계;를 더 포함하며,
상기 Ecm은 손실함수를 나타내고,
상기 hy는 레이블에 따라 알려진 기업을 나타내는 원핫인코딩벡터이고,
상기 fy는 상기 출력값이고,
상기 cy는 레이블에 따라 알려진 기업의 복수의 컨텍스트벡터 중 중심벡터이고,
상기 y는 기업 인덱스이고,
상기 N은 y의 최댓값이고,
상기
Figure 112022066267634-pat00028
는 하이퍼파라미터인 것을 특징으로 하는
빅데이터 구축 방법.
According to claim 9,
Before receiving the access request message,
setting, by a learning unit, a label according to a known company for a learning context in which the company is known;
After the learning unit inputs the learning context to the context authentication network, when the context authentication network calculates an output value through a plurality of calculations to which weights are applied to the learning context,
A loss function that calculates a loss value that is the difference between the set label and the output value
Figure 112022066267634-pat00026
Optimizing the weight of the context authentication network so that the loss value of
Figure 112022066267634-pat00027
Further comprising: performing learning on the context authentication network while changing the value of
The Ecm represents a loss function,
The hy is a one-hot encoding vector representing a known company according to the label,
The fy is the output value,
The cy is a central vector among a plurality of context vectors of companies known according to labels,
Where y is the company index,
Wherein N is the maximum value of y,
remind
Figure 112022066267634-pat00028
is a hyperparameter, characterized in that
How to build big data.
삭제delete
KR1020200064578A 2020-05-28 2020-05-28 Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry KR102472368B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200064578A KR102472368B1 (en) 2020-05-28 2020-05-28 Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200064578A KR102472368B1 (en) 2020-05-28 2020-05-28 Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry

Publications (2)

Publication Number Publication Date
KR20210147398A KR20210147398A (en) 2021-12-07
KR102472368B1 true KR102472368B1 (en) 2022-11-30

Family

ID=78868468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200064578A KR102472368B1 (en) 2020-05-28 2020-05-28 Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry

Country Status (1)

Country Link
KR (1) KR102472368B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102585912B1 (en) * 2022-12-14 2023-10-06 주식회사 딥노이드 Apparatus for automatically searching for products groups to which design rights are applied and method therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101935652B1 (en) * 2017-03-06 2019-01-04 한밭대학교 산학협력단 System and Method of Smart Factory Operation Management Solution Service Using Big Data Platform

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050192962A1 (en) 2004-02-26 2005-09-01 Patricia Furrer Apparatus, system, method for enabling web-applications to access enterprise managed data
KR20070043353A (en) * 2005-10-21 2007-04-25 유아이넷주식회사 Method for processing document of multi user cowork at the same real time on web based system
WO2014065444A1 (en) * 2012-10-23 2014-05-01 한국생산기술연구원 Collaboration system using open public network
WO2018013200A1 (en) * 2016-07-14 2018-01-18 Magic Leap, Inc. Deep neural network for iris identification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101935652B1 (en) * 2017-03-06 2019-01-04 한밭대학교 산학협력단 System and Method of Smart Factory Operation Management Solution Service Using Big Data Platform

Also Published As

Publication number Publication date
KR20210147398A (en) 2021-12-07

Similar Documents

Publication Publication Date Title
CN110084377B (en) Method and device for constructing decision tree
Fonseca et al. Artificial neural networks for job shop simulation
CN106127038A (en) The processing method of a kind of blacklist and system
CN111191221A (en) Method and device for configuring authority resources and computer readable storage medium
Yu et al. Spectrum availability prediction for cognitive radio communications: A DCG approach
KR102472368B1 (en) Apparatus and method for constructing big data to share production information between multiple companies producing one finished product in the textile industry
CN110502515A (en) Collecting method, device, equipment and computer readable storage medium
CN111967598A (en) Neural network compression method, device, equipment and computer readable storage medium
CN114780301A (en) Disaster recovery method and system supporting multi-cloud production environment
CN115618008A (en) Account state model construction method and device, computer equipment and storage medium
US20230342491A1 (en) Analytics Platform for Federated Private Data
CN110705622A (en) Decision-making method and system and electronic equipment
CN105630960B (en) The method and apparatus of testing field Task conversational system
CN116887264A (en) Shared satellite-oriented on-board multi-user access control method, device and equipment
CN116471281A (en) Decentralised service combination method considering node selfiness
CN111737319B (en) User cluster prediction method, device, computer equipment and storage medium
CN114898184A (en) Model training method, data processing method and device and electronic equipment
US11108654B2 (en) Re-deployable elastic framework
CN111062056B (en) Private data protection modeling method, system and device based on transfer learning
CN107742140B (en) Intelligent identity information identification method based on RFID technology
CN112257113A (en) Safety control method, device, equipment and medium for data resource platform
CN113177075A (en) Handwriting data storage method and system based on big data platform
Chen et al. Using a hybrid evolutionary algorithm for solving signal transmission station location and allocation problem with different regional communication quality restriction
US20230342781A1 (en) System and method for identity verification
Zhong et al. An integrated container terminal scheduling problem with different‐berth sizes via multiobjective hydrologic cycle optimization

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)