WO2023101364A1 - Neural network training method - Google Patents

Neural network training method Download PDF

Info

Publication number
WO2023101364A1
WO2023101364A1 PCT/KR2022/019082 KR2022019082W WO2023101364A1 WO 2023101364 A1 WO2023101364 A1 WO 2023101364A1 KR 2022019082 W KR2022019082 W KR 2022019082W WO 2023101364 A1 WO2023101364 A1 WO 2023101364A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
learning
data
input data
neural
Prior art date
Application number
PCT/KR2022/019082
Other languages
French (fr)
Korean (ko)
Inventor
정원경
문현석
박찬준
손준영
이설화
이정우
임희석
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Publication of WO2023101364A1 publication Critical patent/WO2023101364A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • Embodiments relate to a learning method of a neural network, an artificial intelligence device, and a computer program stored in a computer-readable storage medium.
  • IP intellectual property rights
  • Prior patent analysis is a process of analyzing whether a claim specifying the scope of an invention for which an inventor seeks protection infringes on the scope of other previously registered patents.
  • prior patent analysis is a task that requires a large amount of human labor and specialized knowledge. That is, the prior patent analysis process includes data collection, information search, and technology understanding, and for this purpose, knowledge of complex fields is required.
  • patent documents to be analyzed contain many technical and legal patent domain-specific terms. Accordingly, a high level of human resources, time and cost are generally required to analyze patent documents. This shows the need for an assistant tool that can be utilized in the patent processing and analysis process. Specifically, it shows the urgency and importance of developing a technology capable of automating the analysis of patent documents that can effectively alleviate the difficulties and limitations in terms of time and cost.
  • the embodiment provides a neural network learning method capable of automatically analyzing patent documents, an artificial intelligence device, and a computer program stored in a computer readable storage medium.
  • the embodiment provides a neural network learning method capable of increasing the analysis accuracy of patent documents, an artificial intelligence device, and a computer program stored in a computer readable storage medium.
  • the embodiment provides a neural network learning method, an artificial intelligence device, and a computer program stored in a computer readable storage medium capable of increasing patent analysis performance by using a neural network model specialized for analyzing patent documents.
  • a learning method of a neural network capable of automatically analyzing a detailed description section including technical details, not a summary section or claims section of a patent document, an artificial intelligence device, and a computer program stored in a computer readable storage medium provides
  • the embodiment summarizes patent documents using a summary algorithm to provide a neural network learning method, an artificial intelligence device, and a computer program stored in a computer readable storage medium that can increase the learning efficiency and reasoning efficiency of the neural network model.
  • a neural network learning method an artificial intelligence device, and a computer program stored in a computer readable storage medium capable of providing key noun phrases implicitly expressing key sentences in the patent document, rather than words included in the patent document, are provided. do.
  • a neural network learning method includes learning a first neural network based on first input data; learning a second neural network based on second input data by applying a parameter value of the first neural network according to a learning result of the first neural network; and applying a parameter value of the first neural network to train a third neural network based on third input data, wherein the first input data includes a document in a patent domain, and the second input data includes first label data labeling a plurality of patent documents and key sentences corresponding to each of the plurality of patent documents, and the third input data corresponds to a plurality of key sentences and the plurality of key sentences, respectively and second label data for labeling the core noun phrase.
  • the step of training the first neural network includes acquiring a plurality of corpora by using the document of the patent domain, and includes learning the first neural network by using the plurality of corpora.
  • the step of learning the second neural network includes applying the parameter values of the first neural network as initial values of the parameter values of the second neural network, and proceeding with learning based on the second input data, 2 Updating the parameter values of the neural network.
  • the step of learning the second neural network includes the step of upscaling the second input data, and the upscaling step includes first labeling a key sentence corresponding to each of the plurality of patent documents. copying label data; and adding the copied label data as first label data of each patent document.
  • the step of learning the third neural network includes applying a parameter value of the first neural network as an initial value of a parameter value of the third neural network, learning based on the third input data, and performing the learning. 3 Updating the parameter values of the neural network.
  • the step of training the second neural network includes obtaining summary data summarizing each of a plurality of patent documents included in the second input data.
  • the step of training the first neural network may include changing a parameter value of the neural network learned in a document of a general domain to a parameter value corresponding to a document of the patent domain.
  • the first to third neural networks include a deep learning neural network (DNN).
  • DNN deep learning neural network
  • model structures of the first to third neural networks are identical to each other.
  • model structure of the first to third neural networks includes a T5 model.
  • the artificial intelligence device includes a first neural network for extracting key sentences included in a patent document; and a second neural network for extracting a key noun phrase from the key sentence extracted through the first neural network, wherein the parameter value of the first neural network is an initial parameter value of a learning neural network learned to process a document in the patent domain.
  • the first input data includes a plurality of patent documents and first label data labeling key sentences corresponding to each of the plurality of patent documents
  • the second input data includes a plurality of key sentences and and second label data for labeling core noun phrases respectively corresponding to the plurality of core sentences.
  • the first neural network extracts the key sentence from summary data summarizing the patent document.
  • the first neural network learned from documents in the general domain is updated to a model specialized in documents in the patent domain.
  • the document of the patent domain includes technical terms that are not included in the document of the general domain, and when analyzing the patent document using the first neural network learned from the document of the general domain, the learning accuracy or Inference accuracy may be lowered.
  • the parameter value of the neural network is updated according to the document of the patent domain.
  • learning of the second neural network used to extract key sentences from the patent document is performed.
  • the second input data does not proceed with learning with the entire range of the patent document included in the second input data
  • the second neural network 420 uses summary data summarizing the patent document.
  • the neural network 420 is trained.
  • additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. to enable improvement.
  • unnecessary data in the document can be effectively reduced through the sentence summary as described above, and after setting the minimum ratio so that important sentences are included as much as possible, as the learning of the second neural network 420 proceeds thereafter, the above The learning time of the second neural network 420 can be effectively reduced.
  • the parameter value obtained from the first neural network 410 is applied as an initial value of the parameter value of the second neural network 420 .
  • a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420.
  • the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
  • learning of the third neural network used to extract key noun phrases from key sentences of patent documents is performed.
  • a generation method rather than a sentence extraction method is applied to the third neural network 430 .
  • some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do.
  • the key noun phrase it is possible to more flexibly recognize the key noun phrase in the core sentence. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence.
  • the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method.
  • FIG. 1 is a diagram illustrating an artificial intelligence system according to an embodiment.
  • Figure 2 is a block diagram of an example of the artificial intelligence device of Figure 1;
  • FIG. 3 is a diagram showing the structure of a neural network according to an embodiment.
  • FIG. 4 is a diagram for explaining a learning process of a first neural network according to an embodiment.
  • FIG. 5 is a diagram for explaining a learning process of a second neural network according to an embodiment.
  • FIG. 6 is a diagram for explaining a learning process of a third neural network according to an embodiment.
  • FIG. 7 is a flowchart for explaining step by step an inference method according to an embodiment.
  • FIG. 1 is a diagram illustrating an artificial intelligence system according to an embodiment
  • FIG. 2 is a block diagram of an example of the artificial intelligence device of FIG. 1
  • the artificial intelligence system is a patent document analysis system that proceeds with learning through deep learning in order to analyze patent documents, and analyzes input data (eg, patent documents to be analyzed) based on the learning results. can also be said
  • the artificial intelligence system proceeds with learning specific to the patent domain.
  • the artificial intelligence system may also be referred to as a core information extraction system of a patent document that extracts a key sentence from a patent document by reflecting the learning result and extracts a key noun phrase from the extracted key sentence.
  • the artificial intelligence system of the embodiment includes an electronic device 100 , a database 200 and an artificial intelligence device 300 .
  • the electronic device 100 may be referred to as a user terminal.
  • the electronic device 100 may access an application or website providing a patent document analysis function according to an embodiment.
  • the electronic device 100 may input information about a target to be analyzed in the accessed application or website.
  • the information to be analyzed may be a patent document number (eg, at least one of an application number, a registration number, and a publication number).
  • the analysis target information may be a search keyword for searching patent documents in a specific technical field.
  • the user may input a specific patent document to be analyzed through the electronic device 100 as the analysis target information.
  • the electronic device 100 may include all terminals capable of accessing applications or web sites through a network.
  • the electronic device 100 includes a smart phone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a portable multimedia player (PMP), It may include at least one of an MP3 player, medical device, camera, or wearable device.
  • Wearable devices are accessories (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or headmounted-devices (HMDs)), integrated into textiles or clothing (e.g. electronic garments), or body-attached. type (eg, a skin pad or tattoo), or at least one of a bio implantable circuit.
  • HMDs headmounted-devices
  • the electronic device 100 may include a television, a digital video disk (DVD) player, an audio device, a refrigerator, an air conditioner, a vacuum cleaner, an oven, a microwave oven, a washing machine, an air purifier, a set top box, a home automation control panel, and a security device. It may include at least one of a control panel, a media box (eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM), a game console (eg XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.
  • a media box eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM
  • game console eg XboxTM, PlayStationTM
  • the electronic device 100 may be various medical devices (eg, various portable medical measuring devices (blood glucose meter, heart rate monitor, blood pressure monitor, body temperature monitor, etc.), MRA (magnetic resonance angiography), MRI (magnetic resonance imaging) ), CT (computed tomography), camera, or ultrasonicator, etc.), navigation device, satellite navigation system (GNSS (global navigation satellite system)), EDR (event data recorder), FDR (flight data recorder), automobile infotainment device, ship Electronic equipment (e.g.
  • navigation systems for ships, gyrocompasses, etc. avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs in financial institutions, POS in stores (point of sales), or IoT devices (e.g., light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.).
  • IoT devices e.g., light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.
  • the database 200 may be connected to the electronic device 100 or the artificial intelligence device 300 through a network.
  • the database 200 may receive the analysis target information and deliver a patent document corresponding to the analysis target information to the artificial intelligence device 300 or the electronic device 100 .
  • the database 200 may receive the analysis target information from the electronic device 100 .
  • analysis target information input into the electronic device 100 may be provided to the database 200 through a network.
  • the database 200 may search for a patent document corresponding to the received analysis target information and deliver the searched patent document to either the electronic device 100 or the artificial intelligence device 300 .
  • the database 200 may receive analysis target information from the artificial intelligence device 300 .
  • analysis target information input to the electronic device 100 may be provided to the artificial intelligence device 300 through a network.
  • the artificial intelligence device 300 may access the database 200 through a network and receive a patent document corresponding to the analysis target information.
  • the database 200 includes at least one database, and can store a plurality of patent documents filed accordingly.
  • the database 200 may include a plurality of databases.
  • the database 200 may include first through Nth databases.
  • the first database may be a database operated by the Korea Intellectual Property Office (KIPO) or by a person who received a service from the Korea Intellectual Property Office (KIPO). And, the first database may store patent documents filed with the Korean Intellectual Property Office as the receiving office.
  • the second database may be a database operated by the United States Patents and Trademark Office (USPTO) or by a person who received a service from the United States Patent and Trademark Office. And, the second database may store patent documents filed with the United States Patent and Trademark Office as a receiving office.
  • USPTO United States Patents and Trademark Office
  • the second database may store patent documents filed with the United States Patent and Trademark Office as a receiving office.
  • the third database may be a database operated by the European Patent Office (EPO) or by a person who has received services from the European Patent Office. Further, the third database may store patent documents filed with the European Patent Office as a receiving office.
  • EPO European Patent Office
  • the third database may store patent documents filed with the European Patent Office as a receiving office.
  • the fourth database may be a database operated by the Japan Patent Office (JPO) or by a person who has received services from the European Patent Office. Further, the fourth database may store patent documents filed with the Japan Patent Office as the receiving office.
  • JPO Japan Patent Office
  • the fourth database may store patent documents filed with the Japan Patent Office as the receiving office.
  • the database 200 is a database for storing patent documents filed with the patent offices of China, Taiwan, Germany, England, France, India, Canada, Australia, Singapore, Mexico, and other countries as receiving offices. can include more.
  • the scope of the rights of the present invention is not limited by the number or type of databases constituted by the database 200, and it is obvious to those skilled in the art to which the present invention belongs.
  • the artificial intelligence device 300 may perform an operation of receiving a patent document from the database 200 or the electronic device 100 and extracting core features by analyzing the provided patent document.
  • the artificial intelligence device 300 may refer to a device that performs an operation of learning an artificial neural network using a machine learning algorithm or analyzing a patent document using the learned artificial neural network.
  • the artificial intelligence device 300 stores a plurality of artificial neural networks.
  • the artificial intelligence device 300 may store first to third artificial neural networks.
  • the artificial intelligence device 300 may perform deep learning on the first to third artificial neural networks based on input data.
  • the artificial intelligence device 300 performs an inference operation using the deep-learned first to third artificial neural networks to extract key sentences and key noun phrases included in the provided patent document. Can be performed there is.
  • the artificial intelligence device 300 includes the plurality of artificial neural networks, executes the plurality of artificial neural networks, learns each of the artificial neural networks according to input data, and includes the patent document and the learned artificial neural network. It can also be referred to as a computing device that performs a series of operations for extracting key sentences and key noun phrases included in the patent document using .
  • the artificial intelligence device 300 may include a communication unit 310, a memory 320 and a processor 330.
  • the communication unit 310 may receive input data by communicating with at least one of the electronic device 100 and the database 200 .
  • the input data may be input data for learning, or may be input data for reasoning differently.
  • the learning operation and reasoning operation of the artificial intelligence device 300 will be described in more detail below.
  • the communication unit 310 may perform communication with the electronic device 100 or the database 200 in a wireless data communication method.
  • a wireless data communication method technical standards or communication methods for mobile communication (eg, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.) can be used.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV-DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • the communication unit 310 may communicate with any one of the electronic device 100 and the database 200 using wireless Internet technology.
  • wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like may be used.
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Wi-Fi Wireless Fidelity
  • Direct Wireless Fidelity
  • DLNA Digital Living Network Alliance
  • WiBro Wireless Broadband
  • WiMAX Worldwide Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution-Advance
  • the communication unit 310 can communicate with any one of the electronic device 100 and the database 200 using short range communication, for example, BluetoothTM, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Short-distance communication may be supported using at least one of the Universal Serial Bus technologies.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee Wireless-Fi
  • Wi-Fi Direct Wireless USB (Wireless Short-distance communication may be supported using at least one of the Universal Serial Bus technologies.
  • the memory 320 may include a model storage unit 321 .
  • the memory 320 may store a model (or an artificial neural network 321a) that is currently being learned or has been completed through the processor 330.
  • This memory 320 is a flash memory type , hard disk type, multimedia card micro type, card type memory (eg SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, and optical disk.
  • the artificial intelligence device 300 may operate in relation to a web storage performing a storage function of the memory 320 on the Internet.
  • the processor 330 may control the overall operation of the artificial intelligence device 300.
  • the processor 330 processes signals, data, and information input or output through each of the components described above, or drives an application program stored in the memory 320 to provide specific information to the electronic device 100. or a specific function executed by the electronic device 100 may be provided.
  • the processor 330 may be composed of one or more cores, which include a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device. It may include a processor for data analysis and deep learning, such as a tensor processing unit).
  • the processor 330 may read the computer program stored in the memory 320 and extract key sentences and key noun phrases included in a specific patent document according to an embodiment of the present disclosure.
  • the processor 330 may perform learning on the first to third artificial neural networks through a separate process.
  • the processor 330 may use a summary algorithm for summarizing data input to the first to third artificial neural networks.
  • the summary algorithm may include a TextRank algorithm, but is not limited thereto. After constructing a word graph or sentence graph, the TextRank algorithm can summarize patent documents using PageRank, a graph ranking algorithm.
  • the processor 330 may perform calculations for learning of the first to third artificial neural networks. For example, the processor 330 processes input data for learning in the first to third artificial neural networks and calculates a loss function through deep learning to update weights or parameters of the neural network. A series of operations for learning such as, etc. can be performed.
  • the processor 330 may perform an inference operation using a neural network in which the weights/parameters have been updated or learned.
  • the processor 330 may use a patent document corresponding to analysis target information as input data and execute the trained artificial neural network stored in the memory 320 accordingly. Through this, the processor 330 extracts key sentences and key noun phrases included in the patent document.
  • the processor 330 may provide information thereon to the electronic device 100 through the communication unit 310 .
  • the artificial intelligence device 300 will be described in more detail.
  • Artificial intelligence refers to the field of studying artificial intelligence or methodology to create it
  • machine learning Machine Learning
  • Machine learning refers to the field of defining various problems dealt with in the field of artificial intelligence and studying methodologies to solve them. do.
  • Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.
  • An artificial neural network is a model used in machine learning, and may refer to an overall model that has problem-solving capabilities and is composed of artificial neurons (nodes) that form a network by synaptic coupling.
  • An artificial neural network can be defined by a connection pattern between neurons in different layers, a learning process for updating model parameters, and an activation function for generating output values.
  • An artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer may include one or more neurons, and the artificial neural network may include neurons and synapses connecting the neurons. In an artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through a synapse.
  • Model parameters refer to parameters determined through learning, and include weights of synaptic connections and biases of neurons.
  • hyperparameters mean parameters that must be set before learning in a machine learning algorithm, and include a learning rate, number of iterations, mini-batch size, initialization function, and the like.
  • the purpose of learning an artificial neural network can be seen as determining model parameters that minimize a loss function.
  • the artificial intelligence device 300 in the embodiment may perform a learning operation for determining a parameter that minimizes a loss function of each of the first to third artificial neural networks.
  • the loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to learning methods.
  • Supervised learning refers to a method of training an artificial neural network given a label for training data, and a label is the correct answer (or result value) that the artificial neural network must infer when learning data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training an artificial neural network in a state in which a label for training data is not given.
  • Reinforcement learning may refer to a learning method in which an agent defined in an environment learns to select an action or action sequence that maximizes a cumulative reward in each state.
  • DNN deep neural network
  • a neural network may be trained through deep learning, and inference may be performed using the learning result.
  • a deep learning neural network in an embodiment may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can reveal latent structures in data.
  • the deep neural network used in the embodiment is a convolutional neural network (CNN), a recurrent neural network (RNN), an auto encoder, a generative adversarial network (GAN), and a restricted Boltzmann. It may include a restricted boltzmann machine (RBM), a deep belief network (DBN), a Q network, a U network, a Siamese network, and the like.
  • a computation model, a neural network, a network function, and a neural network may be used as the same meaning.
  • the data structure may include a neural network.
  • the data structure including the neural network may be stored in a computer readable medium.
  • the data structure including the neural network may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data acquired from the neural network, an activation function associated with each node or layer of the neural network, and a loss function for learning the neural network.
  • a data structure including a neural network may include any of the components described above.
  • the data structure including the neural network includes data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation function associated with each node or layer of the neural network, and loss function for training the neural network. It may be configured to include any combination of.
  • the data structure comprising the neural network may include any other information that determines the characteristics of the neural network.
  • the data structure may include all types of data used or generated in the computational process of the neural network, but is not limited to the above.
  • a computer readable medium may include a computer readable recording medium and/or a computer readable transmission medium.
  • a neural network may consist of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons.
  • a neural network includes one or more nodes.
  • the data structure may include data input to the neural network.
  • a data structure including data input to the neural network may be stored in a computer readable medium.
  • Data input to the neural network may include training data input during a neural network learning process and/or input data input to a neural network that has been trained.
  • Data input to the neural network may include pre-processed data and/or data subject to pre-processing.
  • Pre-processing may include a data processing process for inputting data to a neural network.
  • the data structure may include data subject to pre-processing and data generated by pre-processing.
  • the aforementioned data structure is only an example, and the present disclosure is not limited thereto.
  • the data structure may include the weights of the neural network.
  • the weight of the neural network means a parameter.
  • a neural network may include a plurality of weights. Weights can be variable, and can be changed through learning to perform a desired function of the neural network. For example, when one or more input nodes are interconnected by respective links to one output node, the output node is set to a link corresponding to values input to input nodes connected to the output node and respective input nodes. An output node value can be determined based on the parameter.
  • the weight may include a weight variable during the neural network learning process and/or a weight after neural network learning is completed.
  • the variable weight in the neural network learning process may include a weight at the time the learning cycle starts and/or a variable weight during the learning cycle.
  • the weights for which neural network learning has been completed may include weights for which learning cycles have been completed.
  • the data structure including the weights of the neural network may include a data structure including weights that are variable during the neural network learning process and/or weights for which neural network learning is completed. Therefore, it is assumed that the above-described weights and/or combinations of weights are included in the data structure including the weights of the neural network.
  • the data structure including the weights of the neural network may be stored in a computer readable storage medium (eg, a memory or a hard disk) after going through a serialization process.
  • Serialization can be the process of converting a data structure into a form that can be stored on the same or another computing device and later reconstructed and used.
  • a computing device may serialize data structures to transmit and receive data over a network.
  • the data structure including the weights of the serialized neural network may be reconstructed on the same computing device or another computing device through deserialization.
  • the data structure including the weights of the neural network is not limited to serialization.
  • the data structure including the weights of the neural network is a data structure for increasing the efficiency of operation while minimizing the resource of the computing device (for example, B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree).
  • FIG. 3 is a diagram showing the structure of a neural network according to an embodiment.
  • the neural network 400 in the embodiment may include first to third neural networks 410 , 420 , and 430 .
  • the first to third neural networks 410, 420, and 430 may be deep-learned and learned according to input data.
  • at least one of the finally trained first to third neural networks 410, 420, and 430 may be used to infer a resultant value for input data for analysis of a patent document.
  • the first to third neural networks 410, 420, and 430 in the embodiment may be deep learning neural networks.
  • the first to third neural networks 410, 420, and 430 may include an artificial intelligence module for natural language processing to analyze patent documents.
  • the first to third neural networks 410, 420, and 430 may be a T5 model.
  • the type of model constituting the first to third neural networks 410, 420, and 430 is not limited to 'T5', and other models among artificial intelligence models for natural language processing may be used.
  • the learning process in the embodiment includes a second process of learning the first neural network 410, a second process of learning the second neural network 420, and a third process of learning the third neural network 430.
  • the first to third processes may be sequentially performed with a time difference.
  • the embodiment is not limited thereto, and at least two of the first to third processes may be simultaneously performed at the same time point.
  • a first process of training the first neural network 410 may be preferentially performed.
  • the second process of learning the second neural network 420 and the third process of learning the third neural network 430 may be simultaneously performed using the learning result value of the first process.
  • the first process may refer to a process of conducting learning specific to a patent document with respect to the first neural network 410 .
  • the first process may refer to a learning process for updating the parameters or weights of the neural network to a state specialized for patent document analysis.
  • the second process may refer to a learning process of extracting key sentences from a patent document for the second neural network 420 .
  • the second process may refer to a process of learning or deep learning the second neural network 420 to extract or infer a key sentence that is the core of the contents included in the entire scope of the patent document.
  • the third process may refer to a learning process of extracting or inferring a key noun phrase from a key sentence included in a patent document with respect to the third neural network 430 .
  • the third process may refer to a process of learning or deep learning the third neural network 430 to extract or infer a key noun phrase from a key sentence included in a patent document.
  • FIG. 4 is a diagram for explaining a learning process of a first neural network according to an embodiment.
  • a neural network of a model for general natural language processing is first used, and deep learning or a learning process is performed to update the general neural network to a state specialized for processing patent documents.
  • the first process may be referred to as a preprocessing process for learning or deep learning the second neural network 420 and the third neural network 430 .
  • the artificial intelligence model of the first neural network 410 is the same as the artificial intelligence model of the second neural network 420 and the artificial intelligence model of the third neural network 430 .
  • the first process of learning or deep learning the first neural network 410 increases the learning accuracy of the second neural network 420 and the third neural network 430, while increasing inference accuracy in a later inference process. it could be
  • the second neural network 420 in the embodiment is required to determine a key sentence and extract the key sentence
  • the third neural network 430 is a new natural language meaning a core within the key sentence.
  • the work to create is required.
  • the second neural network 420 and the third neural network 430 in the embodiment should be able to perform learning and reasoning for natural language understanding and natural language generation.
  • the base line of the model structures of the second neural network 420 and the third neural network 430 in the embodiment may utilize a T5 model structure having high performance in both natural language understanding and natural language generation.
  • the embodiment is not limited thereto, and the second neural network 420 and the third neural network 430 may utilize other model structures with high performance in natural language generation and natural language understanding other than the T5 model structure.
  • the model structure of the first neural network 410 may be the same as that of the second neural network 420 and the third neural network 430 .
  • the input data input to the first neural network 410 and the learning method of the first neural network 410 are input to the second neural network 420 and the third neural network 430, respectively.
  • Data and learning methods may differ.
  • the process of learning or deep learning the second neural network 420 and the third neural network 430 may be performed directly without the first process of learning or deep learning the first neural network 410. That is, the learning process of the first neural network 410 can be said to be a process for increasing learning accuracy and inference accuracy of the second neural network 420 and the third neural network 430 .
  • the first neural network 410 is trained on the input data in a state in which the model learned through the general domain is set as the basic value (eg, parameter value or weight value) of the network function. can make it
  • first input data is input to the first neural network 410 (S110).
  • the first input data may be provided from the electronic device 100 and may be provided from the database 200 differently.
  • the embodiment is not limited thereto, and data stored inside the artificial intelligence device 300 may be used as the first input data.
  • the first input data may be specific data of a patent domain.
  • the first input data may be a specific patent document for learning by the first neural network 410 .
  • the learning of the first neural network 410 is not performed using a partial document of a specific range within the first input data, but by using the contents of the entire range of the first input data.
  • the learning of the first neural network 410 proceeds.
  • the first input data is a patent document of a patent domain.
  • the document of the patent domain is divided into a plurality of identification items.
  • a document in the patent domain is divided into a background description section, a detailed description section, a summary section, and a claim section.
  • a general patent document analysis system as a patent domain document has many long and unnecessary noise contents, the analysis is performed with a focus on the claims item or summary item among the identification items.
  • documents in the general patent domain contain most of the important information in the detailed description section. Accordingly, in a document of a specific patent domain, if the analysis is not performed centering on the detailed description items, it is difficult to obtain an accurate analysis result of the document.
  • the document of the patent domain includes a number of technical terms not included in the document of the general domain. Accordingly, when the document in the patent domain is immediately analyzed by applying the neural network of the model trained using the document in the general domain, the learning rate and the inference rate may be relatively low.
  • parameter values or weights of the first neural network 410 are updated with a model structure specialized for analyzing patent domain classification through the first process.
  • a process of processing the first input data may be performed.
  • a process of generating or extracting a corpus used in a document of a patent domain may be performed from the first input data (S120).
  • the corpus may refer to language data in which texts based on an application solution in a natural language processing technology are collected in a computer-readable form.
  • the corpus may also be expressed as an assortment of words or an assortment of writings.
  • a corpus corresponding to a document in a patent domain is obtained from the first input data without the learning of the first neural network 410 using the first input data directly, and the corpus is used to The learning of the first neural network 410 proceeds.
  • the accuracy of the natural language that can be recognized or understood by the first neural network 410 increases, and accordingly, learning accuracy and inference accuracy can be increased.
  • learning of the first neural network 410 is performed using the first input data (preferably, a corpus obtained from a document of a patent domain) (S130).
  • learning of the first neural network 410 may be performed through an unsupervised learning method.
  • label data eg, correct answer data
  • the first input data is used in order to proceed with learning of the first neural network 410. proceed with learning
  • a brief description of the learning method of the first neural network 410 is as follows.
  • the first neural network 410 masks a portion of the first input data, and accordingly, the first neural network 410 can perform learning based on a loss function according to whether the content of the masked portion is accurately generated. there is.
  • the first input data may be unlabeled data, can be called
  • the which is part of a word in is a special token , and corrupted sentence X' can be generated through the process.
  • the first neural network 410 receives the X' as an input and generates a set of substituted words (for example, a span set). You can learn the process of generating them in an auto-regressive way.
  • Is means the span length for When this is defined as a masking span, the training objective for the model ⁇ in the corresponding processor can be expressed as Equation 1 below.
  • pre-learning in the step of pre-learning the first neural network 410 through the corresponding objective, pre-learning may be performed simultaneously for several sub-tasks.
  • the learning process of the first neural network 410 learned through the first process the second neural network 420 and the third neural network 430 through the second and third processes thereafter. Have a consistent training objective.
  • the preprocessed input sequence It can be generated through a sequence-to-sequence based autoregression process as shown in Equation 2 below.
  • the sequence-to-sequence (Seq2Seq) learning means to proceed with model learning that converts a sequence from a specific domain (eg, a general domain) to another domain (eg, a patent domain). do.
  • And learning of the first neural network 410 is the cross entropy between the embedding representation of the output sequence generated through Equation 2 and the actual reference output sequence. -entropy) can be carried out in the direction of minimizing the loss.
  • a first process of learning the first neural network 410 may be performed through the above process.
  • the model structure of the first neural network 410 may be converted from a structure for analyzing documents in the general domain to a model structure for analyzing documents in the patent domain.
  • parameter values of the first neural network 410 may be updated to a state specialized for analyzing a document of a patent domain (S140).
  • the learning of the second neural network 420 and the third neural network 430 is performed using the parameter values of the first neural network 410 updated through the first process.
  • FIG. 5 is a diagram for explaining a learning process of a second neural network according to an embodiment.
  • the second process of learning the second neural network 420 and the third process of learning the third neural network 430 may be performed simultaneously or sequentially.
  • the second process of learning the second neural network 420 will be described as follows.
  • second input data may be input for learning of the second neural network 420 (S210).
  • the second input data may include a patent document for learning and label data that is correct answer data in the patent document.
  • the second input data may include a patent document and label data of the patent document as one set, and a plurality of such sets may be included.
  • the second input data may include a first data set including a first patent document and first label data for labeling key sentences in the first patent document, a second patent document, and the second patent document.
  • a second data set including second label data for labeling key sentences in the document may be included.
  • the second input data includes two data sets, but is not limited thereto.
  • the second input data may include three or more data sets in order to increase the learning accuracy of the second neural network 420 .
  • a process of generating summary data summarizing the second input data may be performed (S220).
  • a process of summarizing patent documents among each data set included in the second input data may be performed.
  • summary data summarizing the patent document included in the second input data is obtained using a summary algorithm.
  • the summary algorithm may include textRank algorithm, but is not limited thereto. After constructing a word graph or sentence graph, the TextRank algorithm can summarize patent documents using PageRank, a graph ranking algorithm.
  • the learning is not performed with the entire range of the patent document included in the second input data, but by using summary data summarizing the patent document. 2 Learning the neural network (420).
  • the number of sentences included in the patent document can be effectively reduced, thereby increasing learning efficiency.
  • additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. It can be seen that improvements can be made.
  • the second input data when the second input data is input, the second input data is not directly applied as the learning data of the second neural network 420, and in order to further improve performance and improve learning efficiency, the second input data Prior to learning of the neural network 420, pre-processing of the second input data is performed.
  • the relative importance of sentences in the patent document included in the second input data is assigned, and the patent document included in the second input data is efficiently analyzed by applying a graph-based method of summarizing the entire document.
  • the summary methodology through the summary algorithm may be as shown in Equation 3 below.
  • the sentence It means the importance score for
  • the sentences ( ) means a weight based on the similarity between sentences.
  • the highest Summary data of the first input data may be obtained by selecting sentences having values.
  • unnecessary data in a document can be effectively reduced through the sentence summary as described above, and after setting a minimum ratio so that important sentences are included as much as possible, as the second neural network 420 learns, The learning time of the second neural network 420 can be effectively reduced.
  • summary data is acquired, if the patent document is excessively summarized, label data may not be included in the obtained summary data.
  • correct answer data may not be included in the summary data.
  • summary data is obtained by applying text-rank using different threshold values. According to the result of obtaining the summary data, a minimum summary ratio at which label data is not omitted in the summary data is checked, and a threshold value corresponding to the minimum summary ratio is determined so that the summary data is acquired.
  • corresponding input data may be selectively used according to whether label data is included in summary data obtained through the summary algorithm. For example, even when a threshold value applied through a summary algorithm is low, label data may be missing from the summary data. And, in this case, it means that the label data is missing even though the patent document is not excessively summarized, and efficient learning of the second neural network 420 may not be achieved with this.
  • the label data is included in the summary data summarized through the summary algorithm, it is used as learning data for learning of the second neural network 420 . And, when the label data is not included in the summary data summarized through the summary algorithm, it may be excluded from the learning data for learning of the second neural network 420 .
  • the summarized summary data and the non-summarized original data were respectively applied for learning, and the result of the learning was confirmed.
  • the neural network of the model trained with the summary data can produce better performance than the model trained with the original data. And, this shows that the number of sentences in each document can be effectively reduced through the summary algorithm, thereby effectively reducing the training time as well as improving the overall performance of the model. Through this, computing power and GPU resources used for learning of the second neural network 420 can be efficiently reduced.
  • the second neural network 420 is trained using second input data composed of a set of the summary data and its label data.
  • the parameter value obtained from the first neural network 410 is applied as the initial value of the parameter value of the second neural network 420 (S230).
  • a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420.
  • the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
  • the second neural network uses the second input data (preferably summarized data) in a state in which the parameter values of the first neural network 410 are applied as initial parameter values of the second neural network 420.
  • the learning of (420) proceeds (S240).
  • a model for quantitatively measuring the importance of a sentence may be utilized. That is, in the embodiment, for a data set including summary data and its label data, the case where a specific sentence is used as a key sentence in the document is labeled as '1', and the case where it is not a key sentence is labeled as '0'. label it Also, in an embodiment, the second neural network 420 may be trained by learning a process of regressing a label value for each sentence through a model. To this end, the second neural network 420 may have a model of an encoder structure.
  • the model and determine the importance of the sentence can be calculated through the same process as in Equation 4 below.
  • the second neural network 420 is trained in a direction that minimizes cross entropy loss between actual label data in the corresponding document and label data obtained through the learning process.
  • the inference step of extracting key sentences for a specific analysis patent document using the second neural network 420 the can be used as a judgment criterion.
  • the embodiment checks how important the sentence is in the patent document, measures the importance of each sentence in the document, and selects N sentences with the highest importance. to proceed with key sentence extraction learning and reasoning.
  • the output data obtained through learning is compared with the label data, and a loss function is calculated. And, when the loss function is greater than a predetermined threshold value, re-learning of the second neural network 420 is performed. Alternatively, when the loss function is smaller than a predetermined threshold value, the learning process may be completed and the next step may be entered accordingly.
  • the learning of the second neural network 420 proceeds through an extraction method.
  • label imbalance can be a major constraint on performance improvement. This can be attributed to the fact that the number of sentences included in the characteristic section of the detailed description section of the patent document and the entire document is very large, whereas the number of core sentences to be extracted from the document is very small.
  • This has excellent classification performance for general sentences other than key sentences, but when extracting key sentences, the accuracy of classifying key sentences may decrease. That is, since there are relatively more data with an importance of 0 compared to data with an importance of 1 due to the nature of a patent document, when learning the second neural network 420 without an additional preprocessing process, learning accuracy may be lowered. .
  • upscaling may be performed on core sentence data. This may proceed with a method of adding a plurality of label data to the first summary data in the first summary data used to proceed with the learning of the second neural network 420 and the label data of the first summary data.
  • learning is performed in a state in which the frequency of data having a label of 1 and the frequency of data having a label of 0 are similarly matched in the summary data, and thus learning accuracy can be improved.
  • the parameter value according to the learning result of the second neural network 420 is updated (S250).
  • the initial value of the parameter value of the second neural network 420 is the same as the parameter value of the first neural network 410, which is a model for analyzing documents in the general domain. This is the parameter value of the model for analyzing documents.
  • the parameter value of the second neural network 420 may be updated to a parameter value of a model for extracting key sentences in a patent document. there is.
  • the third process of the third neural network 430 may be performed at the same time as the second process of the second neural network 420, and otherwise, the second process for learning of the second neural network 420 ends. can proceed after
  • third input data may be input for learning of the third neural network 430 (S310).
  • the third input data may include a key sentence included in a patent document for learning and label data that is correct answer data for a key noun phrase in the key sentence.
  • the third input data may include a core sentence included in a patent document and label data for the core sentence as one set, and a plurality of such sets may be included.
  • the third input data may include a first data set including a first core sentence and first label data for labeling a core noun phrase in the first core sentence, a second core sentence and the second core sentence.
  • a second data set including second label data for labeling key noun phrases in the sentence may be included.
  • the third input data includes two data sets, but is not limited thereto.
  • the third input data may include three or more data sets in order to increase learning accuracy of the third neural network 430 .
  • learning of the third neural network 430 may be performed using the third input data.
  • the parameter value obtained from the first neural network 410 is used as the initial value of the parameter value of the third neural network 430 to correspond to the second process for learning the second neural network 420.
  • Apply (S320) Preferably, in the embodiment, for learning of the third neural network 430, a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the third neural network 430.
  • the third neural network 430 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
  • the third neural network 430 may proceed with learning using the third input data by setting the parameter value of the first neural network 410 as an initial value (S330).
  • the learning of the third neural network 430 is a method of generating key noun phrases through a method similar to Equation 2 used for learning of the first neural network 410, and the following equation for the third input data Learning can proceed through a training objective such as 5.
  • a loss function is calculated by comparing output data acquired through learning with the label data.
  • the loss function is greater than a predetermined threshold value
  • re-learning of the third neural network 430 is performed.
  • the learning process may be completed and the next step may be entered accordingly.
  • a generation method rather than a sentence extraction method is applied to the third neural network 430 .
  • some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do.
  • a core noun phrase in a corresponding core sentence can be generated more flexibly. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence.
  • the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method.
  • the key noun phrase can be generated based on words considering the entire context of the key sentence, rather than some words included in the key sentence.
  • a noun phrase such as 'breakage of the latching claw' can be generated as a noun phrase such as 'brokenage of the latching claw' or 'cutage of the latching claw'
  • a noun phrase such as 'secure the viscosity of the slurry' can be generated as 'brokenage of the latching claw' or 'cutage of the latching claw'. It can be created with 'enhance the viscosity of the slurry'.
  • the parameter value according to the learning result of the third neural network 430 is updated (S340).
  • the initial value of the parameter value of the third neural network 430 is the same as the parameter value of the first neural network 410, which is a model for analyzing documents in the general domain. This is the parameter value of the model for analyzing documents.
  • the parameter value of the third neural network 430 may be updated to a parameter value of a model for extracting a key noun phrase from a key sentence.
  • the first neural network learned from documents in the general domain is updated to a model specialized in documents in the patent domain.
  • the document of the patent domain includes technical terms that are not included in the document of the general domain, and when analyzing the patent document using the first neural network learned from the document of the general domain, the learning accuracy or Inference accuracy may be lowered.
  • the parameter value of the neural network is updated according to the document of the patent domain.
  • learning of the second neural network used to extract key sentences from the patent document is performed.
  • the second input data does not proceed with learning with the entire range of the patent document included in the second input data
  • the second neural network 420 uses summary data summarizing the patent document.
  • the neural network 420 is trained.
  • additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. to enable improvement.
  • unnecessary data in a document can be effectively reduced through the sentence summary as described above, and after setting a minimum ratio so that important sentences are included as much as possible, as the second neural network 420 learns, The learning time of the second neural network 420 can be effectively reduced.
  • the parameter value obtained from the first neural network 410 is applied as an initial value of the parameter value of the second neural network 420 .
  • a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420.
  • the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
  • learning of the third neural network used to extract key noun phrases from key sentences of patent documents is performed.
  • a generation method rather than a sentence extraction method is applied to the third neural network 430 .
  • some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do.
  • the key noun phrase it is possible to more flexibly recognize the key noun phrase in the core sentence. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence.
  • the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method.
  • an inference process may be performed using the second neural network 420 and the third neural network 430 whose parameter values are updated through the learning process.
  • the inference process may refer to a process of performing an analysis on a specific analysis target requested by a user using a neural network for which learning has been completed, and proceeding with inference.
  • the second neural network 420 and the third neural network 430 for which the learning has been completed may be used, but are not limited thereto.
  • the second neural network 420 and the third neural network 430 may continuously perform learning for learning and perform an operation of updating a parameter value corresponding to this.
  • the inference process may be performed using a separate neural network other than the learning neural network such as the second neural network 420 and the third neural network 430 .
  • the inference neural network may receive a final updated parameter value from the learning neural network and apply it to perform inference on the analysis target.
  • additional learning is practically unnecessary, or simple additional learning may be performed only in specific situations. Accordingly, in the embodiment, the learning neural network and the inference neural network are not distinguished and used in common as described above.
  • inference may be performed using the second neural network 420 and the third neural network 430 in an inference process.
  • FIG. 7 is a flowchart for explaining step by step an inference method according to an embodiment.
  • data for an object to be analyzed is input (S310).
  • the input of the data may be performed in various ways. For example, when information to be analyzed (eg, a document number of a patent document) is input in the electronic device 100, the artificial intelligence device 300 receives a patent document corresponding to the information from the database 200. You can search for and receive it. Alternatively, the patent document to be analyzed may be directly input from the electronic device 100 to the artificial intelligence device 300 .
  • information to be analyzed eg, a document number of a patent document
  • the artificial intelligence device 300 receives a patent document corresponding to the information from the database 200. You can search for and receive it.
  • the patent document to be analyzed may be directly input from the electronic device 100 to the artificial intelligence device 300 .
  • information to be analyzed by the electronic device 100 may be input to the database 200 .
  • the database 200 may provide the patent document corresponding to the input information to the artificial intelligence device 300 as input data.
  • summary data for the input data is obtained using a summary algorithm (S320).
  • summary data of the input data may be obtained using a summary algorithm used in the learning process.
  • key sentences may be extracted from the summary data using the second neural network 420 for which the learning is completed (S330).
  • the second neural network 420 may output the extracted core sentence as input data of the third neural network 430 .
  • a key noun phrase may be generated from the key sentence using the third neural network 430 for which the learning has been completed (S340).
  • the operations may be performed concurrently and are not bound by the order in which they are performed.
  • the present disclosure described above can be implemented as computer readable codes in a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc.
  • the computer may include a processor of a terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

A neural network training method according to an embodiment comprises the steps of: training a first neural network on the basis of first input data; training a second neural network on the basis of second input data by applying a parameter value of the first neural network according to a training result of the first neural network; and training a third neural network on the basis of third input data by applying the parameter value of the first neural network, wherein the first input data includes a patent domain document, the second input data includes multiple patent documents and first label data obtained by labeling key sentences corresponding to the respective multiple patent documents, and the third input data includes multiple key sentences and second label data obtained by labeling key noun phrases respectively corresponding to the multiple key sentences.

Description

신경망의 학습 방법How neural networks learn
실시 예는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램에 관한 것이다.Embodiments relate to a learning method of a neural network, an artificial intelligence device, and a computer program stored in a computer-readable storage medium.
특허는 지적 재산권(IP)을 보호하는 요소로, 경영, 경제, 컴퓨터 공학, 기계 공학 등 대부분의 학문에서 적용되는 제도이다. 이는 지적 재산을 침해받지 않을 권리를 부여함으로써 발명가들에게 발명품의 경제적 가치에 대한 독점권을 부여하고, 이를 통해 새로운 기술과 아이디어를 공개하도록 동기를 부여한다. 기술의 발전에 따라 최근 다양한 분야에서 많은 특허가 등록되고 있다.A patent is an element that protects intellectual property rights (IP), and is a system that is applied in most disciplines, such as business management, economics, computer engineering, and mechanical engineering. It gives inventors a monopoly on the economic value of their inventions by granting them the right not to infringe their intellectual property, thereby motivating them to disclose new technologies and ideas. With the development of technology, many patents have recently been registered in various fields.
여기에서, 특허 등록은 명시한 청구 사항이 선행기술에 비해 새롭고 창의적인 주제를 가졌다고 판단되는 경우에만 허가될 수 있다. 이에 따라, 특허 출원서 작성의 초기 단계에서 청구 범위를 작성하기 위해서 피상적인 선행 특허 분석을 하는 것이 필수적이다.Here, patent registration can be granted only if it is judged that the stated claims have a novel and creative subject matter compared to the prior art. Accordingly, it is essential to conduct a superficial prior patent analysis in order to draw up the claims at the initial stage of drafting a patent application.
선행 특허 분석은 발명자가 보호받고자 하는 발명의 범위를 명시한 청구항이 기존에 등록된 다른 특허의 범위를 침해하는지를 분석하는 과정이다. 하지만, 이러한 선행특허 분석은 많은 양의 인간 노동(Human labor)과 전문적인 지식을 요구하는 작업이다. 즉, 선행 특허 분석 과정은 데이터 수집, 정보 검색 및 기술 이해 등을 포함하며, 이를 위해서 복합 분야에 대한 지식이 요구된다.Prior patent analysis is a process of analyzing whether a claim specifying the scope of an invention for which an inventor seeks protection infringes on the scope of other previously registered patents. However, such prior patent analysis is a task that requires a large amount of human labor and specialized knowledge. That is, the prior patent analysis process includes data collection, information search, and technology understanding, and for this purpose, knowledge of complex fields is required.
이뿐 아니라, 분석하고자 하는 특허 문서는 내용이 많으면서, 기술적이고 법률적인 특허 도메인 특정 용어를 포함하고 있다. 이에 따라, 일반적으로 특허 문서를 분석하기 위해서는 높은 수준의 인적 자원, 시간 및 비용이 요구된다. 이는 특허 처리 및 분석 과정에 활용할 수 있는 어시스턴트 툴(assistant tool)의 필요성을 보여준다. 구체적으로, 시간 및 비용 관점에서의 어려움 및 한계점들을 효과적으로 경감시킬 수 있는 특허 문서의 분석을 자동화할 수 있는 기술 개발의 시급함 및 중요성을 보여준다.In addition, the patent documents to be analyzed contain many technical and legal patent domain-specific terms. Accordingly, a high level of human resources, time and cost are generally required to analyze patent documents. This shows the need for an assistant tool that can be utilized in the patent processing and analysis process. Specifically, it shows the urgency and importance of developing a technology capable of automating the analysis of patent documents that can effectively alleviate the difficulties and limitations in terms of time and cost.
실시 예에서는 특허 문서를 자동으로 분석할 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다.The embodiment provides a neural network learning method capable of automatically analyzing patent documents, an artificial intelligence device, and a computer program stored in a computer readable storage medium.
또한, 실시 예에서는 특허 문서의 분석 정확도를 높일 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다.In addition, the embodiment provides a neural network learning method capable of increasing the analysis accuracy of patent documents, an artificial intelligence device, and a computer program stored in a computer readable storage medium.
또한, 실시 예에서는 특허 문서를 분석하는데 특화된 신경망 모델을 이용하여 특허 분석 성능을 높일 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다.In addition, the embodiment provides a neural network learning method, an artificial intelligence device, and a computer program stored in a computer readable storage medium capable of increasing patent analysis performance by using a neural network model specialized for analyzing patent documents.
또한, 실시 예에서는 특허 문서의 요약 섹션이나 청구 범위 섹션이 아닌 기술적인 세부 내용을 포함하는 상세한 설명 섹션을 자동 분석할 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다.In addition, in the embodiment, a learning method of a neural network capable of automatically analyzing a detailed description section including technical details, not a summary section or claims section of a patent document, an artificial intelligence device, and a computer program stored in a computer readable storage medium provides
또한, 실시 예에서는 요약 알고리즘을 이용하여 특허 문서를 요약하여, 신경망 모델의 학습 효율 및 추론 효율을 높일 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다,In addition, the embodiment summarizes patent documents using a summary algorithm to provide a neural network learning method, an artificial intelligence device, and a computer program stored in a computer readable storage medium that can increase the learning efficiency and reasoning efficiency of the neural network model.
또한, 실시 예에서는 특허 문서 분석에 특화된 신경망 모델을 이용하여 특허 문서에 포함된 핵심 문장 및 핵심 명사구를 자동으로 제공해줄 수 있는In addition, in the embodiment, using a neural network model specialized in patent document analysis, key sentences and key noun phrases included in patent documents can be automatically provided.
또한, 실시 예에서는 특허 문서에 포함된 단어가 아닌 상기 특허 문서 내의 핵심 문장을 함축적으로 표현한 핵심 명사구를 제공해줄 수 있는 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공한다.In addition, in the embodiment, a neural network learning method, an artificial intelligence device, and a computer program stored in a computer readable storage medium capable of providing key noun phrases implicitly expressing key sentences in the patent document, rather than words included in the patent document, are provided. do.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
실시 예에 따른 신경망의 학습 방법은 제1 입력 데이터를 기반으로 제1 신경망을 학습시키는 단계; 상기 제1 신경망의 학습 결과에 따른 상기 제1 신경망의 파라미터 값을 적용하여, 제2 입력 데이터를 기반으로 제2 신경망을 학습시키는 단계; 및 상기 제1 신경망의 파라미터 값을 적용하여, 제3 입력 데이터를 기반으로 제3 신경망을 학습시키는 단계를 포함하고, 상기 제1 입력 데이터는, 특허 도메인의 문서를 포함하고, 상기 제2 입력 데이터는, 복수의 특허 문서 및 상기 복수의 특허 문서의 각각에 대응하는 핵심 문장을 레이블링한 제1 레이블 데이터를 포함하며, 상기 제3 입력 데이터는, 복수의 핵심 문장 및 상기 복수의 핵심 문장에 각각 대응되는 핵심 명사구를 레이블링한 제2 레이블 데이터를 포함한다.A neural network learning method according to an embodiment includes learning a first neural network based on first input data; learning a second neural network based on second input data by applying a parameter value of the first neural network according to a learning result of the first neural network; and applying a parameter value of the first neural network to train a third neural network based on third input data, wherein the first input data includes a document in a patent domain, and the second input data includes first label data labeling a plurality of patent documents and key sentences corresponding to each of the plurality of patent documents, and the third input data corresponds to a plurality of key sentences and the plurality of key sentences, respectively and second label data for labeling the core noun phrase.
또한, 상기 제1 신경망을 학습시키는 단계는, 상기 특허 도메인의 문서를 이용하여 복수의 말뭉치를 획득하는 단계를 포함하고, 상기 복수의 말뭉치를 이용하여 상기 제1 신경망을 학습시키는 단계를 포함한다.In addition, the step of training the first neural network includes acquiring a plurality of corpora by using the document of the patent domain, and includes learning the first neural network by using the plurality of corpora.
또한, 상기 제2 신경망을 학습시키는 단계는, 상기 제1 신경망의 파라미터 값을 상기 제2 신경망의 파라미터 값의 초기 값으로 적용하는 단계와, 상기 제2 입력 데이터를 토대로 학습을 진행하여, 상기 제2 신경망의 파라미터 값을 업데이트하는 단계를 포함한다.In addition, the step of learning the second neural network includes applying the parameter values of the first neural network as initial values of the parameter values of the second neural network, and proceeding with learning based on the second input data, 2 Updating the parameter values of the neural network.
또한, 상기 제2 신경망을 학습시키는 단계는, 상기 제2 입력 데이터를 업스케일링하는 단계를 포함하고, 상기 업스케일링하는 단계는, 상기 복수의 특허 문서의 각각에 대응하는 핵심 문장을 레이블링한 제1 레이블 데이터를 복사하는 단계; 및 상기 복사한 레이블 데이터를 각각의 특허 문서의 제1 레이블 데이터로 추가하는 단계를 포함한다.In addition, the step of learning the second neural network includes the step of upscaling the second input data, and the upscaling step includes first labeling a key sentence corresponding to each of the plurality of patent documents. copying label data; and adding the copied label data as first label data of each patent document.
또한, 상기 제3 신경망을 학습시키는 단계는, 상기 제1 신경망의 파라미터 값을 상기 제3 신경망의 파라미터 값의 초기 값으로 적용하는 단계와, 상기 제3 입력 데이터를 토대로 학습을 진행하여, 상기 제3 신경망의 파라미터 값을 업데이트하는 단계를 포함한다.In addition, the step of learning the third neural network includes applying a parameter value of the first neural network as an initial value of a parameter value of the third neural network, learning based on the third input data, and performing the learning. 3 Updating the parameter values of the neural network.
또한, 상기 제2 신경망을 학습시키는 단계는, 상기 제2 입력 데이터에 포함된 복수의 특허 문서를 각각 요약한 요약 데이터를 획득하는 단계를 포함한다.In addition, the step of training the second neural network includes obtaining summary data summarizing each of a plurality of patent documents included in the second input data.
또한, 상기 제1 신경망을 학습시키는 단계는, 일반 도메인의 문서에서 학습된 신경망의 파라미터 값을 상기 특허 도메인의 문서에 대응하는 파라미터 값으로 변경하는 단계를 포함한다.In addition, the step of training the first neural network may include changing a parameter value of the neural network learned in a document of a general domain to a parameter value corresponding to a document of the patent domain.
또한, 상기 제1 내지 제3 신경망은 DNN(Deep learning Neural Network)를 포함한다.In addition, the first to third neural networks include a deep learning neural network (DNN).
또한, 상기 제1 내지 제3 신경망의 모델 구조는 서로 동일하다.In addition, the model structures of the first to third neural networks are identical to each other.
또한, 상기 제1 내지 제3 신경망의 모델 구조는 T5 모델을 포함한다.In addition, the model structure of the first to third neural networks includes a T5 model.
한편, 실시 예에 따른 인공 지능 장치는 특허 문서에 포함된 핵심 문장을 추출하는 제1 신경망; 및 상기 제1 신경망을 통해 추출된 핵심 문장에서 핵심 명사구를 추출하는 제2 신경망을 포함하고, 상기 제1 신경망의 파라미터 값은, 특허 도메인의 문서를 처리하기 위해 학습된 학습 신경망의 파라미터 값이 초기값으로 적용된 상태에서, 제1 입력 데이터를 기준으로 학습되어 업데이트되고, 상기 제2 신경망의 파라미터 값은, 상기 학습 신경망의 파라미터 값이 초기값으로 적용된 상태에서, 제2 입력 데이터를 기준으로 학습되어 업데이트되며, 상기 제1 입력 데이터는, 복수의 특허 문서 및 상기 복수의 특허 문서의 각각에 대응하는 핵심 문장을 레이블링한 제1 레이블 데이터를 포함하고, 상기 제2 입력 데이터는, 복수의 핵심 문장 및 상기 복수의 핵심 문장에 각각 대응되는 핵심 명사구를 레이블링한 제2 레이블 데이터를 포함한다.On the other hand, the artificial intelligence device according to the embodiment includes a first neural network for extracting key sentences included in a patent document; and a second neural network for extracting a key noun phrase from the key sentence extracted through the first neural network, wherein the parameter value of the first neural network is an initial parameter value of a learning neural network learned to process a document in the patent domain. In a state where it is applied as a value, it is learned and updated based on the first input data, and the parameter value of the second neural network is learned based on the second input data in a state where the parameter value of the learning neural network is applied as an initial value updated, the first input data includes a plurality of patent documents and first label data labeling key sentences corresponding to each of the plurality of patent documents, and the second input data includes a plurality of key sentences and and second label data for labeling core noun phrases respectively corresponding to the plurality of core sentences.
또한, 상기 제1 신경망은 상기 특허 문서를 요약한 요약 데이터로부터 상기 핵심 문장을 추출한다.In addition, the first neural network extracts the key sentence from summary data summarizing the patent document.
실시 예에서는 일반 도메인의 문서에서 학습된 제1 신경망에 대해, 이를 특허 도메인의 문서에서 특화된 모델로 업데이트한다. 이는, 상기 특허 도메인의 문서에는 일반 도메인의 문서에 포함되지 않은 전문적인 용어 등이 포함되어 있으며, 일반 도메인의 문서에서 학습된 제1 신경망을 이용하여 특허 문서를 분석하는 경우, 이에 대한 학습 정확도나 추론 정확도가 낮아질 수 있다. 이에 따라, 실시 예에서는 특허 도메인의 문서를 가지고, 이에 맞게 상기 신경망의 파라미터 값을 업데이트한다. 이를 통해 실시 예에서는 특허 문서의 학습 정확도 및 이의 추론 정확도를 높일 수 있으며, 이에 따른 사용자 만족도를 향상시킬 수 있다.In an embodiment, the first neural network learned from documents in the general domain is updated to a model specialized in documents in the patent domain. This means that the document of the patent domain includes technical terms that are not included in the document of the general domain, and when analyzing the patent document using the first neural network learned from the document of the general domain, the learning accuracy or Inference accuracy may be lowered. Accordingly, in the embodiment, the parameter value of the neural network is updated according to the document of the patent domain. Through this, in the embodiment, the learning accuracy of the patent document and the inference accuracy thereof may be increased, and thus user satisfaction may be improved.
또한, 실시 예에서는 특허 문서 내에서 핵심 문장을 추출하는데 사용되는 제2 신경망의 학습을 진행한다. 이때 실시 예에서는 제2 신경망(420)의 학습을 위하여, 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위를 가지고 학습을 진행하지 않고, 상기 특허 문서를 요약한 요약 데이터를 이용하여 상기 제2 신경망(420)을 학습한다. 실시 예에서는 실험을 통해 상기 요약 데이터를 가지고 상기 제2 신경망(420)을 학습하는 경우, 상기 특허 문서 내에 포함된 문장의 개수를 효과적으로 감소시킴으로써, 학습 효율을 높일 수 있다. 나아가, 실시 예에서는 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위의 내용 중 제2 신경망(420)의 학습에 악영향을 주는 내용을 일차적으로 필터링함으로써, 상기 제2 신경망(420)의 추가적인 성능 향상을 도모할 수 있도록 한다.In addition, in the embodiment, learning of the second neural network used to extract key sentences from the patent document is performed. At this time, in the embodiment, for the learning of the second neural network 420, the second input data does not proceed with learning with the entire range of the patent document included in the second input data, and the second neural network 420 uses summary data summarizing the patent document. The neural network 420 is trained. In an embodiment, when learning the second neural network 420 with the summary data through an experiment, the number of sentences included in the patent document is effectively reduced, thereby increasing learning efficiency. Furthermore, in the embodiment, additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. to enable improvement.
그리고 실시 예에서는 상기와 같은 문장 요약을 통해 문서 내에서 불필요한 데이터를 효과적으로 줄일 수 있으며, 중요 문장이 최대한 포함되도록 최소한의 비율을 설정한 후, 이후 제2 신경망(420)의 학습을 진행함에 따라 상기 제2 신경망(420)의 학습 시간을 효율적으로 감소시킬 수 있다. And, in the embodiment, unnecessary data in the document can be effectively reduced through the sentence summary as described above, and after setting the minimum ratio so that important sentences are included as much as possible, as the learning of the second neural network 420 proceeds thereafter, the above The learning time of the second neural network 420 can be effectively reduced.
또한, 실시 예에서는 상기 제2 신경망(420)의 파라미터 값의 초기값으로 상기 제1 신경망(410)에서 획득한 파라미터 값을 적용한다. 바람직하게, 실시 예에서는 상기 제2 신경망(420)의 학습을 위해, 상기 제1 신경망(410)의 최종 업데이트된 파라미터 값을 추출하고, 이를 상기 제2 신경망(420)의 파라미터 값의 초기 값으로 적용한다. 그리고, 실시 예는 상기 제1 신경망(410)의 파라미터 값을 초기 값으로 상기 제2 신경망(420)의 파라미터 값을 적용함으로써, 상기 제2 신경망(420)에서 특허 도메인의 문서를 분석하는데 특화된 학습을 보다 효율적으로 진행할 수 있도록 하며, 이에 따른 학습 정확도나 학습 시간을 획기적으로 줄일 수 있도록 한다.In addition, in the embodiment, the parameter value obtained from the first neural network 410 is applied as an initial value of the parameter value of the second neural network 420 . Preferably, in the embodiment, for learning of the second neural network 420, a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420. apply And, in the embodiment, by applying the parameter values of the second neural network 420 as initial values to the parameter values of the first neural network 410, the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
또한, 실시 예에서는 특허 문서의 핵심 문장에서 핵심 명사구를 추출하는데 사용되는 제3 신경망의 학습을 진행한다 .In addition, in the embodiment, learning of the third neural network used to extract key noun phrases from key sentences of patent documents is performed.
이때, 실시 예에서는 제3 신경망(430)에 대해, 문장 추출 방식이 아닌 생성 방식을 적용한다. 예를 들어, 실시 예에서는 상기 제3 입력 데이터에 포함된 핵심 문장 내의 일부 단어가 그대로 이의 레이블 데이터인 핵심 명사구에 포함되는 것이 아니라, 상기 핵심 명사구는 상기 핵심 문장 내에 포함되지 않은 새로운 단어를 포함하도록 한다. 이를 통해, 실시 예에서는 보다 유연하게 해당 핵심 문장에서의 핵심 명사구를 생섷알 수 있다. 이는, 핵심 명사구를 문장 내에서 찾는 것이 아닌, 전체 문장의 내용을 바탕으로 이를 포괄할 수 있도록 새롭게 생성하도록 한다. 이를 통해 실시 예에서는 기준 핵심 명사구와 의미적으로 유사한 방향으로 핵심 명사구를 생성하도록 하며, 이를 통해 추출 방식에 비해 에러율이 낮은 장점을 가질 수 있다. 이와 같이 실시 예에서는 핵심 문장 내에 포함된 일부 단어를 핵심 명사구로 추출하는 추출 방식 대비, 의미적으로 더욱 풍부하면서 전체적인 문서 내용을 함축적으로 표현한 핵심 명사구를 생성할 수 있으며, 이에 따른 사용자 만족도를 향상시킬 수 있다. In this case, in the embodiment, a generation method rather than a sentence extraction method is applied to the third neural network 430 . For example, in the embodiment, some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do. Through this, in the embodiment, it is possible to more flexibly recognize the key noun phrase in the core sentence. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence. Through this, in the embodiment, the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method. In this way, in the embodiment, compared to the extraction method of extracting some words included in a key sentence as a key noun phrase, it is possible to generate a key noun phrase that is semantically richer and implicitly expresses the entire document content, thereby improving user satisfaction. can
도 1은 실시 예에 따른 인공 지능 시스템을 나타낸 도면이다.1 is a diagram illustrating an artificial intelligence system according to an embodiment.
도 2는 도 1의 인공 지능 장치의 일 예의 블록도이다.Figure 2 is a block diagram of an example of the artificial intelligence device of Figure 1;
도 3은 실시 예에 따른 신경망의 구조를 나타낸 도면이다. 3 is a diagram showing the structure of a neural network according to an embodiment.
도 4는 실시 예에 따른 제1 신경망의 학습 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a learning process of a first neural network according to an embodiment.
도 5는 실시 예에 따른 제2 신경망의 학습 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a learning process of a second neural network according to an embodiment.
도 6은 실시 예에 따른 제3 신경망의 학습 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a learning process of a third neural network according to an embodiment.
도 7은 실시 예에 따른 추론 방법을 단계별로 설명하기 위한 흐름도이다.7 is a flowchart for explaining step by step an inference method according to an embodiment.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예를 상세하게 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 실시 예에 따른 인공 지능 시스템을 나타낸 도면이고, 도 2는 도 1의 인공 지능 장치의 일 예의 블록도이다. 여기에서, 인공 지능 시스템은 특허 문서를 분석하기 위하여, 딥러닝을 통한 학습을 진행하고, 상기 학습 결과를 토대로 입력 데이터(예를 들어, 분석하고자 하는 특허 문서)의 분석을 진행하는 특허 문서 분석 시스템이라고도 할 수 있다. 나아가, 상기 인공 지능 시스템은 특허 도메인에 특화된 학습을 진행한다. 그리고 상기 인공 지능 시스템은 상기 학습 결과를 반영하여 특허 문서에서 핵심 문장을 추출하고, 상기 추출한 핵심 문장으로부터 핵심 명사구를 추출하는 특허 문서의 핵심 정보 추출 시스템이라고도 할 수 있다. 1 is a diagram illustrating an artificial intelligence system according to an embodiment, and FIG. 2 is a block diagram of an example of the artificial intelligence device of FIG. 1 . Here, the artificial intelligence system is a patent document analysis system that proceeds with learning through deep learning in order to analyze patent documents, and analyzes input data (eg, patent documents to be analyzed) based on the learning results. can also be said Furthermore, the artificial intelligence system proceeds with learning specific to the patent domain. The artificial intelligence system may also be referred to as a core information extraction system of a patent document that extracts a key sentence from a patent document by reflecting the learning result and extracts a key noun phrase from the extracted key sentence.
이하에서는 도 1을 참조하여, 실시 예에 따른 인공 지능 시스템에 대해 간략하게 설명하기로 한다.Hereinafter, with reference to FIG. 1, an artificial intelligence system according to an embodiment will be briefly described.
실시 예의 인공 지능 시스템은 전자 디바이스(100), 데이터 베이스(200) 및 인공지능 장치(300)를 포함한다.The artificial intelligence system of the embodiment includes an electronic device 100 , a database 200 and an artificial intelligence device 300 .
전자 디바이스(100)는 사용자 단말기라고 할 수 있다. 전자 디바이스(100)는 실시 예의 특허 문서 분석 기능을 제공하는 애플리케이션 또는 웹 사이트 등에 접속할 수 있다. 상기 전자 디바이스(100)는 상기 접속한 애플리케이션 또는 웹 사이트에서 분석하고자 하는 대상에 대한 정보를 입력할 수 있다.The electronic device 100 may be referred to as a user terminal. The electronic device 100 may access an application or website providing a patent document analysis function according to an embodiment. The electronic device 100 may input information about a target to be analyzed in the accessed application or website.
이때, 상기 분석 대상 정보는 특허 문서의 번호(예를 들어, 출원 번호, 등록 번호 및 공개 번호 중 적어도 하나)일 수 있다. 이와 다르게, 상기 분석 대상 정보는 특정 기술 분야의 특허 문서를 검색하기 위한 검색 키워드일 수 있다. 이와 다르게, 사용자는 상기 전자 디바이스(100)를 통해 분석하고자 하는 특정 특허 문서를 상기 분석 대상 정보로 입력할 수도 있다.In this case, the information to be analyzed may be a patent document number (eg, at least one of an application number, a registration number, and a publication number). Alternatively, the analysis target information may be a search keyword for searching patent documents in a specific technical field. Alternatively, the user may input a specific patent document to be analyzed through the electronic device 100 as the analysis target information.
상기 전자 디바이스(100)는 네트워크를 통해 애플리케이션이나 웹 사이트에 접속 가능한 모든 단말기를 포함할 수 있다.The electronic device 100 may include all terminals capable of accessing applications or web sites through a network.
예를 들어, 상기 전자 디바이스(100)는 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(headmounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다.For example, the electronic device 100 includes a smart phone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a portable multimedia player (PMP), It may include at least one of an MP3 player, medical device, camera, or wearable device. Wearable devices are accessories (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or headmounted-devices (HMDs)), integrated into textiles or clothing (e.g. electronic garments), or body-attached. type (eg, a skin pad or tattoo), or at least one of a bio implantable circuit.
예를 들어, 상기 전자 디바이스(100)는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.For example, the electronic device 100 may include a television, a digital video disk (DVD) player, an audio device, a refrigerator, an air conditioner, a vacuum cleaner, an oven, a microwave oven, a washing machine, an air purifier, a set top box, a home automation control panel, and a security device. It may include at least one of a control panel, a media box (eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM), a game console (eg XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.
예를 들어, 상기 전자 디바이스(100)는 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.For example, the electronic device 100 may be various medical devices (eg, various portable medical measuring devices (blood glucose meter, heart rate monitor, blood pressure monitor, body temperature monitor, etc.), MRA (magnetic resonance angiography), MRI (magnetic resonance imaging) ), CT (computed tomography), camera, or ultrasonicator, etc.), navigation device, satellite navigation system (GNSS (global navigation satellite system)), EDR (event data recorder), FDR (flight data recorder), automobile infotainment device, ship Electronic equipment (e.g. navigation systems for ships, gyrocompasses, etc.), avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs in financial institutions, POS in stores (point of sales), or IoT devices (e.g., light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). .
데이터 베이스(200)는 상기 전자 디바이스(100) 또는 인공지능 장치(300)와 네트워크를 통해 연결될 수 있다.The database 200 may be connected to the electronic device 100 or the artificial intelligence device 300 through a network.
상기 데이터 베이스(200)는 상기 분석 대상 정보를 수신하고, 상기 분석 대상 정보에 대응하는 특허 문서를 상기 인공지능 장치(300) 또는 전자 디바이스(100)에 전달할 수 있다.The database 200 may receive the analysis target information and deliver a patent document corresponding to the analysis target information to the artificial intelligence device 300 or the electronic device 100 .
일 예로, 상기 데이터 베이스(200)는 상기 전자 디바이스(100)로부터 상기 분석 대상 정보를 수신할 수 있다. 이를 위해, 상기 전자 디바이스(100)에 입력된 분석 대상 정보는 네트워크를 통해 상기 데이터 베이스(200)에 제공될 수 있다. 그리고, 상기 데이터 베이스(200)는 상기 수신한 분석 대상 정보에 대응하는 특허 문서를 검색하고, 상기 검색된 특허 문서를 상기 전자 디바이스(100) 및 상기 인공지능 장치(300) 중 어느 하나로 전달할 수 있다.For example, the database 200 may receive the analysis target information from the electronic device 100 . To this end, analysis target information input into the electronic device 100 may be provided to the database 200 through a network. In addition, the database 200 may search for a patent document corresponding to the received analysis target information and deliver the searched patent document to either the electronic device 100 or the artificial intelligence device 300 .
다른 일 예로, 상기 데이터 베이스(200)는 상기 인공지능 장치(300)로부터 분석 대상 정보를 수신할 수 있다. 이를 위해, 상기 전자 디바이스(100)에 입력된 분석 대상 정보는 네트워크를 통해 상기 인공지능 장치(300)로 제공될 수 있다. 그리고, 상기 인공지능 장치(300)는 네트워크를 통해 상기 데이터 베이스(200)에 접속하여, 상기 분석 대상 정보에 대응하는 특허 문서를 제공받을 수 있다.As another example, the database 200 may receive analysis target information from the artificial intelligence device 300 . To this end, analysis target information input to the electronic device 100 may be provided to the artificial intelligence device 300 through a network. In addition, the artificial intelligence device 300 may access the database 200 through a network and receive a patent document corresponding to the analysis target information.
상기 데이터 베이스(200)는 적어도 하나의 데이터 베이스를 포함하며, 이에 따라 기출원된 다수의 특허 문서들을 저장할 수 있다.The database 200 includes at least one database, and can store a plurality of patent documents filed accordingly.
바람직하게, 상기 데이터 베이스(200)는 복수의 데이터 베이스를 포함할 수 있다. 예를 들어, 상기 데이터 베이스(200)는 제1 내지 제N 데이터 베이스를 포함할 수 있다.Preferably, the database 200 may include a plurality of databases. For example, the database 200 may include first through Nth databases.
그리고, 상기 제1 데이터 베이스는 대한민국 특허청(Korea Intellectual Property Office; KIPO)에 의해 운영되거나 대한민국 특허청으로부터 용역을 받은 자에 의해 운영되는 데이터베이스일 수 있다. 그리고, 제1 데이터 베이스는 대한민국 특허청을 수리관청으로 하여 출원된 특허 문서를 저장하고 있을 수 있다.And, the first database may be a database operated by the Korea Intellectual Property Office (KIPO) or by a person who received a service from the Korea Intellectual Property Office (KIPO). And, the first database may store patent documents filed with the Korean Intellectual Property Office as the receiving office.
예를 들어, 상기 제2 데이터 베이스는 미합중국 특허상표청(United States Patents and Trademark Office; USPTO)에 의해 운영되거나 미합중국 특허상표청으로부터 용역을 받은 자에 의해 운영되는 데이터베이스일 수 있다. 그리고, 제2 데이터 베이스는 미합중국 특허상표청을 수리관청으로 하여 출원된 특허 문서를 저장하고 있을 수 있다.For example, the second database may be a database operated by the United States Patents and Trademark Office (USPTO) or by a person who received a service from the United States Patent and Trademark Office. And, the second database may store patent documents filed with the United States Patent and Trademark Office as a receiving office.
상기 제3 데이터 베이스는 유럽 특허청(European Patent Office; EPO)에 의해 운영되거나 유럽 특허청으로부터 용역을 받은 자에 의해 운영되는 데이터베이스일 수 있다. 그리고 제3 데이터 베이스는 유럽특허청을 수리관청으로 하여 출원된 특허 문서를 저장하고 있을 수 있다.The third database may be a database operated by the European Patent Office (EPO) or by a person who has received services from the European Patent Office. Further, the third database may store patent documents filed with the European Patent Office as a receiving office.
상기 제4 데이터 베이스는 일본 특허청(Japan Patent Office; JPO)에 의해 운영되거나 유럽 특허청으로부터 용역을 받은 자에 의해 운영되는 데이터베이스일 수 있다. 그리고 제4 데이터 베이스는 일본특허청을 수리관청으로 하여 출원된 특허 문서를 저장하고 있을 수 있다.The fourth database may be a database operated by the Japan Patent Office (JPO) or by a person who has received services from the European Patent Office. Further, the fourth database may store patent documents filed with the Japan Patent Office as the receiving office.
이 이외에도, 데이터 베이스(200)는 중국, 대만, 독일, 영국, 프랑스, 인도, 캐나다, 호주, 싱가포르, 멕시코 및 이 이외의 기타 국가의 특허청을 수리관청으로 하여 출원된 특허 문서를 저장하는 데이터베이스를 더 포함할 수 있다.In addition to this, the database 200 is a database for storing patent documents filed with the patent offices of China, Taiwan, Germany, England, France, India, Canada, Australia, Singapore, Mexico, and other countries as receiving offices. can include more.
여기에서, 본 발명의 권리 범위가 상기 데이터 베이스(200)가 구성하는 데이터베이스의 개수나 종류에 의해 제한되는 것이 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에게 자명하다.Here, the scope of the rights of the present invention is not limited by the number or type of databases constituted by the database 200, and it is obvious to those skilled in the art to which the present invention belongs.
인공지능 장치(300)는 상기 데이터 베이스(200) 또는 상기 전자 디바이스(100)로부터 특허 문서를 제공받고, 상기 제공받은 특허 문서를 분석하여 핵심 특징을 추출하는 동작을 수행할 수 있다. The artificial intelligence device 300 may perform an operation of receiving a patent document from the database 200 or the electronic device 100 and extracting core features by analyzing the provided patent document.
예를 들어, 인공지능 장치(300)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나, 상기 학습된 인공 신경망을 이용하여 특허 문서를 분석하는 동작을 수행하는 장치를 의미할 수 있다. For example, the artificial intelligence device 300 may refer to a device that performs an operation of learning an artificial neural network using a machine learning algorithm or analyzing a patent document using the learned artificial neural network.
상기 인공지능 장치(300)는 복수의 인공 신경망을 저장한다. 예를 들어, 상기 인공지능 장치(300)는 제1 내지 제3 인공 신경망을 저장할 수 있다. 그리고 상기 인공지능 장치(300)는 입력 데이터를 기준으로 상기 제1 내지 제3 인공 신경망을 딥 러닝 시킬 수 있다. 그리고 상기 인공지능 장치(300)는 상기 딥 러닝된 제1 내지 제3 인공 신경망을 이용하여 추론 동작을 수행하여, 상기 제공받은 특허 문서에 포함된 핵심 문장 및 핵심 명사구를 추출하는 동작을 수행할 수 있다.The artificial intelligence device 300 stores a plurality of artificial neural networks. For example, the artificial intelligence device 300 may store first to third artificial neural networks. Also, the artificial intelligence device 300 may perform deep learning on the first to third artificial neural networks based on input data. In addition, the artificial intelligence device 300 performs an inference operation using the deep-learned first to third artificial neural networks to extract key sentences and key noun phrases included in the provided patent document. Can be performed there is.
이에 따라, 상기 인공지능 장치(300)는 상기 복수의 인공 신경망을 포함하고, 상기 복수의 인공 신경망을 실행시켜 입력 데이터에 따라 상기 각각의 인공 신경망을 학습시키며, 상기 특허 문서 및 상기 학습된 인공 신경망을 이용하여 상기 특허 문서에 포함된 핵심 문장 및 핵심 명사구를 추출하는 일련의 동작을 수행하는 컴퓨팅 장치라고도 할 수 있다.Accordingly, the artificial intelligence device 300 includes the plurality of artificial neural networks, executes the plurality of artificial neural networks, learns each of the artificial neural networks according to input data, and includes the patent document and the learned artificial neural network. It can also be referred to as a computing device that performs a series of operations for extracting key sentences and key noun phrases included in the patent document using .
상기 인공지능 장치(300)는 통신부(310), 메모리(320) 및 프로세서(330)를 포함할 수 있다.The artificial intelligence device 300 may include a communication unit 310, a memory 320 and a processor 330.
상기 통신부(310)는 상기 전자 디바이스(100) 및 상기 데이터 베이스(200) 중 적어도 하나와 통신을 수행하여 입력 데이터를 수신할 수 있다. 이때, 상기 입력 데이터는 학습을 위한 입력 데이터일 수 있고, 이와 다르게 추론을 위한 입력 데이터일 수 있다. 상기 인공지능 장치(300)의 학습 동작 및 추론 동작에 대해서는 하기에서 더욱 상세히 설명하기로 한다.The communication unit 310 may receive input data by communicating with at least one of the electronic device 100 and the database 200 . In this case, the input data may be input data for learning, or may be input data for reasoning differently. The learning operation and reasoning operation of the artificial intelligence device 300 will be described in more detail below.
상기 통신부(310)는 무선 데이터 통신 방식으로 상기 전자 디바이스(100) 또는 데이터 베이스(200)와 통신을 수행할 수 있다. 무선 데이터 통신 방식으로는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)을 이용할 수 있다. The communication unit 310 may perform communication with the electronic device 100 or the database 200 in a wireless data communication method. As a wireless data communication method, technical standards or communication methods for mobile communication (eg, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.) can be used.
또한, 상기 통신부(310)는 무선 인터넷 기술을 이용하여 상기 전자 디바이스(100) 및 상기 데이터 베이스(200) 중 어느 하나와 통신할 수 있다. 예를 들어, 무선 인터넷 기술로는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다. Also, the communication unit 310 may communicate with any one of the electronic device 100 and the database 200 using wireless Internet technology. For example, wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like may be used.
또한, 상기 통신부(310)는 근거리 통신(Short range communication)을 이용하여 전자 디바이스(100) 및 상기 데이터 베이스(200) 중 어느 하나와 통신을 할 수 있으며, 예를 들어, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. In addition, the communication unit 310 can communicate with any one of the electronic device 100 and the database 200 using short range communication, for example, Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Short-distance communication may be supported using at least one of the Universal Serial Bus technologies.
메모리(320)는 모델 저장부(321)를 포함할 수 있다. 예를 들어, 상기 메모리(320)는 프로세서(330)를 통해 현재 학습 중인 또는 학습이 완료된 모델(또는 인공 신경망(321a)을 저장할 수 있다. 이러한 메모리(320)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 상기 인공지능 장치(300)는 인터넷(internet) 상에서 메모리(320)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. The memory 320 may include a model storage unit 321 . For example, the memory 320 may store a model (or an artificial neural network 321a) that is currently being learned or has been completed through the processor 330. This memory 320 is a flash memory type , hard disk type, multimedia card micro type, card type memory (eg SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, and optical disk. In addition, the artificial intelligence device 300 may operate in relation to a web storage performing a storage function of the memory 320 on the Internet.
프로세서(330)는 상기 인공지능 장치(300)의 전반적인 동작을 제어할 수 있다. 상기 프로세서(330)는 상기 설명한 각각의 구성요소들을 통해 입력 또는 출력되는 신호, 데이터 및 정보 등을 처리하거나, 상기 메모리(320)에 저장된 응용 프로그램을 구동하여 상기 전자 디바이스(100)에 특정 정보를 제공하거나, 상기 전자 디바이스(100)에서 실행한 특정 기능을 제공할 수 있다.The processor 330 may control the overall operation of the artificial intelligence device 300. The processor 330 processes signals, data, and information input or output through each of the components described above, or drives an application program stored in the memory 320 to provide specific information to the electronic device 100. or a specific function executed by the electronic device 100 may be provided.
상기 프로세서(330)는 하나 이상의 코어로 구성될 수 있으며, 이는 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥 러닝을 위한 프로세서를 포함할 수 있다. 프로세서(330)는 메모리(320)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 특정 특허 문서 내에 포함된 핵심 문장 및 핵심 명사구를 추출할 수 있다. The processor 330 may be composed of one or more cores, which include a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device. It may include a processor for data analysis and deep learning, such as a tensor processing unit). The processor 330 may read the computer program stored in the memory 320 and extract key sentences and key noun phrases included in a specific patent document according to an embodiment of the present disclosure.
실시 예에서, 상기 프로세서(330)는 제1 내지 제3 인공 신경망에 대해 별개의 과정을 거쳐 학습을 진행할 수 있다. 이때, 상기 프로세서(330)는 상기 제1 내지 제3 인공 신경망에 입력되는 데이터를 요약하는 요약 알고리즘을 사용할 수 있다. 상기 요약 알고리즘은 TextRank 알고리즘을 포함할 수 있으나, 이에 한정되는 것은 아니다. 상기 TextRank 알고리즘은 워드 그래프 또는 문장 그래프를 구축한 후, 그래프 랭킹 알고리즘인 PageRank를 이용하여 특허 문서를 요약할 수 있다.In an embodiment, the processor 330 may perform learning on the first to third artificial neural networks through a separate process. In this case, the processor 330 may use a summary algorithm for summarizing data input to the first to third artificial neural networks. The summary algorithm may include a TextRank algorithm, but is not limited thereto. After constructing a word graph or sentence graph, the TextRank algorithm can summarize patent documents using PageRank, a graph ranking algorithm.
상기 프로세서(330)는 상기 제1 내지 제3 인공 신경망의 학습을 위한 계산을 수행할 수 있다. 예를 들어, 상기 프로세서(330)는 딥 러닝(deep learning)을 통해, 상기 제1 내지 제3 인공 신경망에서의 학습을 위한 입력 데이터 처리 및 loss function 계산 등을 통해 신경망의 가중치 또는 파라미터를 업데이트 하는 등의 학습을 위한 일련의 동작을 수행할 수 있다.The processor 330 may perform calculations for learning of the first to third artificial neural networks. For example, the processor 330 processes input data for learning in the first to third artificial neural networks and calculates a loss function through deep learning to update weights or parameters of the neural network. A series of operations for learning such as, etc. can be performed.
또한, 상기 프로세서(330)는 상기 가중치/파라미터가 업데이트된 또는 학습된 신경망을 이용하여 추론 동작을 수행할 수 있다. 예를 들어, 상기 프로세서(330)는 분석 대상 정보에 대응하는 특허 문서를 입력 데이터로 하고, 그에 따라 상기 메모리(320)에 저장된 학습된 인공 신경망을 실행시킬 수 있다. 이를 통해, 상기 프로세서(330)는 상기 특허 문서에 포함된 핵심 문장 및 핵심 명사구의 추출이 이루어지도록 한다. 또한, 상기 프로세서(330)는 상기 핵심 명사구 및 추출이 이루어지면, 이에 대한 정보를 상기 통신부(310)를 통해 상기 전자 디바이스(100)로 제공할 수 있다.In addition, the processor 330 may perform an inference operation using a neural network in which the weights/parameters have been updated or learned. For example, the processor 330 may use a patent document corresponding to analysis target information as input data and execute the trained artificial neural network stored in the memory 320 accordingly. Through this, the processor 330 extracts key sentences and key noun phrases included in the patent document. In addition, when the key noun phrase and extraction are performed, the processor 330 may provide information thereon to the electronic device 100 through the communication unit 310 .
이하에서는 상기 인공지능 장치(300)에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, the artificial intelligence device 300 will be described in more detail.
본원의 인공지능 장치(300)의 설명에 앞서, 인공 지능에 대해 설명하면 다음과 같다. 인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다. 인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력 값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.Prior to the description of the artificial intelligence device 300 of the present application, artificial intelligence will be described as follows. Artificial intelligence refers to the field of studying artificial intelligence or methodology to create it, and machine learning (Machine Learning) refers to the field of defining various problems dealt with in the field of artificial intelligence and studying methodologies to solve them. do. Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience. An artificial neural network (ANN) is a model used in machine learning, and may refer to an overall model that has problem-solving capabilities and is composed of artificial neurons (nodes) that form a network by synaptic coupling. An artificial neural network can be defined by a connection pattern between neurons in different layers, a learning process for updating model parameters, and an activation function for generating output values.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 히든층(Hidden Layer)을 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함수 값을 출력할 수 있다. An artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer may include one or more neurons, and the artificial neural network may include neurons and synapses connecting the neurons. In an artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through a synapse.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.Model parameters refer to parameters determined through learning, and include weights of synaptic connections and biases of neurons. In addition, hyperparameters mean parameters that must be set before learning in a machine learning algorithm, and include a learning rate, number of iterations, mini-batch size, initialization function, and the like.
인공 신경망의 학습의 목적은 손실 함수(loss function)를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 예를 들어, 실시 예에서의 인공지능 장치(300)는 상기 제1 내지 제3 인공 신경망의 각각의 손실 함수를 최소화하는 파라미터를 결정하는 학습 동작을 수행할 수 있다. 그리고 상기 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.The purpose of learning an artificial neural network can be seen as determining model parameters that minimize a loss function. For example, the artificial intelligence device 300 in the embodiment may perform a learning operation for determining a parameter that minimizes a loss function of each of the first to third artificial neural networks. In addition, the loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to learning methods.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.Supervised learning refers to a method of training an artificial neural network given a label for training data, and a label is the correct answer (or result value) that the artificial neural network must infer when learning data is input to the artificial neural network. can mean Unsupervised learning may refer to a method of training an artificial neural network in a state in which a label for training data is not given. Reinforcement learning may refer to a learning method in which an agent defined in an environment learns to select an action or action sequence that maximizes a cumulative reward in each state.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 그리고, 실시 예에서는 딥 러닝을 통해 신경망을 학습시키고, 이의 학습 결과를 이용하여 추론을 진행하도록 할 수 있다. Among artificial neural networks, machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is also called deep learning, and deep learning is a part of machine learning. And, in an embodiment, a neural network may be trained through deep learning, and inference may be performed using the learning result.
한편, 실시 예에서의 딥 러닝 뉴럴 네트워크(DNN: deep learning neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 실시 예에서 사용하는 딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있다.Meanwhile, a deep learning neural network (DNN) in an embodiment may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can reveal latent structures in data. The deep neural network used in the embodiment is a convolutional neural network (CNN), a recurrent neural network (RNN), an auto encoder, a generative adversarial network (GAN), and a restricted Boltzmann. It may include a restricted boltzmann machine (RBM), a deep belief network (DBN), a Q network, a U network, a Siamese network, and the like.
한편, 본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 그리고 데이터 구조는 신경망을 포함할 수 있다. 그리고 신경망을 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망을 포함한 데이터 구조는 또한 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수를 포함할 수 있다. 신경망을 포함한 데이터 구조는 상기 개시된 구성들 중 임의의 구성 요소들을 포함할 수 있다. 즉 신경망을 포함한 데이터 구조는 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 트레이닝을 위한 손실 함수 등 전부 또는 이들의 임의의 조합을 포함하여 구성될 수 있다. 전술한 구성들 이외에도, 신경망을 포함한 데이터 구조는 신경망의 특성을 결정하는 임의의 다른 정보를 포함할 수 있다. 또한, 데이터 구조는 신경망의 연산 과정에 사용되거나 발생되는 모든 형태의 데이터를 포함할 수 있으며 전술한 사항에 제한되는 것은 아니다. 컴퓨터 판독가능 매체는 컴퓨터 판독가능 기록 매체 및/또는 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 신경망은 일반적으로 노드라 지칭될수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다.Meanwhile, throughout this specification, a computation model, a neural network, a network function, and a neural network may be used as the same meaning. And the data structure may include a neural network. And the data structure including the neural network may be stored in a computer readable medium. The data structure including the neural network may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data acquired from the neural network, an activation function associated with each node or layer of the neural network, and a loss function for learning the neural network. there is. A data structure including a neural network may include any of the components described above. In other words, the data structure including the neural network includes data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, activation function associated with each node or layer of the neural network, and loss function for training the neural network. It may be configured to include any combination of. In addition to the foregoing configurations, the data structure comprising the neural network may include any other information that determines the characteristics of the neural network. In addition, the data structure may include all types of data used or generated in the computational process of the neural network, but is not limited to the above. A computer readable medium may include a computer readable recording medium and/or a computer readable transmission medium. A neural network may consist of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network includes one or more nodes.
한편, 데이터 구조는 신경망에 입력되는 데이터를 포함할 수 있다. 신경망에 입력되는 데이터를 포함하는 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망에 입력되는 데이터는 신경망 학습 과정에서 입력되는 학습 데이터 및/또는 학습이 완료된 신경망에 입력되는 입력 데이터를 포함할 수 있다. 신경망에 입력되는 데이터는 전처리(pre-processing)를 거친 데이터 및/또는 전처리 대상이 되는 데이터를 포함할 수 있다. 전처리는 데이터를 신경망에 입력시키기 위한 데이터 처리 과정을 포함할 수 있다. 따라서 데이터 구조는 전처리 대상이 되는 데이터 및 전처리로 발생되는 데이터를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한 되지 않는다. 데이터 구조는 신경망의 가중치를 포함할 수 있다. 상기 신경망의 가중치는 파라미터를 의미한다. 그리고 신경망의 가중치를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망은 복수 개의 가중치를 포함할 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해 학습을 통해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 파라미터에 기초하여 출력 노드 값을 결정할 수 있다. Meanwhile, the data structure may include data input to the neural network. A data structure including data input to the neural network may be stored in a computer readable medium. Data input to the neural network may include training data input during a neural network learning process and/or input data input to a neural network that has been trained. Data input to the neural network may include pre-processed data and/or data subject to pre-processing. Pre-processing may include a data processing process for inputting data to a neural network. Accordingly, the data structure may include data subject to pre-processing and data generated by pre-processing. The aforementioned data structure is only an example, and the present disclosure is not limited thereto. The data structure may include the weights of the neural network. The weight of the neural network means a parameter. And the data structure including the weight of the neural network may be stored in a computer readable medium. A neural network may include a plurality of weights. Weights can be variable, and can be changed through learning to perform a desired function of the neural network. For example, when one or more input nodes are interconnected by respective links to one output node, the output node is set to a link corresponding to values input to input nodes connected to the output node and respective input nodes. An output node value can be determined based on the parameter.
또한, 가중치는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함할 수 있다. 신경망 학습 과정에서 가변되는 가중치는 학습 사이클이 시작되는 시점의 가중치 및/또는 학습 사이클 동안 가변되는 가중치를 포함할 수 있다. 신경망 학습이 완료된 가중치는 학습 사이클이 완료된 가중치를 포함할 수 있다. 따라서 신경망의 가중치를 포함한 데이터 구조는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함한 데이터 구조를 포함할 수 있다. 그러므로 상술한 가중치 및/또는 각 가중치의 조합은 신경망의 가중치를 포함한 데이터 구조에 포함되는 것으로 한다.In addition, the weight may include a weight variable during the neural network learning process and/or a weight after neural network learning is completed. The variable weight in the neural network learning process may include a weight at the time the learning cycle starts and/or a variable weight during the learning cycle. The weights for which neural network learning has been completed may include weights for which learning cycles have been completed. Accordingly, the data structure including the weights of the neural network may include a data structure including weights that are variable during the neural network learning process and/or weights for which neural network learning is completed. Therefore, it is assumed that the above-described weights and/or combinations of weights are included in the data structure including the weights of the neural network.
신경망의 가중치를 포함한 데이터 구조는 직렬화(serialization) 과정을 거친 후 컴퓨터 판독가능 저장 매체(예를 들어, 메모리, 하드 디스크)에 저장될 수 있다. 직렬화는 데이터 구조를 동일하거나 다른 컴퓨팅 장치에 저장하고 나중에 다시 재구성하여 사용할 수 있는 형태로 변환하는 과정일 수 있다. 컴퓨팅 장치는 데이터 구조를 직렬화하여 네트워크를 통해 데이터를 송수신할 수 있다. 직렬화된 신경망의 가중치를 포함한 데이터 구조는 역직렬화(deserialization)를 통해 동일한 컴퓨팅 장치 또는 다른 컴퓨팅 장치에서 재구성될 수 있다. 신경망의 가중치를 포함한 데이터 구조는 직렬화에 한정되는 것은 아니다. 나아가 신경망의 가중치를 포함한 데이터 구조는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산의 효율을 높이기 위한 데이터 구조(예를 들어, 비선형 데이터 구조에서 B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree)를 포함할 수 있다. The data structure including the weights of the neural network may be stored in a computer readable storage medium (eg, a memory or a hard disk) after going through a serialization process. Serialization can be the process of converting a data structure into a form that can be stored on the same or another computing device and later reconstructed and used. A computing device may serialize data structures to transmit and receive data over a network. The data structure including the weights of the serialized neural network may be reconstructed on the same computing device or another computing device through deserialization. The data structure including the weights of the neural network is not limited to serialization. Furthermore, the data structure including the weights of the neural network is a data structure for increasing the efficiency of operation while minimizing the resource of the computing device (for example, B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree).
이하에서는 실시 예에 따른 신경망의 학습 및 추론 동작에 대해 구체적으로 설명한다.Hereinafter, learning and reasoning operations of a neural network according to an embodiment will be described in detail.
도 3은 실시 예에 따른 신경망의 구조를 나타낸 도면이다. 3 is a diagram showing the structure of a neural network according to an embodiment.
도 3을 참조하면, 실시 예에서의 신경망(400)은 제1 내지 제3 신경망(410, 420, 430)을 포함할 수 있다. 이때, 상기 제1 내지 제3 신경망(410, 420, 430)은 입력 데이터에 따라 딥 러닝되어 학습될 수 있다. 그리고 최종 학습된 제1 내지 제3 신경망(410, 420, 430) 중 적어도 하나는 특허 문서의 분석을 위하여, 입력 데이터에 대한 결과값을 추론해내는데 사용될 수 있다.Referring to FIG. 3 , the neural network 400 in the embodiment may include first to third neural networks 410 , 420 , and 430 . In this case, the first to third neural networks 410, 420, and 430 may be deep-learned and learned according to input data. Also, at least one of the finally trained first to third neural networks 410, 420, and 430 may be used to infer a resultant value for input data for analysis of a patent document.
상기 설명한 바와 같이, 실시 예에서의 상기 제1 내지 제3 신경망(410, 420, 430)은 딥 러닝 신경망일 수 있다. 구체적으로, 상기 제1 내지 제3 신경망(410, 420, 430)은 특허 문서의 분석을 위하여, 자연어 처리를 위한 인공지능 모듈을 포함할 수 있다. 일 예로, 상기 제1 내지 제3 신경망(410, 420, 430)은 T5 모델일 수 있다. 다만, 실시 예에서 상기 제1 내지 제3 신경망(410, 420, 430)을 구성하는 모델의 종류는 'T5'에 한정되지 않으며, 자연어 처리를 위한 인공지능 모델 중 다른 모델을 이용할 수도 있을 것이다.As described above, the first to third neural networks 410, 420, and 430 in the embodiment may be deep learning neural networks. Specifically, the first to third neural networks 410, 420, and 430 may include an artificial intelligence module for natural language processing to analyze patent documents. For example, the first to third neural networks 410, 420, and 430 may be a T5 model. However, in the embodiment, the type of model constituting the first to third neural networks 410, 420, and 430 is not limited to 'T5', and other models among artificial intelligence models for natural language processing may be used.
이를 통해, 실시 예에서의 학습 과정은, 제1 신경망(410)을 학습시키는 제2 과정, 제2 신경망(420)을 학습시키는 제2 과정 및 제3 신경망(430)을 학습시키는 제3 과정을 포함할 수 있다. 이때, 상기 제1 내지 제3 과정은 각각 시간적인 차이를 가지고, 순차적으로 진행될 수 있다. 다만, 실시 예는 이에 한정되지 않으며, 상기 제1 내지 제3 과정 중 적어도 2개의 과정은 동일 시점에 동시에 수행될 수 있다. Through this, the learning process in the embodiment includes a second process of learning the first neural network 410, a second process of learning the second neural network 420, and a third process of learning the third neural network 430. can include In this case, the first to third processes may be sequentially performed with a time difference. However, the embodiment is not limited thereto, and at least two of the first to third processes may be simultaneously performed at the same time point.
바람직하게, 실시 예에서, 상기 제1 신경망(410)을 학습시키는 제1 과정이 우선적으로 진행될 수 있다. 그리고 실시 예에서는 상기 제1 과정의 학습 결과값을 이용하여, 상기 제2 신경망(420)을 학습시키는 제2 과정과, 상기 제3 신경망(430)을 학습시키는 제3 과정을 동시에 진행할 수 있다.Preferably, in an embodiment, a first process of training the first neural network 410 may be preferentially performed. In an embodiment, the second process of learning the second neural network 420 and the third process of learning the third neural network 430 may be simultaneously performed using the learning result value of the first process.
이때, 상기 제1 과정은 상기 제1 신경망(410)에 대해, 특허 문서에 특화된 학습을 진행하는 과정을 의미할 수 있다. 예를 들어, 상기 제1 과정은 신경망의 파라미터 또는 가중치를 특허 문서 분석을 위해 특화된 상태로 업데이트하기 위한 학습 과정을 의미할 수 있다.In this case, the first process may refer to a process of conducting learning specific to a patent document with respect to the first neural network 410 . For example, the first process may refer to a learning process for updating the parameters or weights of the neural network to a state specialized for patent document analysis.
상기 제2 과정은 상기 제2 신경망(420)에 대해, 특허 문서에서 핵심 문장을 추출하도록 하는 학습 과정을 의미할 수 있다. 예를 들어, 상기 제2 과정은 특허 문서의 전체 범위 내에 포함된 내용 중 핵심이 되는 핵심 문장을 추출 또는 추론하도록 상기 제2 신경망(420)을 학습 또는 딥 러닝 시키는 과정을 의미할 수 있다.The second process may refer to a learning process of extracting key sentences from a patent document for the second neural network 420 . For example, the second process may refer to a process of learning or deep learning the second neural network 420 to extract or infer a key sentence that is the core of the contents included in the entire scope of the patent document.
상기 제3 과정은 상기 제3 신경망(430)에 대해, 특허 문서에 포함된 핵심 문장에서 핵심 명사구를 추출 또는 추론하도록 하는 학습 과정을 의미할 수 있다. 예를 들어, 상기 제3 과정은 특허 문서에 포함된 핵심 문장에서 핵심 명사구를 추출 또는 추론하도록 상기 제3 신경망(430)을 학습 또는 딥 러닝 시키는 과정을 의미할 수 있다.The third process may refer to a learning process of extracting or inferring a key noun phrase from a key sentence included in a patent document with respect to the third neural network 430 . For example, the third process may refer to a process of learning or deep learning the third neural network 430 to extract or infer a key noun phrase from a key sentence included in a patent document.
이하에서는 상기 제1 내지 제3 과정을 통해 상기 제1 신경망(410), 제2 신경망(420) 및 상기 제3 신경망(430)을 각각 학습 또는 딥 러닝하는 과정에 대해 구체적으로 설명하기로 한다.Hereinafter, a process of learning or deep learning the first neural network 410, the second neural network 420, and the third neural network 430 through the first to third processes will be described in detail.
도 4는 실시 예에 따른 제1 신경망의 학습 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a learning process of a first neural network according to an embodiment.
도 4를 참조하면, 실시 예에서는 우선적으로 일반적인 자연어 처리를 위한 모델의 신경망을 이용하고, 상기 일반 신경망을 특허 문서를 처리하는데 특화된 상태로 업데이트하기 위한 딥 러닝 또는 학습 과정을 진행한다. Referring to FIG. 4 , in the embodiment, a neural network of a model for general natural language processing is first used, and deep learning or a learning process is performed to update the general neural network to a state specialized for processing patent documents.
이때, 상기 제1 과정은 상기 제2 신경망(420) 및 제3 신경망(430)을 학습 또는 딥 러닝 시키기 위한 전처리 과정이라고 할 수 있다.In this case, the first process may be referred to as a preprocessing process for learning or deep learning the second neural network 420 and the third neural network 430 .
상기 제1 신경망(410)의 인공지능 모델은 상기 제2 신경망(420)의 인공지능 모델 및 제3 신경망(430)의 인공 지능 모델과 동일하다. 그리고 상기 제1 신경망(410)을 학습 또는 딥러닝 시키는 상기 제1 과정은 상기 제2 신경망(420) 및 제3 신경망(430)의 학습 정확도를 높이면서, 추후 추론 과정에서의 추론 정확도를 높이기 위한 것일 수 있다.The artificial intelligence model of the first neural network 410 is the same as the artificial intelligence model of the second neural network 420 and the artificial intelligence model of the third neural network 430 . In addition, the first process of learning or deep learning the first neural network 410 increases the learning accuracy of the second neural network 420 and the third neural network 430, while increasing inference accuracy in a later inference process. it could be
이때, 실시 예에서의 상기 제2 신경망(420)에는 핵심 문장을 판단하고, 상기 핵심 문장을 추출하는 작업이 요구되고, 상기 제3 신경망(430)은 상기 핵심 문장 내에서 핵심을 의미하는 새로운 자연어를 생성하는 작업이 요구된다. 구체적으로, 실시 예에서의 상기 제2 신경망(420) 및 제3 신경망(430)은 자연어 이해 및 자연어 생성에 대한 학습 및 추론을 진행할 수 있어야 한다. At this time, the second neural network 420 in the embodiment is required to determine a key sentence and extract the key sentence, and the third neural network 430 is a new natural language meaning a core within the key sentence. The work to create is required. Specifically, the second neural network 420 and the third neural network 430 in the embodiment should be able to perform learning and reasoning for natural language understanding and natural language generation.
이를 위해, 실시 예에서의 상기 제2 신경망(420) 및 제3 신경망(430)의 모델 구조의 베이스 라인은 자연어 이해와 자연어 생성에서 모두 높은 성능을 가지는 T5 모델 구조를 활용할 수 있다. 다만, 실시 예는 이에 한정되지 않으며, 상기 제2 신경망(420) 및 제3 신경망(430)은 T5 모델 구조 이외의, 자연어 생성 및 자연어 이해에서 높은 성능을 가진 다른 모델 구조를 활용할 수도 있을 것이다.To this end, the base line of the model structures of the second neural network 420 and the third neural network 430 in the embodiment may utilize a T5 model structure having high performance in both natural language understanding and natural language generation. However, the embodiment is not limited thereto, and the second neural network 420 and the third neural network 430 may utilize other model structures with high performance in natural language generation and natural language understanding other than the T5 model structure.
한편, 상기 설명한 바와 같이, 상기 제1 신경망(410)의 모델 구조는 상기 제2 신경망(420) 및 상기 제3 신경망(430)의 모델 구조와 동일할 수 있다. Meanwhile, as described above, the model structure of the first neural network 410 may be the same as that of the second neural network 420 and the third neural network 430 .
다만, 학습 과정에서의, 상기 제1 신경망(410)에 입력되는 입력 데이터와 상기 제1 신경망(410)의 학습 방법은 상기 제2 신경망(420) 및 제3 신경망(430)에 각각 입력되는 입력 데이터 및 학습 방법과 다를 수 있다. However, in the learning process, the input data input to the first neural network 410 and the learning method of the first neural network 410 are input to the second neural network 420 and the third neural network 430, respectively. Data and learning methods may differ.
이때, 실시 예에서는 상기 제1 신경망(410)을 학습 또는 딥 러닝 시키는 제1 과정 없이, 바로 상기 제2 신경망(420) 및 제3 신경망(430)을 학습 또는 딥 러닝 시키는 과정을 진행할 수 있다. 즉, 상기 제1 신경망(410)의 학습 과정은, 상기 제2 신경망(420) 및 제3 신경망(430)의 학습 정확도 및 추론 정확도를 높이기 위한 과정이라고 할 수 있다.At this time, in the embodiment, the process of learning or deep learning the second neural network 420 and the third neural network 430 may be performed directly without the first process of learning or deep learning the first neural network 410. That is, the learning process of the first neural network 410 can be said to be a process for increasing learning accuracy and inference accuracy of the second neural network 420 and the third neural network 430 .
상기 제1 과정은 일반 도메인을 통해 학습된 모델을 네트워크 함수의 기본 값(예를 들어, 파라미터 값 또는 가중치 값)으로 설정한 상태에서, 입력 데이터에 대해 상기 제1 신경망(410)의 학습을 진행하도록 할 수 있다.In the first process, the first neural network 410 is trained on the input data in a state in which the model learned through the general domain is set as the basic value (eg, parameter value or weight value) of the network function. can make it
이를 위해, 상기 제1 과정의 시작 단계로, 상기 제1 신경망(410)에 제1 입력 데이터를 입력한다(S110). 상기 제1 입력 데이터는 전자 디바이스(100)에서 제공될 수 있고, 이와 다르게 상기 데이터 베이스(200)에서 제공될 수 있다. 다만, 실시 예는 이에 한정되지 않으며, 상기 제1 입력 데이터는 인공지능 장치(300)의 내부에 저장된 데이터를 활용할 수도 있다.To this end, as a starting step of the first process, first input data is input to the first neural network 410 (S110). The first input data may be provided from the electronic device 100 and may be provided from the database 200 differently. However, the embodiment is not limited thereto, and data stored inside the artificial intelligence device 300 may be used as the first input data.
상기 제1 입력 데이터는 특허 도메인의 특정 데이터일 수 있다. 예를 들어, 상기 제1 입력 데이터는 제1 신경망(410)의 학습을 위한 특정 특허 문서일 수 있다. The first input data may be specific data of a patent domain. For example, the first input data may be a specific patent document for learning by the first neural network 410 .
이때, 실시 예에서는 상기 제1 입력 데이터 내에서, 특정 범위의 부분 문서를 이용하여 상기 제1 신경망(410)의 학습을 진행하는 것이 아니라, 상기 제1 입력 데이터의 전체 범위의 내용을 이용하여 상기 제1 신경망(410)의 학습을 진행한다.At this time, in the embodiment, the learning of the first neural network 410 is not performed using a partial document of a specific range within the first input data, but by using the contents of the entire range of the first input data. The learning of the first neural network 410 proceeds.
예를 들어, 상기 제1 입력 데이터는 특허 도메인의 특허 문서이다. 그리고 상기 특허 도메인의 문서는 복수의 식별 항목으로 구분된다. 예를 들어, 특허 도메인의 문서는 배경 기술 항목, 상세한 설명 항목, 요약 항목, 청구항 항목 등으로 구분된다. 그리고 일반적인 특허 문서 분석 시스템에서는, 특허 도메인의 문서가 가지는 길고 불필요한 노이즈 내용이 많음에 따라, 상기 식별 항목 중에서 청구항 항목이나 요약 항목에 초점을 두고 분석을 진행한다. 그러나 일반적인 특허 도메인의 문서에는 상세한 설명 항목에 중요한 내용이 대부분 포함되어 있다. 이에 따라, 특정 특허 도메인의 문서에서, 상기 상세한 설명 항목을 중심으로 분석이 이루어지지 않는 경우, 해당 문서의 정확한 분석 결과를 얻기 어렵다.For example, the first input data is a patent document of a patent domain. And the document of the patent domain is divided into a plurality of identification items. For example, a document in the patent domain is divided into a background description section, a detailed description section, a summary section, and a claim section. Further, in a general patent document analysis system, as a patent domain document has many long and unnecessary noise contents, the analysis is performed with a focus on the claims item or summary item among the identification items. However, documents in the general patent domain contain most of the important information in the detailed description section. Accordingly, in a document of a specific patent domain, if the analysis is not performed centering on the detailed description items, it is difficult to obtain an accurate analysis result of the document.
이에 따라, 실시 예에서는 상기 제1 신경망(410)의 학습을 진행하기 위해, 특허 도메인의 문서에서 특정 범위의 내용만을 참조하는 것이 아니라, 전체적인 범위의 내용(특히, 상세한 설명 항목의 내용)을 참조하여 상기 제1 신경망(410)의 학습을 진행하도록 한다.Accordingly, in the embodiment, in order to proceed with the learning of the first neural network 410, reference is made to the contents of the entire range (in particular, the contents of the detailed description item), rather than only the contents of a specific range in the document of the patent domain. So that the learning of the first neural network 410 proceeds.
이때, 상기 특허 도메인의 문서에는 일반 도메인의 문서에 포함되지 않는 전문 용어들이 다수 포함되어 있다. 이에 따라, 일반 도메인의 문서를 이용하여 학습된 모델의 신경망을 적용하여, 상기 특허 도메인 문서를 바로 분석하는 경우, 상대적으로 낮은 학습도 및 추론도를 가질 수 있다. At this time, the document of the patent domain includes a number of technical terms not included in the document of the general domain. Accordingly, when the document in the patent domain is immediately analyzed by applying the neural network of the model trained using the document in the general domain, the learning rate and the inference rate may be relatively low.
이에 따라, 실시 예에서는 상기 제1 과정을 통해 특허 도메인 분서를 분석하기에 특화된 모델 구조로 상기 제1 신경망(410)의 파라미터 값이나 가중치를 업데이트한다.Accordingly, in the embodiment, parameter values or weights of the first neural network 410 are updated with a model structure specialized for analyzing patent domain classification through the first process.
한편, 상기 제1 신경망(410)의 학습 과정에서, 상기 제1 입력 데이터가 입력되면, 실시 예에서는 상기 제1 입력 데이터를 처리하는 과정을 진행할 수 있다. 바람직하게, 실시 예에서는 상기 제1 입력 데이터에서, 특허 도메인의 문서에서 사용되는 말뭉치를 생성 또는 추출하는 과정을 진행할 수 있다(S120). 여기에서, 상기 말뭉치(corpus)는 자연어 처리 기술에서 응용 솔루션에 기반이 되는 텍스트를 컴퓨터가 읽을 수 있는 형태로 모아 놓은 언어 자료를 의미할 수 있다. 상기 말뭉치는 말모듬이나 글모듬 등으로도 표현될 수 있다. 실시 예에서는 상기 제1 입력 데이터를 바로 이용하여 상기 제1 신경망(410)의 학습을 진행하지 않고, 상기 제1 입력 데이터로부터 특허 도메인의 문서에 대응하는 말뭉치를 획득하고, 상기 말뭉치를 이용하여 상기 제1 신경망(410)의 학습을 진행한다. 이때, 상기 말뭉치는 양이 많을 수록 상기 제1 신경망(410)에서 인식 또는 이해될 수 있는 자연어의 정확도가 높이지며, 이에 따른 학습 정확도 및 추론 정확도를 높일 수 있다.Meanwhile, in the learning process of the first neural network 410, when the first input data is input, in the embodiment, a process of processing the first input data may be performed. Preferably, in the embodiment, a process of generating or extracting a corpus used in a document of a patent domain may be performed from the first input data (S120). Here, the corpus may refer to language data in which texts based on an application solution in a natural language processing technology are collected in a computer-readable form. The corpus may also be expressed as an assortment of words or an assortment of writings. In the embodiment, a corpus corresponding to a document in a patent domain is obtained from the first input data without the learning of the first neural network 410 using the first input data directly, and the corpus is used to The learning of the first neural network 410 proceeds. At this time, as the amount of the corpus increases, the accuracy of the natural language that can be recognized or understood by the first neural network 410 increases, and accordingly, learning accuracy and inference accuracy can be increased.
다음으로, 실시 예에서는 상기 제1 입력 데이터(바람직하게, 특허 도메인의 문서에서 획득한 말뭉치)를 이용하여 상기 제1 신경망(410)의 학습을 진행한다(S130).Next, in the embodiment, learning of the first neural network 410 is performed using the first input data (preferably, a corpus obtained from a document of a patent domain) (S130).
이때, 상기 제1 신경망(410)의 학습은 비지도 학습 방법을 통해 진행될 수 있다. 바람직하게, 실시 예에서는 상기 제1 신경망(410)의 학습을 진행하기 위해, 상기 제1 입력 데이터에 레이블 데이터(예를 들어, 정답 데이터)를 포함하지 않는 상태에서, 상기 제1 입력 데이터를 이용한 학습을 진행한다.In this case, learning of the first neural network 410 may be performed through an unsupervised learning method. Preferably, in the embodiment, in order to proceed with learning of the first neural network 410, in a state where label data (eg, correct answer data) is not included in the first input data, the first input data is used. proceed with learning
상기 제1 신경망(410)의 학습 방법에 대해 간략히 설명하면 다음과 같다. 상기 제1 신경망(410)은 상기 제1 입력 데이터에서 일부분을 마스킹하고, 그에 따라 상기 제1 신경망(410)에서 상기 마스킹한 부분의 내용을 정확히 생성하는지에 따른 손실 함수를 기반으로 학습을 진행할 수 있다.A brief description of the learning method of the first neural network 410 is as follows. The first neural network 410 masks a portion of the first input data, and accordingly, the first neural network 410 can perform learning based on a loss function according to whether the content of the masked portion is accurately generated. there is.
즉, 상기 제1 신경망(410)의 학습 과정을 보다 구체적으로 살펴보면, 상기 제1 입력 데이터는 레이블되지 않은 데이터일 수 있고, 이를
Figure PCTKR2022019082-appb-img-000001
라 할 수 있다.
That is, looking at the learning process of the first neural network 410 in more detail, the first input data may be unlabeled data,
Figure PCTKR2022019082-appb-img-000001
can be called
그리고, 실시 예에서는 상기
Figure PCTKR2022019082-appb-img-000002
에서 일부분의 단어인
Figure PCTKR2022019082-appb-img-000003
를 스페셜 토큰(special token)인
Figure PCTKR2022019082-appb-img-000004
로 치환하고, 해당 과정을 통해 corrupted sentence X'가 생성될 수 있다.
And, in the embodiment, the
Figure PCTKR2022019082-appb-img-000002
which is part of a word in
Figure PCTKR2022019082-appb-img-000003
is a special token
Figure PCTKR2022019082-appb-img-000004
, and corrupted sentence X' can be generated through the process.
그리고, 상기 제1 신경망(410)의 학습 과정으로, 상기 제1 신경망(410)은 상기 X'를 입력으로 받아, 상기 치환된 단어의 세트(예를 들어, span set)인
Figure PCTKR2022019082-appb-img-000005
들을 자기 회귀(auto-regressive)하게 생성하는 과정을 학습할 수 있다.
In addition, as a learning process of the first neural network 410, the first neural network 410 receives the X' as an input and generates a set of substituted words (for example, a span set).
Figure PCTKR2022019082-appb-img-000005
You can learn the process of generating them in an auto-regressive way.
여기에서,
Figure PCTKR2022019082-appb-img-000006
Figure PCTKR2022019082-appb-img-000007
에 대한 span length를 의미한다. 이를 masking span이라 정의할 때, 해당 프로세서에서 모델 θ에 대한 트레이닝 오브젝티브는 아래의 식 1과 같이 표현할 수 있다.
From here,
Figure PCTKR2022019082-appb-img-000006
Is
Figure PCTKR2022019082-appb-img-000007
means the span length for When this is defined as a masking span, the training objective for the model θ in the corresponding processor can be expressed as Equation 1 below.
[식 1][Equation 1]
Figure PCTKR2022019082-appb-img-000008
Figure PCTKR2022019082-appb-img-000008
그리고, 실시 예에서는 상기 제1 신경망(410)에 대해, 해당 오브젝티브를 통해 사전 학습하는 단계에서, 여러 하위 작업들에 대해 사전학습을 동시에 진행할 수 있다. 이는, 자연어 이해 등의 모든 작업 등을 하나의 순차적인 입출력 데이터 형태로 전처리하고, 해당 데이터들을 통해 텍스트-투-텍스트(text-to-text) 형태로 신경망 모델을 학습하는 과정을 의미한다. 이를 통해, 실시 예에서는 상기 제1 과정을 통해 학습된 제1 신경망(410)과, 이후의 제2 과정 및 제3 과정을 통한 제2 신경망(420) 및 제3 신경망(430)의 학습 과정에서 일관된 트레이닝 오브젝티브를 가질 수 있도록 한다.And, in the embodiment, in the step of pre-learning the first neural network 410 through the corresponding objective, pre-learning may be performed simultaneously for several sub-tasks. This means a process of pre-processing all tasks such as natural language understanding in the form of one sequential input/output data, and learning a neural network model in a text-to-text form through the data. Through this, in the embodiment, in the learning process of the first neural network 410 learned through the first process, the second neural network 420 and the third neural network 430 through the second and third processes thereafter. Have a consistent training objective.
한편, 상기 제1 과정에서, 상기 제1 신경망(410)의 모델 θ를 통해 생성되는
Figure PCTKR2022019082-appb-img-000009
는 전처리한 input sequence
Figure PCTKR2022019082-appb-img-000010
에 대하여 하기의 식 2와 같이 sequence-to-sequence 기반의 자기 회귀 과정을 통해 생성될 수 있다. 여기에서, 상기 sequence-to-sequence(Seq2Seq) 학습은 특정 도메인(예를 들어, 일반 도메인)에서 다른 도메인(예를 들어, 특허 도메인)로 시퀀스(sequence)를 변환하는 모델 학습을 진행하는 것을 의미한다.
On the other hand, in the first process, generated through the model θ of the first neural network 410
Figure PCTKR2022019082-appb-img-000009
is the preprocessed input sequence
Figure PCTKR2022019082-appb-img-000010
It can be generated through a sequence-to-sequence based autoregression process as shown in Equation 2 below. Here, the sequence-to-sequence (Seq2Seq) learning means to proceed with model learning that converts a sequence from a specific domain (eg, a general domain) to another domain (eg, a patent domain). do.
[식 2][Equation 2]
Figure PCTKR2022019082-appb-img-000011
Figure PCTKR2022019082-appb-img-000011
그리고 상기 제1 신경망(410)의 학습은, 상기 식 2를 통해 생성된 출력 시퀀스(output sequence)의 임베딩 표현(embedding representation)과, 실제의 기준 출력 시퀀스(reference output sequence) 사이의 크로스 엔트로피(cross-entropy) 손실을 최소화하는 방향으로 진행될 수 있다.And learning of the first neural network 410 is the cross entropy between the embedding representation of the output sequence generated through Equation 2 and the actual reference output sequence. -entropy) can be carried out in the direction of minimizing the loss.
그리고 실시 예에서는 상기와 같은 과정을 통해 상기 제1 신경망(410)을 학습하는 제1 과정을 진행할 수 있다.In the embodiment, a first process of learning the first neural network 410 may be performed through the above process.
그리고 상기 제1 과정을 통해, 상기 제1 신경망(410)의 모델 구조는, 일반 도메인의 문서를 분석하기 위한 구조에서, 특허 도메인의 문서를 분석하기 위한 모델 구조로 변환될 수 있다. Also, through the first process, the model structure of the first neural network 410 may be converted from a structure for analyzing documents in the general domain to a model structure for analyzing documents in the patent domain.
예를 들어, 상기 제1 과정을 통해 상기 제1 신경망(410)의 파라미터 값들은 특허 도메인의 문서를 분석하기 위해 특화된 상태로 업데이트될 수 있다(S140). For example, through the first process, parameter values of the first neural network 410 may be updated to a state specialized for analyzing a document of a patent domain (S140).
한편, 실시 예에서는 상기 제1 과정을 통해 업데이트된 제1 신경망(410)의 파라미터 값들을 활용하여, 이후의 제2 신경망(420) 및 제3 신경망(430)의 학습을 진행한다.Meanwhile, in the embodiment, the learning of the second neural network 420 and the third neural network 430 is performed using the parameter values of the first neural network 410 updated through the first process.
이어서, 제2 신경망(420) 및 제3 신경망(430)의 학습을 위한 제2 과정 및 제3 과정에 대해 설명하기로 한다. 도 5는 실시 예에 따른 제2 신경망의 학습 과정을 설명하기 위한 도면이다.Next, a second process and a third process for learning the second neural network 420 and the third neural network 430 will be described. 5 is a diagram for explaining a learning process of a second neural network according to an embodiment.
이때, 상기 제2 신경망(420)을 학습하는 제2 과정 및 제3 신경망(430)을 학습하는 제3 과정은 동시에 진행될 수 있고, 이와 다르게 순차적으로 진행될 수 있다.In this case, the second process of learning the second neural network 420 and the third process of learning the third neural network 430 may be performed simultaneously or sequentially.
상기 제2 신경망(420)을 학습하는 제2 과정에 대해 설명하면 다음과 같다.The second process of learning the second neural network 420 will be described as follows.
실시 예에서는 상기 제2 신경망(420)의 학습을 위해, 제2 입력 데이터를 입력할 수 있다(S210). 상기 제2 입력 데이터는 학습 진행을 위한 특허 문서와, 상기 특허 문서에서의 정답 데이터인 레이블 데이터를 포함할 수 있다.In the embodiment, second input data may be input for learning of the second neural network 420 (S210). The second input data may include a patent document for learning and label data that is correct answer data in the patent document.
예를 들어, 상기 제2 입력 데이터는 특허 문서 및 상기 특허 문서의 레이블 데이터가 하나의 세트로 이루어지며, 이와 같은 세트가 복수 개 포함된 형태를 가질 수 있다.For example, the second input data may include a patent document and label data of the patent document as one set, and a plurality of such sets may be included.
예를 들어, 상기 제2 입력 데이터는, 제1 특허 문서 및 상기 제1 특허 문서에서의 핵심 문장을 레이블링한 제1 레이블 데이터를 포함하는 제1 데이터 세트와, 제2 특허 문서 및 상기 제2 특허 문서에서의 핵심 문장을 레이블링한 제2 레이블 데이터를 포함하는 제2 데이터 세트를 포함할 수 있다. 이때, 상기 제2 입력 데이터에서 2개의 데이터 세트를 포함하는 것으로 설명하였으나, 이에 한정되지는 않는다. 예를 들어, 상기 제2 입력 데이터는 상기 제2 신경망(420)의 학습 정확도를 높이기 위해, 3개 이상의 데이터 세트를 포함할 수 있다.For example, the second input data may include a first data set including a first patent document and first label data for labeling key sentences in the first patent document, a second patent document, and the second patent document. A second data set including second label data for labeling key sentences in the document may be included. At this time, it has been described that the second input data includes two data sets, but is not limited thereto. For example, the second input data may include three or more data sets in order to increase the learning accuracy of the second neural network 420 .
한편, 실시 예에서는 상기 제2 입력 데이터가 입력되면, 상기 제2 입력 데이터를 요약한 요약 데이터를 생성하는 과정을 진행할 수 있다(S220). 구체적으로, 실시 예에서는 상기 제2 입력 데이터에 포함된 각각의 데이터 세트 중에서 특허 문서를 요약하는 과정을 진행할 수 있다. 일 예로, 실시 예에서는 요약 알고리즘을 사용하여 상기 제2 입력 데이터에 포함된 특허 문서를 요약한 요약 데이터를 획득한다. 이때, 상기 요약 알고리즘은 textRank 알고리즘을 포함할 수 있으나, 이에 한정되는 것은 아니다. 상기 TextRank 알고리즘은 워드 그래프 또는 문장 그래프를 구축한 후, 그래프 랭킹 알고리즘인 PageRank를 이용하여 특허 문서를 요약할 수 있다.Meanwhile, in the embodiment, when the second input data is input, a process of generating summary data summarizing the second input data may be performed (S220). Specifically, in the embodiment, a process of summarizing patent documents among each data set included in the second input data may be performed. For example, in the embodiment, summary data summarizing the patent document included in the second input data is obtained using a summary algorithm. In this case, the summary algorithm may include textRank algorithm, but is not limited thereto. After constructing a word graph or sentence graph, the TextRank algorithm can summarize patent documents using PageRank, a graph ranking algorithm.
즉, 실시 예에서는 제2 신경망(420)의 학습을 위하여, 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위를 가지고 학습을 진행하지 않고, 상기 특허 문서를 요약한 요약 데이터를 이용하여 상기 제2 신경망(420)을 학습한다. 실시 예에서는 실험을 통해 상기 요약 데이터를 가지고 상기 제2 신경망(420)을 학습하는 경우, 상기 특허 문서 내에 포함된 문장의 개수를 효과적으로 감소시킴으로써, 학습 효율을 높일 수 있음을 확인할 수 있었다. 나아가, 실시 예에서는 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위의 내용 중 제2 신경망(420)의 학습에 악영향을 주는 내용을 일차적으로 필터링함으로써, 상기 제2 신경망(420)의 추가적인 성능 향상을 도모할 수 있음을 확인할 수 있다.That is, in the embodiment, for the learning of the second neural network 420, the learning is not performed with the entire range of the patent document included in the second input data, but by using summary data summarizing the patent document. 2 Learning the neural network (420). In the embodiment, it was confirmed through experiments that when learning the second neural network 420 with the summary data, the number of sentences included in the patent document can be effectively reduced, thereby increasing learning efficiency. Furthermore, in the embodiment, additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. It can be seen that improvements can be made.
결론적으로, 실시 예에서는 상기 제2 입력 데이터가 입력되면, 상기 제2 입력 데이터를 바로 제2 신경망(420)의 학습 데이터로 적용하지 않고, 추가적인 성능 향상과 학습 효율을 향상하기 위해, 상기 제2 신경망(420)의 학습 이전에 상기 제2 입력 데이터의 전처리를 진행한다. 그리고 실시 예에서는 상기 제2 입력 데이터에 포함된 특허 문서에서 문장의 상대적 중요도를 부여하고, 이를 이용하여 전체 문서를 요약하는 그래프 기반의 방법을 적용하여 상기 제2 입력 데이터에 포함된 특허 문서를 효율적으로 요약할 수 있다. 이때, 상기 요약 알고리즘을 통한 요약 방법론은 다음의 식 3과 같을 수 있다.In conclusion, in the embodiment, when the second input data is input, the second input data is not directly applied as the learning data of the second neural network 420, and in order to further improve performance and improve learning efficiency, the second input data Prior to learning of the neural network 420, pre-processing of the second input data is performed. In the embodiment, the relative importance of sentences in the patent document included in the second input data is assigned, and the patent document included in the second input data is efficiently analyzed by applying a graph-based method of summarizing the entire document. can be summarized as In this case, the summary methodology through the summary algorithm may be as shown in Equation 3 below.
[식 3][Equation 3]
Figure PCTKR2022019082-appb-img-000012
Figure PCTKR2022019082-appb-img-000012
여기에서,
Figure PCTKR2022019082-appb-img-000013
는 문장
Figure PCTKR2022019082-appb-img-000014
에 대한 중요도 스코어를 의미하며, 문장들(
Figure PCTKR2022019082-appb-img-000015
) 간의 문장 유사도를 기반으로 한 가중치를 의미한다. 그리고, 실시 예에서는 특허 문서 내에 포함된 문장들에 대한
Figure PCTKR2022019082-appb-img-000016
값을 모두 구하고, 해당
Figure PCTKR2022019082-appb-img-000017
값을 기준으로 문장을 정렬한 후, 문서 내에서 높은
Figure PCTKR2022019082-appb-img-000018
값을 가지는 문장들을 선택하는 방식으로, 상기 제1 입력 데이터의 요약 데이터를 획득할 수 있다.
From here,
Figure PCTKR2022019082-appb-img-000013
is the sentence
Figure PCTKR2022019082-appb-img-000014
It means the importance score for, and the sentences (
Figure PCTKR2022019082-appb-img-000015
) means a weight based on the similarity between sentences. And, in the embodiment, for the sentences included in the patent document
Figure PCTKR2022019082-appb-img-000016
find all the values, and
Figure PCTKR2022019082-appb-img-000017
After sorting the sentences by value, the highest
Figure PCTKR2022019082-appb-img-000018
Summary data of the first input data may be obtained by selecting sentences having values.
그리고 실시 예에서는 상기와 같은 문장 요약을 통해 문서 내에서 불필요한 데이터를 효과적으로 줄일 수 있으며, 중요 문장이 최대한 포함되도록 최소한의 비율을 설정한 후, 이후 제2 신경망(420)의 학습을 진행함에 따라 상기 제2 신경망(420)의 학습 시간을 효율적으로 감소시킬 수 있다. And, in the embodiment, unnecessary data in a document can be effectively reduced through the sentence summary as described above, and after setting a minimum ratio so that important sentences are included as much as possible, as the second neural network 420 learns, The learning time of the second neural network 420 can be effectively reduced.
한편, 상기 요약 데이터의 획득 시에, 과도하게 상기 특허 문서의 요약을 진행할 경우, 상기 획득된 요약 데이터 내에 레이블 데이터가 포함되지 않을 수 있다. 다시 말해서, 상기 특허 문서의 요약 결과에 따라, 상기 요약 데이터에 정답 데이터가 포함되지 않을 수 있다. 이에 따라 실시 예에서는 서로 다른 문턱 값을 이용하여 text-rank를 적용하여 요약 데이터를 획득한다. 그리고 상기 요약 데이터의 획득 결과에 따라, 요약 데이터 내에 레이블 데이터가 누락되지 않는 최소의 요약 비율을 확인하고, 이에 대응하는 문턱 값을 적용하여 상기 요약 데이터의 획득이 이루어지도록 한다.Meanwhile, when the summary data is acquired, if the patent document is excessively summarized, label data may not be included in the obtained summary data. In other words, according to the summary result of the patent document, correct answer data may not be included in the summary data. Accordingly, in the embodiment, summary data is obtained by applying text-rank using different threshold values. According to the result of obtaining the summary data, a minimum summary ratio at which label data is not omitted in the summary data is checked, and a threshold value corresponding to the minimum summary ratio is determined so that the summary data is acquired.
한편, 실시 예에서는 상기 요약 알고리즘을 통해 획득된 요약 데이터 내에 레이블 데이터가 포함되는지 여부에 따라 선택적으로 해당 입력 데이터를 이용할 수 있다. 예를 들어, 요약 알고리즘을 통해 적용된 문턱 값이 낮은 경우에도, 상기 요약 데이터 내에 레이블 데이터가 누락되는 경우가 발생할 수 있다. 그리고, 이와 같은 경우에는 상기 특허 문서를 과도하게 요약하지 않았음에도, 상기 레이블 데이터가 누락되는 경우를 의미하며, 이를 가지고는 상기 제2 신경망(420)의 효율적인 학습이 이루어지지 못할 수 있다.Meanwhile, in an embodiment, corresponding input data may be selectively used according to whether label data is included in summary data obtained through the summary algorithm. For example, even when a threshold value applied through a summary algorithm is low, label data may be missing from the summary data. And, in this case, it means that the label data is missing even though the patent document is not excessively summarized, and efficient learning of the second neural network 420 may not be achieved with this.
따라서, 실시 예에서는 상기 요약 알고리즘을 통해 요약된 요약 데이터 내에 상기 레이블 데이터가 포함되는 경우에는, 이를 상기 제2 신경망(420)의 학습을 위한 학습 데이터로 활용한다. 그리고, 상기 요약 알고리즘을 통해 요약된 요약 데이터 내에 상기 레이블 데이터가 포함되지 않는 경우에는, 이를 상기 제2 신경망(420)의 학습을 위한 학습 데이터에서 제외할 수 있다.Therefore, in the embodiment, if the label data is included in the summary data summarized through the summary algorithm, it is used as learning data for learning of the second neural network 420 . And, when the label data is not included in the summary data summarized through the summary algorithm, it may be excluded from the learning data for learning of the second neural network 420 .
한편, 실시 예에서는 text-rank 알고리즘 기반으로 획득한 요약 데이터를 이용하여 학습을 진행하는 경우가, 요약되지 않은 원본 데이터로 학습을 진행한 경우보다 높은 성능을 가지는지에 대해 확인하였다. On the other hand, in the embodiment, it was confirmed whether the case of learning using the summary data acquired based on the text-rank algorithm has higher performance than the case of learning with the original data that is not summarized.
즉, 실시 예에서는 상기 제2 신경망(420)의 학습을 위해, 요약된 요약 데이터와 요약되지 않은 원본 데이터를 각각 적용하여 학습을 진행하고, 이에 따른 학습 결과를 확인해보았다.That is, in the embodiment, for the learning of the second neural network 420, the summarized summary data and the non-summarized original data were respectively applied for learning, and the result of the learning was confirmed.
그리고 실시 예에서는 상기 요약 데이터로 학습을 진행한 모델의 신경망의 경우, 원본 데이터로 훈련한 모델보다 뛰어난 성능을 낼 수 있음을 확인할 수 있었다. 그리고, 이는 요약 알고리즘을 통해 각 문서 내의 문장 개수를 효과적으로 줄이고, 이에 따라 훈련 시간을 효과적으로 줄일 수 있을뿐 아니라 모델의 전체적인 성능 향상까지 이끌어낼 수 있음을 보여준다. 그리고 이를 통해 제2 신경망(420)의 학습을 위해 사용되는 컴퓨팅 파워와 GPU 자원을 효율적으로 줄일 수 있다.In addition, in the embodiment, it was confirmed that the neural network of the model trained with the summary data can produce better performance than the model trained with the original data. And, this shows that the number of sentences in each document can be effectively reduced through the summary algorithm, thereby effectively reducing the training time as well as improving the overall performance of the model. Through this, computing power and GPU resources used for learning of the second neural network 420 can be efficiently reduced.
다음으로, 실시 예에서는 상기 요약 데이터 및 이의 레이블 데이터가 세트로 구성된 제2 입력 데이터를 이용하여 상기 제2 신경망(420)의 학습을 진행한다. Next, in the embodiment, the second neural network 420 is trained using second input data composed of a set of the summary data and its label data.
이를 위해, 실시 예에서는 상기 제2 신경망(420)의 파라미터 값의 초기값으로 상기 제1 신경망(410)에서 획득한 파라미터 값을 적용한다(S230). 바람직하게, 실시 예에서는 상기 제2 신경망(420)의 학습을 위해, 상기 제1 신경망(410)의 최종 업데이트된 파라미터 값을 추출하고, 이를 상기 제2 신경망(420)의 파라미터 값의 초기 값으로 적용한다. 그리고, 실시 예는 상기 제1 신경망(410)의 파라미터 값을 초기 값으로 상기 제2 신경망(420)의 파라미터 값을 적용함으로써, 상기 제2 신경망(420)에서 특허 도메인의 문서를 분석하는데 특화된 학습을 보다 효율적으로 진행할 수 있도록 하며, 이에 따른 학습 정확도나 학습 시간을 획기적으로 줄일 수 있도록 한다.To this end, in the embodiment, the parameter value obtained from the first neural network 410 is applied as the initial value of the parameter value of the second neural network 420 (S230). Preferably, in the embodiment, for learning of the second neural network 420, a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420. apply And, in the embodiment, by applying the parameter values of the second neural network 420 as initial values to the parameter values of the first neural network 410, the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
이후, 실시 예에서는 상기 제1 신경망(410)의 파라미터 값을 제2 신경망(420)의 초기 파라미터 값으로 적용한 상태에서, 상기 제2 입력 데이터(바람직하게 요약된 데이터)를 이용하여 상기 제2 신경망(420)의 학습을 진행한다(S240). Thereafter, in the embodiment, the second neural network uses the second input data (preferably summarized data) in a state in which the parameter values of the first neural network 410 are applied as initial parameter values of the second neural network 420. The learning of (420) proceeds (S240).
이를 위해, 실시 예에서는 문장의 중요도를 정량적으로 측정하는 모델이 활용될 수 있다. 즉, 실시 예에서는 요약 데이터 및 이의 레이블 데이터를 포함하는 데이터 세트에 대해서, 특정 문장이 해당 문서 내에서 핵심 문장으로 활용되는 경우를 '1'로 레이블링하고, 핵심 문장이 아닌 경우를 '0'으로 레이블링한다. 그리고, 실시 예에서는 모델을 통해 각 문장에 대한 레이블 값을 회귀하는 과정을 학습하여 상기 제2 신경망(420)의 학습을 진행할 수 있다. 이를 위해, 상기 제2 신경망(420)은 인코더 구조의 모델을 가질 수 있다. 그리고 상기 제2 신경망(420)은 입력 문장의 인코딩을 통해 해당 문장이 중요한 문장인지(예를 들어, label=1), 아니면 중요한 문장이 아닌지(예를 들어, label=0)를 각각 0과 1 사이로 점수화시킬 수 있다. 이때, 모델의
Figure PCTKR2022019082-appb-img-000019
와 해당 문장의 중요도를 판단하는
Figure PCTKR2022019082-appb-img-000020
는 다음의 식 4와 같은 과정을 통해 산출될 수 있다.
To this end, in an embodiment, a model for quantitatively measuring the importance of a sentence may be utilized. That is, in the embodiment, for a data set including summary data and its label data, the case where a specific sentence is used as a key sentence in the document is labeled as '1', and the case where it is not a key sentence is labeled as '0'. label it Also, in an embodiment, the second neural network 420 may be trained by learning a process of regressing a label value for each sentence through a model. To this end, the second neural network 420 may have a model of an encoder structure. And the second neural network 420 determines whether the corresponding sentence is an important sentence (eg, label = 1) or not (eg, label = 0) through encoding of the input sentence as 0 and 1, respectively. You can score between them. At this time, the model
Figure PCTKR2022019082-appb-img-000019
and determine the importance of the sentence
Figure PCTKR2022019082-appb-img-000020
can be calculated through the same process as in Equation 4 below.
[식 4][Equation 4]
Figure PCTKR2022019082-appb-img-000021
Figure PCTKR2022019082-appb-img-000021
그리고 실시 예에서는 해당 문서 내에서 실제 레이블 데이터와, 학습 과정을 통해 획득된 레이블 데이터의 크로스 엔트로피 손실을 최소화하는 방향으로 상기 제2 신경망(420)의 학습을 진행한다. 이때, 상기 제2 신경망(420)을 이용하여 특정 분석 특허 문서에 대한 핵심 문장을 추출하는 추론 단계에서는, 상기
Figure PCTKR2022019082-appb-img-000022
를 판단 척도로써 활용할 수 있다.
In the embodiment, the second neural network 420 is trained in a direction that minimizes cross entropy loss between actual label data in the corresponding document and label data obtained through the learning process. At this time, in the inference step of extracting key sentences for a specific analysis patent document using the second neural network 420, the
Figure PCTKR2022019082-appb-img-000022
can be used as a judgment criterion.
이를 통해, 실시 예에서는 해당 문장이 특허 문서 내에서 어느 정도의 중요도를 가지는 문장인지를 확인하고, 문서 내의 각 문장들에 대해 중요도를 측정한 후, 가장 높은 중요도를 가진 N개의 문장을 선택하는 방식으로 핵심 문장 추출 학습 및 추론을 진행하도록 한다.Through this, the embodiment checks how important the sentence is in the patent document, measures the importance of each sentence in the document, and selects N sentences with the highest importance. to proceed with key sentence extraction learning and reasoning.
예를 들어, 상기 제2 신경망(420)의 학습 과정에서, 학습을 통해 획득된 출력 데이터와 상기 레이블 데이터를 비교하여, 이에 대한 손실 함수를 계산한다. 그리고, 상기 손실 함수가 기설정된 임계 값보다 큰 경우, 상기 제2 신경망(420)에 대한 재학습을 진행하도록 한다. 이와 다르게, 상기 손실 함수가 기설정된 임계 값보다 작은 경우에는 학습과정을 마치고, 이에 따라 다음 단계로 진입할 수 있다.For example, in the learning process of the second neural network 420, the output data obtained through learning is compared with the label data, and a loss function is calculated. And, when the loss function is greater than a predetermined threshold value, re-learning of the second neural network 420 is performed. Alternatively, when the loss function is smaller than a predetermined threshold value, the learning process may be completed and the next step may be entered accordingly.
단, 상기 제2 신경망(420)은 추출 방식을 통해 학습이 진행된다. 이때, 추출 방식의 학습 시에는 레이블 불균형이 성능 향상에 큰 제약 조건이 될 수 있다. 이는, 특허 문서의 상세한 설명 항목의 특성 항, 전체 문서 내에 포함된 문장의 개수는 매우 많은 반면, 해당 문서에서 추출해야 하는 핵심 문장의 수는 매우 적게 구성되어 있기 때문이라고 할 수 있다. 이는, 핵심 문장이 아닌 일반 문장에 대해서는 뛰어난 분류 성능을 가지지만, 핵심 문장을 추출하는 경우에는 핵심 문장을 분류 정확도가 낮아질 수 있다. 즉, 특허 문서의 특성상, 중요도가 1인 데이터에 비해, 중요도가 0인 데이터가 상대적으로 많기 때문에, 추가적인 전처리 공정 없이 상기 제2 신경망(420)의 학습을 진행하는 경우, 학습 정확도가 낮아질 수 있다.However, the learning of the second neural network 420 proceeds through an extraction method. At this time, when learning the extraction method, label imbalance can be a major constraint on performance improvement. This can be attributed to the fact that the number of sentences included in the characteristic section of the detailed description section of the patent document and the entire document is very large, whereas the number of core sentences to be extracted from the document is very small. This has excellent classification performance for general sentences other than key sentences, but when extracting key sentences, the accuracy of classifying key sentences may decrease. That is, since there are relatively more data with an importance of 0 compared to data with an importance of 1 due to the nature of a patent document, when learning the second neural network 420 without an additional preprocessing process, learning accuracy may be lowered. .
이에 따라, 실시 예에서는 핵심 문장 데이터에 대해 업스케일링을 진행할 수 있다. 이는, 상기 제2 신경망(420)의 학습을 진행하기 위해 사용되는 제1 요약 데이터 및 상기 제1 요약 데이터의 레이블 데이터에서, 상기 제1 요약 데이터 내에 레이블 데이터를 복수하여 추가하는 방법을 진행할 수 있다. 이를 통해, 실시 예에서는 상기 요약 데이터 내에 레이블이 1인 데이터의 빈도수와 레이블이 0인 데이터의 빈도수를 유사하게 맞춰준 상태에서 학습을 진행하도록 하고, 이에 따른 학습 정확도를 향상시킬 수 있다. Accordingly, in an embodiment, upscaling may be performed on core sentence data. This may proceed with a method of adding a plurality of label data to the first summary data in the first summary data used to proceed with the learning of the second neural network 420 and the label data of the first summary data. . Through this, in the embodiment, learning is performed in a state in which the frequency of data having a label of 1 and the frequency of data having a label of 0 are similarly matched in the summary data, and thus learning accuracy can be improved.
이때, 상기 업스케일링을 진행하기 위한 스케일링 값(예를 들어, 복사되는 레이블 데이터의 개수)에 대해서는, 각각의 스케일링 값을 적용한 상태에서 비교 실험을 진행하여, 최적의 스케일링 값을 획득하고, 상기 획득한 스케일링 값을 적용하도록 한다. 이를 통해, 실시 예에서는 각 문장에 대한 문서 내에서의 중요도를 판별하는 정확도를 효율적으로 향상시킬 수 있고, 이에 따른 고성능의 핵심 문장 추출을 위한 모델을 생성할 수 있다.At this time, for the scaling values (eg, the number of copied label data) for the upscaling, a comparison experiment is performed with each scaling value applied to obtain an optimal scaling value, and the acquisition Apply one scaling value. Through this, in the embodiment, the accuracy of determining the importance of each sentence in the document can be efficiently improved, and a model for extracting a high-performance key sentence can be generated accordingly.
그리고 실시 예에서는 제2 신경망(420)의 학습 결과에 따른 파라미터 값을 업데이트시킨다(S250). 예를 들어, 실시 예에서는 상기 제2 신경망(420)의 파라미터 값의 초기값은 상기 제1 신경망(410)의 파라미터 값과 동일한 값이며, 이는 일반 도메인의 문서를 분석하기 위한 모델을 특허 도메인의 문서를 분석하기 위한 모델의 파라미터 값이다.And in the embodiment, the parameter value according to the learning result of the second neural network 420 is updated (S250). For example, in the embodiment, the initial value of the parameter value of the second neural network 420 is the same as the parameter value of the first neural network 410, which is a model for analyzing documents in the general domain. This is the parameter value of the model for analyzing documents.
이에 따라, 실시 예에서는 상기와 같은 제2 신경망(420)의 학습 과정을 통해, 상기 제2 신경망(420)의 파라미터 값을 특허 문서 내에서의 핵심 문장을 추출하는 모델의 파라미터 값으로 업데이트할 수 있다.Accordingly, in the embodiment, through the learning process of the second neural network 420 as described above, the parameter value of the second neural network 420 may be updated to a parameter value of a model for extracting key sentences in a patent document. there is.
다음으로, 제3 신경망(430)을 학습하는 제3 신경망(430)에 대해 설명하면 다음과 같다.Next, the third neural network 430 that learns the third neural network 430 will be described.
상기 제3 신경망(430)의 제3 과정은, 상기 제2 신경망(420)의 제2 과정과 동일 시점에 이루어질 수 있고, 이와 다르게 상기 제2 신경망(420)의 학습을 위한 제2 과정이 종료된 이후에 진행될 수 있다.The third process of the third neural network 430 may be performed at the same time as the second process of the second neural network 420, and otherwise, the second process for learning of the second neural network 420 ends. can proceed after
실시 예에서는 상기 제3 신경망(430)의 학습을 위해, 제3 입력 데이터를 입력할 수 있다(S310). 상기 제3 입력 데이터는 학습 진행을 위한 특허 문서 내에 포함된 핵심 문장과, 상기 핵심 문장에서의 핵심 명사구에 대한 정답 데이터인 레이블 데이터를 포함할 수 있다.In the embodiment, third input data may be input for learning of the third neural network 430 (S310). The third input data may include a key sentence included in a patent document for learning and label data that is correct answer data for a key noun phrase in the key sentence.
예를 들어, 상기 제3 입력 데이터는 특허 문서에 포함된 핵심 문장과, 상기 핵심 문장에 대한 레이블 데이터가 하나의 세트로 이루어지며, 이와 같은 세트가 복수 개 포함된 형태를 가질 수 있다.For example, the third input data may include a core sentence included in a patent document and label data for the core sentence as one set, and a plurality of such sets may be included.
예를 들어, 상기 제3 입력 데이터는, 제1 핵심문장 및 상기 제1 핵심 문장에서의 핵심 명사구를 레이블링한 제1 레이블 데이터를 포함하는 제1 데이터 세트와, 제2 핵심 문장 및 상기 제2 핵심 문장에서의 핵심 명사구를 레이블링한 제2 레이블 데이터를 포함하는 제2 데이터 세트를 포함할 수 있다. 이때, 상기 제3 입력 데이터에서 2개의 데이터 세트를 포함하는 것으로 설명하였으나, 이에 한정되지는 않는다. 예를 들어, 상기 제3 입력 데이터는 상기 제3 신경망(430)의 학습 정확도를 높이기 위해, 3개 이상의 데이터 세트를 포함할 수 있다.For example, the third input data may include a first data set including a first core sentence and first label data for labeling a core noun phrase in the first core sentence, a second core sentence and the second core sentence. A second data set including second label data for labeling key noun phrases in the sentence may be included. At this time, it has been described that the third input data includes two data sets, but is not limited thereto. For example, the third input data may include three or more data sets in order to increase learning accuracy of the third neural network 430 .
다음으로, 실시 예는 상기 제3 입력 데이터를 이용하여 상기 제3 신경망(430)의 학습을 진행할 수 있다.Next, in the embodiment, learning of the third neural network 430 may be performed using the third input data.
이때, 실시 예에서는 상기 제2 신경망(420)의 학습을 위한 제2 과정에 대응하게, 상기 제3 신경망(430)의 파라미터 값의 초기값으로 상기 제1 신경망(410)에서 획득한 파라미터 값을 적용한다(S320). 바람직하게, 실시 예에서는 상기 제3 신경망(430)의 학습을 위해, 상기 제1 신경망(410)의 최종 업데이트된 파라미터 값을 추출하고, 이를 상기 제3 신경망(430)의 파라미터 값의 초기값으로 적용한다. 그리고, 실시 예는 상기 제1 신경망(410)의 파라미터 값을 초기값으로 상기 제3 신경망(430)의 파라미터 값을 적용함으로써, 상기 제3 신경망(430)에서 특허 도메인의 문서를 분석하는데 특화된 학습을 보다 효율적으로 진행할 수 있도록 하며, 이에 따른 학습 정확도나 학습 시간을 획기적으로 줄일 수 있도록 한다.At this time, in the embodiment, the parameter value obtained from the first neural network 410 is used as the initial value of the parameter value of the third neural network 430 to correspond to the second process for learning the second neural network 420. Apply (S320). Preferably, in the embodiment, for learning of the third neural network 430, a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the third neural network 430. apply And, in the embodiment, by applying the parameter values of the third neural network 430 as initial values to the parameter values of the first neural network 410, the third neural network 430 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
한편, 상기 제3 신경망(430)은 상기 제1 신경망(410)의 파라미터 값을 초기값으로 하여, 상기 제3 입력 데이터를 이용한 학습을 진행할 수 있다(S330).Meanwhile, the third neural network 430 may proceed with learning using the third input data by setting the parameter value of the first neural network 410 as an initial value (S330).
이때, 상기 제3 신경망(430)의 학습은, 상기 제1 신경망(410)의 학습에 사용된 식 2와 유사한 방법을 통해 핵심 명사구를 생성하는 방식으로, 상기 제3 입력 데이터에 대해 다음의 식 5와 같은 트레이닝 오브젝티브를 통해 학습을 진행할 수 있다.At this time, the learning of the third neural network 430 is a method of generating key noun phrases through a method similar to Equation 2 used for learning of the first neural network 410, and the following equation for the third input data Learning can proceed through a training objective such as 5.
[식 5][Equation 5]
Figure PCTKR2022019082-appb-img-000023
Figure PCTKR2022019082-appb-img-000023
이는 핵심 명사구 추출을 위해 사용되는 제3 입력 데이터 내의 시퀀스들과 핵심 명사구를 각각의 하나의
Figure PCTKR2022019082-appb-img-000024
로 전처리하고, 이를 sequence-to-sequence 기반으로 학습시키는 방법을 의미한다.
This separates the sequences and key noun phrases in the third input data used for extracting the key noun phrase into one
Figure PCTKR2022019082-appb-img-000024
It means a method of preprocessing with , and learning it based on sequence-to-sequence.
예를 들어, 상기 제3 신경망(430)의 학습 과정에서, 학습을 통해 획득된 출력 데이터와 상기 레이블 데이터를 비교하여, 이에 대한 손실 함수를 계산한다. 그리고, 상기 손실 함수가 기설정된 임계 값보다 큰 경우, 상기 제3 신경망(430)에 대한 재학습을 진행하도록 한다. 이와 다르게, 상기 손실 함수가 기설정된 임계 값보다 작은 경우에는 학습과정을 마치고, 이에 따라 다음 단계로 진입할 수 있다.For example, in the learning process of the third neural network 430, a loss function is calculated by comparing output data acquired through learning with the label data. In addition, when the loss function is greater than a predetermined threshold value, re-learning of the third neural network 430 is performed. Alternatively, when the loss function is smaller than a predetermined threshold value, the learning process may be completed and the next step may be entered accordingly.
이때, 실시 예에서는 제3 신경망(430)에 대해, 문장 추출 방식이 아닌 생성 방식을 적용한다. 예를 들어, 실시 예에서는 상기 제3 입력 데이터에 포함된 핵심 문장 내의 일부 단어가 그대로 이의 레이블 데이터인 핵심 명사구에 포함되는 것이 아니라, 상기 핵심 명사구는 상기 핵심 문장 내에 포함되지 않은 새로운 단어를 포함하도록 한다. 이를 통해, 실시 예에서는 보다 유연하게 해당 핵심 문장에서의 핵심 명사구를 생성할 수 있다. 이는, 핵심 명사구를 문장 내에서 찾는 것이 아닌, 전체 문장의 내용을 바탕으로 이를 포괄할 수 있도록 새롭게 생성하도록 한다. 이를 통해 실시 예에서는 기준 핵심 명사구와 의미적으로 유사한 방향으로 핵심 명사구를 생성하도록 하며, 이를 통해 추출 방식에 비해 에러율이 낮은 장점을 가질 수 있다. 이와 같이 실시 예에서는 핵심 문장 내에 포함된 일부 단어를 핵심 명사구로 추출하는 추출 방식 대비, 의미적으로 더욱 풍부하면서 전체적인 문서 내용을 함축적으로 표현한 핵심 명사구를 생성할 수 있으며, 이에 따른 사용자 만족도를 향상시킬 수 있다. In this case, in the embodiment, a generation method rather than a sentence extraction method is applied to the third neural network 430 . For example, in the embodiment, some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do. Through this, in an embodiment, a core noun phrase in a corresponding core sentence can be generated more flexibly. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence. Through this, in the embodiment, the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method. In this way, in the embodiment, compared to the extraction method of extracting some words included in a key sentence as a key noun phrase, it is possible to generate a key noun phrase that is semantically richer and implicitly expresses the entire document content, thereby improving user satisfaction. can
이를 통해, 실시 예에서는 상기 제3 신경망(430)에 대해, 핵심 명사구가 핵심 문장 내에 포함된 일부 단어가 아닌 상기 핵심 문장의 전체 맥락을 고려한 단어를 토대로 생성되도록 할 수 있다. 예를 들어, 'breakage of the latching claw'의 명사구를 'brokenage of the latching claw' 또는 'cutage of the latching claw'과 같은 명사구로 생성할 수 있으며, 'secure the viscosity of the slurry'의 명사구를 'enhance the viscosity of the slurry'로 생성할 수 있다.Through this, in the embodiment, for the third neural network 430, the key noun phrase can be generated based on words considering the entire context of the key sentence, rather than some words included in the key sentence. For example, a noun phrase such as 'breakage of the latching claw' can be generated as a noun phrase such as 'brokenage of the latching claw' or 'cutage of the latching claw', and a noun phrase such as 'secure the viscosity of the slurry' can be generated as 'brokenage of the latching claw' or 'cutage of the latching claw'. It can be created with 'enhance the viscosity of the slurry'.
그리고 실시 예에서는 제3 신경망(430)의 학습 결과에 따른 파라미터 값을 업데이트시킨다(S340). 예를 들어, 실시 예에서는 상기 제3 신경망(430)의 파라미터 값의 초기값은 상기 제1 신경망(410)의 파라미터 값과 동일한 값이며, 이는 일반 도메인의 문서를 분석하기 위한 모델을 특허 도메인의 문서를 분석하기 위한 모델의 파라미터 값이다.And in the embodiment, the parameter value according to the learning result of the third neural network 430 is updated (S340). For example, in the embodiment, the initial value of the parameter value of the third neural network 430 is the same as the parameter value of the first neural network 410, which is a model for analyzing documents in the general domain. This is the parameter value of the model for analyzing documents.
이에 따라, 실시 예에서는 상기와 같은 제3 신경망(430)의 학습 과정을 통해, 상기 제3 신경망(430)의 파라미터 값을 핵심 문장에서 핵심 명사구를 추출하는 모델의 파라미터 값으로 업데이트할 수 있다.Accordingly, in an embodiment, through the learning process of the third neural network 430 as described above, the parameter value of the third neural network 430 may be updated to a parameter value of a model for extracting a key noun phrase from a key sentence.
상기와 같은 본원의 신경망의 학습 과정을 정리하면 다음과 같다.The learning process of the neural network of the present application as described above is summarized as follows.
실시 예에서는 일반 도메인의 문서에서 학습된 제1 신경망에 대해, 이를 특허 도메인의 문서에서 특화된 모델로 업데이트한다. 이는, 상기 특허 도메인의 문서에는 일반 도메인의 문서에 포함되지 않은 전문적인 용어 등이 포함되어 있으며, 일반 도메인의 문서에서 학습된 제1 신경망을 이용하여 특허 문서를 분석하는 경우, 이에 대한 학습 정확도나 추론 정확도가 낮아질 수 있다. 이에 따라, 실시 예에서는 특허 도메인의 문서를 가지고, 이에 맞게 상기 신경망의 파라미터 값을 업데이트한다. 이를 통해 실시 예에서는 특허 문서의 학습 정확도 및 이의 추론 정확도를 높일 수 있으며, 이에 따른 사용자 만족도를 향상시킬 수 있다.In an embodiment, the first neural network learned from documents in the general domain is updated to a model specialized in documents in the patent domain. This means that the document of the patent domain includes technical terms that are not included in the document of the general domain, and when analyzing the patent document using the first neural network learned from the document of the general domain, the learning accuracy or Inference accuracy may be lowered. Accordingly, in the embodiment, the parameter value of the neural network is updated according to the document of the patent domain. Through this, in the embodiment, the learning accuracy of the patent document and the inference accuracy thereof may be increased, and thus user satisfaction may be improved.
또한, 실시 예에서는 특허 문서 내에서 핵심 문장을 추출하는데 사용되는 제2 신경망의 학습을 진행한다. 이때 실시 예에서는 제2 신경망(420)의 학습을 위하여, 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위를 가지고 학습을 진행하지 않고, 상기 특허 문서를 요약한 요약 데이터를 이용하여 상기 제2 신경망(420)을 학습한다. 실시 예에서는 실험을 통해 상기 요약 데이터를 가지고 상기 제2 신경망(420)을 학습하는 경우, 상기 특허 문서 내에 포함된 문장의 개수를 효과적으로 감소시킴으로써, 학습 효율을 높일 수 있다. 나아가, 실시 예에서는 상기 제2 입력 데이터에 포함된 특허 문서의 전체 범위의 내용 중 제2 신경망(420)의 학습에 악영향을 주는 내용을 일차적으로 필터링함으로써, 상기 제2 신경망(420)의 추가적인 성능 향상을 도모할 수 있도록 한다.In addition, in the embodiment, learning of the second neural network used to extract key sentences from the patent document is performed. At this time, in the embodiment, for the learning of the second neural network 420, the second input data does not proceed with learning with the entire range of the patent document included in the second input data, and the second neural network 420 uses summary data summarizing the patent document. The neural network 420 is trained. In an embodiment, when learning the second neural network 420 with the summary data through an experiment, the number of sentences included in the patent document is effectively reduced, thereby increasing learning efficiency. Furthermore, in the embodiment, additional performance of the second neural network 420 is obtained by primarily filtering out content that adversely affects the learning of the second neural network 420 from among the entire range of content of the patent document included in the second input data. to enable improvement.
그리고 실시 예에서는 상기와 같은 문장 요약을 통해 문서 내에서 불필요한 데이터를 효과적으로 줄일 수 있으며, 중요 문장이 최대한 포함되도록 최소한의 비율을 설정한 후, 이후 제2 신경망(420)의 학습을 진행함에 따라 상기 제2 신경망(420)의 학습 시간을 효율적으로 감소시킬 수 있다. And, in the embodiment, unnecessary data in a document can be effectively reduced through the sentence summary as described above, and after setting a minimum ratio so that important sentences are included as much as possible, as the second neural network 420 learns, The learning time of the second neural network 420 can be effectively reduced.
또한, 실시 예에서는 상기 제2 신경망(420)의 파라미터 값의 초기값으로 상기 제1 신경망(410)에서 획득한 파라미터 값을 적용한다. 바람직하게, 실시 예에서는 상기 제2 신경망(420)의 학습을 위해, 상기 제1 신경망(410)의 최종 업데이트된 파라미터 값을 추출하고, 이를 상기 제2 신경망(420)의 파라미터 값의 초기 값으로 적용한다. 그리고, 실시 예는 상기 제1 신경망(410)의 파라미터 값을 초기 값으로 상기 제2 신경망(420)의 파라미터 값을 적용함으로써, 상기 제2 신경망(420)에서 특허 도메인의 문서를 분석하는데 특화된 학습을 보다 효율적으로 진행할 수 있도록 하며, 이에 따른 학습 정확도나 학습 시간을 획기적으로 줄일 수 있도록 한다.In addition, in the embodiment, the parameter value obtained from the first neural network 410 is applied as an initial value of the parameter value of the second neural network 420 . Preferably, in the embodiment, for learning of the second neural network 420, a final updated parameter value of the first neural network 410 is extracted, and this is used as an initial value of the parameter value of the second neural network 420. apply And, in the embodiment, by applying the parameter values of the second neural network 420 as initial values to the parameter values of the first neural network 410, the second neural network 420 is specialized in analyzing documents in the patent domain. can proceed more efficiently, and the resulting learning accuracy or learning time can be drastically reduced.
또한, 실시 예에서는 특허 문서의 핵심 문장에서 핵심 명사구를 추출하는데 사용되는 제3 신경망의 학습을 진행한다 .In addition, in the embodiment, learning of the third neural network used to extract key noun phrases from key sentences of patent documents is performed.
이때, 실시 예에서는 제3 신경망(430)에 대해, 문장 추출 방식이 아닌 생성 방식을 적용한다. 예를 들어, 실시 예에서는 상기 제3 입력 데이터에 포함된 핵심 문장 내의 일부 단어가 그대로 이의 레이블 데이터인 핵심 명사구에 포함되는 것이 아니라, 상기 핵심 명사구는 상기 핵심 문장 내에 포함되지 않은 새로운 단어를 포함하도록 한다. 이를 통해, 실시 예에서는 보다 유연하게 해당 핵심 문장에서의 핵심 명사구를 생섷알 수 있다. 이는, 핵심 명사구를 문장 내에서 찾는 것이 아닌, 전체 문장의 내용을 바탕으로 이를 포괄할 수 있도록 새롭게 생성하도록 한다. 이를 통해 실시 예에서는 기준 핵심 명사구와 의미적으로 유사한 방향으로 핵심 명사구를 생성하도록 하며, 이를 통해 추출 방식에 비해 에러율이 낮은 장점을 가질 수 있다. 이와 같이 실시 예에서는 핵심 문장 내에 포함된 일부 단어를 핵심 명사구로 추출하는 추출 방식 대비, 의미적으로 더욱 풍부하면서 전체적인 문서 내용을 함축적으로 표현한 핵심 명사구를 생성할 수 있으며, 이에 따른 사용자 만족도를 향상시킬 수 있다. In this case, in the embodiment, a generation method rather than a sentence extraction method is applied to the third neural network 430 . For example, in the embodiment, some words in the core sentence included in the third input data are not included in the core noun phrase as its label data, but the core noun phrase includes new words not included in the core sentence. do. Through this, in the embodiment, it is possible to more flexibly recognize the key noun phrase in the core sentence. This allows key noun phrases to be newly created based on the content of the entire sentence rather than finding them within the sentence. Through this, in the embodiment, the key noun phrase is generated in a direction semantically similar to the standard key noun phrase, and through this, the error rate can be lowered compared to the extraction method. In this way, in the embodiment, compared to the extraction method of extracting some words included in a key sentence as a key noun phrase, it is possible to generate a key noun phrase that is semantically richer and implicitly expresses the entire document content, thereby improving user satisfaction. can
한편, 실시 예에서는 상기 학습 과정을 통해 파라미터 값이 업데이트된 제2 신경망(420) 및 제3 신경망(430)을 이용하여, 추론 과정을 진행할 수 있다. 상기 추론 과정은 학습이 완료된 신경망을 이용하여, 사용자로부터 요청된 특정 분석 대상에 대한 분석을 진행하고, 이에 대한 추론을 진행하는 과정을 의미할 수 있다.Meanwhile, in an embodiment, an inference process may be performed using the second neural network 420 and the third neural network 430 whose parameter values are updated through the learning process. The inference process may refer to a process of performing an analysis on a specific analysis target requested by a user using a neural network for which learning has been completed, and proceeding with inference.
이때, 실시 예에서는 상기 추론을 진행하기 위해, 상기 학습이 완료된 제2 신경망(420) 및 제3 신경망(430)을 이용할 수 있으나, 이에 한정되지는 않는다. 예를 들어, 상기 제2 신경망(420) 및 제3 신경망(430)은 학습용으로 계속적인 학습을 진행하며, 이에 대응하는 파라미터 값으로 업데이트를 진행하는 동작을 수행할 수 있다. 그리고, 상기 추론 과정에서는 상기 제2 신경망(420) 및 제3 신경망(430)과 같은 학습 신경망이 아닌 별도의 신경망을 이용하여 진행될 수 있다. 이때, 학습 신경망과 추론 신경망이 별개로 구성된 경우, 상기 추론 신경망은 상기 학습 신경망으로부터 최종 업데이트된 파라미터 값을 제공받고, 이를 적용하여 분석 대상에 대한 추론을 진행할 수 있다. 다만, 상기 학습이 완료된 신경망에 대해서는, 실질적으로 추가적인 학습이 불필요하거나, 특정 상황에서만 간단한 추가적인 학습을 진행하면 된다. 이에 따라, 실시 예에서는 상기와 같이 학습 신경망과 추론 신경망을 구분하지 않고, 공용으로 사용한다.At this time, in the embodiment, in order to proceed with the inference, the second neural network 420 and the third neural network 430 for which the learning has been completed may be used, but are not limited thereto. For example, the second neural network 420 and the third neural network 430 may continuously perform learning for learning and perform an operation of updating a parameter value corresponding to this. In addition, the inference process may be performed using a separate neural network other than the learning neural network such as the second neural network 420 and the third neural network 430 . In this case, when the learning neural network and the inference neural network are configured separately, the inference neural network may receive a final updated parameter value from the learning neural network and apply it to perform inference on the analysis target. However, for the neural network for which the learning has been completed, additional learning is practically unnecessary, or simple additional learning may be performed only in specific situations. Accordingly, in the embodiment, the learning neural network and the inference neural network are not distinguished and used in common as described above.
이에 따라, 실시 예에서는 추론 과정에서 상기 제2 신경망(420)과 상기 제3 신경망(430)을 이용하여 추론을 진행할 수 있다.Accordingly, in an embodiment, inference may be performed using the second neural network 420 and the third neural network 430 in an inference process.
도 7은 실시 예에 따른 추론 방법을 단계별로 설명하기 위한 흐름도이다.7 is a flowchart for explaining step by step an inference method according to an embodiment.
도 7을 참조하면, 실시 예에서는 분석하고자 하는 대상에 대한 데이터를 입력받는다(S310). 이때, 상기 데이터의 입력은 다양한 방법으로 이루어질 수 있다. 예를 들어, 전자 디바이스(100)에서 분석하고자 하는 정보(예를 들어, 특허 문서의 문헌 번호)가 입력되면, 인공지능 장치(300)는 상기 데이터 베이스(200)로부터 상기 정보에 대응하는 특허 문서를 검색하고, 이를 제공받을 수 있다. 이와 다르게, 상기 전자 디바이스(100)에서 상기 인공지능 장치(300)로 상기 분석하고자 하는 대상이 되는 특허 문서가 직접 입력될 수 있다.Referring to FIG. 7 , in the embodiment, data for an object to be analyzed is input (S310). At this time, the input of the data may be performed in various ways. For example, when information to be analyzed (eg, a document number of a patent document) is input in the electronic device 100, the artificial intelligence device 300 receives a patent document corresponding to the information from the database 200. You can search for and receive it. Alternatively, the patent document to be analyzed may be directly input from the electronic device 100 to the artificial intelligence device 300 .
이와 다르게, 상기 전자 디바이스(100)에서 분석하고자 하는 정보가 상기 데이터 베이스(200)에 입력될 수 있다. 그리고, 상기 데이터 베이스(200)는 상기 입력된 정보에 대응하는 특허 문서를 상기 인공지능 장치(300)에 입력 데이터로 제공할 수 있다.Alternatively, information to be analyzed by the electronic device 100 may be input to the database 200 . And, the database 200 may provide the patent document corresponding to the input information to the artificial intelligence device 300 as input data.
다음으로, 실시 예에서는 요약 알고리즘을 사용하여 상기 입력 데이터에 대한 요약 데이터를 획득한다(S320). 예를 들어, 실시 예에서는 상기 학습 과정에서 이용한 요약 알고리즘을 사용하여, 상기 입력 데이터의 요약 데이터를 획득할 수 있다.Next, in the embodiment, summary data for the input data is obtained using a summary algorithm (S320). For example, in an embodiment, summary data of the input data may be obtained using a summary algorithm used in the learning process.
다음으로, 실시 예에서는 상기 학습이 완료된 제2 신경망(420)을 이용하여, 상기 요약 데이터로부터 핵심 문장을 추출할 수 있다(S330). 그리고 상기 제2 신경망(420)은 상기 추출한 핵심 문장을 제3 신경망(430)의 입력 데이터로 출력할 수 있다.Next, in the embodiment, key sentences may be extracted from the summary data using the second neural network 420 for which the learning is completed (S330). The second neural network 420 may output the extracted core sentence as input data of the third neural network 430 .
이후, 실시 예에서는 상기 학습이 완료된 제3 신경망(430)을 이용하여, 상기 핵심 문장으로부터 핵심 명사구를 생성할 수 있다(S340).Thereafter, in the embodiment, a key noun phrase may be generated from the key sentence using the third neural network 430 for which the learning has been completed (S340).
상기 동작들은 동시에 수행될 수 있으며, 상기 수행되는 순서에 구속되지 않는다. 전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 단말기의 프로세서를 포함할 수도 있다.The operations may be performed concurrently and are not bound by the order in which they are performed. The present disclosure described above can be implemented as computer readable codes in a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is Also, the computer may include a processor of a terminal.
이상에서 실시 예들에 설명된 특징, 구조, 효과 등은 적어도 하나의 실시 예에 포함되며, 반드시 하나의 실시 예에만 한정되는 것은 아니다. 나아가, 각 실시 예에서 예시된 특징, 구조, 효과 등은 실시 예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용은 실시 예의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the embodiments above are included in at least one embodiment, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified with respect to other embodiments by a person having ordinary knowledge in the field to which the embodiments belong. Therefore, the contents related to these combinations and variations should be interpreted as being included in the scope of the embodiments.
이상에서 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 실시 예를 한정하는 것이 아니며, 실시 예가 속하는 분야의 통상의 지식을 가진 자라면 본 실시 예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 설정하는 실시 예의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the above has been described centering on the embodiment, this is only an example and is not intended to limit the embodiment, and those skilled in the art to which the embodiment belongs may find various things not exemplified above to the extent that they do not deviate from the essential characteristics of the present embodiment. It will be appreciated that variations and applications of branches are possible. For example, each component specifically shown in the embodiment can be modified and implemented. And differences related to these modifications and applications should be interpreted as being included in the scope of the embodiments set forth in the appended claims.

Claims (10)

  1. 제1 입력 데이터를 기반으로 제1 신경망을 학습시키는 단계;training a first neural network based on the first input data;
    상기 제1 신경망의 학습 결과에 따른 상기 제1 신경망의 파라미터 값을 적용하여, 제2 입력 데이터를 기반으로 제2 신경망을 학습시키는 단계; 및learning a second neural network based on second input data by applying a parameter value of the first neural network according to a learning result of the first neural network; and
    상기 제1 신경망의 파라미터 값을 적용하여, 제3 입력 데이터를 기반으로 제3 신경망을 학습시키는 단계를 포함하고,Learning a third neural network based on third input data by applying parameter values of the first neural network;
    상기 제1 입력 데이터는, 특허 도메인의 문서를 포함하고,The first input data includes a document of a patent domain,
    상기 제2 입력 데이터는, 복수의 특허 문서 및 상기 복수의 특허 문서의 각각에 대응하는 핵심 문장을 레이블링한 제1 레이블 데이터를 포함하며,The second input data includes first label data for labeling a plurality of patent documents and key sentences corresponding to each of the plurality of patent documents,
    상기 제3 입력 데이터는, 복수의 핵심 문장 및 상기 복수의 핵심 문장에 각각 대응되는 핵심 명사구를 레이블링한 제2 레이블 데이터를 포함하는,The third input data includes second label data labeling a plurality of core sentences and a core noun phrase respectively corresponding to the plurality of core sentences,
    신경망의 학습 방법.How neural networks learn.
  2. 제1항에 있어서,According to claim 1,
    상기 제1 신경망을 학습시키는 단계는,Learning the first neural network,
    상기 특허 도메인의 문서를 이용하여 복수의 말뭉치를 획득하는 단계를 포함하고,Acquiring a plurality of corpus using documents of the patent domain,
    상기 복수의 말뭉치를 이용하여 상기 제1 신경망을 학습시키는 단계를 포함하는,Including the step of learning the first neural network using the plurality of corpora,
    신경망의 학습 방법.How neural networks learn.
  3. 제1항에 있어서,According to claim 1,
    상기 제2 신경망을 학습시키는 단계는,Learning the second neural network,
    상기 제1 신경망의 파라미터 값을 상기 제2 신경망의 파라미터 값의 초기 값으로 적용하는 단계와,applying parameter values of the first neural network as initial values of parameter values of the second neural network;
    상기 제2 입력 데이터를 토대로 학습을 진행하여, 상기 제2 신경망의 파라미터 값을 업데이트하는 단계를 포함하는,Including the step of updating the parameter value of the second neural network by performing learning based on the second input data,
    신경망의 학습 방법.How neural networks learn.
  4. 제1항에 있어서,According to claim 1,
    상기 제2 신경망을 학습시키는 단계는,Learning the second neural network,
    상기 제2 입력 데이터를 업스케일링하는 단계를 포함하고,Upscaling the second input data;
    상기 업스케일링하는 단계는,In the upscaling step,
    상기 복수의 특허 문서의 각각에 대응하는 핵심 문장을 레이블링한 제1 레이블 데이터를 복사하는 단계; 및copying first label data labeling key sentences corresponding to each of the plurality of patent documents; and
    상기 복사한 레이블 데이터를 각각의 특허 문서의 제1 레이블 데이터로 추가하는 단계를 포함하는,Adding the copied label data as first label data of each patent document,
    신경망의 학습 방법.How neural networks learn.
  5. 제1항에 있어서,According to claim 1,
    상기 제3 신경망을 학습시키는 단계는,Learning the third neural network,
    상기 제1 신경망의 파라미터 값을 상기 제3 신경망의 파라미터 값의 초기 값으로 적용하는 단계와,applying parameter values of the first neural network as initial values of parameter values of the third neural network;
    상기 제3 입력 데이터를 토대로 학습을 진행하여, 상기 제3 신경망의 파라미터 값을 업데이트하는 단계를 포함하는,Including the step of performing learning based on the third input data and updating parameter values of the third neural network.
    신경망의 학습 방법.How neural networks learn.
  6. 제1항에 있어서,According to claim 1,
    상기 제2 신경망을 학습시키는 단계는,Learning the second neural network,
    상기 제2 입력 데이터에 포함된 복수의 특허 문서를 각각 요약한 요약 데이터를 획득하는 단계를 포함하는,Acquiring summary data summarizing each of a plurality of patent documents included in the second input data,
    신경망의 학습 방법.How neural networks learn.
  7. 제1항에 있어서,According to claim 1,
    상기 제1 신경망을 학습시키는 단계는,Learning the first neural network,
    일반 도메인의 문서에서 학습된 신경망의 파라미터 값을 상기 특허 도메인의 문서에 대응하는 파라미터 값으로 변경하는 단계를 포함하는,Changing a parameter value of a neural network learned in a document of a general domain to a parameter value corresponding to a document of the patent domain,
    신경망의 학습 방법.How neural networks learn.
  8. 제1항에 있어서,According to claim 1,
    상기 제1 내지 제3 신경망은 DNN(Deep learning Neural Network)를 포함하는,The first to third neural networks include a deep learning neural network (DNN),
    신경망의 학습 방법.How neural networks learn.
  9. 제8항에 있어서,According to claim 8,
    상기 제1 내지 제3 신경망의 모델 구조는 서로 동일한,The model structures of the first to third neural networks are the same as each other,
    신경망의 학습 방법.How neural networks learn.
  10. 제9항에 있어서,According to claim 9,
    상기 제1 내지 제3 신경망의 모델 구조는 T5 모델을 포함하는,The model structure of the first to third neural networks includes a T5 model,
    신경망의 학습 방법.How neural networks learn.
PCT/KR2022/019082 2021-11-30 2022-11-29 Neural network training method WO2023101364A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0169220 2021-11-30
KR1020210169220A KR20230081294A (en) 2021-11-30 2021-11-30 Learning method of neural network, artificial intelligence device and computer program stored in computer-readable medium

Publications (1)

Publication Number Publication Date
WO2023101364A1 true WO2023101364A1 (en) 2023-06-08

Family

ID=86612663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/019082 WO2023101364A1 (en) 2021-11-30 2022-11-29 Neural network training method

Country Status (2)

Country Link
KR (1) KR20230081294A (en)
WO (1) WO2023101364A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180097120A (en) * 2017-02-22 2018-08-30 빈닷컴 주식회사 Method for searching electronic document and apparatus thereof
US10713443B1 (en) * 2017-06-05 2020-07-14 Specifio, Inc. Machine learning model for computer-generated patent applications to provide support for individual claim features in a specification
KR20200106108A (en) * 2019-02-25 2020-09-11 이진원 System and method for patent information word embedding based on deep learning
KR102225822B1 (en) * 2018-11-26 2021-03-10 국민대학교산학협력단 Apparatus and method for generating learning data for artificial intelligence performance
KR20210125588A (en) * 2019-03-29 2021-10-18 주식회사 워트인텔리전스 Method, apparatus and system for automatic classification of user-customized patent literature based on machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180097120A (en) * 2017-02-22 2018-08-30 빈닷컴 주식회사 Method for searching electronic document and apparatus thereof
US10713443B1 (en) * 2017-06-05 2020-07-14 Specifio, Inc. Machine learning model for computer-generated patent applications to provide support for individual claim features in a specification
KR102225822B1 (en) * 2018-11-26 2021-03-10 국민대학교산학협력단 Apparatus and method for generating learning data for artificial intelligence performance
KR20200106108A (en) * 2019-02-25 2020-09-11 이진원 System and method for patent information word embedding based on deep learning
KR20210125588A (en) * 2019-03-29 2021-10-18 주식회사 워트인텔리전스 Method, apparatus and system for automatic classification of user-customized patent literature based on machine learning

Also Published As

Publication number Publication date
KR20230081294A (en) 2023-06-07

Similar Documents

Publication Publication Date Title
CN109992783B (en) Chinese word vector modeling method
AU2020103654A4 (en) Method for intelligent construction of place name annotated corpus based on interactive and iterative learning
WO2020080834A1 (en) Electronic device and method for controlling the electronic device
US20210216716A1 (en) Method, electronic device, and storage medium for entity linking
CN110633577B (en) Text desensitization method and device
WO2021157897A1 (en) A system and method for efficient multi-relational entity understanding and retrieval
CN116010713A (en) Innovative entrepreneur platform service data processing method and system based on cloud computing
US11715008B2 (en) Neural network training utilizing loss functions reflecting neighbor token dependencies
WO2021040354A1 (en) Data processing method using neural network
EP3857469A1 (en) Multi-task based lifelong learning
CN110019795B (en) Sensitive word detection model training method and system
WO2022005090A1 (en) Method and apparatus for providing diagnosis result
Kerg et al. Untangling tradeoffs between recurrence and self-attention in artificial neural networks
US11669687B1 (en) Systems and methods for natural language processing (NLP) model robustness determination
Ki et al. KoTAB: Korean template-based arithmetic solver with BERT
CN110795934B (en) Sentence analysis model training method and device and sentence analysis method and device
Wang et al. Explainable apt attribution for malware using nlp techniques
WO2022191368A1 (en) Data processing method and device for training neural network that categorizes intent in natural language
CN110867225A (en) Character-level clinical concept extraction named entity recognition method and system
US20140303962A1 (en) Ordering a Lexicon Network for Automatic Disambiguation
WO2023101364A1 (en) Neural network training method
Xiong et al. A multi-gate encoder for joint entity and relation extraction
CN112836062A (en) Relation extraction method of text corpus
Esmail Zadeh Nojoo Kambar et al. Chemical-gene relation extraction with graph neural networks and bert encoder
WO2022060066A1 (en) Electronic device, content search system, and content search method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22901722

Country of ref document: EP

Kind code of ref document: A1