KR102443629B1 - Solution and system for news positive tendency analysis using deep learning nlp model - Google Patents

Solution and system for news positive tendency analysis using deep learning nlp model Download PDF

Info

Publication number
KR102443629B1
KR102443629B1 KR1020200067621A KR20200067621A KR102443629B1 KR 102443629 B1 KR102443629 B1 KR 102443629B1 KR 1020200067621 A KR1020200067621 A KR 1020200067621A KR 20200067621 A KR20200067621 A KR 20200067621A KR 102443629 B1 KR102443629 B1 KR 102443629B1
Authority
KR
South Korea
Prior art keywords
score
news
sentence
server
news article
Prior art date
Application number
KR1020200067621A
Other languages
Korean (ko)
Other versions
KR20210150789A (en
Inventor
황규종
김도영
김준휘
김지원
전창환
정은철
Original Assignee
주식회사 웨이커
황규종
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 웨이커, 황규종 filed Critical 주식회사 웨이커
Priority to KR1020200067621A priority Critical patent/KR102443629B1/en
Priority to PCT/KR2021/006968 priority patent/WO2021246812A1/en
Publication of KR20210150789A publication Critical patent/KR20210150789A/en
Application granted granted Critical
Publication of KR102443629B1 publication Critical patent/KR102443629B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 개시는 뉴스 기사를 분석하는 뉴스 기사 분석 시스템 및 상기 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법에 관한 것이다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법은, 상기 뉴스 기사 분석 시스템 내의 전자 장치가 상기 전자 장치에 연결된 적어도 하나의 외부 디바이스로부터 뉴스 기사를 획득하는 단계; 상기 전자 장치가 상기 전자 장치와 연결된 서버로 상기 획득된 뉴스 기사를 전송하는 단계; 상기 서버가 상기 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 단계; 및 상기 서버가 제1 뉴스 점수 및 제2 뉴스 점수를 상기 전자 장치로 전송하는 단계; 를 포함할 수 있다.The present disclosure relates to a news article analysis system for analyzing a news article, and a method for the news article analysis system to analyze a news article. According to an embodiment, a method for a news article analysis system to analyze a news article may include: acquiring, by an electronic device in the news article analysis system, a news article from at least one external device connected to the electronic device; transmitting, by the electronic device, the obtained news article to a server connected to the electronic device; identifying, by the server, a sentence including a pre-stored financial word or a person word in the news article; obtaining, by the server, a first news score from the neural network model by inputting, by the server, some sentences of the identified sentences into a neural network model that is trained to output a score for the news article; obtaining, by the server, a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model; and transmitting, by the server, the first news score and the second news score to the electronic device. may include.

Figure R1020200067621
Figure R1020200067621

Description

딥러닝 NLP 모델을 활용한 뉴스 긍정도 분석 솔루션 및 시스템 {SOLUTION AND SYSTEM FOR NEWS POSITIVE TENDENCY ANALYSIS USING DEEP LEARNING NLP MODEL}News positive analysis solution and system using deep learning NLP model {SOLUTION AND SYSTEM FOR NEWS POSITIVE TENDENCY ANALYSIS USING DEEP LEARNING NLP MODEL}

본 개시는 뉴스 기사를 분석하는 시스템 및 방법에 관한 것이다. 보다 상세하게는 금융 분야의 뉴스 기사를 분석하는 방법 및 장치에 관한 것이다.The present disclosure relates to systems and methods for analyzing news articles. More particularly, it relates to a method and apparatus for analyzing news articles in the financial field.

인터넷 기술이 발달함에 따라 신문, 방송, 잡지와 같은 언론 매체들은 오프라인 상의 인쇄 매체가 아닌, 인터넷을 통하여 뉴스 기사들을 전달하고 있다. 또한, 인터넷을 통하여 국내의 정치, 경제, 사회 문화 전반을 비롯한 뉴스들뿐만 아니라, 세계 각국의 정치, 경제, 금융 분야의 뉴스들이 기사화되고 있다.With the development of Internet technology, media media such as newspapers, broadcasters, and magazines are delivering news articles through the Internet rather than offline print media. In addition, through the Internet, not only domestic news including politics, economy, society and culture in general, but also news in the political, economic, and financial fields of countries around the world are being published.

특히, 갈수록 성장하는 세계 경제의 발달과 함께 금융 분야의 뉴스 기사들에 대한 정보 역시 인터넷 상에 넘쳐나고 있다. 이러한 금융 분야의 뉴스 기사들은, 해당 금융 이슈들에 대한 긍정적인 측면과 부정적인 측면을 모두 다룬다.In particular, with the development of the growing global economy, information on news articles in the financial field is also overflowing on the Internet. These financial news articles cover both the positive and negative aspects of these financial issues.

인터넷이 발달함에 따라 생산되는 대량의 뉴스 기사들을 처리하기 위한, 데이터 처리 기술들이 개발되고 있으나, 일반적인 뉴스 데이터 처리 기술들은 대량의 뉴스 기사들을 객관적으로 평가하고, 분석하는데 여전히 많은 한계를 가지고 있다.With the development of the Internet, data processing technologies have been developed to process a large number of news articles produced, but general news data processing technologies still have many limitations in objectively evaluating and analyzing a large number of news articles.

따라서, 대량의 인터넷 뉴스 기사들을 정확하고 객관적으로 평가하기 위한 방법 및 장치 기술에 대한 개발이 요구되고 있다.Accordingly, there is a demand for development of a method and device technology for accurately and objectively evaluating a large number of Internet news articles.

한국공개특허 제10-2009-0047646호Korean Patent Publication No. 10-2009-0047646

일 실시 예에 따르면, 뉴스 기사를 분석하는 방법 및 시스템이 제공될 수 있다.According to an embodiment, a method and system for analyzing a news article may be provided.

일 실시 예에 의하면, 전자 장치 및 서버가 서로 연동함으로써 뉴스 기사를 분석하는 방법이 제공될 수 있다.According to an embodiment, a method of analyzing a news article by interworking between an electronic device and a server may be provided.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 실시 예에 따라, 뉴스 기사 분석 시스템 내의 전자 장치가 상기 전자 장치에 연결된 적어도 하나의 외부 디바이스로부터 뉴스 기사를 획득하는 단계; 상기 전자 장치가 상기 전자 장치와 연결된 서버로 상기 획득된 뉴스 기사를 전송하는 단계; 상기 서버가 상기 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 단계; 및 상기 서버가 제1 뉴스 점수 및 제2 뉴스 점수를 상기 전자 장치로 전송하는 단계; 를 포함하는, 뉴스 기사를 분석하는 방법이 제공될 수 있다.According to an embodiment of the present disclosure for achieving the above technical problem, an electronic device in a news article analysis system obtains a news article from at least one external device connected to the electronic device; transmitting, by the electronic device, the obtained news article to a server connected to the electronic device; identifying, by the server, a sentence including a pre-stored financial word or a person word in the news article; obtaining, by the server, a first news score from the neural network model by inputting, by the server, some sentences of the identified sentences into a neural network model that is trained to output a score for the news article; obtaining, by the server, a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model; and transmitting, by the server, the first news score and the second news score to the electronic device. A method for analyzing a news article may be provided, including:

또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하고, 식별된 문장 중 일부의 문장을 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하며, 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 서버; 및 외부 디바이스로부터 뉴스 기사를 획득하고, 획득된 뉴스 기사를 상기 서버로 전송하며, 상기 서버로부터 상기 제1 뉴스 점수 및 제2 뉴스 점수를 획득하는 전자 장치; 를 포함하는, 뉴스 기사 분석 시스템이 제공될 수 있다.In addition, according to another embodiment of the present disclosure for solving the technical problem, a sentence including a financial word or a person word stored in advance in a news article is identified, and some of the identified sentences are used for the news article. A first news score is obtained from the neural network model by input to the neural network model that is trained to output a score, and a second news score is obtained from the pre-trained model by inputting some sentences of the identified sentences into the pre-learning model. server to; and an electronic device for obtaining a news article from an external device, transmitting the obtained news article to the server, and obtaining the first news score and the second news score from the server; A news article analysis system comprising a may be provided.

또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 상기 뉴스 기사 분석 시스템 내의 전자 장치가 상기 전자 장치에 연결된 적어도 하나의 외부 디바이스로부터 뉴스 기사를 획득하는 단계; 상기 전자 장치가 상기 전자 장치와 연결된 서버로 상기 획득된 뉴스 기사를 전송하는 단계; 상기 서버가 상기 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하는 단계; 상기 서버가 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 단계; 및 상기 서버가 제1 뉴스 점수 및 제2 뉴스 점수를 상기 전자 장치로 전송하는 단계; 를 포함하는, 뉴스 기사를 분석하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.In addition, according to another embodiment of the present disclosure for solving the technical problem, an electronic device in the news article analysis system may include: acquiring a news article from at least one external device connected to the electronic device; transmitting, by the electronic device, the obtained news article to a server connected to the electronic device; identifying, by the server, a sentence including a pre-stored financial word or a person word in the news article; obtaining, by the server, a first news score from the neural network model by inputting, by the server, some sentences of the identified sentences into a neural network model that is trained to output a score for the news article; obtaining, by the server, a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model; and transmitting, by the server, the first news score and the second news score to the electronic device. A computer-readable recording medium recording a program for executing a method of analyzing a news article on a computer, including a computer-readable recording medium, may be provided.

일 실시 예에 의하면, 전자 장치 및 서버가 서로 연동함으로써 금융 분야의 뉴스 기사를 효과적으로 평가 및 분석할 수 있다.According to an embodiment, since the electronic device and the server interwork with each other, it is possible to effectively evaluate and analyze news articles in the financial field.

일 실시 예에 의하면, 적어도 하나의 뉴스 기사 분석 모델을 이용하여 뉴스 기사를 평가할 수 있다.According to an embodiment, the news article may be evaluated using at least one news article analysis model.

도 1은 일 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법을 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법의 흐름도이다.
도 3은 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법의 흐름도이다.
도 4는 일 실시 예에 따른 뉴스 기사 분석 시스템이 저장하는 금융 단어 리스트 및 인물 가중치 리스트를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따라 뉴스 기사 분석 시스템이 뉴스 기사 내에서 문장을 추출하고, 추출된 문장을 이용하여 요약 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 뉴스 기사 분석 시스템이 신경망 모델을 이용하여 제1 뉴스 점수를 획득하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따라, 뉴스 기사 분석 시스템이 사전 학습 모델을 이용하여 제2 뉴스 점수를 획득하는 방법의 흐름도이다.
도 8은 일 실시 예에 따라 뉴스 기사 분석 시스템이 미리 설정된 수의 문장을 전처리 하는 과정을 나타내는 흐름도이다.
도 9는 일 실시 예에 따른 뉴스 기사 분석 시스템이 문장 별로 결정되는 문장 가중치를 결정하기 위해, 이용하는, 문장 가중치 요소들을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 뉴스 기사 분석 시스템이 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 뉴스 기사에 대한 종합 평가 점수를 결정하는 방법을 나타내는 흐름도이다.
도 11은 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 종합 평가 점수를 결정하는 방법을 나타내는 흐름도이다.
도 12는 일 실시 예에 따른 전자 장치의 블록도이다.
도 13은 일 실시 예에 따른 서버의 블록도이다.
도 14는 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법을 나타내는 흐름도이다.
1 is a diagram schematically illustrating a method of analyzing a news article by a news article analysis system according to an exemplary embodiment.
2 is a flowchart of a method for analyzing a news article by a news article analysis system according to an exemplary embodiment.
3 is a flowchart of a method for analyzing a news article by a news article analysis system according to another exemplary embodiment.
4 is a diagram for explaining a financial word list and a person weight list stored by the news article analysis system according to an exemplary embodiment.
FIG. 5 is a diagram for explaining a process in which a news article analysis system extracts a sentence from a news article and generates summary data using the extracted sentence, according to an exemplary embodiment.
6 is a diagram for explaining a method for a news article analysis system to obtain a first news score by using a neural network model according to an embodiment.
7 is a flowchart of a method for a news article analysis system to obtain a second news score by using a pre-learning model, according to an embodiment.
8 is a flowchart illustrating a process in which a news article analysis system pre-processes a preset number of sentences according to an exemplary embodiment.
9 is a diagram for describing sentence weight elements used by a news article analysis system to determine a sentence weight determined for each sentence according to an embodiment.
10 is a flowchart illustrating a method for a news article analysis system to determine a comprehensive evaluation score for a news article based on a first news score and a second news score according to an exemplary embodiment.
11 is a flowchart illustrating a method for a news article analysis system to determine a comprehensive evaluation score based on a first news score and a second news score according to another exemplary embodiment.
12 is a block diagram of an electronic device according to an embodiment.
13 is a block diagram of a server according to an embodiment.
14 is a flowchart illustrating a method of analyzing a news article by a news article analysis system according to another exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

또한, 본 명세서에서, 어떤 막(또는 층)이 다른 막(또는 층) 또는 기판 상에 있다고 언급되는 경우에 그것은 다른 막(또는 층) 또는 기판 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 막(또는 층)이 개재될 수도 있다 또한, 도면들에 있어서, 구성들의 크기 및 두께 등은 명확성을 위하여 과장된 것이다. 본 명세서의 다양한 실시 예들에서 제1, 제2, 제3 등의 용어가 다양한 영역, 막들(또는 층들) 등을 기술하기 위해서 사용되었지만, 이들 영역, 막들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 소정 영역 또는 막(또는 층)을 다른 영역 또는 막(또는 층)과 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에의 제1막질로 언급된 막질이 다른 실시 예에서는 제2막질로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시예도 포함한다. 본 명세서에서 '및/또는' 이란 표현은 전후에 나열된 구성요소들 중 적어도 하나를 포함하는 의미로 사용된다. 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 나타낸다.Further, in this specification, when a film (or layer) is referred to as being on another film (or layer) or substrate, it may be formed directly on the other film (or layer) or substrate, or a third layer between them. In addition, in the drawings, the size and thickness of the components are exaggerated for clarity. In various embodiments of the present specification, the terms first, second, third, etc. are used to describe various regions, films (or layers), etc., but these regions and films should not be limited by these terms. do. These terms are only used to distinguish one region or film (or layer) from another region or film (or layer). Accordingly, a film quality referred to as a first film quality in one embodiment may be referred to as a second film quality in another embodiment. Each embodiment described and illustrated herein also includes a complementary embodiment thereof. In this specification, the expression 'and/or' is used in a sense including at least one of the elements listed before and after. Parts indicated with like reference numerals throughout the specification indicate like elements.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 일 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a method of analyzing a news article by a news article analysis system according to an exemplary embodiment.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전자 장치(1000) 및 서버(2000)를 포함할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 뉴스 기사에 대한 데이터를 획득하고, 획득된 뉴스 기사에 대한 종합 평가 점수(112)를 출력할 수 있다. 뉴스 기사 분석 시스템(3000)은 서로 다른 뉴스 기사 분석을 위한 복수의 모델을 이용하여 뉴스 기사에 대한 금융 성향을 나타내는 종합 평가 점수를 결정할 수 있다.According to an embodiment, the news article analysis system 3000 may include the electronic device 1000 and the server 2000 . For example, the news article analysis system 3000 may obtain data on a news article and output a comprehensive evaluation score 112 on the obtained news article. The news article analysis system 3000 may determine a comprehensive evaluation score indicating a financial propensity for a news article by using a plurality of models for analyzing different news articles.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000) 내의 전자 장치(1000) 및 서버(2000)는 서로 네트워크를 통하여 연결될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치와 연결된 외부 디바이스로부터 적어도 하나의 뉴스 기사를 획득하고, 스스로 직접 뉴스 기사를 분석하기 위한 복수의 분석 모델을 이용하여, 뉴스 기사에 대한 종합 평가 점수를 결정할 수도 있으나, 전자 장치와 연결된 서버로 뉴스 기사를 전송하고, 서버에서 전송되는 제1 뉴스 점수 및 제2 뉴스 점수를 수신하며, 수신된 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 뉴스 기사에 대한 종합 평가 점수를 출력할 수도 있다.According to an embodiment, the electronic device 1000 and the server 2000 in the news article analysis system 3000 may be connected to each other through a network. According to an embodiment, the electronic device 1000 obtains at least one news article from an external device connected to the electronic device, and uses a plurality of analysis models for directly analyzing the news article, and comprehensively evaluates the news article. The score may be determined, but the news article is transmitted to a server connected to the electronic device, the first news score and the second news score are received from the server, and the news is based on the received first news score and the second news score. You can also print the overall evaluation score for the article.

일 실시 예에 의하면, 전자 장치(1000)는 뉴스 기사에 관한 데이터를 처리하기 위한, AI 프로그램이 탑재되고 음성 인식 기능을 포함하는 스마트폰, 태블릿 PC, 스마트 TV, 휴대폰, 미디어 플레이어, 서버, 마이크로 서버, 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 일 실시 예에 의하면, 서버(2000)는 네트워크를 통하여 전자 장치(1000)와 연결됨으로써, 전자 장치와 데이터를 송수신할 수 있는 기타 컴퓨팅 장치를 포함할 수 있다. 또한, 일 실시 예에 의하면, 서버 장치(2000)는 웨어러블 디바이스를 관리하기 위한 W-BMS(Wearable Business Management Server)일 수 있다. According to an embodiment, the electronic device 1000 includes a smart phone, a tablet PC, a smart TV, a mobile phone, a media player, a server, and a microphone having an AI program and a voice recognition function for processing data related to news articles. It may be, but is not limited to, a server or other mobile or non-mobile computing device. Also, according to an embodiment, the server 2000 may include other computing devices that can transmit and receive data to and from the electronic device by being connected to the electronic device 1000 through a network. Also, according to an embodiment, the server device 2000 may be a Wearable Business Management Server (W-BMS) for managing the wearable device.

일 실시 예에 의하면, 서버(2000)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하고, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.According to an embodiment, the server 2000 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It is a data communication network in a comprehensive sense that includes a satellite communication network and a combination thereof, and allows each network constituent entity shown in FIG. 1 to communicate smoothly with each other, and includes a wired Internet, a wireless Internet, and a mobile wireless communication network. can

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 외부 디바이스로부터 뉴스 기사(101)를 획득하고, 획득된 뉴스 기사(101)를 신경망 모델(102) 및 사전 학습 모델(104)각각에 입력함으로써, 제1 뉴스 점수(106) 및 제2 뉴스 점수(108)를 획득할 수 있다. 일 실시 예에 의하면, 뉴스 기사(101)는 텍스트 데이터, 이미지 데이터 또는 영상 데이터 형식으로 획득될 수 있다. 뉴스 기사 분석 시스템(3000)은 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 종합 평가 점수(112)를 결정할 수 있다. 뉴스 기사 분석 시스템은, 결정된 종합 평가 점수(112)를 출력할 수 있다.According to an embodiment, the news article analysis system 3000 obtains a news article 101 from an external device, and inputs the obtained news article 101 to the neural network model 102 and the pre-training model 104, respectively. , a first news score 106 and a second news score 108 may be obtained. According to an embodiment, the news article 101 may be obtained in the form of text data, image data, or image data. The news article analysis system 3000 may determine the overall evaluation score 112 based on the first news score and the second news score. The news article analysis system may output the determined overall evaluation score 112 .

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 뉴스 기사를 분석하기 위한 복수의 뉴스 기사 분석 모델을 포함할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 모델은 신경망 모델(102) 및 사전 학습 모델(104)을 포함할 수 있다. 그러나 또 다른 실시 예에 의하면, 뉴스 기사 분석 모델은 인공 지능 학습 알고리즘에 따라 학습될 수 있는 기타 인공 지능 모델 등을 포함할 수 있다.According to an embodiment, the news article analysis system 3000 may include a plurality of news article analysis models for analyzing news articles. According to an embodiment, the news article analysis model may include a neural network model 102 and a pre-training model 104 . However, according to another embodiment, the news article analysis model may include other artificial intelligence models that can be learned according to an artificial intelligence learning algorithm.

일 실시 예에 의하면, 종합 평가 점수(110)는 상기 뉴스 기사에 포함된 금융 단어 또는 인물 단어 중 적어도 하나에 기초하여, 상기 뉴스 기사가 나타내는 금융 성향을 숫자로 나타낸 값일 수 있다. 일 실시 예에 의하면, 종합 평가 점수(110)는 신경망 모델(102) 내 레이어들 및 상기 레이어들 간의 연결 강도에 관한 가중치(weight)가 수정 및 갱신되거나, 사전 학습 모델(104)이 이용하는 금융 단어 리스트 및 인물 가중치 리스트 내 단어 점수 또는 인물 가중치들이 변경될 경우 달라질 수 있다.According to an embodiment, the comprehensive evaluation score 110 may be a numerical value representing the financial propensity indicated by the news article based on at least one of a financial word and a person word included in the news article. According to an embodiment, the comprehensive evaluation score 110 is a financial word used by the layers in the neural network model 102 and the weight of the connection strength between the layers is modified and updated, or the pre-learning model 104 is used. Word scores or person weights in the list and person weight list may be changed when they are changed.

일 실시 예에 의하면, 전자 장치(1000)가 이용하는 신경망 모델은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 역시 이에 한정되는 것은 아니다.According to an embodiment, the neural network model used by the electronic device 1000 may include a deep neural network (DNN), for example, a convolutional neural network (CNN), a deep neural network (DNN), or an RNN. (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network), or deep Q-Networks, etc., but are also not limited thereto.

도 2는 일 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법의 흐름도이다.2 is a flowchart of a method for analyzing a news article by a news article analysis system according to an exemplary embodiment.

S202에서, 전자 장치(1000)는 전자 장치(1000)와 연결된 외부 디바이스로부터 뉴스 기사를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 텍스트 형식, 이미지 형식 또는 비디오 형식 중 적어도 하나로 뉴스 기사에 대한 정보를 획득할 수 있다. S204에서, 전자 장치(1000)는 획득된 뉴스 기사를 서버로 전송할 수 있다. In S202 , the electronic apparatus 1000 may obtain a news article from an external device connected to the electronic apparatus 1000 . For example, the electronic device 1000 may acquire information about a news article in at least one of a text format, an image format, and a video format. In S204, the electronic device 1000 may transmit the obtained news article to the server.

S206에서, 서버(2000)는 전자 장치(1000)로부터 획득된 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별할 수 있다. 일 실시 예에 의하면, 서버(2000)는 금융 단어 및 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트를 생성하고, 생성된 금융 단어 리스트를 저장할 수 있다. 또한, 서버(2000)는 인물 단어 및 인물 단어 별 인물 단어 가중치를 매칭함으로써 인물 가중치 리스트를 생성하고, 생성된 인물 가중치 리스트를 저장할 수 있다. 일 실시 예에 의하면, 인물 단어는, 금융(financing)분야와 관련되는 것으로 미리 결정될 수 있다. 일 실시 예에 의하면, 인물 단어는 미리 설정된 기간 동안, 공개된 금융 분야 기사 내 해당 인물 단어의 게재 횟수가 소정의 임계치 이상인지 여부에 기초하여 결정될 수 있다.In S206 , the server 2000 may identify a sentence including a finance word or a person word stored in advance in a news article obtained from the electronic device 1000 . According to an embodiment, the server 2000 may generate a financial word list by matching the financial word and word scores for each financial word, and may store the generated financial word list. Also, the server 2000 may generate a person weight list by matching the person word and the person word weight for each person word, and store the generated person weight list. According to an embodiment, the person word may be predetermined to be related to the field of finance. According to an embodiment, the person word may be determined based on whether the number of publications of the person word in the published financial field article is equal to or greater than a predetermined threshold during a preset period.

그러나, 또 다른 실시 예에 의하면, 상기 금융 단어 리스트 및 인물 가중치 리스트는 전자 장치(1000)에 미리 저장될 수도 있고, 이러한 경우, 전자 장치(1000)가 뉴스 기사로부터 금융 단어 또는 인물 단어를 포함하는 문장을 직접 식별할 수도 있다.However, according to another embodiment, the financial word list and the person weight list may be stored in advance in the electronic device 1000, and in this case, the electronic device 1000 may include a financial word or a person word from a news article. You can also directly identify the sentence.

S208에서, 서버(2000)는 식별된 문장 중 일부의 문장을 신경망 모델에 입력함으로써 제1 뉴스 점수를 획득할 수 있다. 일 실시 예에 의하면 서버(2000)는 뉴스 기사에 대한 요약 데이터가 입력되면, 뉴스 기사에 대한 점수를 출력하도록 미리 학습된 신경망 모델을 미리 저장할 수 있고, 미리 학습된 신경망 모델을 이용하여 뉴스 기사에 대한 제1 뉴스 점수를 획득할 수 있다.In S208, the server 2000 may obtain a first news score by inputting some of the identified sentences to the neural network model. According to an embodiment, when summary data for a news article is input, the server 2000 may store a pre-trained neural network model in advance to output a score for the news article, and use the pre-trained neural network model to write to the news article. It is possible to obtain a first news score for the

S210에서, 서버(2000)는 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 제2 뉴스 점수를 획득할 수 있다. 일 실시 예에 의하면, 사전 학습 모델은 사전(dictionary)을 이용하여 기사 내 소정의 단어를 식별하고, 식별된 단어에 할당되는 단어 점수에 기초하여, 제2 뉴스 점수를 출력할 수 있다.In S210 , the server 2000 may obtain a second news score by inputting some of the identified sentences to the pre-learning model. According to an embodiment, the dictionary learning model may identify a predetermined word in an article using a dictionary, and output a second news score based on a word score assigned to the identified word.

S212에서, 서버(2000)는 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정할 수 있다. 예를 들어, 서버(2000)는 사전 학습 모델로부터 제2 뉴스 점수 외에, 제2 뉴스 점수의 신뢰 정도에 관한 확률 값인 중립 지수를 획득할 수 있다. 서버(2000)는 중립 지수 값에 기초하여, 제1 뉴스 점수 및 제2 뉴스 점수에 적용될 평가 가중치를 결정하고, 결정된 평가 가중치에 따라 제1 뉴스 점수 및 제2 뉴스 점수를 가중합함으로써 종합 평가 점수를 결정할 수 있다.In S212 , the server 2000 may determine a comprehensive evaluation score regarding the financial propensity of the news article based on the first news score and the second news score. For example, the server 2000 may obtain a neutral index, which is a probability value regarding the degree of confidence in the second news score, in addition to the second news score from the pre-learning model. The server 2000 determines an evaluation weight to be applied to the first news score and the second news score based on the neutral index value, and weights and sums the first news score and the second news score according to the determined evaluation weight to obtain a comprehensive evaluation score. can be decided

S214에서, 서버(2000)는 결정된 종합 평가 점수에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S216에서, 전자 장치(1000)는 서버로부터 수신된 종합 평가 점수에 대한 정보에 기초하여 종합 평가 점수를 출력할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 종합 평가 점수를 오디오 형식으로 출력하거나, 전자 장치의 출력부(미도시) 내 디스플레이(미도시)를 통하여 출력할 수도 있다.In S214 , the server 2000 may transmit information on the determined comprehensive evaluation score to the electronic device 1000 . In S216 , the electronic device 1000 may output a comprehensive evaluation score based on information about the comprehensive evaluation score received from the server. According to an embodiment, the electronic device 1000 may output the comprehensive evaluation score in an audio format or may output it through a display (not shown) in an output unit (not shown) of the electronic device.

도 3은 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법의 흐름도이다.3 is a flowchart of a method for analyzing a news article by a news article analysis system according to another exemplary embodiment.

도 3의 S302 내지 S310은 도 2의 S202 내지 S210에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. Since S302 to S310 of FIG. 3 may correspond to S202 to S210 of FIG. 2 , a detailed description thereof will be omitted.

S312에서 서버(2000)는 제1 뉴스 점수 및 제2 뉴스 점수에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S314에서, 전자 장치(1000)는 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정할 수 있다. S312는 도 2의 S212에 대응될 수 있다. 즉, 도 2의 경우, 서버(2000)가 신경망 모델로부터 출력된 제1 뉴스 점수 및 사전 학습 모델로부터 출력된 제2 뉴스 점수를 이용하여 종합 평가 점수를 결정하였지만, 도 3의 경우, 전자 장치(1000)가 서버(2000)로부터 획득된 제1 뉴스 점수 및 제2 뉴스 점수에 대한 정보를 이용하여 종합 평가 점수를 결정할 수 있다. S316에서, 전자 장치(1000)는 결정된 뉴스 기사에 대한 종합 평가 점수를 출력할 수 있다.In S312 , the server 2000 may transmit information on the first news score and the second news score to the electronic device 1000 . In S314 , the electronic device 1000 may determine a comprehensive evaluation score regarding the financial propensity of a news article based on the first news score and the second news score. S312 may correspond to S212 of FIG. 2 . That is, in the case of FIG. 2 , the server 2000 determines the overall evaluation score using the first news score output from the neural network model and the second news score output from the pre-learning model, but in FIG. 3 , the electronic device ( 1000) may determine the overall evaluation score by using information about the first news score and the second news score obtained from the server 2000 . In S316 , the electronic device 1000 may output a comprehensive evaluation score for the determined news article.

도 4는 일 실시 예에 따른 뉴스 기사 분석 시스템이 저장하는 금융 단어 리스트 및 인물 가중치 리스트를 설명하기 위한 도면이다.4 is a diagram for explaining a financial word list and a person weight list stored by the news article analysis system according to an exemplary embodiment.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 금융 단어 및 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트(410)를 생성할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 미리 설정된 금융 단어들에 대한 전문가들의 전문가 평가 점수를 획득할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 복수의 전문가들로부터, 특정 금융 단어에 대한 전문가 평가 점수를 획득하고, 획득된 전문가 평가 점수에 기초하여 단어 점수 벡터를 생성할 수 있다. 일 실시 예에 의하면, 단어 점수 벡터는 각 전문가의 평가 점수를 벡터 원소로 포함할 수 있다. 뉴스 기사 분석 시스템(3000)은 단어 점수 벡터 내 원소들의 평균 및 표준 편차를 식별할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 금융 단어들을 표제어 형태로 변환하고, 표제어 형태로 변환된 금융 단어와 상기 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트(410)를 생성할 수도 있다.According to an embodiment, the news article analysis system 3000 may generate the financial word list 410 by matching the financial word and the word score for each financial word. According to an embodiment, the news article analysis system 3000 may acquire expert evaluation scores of experts for preset financial words. According to an embodiment, the news article analysis system 3000 may obtain an expert evaluation score for a specific financial word from a plurality of experts, and generate a word score vector based on the obtained expert evaluation score. According to an embodiment, the word score vector may include the evaluation score of each expert as a vector element. The news article analysis system 3000 may identify the mean and standard deviation of the elements in the word score vector. According to an embodiment, the news article analysis system 3000 may generate the financial word list 410 by converting the financial words into a headword form, and matching the financial words converted into the headword form with word scores for each financial word. have.

예를 들어, 뉴스 기사 분석 시스템(3000)은 5명의 금융 전문가들로부터 'competent'에 대한 사용자 평가 점수로써, 각각 2점, 2점, 3점, 2점, 1점을 획득하고, 금융 전문가들로부터 획득된 각 전문가 평가 점수를 벡터 원소로 하는 단어 벡터 점수 {2,2,3,2,1}을 생성할 수 있다. 뉴스 기사 분석 시스템(3000)은 상기 생성된 단어 벡터 점수의 벡터 원소의 평균 및 표준 편차를 각각 2 및 0.632456으로 식별할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 획득하는 전문가 평가 점수는 -5 내지 5사이의 값을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, the news article analysis system 3000 obtains 2 points, 2 points, 3 points, 2 points, and 1 points, respectively, as user evaluation scores for 'competent' from 5 financial experts, and financial experts A word vector score {2,2,3,2,1} may be generated using each expert evaluation score obtained from . The news article analysis system 3000 may identify the mean and standard deviation of the vector elements of the generated word vector score as 2 and 0.632456, respectively. According to an embodiment, the expert evaluation score obtained by the news article analysis system 3000 may include a value between -5 and 5, but is not limited thereto.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 획득한 전문가 평가 점수는 해당 단어에 대한 각 전문가들의 긍정적 또는 부정적 정도를 나타내는 지표 값일 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 획득한 전문가 평가 점수는 다음과 같은 긍정적 또는 부정적 정도를 나타낼 수 있다. 예를 들어, -5 내지 5사이의 전문가 평가 점수는 다음과 같이, 금융 단어에 대한 긍정적 또는 부정적 정도를 나타낼 수 있다 (예컨대, -5: 극도로 안좋은, -4: 매우 안좋은, -3: 안 좋은, -2: 조금 안좋은, -1: 애매하게 안좋은, 0:보통, 1: 애매하게 좋은, 2: 조금 좋은, 3: 좋은, 4: 매우 좋은, 5: 극도로 좋은). 하지만, 이에 한정되는 것은 아니며, 금융 단어에 대한 전문가들의 평가 점수의 범위는 달라질 수 있다.According to an embodiment, the expert evaluation score obtained by the news article analysis system 3000 may be an index value indicating the degree of positive or negative degree of each expert with respect to the corresponding word. According to an embodiment, the expert evaluation score obtained by the news article analysis system 3000 may indicate the following positive or negative degrees. For example, an expert rating score between -5 and 5 may indicate a positive or negative degree of a financial word as follows (eg, -5: extremely bad, -4: very bad, -3: not) good, -2: slightly bad, -1: vaguely bad, 0: average, 1: vaguely good, 2: slightly good, 3: good, 4: very good, 5: extremely good). However, the present invention is not limited thereto, and the range of evaluation scores of experts for financial words may vary.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 복수의 금융 전문가들로부터 소정의 인물 단어에 대한 평가 점수를 획득할 수 있다. 뉴스 기사 분석 시스템(3000)은 복수의 금융 전문가들로부터 획득된, 상기 인물 단어에 대한 평가 점수에 기초하여 인물 단어 가중치를 생성할 수 있다. 일 실시 예에 의하면, 인물 단어 별 가중치는 벡터형태로 표현될 수 있다. 뉴스 기사 분석 시스템(3000)은 인물 단어 및 상기 인물 단어 별 인물 단어 가중치를 매칭함으로써 인물 가중치 리스트(420)를 생성할 수 있다. According to an embodiment, the news article analysis system 3000 may acquire evaluation scores for a predetermined person word from a plurality of financial experts. The news article analysis system 3000 may generate a person word weight based on evaluation scores for the person word obtained from a plurality of financial experts. According to an embodiment, a weight for each person word may be expressed in a vector form. The news article analysis system 3000 may generate the person weight list 420 by matching the person word and the person word weight for each person word.

예를 들어, 뉴스 기사 분석 시스템(3000)은 5명의 금융 전문가들로부터 버크셔 해서웨이의 회장인, 'Warren Edward Buffet'에 대한 평가 점수를 각각 획득하고, 획득된 평가 점수에 기초하여 인물 가중치를 생성할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 획득하는 인물 단어에 대한 전문가 평가 점수는 -5 내지 5 사이의 값을 포함할 수 있다. 그러나, 이에 한정되는 것은 아니며, 뉴스 기사 분석 시스템(3000)이 획득하는 인물 단어에 대한 전문가 평가 점수의 범위는 달라질 수 있다. 뉴스 기사 분석 시스템(3000)은 상술한 금융 단어 리스트(410) 및 인물 가중치 리스트(420)를 뉴스 분석 시스템(3000)내의 전자 장치 또는 서버 중 적어도 하나에 미리 저장할 수 있다.For example, the news article analysis system 3000 may obtain an evaluation score for 'Warren Edward Buffet', the chairman of Berkshire Hathaway from five financial experts, respectively, and generate a person weight based on the obtained evaluation score. can According to an embodiment, the expert evaluation score for the person word obtained by the news article analysis system 3000 may include a value between -5 and 5. However, the present invention is not limited thereto, and the range of the expert evaluation score for the person word obtained by the news article analysis system 3000 may vary. The news article analysis system 3000 may store the financial word list 410 and the person weight list 420 described above in advance in at least one of an electronic device or a server in the news analysis system 3000 .

도 5는 일 실시 예에 따라 뉴스 기사 분석 시스템이 뉴스 기사 내에서 문장을 추출하고, 추출된 문장을 이용하여 요약 데이터를 생성하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a process in which a news article analysis system extracts a sentence from a news article and generates summary data using the extracted sentence, according to an exemplary embodiment.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 뉴스 기사를 획득하고, 획득된 뉴스 기사 내 각각의 문장을 식별할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 미리 설정된 금융 단어 및 인물 단어를 포함하는 문장을 뉴스 기사에서 식별할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 뉴스 기사(510)를 획득하고, 획득된 뉴스 기사(510) 내 소정의 금융 단어 또는 인물 단어 중 적어도 하나를 포함하는 문장 1 내지 문장 6을 식별할 수 있다.According to an embodiment, the news article analysis system 3000 may obtain a news article and identify each sentence in the obtained news article. For example, the news article analysis system 3000 may identify a sentence including a preset financial word and a person word from the news article. For example, the news article analysis system 3000 may obtain a news article 510 and identify sentences 1 to 6 including at least one of a predetermined financial word or a person word in the acquired news article 510 . can

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 뉴스 기사에 포함된 문장을 식별하고, 식별된 문장 각각의 기사 내 위치 정보를 식별할 수 있다. 뉴스 기사 분석 시스템(3000)은 식별된 문장이 뉴스 기사 내에서 몇 번째 문장인지 여부를 식별할 수 있다. 뉴스 기사 분석 시스템(3000)은 식별된 문장의 위치 정보에 기초하여, 뉴스 기사 내 첫 문장 및 뉴스 기사 내 마지막 문장을 식별할 수도 있다.According to an embodiment, the news article analysis system 3000 may identify a sentence included in a news article, and identify position information in each of the identified sentences. The news article analysis system 3000 may identify the number of the identified sentence in the news article. The news article analysis system 3000 may identify the first sentence in the news article and the last sentence in the news article based on the position information of the identified sentence.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 뉴스 기사에서 식별되는 문장 중, 소정의 문장을 추출할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 뉴스 기사(510)에서 추출된 문장들 중, 문장 1 내지 4 및 문장 6을 추출할 수 있다. 뉴스 기사 분석 시스템(3000)은 뉴스 기사 내 소정의 금융 단어 또는 인물 단어 중 적어도 하나를 포함하는 문장 중, 일부 문장을 추출하고, 추출된 일부 문장을 추출하여 요약 뉴스 기사(520)를 생성할 수 있다. According to an embodiment, the news article analysis system 3000 may extract a predetermined sentence from among the sentences identified in the news article. For example, the news article analysis system 3000 may extract sentences 1 to 4 and sentence 6 from among the sentences extracted from the news article 510 . The news article analysis system 3000 may generate a summary news article 520 by extracting some sentences from among sentences including at least one of a predetermined financial word or a person word in the news article, and extracting the extracted some sentences. have.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 금융 단어 또는 상기 인물 단어를 포함하는 문장, 뉴스 기사 내 첫 문장 및 상기 뉴스 기사 내 마지막 문장 중, 점수 산정 대상이 되는 기 설정된 수의 문장을 추출하고, 추출된 기 설정된 수의 문장을 이용하여 요약 뉴스 기사(520)를 생성할 수도 있다. 뉴스 기사 분석 시스템(3000)은 요약 뉴스 기사를 인코딩함으로써 요약 데이터(530)를 생성할 수 있다.According to an embodiment, the news article analysis system 3000 selects a predetermined number of sentences to be scored among sentences including the financial word or the person word, the first sentence in the news article, and the last sentence in the news article. It is also possible to extract and generate a summary news article 520 by using the extracted pre-set number of sentences. News article analysis system 3000 may generate summary data 530 by encoding summary news articles.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 요약된 뉴스 기사에 대한 텍스트 데이터를 요약 데이터(530)로 생성할 수도 있다. 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 요약 뉴스 기사를 인코딩함으로써 상기 요약 뉴스 기사를 이진화된 데이터로 변환함으로써 요약 데이터(530)를 생성할 수도 있다.According to an embodiment, the news article analysis system 3000 may generate text data for a summarized news article as the summary data 530 . According to another embodiment, the news article analysis system 3000 may generate the summary data 530 by converting the summary news article into binarized data by encoding the summary news article.

도 6은 일 실시 예에 따른 뉴스 기사 분석 시스템이 신경망 모델을 이용하여 제1 뉴스 점수를 획득하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method for a news article analysis system to obtain a first news score by using a neural network model according to an embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 도 5에서 상술한 과정에 따라 생성된 요약 데이터(602)를 신경망 모델(610)에 입력하고, 상기 신경망 모델(610)로부터 출력되는 제1 뉴스 점수(612)를 획득할 수 있다. 일 실시 예에 의하면, 신경망 모델(610)은 적어도 하나의 노드들을 포함하는 적어도 하나의 레이어들 및 상기 레이어들의 연결 강도에 관한 가중치를 포함할 수 있다.According to an embodiment, the electronic device 1000 inputs the summary data 602 generated according to the process described above with reference to FIG. 5 into the neural network model 610 , and the first news score output from the neural network model 610 . (612) can be obtained. According to an embodiment, the neural network model 610 may include at least one layer including at least one node and a weight related to the connection strength of the layers.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 이용하는 신경망 모델은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 역시 이에 한정되는 것은 아니다.According to an embodiment, the neural network model used by the news article analysis system 3000 may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN) , RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) or Deep Q-Networks, etc., but are also limited thereto not.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 뉴스 기사 분석 시스템(3000)과 연결된 외부 디바이스로부터 미리 설정된 주기에 따라 뉴스 기사를 획득하고, 획득된 뉴스 기사로부터 학습 데이터를 생성할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 학습 데이터 외에, 획득된 뉴스 기사들로부터 검증 데이터를 더 생성할 수도 있다. 뉴스 기사 분석 시스템(3000)은 학습 데이터에 기초하여 신경망 모델을 학습 시키고, 학습 데이터를 상기 신경망 모델로부터 입력함으로써 출력되는 신경망 모델의 출력 값과, 검증 데이터를 상기 신경망 모델로부터 입력함으로써 출력되는 신경망 모델의 출력 값의 차이(예컨대 손실 loss)가 작아지도록, 상기 신경망 모델을 학습(train)시킬 수 있다. According to an embodiment, the news article analysis system 3000 may obtain a news article from an external device connected to the news article analysis system 3000 according to a preset period, and generate learning data from the obtained news article. According to an embodiment, the news article analysis system 3000 may further generate verification data from the obtained news articles in addition to the learning data. The news article analysis system 3000 trains the neural network model based on the training data, and the output value of the neural network model output by inputting training data from the neural network model, and the neural network model output by inputting verification data from the neural network model The neural network model may be trained so that the difference (eg, loss loss) between the output values of is small.

뉴스 기사 분석 시스템(3000)이 신경망 모델을 학습 시키는 동작은, 상기 신경망 모델 내 레이어들 및 상기 레이어들의 연결 강도에 관한 가중치들을 수정 및 갱신하는 동작에 대응될 수 있다. 뉴스 기사 분석 시스템(3000)은 학습이 완료된 신경망 모델(610)에, 소정의 뉴스 기사로부터 획득된 요약 데이터를 입력함으로써, 제1 뉴스 점수(612)를 획득할 수 있다. The operation of the news article analysis system 3000 to train the neural network model may correspond to the operation of modifying and updating the layers in the neural network model and weights related to the connection strength of the layers. The news article analysis system 3000 may acquire a first news score 612 by inputting summary data obtained from a predetermined news article into the neural network model 610 on which the training has been completed.

또한, 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 외부 디바이스로부터 수신된 뉴스 기사 내 복수의 문장을 식별하고, 식별된 문장 중 추출된 일부의 문장을 전 처리하며, 전 처리된 일부 문장을 학습된 신경망 모델(610)에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득할 수 있다.Also, according to an embodiment, the news article analysis system 3000 identifies a plurality of sentences in a news article received from an external device, pre-processes some extracted sentences from among the identified sentences, and pre-processes some of the pre-processed sentences. By inputting to the learned neural network model 610, it is possible to obtain a first news score from the neural network model.

도 7은 일 실시 예에 따라, 뉴스 기사 분석 시스템이 사전 학습 모델을 이용하여 제2 뉴스 점수를 획득하는 방법의 흐름도이다.7 is a flowchart of a method for a news article analysis system to obtain a second news score by using a pre-learning model, according to an embodiment.

S712에서, 뉴스 기사 분석 시스템(3000)은 뉴스 기사 내에서 식별된 소정의 문장들 중, 추출된 일부 문장을 전 처리할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 추출된 일부 문장을 전 처리 하는 동작은, 도 5에서 상술한 요약 데이터 내 문장들을 전 처리하는 동작에 대응될 수 있다. 후술하는 도 8을 참조하여, 뉴스 기사 분석 시스템(3000)이 추출된 일부 문장을 전 처리하는 동작을 구체적으로 설명하기로 한다.In S712 , the news article analysis system 3000 may pre-process some extracted sentences among predetermined sentences identified in the news article. According to an embodiment, the operation of pre-processing the extracted partial sentences by the news article analysis system 3000 may correspond to the operation of pre-processing the sentences in the summary data described above with reference to FIG. 5 . An operation in which the news article analysis system 3000 pre-processes some extracted sentences will be described in detail with reference to FIG. 8, which will be described later.

S714에서, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 부정어구, 부사, 문장 부호, 강조어구, 부정어 또는 인물 단어 중 적어도 하나에 기초하여, 전 처리된 문장 각각에 대한 문장 가중치를 결정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장에 포함된 인물 단어에 대하여 미리 할당되어 있는 인물 단어 가중치를, 해당 인물 단어를 포함하는 문장의 가중치로 결정할 수 있다.In S714, the news article analysis system 3000 may determine a sentence weight for each of the pre-processed sentences based on at least one of negative phrases, adverbs, punctuation marks, emphasis phrases, negative words, or person words in the pre-processed sentence. have. For example, the news article analysis system 3000 may determine a person word weight pre-allocated with respect to a person word included in the pre-processed sentence as a weight of a sentence including the person word.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 not, isn't와 같은 부정어구가 포함되는 경우, 해당 부정어구를 포함하는 전 처리된 문장의 문장 가중치에 -1을 곱할 수 있다. 즉, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 not, isn't와 같은 부정어구가 포함되는 경우, 해당 부정어구를 포함하는 전 처리된 문장의 문장 가중치를 음수로 결정할 수 있다.According to an embodiment, when a negative phrase such as not or isn't is included in the pre-processed sentence, the news article analysis system 3000 adds -1 to the sentence weight of the pre-processed sentence including the negative phrase. can be multiplied That is, when a negative phrase such as not or isn't is included in the pre-processed sentence, the news article analysis system 3000 may determine the sentence weight of the pre-processed sentence including the negative phrase as a negative number.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장에 포함된 부사에 기초하여 전 처리된 문장 별 문장 가중치를 결정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 긍정 부사(예컨대 absolutely, amazingly)가 포함되는 경우, 포함된 긍정 부사의 수에 기초하여 해당 긍정 부사를 포함하는 문장의 문장 가중치에 소정의 가중치 값을 더 할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 긍정 부사가 포함되는 경우, 해당 문장의 문장 가중치를 0.3만큼 증가시킬 수 있으나 문장 가중치의 증가 정도는 달라질 수 있다. 또한, 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 긍정 부사가 2개 포함되는 경우 가중치를 0.6만큼 증가시킬 수도 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the news article analysis system 3000 may determine a sentence weight for each pre-processed sentence based on an adverb included in the pre-processed sentence. For example, when a positive adverb (eg, absolutely, amazingly) is included in the pre-processed sentence, the news article analysis system 3000 determines the sentence weight of the sentence including the positive adverb based on the number of included positive adverbs. A predetermined weight value may be added. According to an embodiment, when a positive adverb is included in the pre-processed sentence, the news article analysis system 3000 may increase the sentence weight of the corresponding sentence by 0.3, but the degree of increase in the sentence weight may vary. Also, according to an embodiment, the news article analysis system 3000 may increase the weight by 0.6 when two positive adverbs are included in the pre-processed sentence, but is not limited thereto.

또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 부정 부사(예컨대 scarcely, hardly 등)가 포함되는 경우, 포함된 부정 부사의 수에 기초하여, 해당 부정 부사를 포함하는 문장의 문장 가중치에 소정의 가중치 값을 뺄 수 있다. 일 실시 예에 의하면 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 부정 부사가 포함되는 경우, 해당 문장의 문장 가중치를 0.3만큼 감소시킬 수 있으나, 이에 한정되는 것은 아니다. 또한, 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 부정 부사가 2개 포함되는 경우, 가중치를 0.6만큼 감소 시킬 수도 있으나, 이에 한정되는 것은 아니다.According to another embodiment, when the news article analysis system 3000 includes negative adverbs (eg, scarcely, hardly, etc.) in the pre-processed sentence, based on the number of included negative adverbs, including the negative adverb A predetermined weight value may be subtracted from the sentence weight of the sentence. According to an embodiment, the news article analysis system 3000 may reduce the sentence weight of the corresponding sentence by 0.3 when a negative adverb is included in the pre-processed sentence, but is not limited thereto. Also, according to an embodiment, the news article analysis system 3000 may reduce the weight by 0.6 when two negative adverbs are included in the pre-processed sentence, but is not limited thereto.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 문장 부호에 기초하여, 해당 문장 내 문장 가중치를 결정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장이 강조 목적의 느낌표 문장 부호를 포함하는 경우, 느낌표를 포함하는 문장의 문장 가중치를 증가시킬 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 문장 가중치를 증가시키는 동작은, 소정의 가중치 값을 더하거나, 소정의 스케일에 따른 스케일 값을 곱함으로써, 문장 가중치를 스케일업(scale-up)하는 동작에 대응될 수 있다. According to an embodiment, the news article analysis system 3000 may determine a sentence weight in a corresponding sentence based on the pre-processed punctuation marks in the sentence. For example, when the pre-processed sentence includes an exclamation point punctuation mark for emphasis, the news article analysis system 3000 may increase the sentence weight of the sentence including the exclamation point. According to an embodiment, the operation of the news article analysis system 3000 increasing the sentence weight may include adding a predetermined weight value or multiplying a scale value according to a predetermined scale to scale-up the sentence weight. It can correspond to the action.

그러나 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장이 물음표 또는 쉼표와 같은 문장 부호를 포함하는 경우, 해당 문장의 문장 가중치를 감소시킬 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 문장 가중치를 감소시키는 동작은, 소정의 가중치 값을 빼거나, 소정의 스케일에 따른 스케일 값을 곱함으로써, 문장 가중치를 스케일다운(scale-down)하는 동작에 대응될 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 문장 가중치가 0.3인 전 처리된 문장이 느낌표 문장 부호로 끝나는 경우, 문장 가중치 0.3을 50% 스케일 업함으로써, 0.45로 결정할 수 있다.However, according to another embodiment, when the pre-processed sentence includes a punctuation mark such as a question mark or a comma, the news article analysis system 3000 may reduce the sentence weight of the corresponding sentence. According to an embodiment, the operation of the news article analysis system 3000 to reduce the sentence weight is to scale-down the sentence weight by subtracting a predetermined weight value or multiplying a scale value according to a predetermined scale. ) can correspond to the action. For example, when a pre-processed sentence having a sentence weight of 0.3 ends with an exclamation mark punctuation mark, the news article analysis system 3000 may scale up the sentence weight 0.3 by 50% to determine it as 0.45.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 문장에 강조어구(예컨대 very)가 포함되는 경우, 전 처리된 문장의 가중치를 증가시킬 수 있다. 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장에 부정어(예컨대 never, so, without)가 포함되는 경우, 해당 부정어를 포함하는 전 처리된 문장의 문장 가중치를 크게 하거나 작게 할 수 있다.According to an embodiment, the news article analysis system 3000 may increase the weight of the pre-processed sentence when an emphasis phrase (eg, very) is included in the sentence. According to another embodiment, when a negative word (eg, never, so, without) is included in the pre-processed sentence, the news article analysis system 3000 increases or decreases the sentence weight of the pre-processed sentence including the negative word. can do.

예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장이 1개의 긍정 부사를 포함하고, 느낌표로 종결되며, 부정어구 not을 포함하는 경우, 1개 긍정 부사로 인한 증가된 문장 가중치를 0.3으로 증가시키고, 느낌표로 인하여 문장 가중치를 0.45로 스케일업 하며, 부정어구 not이 포함되었으므로, 스케일업된 문장 가중치 0.45를 -0.45로 변경할 수 있다. 따라서, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장이 1개의 긍정 부사를 포함하고, 느낌표로 종결되며, 부정어구 not을 포함하는 경우, 해당 문장의 문장 가중치를 -0.45로 결정할 수 있다. 그러나, 뉴스 기사 분석 시스템(3000)이 문장 가중치를 증감하는 정도는 이에 한정되는 것은 아니다.For example, the news article analysis system 3000 sets the weight of the increased sentence due to one positive adverb to 0.3 when the pre-processed sentence includes one positive adverb, ends with an exclamation point, and includes the negative phrase not. , and the sentence weight is scaled up to 0.45 due to the exclamation mark, and since the negative phrase not is included, the scaled-up sentence weight 0.45 can be changed to -0.45. Accordingly, when the pre-processed sentence includes one positive adverb, ends with an exclamation point, and includes the negative phrase not, the news article analysis system 3000 may determine the sentence weight of the corresponding sentence to be −0.45. However, the degree to which the news article analysis system 3000 increases or decreases the sentence weight is not limited thereto.

S716에서, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 각각에 대하여 결정된 문장 가중치를, 전 처리된 문장 내 각 금융 단어들의 단어 점수에 적용함으로써, 전 처리된 문장 각각의 문장 점수를 결정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 내 미리 설정된 단어들을 식별하고, 식별된 단어들 각각에 대하여 할당되는 단어 점수를 합산함으로써, 문장 단어 점수를 결정할 수 있다. 뉴스 기사 분석 시스템(3000)은 문장 단어 점수에, 문장 가중치를 곱함으로써, 최종적으로 문장 점수를 결정할 수 있다.In S716, the news article analysis system 3000 may determine the sentence score of each pre-processed sentence by applying the sentence weight determined for each pre-processed sentence to the word score of each financial word in the pre-processed sentence. . For example, the news article analysis system 3000 may determine the sentence word score by identifying preset words in the pre-processed sentence and summing the word scores assigned to each of the identified words. The news article analysis system 3000 may finally determine the sentence score by multiplying the sentence word score by the sentence weight.

예를 들어, 하나의 전 처리된 문장에 포함된 금융 단어들의 점수의 합이 0.4이고, 해당 전 처리된 문장이 1개의 긍정 부사를 포함하고, 느낌표로 종결되며, 부정어구 not을 포함하는 경우, 문장 단어 점수 0.4에 -0.45 문장 가중치를 적용함으로써, 전 처리된 문장의 문장 점수는 -0.18로 결정될 수 있다. 또 다른 실시 예에 따라 하나의 전 처리된 문장에 포함된 금융 단어들의 점수의 합이 0.4이고, 해당 전 처리된 문장이 1개의 긍정 부사를 포함하고, 느낌표로 종결되며, 부정어구를 포함하지 않는 경우, 문장 단어 점수 0.4에 0.45 문장 가중치를 적용(예컨대 0.4*0.45)함으로써, 전 처리된 문장의 문장 점수는 0.18로 결정될 수 있다.For example, if the sum of the scores of financial words included in one pre-processed sentence is 0.4, the pre-processed sentence contains one positive adverb, ends with an exclamation mark, and includes the negative phrase not, By applying a sentence weight of -0.45 to the sentence word score of 0.4, the sentence score of the pre-processed sentence may be determined to be -0.18. According to another embodiment, the sum of the scores of financial words included in one pre-processed sentence is 0.4, the pre-processed sentence includes one positive adverb, ends with an exclamation mark, and does not include negative phrases In this case, by applying a sentence weight of 0.45 to the sentence word score of 0.4 (eg, 0.4 * 0.45), the sentence score of the pre-processed sentence may be determined to be 0.18.

또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 각각에 포함된 각 금융 단어들의 단어 점수에 문장 별로 결정된 문장 가중치를 적용한 후, 문장 가중치가 적용된 단어 점수들을 가중합함으로써, 전 처리된 문장의 문장 점수를 결정할 수도 있다.According to another embodiment, the news article analysis system 3000 applies the sentence weight determined for each sentence to the word score of each financial word included in each pre-processed sentence, and then weights and sums the word scores to which the sentence weight is applied. It is also possible to determine the sentence score of the pre-processed sentence.

S718에서, 뉴스 기사 분석 시스템(3000)은 식별된 위치 정보에 기초하여, 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정할 수 있다. 또한, 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장의 위치 정보 및 상기 전 처리된 문장 내 포함된 접속사에 기초하여, 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 식별된 위치 정보에 기초하여, 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하는 동작은, 뉴스 기사 분석 시스템(3000)이 식별된 위치 정보에 기초하여, 전 처리된 문장 각각에 대하여 결정된 문장 가중치를 조정하고, 조정된 문장 가중치를, 전 처리된 문장 각각에 대하여 결정된 문장 점수에 적용하는 동작에 대응될 수 있다.In S718 , the news article analysis system 3000 may adjust the sentence score determined for each of the pre-processed sentences based on the identified location information. Also, according to an embodiment, the news article analysis system 3000 may adjust the sentence score determined for each of the pre-processed sentences based on the location information of the pre-processed sentence and the conjunction included in the pre-processed sentence. have. According to an embodiment, the operation of the news article analysis system 3000 adjusting the determined sentence score for each of the pre-processed sentences based on the identified position information includes the position information identified by the news article analysis system 3000 . may correspond to an operation of adjusting a sentence weight determined for each of the pre-processed sentences based on , and applying the adjusted sentence weight to a sentence score determined for each of the pre-processed sentences.

예를 들어, 뉴스 기사 분석 시스템(3000)은 뉴스 기사 내에서 상기 전 처리된 문장의 위치에 관한 위치 정보를 식별할 수 있다. 뉴스 기사 분석 시스템(3000)은 전 처리된 문장들의 위치 정보에 기초하여, 전 처리된 문장 간의 컨텍스트를 식별하고, 식별된 컨텍스트에 기초하여 전 처리된 문장 각각에 대하여 결정된 문장 점수들을 조정할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이, 전 처리된 문장의 위치 정보에 기초하여 식별하는 컨텍스트는 전 처리된 문장 사이의 '맥락' 또는 '문맥'을 의미할 수 있다.For example, the news article analysis system 3000 may identify location information regarding the location of the pre-processed sentence in the news article. The news article analysis system 3000 may identify contexts between pre-processed sentences based on location information of the pre-processed sentences, and adjust sentence scores determined for each of the pre-processed sentences based on the identified contexts. According to an embodiment, the context identified by the news article analysis system 3000 based on the location information of the pre-processed sentences may mean a 'context' or a 'context' between the pre-processed sentences.

예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장의 위치 정보에 기초하여, 전 처리된 문장이 연속된 문장인지 여부를 식별할 수 있다. 뉴스 기사 분석 시스템(3000)은 전 처리된 문장들이 연속된 문장인 경우, 전 처리된 문장에 대하여 결정된 문장 가중치 모두에 대하여, 추가 가중치를 더 부여할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장이 연속된 문장인 경우, 전 처리된 문장 각각에 대하여 결정된 문장 가중치들을 0.1만큼 증가시킬 수도 있으나, 이에 한정되는 것은 아니다. 뉴스 기사 분석 시스템(3000)은 증가된 문장 가중치들을, 전 처리된 문장 각각에 적용함으로써, 전 처리된 문장 각각의 문장 점수들을 조정할 수 있다.For example, the news article analysis system 3000 may identify whether the pre-processed sentence is a continuous sentence based on the location information of the pre-processed sentence. When the pre-processed sentences are consecutive sentences, the news article analysis system 3000 may further assign additional weights to all sentence weights determined for the pre-processed sentences. According to an embodiment, when the pre-processed sentences are consecutive sentences, the news article analysis system 3000 may increase the sentence weights determined for each of the pre-processed sentences by 0.1, but is not limited thereto. The news article analysis system 3000 may adjust the sentence scores of each pre-processed sentence by applying the increased sentence weights to each of the pre-processed sentences.

또한, 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장의 위치 정보 및 상기 전 처리된 문장에 포함된 접속사에 기초하여, 전 처리된 문장 각각에 대하여 문장 점수를 조정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장의 위치 정보에 기초하여, 전 처리된 문장이 2개의 연속된 문장인지 여부를 식별하고, 2개의 연속된 문장이 but 접속사로 연결되는 경우, 앞의 전 처리된 문장의 문장 가중치는 감소시키고, but 접속사 이후에 연결되는 뒤의 문장의 문장 가중치를 증가시킬 수도 있다. Also, according to an embodiment, the news article analysis system 3000 may adjust the sentence score for each of the pre-processed sentences based on the location information of the pre-processed sentence and the conjunction included in the pre-processed sentence. . For example, the news article analysis system 3000 identifies whether the pre-processed sentence is two consecutive sentences based on the position information of the pre-processed sentence, and the two consecutive sentences are connected by a but conjunction. In this case, the sentence weight of the pre-processed sentence may be decreased, and the sentence weight of the sentence after the but connected after the conjunction may be increased.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 2개의 연속된 문장이 but 접속사로 연결되는 경우, 앞의 전 처리된 문장의 문장 가중치는 0.4만큼 감소시키고, but 접속사 이후에 연결되는 뒤의 문장의 문장 가중치는 0.4만큼 증가시킬 수 있다. 뉴스 기사 분석 시스템(3000)은 but 접속사 앞의 전 처리된 문장 내 단어들의 점수의 합에, 0.4만큼 감소된 문장 가중치를 적용함으로써, but 접속사 앞의 전 처리된 문장의 문장 점수를 조정할 수 있다. 또한, 뉴스 기사 분석 시스템(3000)은 but 접속사 뒤의 전 처리된 문장 내 단어들의 점수의 합에 0.4만큼 증가된 문장 가중치를 적용함으로써, but 접속사 뒤의 전 처리된 문장의 문장 점수를 조정할 수 있다. According to an embodiment, the news article analysis system 3000 reduces the sentence weight of the previous pre-processed sentence by 0.4 when two consecutive sentences are connected by the but conjunction, and The sentence weight of a sentence can be increased by 0.4. The news article analysis system 3000 may adjust the sentence score of the preprocessed sentence before the but conjunction by applying a sentence weight reduced by 0.4 to the sum of scores of words in the preprocessed sentence before the but conjunction. In addition, the news article analysis system 3000 may adjust the sentence score of the preprocessed sentence after the but conjunction by applying a sentence weight increased by 0.4 to the sum of the scores of the words in the preprocessed sentence after the but conjunction. .

S720에서, 뉴스 기사 분석 시스템(3000)은 조정된 문장 점수를 이용하여 제2 뉴스 점수를 획득할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 전 처리된 문장 각각에 대하여 문장 점수들이 조정되면, 조정된 문장 점수들을 합함으로써, 제2 뉴스 점수를 획득할 수 있다.In S720 , the news article analysis system 3000 may obtain a second news score by using the adjusted sentence score. For example, when the sentence scores are adjusted for each of the pre-processed sentences, the news article analysis system 3000 may acquire the second news score by adding the adjusted sentence scores.

도 8은 일 실시 예에 따라 뉴스 기사 분석 시스템이 미리 설정된 수의 문장을 전처리 하는 과정을 나타내는 흐름도이다.8 is a flowchart illustrating a process in which a news article analysis system pre-processes a preset number of sentences according to an exemplary embodiment.

S810에서, 뉴스 기사 분석 시스템(3000)은 뉴스 기사 식별된 문장들 중, 추출된 일부의 문장을 토큰화(Tokenizing)함으로써, 문장 내 각 단어들을 식별할 수 있다. 도 7에는 도시되지 않았지만, 뉴스 기사 분석 시스템(3000)은 추출된 일부 문장을 토큰화한 후, 토큰화된 일부 문장 내 단어들을 토큰화 하는 과정을 더 수행함으로써, 추출된 문장 내 단어들을 식별할 수도 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 문법적으로 더 이상 나눌 수 없는 단위로, 추출된 문장들을 분해함으로써, 문장을 토큰화 할 수 있다. 또한, 뉴스 기사 분석 시스템(3000)은 문장 내 문장 부호, 띄어쓰기 중 적어도 하나에 기초하여, 추출된 문장들을 토큰화하고, 토큰화된 문장으로부터 단어를 식별할 수 있다.In S810 , the news article analysis system 3000 may identify each word in the sentence by tokenizing some extracted sentences among the identified sentences in the news article. Although not shown in FIG. 7 , the news article analysis system 3000 tokenizes some extracted sentences and then further performs a process of tokenizing words in some tokenized sentences to identify the words in the extracted sentences. may be According to an embodiment, the news article analysis system 3000 may tokenize the sentences by decomposing the extracted sentences into units that can no longer be divided grammatically. Also, the news article analysis system 3000 may tokenize the extracted sentences based on at least one of punctuation marks and spaces in the sentences, and may identify words from the tokenized sentences.

S820에서, 뉴스 기사 분석 시스템(3000)은 식별된 단어들 중, 문장 점수 산정에 사용되지 않는 단어들을 제거할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 문장을 토큰화함으로써 식별되는 단어들 중, 문장의 점수 산정에 필요 없는 단어 리스트를 생성해둘 수 있고, 생성된 단어 리스트에 포함된 단어들이 식별되는 경우, 해당 단어들을 제거할 수 있다.In S820 , the news article analysis system 3000 may remove words that are not used in calculating sentence scores from among the identified words. For example, the news article analysis system 3000 may generate a list of words that are not necessary for calculating the score of the sentence among the words identified by tokenizing the sentence, and when the words included in the generated word list are identified , you can remove those words.

S830에서, 뉴스 기사 분석 시스템(3000)은 문장 점수 산정에 사용되지 않는 단어들을 제거하고 남은 각 문장 내 단어들을 표제어 형태로 변환할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 문장 점수 산정에 사용되지 않는 단어들을 제거하고 남은 단어들이 사전에 기재된 표제어 형태가 아닌 경우(예컨대 looks) 사전에 기재된 표제어 형태(예컨대 look)로 남은 단어들을 변환할 수 있다. 뉴스 기사 분석 시스템(3000)은 표제어 형태로 변환된 단어들을 포함하는 문장을 이용하여 문장 별 가중치를 결정하고, 결정된 가중치에 기초하여 문장 별 문장 점수를 결정할 수 있다.In S830 , the news article analysis system 3000 may remove words not used in calculating sentence scores and convert the remaining words in each sentence into a headword form. For example, the news article analysis system 3000 removes words that are not used for calculating sentence scores, and when the remaining words are not in the form of a headword described in the dictionary (eg, looks), the words remaining in the form of a heading (eg, look) described in the dictionary can be converted The news article analysis system 3000 may determine a weight for each sentence using sentences including words converted into a headword form, and determine a sentence score for each sentence based on the determined weight.

도 9는 일 실시 예에 따른 뉴스 기사 분석 시스템이 문장 별로 결정되는 문장 가중치를 결정하기 위해, 이용하는, 문장 가중치 요소들을 설명하기 위한 도면이다.9 is a diagram for describing sentence weight elements used by a news article analysis system to determine a sentence weight determined for each sentence according to an embodiment.

도 9를 참조하면, 뉴스 기사 분석 시스템(3000)이 문장 별 문장 가중치를 결정하기 위해 이용하는 문장 점수 요소(904) 및 각 문장 점수 요소의 요소 내역(906)이 도시된다. 뉴스 기사 분석 시스템(3000) 이용하는 문장 점수 요소는 소정의 식별 번호(902)에 따라 전자 장치 또는 서버 내 메모리 또는 데이터 베이스에 미리 저장될 수 있다. 뉴스 기사 분석 시스템(3000)은 도 8의 전 처리과정에 따라 전 처리된 문장 내 부정어구, 부사, 문장 부호, 강조어구, 부정어 또는 인물 단어 중 적어도 하나에 기초하여, 전 처리된 문장 별 문장 가중치를 결정할 수 있다. Referring to FIG. 9 , a sentence score element 904 used by the news article analysis system 3000 to determine a sentence weight for each sentence and element details 906 of each sentence score element are illustrated. The sentence score element used by the news article analysis system 3000 may be stored in advance in a memory or database in the electronic device or server according to a predetermined identification number 902 . The news article analysis system 3000 calculates a sentence weight for each pre-processed sentence based on at least one of negative phrases, adverbs, punctuation marks, emphasis phrases, negative words, and person words in the sentences pre-processed according to the pre-processing process of FIG. 8 . can be decided

일 실시 예에 의하면, 문장 가중치 요소(904)는 부정어구, 부사, 문장 부호, 접속사, 강조어구, 부정어, 인물 단어 중 적어도 하나를 포함할 수 있다. 뉴스 기사 분석 시스템(3000)은 전 처리된 문장에 포함된 문장 가중치 요소에 기초하여 문장 별 문장 가중치를 결정할 수 있다. 그러나, 또 다른 실시 예에 의하면, 상기 문장 가중치 요소를 포함하는 문장에 인접한 다른 문장의 문장 가중치 요소를 변경할 수도 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 2개의 연속된 문장이 문장 가중치 요소(804)인 but 접속사로 연결되는 경우(또는 2개의 연속된 문장 중 뒤의 문장이 문장 가중치 요소인 but 접속사를 포함하는 경우), 앞의 전 처리된 문장의 문장 가중치는 0.4만큼 감소시키고, but 접속사 이후에 연결되는 뒤의 문장의 문장 가중치는 0.4만큼 증가시킬 수 있다.According to an embodiment, the sentence weighting element 904 may include at least one of negative phrases, adverbs, punctuation marks, conjunctions, emphasis phrases, negative words, and person words. The news article analysis system 3000 may determine a sentence weight for each sentence based on a sentence weight element included in the pre-processed sentence. However, according to another embodiment, the sentence weight element of another sentence adjacent to the sentence including the sentence weight element may be changed. For example, when two consecutive sentences are connected by a but conjunction that is a sentence weighting element 804 (or the last sentence among two consecutive sentences is a sentence weighting element, but the conjunction included), the sentence weight of the preceding pre-processed sentence can be decreased by 0.4, and the sentence weight of the sentence after the but connected after the conjunction can be increased by 0.4.

일 실시 예에 의하면, 문장 가중치 요소 중, 부정어구는 요소 내역(806)으로써, not, isn't를 포함할 수 있다. 또한, 일 실시 예에 의하면, 문장 가중치 요소 중, 부사는 긍정 부사 및 부정부사를 포함할 수 있고, 긍정 부사는 absolutely 또는 amazingly를 포함할 수 있으며, 부정 부사는 scarcely 또는 hardly 중 적어도 하나를 포함할 수 있다. 그러나 이에 한정되는 것은 아니다.According to an embodiment, among the sentence weight elements, negative phrases are element details 806 , and may include not and isn't. Also, according to an embodiment, among the sentence weighting factors, the adverb may include positive adverb and negative adverb, positive adverb may include absolutely or amazingly, and negative adverb may include at least one of scarcely or hardly. can However, the present invention is not limited thereto.

일 실시 예에 의하면, 문장 부호는 느낌표, 물음표, 쉼표를 포함할 수 있고, 기타 문장 내 일부 위치에 삽입되어 문장의 의미를 강조하거나, 보조하기 위한 기타 문장 부호들을 더 포함할 수도 있다.According to an embodiment, the punctuation mark may include an exclamation mark, a question mark, and a comma, and may further include other punctuation marks inserted at some positions in other sentences to emphasize or assist the meaning of the sentence.

일 실시 예에 의하면, 접속사는 but, however 등을 포함할 수 있으나 이에 한정되는 것은 아니다. 또한, 일 실시 예에 의하면, 강조어구는 very 등을 포함할 수 있고, 부정어는 never, so, without을 포함할 수 있으며, 인물 단어는 도 3에 도시된 인물 가중치 리스트에 도시된 인명을 포함할 수 있다.According to an embodiment, the conjunction may include but, however, and the like, but is not limited thereto. In addition, according to an embodiment, the emphasis phrase may include very, etc., the negative word may include never, so, and without, and the person word may include the person's name shown in the person weight list shown in FIG. 3 . can

도 10은 일 실시 예에 따른 뉴스 기사 분석 시스템이 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 뉴스 기사에 대한 종합 평가 점수를 결정하는 방법을 나타내는 흐름도이다.10 is a flowchart illustrating a method for a news article analysis system to determine a comprehensive evaluation score for a news article based on a first news score and a second news score according to an exemplary embodiment.

S1020에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 제2 뉴스 점수를 정규화할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)이 사전 학습 모델로부터 획득할 수 있는 제2 뉴스 점수가 가지는 점수의 분포 패턴은 신경망 모델로부터 획득할 수 있는 제1 뉴스 점수가 가지는 점수의 분포 패턴과 다를 수 있다. 따라서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 제2 뉴스 점수를, 제1 뉴스 점수가 가지는 점수의 분포 패턴에 따라 정규화함으로써, 점수의 분포 패턴을 유사하게 만들 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 제2 뉴스 점수를 -1 내지 1 사이의 점수로 정규화할 수 있다. 일 실시 예에 의하면, S1020은 뉴스 기사 분석 시스템(3000)내의 전자 장치(1000)에 의해 수행될 수 있다.In S1020 , the news article analysis system 3000 may normalize the second news score output from the pre-learning model. For example, the distribution pattern of the score of the second news score that the news article analysis system 3000 can obtain from the pre-learning model is different from the distribution pattern of the score of the first news score that can be obtained from the neural network model. can Accordingly, the news article analysis system 3000 may make the distribution patterns of scores similar by normalizing the second news scores output from the pre-learning model according to the distribution pattern of the scores of the first news scores. According to an embodiment, the news article analysis system 3000 may normalize the second news score to a score between -1 and 1. According to an embodiment, S1020 may be performed by the electronic device 1000 in the news article analysis system 3000 .

S1040에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 획득된 중립 지수 값에 기초하여, 제1 뉴스 점수 및 제2 뉴스 점수에 적용될 평가 가중치를 결정할 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터, 뉴스 기사에 대한 제2 뉴스 점수를 획득하는 것에 더하여, 중립 지수를 더 획득할 수도 있다. 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 제2 뉴스 점수를 획득하는 것에 더하여, 중립 지수, 부정 지수 및 긍정 지수를 더 획득할 수도 있다.In S1040 , the news article analysis system 3000 may determine an evaluation weight to be applied to the first news score and the second news score based on the neutral index value obtained from the prior learning model. For example, the news article analysis system 3000 may further acquire a neutral index from the pre-learning model, in addition to obtaining the second news score for the news article. According to another embodiment, in addition to obtaining the second news score, the news article analysis system 3000 may further obtain a neutral index, a negative index, and a positive index.

일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 중립 지수가 제1 임계치 보다 작거나 같은 경우, 제1 평가 가중치를 작게하고, 제2 평가 가중치를 크게 결정할 수 있다. 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 중립 지수가 제2 임계치 보다 크거나 같은 경우, 제1 평가 가중치를 크게하고, 제2 평가 가중치를 작게 결정할 수 있다.According to an embodiment, when the neutral index is less than or equal to the first threshold, the news article analysis system 3000 may determine the first evaluation weight to be small and the second evaluation weight to be large. According to another embodiment, when the neutral index is greater than or equal to the second threshold, the news article analysis system 3000 may determine the first evaluation weight to be large and the second evaluation weight to be small.

S1060에서, 뉴스 기사 분석 시스템(3000)은 결정된 평가 가중치에 따라 제1 뉴스 점수 및 정규화된 제2 뉴스 점수를 가중합함으로써 종합 평가 점수를 결정할 수 있다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수의 값의 범위에 기초하여, 제1 뉴스 점수 및 제2 뉴스 점수에 적용될 평가 가중치를 서로 다르게 결정하고, 서로 다르게 결정된 가중치를 제1 뉴스 점수 및 제2 뉴스 점수에 적용할 수 있다. 후술하는 도 10을 참조하여, 전자 장치(1000)가 중립 지수의 값에 기초하여, 제1 뉴스 점수 및 제2 뉴스 점수에 적용할 평가 가중치를 결정하고, 결정된 평가 가중치에 따라 제1 뉴스 점수 및 제2 뉴스 점수를 가중합하는 방법을 더 구체적으로 설명하기로 한다.In S1060 , the news article analysis system 3000 may determine the overall evaluation score by weighting the first news score and the normalized second news score according to the determined evaluation weight. According to an embodiment, the news article analysis system 3000 determines different evaluation weights to be applied to the first news score and the second news score, based on the range of the neutral index value output from the pre-learning model, Differently determined weights may be applied to the first news score and the second news score. Referring to FIG. 10 to be described later, the electronic device 1000 determines an evaluation weight to be applied to the first news score and the second news score based on the neutral index value, and according to the determined evaluation weight, the first news score and A method of weighting the second news score will be described in more detail.

이하에서는, 뉴스 기사 분석 시스템(3000)이 사전 학습 모델로부터 획득하는 긍정 지수, 부정 지수 및 중립 지수 값에 대하여 구체적으로 설명하기로 한다. 일 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)이 사전 학습 모델로부터 획득하는 중립 지수, 부정 지수 및 긍정 지수는 뉴스 기사로부터 추출된 일부의 문장들 각각에 포함된 단어들이 나타내는 단어 점수의 분포 패턴에 따라 결정될 수 있다. 일 실시 예에 의하면, 중립 지수, 부정 지수 및 긍정 지수의 합은 1일 수 있으나, 이에 한정되는 것은 아니다. Hereinafter, the positive index, negative index, and neutral index values obtained by the news article analysis system 3000 from the pre-learning model will be described in detail. According to an embodiment, the neutral index, the negative index, and the positive index obtained by the news article analysis system 3000 from the pre-learning model are distribution patterns of word scores indicated by words included in each of some sentences extracted from the news article. can be determined according to According to an embodiment, the sum of the neutral index, the negative index, and the positive index may be 1, but is not limited thereto.

긍정 지수는 뉴스 기사 내 양의 단어 점수를 포함하는 단어들(긍정적 금융 단어들)이, 음의 단어 점수를 포함하는 단어들(부정적 금융 단어들)보다 많이 분포할 경우, 크게 출력될 수 있고, 부정 지수는 뉴스 기사 내 음의 단어 점수를 포함하는 단어들(부정적 금융 단어들)이 양의 단어 점수를 포함하는 단어들(긍정적 금융 단어들)보다 많을 경우, 크게 출력될 수 있다. 또 다른 실시 예에 의하면, 긍정 지수는 뉴스 기사 내 양의 문장 점수를 가지는 문장들의 수가, 음의 문장 점수를 가지는 문장들의 수 보다 많을 경우, 크게 출력될 수 있고, 부정 지수는 뉴스 기사 내 음의 문장 점수를 가지는 문장들의 수가, 양의 문장 점수를 가지는 문장들의 수 보다 많을 경우 크게 출력될 수 있다.The positive index can be output large when words (positive finance words) containing a positive word score in the news article are distributed more than words containing a negative word score (negative finance words), The negative index may be output to be large when the words (negative finance words) including the negative word score in the news article are more than the words (positive finance words) including the positive word score. According to another embodiment, when the number of sentences having a positive sentence score in a news article is greater than the number of sentences having a negative sentence score, the positive index may be output to be large, and the negative index may be negative in the news article. When the number of sentences having a sentence score is greater than the number of sentences having a positive sentence score, the output may be large.

일 실시 예에 의하면, 중립 지수는 사전 학습 모델로부터 출력된 제2 뉴스 점수에 대한 신뢰도 정도를 확률 값으로 나타낸 값일 수 있다. 예를 들어, 중립 지수가 기 설정된 임계치 보다 낮은 경우, 제2 뉴스 점수는 높은 확률로 신뢰할 수 있지만, 중립 지수가 기 설정된 임계치 보다 큰 경우, 제2 뉴스 점수의 신뢰 확률은 낮을 수 있다. 예를 들어, 뉴스 기사 분석 시스템(3000)이 이용하는 사전 학습 모델은, 뉴스 기사로부터 추출된 일부 문장(예컨대 요약 데이터 내 문장들) 각각에 대한 문장 점수들의 분포가 음의 문장 점수 및 양의 문장 점수로 명확하게 분류될 수 있도록 분포되는 경우, 중립 지수를 낮게 결정할 수 있다. 그러나, 뉴스 기사 분석 시스템(3000)이 이용하는 사전 학습 모델은, 뉴스 기사로부터 추출된 일부 문장 각각에 대한 문장 점수들의 분포가 음의 문장 점수 및 양의 문장 점수로 명확하게 구분되지 않는 경우, 중립 지수를 크게 결정할 수 있다. 일 실시 예에 의하면, 중립 지수가 큰 경우, 사전 학습 모델로부터 출력된 제2 뉴스 점수에 대한 신뢰도가 낮을 수 있고, 중립 지수가 작은 경우, 사전 학습 모델로부터 출력된 제2 뉴스 점수에 대한 신뢰도가 높을 수 있다.According to an embodiment, the neutral index may be a value representing the degree of confidence in the second news score output from the pre-learning model as a probability value. For example, when the neutral index is lower than the preset threshold, the second news score may be reliable with high probability, but when the neutral index is greater than the preset threshold, the confidence probability of the second news score may be low. For example, in the prior learning model used by the news article analysis system 3000, the distribution of sentence scores for each of some sentences (eg, sentences in summary data) extracted from a news article is a negative sentence score and a positive sentence score. If it is distributed so that it can be clearly classified as , the neutral index can be determined to be low. However, the prior learning model used by the news article analysis system 3000 is a neutral index when the distribution of sentence scores for each of some sentences extracted from a news article is not clearly divided into a negative sentence score and a positive sentence score. can be largely determined. According to an embodiment, when the neutral index is large, the reliability of the second news score output from the pre-learning model may be low, and when the neutral index is small, the reliability of the second news score output from the pre-learning model is low. can be high

일 실시 예에 의하면, 중립 지수는 뉴스 기사 내 추출된 일부 문장 단위를 기준으로 결정될 수도 있다. 일 실시 예에 의하면, 중립 지수는 문장 단위 내 양의 점수를 가지는 단어가 음의 점수를 가지는 단어 보다 많이 포함되는 경우, 또는 문장 단위 내 음의 점수를 가지는 단어가 양의 점수를 가지는 단어 보다 많이 포함되는 경우와 같이, 문장 내 문장 점수의 성향이 명확히 구분되는 경우, 낮게 출력될 수 있다. 그러나, 중립 지수는 문장 단위 내 양의 점수를 가지는 단어 및 음의 점수를 가지는 단어의 수가 비슷한 경우, 또는 해당 문장에 미리 설정된 금융 단어 또는 인물 단어를 포함하는 문장이 없는 경우, 크게 출력될 수 있다.According to an embodiment, the neutral index may be determined based on some sentence units extracted from the news article. According to an embodiment, the neutral index includes more words having a positive score in a sentence unit than words having a negative score, or more words having a negative score in a sentence unit than words having a positive score in a sentence unit. When the tendency of the sentence score in the sentence is clearly distinguished, such as in the case of inclusion, it may be output low. However, the neutral index may be output large when the number of words having a positive score and a word having a negative score in a sentence unit are similar, or when there is no sentence including a financial word or a person word preset in the corresponding sentence. .

도 11은 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 종합 평가 점수를 결정하는 방법을 나타내는 흐름도이다.11 is a flowchart illustrating a method for a news article analysis system to determine a comprehensive evaluation score based on a first news score and a second news score according to another exemplary embodiment.

S1102에서, 뉴스 기사 분석 시스템(3000)은 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별할 수 있다. S1010은 도 2의 S210에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1102 , the news article analysis system 3000 may identify a sentence including a pre-stored financial word or a person word in the news article. Since S1010 may correspond to S210 of FIG. 2 , a detailed description thereof will be omitted.

S1104에서, 뉴스 기사 분석 시스템(3000)은 식별된 문장 중 일부 문장을 뉴스 기사에 대한 점수를 출력하도록 미리 학습되는 신경망 모델에 입력함으로써 신경망 모델로부터 제1 뉴스 점수를 획득할 수 있다. S1012는 S220에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1104 , the news article analysis system 3000 may obtain a first news score from the neural network model by inputting some of the identified sentences into the neural network model trained in advance to output a score for the news article. Since S1012 may correspond to S220, a detailed description thereof will be omitted.

S1106에서, 뉴스 기사 분석 시스템(3000)은 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 사전 학습 모델로부터 제2 뉴스 점수 및 중립 지수를 획득할 수 있다. 또 다른 실시 예에 의하면, 뉴스 기사 분석 시스템(3000)은 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 사전 학습 모델로부터, 제2 뉴스 점수, 긍정 지수, 부정 지수 및 중립 지수를 획득할 수도 있다. S1106에서, 뉴스 기사 분석 시스템(3000)이 사전 학습 모델을 이용하여 제2 뉴스 점수를 획득하는 동작은 도 7의 S712 내지 S720에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1106 , the news article analysis system 3000 may obtain a second news score and a neutral index from the prior learning model by inputting some of the identified sentences to the prior learning model. According to another embodiment, the news article analysis system 3000 obtains a second news score, a positive index, a negative index, and a neutral index from the pre-learning model by inputting some of the identified sentences into the pre-learning model. You may. In S1106, the operation of the news article analysis system 3000 to obtain the second news score using the pre-learning model may correspond to S712 to S720 of FIG. 7, and thus a detailed description thereof will be omitted.

S1108에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수가 제1 임계치 이하인지 여부를 식별할 수 있다. S1110에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수가 제2 임계치 미만인지 여부를 식별할 수 있다. S1112에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수가 제1 임계치 이하로 식별되는 경우, 상기 중립 지수 값 및 1보다 작은 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 큰 제2 평가 가중치를 정규화된(Normalized) 제2 뉴스 점수에 곱한 값을 합함으로써, 뉴스 기사에 대한 종합 평가 점수(예컨대, 종합 평가 점수 = 제1 평가 가중치*중립 지수 값*제1 뉴스 점수 + 제2 평가 가중치*(1-중립 지수 값)*정규화된 제2 뉴스 점수) 를 결정할 수 있다.In S1108 , the news article analysis system 3000 may identify whether the neutral index output from the pre-learning model is equal to or less than the first threshold. In S1110 , the news article analysis system 3000 may identify whether the neutral index output from the pre-learning model is less than the second threshold. In S1112 , the news article analysis system 3000 multiplies the neutral index value and a first evaluation weight smaller than 1 by the first news score when the neutral index output from the pre-learning model is identified as less than or equal to the first threshold value and a value obtained by subtracting the neutral index value from 1 and a value obtained by multiplying a normalized second news score by a value of a second evaluation weight greater than 1; A first evaluation weight*neutral index value*first news score+second evaluation weight*(1-neutral index value)*normalized second news score) may be determined.

S1114에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수가 제1 임계치보다 크고, 제2 임계치보다 작은 경우, 중립 지수 값을 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값을 정규화된 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수(예컨대, 종합 평가 점수 = 중립 지수 값*제1 뉴스 점수 + (1-중립 지수 값)*정규화된 제2 뉴스 점수)를 결정할 수 있다.In S1114, when the neutral index output from the pre-learning model is greater than the first threshold and less than the second threshold, the news article analysis system 3000 multiplies the neutral index value by the first news score, and the neutral index at 1 By summing the value obtained by subtracting the index value multiplied by the normalized second news score, the composite assessment score (eg, composite assessment score = neutral index value * first news score + (1-neutral index value) * normalized second score) 2 news score).

S1116에서, 뉴스 기사 분석 시스템(3000)은 사전 학습 모델로부터 출력된 중립 지수가 제2 임계치 보다 크거나 같은 경우, 중립 지수 값 및 1보다 큰 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 작은 제2 평가 가중치를 정규화된 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수(예컨대, 종합 평가 점수 = 제1 평가 가중치*중립 지수 값*제1 뉴스 점수 + 제2 평가 가중치*중립 지수 값*정규화된 제2 뉴스 점수)를 결정할 수 있다.In S1116, when the neutral index output from the pre-learning model is greater than or equal to the second threshold, the news article analysis system 3000 multiplies the neutral index value and the first evaluation weight greater than 1 by the first news score and , by summing a value obtained by subtracting the neutral index value from 1 and a value obtained by multiplying a normalized second news score by a second evaluation weight less than 1, the overall evaluation score (eg, comprehensive evaluation score = first evaluation weight*neutral index) value*first news score+second evaluation weight*neutral index value*normalized second news score) may be determined.

도 12는 일 실시 예에 따른 전자 장치의 블록도이다.12 is a block diagram of an electronic device according to an embodiment.

일 실시 예에 따른 전자 장치(1000)는 프로세서(1400) 및 메모리(1402)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 프로세서(1400) 및 메모리(1402)외에 네트워크 인터페이스(미도시)를 더 포함할 수도 있다.The electronic device 1000 according to an embodiment may include a processor 1400 and a memory 1402 . However, not all illustrated components are essential components, and the electronic device 1000 may be implemented with more components than the illustrated components, and the electronic device 1000 may be implemented with fewer components. may be According to an embodiment, the electronic device 1000 may further include a network interface (not shown) in addition to the processor 1400 and the memory 1402 .

프로세서(1400)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 일 실시 예에 의하면, 본 개시에 따른 프로세서(1400)는 메모리(1402)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 10에 기재된 뉴스 기사 분석 시스템(3000)의 적어도 하나의 기능을 수행할 수 있다. 또한, 프로세서(1400)는 하나 또는 복수의 프로세서로 구성될 수 있고, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU와 같은 그래픽 전용 프로세서 또는 인공지능(AI) 전용 프로세서를 포함할 수 있다. 그러나 이에 한정되는 것은 아니며, 프로세서(1400)는 메모리에 저장된 인스트럭션을 실행함으로써 뉴스 기사를 분석하기 위한 기능을 수행하는 기타 처리 장치를 포함할 수 있다. 일 실시 예에 의하면, 프로세서(1400)가 범용 프로세서, 인공지능 프로세서 및 그래픽 전용 프로세서를 포함하는 경우, 인공지능 프로세서는 범용 프로세서 또는 그래픽 전용 프로세서와 별도의 칩으로 구현될 수도 있다. The processor 1400 generally controls the overall operation of the electronic device 1000 . According to an embodiment, the processor 1400 according to the present disclosure may execute at least one function of the news article analysis system 3000 described in FIGS. 1 to 10 by executing programs stored in the memory 1402 . . In addition, the processor 1400 may be composed of one or a plurality of processors, and the one or the plurality of processors is a general-purpose processor such as a CPU, AP, DSP (Digital Signal Processor), etc., a graphics-only processor such as a GPU, or artificial intelligence (AI). ) may include a dedicated processor. However, the present invention is not limited thereto, and the processor 1400 may include other processing units that perform a function for analyzing news articles by executing instructions stored in the memory. According to an embodiment, when the processor 1400 includes a general-purpose processor, an artificial intelligence processor, and a graphics-only processor, the artificial intelligence processor may be implemented as a general-purpose processor or a chip separate from the graphics-only processor.

일 실시 예에 의하면, 프로세서(1400)가 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서로 구현될 때, 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서 중 적어도 일부는 전자 장치(1000) 및 전자 장치(1000)와 연결된 다른 전자 장치 또는 서버에 탑재될 수도 있다. According to an embodiment, when the processor 1400 is implemented as a plurality of processors or graphics-only processors or artificial intelligence-only processors, at least some of the plurality of processors or graphics-only processors or artificial intelligence-only processors include the electronic device 1000 and It may be mounted on another electronic device connected to the electronic device 1000 or a server.

예를 들어, 프로세서(1400)는, 메모리(1402)에 저장된 프로그램들을 실행함으로써, 전자 장치(1000)와 연결된 외부 디바이스로부터 뉴스 기사를 획득할 수 있다. 또한, 프로세서(1400)는 전자 장치와 연결된 서버로 상기 획득된 뉴스 기사를 전송할 수 있다.For example, the processor 1400 may acquire a news article from an external device connected to the electronic apparatus 1000 by executing programs stored in the memory 1402 . Also, the processor 1400 may transmit the obtained news article to a server connected to the electronic device.

또한, 일 실시 예에 의하면, 프로세서(1400)는 서버(2000)로부터 수신된 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 상기 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정하고, 결정된 종합 평가 점수를 전자 장치(1000)의 출력부(미도시)를 통하여 출력할 수 있다.Also, according to an embodiment, the processor 1400 determines a comprehensive evaluation score regarding the financial propensity of the news article based on the first news score and the second news score received from the server 2000 , and the determined comprehensive evaluation The score may be output through an output unit (not shown) of the electronic device 1000 .

또 다른 실시 예에 의하면, 프로세서(1400)는 독립적으로, 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하고, 상기 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하고, 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하고, 상기 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 상기 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정할 수 도 있다.According to another embodiment, the processor 1400 independently identifies a sentence including a financial word or a person word stored in advance in a news article, and assigns some of the identified sentences to a score for the news article. Obtaining a first news score from the neural network model by input to a neural network model that is trained to output, and obtaining a second news score from the prior learning model by inputting sentences of some of the identified sentences into a pre-learning model, , based on the first news score and the second news score, a comprehensive evaluation score regarding the financial propensity of the news article may be determined.

일 실시 예에 의하면, 프로세서(1400)는 금융 단어를 포함하는 금융 단어 리스트 및 인물 단어를 포함하는 인물 가중치 리스트가 수정 및 갱신되는 경우, 수정 및 갱신된 금융 단어 리스트 및 인물 가중치 리스트를 서버로 전송할 수도 있다. 그러나 또 다른 실시 예에 의하면, 프로세서(1400)는 상기 금융 단어 및 상기 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트를 생성하고, 상기 인물 단어 및 상기 인물 단어 별 인물 단어 가중치를 매칭함으로써 인물 가중치 리스트를 생성하고, 상기 생성된 금융 단어 리스트 및 상기 인물 가중치 리스트를 저장할 수 있다.According to an embodiment, the processor 1400 transmits the modified and updated financial word list and the person weight list to the server when the financial word list including the financial word and the person weight list including the person word are modified and updated. may be However, according to another embodiment, the processor 1400 generates a financial word list by matching the financial word and the word score for each financial word, and a person weight list by matching the person word and the person word weight for each person word may be created, and the generated financial word list and the person weight list may be stored.

일 실시 예에 의하면, 프로세서(1400)는 뉴스 기사에 포함된 문장들 각각의 위치 정보를 식별하고, 상기 식별된 문장의 위치 정보에 기초하여, 뉴스 기사 내 첫 문장 및 상기 뉴스 기사 내 마지막 문장을 식별하고, 상기 금융 단어 또는 상기 인물 단어를 포함하는 문장, 상기 첫 문장 및 상기 마지막 문장 중, 점수 산정 대상이 되는 기 설정된 수의 문장을 추출할 수 있다.According to an embodiment, the processor 1400 identifies the position information of each of the sentences included in the news article, and based on the position information of the identified sentence, the first sentence in the news article and the last sentence in the news article It is possible to identify, and extract a preset number of sentences to be scored among the sentences including the financial word or the person word, the first sentence, and the last sentence.

그러나 또 다른 실시 예에 의하면, 프로세서(1400)는 서버(2000)로 뉴스 기사를 전송하고, 서버로부터, 뉴스 기사에서 추출된 미리 설정된 수의 문장에 관한 정보를 수신할 수도 있다.However, according to another embodiment, the processor 1400 may transmit a news article to the server 2000 and receive information about a preset number of sentences extracted from the news article from the server.

일 실시 예에 의하면, 프로세서(1400)는 추출된 기 설정된 수의 문장을 전처리 하고, 상기 전 처리된 문장을 상기 신경망 모델에 입력하고, 상기 신경망 모델로부터 출력된 제1 뉴스 점수를 획득할 수 있다. 그러나 또 다른 실시 예에 의하면, 프로세서(1400)는 서버(2000)에 저장된 신경망 모델을 이용하여 출력된 제1 뉴스 점수를 서버(2000)로부터 수신할 수도 있다.According to an embodiment, the processor 1400 may pre-process the extracted predetermined number of sentences, input the pre-processed sentences into the neural network model, and obtain a first news score output from the neural network model. . However, according to another embodiment, the processor 1400 may receive the first news score output from the server 2000 using the neural network model stored in the server 2000 .

일 실시 예에 의하면, 프로세서(1400)는 상기 추출된 기 설정된 수의 문장을 전처리 하고, 상기 전 처리된 문장 각각에 대하여 결정되는 문장 가중치에 기초하여, 상기 전 처리된 문장 각각의 문장 점수를 결정하고, 상기 식별된 위치 정보에 기초하여, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하고, 상기 조정된 문장 점수를 이용하여 상기 제2 뉴스 점수를 획득할 수 있다. 그러나, 일 실시 예에 의하면 프로세서(1400)는 서버(2000)로부터 사전 학습 모델에 의해 출력된 제2 뉴스 점수를 수신할 수도 있다. 또한, 프로세서(1400)는 서버(2000)내 사전 학습 모델로부터 출력된 제2 뉴스 점수, 중립 지수, 긍정 지수 또는 부정 지수에 대한 정보를 더 수신할 수도 있다.According to an embodiment, the processor 1400 pre-processes the extracted preset number of sentences, and determines the sentence score of each of the pre-processed sentences based on the sentence weight determined for each of the pre-processed sentences. and, based on the identified location information, adjust the sentence score determined for each of the pre-processed sentences, and obtain the second news score using the adjusted sentence score. However, according to an embodiment, the processor 1400 may receive the second news score output by the pre-learning model from the server 2000 . In addition, the processor 1400 may further receive information on the second news score, neutral index, positive index, or negative index output from the pre-learning model in the server 2000 .

일 실시 예에 의하면, 프로세서(1400)는 상기 추출된 기 설정된 문장을 토큰화(tokenizing) 함으로써, 문장 내 각 단어를 식별하고, 상기 식별된 각 단어들 중, 상기 문장 점수 산정에 사용되지 않는 단어들을 제거하고, 상기 문장 점수 산정에 사용되지 않는 단어들을 제거하고 남은 각 문장 내 단어들을 표제어 형태로 변환할 수 있다.According to an embodiment, the processor 1400 identifies each word in the sentence by tokenizing the extracted preset sentence, and among the identified words, a word not used in calculating the sentence score may be removed, words not used in calculating the sentence score may be removed, and words in each remaining sentence may be converted into a headword form.

메모리(1402)는, 프로세서(1400)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1402)는 사전 학습 모델 및 신경망 모델을 포함하는 복수의 뉴스 기사 분석 모델을 포함할 수 있다. 일 실시 예에 의하면, 메모리(1402)는 신경망 모델의 구성으로써, 신경망을 구성하는 레이어들, 레이어들에 포함된 노드들 및 레이어들의 연결 강도에 관한 가중치들에 대한 정보를 저장할 수 있다.The memory 1402 may store a program for processing and control of the processor 1400 , and may also store data input to or output from the electronic device 1000 . In addition, the memory 1402 may include a plurality of news article analysis models including a pre-trained model and a neural network model. According to an embodiment, the memory 1402 may store information about the layers constituting the neural network, the nodes included in the layers, and weights related to the connection strength of the layers as a configuration of the neural network model.

일 실시 예에 의하면, 메모리(1402)는 도 3에서 상술한 금융 단어 및 상기 금융 단어 별 단어 점수를 포함하는 금융 단어 리스트를 더 저장할 수도 있다. 또한, 메모리(1402)는 미리 설정된 인물 단어 및 인물 단어 별 인물 단어 가중치를 포함하는 인물 가중치 리스트를 더 저장할 수도 있다.According to an embodiment, the memory 1402 may further store the financial word list described above with reference to FIG. 3 and the financial word list including word scores for each financial word. Also, the memory 1402 may further store a person weight list including preset person words and person word weights for each person word.

일 실시 예에 의하면, 메모리(1402)는 메모리에 기 저장된 사전 학습 모델 및 신경망 모델이 수정 및 갱신되는 경우, 수정 및 갱신된 사전 학습 모델 및 신경망 모델을 저장할 수도 있다. 메모리(1402)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 그러나, 이에 한정되는 것은 아니며, 기타 뉴스 기사를 분석하기 위한 방법을 수행하기 위한 인스트럭션들, 상기 뉴스 기사를 분석하기 위한 적어도 하나의 인공 지능 모델에 대한 정보를 저장하기 위한 기타 저장 매체를 포함할 수 있다. According to an embodiment, when the pre-learning model and the neural network model previously stored in the memory are modified and updated, the memory 1402 may store the modified and updated pre-learning model and the neural network model. The memory 1402 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks. However, the present invention is not limited thereto, and may include instructions for performing a method for analyzing other news articles, and other storage media for storing information about at least one artificial intelligence model for analyzing the news article. have.

네트워크 인터페이스(미도시)는 전자 장치(1000)가 외부 디바이스 또는 서버와 송수신하는 데이터를 전달할 수 있다. 예를 들어, 전자 장치(1000)는 네트워크 인터페이스를 통하여 외부 디바이스로부터 뉴스 기사에 관한 데이터를 획득할 수 있다. 또한, 전자 장치(1000)는 네트워크 인터페이스를 통하여 외부 디바이스로부터 신경망 모델 내지 사전 학습 모델에 대한 정보를 수신할 수도 있다. 또한, 전자 장치(1000)는 네트워크 인터페이스를 통하여 뉴스 기사에 대한 분석 결과로써 종합 평가 점수를 외부 디바이스로 출력할 수도 있다.A network interface (not shown) may transmit data transmitted/received by the electronic device 1000 to/from an external device or server. For example, the electronic apparatus 1000 may obtain data about a news article from an external device through a network interface. Also, the electronic device 1000 may receive information about the neural network model or the pre-learning model from an external device through a network interface. Also, the electronic device 1000 may output the comprehensive evaluation score as an analysis result of the news article to an external device through the network interface.

도 13은 일 실시 예에 따른 서버의 블록도이다.13 is a block diagram of a server according to an embodiment.

일 실시 예에 따르면, 서버(2000)는 네트워크 인터페이스(2100), 데이터 베이스(Data Base, 2200) 및 프로세서(2300)를 포함할 수 있다. According to an embodiment, the server 2000 may include a network interface 2100 , a database 2200 , and a processor 2300 .

네트워크 인터페이스(2100)는 상술한 전자 장치(1000)의 네트워크 인터페이스(미도시)에 대응될 수 있다. 예를 들어, 네트워크 인터페이스(2100)는 전자 장치(1000)로부터 신경망 모델에 대한 정보 또는 사전 학습 모델에 대한 정보를 수신하거나, 전자 장치(1000)로 서버에 저장된 신경망 모델에 대한 정보 또는 사전 학습 모델에 대한 정보를 전송할 수도 있다. 또한, 네트워크 인터페이스(2100)는 전자 장치로부터 뉴스 기사에 대한 정보를 수신하거나, 서버(2000)에서 결정한 제1 뉴스 점수 및 제2 뉴스 점수 또는 뉴스 기사에 대한 종합 평가 점수에 대한 정보를 전송할 수도 있다.The network interface 2100 may correspond to the above-described network interface (not shown) of the electronic device 1000 . For example, the network interface 2100 receives information on a neural network model or information on a pre-learning model from the electronic device 1000 , or information on a neural network model stored in a server by the electronic device 1000 or a pre-learning model You can also transmit information about In addition, the network interface 2100 may receive information about a news article from the electronic device, or transmit information on the first news score and the second news score determined by the server 2000 or a comprehensive evaluation score for the news article. .

예를 들어, 네트워크 인터페이스(2100)는 인공 신경망의 레이어들 및 레이어들에 포함된 노드에 관한 정보 또는 신경망 내 레이어들의 연결 강도에 관한 가중치 값들을 수신할 수 있다. 네트워크 인터페이스(2100)는 서버(2000)에 의하여 미리 학습된 신경망 모델에 대한 정보로써, 레이어들 및 레이어들의 연결 강도에 관한 가중치 값을 전자 장치(1000)로 전송할 수도 있다.For example, the network interface 2100 may receive information about layers and nodes included in the layers of the artificial neural network or weight values related to connection strength of layers in the neural network. The network interface 2100 may transmit, as information about the neural network model pre-trained by the server 2000 , to the electronic device 1000 , layers and weight values related to connection strengths of the layers.

데이터 베이스(2200)는 도 12에 도시된 전자 장치의 메모리(1402)에 대응될 수 있다. 예를 들어, 데이터 베이스(2200)는 프로세서(2300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 데이터 베이스(2200)는 인공 신경망 모델을 구성하는 레이어들, 레이어들에 포함된 노드들 및 레이어들의 연결 강도에 관한 가중치들에 대한 정보 및 사전 학습 모델에 대한 정보를 더 저장할 수도 있다. 또한, 데이터 베이스(2200)는 전자 장치 또는 상기 전자 장치와 연결되는 외부 디바이스로부터 수신되는 뉴스 기사에 대한 정보들, 금융 단어 리스트 및 인물 단어 가중치 리스트를 더 저장할 수도 있다. The database 2200 may correspond to the memory 1402 of the electronic device shown in FIG. 12 . For example, the database 2200 may store a program for processing and controlling the processor 2300 , and may also store data input to or output from the electronic device 1000 . In addition, the database 2200 may further store information about the layers constituting the artificial neural network model, information about weights related to the nodes included in the layers, and weights related to the connection strength of the layers, and information about the pre-learning model. Also, the database 2200 may further store information on news articles received from an electronic device or an external device connected to the electronic device, a financial word list, and a person word weight list.

프로세서(2300)는 서버(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(2300)는 네트워크 인터페이스(2100) 및 데이터 베이스(2200)를 제어함으로써, 전자 장치(1000)와 함께 뉴스 기사를 분석하는 동작을 수행할 수 있다. 일 실시 예에 의하면, 프로세서(2300)는 상기 전자 장치로부터 뉴스 기사를 획득하고, 획득된 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하고, 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득할 수 있다.The processor 2300 may control the overall operation of the server 2000 . For example, the processor 2300 may perform an operation of analyzing a news article together with the electronic device 1000 by controlling the network interface 2100 and the database 2200 . According to an embodiment, the processor 2300 obtains a news article from the electronic device, identifies a sentence including a financial word or a person word stored in advance in the obtained news article, and selects a part of the identified sentence, A first news score may be obtained from the neural network model by inputting the score to the neural network model trained to output the score for the news article.

또한, 일 실시 예에 의하면, 프로세서(2300)는 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하고, 제1 뉴스 점수 및 제2 뉴스 점수를 상기 전자 장치로 전송할 수 있다.Also, according to an embodiment, the processor 2300 may obtain a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model, and obtain a first news score and a second news score. may be transmitted to the electronic device.

일 실시 예에 의하면, 프로세서(2300)는 상기 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여, 전자 장치로부터 수신된 뉴스 기사에 대한 금융 성향에 관한 종합 평가 점수를 결정하고, 결정된 종합 평가 점수에 대한 정보를 전자 장치로 전송할 수도 있다.According to an embodiment, the processor 2300 determines a comprehensive evaluation score regarding financial propensity for a news article received from the electronic device based on the first news score and the second news score, and adds the overall evaluation score to the determined overall evaluation score. information may be transmitted to the electronic device.

또한, 일 실시 예에 의하면, 프로세서(2300)는 금융 단어 및 상기 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트를 생성하고, 인물 단어 및 상기 인물 단어 별 인물 단어 가중치를 매칭함으로써 인물 가중치 리스트를 생성하며, 생성된 금융 단어 리스트 및 상기 인물 가중치 리스트를 저장할 수 있다.Also, according to an embodiment, the processor 2300 generates a financial word list by matching a financial word and a word score for each financial word, and generates a person weight list by matching a person word and a person word weight for each person word and the generated financial word list and the person weight list may be stored.

일 실시 예에 의하면, 프로세서(2300)는 뉴스 기사에 포함된 문장들 각각의 위치 정보를 식별하고, 식별된 문장의 위치 정보에 기초하여, 뉴스 기사 내 첫 문장 및 상기 뉴스 기사 내 마지막 문장을 식별하며, 금융 단어 또는 상기 인물 단어를 포함하는 문장, 상기 첫 문장 및 상기 마지막 문장 중, 점수 산정 대상이 되는 기 설정된 수의 문장을 추출할 수 있다.According to an embodiment, the processor 2300 identifies position information of each of the sentences included in the news article, and identifies the first sentence in the news article and the last sentence in the news article based on the position information of the identified sentence and a predetermined number of sentences to be scored can be extracted from among the financial word or the sentence including the person word, the first sentence, and the last sentence.

일 실시 예에 의하면, 프로세서(2300)는 추출된 기 설정된 수의 문장을 전 처리 하고, 전 처리된 문장을 상기 신경망 모델에 입력하며, 신경망 모델로부터 출력된 제1 뉴스 점수를 획득할 수 있다.According to an embodiment, the processor 2300 may pre-process a preset number of extracted sentences, input the pre-processed sentences to the neural network model, and obtain a first news score output from the neural network model.

또한, 일 실시 예에 의하면, 프로세서(2300)는 추출된 기 설정된 수의 문장을 전처리 하고, 상기 전 처리된 문장 각각에 대하여 결정되는 문장 가중치에 기초하여, 상기 전 처리된 문장 각각의 문장 점수를 결정하고, 식별된 위치 정보에 기초하여, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하고, 조정된 문장 점수를 이용하여 상기 제2 뉴스 점수를 획득할 수 있다.In addition, according to an embodiment, the processor 2300 pre-processes a preset number of extracted sentences, and based on a sentence weight determined for each of the pre-processed sentences, the sentence score of each of the pre-processed sentences is calculated. It is determined and based on the identified location information, the determined sentence score for each of the pre-processed sentences may be adjusted, and the second news score may be obtained using the adjusted sentence score.

일 실시 예에 의하면, 프로세서(2300)는 추출된 기 설정된 문장을 토큰화(tokenizing) 함으로써, 문장 내 각 단어를 식별하고, 상기 식별된 각 단어들 중, 문장 점수 산정에 사용되지 않는 단어들을 제거하고, 상기 문장 점수 산정에 사용되지 않는 단어들을 제거하고 남은 각 문장 내 단어들을 표제어 형태로 변환할 수 있다.According to an embodiment, the processor 2300 identifies each word in the sentence by tokenizing the extracted preset sentence, and removes words that are not used in calculating the sentence score from among the identified words. And, words not used in calculating the sentence score may be removed, and words in each remaining sentence may be converted into a headword form.

일 실시 예에 의하면, 프로세서(2300)는 상기 전 처리된 문장 내 부정어구, 부사, 문장 부호, 강조어구, 부정어 또는 상기 인물 단어 중 적어도 하나에 기초하여, 상기 전 처리된 문장 각각에 대한 문장 가중치를 결정하고, 상기 결정된 문장 가중치를, 상기 전 처리된 문장 내 각 금융 단어들의 단어 점수에 적용함으로써, 상기 전 처리된 문장 각각의 문장 점수를 결정할 수 있다.According to an embodiment, the processor 2300 is configured to calculate a sentence weight for each of the pre-processed sentences based on at least one of a negative phrase, an adverb, a punctuation mark, a emphasized phrase, a negative word, or the person word in the pre-processed sentence. , and applying the determined sentence weight to the word score of each financial word in the pre-processed sentence, the sentence score of each of the pre-processed sentences may be determined.

일 실시 예에 의하면, 프로세서(2300)는 전 처리된 문장의 위치 정보에 기초하여, 상기 전 처리된 문장 간의 컨텍스트를 식별하고, 상기 식별된 컨텍스트에 기초하여, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정할 수 있다.According to an embodiment, the processor 2300 identifies the contexts between the pre-processed sentences based on the location information of the pre-processed sentences, and based on the identified contexts, determines for each of the pre-processed sentences. You can adjust the sentence score.

일 실시 예에 의하면, 프로세서(2300)는 사전 학습 모델로부터, 상기 식별된 문장 중 일부의 문장에 포함된 단어들의 단어 점수의 분포 패턴에 따라 달라지는 상기 제2 뉴스 점수의 신뢰 정도에 관한 중립 지수를 획득할 수 있다.According to an embodiment, the processor 2300 obtains, from the pre-learning model, a neutral index regarding the confidence level of the second news score that varies according to a distribution pattern of word scores of words included in some sentences of the identified sentences. can be obtained

일 실시 예에 의하면, 프로세서(2300)는 중립 지수 값이 제1 임계치 보다 크고, 제2 임계치 보다 작은 경우, 상기 전자 장치가 상기 중립 지수 값을 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값을 상기 정규화된 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정할 수 있다.According to an embodiment, when the neutral index value is greater than the first threshold and less than the second threshold, the processor 2300 multiplies the neutral index value by the first news score, and the neutral index value is 1 to 1. The overall evaluation score may be determined by adding a value obtained by subtracting the index value multiplied by the normalized second news score.

일 실시 예에 의하면, 프로세서(2300)는 중립 지수 값이 제1 임계치 보다 작거나 같은 경우, 상기 전자 장치가 상기 중립 지수 값 및 1보다 작은 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 큰 제2 평가 가중치를 상기 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정할 수 있다.According to an embodiment, when the neutral index value is less than or equal to the first threshold, the processor 2300 multiplies the neutral index value and a first evaluation weight less than 1 by the first news score and , by adding a value obtained by subtracting the neutral index value from 1 and a value obtained by multiplying the second news score by a second evaluation weight greater than 1 to determine the overall evaluation score.

일 실시 예에 의하면, 프로세서(2300)는 중립 지수 값이 제2 임계치 보다 크거나 같은 경우, 상기 전자 장치가 상기 중립 지수 값 및 1보다 큰 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 작은 제2 평가 가중치를 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정할 수 있다.According to an embodiment, when the neutral index value is greater than or equal to the second threshold, the processor 2300 multiplies the neutral index value and a first evaluation weight greater than 1 by the first news score and , by adding a value obtained by subtracting the neutral index value from 1 and a value obtained by multiplying the second news score by a second evaluation weight less than 1, the overall evaluation score may be determined.

일 실시 예에 의하면, 프로세서(2300)는 전 처리된 문장 내 부정 어구가 포함되는 경우, 상기 부정 어구가 포함된 문장에 적용될 가중치를 음수로 결정하고, 상기 전 처리된 문장 내 긍정 부사가 포함되는 경우, 상기 긍정 부사가 포함된 문장의 가중치를 증가시키고, 상기 전 처리된 문장 내 부정 부사가 포함되는 경우, 상기 부정 부사가 포함된 문장의 가중치를 감소 시킬 수 있다.According to an embodiment, when a negative phrase is included in the pre-processed sentence, the processor 2300 determines a weight to be applied to the sentence including the negative phrase as a negative number, and includes a positive adverb in the pre-processed sentence. case, the weight of the sentence including the positive adverb may be increased, and when the negative adverb is included in the pre-processed sentence, the weight of the sentence including the negative adverb may be decreased.

일 실시 예에 의하면, 프로세서(2300)는 전 처리된 문장 내 강조 목적의 문장 부호가 포함되는 경우, 상기 문장 부호가 포함된 문장의 가중치를 증가시키고, 상기 전 처리된 문장 내 물음표 또는 쉼표와 같은 문장 부호가 포함되는 경우, 상기 문장 부호가 포함된 문장의 가중치를 감소시킬 수 있다.According to an embodiment, when a punctuation mark for emphasis is included in the pre-processed sentence, the processor 2300 increases the weight of the sentence including the punctuation mark, and increases the weight of the sentence including the punctuation mark in the pre-processed sentence. When punctuation marks are included, the weight of the sentences including the punctuation marks may be reduced.

일 실시 예에 의하면, 프로세서(2300)는 전 처리된 문장 내 강조어구가 포함되는 경우, 상기 강조어구가 포함된 문장의 가중치를 증가시키고, 전 처리된 문장 내 부정어가 포함되는 경우, 상기 부정어가 포함된 문장의 가중치를 증가시키거나 감소시킬 수 있다.According to an embodiment, the processor 2300 increases the weight of the sentence including the emphasized phrase when an emphasis phrase is included in the pre-processed sentence, and when a negative word is included in the pre-processed sentence, the negative word is You can increase or decrease the weight of the included sentence.

도 14는 또 다른 실시 예에 따른 뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법을 나타내는 흐름도이다.14 is a flowchart illustrating a method of analyzing a news article by a news article analysis system according to another exemplary embodiment.

S1402에서, 전자 장치(1000)는 뉴스 기사를 분석하기 위한 신경망 모델 및 사전 학습 모델을 미리 저장할 수 있다. S1404에서, 서버(2000)는 상기 전자 장치에 저장된 신경망 모델에 대응되는 신경망 모델을 저장할 수 있다.In S1402 , the electronic device 1000 may store in advance a neural network model and a pre-learning model for analyzing a news article. In S1404, the server 2000 may store a neural network model corresponding to the neural network model stored in the electronic device.

S1406에서, 서버(2000)는 미리 설정된 주기에 따라 외부 디바이스로부터 뉴스 기사를 획득할 수 있다. S1408에서, 서버(2000)는 획득된 뉴스 기사로부터 학습 데이터를 생성할 수 있다. 일 실시 예에 의하면, 서버(2000)는 주기적으로 획득된 뉴스 기사로부터 학습 데이터 및 학습 데이터에 따라 학습된 신경망 모델을 검증하기 위한 검증 데이터를 생성할 수도 있다. 서버(2000)는 학습 데이터를 생성하는데 이용된 뉴스 기사와 다른 기간에 게재된 뉴스 기사를 이용하여 검증 데이터를 생성할 수도 있다.In S1406 , the server 2000 may obtain a news article from an external device according to a preset period. In S1408 , the server 2000 may generate learning data from the obtained news article. According to an embodiment, the server 2000 may generate training data from periodically acquired news articles and validation data for validating a neural network model trained according to the training data. The server 2000 may generate verification data by using a news article published in a period different from the news article used to generate the learning data.

S1410에서, 서버(2000)는 학습 데이터에 기초하여 신경망 모델을 학습 시킬 수 있다. 예를 들어, 서버(2000)는 학습 데이터에 기초하여 신경망 모델 내 가중치들을 수정 및 갱신할 수 있다. 일 실시 예에 의하면, 서버(2000)는 학습 데이터에 기초하여 출력되는 신경망 모델의 출력 값이, 검증 데이터를 신경망 모델에 입력 시, 상기 신경망 모델로부터 출력되는 출력 값의 차이가 작아 지도록, 상기 신경망 모델의 가중치들을 수정 및 갱신할 수 있다.In S1410, the server 2000 may train the neural network model based on the training data. For example, the server 2000 may modify and update weights in the neural network model based on the training data. According to an embodiment, the server 2000 is configured such that the output value of the neural network model output based on the training data decreases the difference between the output values output from the neural network model when the verification data is input to the neural network model. The weights of the model can be modified and updated.

S1412에서, 서버(2000)는 수정 및 갱신된 신경망 모델의 가중치에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S1414에서, 전자 장치(1000)는 서버(2000)로부터 수신된 가중치에 대한 정보에 기초하여, 전자 장치에 미리 저장된 신경망 모델을 업데이트 할 수 있다. 예를 들어, 전자 장치(1000)는 서버(2000)로부터 수신된 가중치에 대한 정보에 기초하여, 전자 장치에 미리 저장된 신경망 모델의 가중치를 변환할 수 있다.In S1412 , the server 2000 may transmit information on the weight of the modified and updated neural network model to the electronic device 1000 . In S1414 , the electronic device 1000 may update the neural network model previously stored in the electronic device based on the weight information received from the server 2000 . For example, the electronic device 1000 may convert the weights of the neural network model stored in advance in the electronic device based on information about the weights received from the server 2000 .

S1416에서, 전자 장치(1000)는 외부 디바이스로부터 새로운 뉴스 기사를 획득할 수 있다. S1418에서, 전자 장치(1000)는 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별할 수 있다. S1420에서, 전자 장치(1000)는 식별된 문장 중 일부의 문장을 신경망 모델에 입력함으로써, 제1 뉴스 점수를 획득할 수 있다. S1416 내지 S1420은 도 2의 S206 내지 S210에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1416 , the electronic apparatus 1000 may obtain a new news article from an external device. In S1418 , the electronic device 1000 may identify a sentence including a financial word or a person word stored in advance in the news article. In S1420, the electronic device 1000 may obtain a first news score by inputting some of the identified sentences to the neural network model. Since S1416 to S1420 may correspond to S206 to S210 of FIG. 2 , a detailed description thereof will be omitted.

S1422에서, 전자 장치(1000)는 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 제2 뉴스 점수를 획득할 수 있다. S1424에서, 전자 장치(1000)는 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 종합 평가 점수를 결정할 수 있다. S1426에서, 전자 장치(1000)는 결정된 종합 평가 점수를 출력할 수 있다. S1422 내지 S1426은 도 11의 S1106 내지 S1116에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1422 , the electronic device 1000 may acquire a second news score by inputting some of the identified sentences to the pre-learning model. In S1424, the electronic device 1000 may determine a comprehensive evaluation score based on the first news score and the second news score. In S1426, the electronic device 1000 may output the determined overall evaluation score. Since S1422 to S1426 may correspond to S1106 to S1116 of FIG. 11 , a detailed description thereof will be omitted.

일 실시예에 따른 상술한 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The above-described method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present disclosure, or may be known and available to those skilled in the art of computer software.

또한, 상기 일 실시 예에 다른 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. In addition, according to the embodiment, a computer program apparatus including a recording medium storing a program for performing another method may be provided. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상에서 본 개시의 실시예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다Although the embodiments of the present disclosure have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. belong to the scope of the right

Claims (15)

뉴스 기사 분석 시스템이 뉴스 기사를 분석하는 방법에 있어서,
상기 뉴스 기사 분석 시스템 내의 전자 장치가 상기 전자 장치에 연결된 적어도 하나의 외부 디바이스로부터 뉴스 기사를 획득하는 단계;
상기 전자 장치가 상기 전자 장치와 연결된 서버로 상기 획득된 뉴스 기사를 전송하는 단계;
상기 서버가 상기 뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하는 단계;
상기 서버가 상기 식별된 문장 중 일부의 문장을, 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하는 단계;
상기 서버가 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써, 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 단계;
상기 서버가 제1 뉴스 점수 및 제2 뉴스 점수를 상기 전자 장치로 전송하는 단계;
상기 전자 장치가, 상기 제1 뉴스 점수 및 제2 뉴스 점수에 기초하여 상기 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정하는 단계; 및
상기 결정된 종합 평가 점수를 출력하는 단계; 를 포함하는, 방법.
A method for a news article analysis system to analyze a news article, the method comprising:
obtaining, by an electronic device in the news article analysis system, a news article from at least one external device connected to the electronic device;
transmitting, by the electronic device, the obtained news article to a server connected to the electronic device;
identifying, by the server, a sentence including a pre-stored financial word or a person word in the news article;
obtaining, by the server, a first news score from the neural network model by inputting, by the server, some sentences of the identified sentences into a neural network model that is trained to output a score for the news article;
obtaining, by the server, a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model;
transmitting, by the server, a first news score and a second news score to the electronic device;
determining, by the electronic device, a comprehensive evaluation score regarding the financial propensity of the news article based on the first news score and the second news score; and
outputting the determined overall evaluation score; A method comprising
삭제delete 제1항에 있어서, 상기 방법은
상기 서버가 금융 단어 및 상기 금융 단어 별 단어 점수를 매칭함으로써 금융 단어 리스트를 생성하는 단계;
상기 서버가 인물 단어 및 상기 인물 단어 별 인물 단어 가중치를 매칭함으로써 인물 가중치 리스트를 생성하는 단계; 및
상기 서버가 생성된 금융 단어 리스트 및 상기 인물 가중치 리스트를 저장하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
generating, by the server, a financial word list by matching the financial word and the word score for each financial word;
generating, by the server, a person weight list by matching a person word with a person word weight for each person word; and
storing, by the server, the generated financial word list and the person weight list; A method further comprising:
제1항에 있어서, 상기 방법은
상기 서버가 뉴스 기사에 포함된 문장들 각각의 위치 정보를 식별하는 단계;
상기 서버가 식별된 문장의 위치 정보에 기초하여, 뉴스 기사 내 첫 문장 및 상기 뉴스 기사 내 마지막 문장을 식별하는 단계; 및
상기 서버가 금융 단어 또는 상기 인물 단어를 포함하는 문장, 상기 첫 문장 및 상기 마지막 문장 중, 점수 산정 대상이 되는 기 설정된 수의 문장을 추출하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
identifying, by the server, location information of each of the sentences included in the news article;
identifying, by the server, a first sentence in a news article and a last sentence in the news article based on the location information of the identified sentence; and
extracting, by the server, a preset number of sentences to be score calculation targets from sentences, the first sentences, and the last sentences including the financial word or the person word; A method further comprising:
제4항에 있어서, 상기 제1 뉴스 점수를 획득하는 단계는
상기 서버가 상기 추출된 기 설정된 수의 문장을 전 처리 하는 단계;
상기 서버가 상기 전 처리된 문장을 상기 신경망 모델에 입력하는 단계; 및
상기 서버가 상기 신경망 모델로부터 출력된 제1 뉴스 점수를 획득하는 단계; 를 포함하는, 방법.
5. The method of claim 4, wherein obtaining the first news score comprises:
pre-processing, by the server, the extracted preset number of sentences;
inputting, by the server, the pre-processed sentence to the neural network model; and
obtaining, by the server, a first news score output from the neural network model; A method comprising
제4항에 있어서, 상기 제2 뉴스 점수를 획득하는 단계는
상기 서버가 상기 추출된 기 설정된 수의 문장을 전처리 하는 단계;
상기 서버가 상기 전 처리된 문장 각각에 대하여 결정되는 문장 가중치에 기초하여, 상기 전 처리된 문장 각각의 문장 점수를 결정하는 단계;
상기 서버가 상기 식별된 위치 정보에 기초하여, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하는 단계; 및
상기 서버가 상기 조정된 문장 점수를 이용하여 상기 제2 뉴스 점수를 획득하는 단계; 를 포함하는, 방법.
5. The method of claim 4, wherein obtaining the second news score comprises:
pre-processing, by the server, the extracted preset number of sentences;
determining, by the server, a sentence score of each of the pre-processed sentences based on a sentence weight determined for each of the pre-processed sentences;
adjusting, by the server, a sentence score determined for each of the pre-processed sentences based on the identified location information; and
obtaining, by the server, the second news score using the adjusted sentence score; A method comprising
제6항에 있어서, 상기 기 설정된 수의 문장을 전 처리 하는 단계는
상기 서버가 상기 추출된 기 설정된 문장을 토큰화(tokenizing) 함으로써, 문장 내 각 단어를 식별하는 단계;
상기 서버가 상기 식별된 각 단어들 중, 문장 점수 산정에 사용되지 않는 단어들을 제거하는 단계; 및
상기 서버가 상기 문장 점수 산정에 사용되지 않는 단어들을 제거하고 남은 각 문장 내 단어들을 표제어 형태로 변환하는 단계; 를 포함하는, 방법.
The method of claim 6, wherein the pre-processing of the preset number of sentences comprises:
identifying, by the server, each word in the sentence by tokenizing the extracted preset sentence;
removing, by the server, words not used in calculating sentence scores from among the identified words; and
removing, by the server, words not used in calculating the sentence score and converting the remaining words in each sentence into a headword form; A method comprising
제6항에 있어서, 상기 제2 뉴스 점수를 획득하는 단계는
상기 서버가 상기 전 처리된 문장 내 부정어구, 부사, 문장 부호, 강조어구, 부정어 또는 상기 인물 단어 중 적어도 하나에 기초하여, 상기 전 처리된 문장 각각에 대한 문장 가중치를 결정하는 단계; 및
상기 서버가 상기 결정된 문장 가중치를, 상기 전 처리된 문장 내 각 금융 단어들의 단어 점수에 적용함으로써, 상기 전 처리된 문장 각각의 문장 점수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 6, wherein obtaining the second news score comprises:
determining, by the server, a sentence weight for each of the pre-processed sentences based on at least one of a negative phrase, an adverb, a punctuation mark, a emphasized phrase, a negative word, or the person word in the pre-processed sentence; and
determining, by the server, the sentence score of each of the pre-processed sentences by applying the determined sentence weight to the word scores of each financial word in the pre-processed sentence; A method comprising
제6항에 있어서, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하는 단계는
상기 서버가 상기 전 처리된 문장의 위치 정보에 기초하여, 상기 전 처리된 문장 간의 컨텍스트를 식별하는 단계; 및
상기 서버가 상기 식별된 컨텍스트에 기초하여, 상기 전 처리된 문장 각각에 대하여 결정된 문장 점수를 조정하는 단계; 를 포함하는, 방법.
The method of claim 6, wherein adjusting the sentence score determined for each of the pre-processed sentences comprises:
identifying, by the server, a context between the pre-processed sentences based on the location information of the pre-processed sentences; and
adjusting, by the server, a sentence score determined for each of the pre-processed sentences based on the identified context; A method comprising
제1항에 있어서, 상기 방법은
상기 서버가 상기 사전 학습 모델로부터, 상기 식별된 문장 중 일부의 문장에 포함된 단어들의 단어 점수의 분포 패턴에 따라 달라지는 상기 제2 뉴스 점수의 신뢰 정도에 관한 중립 지수를 획득하는 단계; 를 더 포함하고,
상기 종합 평가 점수를 결정하는 단계는
상기 전자 장치가 상기 서버로부터 획득된 제2 뉴스 점수를 정규화 하는 단계;
상기 전자 장치가 상기 중립 지수의 값에 기초하여, 상기 제1 뉴스 점수 및 제2 뉴스 점수에 적용될 평가 가중치를 결정하는 단계; 및
상기 전자 장치가 상기 결정된 평가 가중치에 따라 상기 제1 뉴스 점수 및 상기 정규화된 제2 뉴스 점수를 가중합 함으로써 상기 종합 평가 점수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 1, wherein the method
obtaining, by the server, a neutral index with respect to the confidence level of the second news score, which varies according to a distribution pattern of word scores of words included in some sentences of the identified sentences, from the pre-learning model; further comprising,
The step of determining the overall evaluation score is
normalizing, by the electronic device, a second news score obtained from the server;
determining, by the electronic device, an evaluation weight to be applied to the first news score and the second news score, based on the value of the neutral index; and
determining, by the electronic device, the comprehensive evaluation score by weighting the first news score and the normalized second news score according to the determined evaluation weight; A method comprising
제10항에 있어서, 상기 종합 평가 점수를 결정하는 단계는
상기 중립 지수 값이 제1 임계치 보다 크고, 제2 임계치 보다 작은 경우, 상기 전자 장치가 상기 중립 지수 값을 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값을 상기 정규화된 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 10, wherein the determining of the overall evaluation score comprises:
When the neutral index value is greater than the first threshold and less than the second threshold, the electronic device calculates a value obtained by multiplying the neutral index value by a first news score and subtracting the neutral index value from 1 as the normalized second value. determining the overall evaluation score by summing a value multiplied by 2 news scores; A method comprising
제10항에 있어서, 상기 종합 평가 점수를 결정하는 단계는
상기 중립 지수 값이 제1 임계치 보다 작거나 같은 경우, 상기 전자 장치가 상기 중립 지수 값 및 1보다 작은 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 큰 제2 평가 가중치를 상기 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 10, wherein the determining of the overall evaluation score comprises:
When the neutral index value is less than or equal to the first threshold, a value obtained by multiplying the first news score by the electronic device by the neutral index value and a first evaluation weight less than 1, and a value obtained by subtracting the neutral index value from 1 and determining the overall evaluation score by summing a value obtained by multiplying the second news score by a second evaluation weight greater than 1; A method comprising
제10항에 있어서, 상기 종합 평가 점수를 결정하는 단계는
상기 중립 지수 값이 제2 임계치 보다 크거나 같은 경우, 상기 전자 장치가 상기 중립 지수 값 및 1보다 큰 제1 평가 가중치를 상기 제1 뉴스 점수에 곱한 값과, 1에서 상기 중립 지수 값을 뺀 값 및 1보다 작은 제2 평가 가중치를 제2 뉴스 점수에 곱한 값을 합함으로써, 상기 종합 평가 점수를 결정하는 단계; 를 포함하는, 방법.
The method of claim 10, wherein the determining of the overall evaluation score comprises:
When the neutral index value is greater than or equal to the second threshold, a value obtained by multiplying the first news score by the electronic device by the neutral index value and a first evaluation weight greater than 1, and a value obtained by subtracting the neutral index value from 1 and determining the overall evaluation score by summing a value obtained by multiplying a second news score by a second evaluation weight less than 1; A method comprising
제8항에 있어서, 상기 전 처리된 문장 각각에 대한 문장 가중치를 결정하는 단계는
상기 서버가 상기 전 처리된 문장 내 부정 어구가 포함되는 경우, 상기 부정 어구가 포함된 문장에 적용될 가중치를 음수로 결정하는 단계;
상기 서버가 상기 전 처리된 문장 내 긍정 부사가 포함되는 경우, 상기 긍정 부사가 포함된 문장의 가중치를 증가시키고, 상기 전 처리된 문장 내 부정 부사가 포함되는 경우, 상기 부정 부사가 포함된 문장의 가중치를 감소 시키는 단계;
상기 서버가 상기 전 처리된 문장 내 강조 목적의 문장 부호가 포함되는 경우, 상기 문장 부호가 포함된 문장의 가중치를 증가시키고, 상기 전 처리된 문장 내 물음표 또는 쉼표와 같은 문장 부호가 포함되는 경우, 상기 문장 부호가 포함된 문장의 가중치를 감소시키는 단계;
상기 서버가 상기 전 처리된 문장 내 강조어구가 포함되는 경우, 상기 강조어구가 포함된 문장의 가중치를 증가시키는 단계; 및
상기 서버가 상기 전 처리된 문장 내 부정어가 포함되는 경우, 상기 부정어가 포함된 문장의 가중치를 증가시키거나 감소 시키는 단계; 를 포함하는, 방법.
The method of claim 8, wherein determining the sentence weight for each of the pre-processed sentences comprises:
determining, by the server, a negative weight to be applied to the sentence including the negative phrase when the negative phrase is included in the pre-processed sentence;
When a positive adverb is included in the pre-processed sentence, the server increases the weight of the sentence including the positive adverb, and when a negative adverb is included in the pre-processed sentence, the sentence including the negative adverb reducing the weight;
When the server includes a punctuation mark for emphasis in the pre-processed sentence, the weight of the sentence including the punctuation mark is increased, and a punctuation mark such as a question mark or a comma is included in the pre-processed sentence, reducing the weight of the sentence including the punctuation mark;
increasing, by the server, a weight of the sentence including the emphasized phrase when the emphasized phrase is included in the pre-processed sentence; and
increasing or decreasing, by the server, a weight of the sentence including the negative word when the negative word is included in the pre-processed sentence; A method comprising
뉴스 기사를 분석하는 뉴스 기사 분석 시스템에 있어서,
뉴스 기사 내 미리 저장된 금융 단어 또는 인물 단어를 포함하는 문장을 식별하고, 식별된 문장 중 일부의 문장을 상기 뉴스 기사에 대한 점수를 출력하도록 학습되는 신경망 모델에 입력함으로써, 상기 신경망 모델로부터 제1 뉴스 점수를 획득하며, 상기 식별된 문장 중 일부의 문장을 사전 학습 모델에 입력함으로써 상기 사전 학습 모델로부터 제2 뉴스 점수를 획득하는 서버; 및
외부 디바이스로부터 뉴스 기사를 획득하고, 획득된 뉴스 기사를 상기 서버로 전송하며, 상기 서버로부터 상기 제1 뉴스 점수 및 제2 뉴스 점수를 획득하고, 상기 획득된 제1 뉴스 점수 및 상기 제2 뉴스 점수에 기초하여 상기 뉴스 기사의 금융 성향에 관한 종합 평가 점수를 결정하며, 상기 결정된 종합 평가 점수를 출력하는 전자 장치; 를 포함하는, 뉴스 기사 분석 시스템.
In the news article analysis system for analyzing news articles,
First news from the neural network model by identifying a sentence including a financial word or a person word stored in advance in a news article, and inputting a sentence of some of the identified sentences into a neural network model that is trained to output a score for the news article a server for obtaining a score and obtaining a second news score from the pre-learning model by inputting some of the identified sentences into the pre-learning model; and
obtaining a news article from an external device, transmitting the obtained news article to the server, obtaining the first news score and the second news score from the server, and the obtained first news score and the second news score an electronic device for determining a comprehensive evaluation score on the financial propensity of the news article based on the , and outputting the determined comprehensive evaluation score; Including, news article analysis system.
KR1020200067621A 2020-06-04 2020-06-04 Solution and system for news positive tendency analysis using deep learning nlp model KR102443629B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200067621A KR102443629B1 (en) 2020-06-04 2020-06-04 Solution and system for news positive tendency analysis using deep learning nlp model
PCT/KR2021/006968 WO2021246812A1 (en) 2020-06-04 2021-06-03 News positivity level analysis solution and device using deep learning nlp model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200067621A KR102443629B1 (en) 2020-06-04 2020-06-04 Solution and system for news positive tendency analysis using deep learning nlp model

Publications (2)

Publication Number Publication Date
KR20210150789A KR20210150789A (en) 2021-12-13
KR102443629B1 true KR102443629B1 (en) 2022-09-15

Family

ID=78832011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200067621A KR102443629B1 (en) 2020-06-04 2020-06-04 Solution and system for news positive tendency analysis using deep learning nlp model

Country Status (1)

Country Link
KR (1) KR102443629B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102586580B1 (en) 2022-04-15 2023-10-10 양재미디어 주식회사 News editing supoort system using natural language processing artificial intelligence language model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252971A (en) * 2003-01-30 2004-09-09 Daiwa Securities Group Inc System, method and program for supplying company information and control method of client system
JP2018200650A (en) * 2017-05-30 2018-12-20 株式会社ソケッツ Language information analysis apparatus and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090047646A (en) 2007-11-08 2009-05-13 장남석 Method for evaluating news articles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252971A (en) * 2003-01-30 2004-09-09 Daiwa Securities Group Inc System, method and program for supplying company information and control method of client system
JP2018200650A (en) * 2017-05-30 2018-12-20 株式会社ソケッツ Language information analysis apparatus and method

Also Published As

Publication number Publication date
KR20210150789A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
Jalal et al. Learning temporal clusters using capsule routing for speech emotion recognition
US20180157959A1 (en) Intelligent interaction method and intelligent interaction system
CN108062954B (en) Speech recognition method and device
CN108197294A (en) A kind of text automatic generation method based on deep learning
CN109344242B (en) Dialogue question-answering method, device, equipment and storage medium
EP4239585A1 (en) Video loop recognition method and apparatus, computer device, and storage medium
CN113627447A (en) Label identification method, label identification device, computer equipment, storage medium and program product
EP3743925A1 (en) Interactive systems and methods
CN114218488A (en) Information recommendation method and device based on multi-modal feature fusion and processor
CN111091809B (en) Regional accent recognition method and device based on depth feature fusion
CN112767386A (en) Image aesthetic quality evaluation method and system based on theme feature and score distribution
CN111966811A (en) Intention recognition and slot filling method and device, readable storage medium and terminal equipment
CN109979461B (en) Voice translation method and device
KR102443629B1 (en) Solution and system for news positive tendency analysis using deep learning nlp model
CN111653274A (en) Method, device and storage medium for awakening word recognition
CN113096647B (en) Voice model training method and device and electronic equipment
CN109727091A (en) Products Show method, apparatus, medium and server based on dialogue robot
CN111739537B (en) Semantic recognition method and device, storage medium and processor
CN115809669A (en) Conversation management method and electronic equipment
KR102322899B1 (en) Solution and appratus for news positive tendency analysis using deep learning nlp model
KR102466428B1 (en) Artificial neural network learning model and apparatus for news positive tendency analysis
CN114239602A (en) Session method, apparatus and computer program product
CN115525740A (en) Method and device for generating dialogue response sentence, electronic equipment and storage medium
CN112949295A (en) Data processing method and device
Palomo-Alonso et al. A flexible architecture using temporal, spatial and semantic correlation-based algorithms for story segmentation of broadcast news

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right