KR20220109955A - Ommited - Google Patents

Ommited Download PDF

Info

Publication number
KR20220109955A
KR20220109955A KR1020210013588A KR20210013588A KR20220109955A KR 20220109955 A KR20220109955 A KR 20220109955A KR 1020210013588 A KR1020210013588 A KR 1020210013588A KR 20210013588 A KR20210013588 A KR 20210013588A KR 20220109955 A KR20220109955 A KR 20220109955A
Authority
KR
South Korea
Prior art keywords
word
trademark
words
server
target
Prior art date
Application number
KR1020210013588A
Other languages
Korean (ko)
Inventor
이세중
Original Assignee
이세중
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이세중 filed Critical 이세중
Priority to KR1020210013588A priority Critical patent/KR20220109955A/en
Publication of KR20220109955A publication Critical patent/KR20220109955A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/11Patent retrieval
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/912Applications of a database
    • Y10S707/923Intellectual property
    • Y10S707/937Intellectual property intellectual property searching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided is a method for determining a similarity of a trademark. The method for determining a similarity of a trademark includes: a step of acquiring, by a server, a similar trademark by inputting a target trademark to first deep learning; a step of acquiring, by the server, a plurality of words included in the target trademark and acquiring a plurality of words included in the similar trademark; a step of acquiring, by the server, a first word among the plurality of words included in the target trademark and acquiring a second word among the plurality of words included in the similar trademark; and a step of inputting, by the server, the first word and the second word to second deep learning to acquire an evaluation result for the first word and the second word.

Description

딥러닝을 이용한 상표의 유사도 판단 방법, 장치 및 시스템{OMMITED}Method, apparatus and system for determining similarity of trademarks using deep learning {OMMITED}

본 발명은 딥러닝을 이용한 상표의 유사도 판단 방법, 장치 및 시스템에 관한 것이다. The present invention relates to a method, apparatus and system for determining the similarity of a trademark using deep learning.

4차 산업의 발전과 함께 지식재산권에 대한 가치가 높아지고 있다. 이에 따라 많은 사람들은 자신이 가진 브랜드명뿐만 아니라, 개인의 브랜드 보호를 위한 상표 출원에 대한 관심도가 높아지고 있다.With the development of the 4th industry, the value of intellectual property rights is increasing. Accordingly, many people are increasingly interested in trademark applications to protect their own brand names as well as personal brands.

한편, 상표 출원을 위해서는 자신의 브랜드명이 상표 받을 수 있을지를 판단하기 위해 선행 브랜드명 조사를 수행하며, 과거 공개된 다양한 상표 문헌을 검색함으로써 선행 브랜드명 조사를 수행할 수 있다.Meanwhile, in order to apply for a trademark, a prior brand name search is performed to determine whether one's own brand name can receive a trademark, and a prior brand name search can be performed by searching various previously published trademark literature.

선행 브랜드명 조사를 수행하는데 있어서 가장 중요한 것은, 대상상표의 진보성을 부정할 수 있을만한 유사상표가 존재하는지 여부를 판단하는 일이다.The most important thing in conducting prior brand name research is to determine whether there is a similar trademark that can deny the inventive step of the target trademark.

그러나, 상표 문서의 양이 방대하고, 시간의 제약으로 인하여 과거 공개된 모든 상표 문서를 분석하는 것은 사실상 불가능에 가까운 일이며, 주어진 시간 내에서 최대한의 결과를 얻기 위하여 검색식 입력 등의 방법을 통해 유사상표를 획득하는 것이 현실이다.However, the amount of trademark documents is huge and it is virtually impossible to analyze all trademark documents published in the past due to time constraints. It is a reality to acquire similar trademarks.

그러나, 검색식 입력 등을 통한 유사상표 획득은 선행브랜드명 조사를 수행하는 인력의 능력에 좌우되는 경우가 많아 선행 브랜드명 조사에 대한 안정적인 결과에 대한 보장이 되지 않는 경우가 많다.However, the acquisition of similar trademarks through search-type input, etc. is often dependent on the ability of personnel to conduct prior brand name research, and thus, in many cases, stable results of prior brand name research are not guaranteed.

따라서, 적은 시간 투자로 안정적인 결과를 보장 받을 수 있는 선행 브랜드명 조사 방법의 필요성이 대두되고 있다.Therefore, the need for a prior brand name research method that can guarantee stable results with a small investment of time is emerging.

대한민국 공개특허공보 제10-2018-0110713호(2018.10.11)Republic of Korea Patent Publication No. 10-2018-0110713 (2018.10.11)

본 발명이 해결하고자 하는 과제는 딥러닝을 이용한 상표의 유사도 판단 방법, 장치 및 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus and system for determining the similarity of a trademark using deep learning.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 브랜드명자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by a typical brand name from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 상표의 유사도 판단 방법은, 서버가, 대상상표를 제1 딥러닝에 입력하여 유사상표를 획득하는 단계; 상기 서버가, 상기 대상상표에 포함된 복수의 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어를 획득하는 단계; 상기 서버가, 상기 대상상표에 포함된 복수의 단어 중 제1 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어 중 제2 단어를 획득하는 단계; 상기 서버가, 상기 제1 단어 및 상기 제2 단어를 제2 딥러닝에 입력하여, 상기 제1 단어과 상기 제2 단어에 대한 평가 결과를 획득하는 단계; 를 포함한다.A method for determining the degree of similarity of a trademark according to an aspect of the present invention for solving the above-described problem includes, by a server, inputting a target trademark into a first deep learning to obtain a similar trademark; acquiring, by the server, a plurality of words included in the target trademark, and acquiring a plurality of words included in the similar trademark; obtaining, by the server, a first word from among a plurality of words included in the target trademark, and acquiring a second word from a plurality of words included in the similar trademark; inputting, by the server, the first word and the second word into second deep learning, obtaining evaluation results for the first word and the second word; includes

이때, 상기 제1 딥러닝은 복수의 상표를 학습데이터로 입력하여 학습된 CNN 기반의 딥러닝이고, 상기 제2 딥러닝은 상표, 상기 상표 문서에 매칭된 선행조사보고서 및 상기 선행조사보고서에 대응되는 유사 상표를 바탕으로 학습된 Bi-LSTM 모델 기반의 딥러닝일 수 있다.In this case, the first deep learning is CNN-based deep learning learned by inputting a plurality of trademarks as learning data, and the second deep learning corresponds to a trademark, a prior research report matched with the trademark document, and the prior research report It may be deep learning based on Bi-LSTM model trained based on similar trademarks.

이때, 상기 유사상표를 획득하는 단계는, 상기 대상상표에 포함된 복수개의 단어 세트를 획득하는 단계; 상기 획득된 복수개의 단어 세트를 모델링하여 복수개의 대상상표 단어를 획득하는 단계; 상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점 및 상기 대상상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 대상상표의 위치를 판단하는 단계; 상표에 포함된 복수개의 단어 세트를 획득하고, 획득된 복수개의 단어 세트를 모델링하여 복수의 상표 단어를 획득하는 단계; 상기 복수개의 상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 상표 단어 각각에 대한 복수개의 중점 및 상기 상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 상표의 위치를 판단하는 단계; 및 상기 대상상표의 위치 및 상기 상표의 위치가 기 설정된 거리 이내인 경우, 상기 상표를 상기 유사상표로 결정하는 단계; 를 포함할 수 있다.In this case, the acquiring of the similar trademark may include: acquiring a plurality of word sets included in the target trademark; obtaining a plurality of target brand words by modeling the obtained plurality of word sets; Acquire a plurality of midpoints for each of the plurality of target brand words, and determine the location of the target trademark based on the plurality of midpoints for each of the plurality of target brand words and the number of word sets included in the target brand word to do; obtaining a plurality of word sets included in a trademark, and modeling the obtained plurality of word sets to obtain a plurality of trademark words; obtaining a plurality of midpoints for each of the plurality of trademark words, and determining the position of the trademark based on the plurality of midpoints for each of the plurality of trademark words and the number of word sets included in the trademark words; and when the location of the target trademark and the location of the trademark are within a preset distance, determining the trademark as the similar trademark; may include.

이때, 상기 복수의 단어를 획득하는 단계는, 상기 대상상표 및 상기 유사상표에 포함된 복수의 단어 각각에 대한 복수개의 단어 세트를 획득하는 단계; 상기 획득된 복수개의 단어 세트 각각에 대한 복수개의 중요도 스코어를 획득하는 단계; 상기 복수개의 중요도 스코어를 바탕으로 상기 대상상표에 포함된 단어의 중요도 스코어를 결정하는 단계; 및 상기 복수의 단어 각각의 중요도 스코어를 바탕으로 상기 복수의 단어를 중요도 순으로 정렬하는 단계; 를 포함할 수 있다.In this case, the acquiring of the plurality of words may include: acquiring a plurality of word sets for each of the plurality of words included in the target trademark and the similar trademark; obtaining a plurality of importance scores for each of the obtained plurality of word sets; determining an importance score of a word included in the target trademark based on the plurality of importance scores; and arranging the plurality of words in order of importance based on the importance score of each of the plurality of words. may include.

이때, 상기 대상상표에 포함된 복수의 단어 중 제1 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어 중 제2 단어를 획득하는 단계는, 상기 대상상표에 포함된 복수의 단어를 중요도 스코어를 바탕으로 기 설정된 n개의 그룹으로 분류하는 단계; 상기 유사상표에 포함된 복수의 단어를 중요도 스코어를 바탕으로 기 설정된 n개의 그룹으로 분류하는 단계; 상기 제1 단어이 상기 대상상표의 n개의 그룹 중 제1 그룹에 포함되는 경우, 상기 제2 단어를 상기 유사상표에 포함된 전체 단어으로 획득하는 단계; 상기 제1 단어이 상기 대상상표의 n개의 그룹 중 제k 그룹에 포함되는 경우, 상기 제2 단어를 상기 유사상표의 n개의 그룹 중, 제1 그룹 내지 제 (n-k+1)그룹에 포함된 단어으로 획득하는 단계;를 포함하고, 상기 n은 1 이상의 자연수, k는 n이하의 자연수일 수 있다.In this case, the steps of obtaining a first word from among the plurality of words included in the target trademark and acquiring a second word from among the plurality of words included in the similar trademark include assigning the plurality of words included in the target trademark to an importance score classifying into n preset groups based on classifying the plurality of words included in the similar trademark into n preset groups based on the importance score; when the first word is included in a first group among n groups of the target trademark, acquiring the second word as all words included in the similar trademark; When the first word is included in the kth group among the n groups of the target trademark, the second word is included in the first group to the (n-k+1)th group among the n groups of the similar trademark. Including; obtaining as a word; wherein n may be a natural number greater than or equal to 1, and k may be a natural number less than or equal to n.

이때, 상기 제1 단어과 상기 제2 단어에 대한 평가 결과를 획득하는 단계는, 상기 제1 단어 및 상기 제2 단어의 유사도 점수 및 비유사도 점수를 각각 획득하는 단계; 상기 비유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어과 상기 제2 단어은 관계없는 단어으로 판단하는 단계; 상기 유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어에 포함된 단어 세트 중 상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트를 획득하는 단계; 상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트 각각에 대한 적어도 중요도 점수를 획득하고, 상기 획득된 적어도 하나의 중요도 점수 중 기 설정된 중요도 점수 이상인 단어 세트가 존재하는지 여부를 판단하는 단계; 기 설정된 중요도 점수 이상인 단어 세트가 존재하지 않는 경우, 상기 제1 단어 및 상기 제2 단어를 일치 단어으로 판단하는 단계; 및 상기 기 설정된 중요도 점수 이상인 단어 세트가 존재하면, 상기 제1 단어 및 상기 제2 단어를 불일치 단어으로 판단하는 단계; 를 포함할 수 있다.In this case, the obtaining of the evaluation results for the first word and the second word may include: obtaining a similarity score and a dissimilarity score of the first word and the second word, respectively; determining that the first word and the second word are unrelated words when the dissimilarity score is equal to or greater than a preset score; acquiring at least one word set not included in the second word among the word sets included in the first word when the similarity score is equal to or greater than a preset score; obtaining at least an importance score for each of at least one word set not included in the second word, and determining whether a word set equal to or greater than a preset importance score exists among the at least one obtained importance score; determining the first word and the second word as a matching word when there is no word set equal to or greater than a preset importance score; and determining that the first word and the second word are mismatched words when there is a set of words equal to or greater than the preset importance score. may include.

이때, 상기 단어 세트를 획득하는 단계는, 상기 대상상표의 형태소를 분석하여 복수개의 단어 세트를 획득하는 단계; 상기 획득된 복수개의 단어 세트 중 오류 단어 세트를 판단하는 단계; 상기 오류단어 세트를 수정하는 단계; 및 상기 복수개의 단어 세트간의 연관도를 바탕으로 적어도 하나의 복합 명사구 세트를 획득하는 단계;를 포함하고, 상기 오류 단어 세트를 판단하는 단계는, 상기 획득된 복수개의 단어 세트 각각에 대한 의미 정보를 매칭하는 단계; 상기 매칭된 의미 정보 및 상기 상표를 바탕으로, 상기 복수개의 단어 세트 각각에 대한 정확도 점수를 획득하는 단계; 및 상기 정확도 점수가 기 설정된 값 이하인 단어 세트를 오류 단어 세트로 판단하는 단계;를 포함하고, 상기 오류 단어 세트를 수정하는 단계는, 상기 오류 단어에 대한 복수개의 의미 정보를 획득하는 단계; 상기 획득된 복수개의 의미 정보 각각에 대한 복수개의 가중치를 획득하는 단계; 상기 복수개의 가중치 중, 상기 상표와의 연관도가 가장 높은 가중치를 획득하는 단계; 및 상기 상표와의 연관도가 가장 높은 가중치에 대응되는 의미 정보를 상기 오류 단어 세트에 매칭하는 단계; 를 포함하고, 상기 적어도 하나의 복합 명사구 세트를 획득하는 단계는, 상기 상표에 포함된 단어에 대한 복수개의 단어 세트를 획득하는 단계; 상기 복수개의 단어 세트의 조합으로 획득된 복수개의 복합 명사구 세트 후보를 획득하는 단계; 상기 획득된 복수개의 복합 명사구 세트 후보와 동일한 복합 명사구 세트가 상표에 포함되는 빈도를 획득하는 단계; 및 상기 빈도가 기 설정된 빈도 이상인 복합 명사구 세트 후보를 복합 명사구 세트로 결정하는 단계; 를 포함하고, 상기 복합 명사구 세트 후보는 복합 명사구 세트 후보에 포함된 단어 세트들의 순서 정보 및 이격 정보를 포함할 수 있다.In this case, the obtaining of the word set may include: obtaining a plurality of word sets by analyzing morphemes of the target trademark; determining an erroneous word set among the obtained plurality of word sets; correcting the error word set; and obtaining at least one compound noun phrase set based on the degree of association between the plurality of word sets, wherein the determining of the erroneous word set includes semantic information for each of the obtained word sets. matching; obtaining an accuracy score for each of the plurality of word sets based on the matched semantic information and the trademark; and determining a word set whose accuracy score is equal to or less than a preset value as an erroneous word set, wherein the correcting of the erroneous word set includes: obtaining a plurality of semantic information for the erroneous word; obtaining a plurality of weights for each of the obtained pieces of semantic information; obtaining a weight having the highest degree of relevance with the trademark among the plurality of weights; and matching semantic information corresponding to a weight having the highest degree of relevance with the trademark to the erroneous word set. including, wherein the obtaining of the at least one compound noun phrase set includes: obtaining a plurality of word sets for words included in the trademark; obtaining a plurality of compound noun phrase set candidates obtained by combining the plurality of word sets; obtaining a frequency in which a complex noun phrase set identical to the obtained plurality of compound noun phrase set candidates is included in a trademark; and determining a compound noun phrase set candidate whose frequency is equal to or greater than a preset frequency as a compound noun phrase set. and, the compound noun phrase set candidate may include order information and spacing information of word sets included in the compound noun phrase set candidate.

이때, 상기 중요도 스코어를 획득하는 단계는, 상기 서버가, 상기 대상상표로부터 중요도 스코어의 산출 대상이 되는 단어를 획득하는 단계; 상기 서버가, 전체 상표에서의 상기 단어의 제1 세부 중요도, 상기 대상상표의 유사정보에 대응되는 상표분류정보에서의 상기 단어의 제2 세부 중요도 및 상기 전체 상표 중 상기 단어가 포함된 검색상표의 제3 세부 중요도 중 하나 이상의 세부 중요도를 산출하는 단계; 및 상기 서버가, 상기 제1 세부 중요도, 상기 제2 세부 중요도 및 상기 제3 세부 중요도 중 하나 이상에 기초하여 상기 단어의 상기 중요도 스코어를 획득하는 단계; 를 포함할 수 있다. In this case, the step of obtaining the importance score may include: obtaining, by the server, a word to be calculated for the importance score from the target trademark; The server determines, by the server, the first detailed importance of the word in the entire trademark, the second detailed importance of the word in the trademark classification information corresponding to the similar information of the target trademark, and the search trademark including the word among all the trademarks. calculating one or more detailed importance levels from among the third detailed importance levels; and obtaining, by the server, the importance score of the word based on one or more of the first detailed importance level, the second detailed importance level, and the third detailed importance level; may include.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상술한 본 발명의 실시예에 따라, 딥러닝을 이용하여 적은 시간 투자로 안정적인 결과를 보장 받을 수 있는 선행 상표 조사 방법이 제공될 수 있다.According to the above-described embodiment of the present invention, a prior trademark research method that can be guaranteed a stable result with a small time investment using deep learning can be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 대상상표 및 유사상표에 포함된 단어들에 대한 평가 결과를 획득하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 유사상표를 획득하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 대상상표 및 유사상표로부터 복수의 단어를 획득하여 중요도 순으로 정렬하는 방법을 설명하기 위한 흐름도이다.
1 is an exemplary diagram for explaining a system according to an embodiment of the present invention.
2 is a flowchart illustrating a method of obtaining evaluation results for words included in a target trademark and a similar trademark according to an embodiment of the present invention.
3 is a flowchart illustrating a method of obtaining a similar trademark according to an embodiment of the present invention.
4 is a flowchart for explaining a method of obtaining a plurality of words from a target trademark and a similar trademark and arranging them in order of importance according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 브랜드명 분야의 통상의 브랜드명자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and the general purpose of the brand name field to which the present invention belongs It is provided to fully inform the brand name of the scope of the present invention, and the present invention is only defined by the scope of the claims.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(브랜드명 및 과학적 용어를 포함)는 본 발명이 속하는 브랜드명분야의 통상의 브랜드명자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including brand names and scientific terms) used herein may be used with meanings commonly understood by those of ordinary skill in the brand name field to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 시스템을 설명하기 위한 예시도이다.1 is an exemplary diagram for explaining a system according to an embodiment of the present invention.

본 발명에 따른 상표의 유사도 판단을 위한 시스템은 서버(10) 및 전자 장치(20)를 포함한다.The system for determining the similarity of a trademark according to the present invention includes a server 10 and an electronic device 20 .

서버(10)는 대상상표를 획득하고, 획득된 대상상표로부터 유사상표를 획득하고, 대상상표의 단어과 유사상표의 단어의 유사도를 판단하기 위한 구성이다.The server 10 is configured to acquire a target trademark, obtain a similar trademark from the acquired target trademark, and determine a degree of similarity between a word of the target trademark and a word of a similar trademark.

구체적으로, 서버(10)는 전자장치(20)로부터 대상상표를 입력 받거나, 외부 서버로부터 대상상표를 획득할 수 있다. Specifically, the server 10 may receive a target trademark from the electronic device 20 or acquire a target trademark from an external server.

본 명세서에서, 상표는 대상상표 및 유사상표를 포함하는 개념으로, 각국 상표청에 상표 등록을 받기 위해 출원인이 제출하는 브랜드명 내용에 대한 문서일 수 있다. 다만, 이에 한정되는 것은 아니고, 상표는, 상표 출원을 위한 직무 발명서, 논문 등 브랜드명 내용을 포함한 다양한 문서를 포함하는 개념으로 이해될 수 있다. 일 실시예에 따라, 대상상표는 상표 출원을 위한 직무 발명서, 논문 중 적어도 하나이고, 유사상표는 상표 출원을 위한 직무 발명서, 논문, 상표출원서 중 적어도 하나일 수 있다.In the present specification, a trademark is a concept including a target trademark and a similar trademark, and may be a document about the content of a brand name submitted by an applicant to obtain trademark registration in each country's trademark office. However, the present invention is not limited thereto, and the trademark may be understood as a concept including various documents including the contents of the brand name, such as a job invention for a trademark application, and a thesis. According to an embodiment, the target trademark may be at least one of a job invention book and a thesis for a trademark application, and the similar trademark may be at least one of a job invention book, a thesis, and a trademark application for a trademark application.

전자 장치(20)는 서버(10)로 상표를 제공하기 위한 구성이다. 본 발명에 따른 전자 장치(200)는 스마트 폰으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player) 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다.The electronic device 20 is configured to provide a trademark to the server 10 . The electronic device 200 according to the present invention may be implemented as a smart phone, but this is only an embodiment, and a smart phone, a tablet personal computer (PC), a mobile phone, a video phone, e-book reader, desktop PC, laptop PC, netbook computer, workstation, server, PDA (personal digital assistant), PMP (portable multimedia) player) or a wearable device.

도 2는 본 발명의 일 실시예에 따른 대상상표 및 유사상표에 포함된 단어들에 대한 평가 결과를 획득하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of obtaining evaluation results for words included in a target trademark and a similar trademark according to an embodiment of the present invention.

단계 S110에서, 서버(10)는 대상상표를 제1 딥러닝에 입력하여 유사상표를 획득할 수 있다.In step S110, the server 10 may obtain a similar trademark by inputting the target trademark into the first deep learning.

구체적으로, 서버(10)는 제1 딥러닝을 이용하여 제1 데이터베이스에 저장된 복수의 상표 중, 대상상표와 유사한 유사상표를 획득할 수 있다.Specifically, the server 10 may obtain a similar trademark similar to the target trademark from among a plurality of trademarks stored in the first database by using the first deep learning.

일 실시예로, 서버(10)는, 제1 데이터베이스에 저장된 복수의 상표 각각에 대한 형태소 분석을 바탕으로, 복수의 상표 각각을 분석하고, 대상상표에 대한 형태소분석을 바탕으로 대상상표를 분석한 뒤, 대상상표와 연관도가 높은 유사상표를 획득할 수 있다. 유사상표를 획득하는 구체적인 방법은 도 3에서 후술한다. In one embodiment, the server 10 analyzes each of the plurality of trademarks based on the morpheme analysis of each of the plurality of trademarks stored in the first database, and analyzes the target trademark based on the morpheme analysis of the target trademark. After that, it is possible to obtain a similar trademark with a high degree of relevance to the target trademark. A specific method of obtaining a similar trademark will be described later with reference to FIG. 3 .

단계 S120에서, 서버(10)는, 상기 대상상표에 포함된 복수의 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어를 획득할 수 있다.In step S120 , the server 10 may acquire a plurality of words included in the target trademark and acquire a plurality of words included in the similar trademark.

단계 S130에서, 서버(10)는, 상기 대상상표에 포함된 복수의 단어 중 제1 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어 중 제2 단어를 획득할 수 있다.In step S130 , the server 10 may acquire a first word among a plurality of words included in the target trademark, and acquire a second word among a plurality of words included in the similar trademark.

단계 S140에서, 서버(10)는, 상기 제1 단어 및 상기 제2 단어를 제2 딥러닝에 입력하여, 상기 제1 단어과 상기 제2 단어에 대한 평가 결과를 획득할 수 있다.In step S140 , the server 10 may input the first word and the second word into a second deep learning to obtain evaluation results for the first word and the second word.

한편, 제1 딥러닝은 복수의 상표를 학습데이터로 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, CNN) 기반의 딥러닝이고, 제2 딥러닝은 상표, 상기 상표 문서에 매칭된 선행조사보고서 및 상기 선행조사보고서에 대응되는 유사 상표를 바탕으로 학습된 Bi-LSTM 모델 기반의 딥러닝일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 딥러닝이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 딥러닝로서 사용될 수 있으나, 이에 한정되지 않는다.On the other hand, the first deep learning is a deep learning based on a convolutional deep neural network (CNN) that is learned by inputting a plurality of trademarks as learning data, and the second deep learning is a trademark, prior research matching the trademark document It may be a deep learning based on a Bi-LSTM model learned based on a report and a similar trademark corresponding to the prior research report. However, the present invention is not limited thereto, and it goes without saying that various deep learning methods may be applied to the present invention. For example, a model such as a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), or a Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as the deep learning, but is not limited thereto.

이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다.In this case, convolutional deep neural networks (CNNs) are a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and general artificial neural network layers on top of it, and additionally utilizes weights and pooling layers. Thanks to this structure, the convolutional neural network can fully utilize the input data of the two-dimensional structure. In addition, convolutional neural networks can be trained via standard backpropagation. Convolutional neural networks are easier to train than other feed-forward neural network techniques and have the advantage of using fewer parameters. A convolutional neural network extracts features from an input image by alternately performing convolution and subsampling on the input image.

합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 층(Fully Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다. A convolutional neural network includes several convolution layers, several subsampling layers (Subsampling layer, Lacal pooling layer, Max-Pooling layer), and a fully connected layer. The convolution layer is a layer that performs convolution on an input image. In addition, the subsampling layer is a layer that locally extracts the maximum value from the input image and maps it to a 2D image, and subsampling is performed by enlarging the local area.

합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층에서는 총 20개의 28×28 크기의 맵이 생성된다. In the convolution layer, information such as the kernel size, the number of kernels to be used (ie, the number of maps to be created), and a weight table to be applied during the convolution operation are required. For example, suppose that the size of the input image is 32x32, the size of the kernel is 5x5, and the number of kernels to be used is 20. In this case, if a 5×5 kernel is applied to a 32×32 input image, it is impossible to apply the kernel to two pixels above, below, left, and right of the input image. When the kernel is placed on the input image and then convolution is performed, the result value of '-8' is determined as the value of the pixel corresponding to the center element of the kernel among the pixels of the input image included in the kernel. to be. Therefore, when convolution is performed by applying a 5×5 kernel to a 32×32 input image, a 28×28 map is generated. Previously, since it was assumed that the total number of kernels to be used is 20, in the first convolutional layer, a total of 20 maps with a size of 28×28 are generated.

서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다.In the subsampling layer, information on the size of a kernel to be subsampled and information on whether to select a maximum value or a minimum value among values in the kernel region are required.

또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.In addition, deep neural networks (DNNs) are artificial neural networks (ANNs) composed of a plurality of hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다. In this case, the structure of the deep neural network may be composed of a perceptron. A perceptron consists of several inputs, one processor, and one output value. The processor multiplies each input value by a weight, and then sums the input values multiplied by the weight. Then, the processor outputs one output value by substituting the summed value into the activation function. If a specific value is desired as the output value of the activation function, the weight multiplied by each input value may be corrected, and the output value may be recalculated using the modified weight. In this case, each perceptron may use a different activation function. In addition, each perceptron receives the outputs from the previous layer as input, and then uses the activation function to obtain the output. The obtained output is transferred to the input of the next layer. Through the process as described above, some output values can be finally obtained.

또한, 딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.In addition, returning to the description of the deep learning technique, a Reccurent Neural Network (RNN) refers to a neural network in which connections between units constituting an artificial neural network constitute a directed cycle. Unlike forward neural networks, recurrent neural networks can utilize the memory inside the neural network to process arbitrary inputs.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다. Deep Belief Networks (DBN) is a generative graphical model used in machine learning, and in deep learning, it means a deep neural network composed of multiple layers of latent variables. There is a connection between layers, but there is no connection between units within a layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다. The deep trust neural network can be used for prior learning due to the nature of the generative model, and after learning the initial weights through prior learning, the weights can be fine-tuned through backpropagation or other discrimination algorithms. This characteristic is very useful when the training data is small, because the smaller the training data, the stronger the influence of the initial value of the weight on the resulting model. The pre-learned initial weight value is closer to the optimal weight compared to the arbitrarily set initial weight value, which enables performance and speed improvement in the fine-tuning stage.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 이하에서 설명되는 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 브랜드명자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 브랜드명 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The above-described artificial intelligence and its learning method have been described for illustrative purposes, and the artificial intelligence and its learning method used in the embodiments described below are not limited. For example, all kinds of artificial intelligence brand names that can be applied to common brand names in the art to solve the same problem and their learning methods can be utilized to implement the system according to the disclosed embodiment.

도 3은 본 발명의 일 실시예에 따른 유사상표를 획득하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of obtaining a similar trademark according to an embodiment of the present invention.

단계 S210에서, 서버(10)는, 대상상표에 포함된 복수개의 단어 세트를 획득할 수 있다.In step S210, the server 10 may obtain a plurality of word sets included in the target trademark.

단계 S220에서, 서버(10)는, 상기 획득된 복수개의 단어 세트를 모델링하여 복수개의 대상상표 단어를 획득할 수 있다.In step S220, the server 10 may obtain a plurality of target brand words by modeling the obtained plurality of word sets.

이때, 본 발명에 따른 모델링은 다양한 모델링 기법이 적용될 수 있다. 일 실시예로, 서버(10)는 엘라스틱 서치(Elasticsearch clustering) 모델링 기법을 이용하여 복수개의 대상상표 단어를 획득할 수 있다. 또 다른 실시예로, 서버(10)는 K-means 모델링, DBSCAN((Density-based spatial clustering of applications with noise) 모델링, Hierarchical 모델링, 혼합 가우시안 모델링 기법 중 적어도 하나의 모델링 기법을 이용하여 복수개의 대상상표 단어를 획득할 수 있다.In this case, various modeling techniques may be applied to modeling according to the present invention. In an embodiment, the server 10 may acquire a plurality of target brand words by using an Elasticsearch clustering modeling technique. In another embodiment, the server 10 uses at least one modeling technique among K-means modeling, DBSCAN (Density-based spatial clustering of applications with noise) modeling, hierarchical modeling, and mixed Gaussian modeling techniques to obtain a plurality of targets Trademark words can be obtained.

단계 S230에서, 서버(10)는, 상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점 및 상기 대상상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 대상상표의 위치를 판단할 수 있다.In step S230, the server 10 obtains a plurality of midpoints for each of the plurality of target brand words, a plurality of midpoints for each of the plurality of target brand words, and the number of word sets included in the target brand words It is possible to determine the position of the target trademark based on the .

일 실시예로, 대상상표 단어의 중점은, 해당 단어에 포함된 복수의 단어 세트의 위치를 바탕으로 획득될 수 있으며, 대상상표의 위치는 복수의 대상상표 단어의 중점들에 대한 무게중심일 수 있다.In one embodiment, the midpoint of the target brand word may be obtained based on the positions of a plurality of word sets included in the corresponding word, and the target brand position may be the center of gravity with respect to the midpoints of the plurality of target brand words have.

단계 S240에서, 서버(10)는, 상표에 포함된 복수개의 단어 세트를 획득하고, 획득된 복수개의 단어 세트를 모델링하여 복수의 상표 단어를 획득할 수 있다.In step S240 , the server 10 may acquire a plurality of word sets included in a trademark, and obtain a plurality of trademark words by modeling the acquired plurality of word sets.

단계 S250에서, 서버(10)는, 상기 복수개의 상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 상표 단어 각각에 대한 복수개의 중점 및 상기 상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 상표의 위치를 판단할 수 있다.In step S250, the server 10 obtains a plurality of midpoints for each of the plurality of brand words, based on the plurality of midpoints for each of the plurality of brand words and the number of word sets included in the brand words It is possible to determine the position of the trademark.

일 실시예로, 상표 단어의 중점은, 해당 단어에 포함된 복수의 단어 세트의 위치를 바탕으로 획득될 수 있으며, 상표의 위치는 복수의 상표 단어의 중점들에 대한 무게중심일 수 있다.In an embodiment, the midpoint of the trademark word may be obtained based on positions of a plurality of word sets included in the corresponding word, and the location of the trademark may be a center of gravity with respect to the midpoints of the plurality of trademark words.

단계 S260에서, 서버(10)는, 상기 대상상표의 위치 및 상기 상표의 위치가 기 설정된 거리 이내인 경우, 상기 상표를 상기 유사상표로 결정할 수 있다.In step S260, when the location of the target trademark and the location of the trademark are within a preset distance, the server 10 may determine the trademark as the similar trademark.

일 실시예로, 서버(10)는 대상상표의 위치로부터 기 설정된 거리 이내에 존재하는 복수개의 상표를 유사상표로 결정할 수 있으며, 대상상표와의 거리가 가까운 유사상표 순으로 결정된 복수의 유사상표를 정렬할 수 있다.In one embodiment, the server 10 may determine a plurality of trademarks existing within a preset distance from the location of the target trademark as similar trademarks, and sort the plurality of similar trademarks determined in the order of similar trademarks having a close distance to the target trademark. can do.

도 4는 본 발명의 일 실시예에 따른 대상상표 및 유사상표로부터 복수의 단어를 획득하여 중요도 순으로 정렬하는 방법을 설명하기 위한 흐름도이다.4 is a flowchart for explaining a method of obtaining a plurality of words from a target trademark and a similar trademark and arranging them in order of importance according to an embodiment of the present invention.

단계 S310에서, 서버(10)는, 상기 대상상표 및 상기 유사상표에 포함된 복수의 단어 각각에 대한 복수개의 단어 세트를 획득할 수 있다.In step S310, the server 10 may obtain a plurality of word sets for each of a plurality of words included in the target trademark and the similar trademark.

단계 S320에서, 서버(10)는, 상기 획득된 복수개의 단어 세트 각각에 대한 복수개의 중요도 스코어를 획득할 수 있다. 중요도 스코어를 획득하는 방법은 후술한다.In step S320 , the server 10 may obtain a plurality of importance scores for each of the obtained plurality of word sets. A method of obtaining the importance score will be described later.

단계 S330에서, 서버(10)는, 상기 복수개의 중요도 스코어를 바탕으로 상기 대상상표에 포함된 단어의 중요도 스코어를 결정할 수 있다.In step S330, the server 10 may determine the importance score of the word included in the target trademark based on the plurality of importance scores.

일 실시예로, 서버(10)는 복수개의 단어 세트와 대상상표와의 연관도를 획득하고, 획득된 연관도가 기 설정된 값 이상인 단어 세트의 중요도 스코어의 총 합을 단어의 중요도 스코어로 결정할 수 있다. 이때, 연관도는 다양한 방법을 통해 획득될 수 있다. 예를 들어 단어 세트와 대상상표간의 연관도는 대상상표에 대응되는 NICE 분야에 대응되는 복수의 상표를 바탕으로 획득될 수 있다. 구체적으로, 단어 세트와 대상상표간의 연관도는, 해당 단어 세트가 NICE 분야에 대응되는 복수의 상표에 출현한 횟수를 바탕으로 획득될 수 있다. 일 실시예로, 해당 단어 세트가 NICE 분야에 대응되는 복수의 상표에 출현한 횟수가 높을수록, 단어 세트와 대상상표간의 연관도가 높아질 수 있다.In an embodiment, the server 10 may obtain a degree of association between a plurality of word sets and a target trademark, and determine the sum of the importance scores of the word sets having the obtained association degree equal to or greater than a preset value as the importance score of the word. have. In this case, the degree of association may be obtained through various methods. For example, the degree of association between the word set and the target trademark may be obtained based on a plurality of trademarks corresponding to the NICE field corresponding to the target trademark. Specifically, the degree of association between the word set and the target trademark may be obtained based on the number of times the corresponding word set appears in a plurality of trademarks corresponding to the NICE field. As an embodiment, the higher the number of times the corresponding word set appears in a plurality of trademarks corresponding to the NICE field, the higher the degree of association between the word set and the target trademark.

단계 S340에서, 서버(10)는, 상기 복수의 단어 각각의 중요도 스코어를 바탕으로 상기 복수의 단어를 중요도 순으로 정렬할 수 있다. In step S340 , the server 10 may sort the plurality of words in order of importance based on the importance scores of each of the plurality of words.

나아가, 서버(10)는 복수의 단어를 n개의 그룹으로 그루핑할 수 있다. 이때, 복수의 단어를 그루핑하는 방법은 다양할 수 있다. 일 실시예로, n개의 그룹은 동일한 개수의 단어를 포함하도록 그루핑될 수 있다. 또 다른 실시예로, n개의 그룹은, 기 설정된 중요도 스코어에 따라 그루핑 될 수 있다. 설명의 편의를 위해, 이하에서는 제k 그룹에 포함된 단어의 중요도 스코어가 제k+1그룹에 포함된 단어의 중요도 스코어보다 큰 경우를 가정한다.Furthermore, the server 10 may group a plurality of words into n groups. In this case, a method of grouping a plurality of words may be various. In one embodiment, the n groups may be grouped to include the same number of words. As another embodiment, the n groups may be grouped according to a preset importance score. For convenience of explanation, it is hereinafter assumed that the importance score of the word included in the kth group is greater than the importance score of the word included in the k+1th group.

도 5는 본 발명의 일 실시예에 따른 제1 단어 및 제2 단어를 획득하는 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of obtaining a first word and a second word according to an embodiment of the present invention.

단계 S410에서, 서버(10)는, 상기 대상상표에 포함된 복수의 단어를 중요도 스코어를 바탕으로 기 설정된 n개의 그룹으로 분류할 수 있다.In step S410 , the server 10 may classify the plurality of words included in the target trademark into n preset groups based on the importance score.

단계 S420에서, 서버(10)는, 상기 유사상표에 포함된 복수의 단어를 중요도 스코어를 바탕으로 기 설정된 n개의 그룹으로 분류할 수 있다.In step S420, the server 10 may classify the plurality of words included in the similar trademark into n preset groups based on the importance score.

단계 S430에서, 서버(10)는, 상기 제1 단어이 상기 대상상표의 n개의 그룹 중 제1 그룹에 포함되는 경우, 상기 제2 단어를 상기 유사상표에 포함된 전체 단어으로 획득할 수 있다.In step S430 , when the first word is included in a first group among n groups of the target trademark, the server 10 may obtain the second word as all words included in the similar trademark.

단계 S440에서, 서버(10)는, 상기 제1 단어이 상기 대상상표의 n개의 그룹 중 제k 그룹에 포함되는 경우, 상기 제2 단어를 상기 유사상표의 n개의 그룹 중, 제1 그룹 내지 제 (n-k+1)그룹에 포함된 단어으로 획득할 수 있다. 이때, n은 1 이상의 자연수, k는 n이하의 자연수일 수 있다. In step S440, when the first word is included in the kth group among the n groups of the target trademark, the server 10 assigns the second word to the first to (() n-k+1) can be obtained with words included in the group. In this case, n may be a natural number greater than or equal to 1, and k may be a natural number less than or equal to n.

예를 들어, 대상상표 및 유사상표가 3개의 그룹으로 분류된 경우를 가정할 수 있다. 이때, 제1 단어이 제1 그룹에 포함되는 경우, 서버(10)는 제1 단어과 유사상표문헌의 제1그룹 내지 제3그룹(즉, 유사상표 전체)에 포함된 모든 단어를 비교하여 평가 결과를 획득할 수 있다. 또한, 제1 단어이 제2 그룹에 포함되는 경우, 서버(10)는 제1 단어과 유사상표의 제1그룹 및 제2그룹에 포함된 모든 단어를 비교하여 평가 결과를 획득할 수 있다. 또한, 제1 단어이 제3 그룹에 포함되는 경우, 서버(10)는 제1 단어과 유사상표의 제1그룹에 포함된 모든 단어를 비교하여 평가 결과를 획득할 수 있다.For example, it may be assumed that the target trademark and the similar trademark are classified into three groups. At this time, when the first word is included in the first group, the server 10 compares the first word with all the words included in the first to third groups (that is, all similar trademarks) of the similar trademark literature to obtain the evaluation result. can be obtained Also, when the first word is included in the second group, the server 10 may obtain an evaluation result by comparing the first word with all words included in the first group and the second group of the similar trademark. Also, when the first word is included in the third group, the server 10 may obtain an evaluation result by comparing the first word with all words included in the first group of similar trademarks.

즉, 서버(10)는 단어의 중요도에 따라 중요한 단어이라고 판단되는 단어들에 대하여만 평가 결과를 획득함으로써, 불필요하거나 덜 중요한 단어에 대한 평가 결과 획득 과정을 방지하여 계산량을 줄일 수 있다. 구체적으로, 대상상표의 제1 그룹은 중요도가 높은 단어이므로 유사상표 전체와 비교하고, 대상상표의 제3 그룹은 중요도가 낮은 단어이므로 유사상표 중 중요도가 높은 제1 그룹의 단어과 비교함으로써, 서버(10)는 (덜 중요한) 대상상표의 제3 그룹과 (덜 중요한) 유사상표의 제3 그룹간의 비교는 생략할 수 있다.That is, the server 10 obtains evaluation results only for words determined to be important words according to the importance of the words, thereby preventing an evaluation result acquisition process for unnecessary or less important words, thereby reducing the amount of calculation. Specifically, since the first group of target trademarks is a high-importance word, it is compared with all similar trademarks, and since the third group of target trademarks is a low-importance word, it is compared with the first group of high-importance words among similar trademarks, so that the server ( 10), the comparison between the third group of (less important) target trademarks and the third group of (less important) similar trademarks can be omitted.

한편, 본 발명의 다양한 실시예에 따라, 서버(10)는 대상상표 및 유사상표를 몇 개의 그룹으로 그루핑할 것인지 여부를 결정할 수 있다. 구체적으로, 서버(10)는 현재 서버(10)의 GPU 점유율 및 요구되는 정확도를 바탕으로 n의 값을 결정할 수 있다. GPU 점유율이 높거나 요구되는 정확도가 낮은 경우, 서버(10)는 n의 값을 증가시키고, GPU 점유율이 낮거나 요구되는 정확도가 높은 경우, 서버(10)는 n의 값을 감소시킬 수 있다. 예컨대 대상상표 및 유사상표가 6개의 단어으로 구성되고, n이 3인 경우 및 n이 6인 경우를 가정할 수 있다. n이 6인 경우, 서버(10)는 6+5+4+3+2+1=21개의 단어를 비교하고, n이 3인 경우 서버(10)는 6+6+4+4+2+2=24개의 단어를 비교하게 된다. 즉, n의 값이 클수록 대상상표와 유사상표에서 비교해야 되는 단어의 수가 적어지고, n의 값이 작을수록 대상상표와 유사상표에서 비교해야 되는 단어의 수가 많아지므로, 서버(10) 현재 자신이 처리할 수 있는 계산량(GPU 점유율)이 적거나 요구되는 정확도가 낮은 경우, 서버(10)는 n의 값을 증가시킬 수 있다.Meanwhile, according to various embodiments of the present invention, the server 10 may determine whether to group the target trademark and the similar trademark into how many groups. Specifically, the server 10 may determine the value of n based on the current GPU occupancy of the server 10 and required accuracy. When the GPU occupancy is high or the required accuracy is low, the server 10 may increase the value of n, and when the GPU occupancy is low or the required accuracy is high, the server 10 may decrease the value of n. For example, it may be assumed that the target trademark and the similar trademark are composed of 6 words, and n is 3 and n is 6. If n is 6, server 10 compares 6+5+4+3+2+1=21 words, if n is 3 server 10 compares 6+6+4+4+2+ 2 = 24 words will be compared. That is, as the value of n increases, the number of words to be compared in the target trademark and similar trademark decreases, and as the value of n decreases, the number of words to be compared in the target trademark and similar trademark increases. When the amount of computation (GPU occupancy) that can be processed is small or the required accuracy is low, the server 10 may increase the value of n.

한편, 상술한 실시예에서는 대상상표 및 유사상표가 동일한 n개의 개수로 그루핑 되는 경우에 대해 설명하였으나, 이에 한정되는 것은 아니다. 예컨대, 대상상표와 유사상표를 서로 다른 개수로 그루핑될 수 있음은 물론이다. Meanwhile, in the above-described embodiment, the case in which the target trademark and the similar trademark are grouped in the same number of n has been described, but the present invention is not limited thereto. For example, it goes without saying that the target trademark and the similar trademark may be grouped in different numbers.

단계 S510에서, 서버(10)는, 상기 제1 단어 및 상기 제2 단어의 유사도 점수 및 비유사도 점수를 각각 획득할 수 있다.In step S510 , the server 10 may obtain a similarity score and a dissimilarity score of the first word and the second word, respectively.

구체적으로, 유사도 점수는 제1 단어과 제2 단어이 관련된 단어인지 여부를 판단하기 위한 지표이며, 비유사도 점수는 제1 단어과 제2 단어이 관련성이 없는 단어인지 여부를 판단하기 위한 지표이다.Specifically, the similarity score is an index for determining whether the first word and the second word are related words, and the dissimilarity score is an index for determining whether the first word and the second word are unrelated words.

일 실시예로, 유사도 점수 및 비유사도 점수는, 제1 단어 및 제2 단어에 포함된 단어 세트의 의미 정보를 획득하고, 획득된 의미 정보가 동일 주제에 대한 의미 정보인지 여부를 판단하여 획득될 수 있다. In an embodiment, the similarity score and dissimilarity score may be obtained by acquiring semantic information of a set of words included in the first word and the second word, and determining whether the acquired semantic information is semantic information about the same subject. can

또 다른 실시예로, 서버(10)는 제1 단어 및 제2 단어의 단어 구조를 판단하여 유사도 점수 및 비유사도 점수 계산에 활용할 수 있다. 예를 들어, 서버(10)는 제1 단어 및 제2 단어의 단어 구조가 유사한 경우, 유사도 점수를 높이고, 제1 단어 및 제2 단어의 단어 구조가 비유사한 경우, 비유사도 점수를 높일 수 있다.In another embodiment, the server 10 may determine the word structure of the first word and the second word and use it to calculate a similarity score and a dissimilarity score. For example, the server 10 may increase the similarity score when the word structures of the first word and the second word are similar, and increase the dissimilarity score when the word structures of the first word and the second word are dissimilar. .

단계 S520에서, 서버(10)는, 상기 비유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어과 상기 제2 단어은 관계없는 단어으로 판단할 수 있다. In step S520 , when the dissimilarity score is equal to or greater than a preset score, the server 10 may determine that the first word and the second word are unrelated words.

단계 S530에서, 서버(10)는, 상기 유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어에 포함된 단어 세트 중 상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트를 획득할 수 있다.In step S530, when the similarity score is equal to or greater than a preset score, the server 10 may acquire at least one word set not included in the second word among the word sets included in the first word.

즉, 제1 단어과 제2 단어이 관련성이 있는 단어이라고 하더라도, 제1 단어과 제2 단어이 동일한 의미를 가지는 단어인 것은 아니다. 따라서, 서버(10)는 제1 단어과 제2 단어이 동일한 단어인지 또는 동일한 주제에 대한 단어이나 차이점이 존재하는 단어인지 여부를 판단할 수 있다.That is, even if the first word and the second word are related words, the first word and the second word are not words having the same meaning. Accordingly, the server 10 may determine whether the first word and the second word are the same word or a word for the same subject or a word with a difference.

일 실시예로, 서버(10)는 제1 단어과 제2 단어의 차이점을 판단하기 위하여 제1 단어에 포함된 단어 세트 중 제2 단어에 포함되지 않은 적어도 하나의 단어 세트를 판단할 수 있다.In an embodiment, the server 10 may determine at least one word set not included in the second word among the word sets included in the first word in order to determine the difference between the first word and the second word.

또 다른 실시예로, 서버(10)는 제1 단어 및 제2 단어의 단어 구조를 판단할 수 있다.In another embodiment, the server 10 may determine the word structure of the first word and the second word.

단계 S540에서, 서버(10)는, 상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트 각각에 대한 적어도 중요도 점수를 획득하고, 상기 획득된 적어도 하나의 중요도 점수 중 기 설정된 중요도 점수 이상인 단어 세트가 존재하는지 여부를 판단할 수 있다.In step S540, the server 10 obtains at least an importance score for each of the at least one word set not included in the second word, and a word set equal to or greater than a preset importance score among the obtained at least one importance score is selected. It can be determined whether it exists or not.

단계 S550에서, 서버(10)는, 기 설정된 중요도 점수 이상인 단어 세트가 존재하지 않는 경우, 상기 제1 단어 및 상기 제2 단어를 일치 단어으로 판단할 수 있다.In step S550 , the server 10 may determine the first word and the second word as a matching word when there is no word set equal to or greater than the preset importance score.

단계 S560에서, 서버(10)는, 상기 기 설정된 중요도 점수 이상인 단어 세트가 존재하면, 상기 제1 단어 및 상기 제2 단어를 불일치 단어으로 판단할 수 있다.In step S560 , the server 10 may determine the first word and the second word as mismatched words when there is a word set equal to or greater than the preset importance score.

즉, 제1 단어의 적어도 하나의 단어 세트가 제2 단어에 포함되어 있지 않은 경우라고 하더라도, 중요도 점수가 낮은 단어 세트는 제1 단어과 제2 단어의 유사도와는 연관이 없는 경우가 존재할 수 있다. 따라서 서버(10)는, 제2 단어에 포함되지 않은 적어도 하나의 단어 세트의 중요도 점수가 기 설정된 중요도 점수 이상인 경우의 단어 세트를 획득하고, 획득된 단어 세트를 바탕으로 제1 단어 및 제2 단어이 일치 단어인지 불일치 단어인지 여부를 판단할 수 있다.That is, even when at least one word set of the first word is not included in the second word, there may exist a case where a word set having a low importance score is not related to the similarity between the first word and the second word. Accordingly, the server 10 obtains a word set when the importance score of at least one word set not included in the second word is equal to or greater than a preset importance score, and the first word and the second word are determined based on the obtained word set. It may be determined whether the word is a match or a mismatch word.

도 7은 본 발명의 일 실시예에 따른 제1 딥러닝 및 제2 딥러닝을 이용하여 평가 결과를 도출하는 과정을 설명하기 위한 예시도이다.7 is an exemplary diagram for explaining a process of deriving an evaluation result using the first deep learning and the second deep learning according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 제1 딥러닝은 대상 상표를 입력값으로 입력받아, 대상 상표에 대한 유사 상표를 획득할 수 있다. 이때, 대상상표에 대한 유사 상표 문서는 복수개일 수 있음은 물론이고, 유사상표가 복수개인 경우, 서버(10)는 복수개의 유사상표를 대상상표와의 연관성을 바탕으로 정렬할 수 있음은 물론이다.As shown in FIG. 7 , the first deep learning may receive a target trademark as an input value and obtain a similar trademark for the target trademark. At this time, of course, there may be a plurality of similar trademark documents for the target trademark, and if there are a plurality of similar trademarks, the server 10 may sort the plurality of similar trademarks based on the association with the target trademark. .

제1 데이터베이스는 전체 상표를 저장하기 위한 구성이다. 구체적으로, 제1 데이터베이스는, 전체 상표 각각에 대한 형태소 분석을 통해 전체 상표 각각의 단어 세트를 획득하고, 획득된 단어 세트에 대한 유의어 사전을 획득하고, 획득된 단어 세트 각각에 대한 중요도 스코어를 획득하여, 획득된 중요도 스코어를 단어 세트에 매칭하여 저장할 수 있다.The first database is a configuration for storing all trademarks. Specifically, the first database obtains a word set of each of the entire trademarks through morphological analysis of each of the entire trademarks, obtains a thesaurus for the obtained word set, and obtains an importance score for each of the obtained word sets Thus, the obtained importance score may be matched to a word set and stored.

제1 딥러닝은 제1 데이터베이스에 저장된 전체 상표 중 대상상표에 대응되는 유사상표를 획득할 수 있다.The first deep learning may acquire a similar trademark corresponding to the target trademark among all trademarks stored in the first database.

한편, 서버(10)는 제1 딥러닝을 통해 대상상표 및 유사상표가 획득되면, 대상상표 중 제1 단어를 추출하고, 유사상표 중 제2 단어를 추출할 수 있다. 제1 단어 및 제2 단어은 상술한 도 4 및 도 5의 방법을 통해 획득될 수 있다.Meanwhile, when the target trademark and similar trademarks are obtained through the first deep learning, the server 10 may extract a first word from among the target trademarks and extract a second word from among the similar trademarks. The first word and the second word may be obtained through the methods of FIGS. 4 and 5 described above.

나아가, 제2 딥러닝은제1 단어 및 제2 단어를 입력값으로 입력하여 제1 단어과 제2 단어에 대한 평가 결과를 획득할 수 있다. 이때, 평가 결과란, 제1 단어과 제2 단어이 일치 단어인지, 불일치 단어인지, 관계없는 단어인지에 대한 결과일 수 있다.Furthermore, in the second deep learning, the first word and the second word may be input as input values to obtain evaluation results for the first word and the second word. In this case, the evaluation result may be a result of whether the first word and the second word are a match word, a mismatch word, or an unrelated word.

제2 데이터베이스는, 상표 및 상표에 매칭된 선행조사보고서가 저장될 수 있다. 이때, 선행조사보고서는 상표문헌과 유사하다고 판단된 유사상표 및 상표의 특정 단어에 대응되는 유사상표의 특정 단어에 대한 정보를 포함할 수 있다.The second database may store trademarks and prior research reports matched to the trademarks. In this case, the prior research report may include information on similar trademarks determined to be similar to trademark literature and specific words of similar trademarks corresponding to specific words of trademarks.

서버(10)는 대상상표를 획득할 수 있다. 일 실시예로, 서버(10)는 전자 장치(20)로부터 직무 발명서를 대상상표로 획득할 수 있다. The server 10 may acquire the target trademark. As an embodiment, the server 10 may obtain a job invention from the electronic device 20 as a target trademark.

단계 S605에서, 서버(10)는 대상상표의 형태소를 분석하여 단어 세트를 획득할 수 있다.In step S605, the server 10 may obtain a word set by analyzing the morpheme of the target trademark.

일 실시예로, 서버(10)는 Mecab 형태소 분석기를 이용하여 상표의 형태소 분석을 수행할 수 있다. 다만, 이에 한정되는 것은 아니고, 경우에 따라 Okt, Komoran, Hannanum, Kkma 형태소 분석기 등 다양한 형태소 분석기가 이용될 수 있음은 물론이다. 나아가, 서버(10)는 분석하고자 하는 상표의 사용 언어에 따라 다양한 형태소 분석기를 사용할 수 있음은 물론이다.In an embodiment, the server 10 may perform morpheme analysis of a trademark using a Mecab morpheme analyzer. However, the present invention is not limited thereto, and in some cases, various morpheme analyzers such as Okt, Komoran, Hannanum, and Kkma morpheme analyzers may be used. Furthermore, it goes without saying that the server 10 may use various morpheme analyzers according to the language used for the brand to be analyzed.

단계 S610에서, 서버(10)는 획득된 복수개의 단어 세트 중 오류 단어 세트를 판단할 수 있다.In step S610 , the server 10 may determine an erroneous word set among the plurality of acquired word sets.

일 실시예로, 서버(10)는 획득된 복수개의 단어 세트가 기 설정된 조건을 만족하지 못하는 경우, 해당 단어를 오류 단어로 판단할 수 있다. 단계 S615에서, 서버(10)는 오류 단어 세트를 수정할 수 있다.In an embodiment, when the plurality of acquired word sets do not satisfy a preset condition, the server 10 may determine the corresponding word as an erroneous word. In step S615, the server 10 may correct the erroneous word set.

단계 S620에서, 서버(10)는 복수개의 단어 세트간의 연관도를 바탕으로 적어도 하나의 복합 명사구 세트를 획득할 수 있다.In operation S620 , the server 10 may acquire at least one set of compound noun phrases based on the degree of association between the plurality of word sets.

일 실시예로, 서버(10)는 대상상표에 포함된 단어를 획득하고, 대상상표에 포함된 텍스트를 단어 단위로 분류하고, 분류된 단어 각각에 대한 형태소 분석을 수행하고, 단어를 음절 단위로 분할하고, 분할된 음절에 품사 태그를 매칭하고, 분할된 음절을 바탕으로 단어에 포함된 형태소를 획득할 수 있다.In one embodiment, the server 10 obtains a word included in the target trademark, classifies the text included in the target trademark by word unit, performs morphological analysis on each classified word, and converts the word into syllable units It is possible to segment, match a part-of-speech tag to the segmented syllable, and obtain a morpheme included in a word based on the segmented syllable.

단계 S625에서, 서버(10)는 획득된 복수개의 단어 세트 각각에 대한 의미 정보를 매칭할 수 있다.In operation S625 , the server 10 may match semantic information for each of the obtained plurality of word sets.

이때, 의미 정보란, 단어 세트에 대한 인텐트를 의미할 수 있다. 서버(10)는 단어 세트에 대한 의미 정보를 획득하기 위해 딥러닝을 이용한 자연어 처리를 수행할 수 있다. In this case, the semantic information may mean an intent for a word set. The server 10 may perform natural language processing using deep learning to obtain semantic information about the word set.

구체적으로, 딥러닝은 자연어 이해부를 포함하고, 자연어 이해부는 단어 분석 결과를 바탕으로 엔티티(entity) 및 단어에 포함된 단어 세트의 의도(intent)를 파악할 수 있으며, 나아가, 자연어 이해부는 단어의 구조 및 주요 성분 분석을 통해 단어를 해석하고 통계/분석 등을 이용하여 단어 분석을 수행할 수 있다.Specifically, deep learning includes a natural language understanding unit, and the natural language understanding unit can grasp the intent of an entity and a word set included in a word based on the word analysis result, and further, the natural language understanding unit can determine the structure of a word And it is possible to interpret a word through analysis of major components, and perform word analysis using statistics/analysis, etc. FIG.

일 실시예로, 서버(10)는 '사과'가 포함된 단어를 분석하여 사과에 대한 의미 정보를 획득할 수 있다. 예를 들어, 단어 문석을 통해 획득된 단어 세트가 "사과' 인 경우를 가정할 수 있다. 이때, 사과에 대한 의미 정보는 명사로서 과일의 한 종류를 나타내는 의미 정보일 수 있으나, 동사로서 다른 사람에게 잘못을 말하는 것을 나타내는 의미 정보일 수도 있다. 서버(10)는 '사과'에 대한 복수개의 의미 정보 중 단어과 적합하다고 판단되는 의미 정보를 '사과'와 매칭할 수 있다.In an embodiment, the server 10 may obtain semantic information about the apple by analyzing a word including 'apple'. For example, it may be assumed that the word set obtained through the word grammar is “apple.” In this case, semantic information about apple may be semantic information indicating one kind of fruit as a noun, but other people as a verb. It may also be semantic information indicating that the user is wrong, and the server 10 may match semantic information determined to be suitable for a word among a plurality of semantic information on 'apple' with 'apple'.

단계 S630에서, 서버(10)는 매칭된 의미 정보 및 상표를 바탕으로 복수개의 단어 세트 각각에 대한 정확도 점수를 획득할 수 있다.In step S630 , the server 10 may obtain an accuracy score for each of the plurality of word sets based on the matched semantic information and the trademark.

이 경우, 단계 S625에서는 하나의 단어를 통해 획득한 단어 세트에 대한 의미 정보 획득하나, 단계 S625을 통해 획득한 의미 정보는 부정확할 가능성이 있다. 따라서, 서버(10)는 단어를 포함하는 상표 전체를 바탕으로 단어 세트에 매칭된 의미 정보의 정확도 점수를 획득할 수 있다.In this case, although semantic information about the word set acquired through one word is acquired in step S625, the semantic information acquired in step S625 may be inaccurate. Accordingly, the server 10 may acquire the accuracy score of the semantic information matched to the word set based on the entire trademark including the word.

따라서, 서버(10)는 단어 분석을 통해 획득된 단어 세트의 의미 정보에 대한 정확도 점수를, 상표 전체에서 발견되는 동일한 단어 세트에 대한 의미 정보를 바탕으로 획득할 수 있다.Accordingly, the server 10 may obtain an accuracy score for the semantic information of the word set obtained through word analysis based on the semantic information about the same word set found throughout the trademark.

예를 들어, '사과'가 포함된 단어를 분석하여 획득한 '사과'에 대한 의미 정보가 과일을 나타내는 사과에 대한 정보이지만, 단어를 포함한 상표 전체에서 검색되는 '사과'의 의미 정보가 다른 사람에게 잘못을 말하는 것에 대한 정보인 경우, 서버(10)는 기 매칭된 의미 정보를 낮게 설정할 수 있다.For example, the semantic information about 'apple' obtained by analyzing a word containing 'apple' is information about an apple representing a fruit, but the semantic information of 'apple' that is searched for all trademarks including the word is different. In the case of information about telling the wrong person, the server 10 may set the pre-matched semantic information low.

단계 S635에서, 서버(10)는 정확도 점수가 기 설정된 값 이하인 단어 세트를 오류 단어 세트로 판단할 수 있다.In step S635 , the server 10 may determine a word set having an accuracy score equal to or less than a preset value as an erroneous word set.

즉, 서버(10)는 정확도 점수가 기 설정된 값 이하인 경우, 해당 단어 세트에 매칭된 의미 정보가 잘못 매칭된 것으로 판단하고, 단어 세트를 오류 단어 세트로 획득할 수 있다.That is, when the accuracy score is less than or equal to a preset value, the server 10 may determine that the semantic information matched with the corresponding word set is erroneously matched, and obtain the word set as the erroneous word set.

단계 S640에서, 서버(10)는 오류 단어에 대한 복수개의 의미 정보를 획득할 수 있다. 구체적으로, 서버(10)는 오류 단어가 가지는 복수개의 의미 정보를 복수개의 상표로부터 획득할 수 있다.In step S640, the server 10 may obtain a plurality of semantic information for the erroneous word. Specifically, the server 10 may obtain a plurality of semantic information of the erroneous word from a plurality of trademarks.

단계 S645에서, 서버(10)는 획득된 복수개의 의미 정보 각각에 대한 복수개의 가중치를 획득할 수 있다.In step S645 , the server 10 may acquire a plurality of weights for each of the acquired semantic information.

일 실시예로, 서버(10)는 오류 단어를 포함하는 상표를 바탕으로 가중치를 획득할 수 있다. 구체적으로, 서버(10)는 상표에서 오류 단어를 포함하는 적어도 하나의 단어를 획득하고, 획득된 적어도 하나의 단어에 포함된 오류 단어와 동일한 단어에 대한 의미 정보를 획득할 수 있다. 서버(10)는 오류단어와 동일한 적어도 하나의 단어에 대한 의미 정보를 바탕으로, 복수개의 의미 정보에 대한 가중치를 획득할 수 있다.In an embodiment, the server 10 may obtain a weight based on a trademark including an erroneous word. Specifically, the server 10 may obtain at least one word including an erroneous word from the trademark, and obtain semantic information about the same word as the erroneous word included in the obtained at least one word. The server 10 may acquire weights for a plurality of semantic information based on semantic information about at least one word identical to the erroneous word.

단계 S650에서, 서버(10)는 복수개의 가중치 중 상표와의 연관도가 가장 높은 가중치를 획득할 수 있다. In step S650 , the server 10 may obtain a weight having the highest degree of association with a brand among a plurality of weights.

단계 S655에서, 서버(10)는 상표와의 연관도가 가장 높은 가중치에 대응되는 의미 정보를 오류 단어 세트에 매칭할 수 있다. 즉, 서버(10)는 오류 단어에 대한 복수개의 의미 정보 중 가중치가 가장 큰 의미 정보를 오류 단어에 대한 의미 정보로 결정하고, 오류 단어를 수정할 수 있다.In step S655 , the server 10 may match semantic information corresponding to a weight having the highest degree of association with a trademark to the erroneous word set. That is, the server 10 may determine semantic information having the greatest weight among a plurality of semantic information on the erroneous word as semantic information on the erroneous word and correct the erroneous word.

한편, 본 발명의 다양한 실시예에 따라, 오류 단어 세트는 단어 세트에 잘못된 의미 정보가 매칭된 경우뿐만 아니라 형태소 분석 과정에서의 오류로 잘못 파싱된 단어 세트일 경우일 수 있음은 물론이다. 일 실시예로, 단어 세트 획득을 위한 단어이 "머신 러닝을 이용한 자연어 처리를 한다" 인 경우, 서버(10)는 머신, 러닝, 이용, 자연어, 처리를 단어 세트로 획득할 수 있다. Meanwhile, according to various embodiments of the present disclosure, it goes without saying that the erroneous word set may be a case in which incorrect semantic information is matched with the word set, as well as a word set that is erroneously parsed due to an error in the morpheme analysis process. In an embodiment, when the word for obtaining the word set is “Natural language processing using machine learning is performed,” the server 10 may obtain machine, learning, use, natural language, and processing as a word set.

이 경우, 형태소 분석의 오류로 인하여, 머신, 러닝, 을이용, 자연어, 처리와 같이 단어 세트를 획득하는 경우가 발생할 수 있다. 이 경우, 서버(10)는 '을이용'을 오류 단어 세트로 판단하고, 수정할 수 있다. In this case, due to an error in morpheme analysis, a case of acquiring a word set such as machine, learning, using eul, natural language, and processing may occur. In this case, the server 10 may determine 'use E' as an error word set and correct it.

구체적으로, 서버(10)는 획득된 단어 세트 각각에 대한 의미 정보를 획득한 후, 의미 정보와 상표와의 연관도를 바탕으로 오류 단어인지 여부를 판단할 수 있다. 일 실시예에 따라, 서버(10)는 획득된 단어 세트가 기 설정된 빈도 이상 단어 세트를 포함하는 상표에서 발견되는 경우, 해당 단어 세트는 오류가 없는 단어 세트로 판단할 수 있다. 또 다른 실시예로, 서버(10)는 단어 세트가 전체 상표에서 기 설정된 빈도 이상 발견되는 경우, 해당 단어 세트는 일반적으로 사용되는 단어 세트로 판단하여 오류 단어 세트가 아닌 것으로 판단할 수 있다. 또 다른 실시예로, 서버(10)는 단어 세트에 대한 의미 정보를 찾지 못한 경우, 해당 단어 세트를 오류 단어 세트로 판단할 수 있다. 또 다른 실시예로, 서버(10)는 단어 세트에 매칭된 의미 정보가 단어 세트를 포함하는 상표와 이질적인 경우, 해당 단어 세트를 오류 단어 세트로 판단할 수 있다.Specifically, after obtaining semantic information for each of the acquired word sets, the server 10 may determine whether the word is an erroneous word based on the degree of association between the semantic information and the trademark. According to an embodiment, when the acquired word set is found in a trademark including a word set with a frequency greater than or equal to a preset frequency, the server 10 may determine that the corresponding word set is an error-free word set. In another embodiment, when a word set is found with a preset frequency or more in all trademarks, the server 10 may determine that the word set is not an erroneous word set by determining that the word set is a commonly used word set. In another embodiment, when the server 10 does not find semantic information about the word set, the server 10 may determine the corresponding word set as an erroneous word set. In another embodiment, when the semantic information matched to the word set is different from a trademark including the word set, the server 10 may determine the corresponding word set as an erroneous word set.

구체적으로, 서버(10)는 상표 전체에 포함된 단어 세트를 획득하고, 획득된 단어 세트 각각에 대한 의미 정보를 매칭하여 저장할 수 있다. 서버(10)는 매칭된 단어 세트 및 의미 정보를 모델링하여 연관성있는 의미 정보를 가지는 복수개의 단어 세트의 단어를 획득할 수 있다. 서버(10)는 복수개의 단어 세트 단어 중, 단어에 포함된 단어 세트가 기 설정된 개수 이하인 단어 세트 단어를 획득할 수 있다. 이때, 기 설정된 개수란, 상표에서 사용된 복수의 동일한 단어 세트에 대한 개수를 의미하는 것이 아닌, 서로 다른 형태를 가지는 복수개의 단어 세트에 대한 개수를 의미할 수 있다. 예를 들어, 상표에서 "을이용" 이라는 단어가 복수번 검색된 경우라고 하더라도, "을이용"은 동일한 단어 세트이기 때문에, 하나의 단어 세트로 판단할 수 있다. 서버(10)는 상기 단계에서 획득한 단어에 포함된 단어 세트를 오류 단어 세트로 판단할 수 있다. Specifically, the server 10 may acquire a set of words included in the entire trademark, match and store semantic information for each of the acquired word sets. The server 10 may obtain words of a plurality of word sets having relevant semantic information by modeling the matched word set and semantic information. The server 10 may acquire word set words in which the number of word sets included in the word is less than or equal to a preset number among the plurality of word set words. In this case, the preset number does not mean the number of a plurality of identical word sets used in a trademark, but may mean the number of a plurality of word sets having different shapes. For example, even if the word "using E" is searched for multiple times in a trademark, "Using E" can be determined as one set of words because it is the same set of words. The server 10 may determine the word set included in the word obtained in the above step as the erroneous word set.

다만, 이에 한정되는 것은 아니고, 서버(10)는 복수개의 단어 세트 단어 중, 다른 단어와의 거리가 기 설정된 거리 이상인 단어에 포함된 단어 세트를 오류 단어 세트로 판단할 수 있음은 물론이다. 구체적으로, 서버(10)는 복수개의 단어의 중심점을 획득하고, 획득된 중심점을 바탕으로 단어간의 거리를 판단할 수 있다. 예를 들어, 획득된 단어 세트 단어가 제1 단어세트 단어 내지 제4 단어 세트 단어일 수 있다. 이 경우, 서버(10)는 제1 단어 세트 단어와 제2 단어 세트 단어와의 거리, 제1 단어 세트 단어와 제3 단어세트 단어와의 거리, 제1 단어 세트 단어와 제4 단어세트 단어와의 거리를 각각 획득하고, 획득된 3개의 거리 모두가 기 설정된 거리 이상인 경우, 제1 단어 세트 단어를 오류 단어 세트로 판단할 수 있다.However, the present invention is not limited thereto, and it goes without saying that the server 10 may determine, among the plurality of word set words, a word set included in a word having a distance from another word equal to or greater than a preset distance as an erroneous word set. Specifically, the server 10 may obtain the center points of a plurality of words, and determine the distance between the words based on the obtained center points. For example, the obtained word set word may be a first word set word to a fourth word set word. In this case, the server 10 determines the distance between the first word set word and the second word set word, the distance between the first word set word and the third word set word, the first word set word and the fourth word set word When distances of are obtained, and all of the three obtained distances are equal to or greater than a preset distance, the first word set word may be determined as an erroneous word set.

이때, 복합 명사구 세트 후보는 복합 명사구 세트 후보에 포함된 단어 세트들의 순서 정보 및 이격 정보를 포함할 수 있다.In this case, the compound noun phrase set candidate may include order information and spacing information of word sets included in the compound noun phrase set candidate.

일 실시예로, 복합 명사구 세트는 둘 이상의 인접한 단어 세트의 조합으로 결정되지만, 본 발명에서는 단어들이 이격된 단어 세트의 조합 또한 복합 명사구 세트로 획득할 수 있다. 예를 들어, 서버(10)는 "복수개의 장치 중 제1 장치, 복수개의 장치 중 제2 장치, 복수개의 장치 중 제3 장치"가 포함된 단어에 서 복합 명사구 세트를 획득할 때, 복수개의 장치 중 제1 장치, 복수개의 장치 중 제2 장치 및 복수개의 장치 중 제3 장치를 독립된 복합 명사구 세트로 획득할 수 있으나, "복수개의 장치 중 (이격 단어 1) 장치"를 하나의 복합 명사구 세트로 획득할 수도 있음은 물론이다. 이때, 복합 명사구 세트는 이격 정보를 포함할 수 있다. 상술한 실시예에서 이격 정보란 단어 "중"과 단어 "장치" 사이에 1개의 단어가 포함되어 있다는 정보일 수 있다. 다양한 실시예에 따라, 단어와 단어 사이에 복수개의 단어가 포함될 수 있음은 물론이다.In an embodiment, the compound noun phrase set is determined as a combination of two or more adjacent word sets, but in the present invention, a combination of a word set in which words are spaced apart may also be obtained as a compound noun phrase set. For example, when the server 10 obtains a compound noun phrase set from a word including "a first device among a plurality of devices, a second device among a plurality of devices, and a third device among a plurality of devices", a plurality of The first device of the device, the second device of the plurality of devices, and the third device of the plurality of devices may be obtained as independent compound noun phrase sets, but "(spaced word 1) device of multiple devices" can be obtained as a single compound noun phrase set. Of course, it can also be obtained with In this case, the compound noun phrase set may include spacing information. In the above-described embodiment, the spacing information may be information that one word is included between the word “middle” and the word “device”. Of course, according to various embodiments, a plurality of words may be included between words.

단계 S710에서, 서버(10)는 대상상표로부터 중요도 스코어의 산출 대상이 되는 단어 세트를 획득할 수 있다. 필요에 따라, 대상상표뿐만 아니라 유사상표에 포함된 단어 세트의 중요도 스코어 또한 후술하는 방법으로 생성될 수 있음은 물론이다.In step S710 , the server 10 may obtain a word set that is a target for calculating the importance score from the target brand. Needless to say, not only the target trademark but also the importance score of the word set included in the similar trademark may be generated by the method described below.

단계 S720에서, 서버(10)는, 전체 상표에서의 단어 세트의 제1 세부 중요도, 대상상표의 브랜드명분야정보에 대응되는 상표분류정보에서의 단어 세트의 제2 세부 중요도 및 전체 상표 중 단어 세트가 포함된 검색상표의 제3 세부 중요도 중 하나 이상의 세부 중요도를 산출할 수 있다.In step S720, the server 10 configures the first detailed importance of the word set in the entire trademark, the second detailed importance of the word set in the trademark classification information corresponding to the brand name field information of the target trademark, and the word set in the entire trademark. It is possible to calculate one or more detailed importance among the third detailed importance of the search mark including .

단계 S730에서, 서버(10)는, 제1 세부 중요도, 제2 세부 중요도 및 제3 세부 중요도 중 하나 이상에 기초하여 단어 세트의 중요도 스코어를 획득할 수 있다.In operation S730 , the server 10 may obtain an importance score of the word set based on one or more of the first detailed importance, the second detailed importance, and the third detailed importance.

일 실시예로, 서버(10)는 제1 출현비율 및 제2 출현비율을 바탕으로 제1 세부 중요도를 산출할 수 있다. 이때, 제1 출현비율은 전체 상표의 전체 단어 세트수 대비 전체 상표에서의 중요도 스코어를 획득하고자 하는 단어 세트의 출연횟수를 의미하고, 제2 출현비율은 전체 상표의 단어 중에서 단어 세트가 출현된 출현 단어수를 카운트하고, 전체 상표의 단어 중에서 단어 세트가 출현된 출현 단어수 대비 전체 상표의 전체 단어수 의미할 수 있다.In an embodiment, the server 10 may calculate the first detailed importance based on the first appearance rate and the second appearance rate. In this case, the first appearance ratio means the number of appearances of the word set for which the importance score is to be obtained in the entire trademark compared to the total number of word sets of the entire trademark, and the second appearance ratio is the appearance in which the word set appears among the words of the entire trademark. The number of words may be counted, and may mean the total number of words of the entire brand compared to the number of words in which the word set appears among the words of the entire brand.

여기서, 상표분류정보는 브랜드명분야에 따라 상표를 분류할 수 있는 코드로써, NICE일 수 있다.Here, the trademark classification information is a code capable of classifying a trademark according to the brand name field, and may be NICE.

여기서, W2은 제2 세부 중요도이고, NICEw은 상표분류정보에서의 단어 세트의 출현횟수이고, NICEW은 상표분류정보의 전체 단어 세트수이고, NICEs은 전체 상표의 단어 중에서 단어 세트가 출현된 출현 단어수이고, NICES은 전체 상표의 전체 단어수이고, a2은 제4 출현비율의 조절 상수이다.Here, W 2 is the second detailed importance, NICEw is the number of occurrences of the word set in the trademark classification information, NICEW is the total number of word sets in the trademark classification information, and NICEs is the occurrence of the word set among all the words of the trademark. is the number of words, NICES is the total number of words in the entire brand, and a2 is the adjustment constant of the fourth appearance rate.

또 다른 실시예로, 서버(10)는, 전체 상표 중에서 중요도 스코어의 산출 대상이 되는 단어 세트를 포함하는 검색상표를 검색하고, 검색상표 각각의 참조 정보에 기초하여 검색상표 각각의 영향력 값을 산출하고, 산출된 영향력 값을 바탕으로 제3 세부 중요도를 획득할 수 있다.In another embodiment, the server 10 searches for a search trademark including a set of words to be calculated of an importance score among all trademarks, and calculates an influence value of each search trademark based on reference information of each search trademark and a third detailed importance level may be obtained based on the calculated influence value.

구체적으로, 서버(10)는 검색상표의 참조 정보인 출원인, 발명자, 권리자 중 하나 이상이 다른 상표와 동일한 항목의 개수, 참조 정보인 인용 횟수 및 피인용 횟수에 기초하여 영향력 값을 산출할 수 있다.Specifically, the server 10 may calculate an influence value based on the number of items of at least one of the applicant, inventor, and right holder, which are reference information of the search trademark, the same as other trademarks, and the number of citations and citations that are reference information. .

즉, 서버(10)는 검색상표가 다른 상표와 관련된 정도를 영향력 값으로 산출할 수 있다. 예를 들어, 서버(10)는 검색상표는 여러 상표로부터 인용될 때, 해당 상표에 검색상표가 영향력을 끼친 것으로 판단하여 검색상표의 영향력 값으로 산출할 수 있다. That is, the server 10 may calculate the degree to which the search trademark is related to other trademarks as an influence value. For example, when a search trademark is cited from several trademarks, the server 10 may determine that the search trademark has an influence on the corresponding trademark, and may calculate an influence value of the search trademark.

나아가, 서버(10)는 검색상표 각각에 대해 산출된 영향력 값의 평균을 산출하고, 산출된 평균을 제3 세부 중요도로 산출할 수 있다.Furthermore, the server 10 may calculate an average of the calculated influence values for each of the search marks, and calculate the calculated average as the third detailed importance level.

도 10은 일 실시 예에 따른 장치의 구성도이다.10 is a block diagram of an apparatus according to an embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus, etc.) for transmitting and receiving signals to and from other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 방법을 수행한다.The processor 102 according to one embodiment performs the method described with reference to FIGS. 1 to 9 by executing one or more instructions stored in the memory 104 .

예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the processor 102 obtains new training data by executing one or more instructions stored in the memory, and performs a test on the acquired new training data using the learned model, and the test result, labeling Extracting the first learning data in which the obtained information is obtained with an accuracy greater than or equal to a predetermined first reference value, deleting the extracted first learning data from the new learning data, and removing the new learning data from which the extracted learning data is deleted It is possible to retrain the learned model using

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. On the other hand, the processor 102 is a RAM (Random Access Memory, not shown) and ROM (Read-Only Memory: ROM) for temporarily and / or permanently storing a signal (or data) processed inside the processor 102. , not shown) may be further included. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, a RAM, and a ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102 . Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 브랜드명 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer-readable recording medium well known in the field of brand names to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software components, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, the embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains know that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10 : 서버
20 : 전자 장치
10 : Server
20: electronic device

Claims (3)

상표의 유사도 판단 방법에 있어서,
서버가, 대상상표를 제1 딥러닝에 입력하여 유사상표를 획득하는 단계;
상기 서버가, 상기 대상상표에 포함된 복수의 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어를 획득하는 단계;
상기 서버가, 상기 대상상표에 포함된 복수의 단어 중 제1 단어를 획득하고, 상기 유사상표에 포함된 복수의 단어 중 제2 단어를 획득하는 단계;
상기 서버가, 상기 제1 단어 및 상기 제2 단어를 제2 딥러닝에 입력하여, 상기 제1 단어과 상기 제2 단어에 대한 평가 결과를 획득하는 단계; 를 포함하는 것을 특징으로 하는 상표의 유사도 판단 방법.
In the method of determining the similarity of a trademark,
obtaining, by the server, a similar trademark by inputting the target trademark into the first deep learning;
acquiring, by the server, a plurality of words included in the target trademark, and acquiring a plurality of words included in the similar trademark;
obtaining, by the server, a first word among a plurality of words included in the target trademark, and obtaining a second word among a plurality of words included in the similar trademark;
inputting, by the server, the first word and the second word into a second deep learning step to obtain evaluation results for the first word and the second word; A method for determining the degree of similarity of a trademark, comprising:
제1항에 있어서,
상기 유사상표를 획득하는 단계는,
상기 대상상표에 포함된 복수개의 단어 세트를 획득하는 단계;
상기 획득된 복수개의 단어 세트를 모델링하여 복수개의 대상상표 단어를 획득하는 단계;
상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 대상상표 단어 각각에 대한 복수개의 중점 및 상기 대상상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 대상상표의 위치를 판단하는 단계;
상표에 포함된 복수개의 단어 세트를 획득하고, 획득된 복수개의 단어 세트를 모델링하여 복수의 상표 단어를 획득하는 단계;
상기 복수개의 상표 단어 각각에 대한 복수개의 중점을 획득하고, 상기 복수개의 상표 단어 각각에 대한 복수개의 중점 및 상기 상표 단어에 포함된 단어 세트의 수를 바탕으로 상기 상표의 위치를 판단하는 단계; 및
상기 대상상표의 위치 및 상기 상표의 위치가 기 설정된 거리 이내인 경우, 상기 상표를 상기 유사상표로 결정하는 단계; 를 포함하는 상표의 유사도 판단 방법.
According to claim 1,
The steps of obtaining the similar trademark include:
obtaining a plurality of word sets included in the target trademark;
obtaining a plurality of target brand words by modeling the obtained plurality of word sets;
Acquire a plurality of midpoints for each of the plurality of target brand words, and determine the location of the target trademark based on a plurality of midpoints for each of the plurality of target brand words and the number of word sets included in the target brand word to do;
obtaining a plurality of word sets included in a trademark, and modeling the obtained plurality of word sets to obtain a plurality of trademark words;
obtaining a plurality of midpoints for each of the plurality of trademark words, and determining the position of the trademark based on the plurality of midpoints for each of the plurality of trademark words and the number of word sets included in the trademark words; and
determining the trademark as the similar trademark when the location of the target trademark and the location of the trademark are within a preset distance; A method for determining the degree of similarity of a trademark comprising a.
제2항에 있어서,
상기 제1 단어과 상기 제2 단어에 대한 평가 결과를 획득하는 단계는,
상기 제1 단어 및 상기 제2 단어의 유사도 점수 및 비유사도 점수를 각각 획득하는 단계;
상기 비유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어과 상기 제2 단어은 관계없는 단어으로 판단하는 단계;
상기 유사도 점수가 기 설정된 점수 이상인 경우, 상기 제1 단어에 포함된 단어 세트 중 상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트를 획득하는 단계;
상기 제2 단어에 포함되지 않은 적어도 하나의 단어 세트 각각에 대한 적어도 중요도 점수를 획득하고, 상기 획득된 적어도 하나의 중요도 점수 중 기 설정된 중요도 점수 이상인 단어 세트가 존재하는지 여부를 판단하는 단계;
기 설정된 중요도 점수 이상인 단어 세트가 존재하지 않는 경우, 상기 제1 단어 및 상기 제2 단어를 일치 단어으로 판단하는 단계; 및
상기 기 설정된 중요도 점수 이상인 단어 세트가 존재하면, 상기 제1 단어 및 상기 제2 단어를 불일치 단어으로 판단하는 단계; 를 포함하는 상표의 유사도 판단 방법.
3. The method of claim 2,
The step of obtaining evaluation results for the first word and the second word includes:
obtaining a similarity score and a dissimilarity score of the first word and the second word, respectively;
determining that the first word and the second word are unrelated words when the dissimilarity score is equal to or greater than a preset score;
obtaining at least one word set not included in the second word among the word sets included in the first word when the similarity score is equal to or greater than a preset score;
obtaining at least an importance score for each of at least one word set not included in the second word, and determining whether a word set equal to or greater than a preset importance score exists among the at least one obtained importance score;
determining the first word and the second word as matching words when there is no word set equal to or greater than a preset importance score; and
determining the first word and the second word as mismatched words when there is a set of words equal to or greater than the preset importance score; A method for determining the degree of similarity of a trademark comprising a.
KR1020210013588A 2021-01-29 2021-01-29 Ommited KR20220109955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210013588A KR20220109955A (en) 2021-01-29 2021-01-29 Ommited

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210013588A KR20220109955A (en) 2021-01-29 2021-01-29 Ommited

Publications (1)

Publication Number Publication Date
KR20220109955A true KR20220109955A (en) 2022-08-05

Family

ID=82826319

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013588A KR20220109955A (en) 2021-01-29 2021-01-29 Ommited

Country Status (1)

Country Link
KR (1) KR20220109955A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110713A (en) 2017-03-29 2018-10-11 중앙대학교 산학협력단 Device and method for analyzing similarity of documents

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180110713A (en) 2017-03-29 2018-10-11 중앙대학교 산학협력단 Device and method for analyzing similarity of documents

Similar Documents

Publication Publication Date Title
KR102085217B1 (en) Method, apparatus and system for determining similarity of patent documents
KR102095892B1 (en) Method, apparatus and system for determining similarity of patent documents using artificial intelligence model
US11586637B2 (en) Search result processing method and apparatus, and storage medium
US20210382937A1 (en) Image processing method and apparatus, and storage medium
US11113323B2 (en) Answer selection using a compare-aggregate model with language model and condensed similarity information from latent clustering
JP2011524566A (en) Annotating images
CN109086265B (en) Semantic training method and multi-semantic word disambiguation method in short text
KR102085214B1 (en) Method and system for acquiring word set of patent document
KR102315215B1 (en) A method for obtaining a word set of a patent document and a method for determining similarity of a patent document based on the obtained word set
KR102405867B1 (en) Method, apparatus and system for determining importance of patent documents using artificial intelligence model
KR102383965B1 (en) Method, apparatus and system for determining similarity of patent documents based on similarity score and dissimilarity score
KR20210039917A (en) Method, apparatus and system for determining similarity of patent documents using artificial intelligence model
Jain et al. Automatic question tagging using k-nearest neighbors and random forest
KR102315214B1 (en) Method, apparatus and system for determining similarity of patent documents using similarity scores and dissimilarity scores
KR102315213B1 (en) Method, apparatus and system for determining similarity of patent documents using clustering
KR20220109955A (en) Ommited
KR20220109190A (en) Ommited
KR102263309B1 (en) Method and system for acquiring word set of patent document using image information
KR20210044146A (en) Method, apparatus and system for determining similarity of patent documents
CN113792131A (en) Keyword extraction method and device, electronic equipment and storage medium
KR102300352B1 (en) Method, apparatus and system for determining similarity of patent documents based on importance score
Tüselmann et al. A weighted combination of semantic and syntactic word image representations
CN117972097B (en) Text classification method, classification device, electronic equipment and storage medium
KR102550748B1 (en) A similar sentence search system using noun-centered vector
KR102297962B1 (en) Method and system for acquiring word set meaning information of patent document