KR20210038441A - 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체 - Google Patents

목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체 Download PDF

Info

Publication number
KR20210038441A
KR20210038441A KR1020210003336A KR20210003336A KR20210038441A KR 20210038441 A KR20210038441 A KR 20210038441A KR 1020210003336 A KR1020210003336 A KR 1020210003336A KR 20210003336 A KR20210003336 A KR 20210003336A KR 20210038441 A KR20210038441 A KR 20210038441A
Authority
KR
South Korea
Prior art keywords
phrase
phrases
determining
relationship
expression
Prior art date
Application number
KR1020210003336A
Other languages
English (en)
Other versions
KR102468342B1 (ko
Inventor
신웨이 펑
즈싱 티엔
송타이 다이
먀오 유
환유 조우
멍 티엔
쉬에첸 우
쉰차오 송
펑청 위안
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210038441A publication Critical patent/KR20210038441A/ko
Application granted granted Critical
Publication of KR102468342B1 publication Critical patent/KR102468342B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 출원은 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체에 관한 것으로, 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 문구의 속성을 기초로 문구 사이의 관계를 결정하는 것; 문구 사이의 관계를 기초로 각각의 문구에 대응되는 문구 표현을 결정하는 것; 문구의 문구 표현, 검색 정보를 기초로 목표 문구를 결정하고, 목표 문구를 기초로 목표 내용을 결정하는 것을 포함한다. 본 출원에서 제공하는 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체에서, 문구의 관계를 결정하고, 문구 사이의 관계를 기초로 문구의 문구 표현을 다시 결정하고, 문구 표현을 기초로 문구에서 목표 문구를 결정하여, 본 출원에서 제공하는 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체가 문구 사이의 관계를 결합하여 각각의 문구에 대해 분석함으로써, 검색 정보와 더욱 매칭되는 목표 내용을 결정하도록 할 수 있다.

Description

목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체{METHOD, APPARATUS, DEVICE, COMPUTER READABLE STORAGE MEDIUMFOR DETERMINING TARGET CONTENT}
본 출원은 데이터 처리 기술에 관한 것으로, 특히 문자 내용 분석 기술에 관한 것이다.
정보 검색(Information Retrieval)은 사용자가 정보를 조회하고 획득하는 주요 방식으로서, 정보를 찾는 방법과 수단이다. 동시에, 정보 검색은 검색 엔진의 핵심 임무로서, 검색 엔진은 사용자가 입력한 내용을 기초로 정보를 제공하여야 한다.
현대 사회의 생활 리듬이 빨라짐에 따라, 사람들은 점점 더 많은 정보에 직면하게 되며, 정보를 읽는 시간이 점점 짧아지고 있다. 일반적으로 하나의 문장에는 대량의 내용이 포함되어 있다. 예를 들어 사용자는 어느 영화의 주연이 누구인지 알고 싶어하고; 문장은 대량의 내용을 통해 영화 자체를 소개한 후, 출연진을 소개할 수 있으며, 연출진의 단락에도 대량의 배우 자체에 대한 소개가 존재할 수 있고, 질문에 대한 진정한 답안은 소량의 몇 문구일 수 있으며; 일부 질문은 한 문구로 대답할 수 있고, 일부 답안은 여러 문구의 내용을 결합하여 대답해야 한다.
따라서, 어떻게 하나의 문장에서 유용한 정보를 결정하여, 사용자에게 유용한 정보를 피드백할지는 당업자가 시급히 해결해야 할 문제점으로 대두되고 있다.
본 출원은 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체를 제공하여, 하나의 문장으로부터 유용한 정보를 결정한다.
본 출원의 제1 측면에서 제공하는 목표 내용의 결정 방법은,
검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계;
상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하는 단계;
상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하고, 상기 목표 문구를 기초로 목표 내용을 결정하는 단계;를 포함한다.
선택적으로, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
문구에 포함된 엔티티를 획득하는 단계;
상기 문구 사이의 대응되는 엔티티 중복도를 기초로, 상기 문구 사이의 제1 관계를 결정하는 단계;를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 문구에 포함된 엔티티의 차원으로부터, 문구 사이의 관계를 결정할 수 있다.
선택적으로, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
상기 문장 단락에서의 상기 문구의 위치 번호를 결정하고, 상기 위치 번호를 기초로 상기 문구 사이의 제2 관계를 결정하는 단계를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 단락에서의 문구의 위치의 차원으로부터, 문구 사이의 관계를 결정할 수 있다.
선택적으로, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
각각의 상기 문구에 대응되는 문구 벡터를 결정하고, 상기 문구 벡터를 기초로 문구 사이의 제3 관계를 결정하는 단계를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 문구 의미의 차원으로부터, 문구 사이의 관계를 결정할 수 있다.
선택적으로, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
기설정된 룰에 따라 상기 문구 사이의 영향 가중치를 결정하고, 상기 문구에 대응되는 상기 영향 가중치를 기초로 기타 문구가 상기 문구에 대한 주의력을 결정하는 단계를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 문구 사이의 영향의 차원으로부터, 문구 사이의 관계를 결정할 수 있다.
선택적으로, 상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하는 단계는,
상기 문구 사이의 관계를 기초로 상기 관계에 대응되는 관계 그래프를 결정하는 단계;
기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하는 단계;를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 문구 사이의 관계를 포함하는 문구 표현을 결정해낼 수 있다.
선택적으로, 만약 상기 관계 그래프의 수량이 1보다 크면;
상기 기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하는 단계 후에, 상기 방법은,
상기 문구에 대응되는 문구 표현에 대해 스플라이싱하여, 상기 문구에 대응되는 완전한 표현을 획득하는 단계를 더 포함한다.
본 실시예에서 제공하는 방법에 따르면, 복수의 차원으로부터 결정된 문구 관계를 포함하는 문구 표현을 획득하여, 문구 표현이 더 풍부한 문구 간의 관계를 포함하도록 할 수 있다.
선택적으로, 상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하는 단계는,
상기 문구 표현, 상기 검색 정보를 기초로 매칭도를 결정하는 단계;
매칭 정도가 높은 순위인 기설정된 개수의 문구를 목표 문구로 결정하는 단계;를 포함한다.
본 실시예에서 제공하는 방법에 따르면, 문구 사이의 관계를 결합하여, 단락에서 검색 정보와 매칭되는 목표 문구를 결정할 수 있다.
본 출원의 제2 측면에서 제공하는 목표 내용의 결정 장치는,
검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하기 위한 분해 모듈;
상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하기 위한 표현 결정 모듈;
상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하고, 상기 목표 문구를 기초로 목표 내용을 결정하기 위한 목표 결정 모듈;을 포함한다.
본 출원의 제3 측면에서 제공하는 전자기기는,
적어도 하나프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하고,
상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 상술한 어느 하나의 목표 내용의 결정 방법을 수행할 수 있도록 한다.
본 출원의 제4 측면에서 제공하는 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서, 상기 컴퓨터 명령은 상기 컴퓨터가 상술한 어느 하나의 목표 내용의 결정 방법을 수행하도록 한다.
본 출원의 제5 측면에 따르면 컴퓨터 프로그램 제품을 더 제공한다. 상기 컴퓨터 프로그램 제품은 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램은 판독 가능 저장매체에 저장되며, 전자기기의 적어도 하나의 프로세서가 상기 판독 가능 저장매체로부터 상기 컴퓨터 프로그램을 판독할 수 있으며, 상기 적어도 하나의 프로세서는 상기 컴퓨터 프로그램을 실행하여 상기 전자기기가 상술한 어느 하나의 목표 내용의 결정 방법을 수행하도록 한다.
본 출원에서 제공하는 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체에 따르면, 상기 방법은 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 문구의 속성을 기초로 문구 사이의 관계를 결정하고; 문구 사이의 관계를 기초로 각각의 문구에 대응되는 문구 표현을 결정하고; 문구의 문구 표현, 검색 정보를 기초로 목표 문구를 결정하고, 목표 문구를 기초로 목표 내용을 결정하는 것을 포함한다. 본 출원에서 제공하는 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체에서, 문구의 관계를 결정하고, 문구 사이의 관계를 기초로 문구의 문구 표현을 다시 결정하고, 문구 표현을 기초로 문구에서 목표 문구를 결정하여, 본 출원에서 제공하는 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체가 문구 사이의 관계를 결합하여 각각의 문구에 대해 분석함으로써, 검색 정보와 더욱 매칭되는 목표 내용을 결정하도록 할 수 있다.
첨부된 도면은 본 기술적 해결수단을 더 충분히 이해하도록 제공되는 것으로서, 본 출원에 대한 한정은 아니다.
도 1a는 본 출원의 일 예시적 실시예에 따른 시스템 구조도이다.
도 1b는 본 출원의 일 예시적 실시예에 따른 인터페이스 도면이다.
도 2는 본 출원의 일 예시적 실시예에 따른 목표 내용의 결정 방법을 나타내는 흐름도이다.
도 3은 본 출원의 다른 일 예시적 실시예에 따른 목표 내용의 결정 방법을 나타내는 흐름도이다.
도 4는 본 출원의 일 예시적 실시예에 따른 목표 내용의 결정 장치의 구조도이다.
도 5는 본 출원의 다른 일 예시적 실시예에 따른 목표 내용의 결정 장치의 구조도이다.
도 6은 본 출원의 일 예시적 실시예에 따른 전자기기의 블록도이다.
아래에서는 첨부 도면을 결합하여 본 출원의 예시적 실시예에 대해 설명한다. 여기서 본 출원의 실시예의 다양한 세부내역을 포함하여 쉽게 이해할 수 있도록 한다. 이들은 단지 예시적인 것으로 간주하여야 한다. 따라서, 당업자는, 여기에 기재된 실시예에 대해 다양한 변형 및 수정을 가할 수 있으며, 본 출원의 범위와 정신을 벗어나지 않는것으로 간주하여야 한다. 마찬가지로, 명확성과 간결성을 위하여, 아래의 기재에서 공지 기능과 구조에 대한 설명을 생략한다.
현재, 사용자는 검색 엔진에 검색 정보를 입력할 수 있으며, 검색 엔진은 검색 정보에 대응되는 검색 내용을 피드백 할 수 있다. 하지만 일반적으로 네트워크로부터 검색되는 내용은 보다 많으므로, 사용자는 대량의 내용을 읽어야 필요한 내용을 얻을 수 있다.
예를 들어, 사용자가 입력한 검색 정보가 “NBA 2018-2019 시즌의 mvp는 누구”이면, 하나의 단락 중 아래 세 문구를 통해 함께 대답하여야 한다.
NBA 2018-2019 시즌 개인상 결과 공표;
Harden은 이번 시즌 좋은 성적을 거두었으며, 팀을 리그 1 위로 이끌었다;
그는 뛰어난 활약으로, 본 시즌 MVP를 수상했다.
상술한 세 문구 중 어느 하나의 문구도 독립적으로 해당 질문에 대답할 수 없다. 따라서, 단락 내용 중 문구에 대해 분석하여야, 유용한 정보를 획득할 수 있다.
본 출원의 실시예에서 제공하는 기술적 해결수단은, 단락 중 각 문구 사이의 관계를 기초로 문구 내용을 분석하여, 즉 문구 자체 및 기타 문구의 내용을 결합하여, 공통으로 검색 정보와 매칭되는 내용을 결정한다.
도 1a는 본 출원의 일 예시적 실시예에 따른 시스템 구조도이다.
도 1a에 도시된 바와 같이, 해당 시스템은 사용자 단말(11)을 포함할 수 있다. 사용자 단말(11)은 컴퓨터일 수 있고, 스마트폰 등의 전자기기일 수도 있다. 해당 시스템은 서버(12)를 더 포함할 수 있다. 서버(12)와 사용자 단말(11) 사이는 네트워크를 통해 연결될 수 있다.
여기서, 사용자는 사용자 단말(11)로 검색 정보를 입력할 수 있고, 사용자 단말(11)은 네트워크를 통해 검색 정보를 서버(12)로 발송하며, 서버(12)는 검색 정보를 기초로 검색 결과를 결정하고, 사용자 단말(11)로 검색 결과를 피드백할 수 있다.
구체적으로, 서버(12)는 또한 검색 결과를 기초로 검색 정보와 매칭되는 목표 내용을 결정하고, 사용자 단말(11)로 목표 내용을 피드백할 수도 있으며, 이에 따라 사용자는 대량의 내용을 읽지 않고도 유용한 정보를 얻을 수 있다.
도 1b는 본 출원의 일 예시적 실시예에 따른 인터페이스 도면이다.
도 1b에 도시된 바와 같이, 사용자 단말(11)의 인터페이스에는 하나의 입력박스가 표시될 수 있다. 사용자는 입력박스에 검색 정보를 입력하고, 검색 버튼을 클릭하여, 사용자 단말(11)이 서버(12)로 검색 정보를 발송하도록 트리거할 수 있다.
예를 들어 사용자 단말(11)에 설치된 검색 엔진을 작동시켜, 사용자 단말(11)이 도 1b에 도시된 바와 같은 입력박스를 표시하도록 할 수 있다.
도 2는 본 출원의 일 예시적 실시예에 따른 목표 내용의 결정 방법을 나타내는 흐름도이다.
도 2에 도시된 바와 같이, 본 실시예에서 제공하는 목표 내용의 결정 방법은 아래의 단계를 포함한다.
검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 문구의 속성을 기초로 문구 사이의 관계를 결정한다(단계 201).
여기서, 본 실시예에서 제공하는 방법은 계산 능력을 구비하는 전자기기에 의해 수행될 수 있고, 해당 기기는 예컨대 도 1a에 도시된 서버일 수 있다.
구체적으로, 전자기기는 검색 정보를 기초로 대응되는 검색 결과를 결정할 수 있으며, 예를 들어 하나의 뉴스 보도일 수 있고, 하나의 문장 등일 수도 있다. 전자기기는 본 실시예에서 제공하는 방법을 기반으로 검색 결과를 분석하여, 검색 정보에 대응되는 목표 내용 즉, 유용한 정보를 얻을 수 있다.
나아가, 본 실시예에서 제공하는 방법을 소프트웨어에 패키징하고, 해당 소프트웨어를 전자기기에 설치하여, 전자기기가 본 실시예에서 제공하는 방법을 수행할 수 있도록 할 수 있다.
실제 응용 시, 검색 결과 중의 단락에 대하여, 단락을 분해하여 복수의 문구를 얻을 수 있다. 예를 들어 검색 결과 중의 문장이 하나의 단락을 포함하면, 해당 하나의 단락에 대해 처리할 수 있고, 검색 결과의 문장에 포함되는 단락 수량이 1개보다 크면, 각각의 단락 모두에 대해 처리할 수 있다.
여기서, 단락 중의 문장 부호를 기초로 문장 단락을 분해할 수 있고, 단락의 초기 위치로부터 첫번째 문자 부호 사이를 하나의 문구로 간주하고, 단락 중 두 문장 부호 사이 각각을 하나의 문구로 간주할 수 있다.
구체적으로, 또한 문구 속성을 기초로 문구 사이의 관계를 결정할 수 있다. 본 실시예에서 제공하는 방법에서, 문구 사이의 관계를 결합하여 문장 단락을 분석함으로써, 문구 사이의 관계를 결합하여 각각의 문구에 포함되는 정보를 더 정확하게 식별한다.
나아가, 문구 속성은 문구에 포함되는 내용, 단락에서의 문구의 위치 등의 정보일 수 있다. 이러한 정보를 기초로 문구 사이의 관계를 결정할 수 있다.
실제 응용 시, 예를 들어 문구에 포함되는 엔티티 단어를 기초로, 문구 사이의 관계를 결정할 수 있다. 만약 두 문구에 포함되는 엔티티 단어의 중복도가 보다 높으면, 이 두 문구의 관련성이 보다 강한것으로 간주할 수 있으며, 관련성을 문구 사이의 일 관계로 할 수 있다. 또 예를 들어, 만약 두 문구의 위치가 보다 가까우면, 예를 들어 연속적인 두 문구이면, 이 두 문구의 관련성이 보다 강한 것으로 간주할 수 있다. 문장 단락에 대하여, 서로 가까운 문구는 관련성이 더 강하므로, 문구 위치를 기초로 문구 사이의 관계를 결정할 수 있다.
문구 사이의 관계를 기초로 각각의 문구에 대응되는 문구 표현을 결정한다(단계 202).
여기서, 본 실시예에서 제공하는 방법은, 또한 각각의 문구의 표현을 다시 결정할 수 있다. 초기 문장에서, 하나의 문구의 표현은 문구 내용인 것으로 간주할 수 있다. 예를 들어 하나의 문구의 내용이 “그는 뛰어난 활약으로, 본 시즌 MVP를 수상했다”이면, 해당 문구의 내용이 해당 문구의 문구 표현이고, 만약 해당 한 문구만으로는 검색 정보에 대한 피드백 내용을 획득할 수 없다. 따라서, 본 실시예에서 제공하는 방법에 따르면, 문구 사이의 관계를 결합하여, 문구 표현을 다시 결정하여, 새로운 문구 표현이 문구 사이의 관계를 포함하도록 한다.
구체적으로, 문구 사이의 관계를 기초로 관계 그래프를 구성하고, 각종 문구 관계에 대해 모두 상응한 관계 그래프를 결정할 수 있다. 예를 들어, 모두 4종의 문구 관계를 결정하면, 4개의 관계 그래프를 구성할 수 있으며, 관계 그래프는 각 문구 사이의 관계를 포함한다.
관계 그래프는 복수의 노드를 포함할 수 있으며, 각각의 노드는 하나의 문구를 표시할 수 있다. 문구 사이의 관계는 예를 들어 변으로 표시할 수 있고, 변은 관계값을 더 가져, 해당 변으로 연결되는 두 노드 사이의 관계를 표시할 수 있다.
나아가, GCN(Graph convolutional networks, 그래프 컨벌루션 뉴럴 네트워크)을 사용하여 관계 그래프에 대해 처리할 수 있다. 예를 들어 관계 그래프를 GCN으로 입력하고, GCN으로부터 그래프 중 각각의 노드의 표현, 즉 문구 표현을 출력한다.
실제 응용 시, 문구 사이의 관계를 기초로 복수의 관계 그래프가 결정되면, 각각의 관계 그래프를 기초로 각각의 문구의 문구 표현을 모두 출력할 수 있다. 이러한 경우, 동일 문구의 문구 표현에 대해 스플라이싱을 더 수행하여, 해당 문구의 완전한 표현을 얻을 수 있다.
여기서, 얻어지는 문구 표현은 문구 사이의 관계를 포함하며, 이에 따라 문구 사이의 관계를 포함하는 문구 표현을 기초로 문구에서 목표 내용을 결정할 수 있다.
문구의 문구 표현, 검색 정보를 기초로 목표 문구를 결정하고, 목표 문구를 기초로 목표 내용을 결정한다(단계 203).
구체적으로, 각각의 문구의 문구 표현과 검색 정보의 매칭 정도를 결정할 수 있다. 만약 매칭 정도가 보다 높으면, 대응되는 문구가 목표 문구인 것으로 간주할 수 있다.
나아가, 문구 표현을 벡터 형태로 변환하고, 검색 정보도 벡터 형태로 표시할 수 있으며, 이에 따라 두 벡터의 거리를 산출하고, 해당 거리를 기초로 이들의 매칭 정도를 결정할 수 있다.
실제 응용 시, 매칭 정도가 높은 순으로 상위 n개의 문구를 목표 문구로 결정할 수 있다. 매칭 정도 임계값을 더 결정하고, 매칭 정도가 해당 임계값보다 큰 문구를 목표 문구로 결정할 수도 있다.
여기서, 목표 문구에 포함되는 내용을 목표 내용으로 할 수 있고, 목표 내용을 사용자 단말로 피드백하여, 사용자가 대량의 내용을 읽지 않은 상황에서도, 검색 정보에 대응되는 유용한 정보를 얻을 수 있도록 할 수도 있다.
본 실시예에서 제공하는 방법은 목표 내용을 결정하기 위한 것으로서, 해당 방법은 본 실시예에서 제공하는 방법이 설치된 기기에 의해 수행되며, 해당 기기는 일반적으로 하드웨어 및/또는 소프트웨어 형태로 구현된다.
본 실시예에서 제공하는 목표 내용의 결정 방법은, 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계; 문구 사이의 관계를 기초로 각각의 문구에 대응되는 문구 표현을 결정하하는 단계; 문구의 문구 표현, 검색 정보를 기초로 목표 문구를 결정하고, 목표 문구를 기초로 목표 내용을 결정하는 단계;를 포함한다. 본 실시예에서 제공하는 방법에 따르면, 문구의 관계를 결정하고, 문구 사이의 관계를 기초로 문구의 문구 표현을 다시 결정하고, 문구 표현을 기초로 문구에서 목표 문구를 결정하여, 본 실시예에서 제공하는 방법이 문구 사이의 관계를 결합하여 각각의 문구에 대해 분석함으로써, 검색 정보와 더욱 매칭되는 목표 내용을 결정하도록 할 수 있다.
도 3은 본 출원의 다른 일 예시적 실시예에 따른 목표 내용의 결정 방법을 나타내는 흐름도이다.
도 3에 도시된 바와 같이, 본 실시예에서 제공하는 목표 내용의 결정 방법은 아래의 단계를 포함한다.
검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해한다(단계 301).
단계 301과 단계 201에서 단락을 분해하는 구체적인 원리와 구현방식은 유사하므로, 여기서는 중복되는 설명을 생략한다.
문구에 포함된 엔티티를 획득하고; 문구 사이의 대응되는 엔티티 중복도를 기초로, 문구 사이의 제1 관계를 결정한다(단계 302).
일 경우에서, 문구의 속성은 문구에 포함되는 엔티티일 수 있다. 각각의 문구에 대해 처리하여, 각각의 문구에 포함된 엔티티를 획득할 수 있다.
여기서, 엔티티 단어 베이스를 구성할 수 있다. 문구에 대해 분해하여, 복수의 문구에 포함되는 단어를 얻을 수 있다. 다음, 엔티티 단어 베이스에 포함된 엔티티 단어를 기초로 문구 단어에 대해 식별하여, 문구 단어 중의 엔티티를 결정한다. 예를 들어, 엔티티 단어 베이스에서 문구 단어를 조회하여, 만약 대응되는 단어가 조회되면, 해당 문구 단어는 엔티티임을 나타낸다.
구체적으로, 식별 알고리즘을 더 구성하여, 문구에 포함된 엔티티를 식별해낼 수 있다.
나아가, 문구 사이의 대응되는 엔티티 중복도를 기초로, 문구 사이의 제1 관계를 결정할 수 있다. 구체적으로 두 문구마다 그 사이의 제1 관계를 결정할 수 있다.
실제 응용 시, 만약 두 문구에 포함되는 엔티티 중복도가 보다 높으면, 두 문구의 관련성이 보다 높은 것으로 간주할 수 있다. 따라서, 문구 중복도를 제1 관계의 인덱스로 할 수 있다.
여기서, 문구 사이에 중첩되는 엔티티 수량 d1을 결정할 수 있으며, d1은 바로 두 문구 중 중복되는 엔티티의 수량이다. 다음 d1과 문구에 포함되는 엔티티 수량 d2의 비율을 문구 중복도로 한다. 예를 들어, 문구 S1, S2 사이의 중복도를 결정할 때, 두 개의 중복도를 얻을 수 있으며, 첫번째 중복도는 중첩 엔티티 수량 d1과 문구 S1에 포함되는 엔티티 수량 d2의 비율이고, 두번째 중복도는 중첩 엔티티 수량 d1과 문구 S2에 포함되는 엔티티 수량 d2의 비율로서, 그 중 더 큰 중복도를 두 문구 사이의 중복도로 할 수 있다.
문장 단락에서의 문구의 위치 번호를 결정하고, 위치 번호를 기초로 문구 사이의 제2 관계를 결정한다(단계 303).
일 경우에서, 문구의 속성은 위치 번호일 수 있다. 문장 단락에서의 문구의 위치를 기초로, 문구의 위치 번호를 결정할 수 있다. 예를 들어, 첫번째 문구의 번호는 1, 두번째 문구의 번호는 2인 것과 같은 것일 수 있다.
구체적으로, 단락 중의 문구는 앞뒤를 연결시키는 작용을 수행하므로, 위치가 가까운 문구일수록 문구 사이의 관련성이 더 강하다. 예를 들어, 일반적으로 연속되는 두 문구는 보다 강한 관련성을 가질 수 있다. 본 실시예에서 제공하는 방법에 따르면, 위치 번호를 통해 문구의 위치 속성을 표시함으로써, 각각의 문구의 위치 번호를 기초로 제2 관계를 결정할 수 있다.
나아가, 두 문구 마다 이들 사이의 제2 관계를 결정할 수 있다.
실제 응용 시, 상응한 문구 번호 차이값의 절대값의 역수로 제2 관계를 나타낼 수 있다. 예를 들어 첫번째 문구 S1과 두번째 문구 S2의 제2 관계는 1/|1-2|=1이고, 두번째 문구 S2과 네번째 문구 S4의 관계값은 1/|2-4|=0.5이다.
각각의 문구에 대응되는 문구 벡터를 결정하고, 문구 벡터를 기초로 문구 사이의 제3 관계를 결정한다(단계 304).
일 경우에서, 문구 속성은 문구 벡터일 수 있다.
여기서, 문구에 포함되는 단어를 기초로, 문구 벡터를 결정할 수 있다. 문구 벡터를 결정하기 위한 모델을 미리 구성할 수도 있다.
예를 들어, Doc2vec, BERT를 통해 문구 벡터를 결정할 수 있다.
구체적으로, 문구 벡터는 문구에 포함되는 내용, 예를 들어 포함되는 단어, 단어의 순서 등을 반영할 수 있으므로, 문구 벡터를 기초로 문구 사이의 의미 관련성, 즉 제3 관계를 결정할 수 있다.
나아가, 두 문구 사이의 제3 관계를 결정할 수 있다. 구체적으로 두 문구에 대응되는 문구 벡터의 코사인 값을, 제3 관계로서 산출할 수 있다. 예를 들어, 문구 S1, S2에 대하여, S1에 대응되는 벡터 H1과 S1에 대응되는 벡터 H2를 결정하고, 이 두 벡터의 코사인 값을 산출하여 문구 S1과 S2의 의미 상에서의 관계 강약을 결정할 수 있다.
기설정된 룰에 따라 문구 사이의 영향 가중치를 결정하고, 문구에 대응되는 영향 가중치를 기초로 문구에 대한 기타 문구의 주의력을 결정한다(단계 305).
실제 응용 시, 문구 속성은 해당 문구에 대한 기타 문구의 영향을 더 포함할 수 있다. 여기서, 문구에 대한 문구의 영향 가중치를 결정하기 위한 룰을 미리 설정할 수 있다. 예를 들어, 문구 S1이 문구 S2에 대한 영향을 결정한다.
여기서, 문구와 문구 사이의 관련성을 결정하여, 하나의 문구가 다른 하나의 문구에 대한 영향을 나타낼 수 있다. 예를 들어, 유사성(similarity)(Sm, Sn)을 결정하여, Sn이 Sm에 대한 영향 가중치를 표시한다.
구체적으로, 관련성은 문구 사이의 코사인 값으로 표시할 수 있으며, 예컨대 similarity(Sm, Sn)=cos(Sm, Sn)이다. 상응한 문구 표현을 사용하여 코사인 값을 결정할 수 있다.
나아가, 이러한 방식으로 각각의 문구가 하나의 문구에 대한 영향 가중치를 결정할 수 있다. 예를 들어, 문구 S2, S3, S4가 S1에 대한 영향 가중치를 각각 결정한다. 또한 하나의 문구에 대응되는 영향 가중치를 기초로 기타 문구가 해당 문구에 대한 주의력을 결정할 수 있다. 즉 기타 문구가 하나의 문구에 대한 영향을 기초로, 기타 문구가 해당 문구에 대한 주의력을 결정한다.
더 명확하게 설명하기 위하여, 영향받는 문구를 목표 문구로 결정하고, 기타 문구를 영향 문구로 결정할 수 있다. 목표 문구를 결정하는 영향 가중치 값과 대응되는 영향 문구의 승적의 합을 목표 문구의 주의력, 즉 영향 문구가 목표 문구에 영향주는 주의력값으로 할 수 있다.
예를 들어, 총 S1, S2, S3, S4와 같은 네개의 문구를 포함하면, S1의 주의력은 아래와 같다.
similarity(S1, S2)* S2+ similarity(S1, S3)* S3+ similarity(S1, S4)* S4
실제 응용 시, 문구에 대해 연산할 때, 문구 표현을 기초로 연산할 수 있다. 예를 들어 similarity(S1, S4)에서, 문구 S1의 문구 표현, 문구 S4의 문구 표현을 기초로 연산할 수 있다. 문구 표현은 예를 들어 문구 벡터일 수 있다.
여기서, 모델을 통해 문구의 주의력을 결정할 수 있다. 해당 모델에 대해 트레이닝하여, 매번 이터레이션하는 과정에서, 모델이 업데이트됨에 따라, 결정되는 주의력 결과도 변하게 되므로, 최종적으로 출력되는 결과가 변하게 된다.
단계 302 - 305는 문구 사이의 관계를 결정하는 네가지 방식으로서, 이러한 네가지 방식을 모두 설정할 수 있고, 그 중 어느 하나 또는 몇가지를 설정할 수도 있으며, 본 실시예는 이에 대해 한정하지 않는다. 동시에, 단계 302 - 305의 수행 순서에 대해서도 한정하지 않는다.
문구 사이의 관계를 기초로 관계에 대응되는 관계 그래프를 결정한다(단계 306).
구체적으로, 문구 사이의 관계를 결정한 후, 문구 사이의 관계를 기초로 대응되는 관계 그래프를 결정할 수 있다.
나아가, 여러가지 문구 사이의 관계가 결정되면, 각종 관계에 대응되는 관계 그래프를 결정할 수 있다. 도면을 참조하면 복수의 노드를 포함할 수 있으며, 각각의 노드는 하나의 문구를 표시한다. 노드 사이는 변이 있을 수 있으며, 변의 값은 노드 사이의 관계일 수 있다. 예를 들어, 제1 관계에 대응되는 관계 그래프에서, 각각의 노드의 변은 문구 사이의 중복도일 수 있다.
기설정된 뉴럴 네트워크를 기초로 관계 그래프 중 각각의 문구의 문구 표현을 결정한다(단계 307).
실제 응용 시, 기설정 뉴럴 네트워크를 미리 트레이닝하여, 관계 그래프 중 각 노드의 정보를 추출할 수 있다. 예를 들어, 그래프 컨벌류션 뉴럴 네트워크를 구성할 수 있다.
여기서, 그래프 컨벌류션 뉴럴 네트워크(Graph Convolutional Network, GCN)는 그래프 데이터에 대해 딥러닝을 수행할 수 있는 방법이다. 그래프 데이터를 GCN으로 입력하면, GCN은 그래프 중 각 노드 사이의 관계를 기초로 노드 정보, 즉 각각의 문구의 문구 표현을 추출할 수 있다.
구체적으로, GCN을 통해 출력되는 문구 표현은 문구 사이의 관계의 정보를 포함한다.
문구에 대응되는 문구 표현에 대해 스플라이싱을 수행하여, 문구에 대응되는 완전한 표현을 획득한다(단계 308).
나아가, 만약 결정된 관계 그래프의 수량이 1보다 크면, 각각의 문구에 대하여, 모두 1개보다 큰 문구 표현을 획득할 수 있다. 예를 들어, 제1 관계, 제2 관계, 제3 관계, 주의력을 기초로 각각 제1 관계 그래프, 제2 관계 그래프, 제3 관계 그래프, 주의력 그래프를 결정할 수 있으며, 동일한 문구에 대하여, 이러한 관계 그래프를 기초로 각각 제1 표현, 제2 표현, 제3 표현, 주의력 표현을 결정할 수 있다.
실제 응용 시, 서로 다른 관계 그래프는 서로 다른 차원으로부터 문구 사이의 관계를 나타내므로, 서로 다른 관계 그래프로부터 획득한 문구 표현에 대해 스플라이싱을 수행하여, 완전한 문구 표현을 얻을 수 있으며, 이에 따라 더 풍부한 문구 사이의 관계를 포함하는 문구 표현을 얻을 수 있다.
여기서, 각각의 문구의 문구 표현에 대해 스플라이싱할 때, 동일한 순서로 스플라이싱을 수행할 수 있다. 예를 들어, 각각의 문구에 대하여, 모두 제1 표현, 제2 표현, 제3 표현, 주의력 표현의 순서로 스플라이싱을 수행할 수 있다.
문구 표현, 검색 정보를 기초로 매칭도를 결정하고; 매칭 정도가 높은 순위인 기설정된 개수의 문구를 목표 문구로 결정한다(단계 309).
구체적으로, 만약 하나의 관계 그래프만 결정되면, 직접 해당 관계 그래프에 대응되는 문구 표현을 기초로 본 단계를 수행할 수 있다. 만약 복수의 관계 그래프가 결정되면, 완전한 문구 표현을 기초로 본 단계를 수행할 수 있다.
나아가, 하나의 문구의 문구 표현과 검색 정보의 거리를 산출하고, 해당 거리를 문구의 매칭도로 결정할 수 있다. 예를 들어, 하나의 문구 표현 H와 검색 정보 Q의 코사인 값을 산출하고, 해당 코사인 값을 이들의 거리로 할 수 있다.
실제 응용 시, 코사인 값을 결정할 때, 문구 표현을 벡터 형태로 변환할 수 있고, 검색 정보도 벡터 형태로 변환할 수 있으며, 이에 따라 두 벡터의 코사인 값을 결정하여, 문구와 검색 정보 사이의 매칭도를 획득한다.
여기서, 매칭 정도가 보다 높은 문구를 목표 문구로 결정할 수 있다. 예를 들어, 사전에 수량값 N을 설정하고, 매칭 정도가 높은 순위인 상위 N개의 문구를 목표 문구로 결정할 수 있다. 또 예를 들어, 하나의 비율값 M을 설정하여, 문구 수량과 비율값의 곱셈을 수량값 N으로 결정할 수 있다.
구체적으로, 검색된 문장이 복수의 문장 단락을 포함하면, 각각의 단락 중 문구의 문구 표현에 대해 처리하여, 매칭 정도가 보다 높은 목표 문구를 결정할 수 있다.
목표 문구를 기초로 목표 내용을 결정한다(단계 310).
단계 310과 단계 203에서 목표 내용을 결정하는 구체적인 원리와 구현방식는 유사하므로, 여기서 중복되는 설명을 생략한다.
도 4는 본 출원의 일 예시적 실시예에 따른 목표 내용의 결정 장치의 구조도이다.
도 4에 도시된 바와 같이, 본 실시예에서 제공하는 목표 내용의 결정 장치는,
검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하기 위한 분해 모듈(41);
상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하기 위한 표현 결정 모듈(42);
상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하고, 상기 목표 문구를 기초로 목표 내용을 결정하기 위한 목표 결정 모듈(43);을 포함한다.
본 실시예에서 제공하는 목표 내용의 결정 장치는, 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 문구의 속성을 기초로 문구 사이의 관계를 결정하기 위한 분해 모듈; 문구 사이의 관계를 기초로 각각의 문구에 대응되는 문구 표현을 결정하기 위한 표현 결정 모듈; 문구의 문구 표현, 검색 정보를 기초로 목표 문구를 결정하고, 목표 문구를 기초로 목표 내용을 결정하기 위한 목표 결정 모듈;을 포함한다. 본 실시예에서 제공하는 장치에서, 문구의 관계를 결정하고, 문구 사이의 관계를 기초로 문구의 문구 표현을 다시 결정하고, 문구 표현을 기초로 문구에서 목표 문구를 결정하여, 본 실시예에서 제공하는 장치가 문구 사이의 관계를 결합하여 각각의 문구에 대해 분석함으로써, 검색 정보와 더욱 매칭되는 목표 내용을 결정하도록 할 수 있다.
본 실시예에서 제공하는 목표 내용의 결정 장치의 구체적인 원리와 구현방식은 모두 도 2에 도시된 실시예와 유사하므로, 여기서는 중복되는 설명을 생략한다.
도 5는 본 출원의 다른 일 예시적 실시예에 따른 목표 내용의 결정 장치의 구조도이다.
도 5에 도시된 바와 같이, 본 실시예에서 제공하는 목표 내용의 결정 장치는, 상술한 실시예의 기초 상에서, 상기 분해 모듈(41)이 제1 관계 결정유닛(411)을 더 포함하여,
문구에 포함된 엔티티를 획득하고;
상기 문구 사이의 대응되는 엔티티 중복도를 기초로, 상기 문구 사이의 제1 관계를 결정한다.
상기 분해 모듈(41)은 제2 관계 결정유닛(412)을 더 포함하여,
상기 문장 단락에서의 상기 문구의 위치 번호를 결정하고, 상기 위치 번호를 기초로 상기 문구 사이의 제2 관계를 결정한다.
상기 분해 모듈(41)은 제3 관계 결정유닛(413)을 더 포함하여,
각각의 상기 문구에 대응되는 문구 벡터를 결정하고, 상기 문구 벡터를 기초로 문구 사이의 제3 관계를 결정한다.
상기 분해 모듈(41)은 제4 관계 결정유닛(414)을 더 포함하여,
기설정된 룰에 따라 상기 문구 사이의 영향 가중치를 결정하고, 상기 문구에 대응되는 상기 영향 가중치를 기초로 기타 문구가 상기 문구에 대한 주의력을 결정한다.
상기 표현 결정 모듈(42)은,
상기 문구 사이의 관계를 기초로 상기 관계에 대응되는 관계 그래프를 결정하는 그래프 결정유닛(421);
기설정된 뉴럴 네트워크를 통해 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하는 표현 결정 유닛(422);을 포함한다.
만약 상기 관계 그래프의 수량이 1보다 크면;
상기 표현 결정 모듈(42)은 스플라이싱 유닛(423)을 더 포함하여, 표현 결정 유닛(422)이 기설정된 뉴럴 네트워크를 통해 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정한 후에,
상기 문구에 대응되는 문구 표현에 대해 스플라이싱하여, 상기 문구에 대응되는 완전한 표현을 획득한다.
상기 목표 결정 모듈(43)은 구체적으로,
상기 문구 표현, 상기 검색 정보를 기초로 매칭도를 결정하고;
매칭 정도가 높은 순위인 기설정된 개수의 문구를 목표 문구로 결정한다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
본 출원의 실시예에 따르면 본 출원은 컴퓨터 프로그램 제품을 더 제공한다. 컴퓨터 프로그램 제품은 컴퓨터 프로그램을 포함하고, 컴퓨터 프로그램은 판독 가능 저장매체에 저장되며, 전자기기의 적어도 하나의 프로세서가 판독 가능 저장매체로부터 컴퓨터 프로그램을 판독할 수 있으며, 적어도 하나의 프로세서는 컴퓨터 프로그램을 실행하여 전자기기가 상술한 어느 하나의 실시예에서 제공하는 기술적 해결수단을 수행하도록 한다.
도 6은 본 출원의 실시예에 따른 목표 내용의 결정 방법의 전자기기의 블록도이다. 전자기기는 다양한 형태의 디지털 컴퓨터, 예컨대, 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 휴대 단말, 서버, 블레이드 서버, 대형 컴퓨터, 및 기타 적합한 컴퓨터를 의미한다. 전자기기는 다양한 형태의 이동장치, 예컨대, 개인 휴대 정보 단말, 셀폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치를 의미할 수도 있다. 본문에 개시된 부재, 이들의 연결 및 관계, 및 이들의 기능은 단지 예시적인 것이며, 본문에 개시된 것 및/또는 요구하는 본 출원의 구현을 한정하려는 의도가 아니다.
도 6에 도시된 바와 같이, 해당 전자기기는 하나 또는 복수의 프로세서(601), 메모리(602), 및 각 부재를 연결시키기 위한 고속 인터페이스와 저속 인터페이스를 포함하는 인터페이스를 포함한다. 각각의 부재는 서로 다른 버스를 통해 서로 연결되며, 공통 메인보드에 장착되거나 수요에 따라 기타 방식으로 장착될 수 있다. 프로세서는 전자기기 내에서 실행되는 명령을 처리할 수 있으며, 메모리 내 또는 메모리 상에 저장되어 외부 입력/출력 장치(예컨대, 인터페이스에 커플링된 디스플레이 기기) 상에 그래픽 유저 인터페이스(Graphical User Interface, GUI)의 그래픽 정보를 표시하는 명령을 포함할 수 있다. 기타 실시형태에서, 수요에 따라, 복수의 프로세서 및/또는 복수의 버스와 복수의 메모리를 같이 사용할 수 있다. 마찬가지로, 복수의 전자기기를 연결할 수 있으며, 각각의 기기는 부분 필요한 조작을 제공한다(예를 들어, 서버 어레이, 한 세트의 블레이드 서버, 또는 멀티 프로세서 시스템으로서). 도 6은 하나의 프로세서(601)를 예로 든다.
메모리(602)는 바로 본 출원에 따른 비일시적 컴퓨터 판독 가능 저장매체이다. 여기서, 상기 메모리는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어, 상기 적어도 하나의 프로세서가 본 출원에 따른 목표 내용의 결정 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장매체는 컴퓨터 명령을 저장하고, 해당 컴퓨터 명령은 컴퓨터가 본 출원에 따른 목표 내용의 결정 방법을 수행하도록 한다.
메모리(602)는 비일시적 컴퓨터 판독 가능 저장매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈, 예컨대 본 출원의 실시예에 따른 목표 내용의 결정 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 4에 도시된 분해 모듈(41), 표현 결정 모듈(42) 및 목표 결정 모듈(43))을 저장할 수 있다. 프로세서(601)는 메모리(602)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행하여, 서버의 다양한 기능 응용 및 데이터 처리를 수행한다. 즉, 상술한 방법 실시예 중 목표 내용의 결정 방법을 구현한다.
메모리(602)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있다. 여기서, 프로그램 저장 영역은 운영체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있다. 데이터 저장 영역은 목표 내용을 결정하는 전자기기의 사용에 따라 구축되는 데이터 등을 저장할 수 있다. 한편, 메모리(602)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 예를 들어 적어도 하나의 자기 저장 장치, 플래시 메모리, 또는 기타 비일시적 솔리드 스테이트 저장 장치와 같은 비일시적 메모리를 포함할 수도 있다. 일부 실시예에서, 메모리(602)는 선택적으로 프로세서(601)에 대해 원격으로 설치되는 메모리를 포함할 수 있다. 이러한 원격 메모리는 네트워크를 통해 목표 내용을 결정하는 전자기기에 연결될 수 있다. 상술한 네트워크의 실예로서 인터넷, 인트라넷, 근거리 통신망, 이동 통신망 및 그 조합을 포함하지만 이에 한정되지 않는다.
목표 내용의 결정 방법을 위한 전자기기는 입력장치(603)와 출력장치(604)를 더 포함할 수 있다. 프로세서(601), 메모리(602), 입력장치(603) 및 출력장치(604)는 버스 또는 기타 방식으로 연결될 수 있으며, 도 6에서는 버스를 통해 연결되는 것을 예시하고 있다.
입력장치(603)는 입력되는 숫자 또는 문자 부호 정보를 수신할 수 있고, 목표 내용을 결정하기 위한 전자기기의 사용자 설정 및 기능 제어에 대한 키 신호 입력을 생성할 수 있다. 예를 들어 터치 스크린, 키패드, 마우스, 트랙패드, 터치패널, 지시레버, 하나 또는 복수의 마우스 버튼, 트랙볼, 조종레버 등의 입력장치를 포함할 수 있다. 출력장치(604)는 디스플레이 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동모터) 등을 포함할 수 있다. 해당 디스플레이 기기는, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이와 플라즈마 디스플레이 등을 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 디스플레이 기기는 터치 스크린일 수 있다.
여기에 기재되는 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 구현되는 것을 포함할 수 있고, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템 상에서 실행 및/또는 해석될 수 있으며, 해당 프로그래머블 프로세서는 전용 또는 범용 프로그래머블 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력장치, 및 적어도 하나의 출력장치로부터 데이터와 명령을 수신할 수 있으며, 데이터와 명령을 해당 저장 시스템, 해당 적어도 하나의 입력장치, 및 해당 적어도 하나의 출력장치로 전송한다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용, 또는 코드라고도 지칭)은 프로그래머블 프로세서의 기계적 명령을 포함하고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블리/기계적 언어를 이용하여 이러한 컴퓨터 프로그램을 실행할 수 있다. 예컨대 본문에서 사용되는 용어 "기계 판독 가능 매체"와 “컴퓨터 판독 가능 매체”는 기계적 명령 및/또는 데이터를 프로그래머블 프로세서로 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그래머블 논리 디바이스(PLD))를 가리키고, 기계 판독 가능 신호인 기계적 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 “기계 판독 가능 신호”는 기계적 명령 및/또는 데이터를 프로그래머블 프로세서로 제공하기 위한 임의의 신호를 가리킨다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터 상에서 여기에 기재되는 시스템 및 기술을 실시할 수 있으며, 해당 컴퓨터는 사용자에게 정보를 표시하기 위한 표시장치(예를 들어, CRT(캐소드레이 튜브) 또는 LCD(액정 디스플레이) 모니터); 및 키보드와 지향 장치(예를 들어, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 지향 장치를 통해 입력을 컴퓨터로 제공할 수 있다. 기타 종류의 장치는 사용자와의 인터랙션을 제공할 수도 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 센싱 피드백(예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백)일 수 있고; 임의의 형태(사운드 입력, 음성 입력 또는 촉각 입력)을 통해 사용자로부터의 입력을 수신할 수 있다.
여기에 기재되는 시스템과 기술은 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로서), 또는 중간부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 유저 인터페이스 또는 인터넷 브라우저를 구비하는 사용자 컴퓨터, 사용자는 해당 그래픽 유저 인터페이스 또는 해당 인터넷 브라우저를 통해 여기에 기재되는 시스템 및 기술의 실시형태와 인터랙션할 수 있다), 또는 이러한 배그라운드 부재, 중간 부재, 또는 프론트 엔드 부재를 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매채의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로서, 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며 통상적으로 통신 네트워크를 통해 인터랙션한다. 상응한 컴퓨터 상에서 실행되며 서로 클라이언트 - 서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 생성한다.
상술한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있다. 예를 들어, 본 출원에 기재된 각 단계는 병열로 수행될 수 있고 순차적으로 수행될 수도 있고 서로 다른 순서로 수행될 수도 있으며, 본 출원에 개시된 기술적 해결수단이 원하는 결과를 얻을 수만 있다면, 본문에서는 여기서 한정하지 않는다.
상술한 구체적인 실시형태는 본 출원의 보호범위에 대한 한정이 아니다. 본 분야의 통상의 지식을 가진 자라면, 설계 요구와 기타 요소를 기초로, 다양한 수정, 조합, 서브 조합 및 대체를 가할 수 있음을 이해할 수 있을 것이다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 치환 및 개선 등은 모두 본 출원의 보호 범위 내에 속한다.

Claims (19)

  1. 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계;
    상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하는 단계;
    상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하고, 상기 목표 문구를 기초로 목표 내용을 결정하는 단계;를 포함하는 것을 특징으로 하는 목표 내용의 결정 방법.
  2. 제1항에 있어서,
    상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
    문구에 포함된 엔티티를 획득하는 단계;
    상기 문구 사이의 대응되는 엔티티 중복도를 기초로, 상기 문구 사이의 제1 관계를 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
    상기 문장 단락에서의 상기 문구의 위치 번호를 결정하고, 상기 위치 번호를 기초로 상기 문구 사이의 제2 관계를 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
    각각의 상기 문구에 대응되는 문구 벡터를 결정하고, 상기 문구 벡터를 기초로 문구 사이의 제3 관계를 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 문구의 속성을 기초로 문구 사이의 관계를 결정하는 단계는,
    기설정된 룰에 따라 상기 문구 사이의 영향 가중치를 결정하고, 상기 문구에 대응되는 상기 영향 가중치를 기초로 기타 문구가 상기 문구에 대한 주의력을 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  6. 제1항에 있어서,
    상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하는 단계는,
    상기 문구 사이의 관계를 기초로 상기 관계에 대응되는 관계 그래프를 결정하는 단계;
    기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하는 단계;를 포함하는 것을 특징으로 하는 방법.
  7. 제6항에 있어서,
    상기 관계 그래프의 수량이 1보다 크면;
    상기 기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하는 단계 후에, 상기 방법은,
    상기 문구에 대응되는 문구 표현에 대해 스플라이싱하여, 상기 문구에 대응되는 완전한 표현을 획득하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  8. 제1항에 있어서,
    상기 문구의 문구 표현을 기초로, 상기 검색 정보를 기초로 목표 문구를 결정하는 단계는,
    상기 문구 표현, 상기 검색 정보를 기초로 매칭도를 결정하는 단계;
    매칭 정도가 앞에 있는 기설정된 개수의 문구를 목표 문구로 결정하는 단계;를 포함하는 것을 특징으로 하는 방법.
  9. 검색 정보를 기초로 결정된 문장 단락을 복수의 문구로 분해하고, 상기 문구의 속성을 기초로 문구 사이의 관계를 결정하기 위한 분해 모듈;
    상기 문구 사이의 관계를 기초로 각각의 상기 문구에 대응되는 문구 표현을 결정하기 위한 표현 결정 모듈;
    상기 문구의 문구 표현, 상기 검색 정보를 기초로 목표 문구를 결정하고, 상기 목표 문구를 기초로 목표 내용을 결정하기 위한 목표 결정 모듈;을 포함하는 것을 특징으로 하는 목표 내용의 결정 장치.
  10. 제9항에 있어서,
    상기 분해 모듈은 제1 관계 결정유닛을 포함하여,
    문구에 포함된 엔티티를 획득하고;
    상기 문구 사이의 대응되는 엔티티 중복도를 기초로, 상기 문구 사이의 제1 관계를 결정하는 것을 특징으로 하는 장치.
  11. 제9항에 있어서,
    상기 분해 모듈은 제2 관계 결정유닛을 포함하여,
    상기 문장 단락에서의 상기 문구의 위치 번호를 결정하고, 상기 위치 번호를 기초로 상기 문구 사이의 제2 관계를 결정하는 것을 특징으로 하는 장치.
  12. 제9항에 있어서,
    상기 분해 모듈은 제3 관계 결정유닛을 포함하여,
    각각의 상기 문구에 대응되는 문구 벡터를 결정하고, 상기 문구 벡터를 기초로 문구 사이의 제3 관계를 결정하는 것을 특징으로 하는 장치.
  13. 제9항에 있어서,
    상기 분해 모듈은 제4 관계 결정유닛을 포함하여,
    기설정된 룰에 따라 상기 문구 사이의 영향 가중치를 결정하고, 상기 문구에 대응되는 상기 영향 가중치를 기초로 기타 문구가 상기 문구에 대한 주의력을 결정하는 것을 특징으로 하는 장치.
  14. 제9항 내지 제13항 중 어느 한 항에 있어서,
    상기 표현 결정 모듈은,
    상기 문구 사이의 관계를 기초로 상기 관계에 대응되는 관계 그래프를 결정하기 위한 그래프 결정유닛;
    기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정하기 위한 표현 결정 유닛;을 포함하는 것을 특징으로 하는 장치.
  15. 제14항에 있어서,
    상기 관계 그래프의 수량이 1보다 크면;
    상기 표현 결정 모듈은, 표현 결정 유닛이 기설정된 뉴럴 네트워크를 기초로 상기 관계 그래프 중 각각의 상기 문구의 문구 표현을 결정한 후에,
    상기 문구에 대응되는 문구 표현에 대해 스플라이싱하여, 상기 문구에 대응되는 완전한 표현을 획득하는 스플라이싱 유닛을 더 포함하는 것을 특징으로 하는 장치.
  16. 제9항에 있어서,
    상기 목표 결정 모듈은 구체적으로,
    상기 문구 표현, 상기 검색 정보를 기초로 매칭도를 결정하고;
    매칭 정도가 앞에 있는 기설정된 개수의 문구를 목표 문구로 결정하는 것을 특징으로 하는 목표 내용의 결정 장치.
  17. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하고,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제8항 중 어느 한 항에 따른 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자기기.
  18. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서, 상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제8항 중 어느 한 항에 따른 방법을 수행하도록 하는 것을 특징으로 하는 비일시적 컴퓨터 판독 가능 저장매체.
  19. 프로세서에 의해 실행될 때 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품.
KR1020210003336A 2020-01-09 2021-01-11 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체 KR102468342B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010023642.9 2020-01-09
CN202010023642.9A CN111241242B (zh) 2020-01-09 2020-01-09 目标内容的确定方法、装置、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
KR20210038441A true KR20210038441A (ko) 2021-04-07
KR102468342B1 KR102468342B1 (ko) 2022-11-17

Family

ID=70864970

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210003336A KR102468342B1 (ko) 2020-01-09 2021-01-11 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체

Country Status (5)

Country Link
US (1) US20210191961A1 (ko)
EP (1) EP3822820A1 (ko)
JP (1) JP7139028B2 (ko)
KR (1) KR102468342B1 (ko)
CN (1) CN111241242B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204629A (zh) * 2021-05-31 2021-08-03 平安科技(深圳)有限公司 文本匹配方法、装置、计算机设备及可读存储介质
CN113590745B (zh) * 2021-06-30 2023-10-10 中山大学 一种可解释的文本推断方法
CN113268581B (zh) * 2021-07-20 2021-10-08 北京世纪好未来教育科技有限公司 题目生成方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174019A (ja) * 1991-12-20 1993-07-13 Mitsubishi Electric Corp 文章評価システム
US20190129942A1 (en) * 2017-10-30 2019-05-02 Northern Light Group, Llc Methods and systems for automatically generating reports from search results

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254883A (ja) * 1997-03-10 1998-09-25 Mitsubishi Electric Corp 文書自動分類方法
JPH11272680A (ja) * 1998-03-19 1999-10-08 Fujitsu Ltd 文書データ提供装置およびそのプログラム記録媒体
JP2000105769A (ja) 1998-09-28 2000-04-11 Hitachi Ltd 文書表示方法
US7293175B2 (en) * 2000-06-29 2007-11-06 Lockheed Martin Corporation Automatic information sanitizer
JP4843867B2 (ja) 2001-05-10 2011-12-21 ソニー株式会社 文書処理装置、文書処理方法および文書処理プログラム、ならびに、記録媒体
US7587309B1 (en) * 2003-12-01 2009-09-08 Google, Inc. System and method for providing text summarization for use in web-based content
JP2007011973A (ja) * 2005-07-04 2007-01-18 Sharp Corp 情報検索装置及び情報検索プログラム
US20110238663A1 (en) * 2008-01-10 2011-09-29 Qin Zhang Search method and system using thinking system
JP2007188225A (ja) * 2006-01-12 2007-07-26 Yafoo Japan Corp 要約文抽出システム
US9218414B2 (en) * 2007-02-06 2015-12-22 Dmitri Soubbotin System, method, and user interface for a search engine based on multi-document summarization
US20090083026A1 (en) * 2007-09-24 2009-03-26 Microsoft Corporation Summarizing document with marked points
CN101452470B (zh) * 2007-10-18 2012-06-06 广州索答信息科技有限公司 摘要式网络搜索引擎系统及其搜索方法与应用
US20100287162A1 (en) * 2008-03-28 2010-11-11 Sanika Shirwadkar method and system for text summarization and summary based query answering
US8271502B2 (en) * 2009-06-26 2012-09-18 Microsoft Corporation Presenting multiple document summarization with search results
JP2012003697A (ja) * 2010-06-21 2012-01-05 Ricoh Co Ltd スニペット生成方法、スニペット生成装置、スニペット生成プログラムおよび記録媒体
CN102789452A (zh) 2011-05-16 2012-11-21 株式会社日立制作所 类似内容提取方法
CN102411621B (zh) * 2011-11-22 2014-01-08 华中师范大学 一种基于云模型的中文面向查询的多文档自动文摘方法
JP6537340B2 (ja) 2015-04-28 2019-07-03 ヤフー株式会社 要約生成装置、要約生成方法、及び要約生成プログラム
CN107870964B (zh) * 2017-07-28 2021-04-09 北京中科汇联科技股份有限公司 一种应用于答案融合系统的语句排序方法及系统
CN107783960B (zh) * 2017-10-23 2021-07-23 百度在线网络技术(北京)有限公司 用于抽取信息的方法、装置和设备
CN108628833B (zh) * 2018-05-11 2021-01-22 北京三快在线科技有限公司 原创内容摘要确定方法及装置,原创内容推荐方法及装置
CN108763529A (zh) 2018-05-31 2018-11-06 苏州大学 一种智能检索方法、装置和计算机可读存储介质
US10902350B2 (en) * 2018-07-20 2021-01-26 Verizon Media Inc. System and method for relationship identification
CN109284357B (zh) * 2018-08-29 2022-07-19 腾讯科技(深圳)有限公司 人机对话方法、装置、电子设备及计算机可读介质
CN110598078B (zh) * 2019-09-11 2022-09-30 京东科技控股股份有限公司 数据检索方法及装置、计算机可读存储介质、电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174019A (ja) * 1991-12-20 1993-07-13 Mitsubishi Electric Corp 文章評価システム
US20190129942A1 (en) * 2017-10-30 2019-05-02 Northern Light Group, Llc Methods and systems for automatically generating reports from search results

Also Published As

Publication number Publication date
CN111241242A (zh) 2020-06-05
JP2021082306A (ja) 2021-05-27
EP3822820A1 (en) 2021-05-19
KR102468342B1 (ko) 2022-11-17
CN111241242B (zh) 2023-05-30
JP7139028B2 (ja) 2022-09-20
US20210191961A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
US11200269B2 (en) Method and system for highlighting answer phrases
CN112507715B (zh) 确定实体之间关联关系的方法、装置、设备和存储介质
KR20210038449A (ko) 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
KR102532396B1 (ko) 데이터 세트 처리 방법, 장치, 전자 기기 및 저장 매체
KR20210037619A (ko) 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체
KR20210038441A (ko) 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체
KR20210086436A (ko) 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체
US20210390260A1 (en) Method, apparatus, device and storage medium for matching semantics
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
US20220027569A1 (en) Method for semantic retrieval, device and storage medium
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
US20230147550A1 (en) Method and apparatus for pre-training semantic representation model and electronic device
KR20210106398A (ko) 세션 추천 방법, 장치 및 기기
JP7106802B2 (ja) リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置
US11704326B2 (en) Generalization processing method, apparatus, device and computer storage medium
KR20210157342A (ko) 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체
US11947578B2 (en) Method for retrieving multi-turn dialogue, storage medium, and electronic device
KR20210038471A (ko) 텍스트 쿼리 방법, 장치, 기기 및 저장 매체
CN114861889A (zh) 深度学习模型的训练方法、目标对象检测方法和装置
US20210312308A1 (en) Method for determining answer of question, computing device and storage medium
US20220215493A1 (en) Method, Apparatus, and Electronic Device for Obtaining Trademark Similarity
CN118246474A (zh) 工具路由方法及设备

Legal Events

Date Code Title Description
G15R Request for early publication
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant