KR102540185B1 - 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체 - Google Patents

채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체 Download PDF

Info

Publication number
KR102540185B1
KR102540185B1 KR1020210040448A KR20210040448A KR102540185B1 KR 102540185 B1 KR102540185 B1 KR 102540185B1 KR 1020210040448 A KR1020210040448 A KR 1020210040448A KR 20210040448 A KR20210040448 A KR 20210040448A KR 102540185 B1 KR102540185 B1 KR 102540185B1
Authority
KR
South Korea
Prior art keywords
theme
document
vector
skill
submodule
Prior art date
Application number
KR1020210040448A
Other languages
English (en)
Other versions
KR20210047284A (ko
Inventor
추안 친
카이춘 야오
헹수 주
차오 마
다종 센
통 수
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20210047284A publication Critical patent/KR20210047284A/ko
Application granted granted Critical
Publication of KR102540185B1 publication Critical patent/KR102540185B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 인공지능 기술분야에 관한 것으로 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체를 제공한다. 구체적인 과제의 해결 수단은, 타깃 부문의 관련 오리지널 문서를 획득하는 단계; 및 상기 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 상기 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성하는 단계를 포함한다. 심층 신경망을 통해 타깃 채용 부문 설명 문서를 자동으로 생성함으로써, 인원과 부문을 정확하게 매칭하고 채용 과정에서의 인력과 시간을 줄이며 채용 효율을 향상시킨다.

Description

채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체{RECRUITMENT POSITION DESCRIPTION TEXT GENERATION METHOD, DEVICE, APPARATUS AND MEDIUM}
본 발명의 실시예는 컴퓨터 기술에 관한 것으로, 특히 인공지능 기술분야에 관한 것이고, 특별히 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체에 관한 것이다.
채용 부문 설명은 직위의 직책과 업무 스킬 요구를 나타내고, 효과적인 직위 설명은 고용주가 해당 직위에 적합한 인재를 찾는데 도움되며, 후보자가 특정 직위에 대한 직책과 자격을 명확하게 이해하도록 한다.
기존의 채용 부문과 직원의 매칭은 인적 자원 전문가의 채용 시장 분석을 기반으로 해야 하고, 채용 부문 설명을 수동으로 작성하여 매우 주관적이고 많은 인건비가 필요하며, 또한 인적 자원 직원이 다른 부문의 전문적 스킬에 대해 영역 상의 갭이 존재하여 오차가 자주 발생하므로, 채용 부문과 채용 인원의 정확한 매칭이 불가능하고 채용 효율이 낮다.
본 발명의 실시예는 채용 부문을 정확하게 설명하고 부문 설명의 생성 효율을 향상시키기 위해 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체를 제공한다.
제1 양태에 따르면, 채용 부문 설명 문서 생성 방법을 제공하고, 타깃 부문의 관련 오리지널 문서를 획득하는 단계; 및 상기 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 상기 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성하는 단계를 포함한다.
제2 양태에 따르면, 채용 부문 설명 문서 생성 장치를 제공하고, 타깃 부문의 관련 오리지널 문서를 획득하는 오리지널 문서 획득 모듈; 및 상기 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 상기 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성하는 설명 문서 생성 모듈을 포함한다.
제3 양태에 따르면, 전자 기기를 제공하고, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되; 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 본 발명의 어느 한 실시예에 따른 채용 부문 설명 문서 생성 방법을 수행할 수 있도록 한다.
제4 양태에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 명령은 상기 컴퓨터가 본 발명의 어느 한 실시예에 따른 채용 부문 설명 문서 생성 방법을 수행하도록 한다.
제5 양태에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 명령은 상기 컴퓨터가 본 발명의 어느 한 실시예에 따른 채용 부문 설명 문서 생성 방법을 수행하도록 한다.
본 발명에 따른 기술은 기존의 기술에서 수동적으로 채용 부문 문서를 설명하는 과제를 해결하였으며, 심층 신경망을 통해 타깃 채용 부문 설명 문서를 빠르게 자동으로 생성할 수 있고, 생성된 타깃 채용 부문 설명 문서는 타깃 부문의 요구와 매칭될 수 있으므로, 채용 부문 설명 문서의 생성 효율 및 정확도를 향상시키고, 나아가 채용 과정에서의 인력과 시간을 줄이며 채용 효율을 향상시킨다.
본 부분에서 설명하는 내용은 본 발명의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 발명의 범위를 한정하지 않는다는 것을 이해해야 한다. 본 발명의 다른 특징은 아래 명세서를 통해 이해하기 쉬울 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것이고 본 발명을 한정하지 않는다.
도 1은 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 방법의 흐름 모식도이다.
도 2는 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이다.
도 3은 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이다.
도 4는 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이다.
도 5는 본 발명의 실시예에 따른 심층 신경망 모델의 트레이닝 방법의 흐름 모식도이다.
도 6은 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이다.
도 7은 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이다.
도 8은 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 장치의 구조 모식도이다.
도 9는 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 방법을 구현하기 위한 전자 기기의 블록도이다.
아래 도면을 참조하여 본 발명의 예시적 실시예를 설명하되, 여기에 이해를 돕기 위한 본 발명의 실시예의 다양한 세부사항들이 포함되지만, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확하고 간략한 설명을 위해, 아래의 설명에서 공지된 기술 및 구조에 대한 설명을 생략한다.
도 1은 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 방법의 흐름 모식도이고, 본 실시예는 채용 부문 설명 문서를 자동 생성하는데 사용되며, 상기 방법은 채용 부문 설명 문서 생성 장치에 의해 수행될 수 있고, 상기 장치는 소프트웨어 및/또는 하드웨어의 형태를 사용하여 구현할 수 있으며, 컴퓨팅 스킬을 구비한 전자 기기에 통합될 수 있다. 도 1에 도시된 바와 같이, 본 실시예가 제공한 채용 부문 설명 문서 생성 방법은 아래와 같은 단계를 포함할 수 있다.
단계(S110)에서, 타깃 부문의 관련 오리지널 문서를 획득한다.
여기서, 작업자가 미리 수집한 타깃 부문의 관련 오리지널 문서를 획득한다.
본 실시예에서, 선택 가능하게, 관련 오리지널 문서는, 부문 요구에 부합된다고 결정된 인원의 이력서 문서, 부문 직책 데이터를 포함하는 문서, 및 부문에 관한 프로젝트 데이터를 포함하는 문서 중의 적어도 하나를 포함한다.
구체적으로, 부문 요구에 부합된다고 결정된 인원의 이력서 문서는 입사 인원의 이력서 문서 및 이미 심사를 통과한 입사 예정 인원의 이력서 문서를 포함할 수 있다. 작업자는 입사 인원의 이력서 문서 및 이미 심사를 통과한 입사 예정 인원의 이력서 문서를 미리 수집하고, 다른 부문의 직책 데이터를 수집하여 부문 직책 데이터를 포함하는 문서로 하며, 다른 부문에 관한 프로젝트 또는 엔지니어링 데이터를 수집하여 부문에 관한 프로젝트 데이터를 포함하는 문서로 한다. 예를 들면, 입사 인원 이력서에 기재된 내용은 어느 입사 인원의 전문적 연구 방향이 지능형 로봇일 수 있으며, 부문에 관한 프로젝트 데이터를 포함하는 문서에 기재된 내용은 어느 타깃 부문 프로젝트가 지능형 로봇 장애물 회피 프로젝트일 수 있다. 관련 오리지널 문서의 획득을 통해, 타깃 부문의 직책 및 스킬 요구에 관련된 유효 정보를 추출할 수 있고, 생성된 타깃 채용 부문 설명 문서와 타깃 부문의 직책 및 스킬 요구의 정확한 매칭에 유리하다.
단계(S120)에서, 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성한다.
여기서, 심층 신경망 모델은 미리 트레이닝하여 획득한 것이고, 타깃 채용 부문 설명 문서를 생성하는 모델이다. 타깃 채용 부문 설명 문서는 타깃 부문의 직책 및 업무 스킬 등 설명 정보를 포함하고, 구직자에게 디스플레이된다. 관련 오리지널 문서를 미리 트레이닝된 심층 신경망 모델에 입력하고, 심층 신경망 모델에 의해 관련 오리지널 문서에서 타깃 부문의 관련 데이터를 추출한다. 예를 들면, 입사 인원의 이력서 문서에서 입사 인원의 현재 직위, 입사 인원의 연구 방향 및 입사 인원의 현재 프로젝트 등 데이터를 추출할 수 있고, 이미 심사를 통과한 입사 예정 인원의 이력서 문서에서 입사 예정 인원의 부문 의향 및 입사 예정 인원의 연구 방향 등 데이터를 추출할 수 있으며, 부문 직책 데이터를 포함하는 문서에서 상기 부문의 주요 직책, 담당 업무 및 전문적 요구 등 데이터를 추출할 수 있고, 부문에 관한 프로젝트 데이터를 포함하는 문서에서 상기 부문의 과거 프로젝트 및 현재 프로젝트 등 데이터를 추출할 수 있다.
심층 신경망 모델은 관련 오리지널 문서를 획득한 후, 추출한 관련 데이터에 따라, 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성한다.
상기 발명 중의 일 실시예는 아래와 같은 장점 또는 유익한 효과가 있다. 심층 신경망을 통해 타깃 채용 부문 설명 문서를 빠르게 자동으로 생성할 수 있고 생성된 타깃 채용 부문 설명 문서는 타깃 부문의 요구와 매칭될 수 있으므로, 채용 부문 설명 문서의 생성 효율 및 정확도를 향상시키고 나아가 채용 과정에서의 인력과 시간을 줄이며 채용 효율을 향상시킨다.
도 2는 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이고, 본 발명의 채용 부문 설명 문서 생성 방법을 수행할 수 있다. 도 2에 도시된 바와 같이, 본 실시예가 제공한 심층 신경망 모델(200), 관련 오리지널 문서에 따라, 타깃 스킬 테마 분포 벡터를 예측하는 문서 테마 예측 서브 모델(210); 및 타깃 스킬 테마 분포 벡터에 따라, 타깃 부문의 타깃 채용 부문 설명 문서를 생성하는 설명 문서 생성 서브 모델(220)을 포함할 수 있다.
여기서, 타깃 스킬 테마 분포 벡터는 타깃 부문의 스킬 테마 분포 벡터이고, 스킬 테마는 부문에 필요한 업무 스킬의 카테고리 명칭을 의미하는 바, 예를 들면, 스킬 테마는 코딩류 스킬 테마, 머신 러닝류 스킬 테마 및 빅데이터류 스킬 테마 등이 있을 수 있다.
문서 테마 예측 서브 모델(210)은 타깃 부문의 관련 오리지널 문서를 획득하고, 관련 오리지널 문서에서 타깃 부문의 스킬 테마 데이터를 추출하는 바, 예를 들면, 이미 입사한 인원의 타깃 부문에서의 프로젝트 명칭을 추출할 수 있고, 프로젝트 명칭에 따라 상기 프로젝트의 스킬 테마를 획득할 수 있다. 타깃 부문의 관련 데이터에 따라, 타깃 스킬 테마 분포 벡터를 예측하여, 타깃 부문의 스킬 테마를 결정한다.
문서 테마 예측 서브 모델(210)이 타깃 스킬 테마 분포 벡터를 결정한 후, 문서 테마 예측 서브 모델(210)은 타깃 스킬 테마 분포 벡터를 설명 문서 생성 서브 모델(220)에 송신하고, 설명 문서 생성 서브 모델(220)은 타깃 스킬 테마 분포 벡터에 따라 타깃 채용 부문 설명 문서를 생성함으로써, 타깃 부문에 대한 문서 설명을 진행한다. 예를 들면, 타깃 부문은 소프트웨어 엔지니어이고, 상기 부문의 타깃 스킬 테마 분포 벡터는 코딩류 스킬 테마이면, 최종적으로 생성된 타깃 채용 부문 설명 문서는 “소프트웨어 엔지니어: JAVA 및 C++ 숙련자, 업무 경력 3년 이상”일 수 있다.
상기 발명 중의 일 실시예는 아래와 같은 장점 또는 유익한 효과가 있다. 심층 신경망 모델을 문서 테마 예측 서브 모델과 설명 문서 생성 서브 모델로 구획하여, 수동적인 작업 단계를 감소하고 인력과 시간을 줄이며 타깃 부문의 스킬 테마 및 설명 문서의 단계별 결정을 구현하고, 스킬 테마에 따라 설명 문서를 획득하여, 타깃 채용 부문 설명 문서의 정확도와 효율을 향상시킨다.
도 3은 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이고, 상기 실시예를 기반으로 더 최적화한다. 도 3에 도시된 바와 같이, 본 실시예가 제공한 심층 신경망 모델(300)은, 문서 테마 예측 서브 모델(310) 및 설명 문서 생성 서브 모델(320)을 포함할 수 있다.
본 실시예에서, 선택 가능하게, 문서 테마 예측 서브 모델은, 관련 오리지널 문서의 단어집 특징 벡터를 추출하는 단어집 특징 추출 모듈; 단어집 특징 벡터 및 비선형 네트워크층에 따라, 스킬 테마 벡터 분포 파라미터를 산출하는 분포 파라미터 산출 모듈; 및 스킬 테마 벡터 분포 파라미터 및 기설정 테마 분포 가설 파라미터에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 결정 모듈을 포함한다.
여기서, 단어집 특징 추출 모듈(301)은 타깃 부문의 관련 오리지널 문서를 획득한 후, 관련 오리지널 문서에서 단어집 특징 벡터를 추출한다. 예를 들면, 관련 오리지널 문서는 “소프트웨어 엔지니어는 프로그래밍 기초가 필요하다” 및 “소프트웨어 엔지니어는 성실하고 안정적이어야 한다”이고, 단어집 특징 벡터는 [111100] 및 [110011]로 나타낼 수 있다.
단어집 특징 추출 모듈(301)은 단어집 특징 벡터를 분포 파라미터 산출 모듈(302)에 송신하고, 분포 파라미터 산출 모듈(302)은 단어집 특징 벡터 및 미리 설정한 비선형 네트워크층에 따라, 스킬 테마 벡터 분포 파라미터를 산출하여 획득한다. 분포 파라미터 산출 모듈(302)은 스킬 테마 벡터 분포 파라미터를 제1 테마 분포 결정 모듈(303)에 송신하고, 제1 테마 분포 결정 모듈(303)은 스킬 테마 벡터 분포 파라미터 및 미리 설정한 기설정 테마 분포 가설 파라미터에 따라, 타깃 스킬 테마 분포 벡터를 산출하여 획득한다.
문서 테마 예측 서브 모델(310)을 3개 서브 모듈로 구획하여, 타깃 스킬 테마 분포 벡터에 대한 질서있는 산출을 구현하고, 산출 정확도를 향상시키며, 수동 작업을 감소하고, 수동적으로 스킬 테마를 결정하는 과정을 피하며, 타깃 스킬 테마 분포 벡터의 산출 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 단어집 특징 추출 모듈은, 관련 오리지널 문서의 단어집 특성화 데이터를 생성하는 단어집 생성 서브 모듈; 및 단어집 특성화 데이터에 대해 특징 추출을 진행하여, 단어집 특징 벡터를 획득하는 제1 완전 접속망 서브 모듈을 포함한다.
구체적으로, 단어집 특징 추출 모듈(301)은 단어집 생성 서브 모듈(3011) 및 제1 완전 접속망 서브 모듈(3012)에 의해 구성될 수 있다. 제1 완전 접속망 서브 모듈(3012)은 한층 또는 다층의 완전 접속망을 포함할 수 있다. 심층 신경망 모델은 관련 오리지널 문서를 수신한 후, 단어집 특징 추출 모듈(301) 중의 단어집 생성 서브 모듈(3011)에 의해 획득된다. 단어집 생성 서브 모듈(3011)은 관련 오리지널 문서 중의 단어집 특성화 데이터를 추출하는 바, 예를 들면, 관련 오리지널 문서는 “소프트웨어 엔지니어는 프로그래밍 기초가 필요하다” 및 “소프트웨어 엔지니어는 성실하고 안정적이어야 한다”이고, 추출된 단어집 특성화 데이터는 “소프트웨어 엔지니어, 필요, 프로그래밍, 기초, 성실, 안정”이며,
Figure 112021036687513-pat00001
로 단어집 특성화 데이터를 나타낼 수 있다. 단어집 생성 서브 모듈(3011)은 단어집 특성화 데이터를 제1 완전 접속망 서브 모듈(3012)에 송신하고, 제1 완전 접속망 서브 모듈(3012)은 단어집 특성화 데이터에 대해 여러 번 특징 추출을 진행하여, 단어집 특징 벡터를 생성할 수 있으며,
Figure 112021036687513-pat00002
로 제1 완전 접속망 서브 모듈(3012) 중의 완전 접속망을 나타낼 수 있다. 단어집 생성 서브 모듈(3011) 및 제1 완전 접속망 서브 모듈(3012)에 의해 단어집 특징 벡터를 생성하여, 단어집 특징 벡터의 산출 정확도를 향상시키고, 단어집 특징 추출의 자동화를 구현하며, 수동 작업을 감소하고, 나아가 타깃 스킬 테마 분포 벡터의 산출 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 분포 파라미터 산출 모듈은, 단어집 특징 벡터 및 제1 비선형 네트워크층에 따라, 제1 스킬 테마 벡터 분포 서브 파라미터를 산출하는 제1 파라미터 산출 서브 모듈; 및 단어집 특징 벡터 및 제2 비선형 네트워크층에 따라, 제2 스킬 테마 벡터 분포 서브 파라미터를 산출하는 제2 파라미터 산출 서브 모듈을 포함한다.
구체적으로, 분포 파라미터 산출 모듈(302)은 제1 파라미터 산출 서브 모듈(3021) 및 제2 파라미터 산출 서브 모듈(3022)에 의해 구성될 수 있다. 제1 파라미터 산출 서브 모듈(3021)은 제1 완전 접속망 서브 모듈(3012)의 단어집 특징 벡터를 수신하고, 미리 설정한 제1 비선형 네트워크층에 따라, 제1 스킬 테마 벡터 분포 서브 파라미터를 산출하여 획득한다.
Figure 112021036687513-pat00003
로 제1 비선형 네트워크층을 나타낼 수 있고,
Figure 112021036687513-pat00004
로 제1 스킬 테마 벡터 분포 서브 파라미터를 나타낼 수 있다. 제1 스킬 테마 벡터 분포 서브 파라미터
Figure 112021036687513-pat00005
의 산출 공식은 아래와 같다.
Figure 112021036687513-pat00006
제2 파라미터 산출 서브 모듈(3022)은 제1 완전 접속망 서브 모듈(3012)의 단어집 특징 벡터를 수신한 후, 미리 설정한 제2 비선형 네트워크층에 따라, 제2 스킬 테마 벡터 분포 서브 파라미터를 산출하여 획득한다.
Figure 112021036687513-pat00007
로 제2 비선형 네트워크층을 나타낼 수 있고,
Figure 112021036687513-pat00008
로 제2 스킬 테마 벡터 분포 서브 파라미터를 나타낼 수 있다. 제2 스킬 테마 벡터 분포 서브 파라미터
Figure 112021036687513-pat00009
의 산출 공식은 아래와 같다.
Figure 112021036687513-pat00010
스킬 테마 벡터 분포 파라미터는
Figure 112021036687513-pat00011
Figure 112021036687513-pat00012
를 포함할 수 있고,
Figure 112021036687513-pat00013
Figure 112021036687513-pat00014
의 산출을 통해, 스킬 테마 벡터 분포 파라미터에 대한 정확한 산출을 구현하고, 타깃 스킬 테마 분포 벡터의 산출 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 제1 테마 분포 결정 모듈은, 제1 스킬 테마 벡터 분포 서브 파라미터 및 제1 기설정 테마 분포 가설 서브 파라미터에 따라, 제3 스킬 테마 벡터 분포 파라미터를 산출하는 제3 파라미터 산출 서브 모듈; 제2 스킬 테마 벡터 분포 서브 파라미터 및 제2 기설정 테마 분포 가설 서브 파라미터에 따라, 제4 스킬 테마 벡터 분포 파라미터를 산출하는 제4 파라미터 산출 서브 모듈; 제3 스킬 테마 벡터 분포 파라미터 및 제4 스킬 테마 벡터 분포 파라미터에 따라, 제1 스킬 테마 벡터를 획득하는 제1 테마 벡터 샘플링 서브 모듈; 제1 스킬 테마 벡터에 대해 특징 추출을 진행하여, 제1 테마 특징 벡터를 획득하는 제2 완전 접속망 서브 모듈; 및 제1 테마 특징 벡터 및 제1 활성화 함수에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 특징 산출 서브 모듈을 포함한다.
구체적으로, 제1 테마 분포 결정 모듈(303)은 제3 파라미터 산출 서브 모듈(3031), 제4 파라미터 산출 서브 모듈(3032), 제1 테마 벡터 샘플링 서브 모듈(3033), 제2 완전 접속망 서브 모듈(3034) 및 제1 테마 분포 특징 산출 서브 모듈(3035)에 의해 구성될 수 있다. 제3 파라미터 산출 서브 모듈(3031)은 제1 파라미터 산출 서브 모듈(3021)의 제1 스킬 테마 벡터 분포 서브 파라미터
Figure 112021036687513-pat00015
를 수신하고, 미리 설정한 제1 기설정 테마 분포 가설 서브 파라미터에 따라, 제3 스킬 테마 벡터 분포 파라미터를 산출하여 획득한다. 제1 기설정 테마 분포 가설 서브 파라미터는
Figure 112021036687513-pat00016
로 나타낼 수 있고, 제3 스킬 테마 벡터 분포 파라미터는
Figure 112021036687513-pat00017
로 나타낼 수 있으며,
Figure 112021036687513-pat00018
이다. 제4 파라미터 산출 서브 모듈(3032)은 제2 파라미터 산출 서브 모듈(3022)의 제2 스킬 테마 벡터 분포 서브 파라미터
Figure 112021036687513-pat00019
를 수신하고, 미리 설정한 제2 기설정 테마 분포 가설 서브 파라미터에 따라, 제4 스킬 테마 벡터 분포 파라미터를 산출하여 획득하며,
Figure 112021036687513-pat00020
이다. 제2 기설정 테마 분포 가설 서브 파라미터는
Figure 112021036687513-pat00021
로 나타낼 수 있고, 제4 스킬 테마 벡터 분포 파라미터는
Figure 112021036687513-pat00022
로 나타낼 수 있다.
제1 테마 벡터 샘플링 서브 모듈(3033)은 제3 파라미터 산출 서브 모듈(3031)의 제3 스킬 테마 벡터 분포 파라미터
Figure 112021036687513-pat00023
및 제4 파라미터 산출 서브 모듈(3032)의 제4 스킬 테마 벡터 분포 파라미터
Figure 112021036687513-pat00024
를 수신하고, 제1 스킬 테마 벡터를 산출하여 획득하며,
Figure 112021036687513-pat00025
로 제1 스킬 테마 벡터를 나타낼 수 있다. 제2 완전 접속망 서브 모듈(3034)은 제1 테마 벡터 샘플링 서브 모듈(3033)의 제1 스킬 테마 벡터를 수신하고, 제1 스킬 테마 벡터에 대해 특징 추출을 진행하여, 제1 테마 특징 벡터를 획득한다. 예를 들면, 대응되는 타깃 채용 설명에 대해, S={s_1,s_2,…,s_L} 중의 s_L은 각 마디의 채용 설명 스테이트먼트이고, 샘플링하여 획득할 수 있는 테마 벡터는
Figure 112021036687513-pat00026
이다. 제2 완전 접속망 서브 모듈(3034)은 한층 또는 다층의 완전 접속망을 포함할 수 있고,
Figure 112021036687513-pat00027
로 제2 완전 접속망 서브 모듈(3034) 중의 완전 접속망을 나타낼 수 있다.
제1 테마 분포 특징 산출 서브 모듈(3035)은 제2 완전 접속망 서브 모듈(3034)의 제1 테마 특징 벡터를 수신하고, 기설정된 제1 활성화 함수에 따라, 타깃 스킬 테마 분포 벡터를 획득한다. 제1 활성화 함수는
Figure 112021036687513-pat00028
로 나타낼 수 있고, 타깃 스킬 테마 분포 벡터는
Figure 112021036687513-pat00029
로 나타낼 수 있으며, 여기서,
Figure 112021036687513-pat00030
이다. 타깃 스킬 테마 분포 벡터에 대해 단계별 산출을 진행하여, 산출 효율을 향상시키고 타깃 스킬 테마 분포 벡터의 산출 정확도를 보장하며 문서 테마 예측의 자동화를 구현한다.
상기 발명 중의 일 실시예는 아래와 같은 장점 또는 유익한 효과가 있다. 문서 테마 예측 서브 모델을 단어집 특징 추출 모듈, 분포 파라미터 산출 모듈 및 제1 테마 분포 결정 모듈로 구획하여, 타깃 스킬 테마 분포 벡터의 자동 생성을 구현한다. 기존 기술에서 인적 자원 직원이 수동으로 부문 정보를 추출하는 것을 해결하였고, 수동적인 주관성을 감소하며, 채용 부문 설명 문서의 생성 시간 및 비용을 줄이고, 인적 자원 직원이 다른 부문의 전문적 스킬에 대해 영역 상의 갭이 있어 오차가 발생하는 것을 피하며, 채용 부문과 채용 인원을 정확하게 매칭하여 채용 효율을 향상시킨다.
도 4는 본 발명의 실시예에 따른 심층 신경망 모델의 구조 모식도이고, 상기 실시예를 기반으로 더 최적화한다. 도 4에 도시된 바와 같이, 본 실시예가 제공한 심층 신경망 모델(400)은,
문서 테마 예측 서브 모델(410) 및 설명 문서 생성 서브 모델(420)을 포함할 수 있다.
본 실시예에서, 선택 가능하게, 설명 문서 생성 서브 모델은, 관련 오리지널 문서 중 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 인코더 모듈; 타깃 스킬 테마 분포 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하는 어텐션 모듈; 및 가중 변환 후의 의미 특성화 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하고; 스킬 테마 태그에 따라 타깃 채용 부문 설명 문서의 현재 단어를 예측하는 디코더 모듈을 포함한다.
구체적으로, 설명 문서 생성 서브 모델(420)은 인코더 모듈(401), 어텐션 모듈(402) 및 디코더 모듈(403)에 의해 구성될 수 있다. 인코더 모듈(401)은 관련 오리지널 문서에 따라, 관련 오리지널 문서 중 현재 문장의 의미 특성화 벡터 시퀀스를 생성하고, 의미 특성화 벡터 시퀀스는
Figure 112021036687513-pat00031
로 나타낼 수 있으며, 하나의 양 방향 순환 신경망을 사용할 수 있고, 입력 시퀀스 X={x_1, x_2, …, x_Md}에 대해, 의미 특성화 시퀀스
Figure 112021036687513-pat00032
를 획득하며, 여기서,
Figure 112021036687513-pat00033
는 입력 시퀀스 중 임의의 한 단어의 의미 특성화 벡터를 나타내고,
Figure 112021036687513-pat00034
는 단어 수량을 나타낸다. 어텐션 모듈(402)은 제1 테마 분포 특징 산출 서브 모듈(3035)의 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00035
를 획득하고, 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00036
에 따라 의미 특성화 시퀀스
Figure 112021036687513-pat00037
에 대해 가중 변환을 진행한다. 디코더 모듈(403)은 가중 변환 후의 의미 특성화 벡터 시퀀스를 수신하고, 2개의 단일 방향 순환 신경망을 사용하여, 현재 문장의 스킬 테마 태그의 예측을 모델링할 수 있으며, 스킬 테마 태그에 따라 타깃 채용 부문 설명 문서의 현재 단어의 예측을 더 획득한다. 스킬 테마 태그는
Figure 112021036687513-pat00038
로 나타낼 수 있고, 타깃 채용 부문 설명 문서의 현재 단어는
Figure 112021036687513-pat00039
로 나타낼 수 있다. 설명 문서 생성 서브 모델(420)의 모듈 구획을 통해, 타깃 채용 부문의 스킬 테마 태그 및 설명 문서의 현재 단어를 자동으로 예측하고, 수동 작업을 감소하며, 채용 문서 형성의 효율을 향상시킬 수 있다.
본 실시예에서, 선택 가능하게, 인코더 모듈은, 관련 오리지널 문서 중 현재 문장에 포함되는 각 단어의 단어 벡터를 생성하는 단어 벡터 생성 서브 모듈; 및 각 단어 벡터에 따라 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 제1 순환 신경망 서브 모듈을 포함한다.
구체적으로, 인코더 모듈(401)은 단어 벡터 생성 서브 모듈(4011) 및 제1 순환 신경망 서브 모듈(4012)에 의해 구성될 수 있고, 단어 벡터 생성 서브 모듈(4011)은 관련 오리지널 문서에 따라, 현재 문장에 포함되는 각 단어의 단어 벡터를 생성하며,
Figure 112021036687513-pat00040
로 표시할 수 있다. 제1 순환 신경망 서브 모듈(4012)은 단어 벡터 생성 서브 모듈(4011)의 단어 벡터
Figure 112021036687513-pat00041
를 수신하고, 현재 문장의 의미 특성화 벡터 시퀀스
Figure 112021036687513-pat00042
를 생성한다. 의미 특성화 벡터 시퀀스에 대한 정확한 산출을 구현하고 인력과 시간을 줄이며 타깃 채용 부문 설명 문서의 생성 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 어텐션 모듈은 제1 어텐션 서브 모듈 및 제2 어텐션 서브 모듈을 포함하고; 디코더 모듈은 테마 예측 서브 모듈 및 문서 생성 서브 모듈을 포함하며; 여기서, 제1 어텐션 서브 모듈은, 타깃 스킬 테마 분포 벡터 및 테마 예측 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하여, 가중 변환 후의 제1 벡터 시퀀스를 획득하고; 제2 어텐션 서브 모듈은, 타깃 스킬 테마 분포 벡터 및 문서 생성 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하여, 가중 변환 후의 제2 벡터 시퀀스를 획득하며; 테마 예측 서브 모듈은, 타깃 스킬 테마 분포 벡터 및 제1 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하고; 문서 생성 서브 모듈은, 현재 문장의 스킬 테마 태그 및 제2 벡터 시퀀스에 따라, 타깃 채용 부문 설명 문서 중의 현재 단어를 예측한다.
구체적으로, 어텐션 모듈(402)은 제1 어텐션 서브 모듈(4021) 및 제2 어텐션 서브 모듈(4022)에 의해 구성될 수 있고, 디코더 모듈(403)은 테마 예측 서브 모듈(4031) 및 문서 생성 서브 모듈(4032)에 의해 구성될 수 있다. 제1 어텐션 서브 모듈(4021)은 제1 테마 분포 특징 산출 서브 모듈(3035)의 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00043
를 획득하고, 테마 예측 서브 모듈(4031) 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스
Figure 112021036687513-pat00044
에 대해 가중 변환을 진행하여, 가중 변환 후의 제1 벡터 시퀀스를 획득한다. 여기서, 테마 예측 서브 모듈(4031) 중의 은닉층 특징 상태 벡터는
Figure 112021036687513-pat00045
로 나타낼 수 있고, 제1 벡터 시퀀스는
Figure 112021036687513-pat00046
로 나타낼 수 있다. 제2 어텐션 서브 모듈(4022)은 제1 테마 분포 특징 산출 서브 모듈(3035)의 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00047
를 획득하고, 문서 생성 서브 모듈(4032) 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스
Figure 112021036687513-pat00048
에 대해 가중 변환을 진행하며, 가중 변환 후의 제2 벡터 시퀀스를 획득한다. 여기서, 문서 생성 서브 모듈(4032) 중의 은닉층 특징 상태 벡터는
Figure 112021036687513-pat00049
로 나타낼 수 있고, 제2 벡터 시퀀스는
Figure 112021036687513-pat00050
로 나타낼 수 있다.
테마 예측 서브 모듈(4031)은 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00051
및 제1 벡터 시퀀스
Figure 112021036687513-pat00052
에 따라, 현재 문장의 스킬 테마 태그
Figure 112021036687513-pat00053
를 예측한다. 문서 생성 서브 모듈(4032)은 테마 예측 서브 모듈(4031)이 출력한 현재 문장의 스킬 테마 태그
Figure 112021036687513-pat00054
및 제2 벡터 시퀀스
Figure 112021036687513-pat00055
를 획득하고, 타깃 채용 부문 설명 문서 중의 현재 단어
Figure 112021036687513-pat00056
를 예측한다. 예를 들면, 아래와 같은 공식을 사용하여 스킬 테마 태그 및 타깃 채용 부문 설명 문서의 현재 단어를 예측한다.
Figure 112021036687513-pat00057
Figure 112021036687513-pat00058
여기서,
Figure 112021036687513-pat00059
는 스킬 테마 태그의 예측 확률을 나타내고,
Figure 112021036687513-pat00060
는 타깃 채용 부문 설명 문서의 현재 단어의 예측 확률을 나타내며,
Figure 112021036687513-pat00061
,
Figure 112021036687513-pat00062
,
Figure 112021036687513-pat00063
Figure 112021036687513-pat00064
는 기설정 파라미터이다.
제1 벡터 시퀀스
Figure 112021036687513-pat00065
및 제2 벡터 시퀀스
Figure 112021036687513-pat00066
는 아래와 같은 공식에 따라 산출할 수 있다.
Figure 112021036687513-pat00067
Figure 112021036687513-pat00068
여기서,
Figure 112021036687513-pat00069
은 타깃 채용 부문 설명 문서의 문장 수량을 의미하고,
Figure 112021036687513-pat00070
는 j 번째 문장 중 단어의 수량을 의미하며,
Figure 112021036687513-pat00071
는 첫 번째 문장 중 단어의 의미 특성화 벡터를 의미하고,
Figure 112021036687513-pat00072
Figure 112021036687513-pat00073
는 어텐션 메커니즘 중의 중간 변수를 산출하며, 아래와 같은 공식에 따라 산출한다.
Figure 112021036687513-pat00074
Figure 112021036687513-pat00075
여기서,
Figure 112021036687513-pat00076
,
Figure 112021036687513-pat00077
,
Figure 112021036687513-pat00078
Figure 112021036687513-pat00079
는 모두 네트워크 중간층 벡터이다.
Figure 112021036687513-pat00080
Figure 112021036687513-pat00081
의 산출 공식은 아래와 같다.
Figure 112021036687513-pat00082
Figure 112021036687513-pat00083
여기서,
Figure 112021036687513-pat00084
,
Figure 112021036687513-pat00085
,
Figure 112021036687513-pat00086
,
Figure 112021036687513-pat00087
,
Figure 112021036687513-pat00088
Figure 112021036687513-pat00089
는 기설정 파라미터이다.
Figure 112021036687513-pat00090
Figure 112021036687513-pat00091
는 각각 상기의
Figure 112021036687513-pat00092
Figure 112021036687513-pat00093
의 산출 방법과 유사하고,
Figure 112021036687513-pat00094
공식 중의 l을 P로 대체하는 즉 산출 공식은
Figure 112021036687513-pat00095
이며,
Figure 112021036687513-pat00096
중의 l을 P로 대체하는 즉 산출 공식은
Figure 112021036687513-pat00097
이다. P와 l은 누적 함수 중의 독립 변수이고, [1,N]에서 값을 가진다.
테마 태그
Figure 112021036687513-pat00098
에 대해, 아래와 같은 공식을 사용한다.
Figure 112021036687513-pat00099
여기서,
Figure 112021036687513-pat00100
은 직전 문장의 j-1 번째 문장의 테마 태그를 나타내고,
Figure 112021036687513-pat00101
은 타깃 채용 부문 설명 문서 중 j-1 번째 문장 중 단어의 수량을 나타내며,
Figure 112021036687513-pat00102
는 테마 수량을 나타내고,
Figure 112021036687513-pat00103
는 제1 스킬 테마 단어 분포 파라미터
Figure 112021036687513-pat00104
에 의한 직전 문장의 벡터 표현이다.
어텐션 모듈(402) 및 디코더 모듈(403)에 대한 구획을 통해, 스킬 테마 태그 및 설명 문서 중의 현재 단어의 결정을 완료하고, 산출 정확도를 향상시키며, 타깃 채용 부문 설명 문서의 자동 생성을 구현하고, 인건비를 감소하며, 채용 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 테마 예측 서브 모듈은, 문서 생성 서브 모듈 중 직전 문장의 순환 신경망을 예측하는 은닉층 특징 상태 벡터, 직전 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터, 및 타깃 스킬 테마 분포 벡터에 따라, 제1 시퀀스 특징 벡터를 획득하는 제2 순환 신경망 서브 모듈; 및 제1 시퀀스 특징 벡터 및 제1 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하는 테마 생성 서브 모듈을 포함한다.
구체적으로, 테마 예측 서브 모듈(4031)은 제2 순환 신경망 서브 모듈(40311) 및 테마 생성 서브 모듈(40312)에 의해 구성될 수 있다. 제2 순환 신경망 서브 모듈(40311)은 문서 생성 서브 모듈(4032) 중 직전 문장의 순환 신경망을 예측하는 은닉층 특징 상태 벡터, 직전 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터, 및 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00105
를 획득하여, 제1 시퀀스 특징 벡터를 산출하여 획득한다. 여기서, 직전 문장의 순환 신경망의 은닉층 특징 상태 벡터는
Figure 112021036687513-pat00106
로 나타낼 수 있고, 직전 문장의 스킬 테마 태그는
Figure 112021036687513-pat00107
로 나타낼 수 있으며, 직전 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터는
Figure 112021036687513-pat00108
로 나타낼 수 있고, 제1 시퀀스 특징 벡터는
Figure 112021036687513-pat00109
로 나타낼 수 있다. 예를 들면, LSTM(Long Short-Term Memory, 장단기 메모리)을 사용하여 산출할 수 있고, 공식은 아래와 같다.
Figure 112021036687513-pat00110
Figure 112021036687513-pat00111
여기서,
Figure 112021036687513-pat00112
은 직전 문장의 제1 시퀀스 특징 벡터를 나타내고,
Figure 112021036687513-pat00113
는 현재 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터를 나타내며,
Figure 112021036687513-pat00114
는 현재 문장의 스킬 테마 태그를 나타내고,
Figure 112021036687513-pat00115
는 기설정 파라미터를 나타낸다.
테마 생성 서브 모듈(40312)은 제2 순환 신경망 서브 모듈(40311)의 제1 시퀀스 특징 벡터
Figure 112021036687513-pat00116
를 획득하고, 제1 어텐션 서브 모듈(4021)의 제1 벡터 시퀀스
Figure 112021036687513-pat00117
에 따라, 현재 문장의 스킬 테마 태그
Figure 112021036687513-pat00118
를 예측한다. 제1 시퀀스 특징 벡터
Figure 112021036687513-pat00119
의 산출을 통해, 현재 문장의 스킬 테마 태그의 예측 정확도를 향상시키고, 타깃 채용 부문 설명 문서의 생성에 용이하다.
본 실시예에서, 선택 가능하게, 문서 생성 서브 모듈은, 제1 시퀀스 특징 벡터 및 예측된 직전 단어의 단어 임베이딩 특성화 벡터에 따라, 제2 시퀀스 특징 벡터를 획득하는 제3 순환 신경망 서브 모듈; 제2 벡터 시퀀스 및 제2 시퀀스 특징 벡터에 따라, 사전 생성 단어 확률 벡터를 획득하는 중간 처리 서브 모듈; 및 제1 스킬 테마 단어 분포 파라미터에 기반하여 사전 생성 단어 확률 벡터를 처리하여, 예측된 타깃 채용 부문 설명 문서 중의 현재 단어를 획득하는 복제 메커니즘 서브 모듈을 포함한다.
구체적으로, 문서 생성 서브 모듈(4032)은 제3 순환 신경망 서브 모듈(40321), 중간 처리 서브 모듈(40322) 및 복제 메커니즘 서브 모듈(40323)에 의해 구성될 수 있다. 제3 순환 신경망 서브 모듈(40321)은 제1 시퀀스 특징 벡터
Figure 112021036687513-pat00120
및 예측된 직전 단어의 단어 임베이딩 특성화 벡터를 획득하여, 제2 시퀀스 특징 벡터를 획득한다. 여기서, 예측된 직전 단어의 단어 임베이딩 특성화 벡터는
Figure 112021036687513-pat00121
로 나타낼 수 있고, 제2 시퀀스 특징 벡터는
Figure 112021036687513-pat00122
로 나타낼 수 있다. 예를 들면, LSTM을 사용하여 산출할 수 있고, 공식은 아래와 같다.
Figure 112021036687513-pat00123
Figure 112021036687513-pat00124
여기서,
Figure 112021036687513-pat00125
은 직전 단어의 제2 시퀀스 특징 벡터를 나타내고,
Figure 112021036687513-pat00126
는 현재 단어의 단어 임베이딩 특성화 벡터를 나타내며,
Figure 112021036687513-pat00127
는 사전 생성 단어 확률 벡터를 나타내고,
Figure 112021036687513-pat00128
는 기설정 파라미터를 나타낸다.
중간 처리 서브 모듈(40322)은 제2 벡터 시퀀스
Figure 112021036687513-pat00129
및 제2 시퀀스 특징 벡터
Figure 112021036687513-pat00130
에 따라, 사전 생성 단어 확률 벡터를 획득하고, 사전 생성 단어 확률 벡터는
Figure 112021036687513-pat00131
로 나타낼 수 있다. 복제 메커니즘 서브 모듈(40323)은 제1 스킬 테마 단어 분포 파라미터에 기반하여, 사전 생성 단어 확률 벡터를 처리하여, 예측된 타깃 채용 부문 설명 문서 중의 현재 단어
Figure 112021036687513-pat00132
를 획득한다. 제1 스킬 테마 단어 분포 파라미터는 미리 설정할 수 있고,
Figure 112021036687513-pat00133
로 나타낼 수 있다. 문서 생성 서브 모듈(4032)을 3개의 서브 모듈로 구획하여, 타깃 채용 부문의 설명 문서 자동 생성을 구현하고, 설명 문서와 타깃 부문의 매칭 정확도를 향상시키며, 나아가 설명 문서의 생성 효율을 향상시킨다.
상기 발명 중의 일 실시예는 아래와 같은 장점 또는 유익한 효과가 있다. 설명 문서 생성 서브 모델을 인코더 모듈, 어텐션 모듈 및 디코더 모듈로 구획하여, 타깃 채용 부문 설명 문서의 자동 생성을 구현한다. 기존 기술에서 인적 자원 직원이 수동으로 부문 정보를 추출하는 것을 해결하였고, 수동적인 주관성을 감소하며, 채용 부문 설명 문서의 생성 시간 및 비용을 줄이고, 인적 자원 직원이 다른 부문의 전문적 스킬에 대해 영역 상의 갭이 있어 오차가 발생하는 것을 피하며, 채용 부문과 채용 인원을 정확하게 매칭하여 채용 효율을 향상시킨다.
도 5는 본 발명의 실시예에 따른 심층 신경망 모델의 트레이닝 방법의 흐름 모식도이고, 상기 실시예를 기반으로 더 최적화하며, 심층 신경망을 트레이닝하여, 채용 부문 설명 문서를 생성하는 경우에 사용되고, 상기 방법은 심층 신경망 모델의 트레이닝 장치에 의해 수행될 수 있으며, 상기 장치는 소프트웨터 및/또는 하드웨어의 형태를 사용하여 구현할 수 있고, 컴퓨팅 스킬을 가진 전자 기기에 통합될 수 있다. 도 5에 도시된 바와 같이, 본 실시예가 제공한 심층 신경망 모델의 트레이닝 방법은 아래와 같은 단계를 포함한다.
단계(S510)에서, 제1 트레이닝 샘플 데이터를 획득하되; 제1 트레이닝 샘플 데이터는, 제1 샘플 부문의 제1 샘플 관련 문서 및 제1 샘플 부문에 대응되는 제1 표준 채용 부문 설명 문서를 포함하고; 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득한다.
여기서, 적어도 두 가지의 트레이닝 샘플 데이터를 수집하고, 제1 트레이닝 샘플 데이터 및 제2 트레이닝 샘플 데이터로 나뉠 수 있다. 제1 트레이닝 샘플 데이터 중 제1 샘플 부문의 제1 샘플 관련 문서 및 제1 샘플 부문에 대응되는 제1 표준 채용 부문 설명 문서를 포함할 수 있고, 제1 샘플 관련 문서는 제1 샘플 부문의 부문 요구에 부합된다고 결정된 인원의 이력서 문서, 부문 직책 데이터를 포함하는 문서, 및 부문에 관한 프로젝트 데이터를 포함하는 문서 중의 적어도 하나를 포함할 수 있으며, 제1 표준 채용 부문 설명 문서는 이미 편집된 제1 샘플 부문에 대응되는 표준 채용 부문 설명 문서이다.
도 6은 심층 신경망 모델의 구조 모식도이고, 여기서, 문서 테마 예측 서브 모델(610) 및 설명 문서 생성 서브 모델(620)은 미리 구성된 것이다. 제1 트레이닝 샘플 데이터를 통해, 문서 테마 예측 서브 모델(610)에 대해 초보적 트레이닝을 진행하고, 제1 표준 채용 부문 설명 문서에 따라 제1 샘플 관련 문서의 트레이닝 결과를 수정하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델(610)을 획득한다.
본 실시예에서, 선택 가능하게, 문서 테마 예측 서브 모델은 전술한 실시예의 기초에서, 스킬 테마 벡터 분포 파라미터에 따라, 오리지널 스킬 테마 분포 벡터를 획득하는 제2 테마 분포 결정 모듈; 제2 스킬 테마 단어 분포 파라미터 및 오리지널 스킬 테마 분포 벡터에 따라, 재구성된 관련 오리지널 문서의 예측 단어집 특성화 데이터를 생성하는 제1 문서 재구성 서브 모듈; 및 제1 스킬 테마 단어 분포 파라미터 및 타깃 스킬 테마 분포 벡터에 따라, 재구성된 표준 채용 부문 설명 문서의 예측 단어집 특성화 데이터를 생성하는 제2 문서 재구성 서브 모듈을 더 포함한다.
구체적으로, 문서 테마 예측 서브 모델(610)은 단어집 특징 추출 모듈(601), 분포 파라미터 산출 모듈(602), 제1 테마 분포 결정 모듈(603), 제2 테마 분포 결정 모듈(604), 제1 문서 재구성 서브 모듈(605) 및 제2 문서 재구성 서브 모듈(606)에 의해 구성될 수 있다. 제2 테마 분포 결정 모듈(604)은 분포 파라미터 산출 모듈(602)의 스킬 테마 벡터 분포 파라미터
Figure 112021036687513-pat00134
Figure 112021036687513-pat00135
를 수신하여, 오리지널 스킬 테마 분포 벡터를 산출하여 획득하고, 오리지널 스킬 테마 분포 벡터는
Figure 112021036687513-pat00136
로 나타낼 수 있다.
제2 테마 분포 결정 모듈(604)은 제2 테마 벡터 샘플링 서브 모듈(6041), 제3 완전 접속망 서브 모듈(6042) 및 제2 테마 분포 특징 산출 서브 모듈(6043)을 포함할 수 있다. 제2 테마 벡터 샘플링 서브 모듈(6041)은 제1 스킬 테마 벡터 분포 서브 파라미터 및 제2 스킬 테마 벡터 분포 서브 파라미터에서, 제2 스킬 테마 벡터를 획득한다.
Figure 112021036687513-pat00137
Figure 112021036687513-pat00138
에 따라, 제2 스킬 테마 벡터를 산출하여 획득할 수 있고, 제2 스킬 테마 벡터는
Figure 112021036687513-pat00139
로 나타낼 수 있다. 제3 완전 접속망 서브 모듈(6042)은 제2 스킬 테마 벡터에 대해 특징 추출을 진행하여, 제2 테마 특징 벡터를 획득한다. 예를 들면, 샘플링하여 획득할 수 있는 테마 벡터는
Figure 112021036687513-pat00140
이다. 제3 완전 접속망 서브 모듈(6042)은 한층 또는 다층의 완전 접속망을 포함할 수 있다.
Figure 112021036687513-pat00141
로 제3 완전 접속망 서브 모듈(6042) 중의 완전 접속망을 나타낼 수 있다.
제2 테마 분포 특징 산출 서브 모듈(6043)은 제3 완전 접속망 서브 모듈(6042)의 제2 테마 특징 벡터를 수신하고, 기설정된 제2 활성화 함수에 따라, 오리지널 스킬 테마 분포 벡터를 획득한다. 제2 활성화 함수는
Figure 112021036687513-pat00142
로 나타낼 수 있고, 오리지널 스킬 테마 분포 벡터는
Figure 112021036687513-pat00143
로 나타낼 수 있으며, 여기서,
Figure 112021036687513-pat00144
이다.
제1 문서 재구성 서브 모듈(605)은 오리지널 스킬 테마 분포 벡터
Figure 112021036687513-pat00145
를 획득하고, 미리 설정한 제2 스킬 테마 단어 분포 파라미터에 따라, 재구성된 관련 오리지널 문서의 예측 단어집 특성화 데이터를 획득하며, 제2 스킬 테마 단어 분포 파라미터는
Figure 112021036687513-pat00146
로 나타낼 수 있다. 제1 문서 재구성 서브 모듈(605)의 단어집 특성화 데이터의 예측 확률은 아래와 같은 공식에 따라 산출한다.
Figure 112021036687513-pat00147
여기서,
Figure 112021036687513-pat00148
는 관련 오리지널 문서의 단어집 특성화 데이터 예측 확률을 나타낸다.
제2 문서 재구성 서브 모듈(606)은 제1 스킬 테마 단어 분포 파라미터 및 타깃 스킬 테마 분포 벡터
Figure 112021036687513-pat00149
에 따라, 재구성된 표준 채용 부문 설명 문서의 예측 단어집 특성화 데이터를 획득하고, 제1 스킬 테마 단어 분포 파라미터는
Figure 112021036687513-pat00150
로 나타낼 수 있다. 제2 문서 재구성 서브 모듈(606)의 단어집 특성화 데이터의 예측 확률은 아래와 같은 공식에 따라 산출한다.
Figure 112021036687513-pat00151
여기서,
Figure 112021036687513-pat00152
는 표준 채용 부문 설명 문서의 단어집 특성화 데이터의 예측 확률을 나타내고,
Figure 112021036687513-pat00153
는 단어집 특징을 선택한 후의 j 번째 문장 중 단어의 수량을 나타내며,
Figure 112021036687513-pat00154
는 제1 스킬 테마 단어 분포 파라미터
Figure 112021036687513-pat00155
에 의한 현재 문장의 벡터 표현을 나타낸다.
문서 테마 예측 서브 모델(610)을 제2 테마 분포 결정 모듈(604), 제1 문서 재구성 서브 모듈(605) 및 제2 문서 재구성 서브 모듈(606)로 구획하여, 문서 테마 예측 서브 모델(610)에 대한 정확한 트레이닝을 구현하고, 문서 테마 예측의 정확도를 향상시키며, 나아가 타깃 부문 채용 문서의 생성 효율을 향상시킨다.
본 실시예에서, 선택 가능하게, 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계는, 제1 샘플 관련 문서를 미리 구성된 문서 테마 예측 서브 모델에 입력하는 단계; 제1 차이 정보 및 제2 차이 정보에 따라, 신경 변분법을 사용하여 제1 손실 함수값을 산출하는 단계 - 제1 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와, 단어집 특징 추출 모듈이 출력한 제1 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이 정보이며, 제2 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제1 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 - ; 및 산출된 제1 손실 함수값에 따라, 미리 구성된 문서 테마 예측 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함한다.
구체적으로, 제1 샘플 관련 문서를 미리 구성된 문서 테마 예측 서브 모델(610)에 입력하고, 단어집 특징 추출 모듈(601)이 제1 샘플 관련 문서의 단어집 특성화 데이터
Figure 112021036687513-pat00156
를 출력하며, 제1 문서 재구성 서브 모듈(605)이 제1 예측 단어집 특성화 데이터
Figure 112021036687513-pat00157
를 출력하고,
Figure 112021036687513-pat00158
Figure 112021036687513-pat00159
사이의 차이 정보를 제1 차이 정보로 한다. 제2 문서 재구성 서브 모듈(606)이 제2 예측 단어집 특성화 데이터를 출력하고, 제2 예측 단어집 특성화 데이터와 제1 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보를 제2 차이 정보로 한다. 제1 차이 정보 및 제2 차이 정보를 획득한 후, 신경 변분법을 사용하여 제1 손실 함수값을 산출하고, 제1 손실 함수값에 따라 문서 테마 예측 서브 모델(610) 중의 네트워크 파라미터를 반복 횟수 임계값 또는 손실 함수값 수렴에 도달할 때까지 조절하여, 문서 테마 예측 서브 모델(610)이 출력한 단어집 특성화 데이터를 제1 표준 채용 부문 설명 문서의 단어집 특성화 데이터의 요구에 도달하도록 한다.
제1 손실 함수값의 산출 공식은 아래와 같다.
Figure 112021036687513-pat00160
여기서,
Figure 112021036687513-pat00161
은 Kullback-Leiblerdivergence 거리(상대 엔트로피 거리)를 나타내고,
Figure 112021036687513-pat00162
는 제2 스킬 테마 단어 분포 파라미터
Figure 112021036687513-pat00163
에 의한 현재 문장 즉 k 번째 단어의 벡터 표현을 나타내며,
Figure 112021036687513-pat00164
는 제1 스킬 테마 단어 분포 파라미터
Figure 112021036687513-pat00165
에 의한 j 번째 벡터 표현을 나타내고,
Figure 112021036687513-pat00166
Figure 112021036687513-pat00167
는 데이터 진실 확률 분포를 나타내며,
Figure 112021036687513-pat00168
Figure 112021036687513-pat00169
는 신경 변분과 유사한 추정 확률 분포 함수를 나타낸다.
차이 정보 및 제1 손실 함수값의 산출을 통해, 문서 테마 예측 서브 모델(610)에 대한 초보적 트레이닝을 완료하여, 문서 테마 예측의 정확도를 구현한다.
단계(S520)에서, 제2 트레이닝 샘플 데이터를 획득하되; 제2 트레이닝 샘플 데이터는, 제2 샘플 부문의 제2 샘플 관련 문서 및 제2 샘플 부문에 대응되는 제2 표준 채용 부문 설명 문서를 포함한다.
여기서, 초보적으로 트레이닝된 문서 테마 예측 서브 모델(610)을 획득한 후, 수집한 제2 트레이닝 샘플 데이터를 획득한다. 제2 샘플 관련 문서는 제2 샘플 부문의 부문 요구에 부합된다고 결정된 인원의 이력서 문서, 부문 직책 데이터를 포함하는 문서, 및 부문에 관한 프로젝트 데이터를 포함하는 문서 중의 적어도 하나를 포함하고, 제2 표준 채용 부문 설명 문서는 이미 편집된 제2 샘플 부문에 대응되는 표준 채용 부문 설명 문서이다.
단계(S530)에서, 제2 트레이닝 샘플 데이터를 사용하고, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득한다.
여기서, 제2 트레이닝 샘플 데이터를 통해, 초보적으로 트레이닝된 문서 테마 예측 서브 모델(610) 및 미리 구성된 설명 문서 생성 서브 모델(620)에 대해 트레이닝을 진행하고, 제2 표준 채용 부문 설명 문서에 따라 심층 신경망 모델의 출력 결과를 수정하여, 트레이닝된 심층 신경망 모델를 획득한다.
본 실시예에서, 선택 가능하게, 제2 트레이닝 샘플 데이터를 사용하고, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계는, 제2 샘플 관련 문서를 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 입력하는 단계; 제3 차이 정보 및 제4 차이 정보에 따라 제2 손실 함수값을 산출하는 단계 - 제3 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와, 단어집 특징 추출 모듈이 출력한 제2 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이이며, 제4 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제2 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 - ; 제5 차이 정보에 따라 제3 손실 함수값을 산출하는 단계 - 제5 차이 정보는 제2 표준 채용 부문 설명 문서와 설명 문서 생성 서브 모델이 출력한 문서 사이의 차이 정보임 - ; 및 산출된 제2 손실 함수값 및 제3 손실 함수값에 따라 전체 손실 함수값을 결정하고, 상기 전체 손실 함수값에 따라 문서 테마 예측 서브 모델 및 설명 문서 생성 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 전체 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함한다.
구체적으로, 초보적으로 트레이닝된 문서 테마 예측 서브 모델(610)을 획득한 후, 제2 샘플 관련 문서를 문서 테마 예측 서브 모델(610) 및 설명 문서 생성 서브 모델(620)에 입력한다. 문서 테마 예측 서브 모델(610) 중의 제1 문서 재구성 서브 모듈(605)이 제1 예측 단어집 특성화 데이터를 출력하고, 문서 테마 예측 서브 모델(610) 중의 단어집 특징 추출 모듈(601)이 제2 샘플 관련 문서의 단어집 특성화 데이터를 출력하며, 제1 예측 단어집 특성화 데이터와 제2 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이 정보를 제3 차이 정보로 한다. 제2 문서 재구성 서브 모듈(606)이 제2 예측 단어집 특성화 데이터를 출력하고, 제2 예측 단어집 특성화 데이터와 제2 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보를 제4 차이 정보로 한다. 제3 차이 정보 및 제4 차이 정보를 획득한 후, 신경 변분법을 사용하여 제2 손실 함수값을 산출할 수 있다.
설명 문서 생성 서브 모델(620)이 설명 문서를 출력하고, 제2 표준 채용 부문 설명 문서와 출력된 설명 문서 사이의 차이 정보를 제5 차이 정보로 하며, 제5 차이 정보에 따라 제3 손실 함수값을 산출한다. 산출된 제2 손실 함수값, 제3 손실 함수값 및 대응되는 가중치에 따라, 전체 손실 함수값을 결정한다. 상기 전체 손실 함수값에 따라 문서 테마 예측 서브 모델 및 상기 설명 문서 생성 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 전체 손실 함수값 수렴에 도달할 때까지 조절하여, 심층 신경망 모델(600)이 요구를 만족하는 채용 부문 설명 문서를 출력할 수 있도록 한다. 문서 테마 예측 서브 모델(610) 및 설명 문서 생성 서브 모델(620)에 대해 전체 손실 함수의 산출을 진행하여, 심층 신경망 모델(600)의 설명 문서 생성 정확도를 향상시키고, 주관성과 영역 차이로 인한 정확하지 않은 설명 문서를 피하며, 설명 문서의 생성 효율을 향상시킨다.
도 7은 본 발명의 실시예에 따른 심층 신경망 모델구조 모식도이고, 심층 신경망 모델(700)은 문서 테마 예측 서브 모델(710) 및 설명 문서 생성 서브 모델(720)을 포함한다.
문서 테마 예측 서브 모델(710)은 단어집 특징 추출 모듈(701), 분포 파라미터 산출 모듈(702) 및 제1 테마 분포 결정 모듈(703), 제2 테마 분포 결정 모듈(704), 제1 문서 재구성 서브 모듈(705) 및 제2 문서 재구성 서브 모듈(706)을 포함한다. 단어집 특징 추출 모듈(701)은 단어집 생성 서브 모듈(7011) 및 제1 완전 접속망 서브 모듈(7012)을 포함하고, 분포 파라미터 산출 모듈(702)은 제1 파라미터 산출 서브 모듈(7021) 및 제2 파라미터 산출 서브 모듈(7022)을 포함하며, 제1 테마 분포 결정 모듈(703)은 제3 파라미터 산출 서브 모듈(7031), 제4 파라미터 산출 서브 모듈(7032), 제1 테마 벡터 샘플링 서브 모듈(7033), 제2 완전 접속망 서브 모듈(7034) 및 제1 테마 분포 특징 산출 서브 모듈(7035)을 포함하고, 제2 테마 분포 결정 모듈(704)은 제2 테마 벡터 샘플링 서브 모듈(7041), 제3 완전 접속망 서브 모듈(7042) 및 제2 테마 분포 특징 산출 서브 모듈(7043)을 포함한다. 여기서,
Figure 112021036687513-pat00170
는 재구성된 표준 채용 부문 설명 문서의 예측 단어집 특성화 데이터를 나타낸다.
설명 문서 생성 서브 모델(720)은 인코더 모듈(707), 어텐션 모듈(708) 및 디코더 모듈(709)을 포함한다. 인코더 모듈(707)은 단어 벡터 생성 서브 모듈(7071) 및 제1 순환 신경망 서브 모듈(7072)을 포함하며, 어텐션 모듈(708)은 제1 어텐션 서브 모듈(7081) 및 제2 어텐션 서브 모듈(7082)을 포함하고, 디코더 모듈(709)은 테마 예측 서브 모듈(7091) 및 문서 생성 서브 모듈(7092)을 포함한다. 테마 예측 서브 모듈(7091)은 제2 순환 신경망 서브 모듈(70911) 및 테마 생성 서브 모듈(70912)을 포함하고, 문서 생성 서브 모듈(7092)은 제3 순환 신경망 서브 모듈(70921), 중간 처리 서브 모듈(70922) 및 복제 메커니즘 서브 모듈(70923)을 포함한다. 여기서,
Figure 112021036687513-pat00171
는 관련 오리지널 문서 또는 샘플 관련 문서 중의 k 번째 단어를 나타낸다.
상기 발명 중의 일 실시예는 아래와 같은 장점 또는 유익한 효과가 있다. 제1 트레이닝 샘플 데이터의 획득을 통해, 문서 테마 예측 서브 모델에 대한 초보적 트레이닝을 구현하고; 제2 트레이닝 샘플 데이터의 획득을 통해, 심층 신경망 모델의 일부 트레이닝을 완료하여, 심층 신경망 모델이 출력한 설명 문서가 표준 문서의 요구에 부합되도록 하며, 설명 문서의 정확도를 향상시키고, 나아가 타깃 부문 설명 문서의 출력 효율을 향상시킨다.
도 8은 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 장치의 구조 모식도이고, 본 발명의 실시예가 제공한 채용 부문 설명 문서 생성 방법을 수행할 수 있으며, 방법을 수행하는 상응한 기능 모듈 및 유익한 효과를 구비한다. 도 8에 도시된 바와 같이, 상기 장치(800)는 아래와 같은 모듈을 포함할 수 있다.
오리지널 문서 획득 모듈(801): 타깃 부문의 관련 오리지널 문서를 획득한다.
설명 문서 생성 모듈(802): 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성한다.
선택 가능하게, 관련 오리지널 문서는, 부문 요구에 부합된다고 결정된 인원의 이력서 문서, 부문 직책 데이터를 포함하는 문서, 및 부문에 관한 프로젝트 데이터를 포함하는 문서 중의 적어도 하나를 포함한다.
선택 가능하게, 심층 신경망 모델은, 관련 오리지널 문서에 따라, 타깃 스킬 테마 분포 벡터를 예측하는 문서 테마 예측 서브 모델; 및 타깃 스킬 테마 분포 벡터에 따라, 타깃 부문의 타깃 채용 부문 설명 문서를 생성하는 설명 문서 생성 서브 모델을 포함.
선택 가능하게, 문서 테마 예측 서브 모델은, 관련 오리지널 문서의 단어집 특징 벡터를 추출하도록 하는 단어집 특징 추출 모듈; 단어집 특징 벡터 및 비선형 네트워크층에 따라, 스킬 테마 벡터 분포 파라미터를 산출하도록 하는 분포 파라미터 산출 모듈; 스킬 테마 벡터 분포 파라미터 및 기설정 테마 분포 가설 파라미터에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 결정 모듈을 포함한다.
선택 가능하게, 단어집 특징 추출 모듈은, 관련 오리지널 문서의 단어집 특성화 데이터를 생성하는 단어집 생성 서브 모듈; 및 단어집 특성화 데이터에 대해 특징 추출을 진행하여, 단어집 특징 벡터를 획득하는 제1 완전 접속망 서브 모듈을 포함한다.
선택 가능하게, 분포 파라미터 산출 모듈은, 단어집 특징 벡터 및 제1 비선형 네트워크층에 따라, 제1 스킬 테마 벡터 분포 서브 파라미터를 산출하도록 하는 제1 파라미터 산출 서브 모듈; 및 단어집 특징 벡터 및 제2 비선형 네트워크층에 따라, 제2 스킬 테마 벡터 분포 서브 파라미터를 산출하도록 하는 제2 파라미터 산출 서브 모듈을 포함한다.
선택 가능하게, 제1 테마 분포 결정 모듈은, 제1 스킬 테마 벡터 분포 서브 파라미터 및 제1 기설정 테마 분포 가설 서브 파라미터에 따라, 제3 스킬 테마 벡터 분포 파라미터를 산출하도록 하는 제3 파라미터 산출 서브 모듈; 제2 스킬 테마 벡터 분포 서브 파라미터 및 제2 기설정 테마 분포 가설 서브 파라미터에 따라, 제4 스킬 테마 벡터 분포 파라미터를 산출하도록 하는 제4 파라미터 산출 서브 모듈; 제3 스킬 테마 벡터 분포 파라미터 및 제4 스킬 테마 벡터 분포 파라미터에 따라, 제1 스킬 테마 벡터를 획득하는 제1 테마 벡터 샘플링 서브 모듈; 제1 스킬 테마 벡터에 대해 특징 추출을 진행하여, 제1 테마 특징 벡터를 획득하는 제2 완전 접속망 서브 모듈; 및 제1 테마 특징 벡터 및 제1 활성화 함수에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 특징 산출 서브 모듈을 포함한다.
선택 가능하게, 설명 문서 생성 서브 모델은, 관련 오리지널 문서 중 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 인코더 모듈; 타깃 스킬 테마 분포 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하도록 하는 어텐션 모듈; 및 가중 변환 후의 의미 특성화 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하고, 스킬 테마 태그에 따라 타깃 채용 부문 설명 문서의 현재 단어를 예측하는 디코더 모듈을 포함한다.
선택 가능하게, 인코더 모듈은, 관련 오리지널 문서 중 현재 문장에 포함되는 각 단어의 단어 벡터를 생성하는 단어 벡터 생성 서브 모듈; 및 각 단어 벡터에 따라 상기 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 제1 순환 신경망 서브 모듈을 포함한다.
선택 가능하게, 어텐션 모듈은 제1 어텐션 서브 모듈 및 제2 어텐션 서브 모듈을 포함하고; 디코더 모듈은 테마 예측 서브 모듈 및 문서 생성 서브 모듈을 포함한다. 여기서, 제1 어텐션 서브 모듈은, 타깃 스킬 테마 분포 벡터 및 테마 예측 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하도록, 가중 변환 후의 제1 벡터 시퀀스를 획득하고; 제2 어텐션 서브 모듈은, 타깃 스킬 테마 분포 벡터 및 문서 생성 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하도록, 가중 변환 후의 제2 벡터 시퀀스를 획득하며; 테마 예측 서브 모듈은 타깃 스킬 테마 분포 벡터 및 제1 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하고; 문서 생성 서브 모듈은 현재 문장의 스킬 테마 태그 및 제2 벡터 시퀀스에 따라, 타깃 채용 부문 설명 문서 중의 현재 단어를 예측한다.
선택 가능하게, 테마 예측 서브 모듈은, 문서 생성 서브 모듈 중 직전 문장의 순환 신경망을 예측하는 은닉층 특징 상태 벡터에 따라, 직전 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터, 및 타깃 스킬 테마 분포 벡터, 제1 시퀀스 특징 벡터를 획득하는 제2 순환 신경망 서브 모듈; 및 제1 시퀀스 특징 벡터 및 제1 벡터 시퀀스에 따라, 현재 문장의 스킬 테마 태그를 예측하는 테마 생성 서브 모듈을 포함한다.
선택 가능하게, 문서 생성 서브 모듈은, 제1 시퀀스 특징 벡터 및 예측된 직전 단어의 단어 임베이딩 특성화 벡터에 따라, 제2 시퀀스 특징 벡터를 획득하는 제3 순환 신경망 서브 모듈; 제2 벡터 시퀀스 및 제2 시퀀스 특징 벡터에 따라, 사전 생성 단어 확률 벡터를 획득하는 중간 처리 서브 모듈; 및 제1 스킬 테마 단어 분포 파라미터에 기반하여 사전 생성 단어 확률 벡터를 처리하여, 예측된 타깃 채용 부문 설명 문서 중의 현재 단어를 획득하는 복제 메커니즘 서브 모듈을 포함한다.
선택 가능하게, 심층 신경망 모델의 트레이닝 과정은, 제1 트레이닝 샘플 데이터를 획득하는 단계 - 제1 트레이닝 샘플 데이터는, 제1 샘플 부문의 제1 샘플 관련 문서 및 제1 샘플 부문에 대응되는 제1 표준 채용 부문 설명 문서를 포함함 - ; 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계; 제2 트레이닝 샘플 데이터를 획득하는 단계 - 제2 트레이닝 샘플 데이터는, 제2 샘플 부문의 제2 샘플 관련 문서 및 제2 샘플 부문에 대응되는 제2 표준 채용 부문 설명 문서를 포함함 - ; 제2 트레이닝 샘플 데이터를 사용하고, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계를 포함한다.
선택 가능하게, 문서 테마 예측 서브 모델은, 스킬 테마 벡터 분포 파라미터에 따라, 오리지널 스킬 테마 분포 벡터를 획득하는 제2 테마 분포 결정 모듈; 제2 스킬 테마 단어 분포 파라미터 및 오리지널 스킬 테마 분포 벡터에 따라, 재구성된 관련 오리지널 문서의 예측 단어집 특성화 데이터를 생성하는 제1 문서 재구성 서브 모듈; 및 제1 스킬 테마 단어 분포 파라미터 및 타깃 스킬 테마 분포 벡터에 따라, 재구성된 표준 채용 부문 설명 문서의 예측 단어집 특성화 데이터를 생성하는 제2 문서 재구성 서브 모듈을 더 포함한다.
선택 가능하게, 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계는, 제1 샘플 관련 문서를 미리 구성된 문서 테마 예측 서브 모델에 입력하는 단계; 제1 차이 정보 및 제2 차이 정보에 따라, 신경 변분법을 사용하여 제1 손실 함수값을 산출하는 단계 - 제1 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와, 단어집 특징 추출 모듈이 출력한 제1 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이 정보이며, 제2 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제1 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 -; 산출된 제1 손실 함수값에 따라, 미리 구성된 문서 테마 예측 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함한다.
선택 가능하게, 제2 트레이닝 샘플 데이터를 사용하고, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계는, 제2 샘플 관련 문서를 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 입력하는 단계; 제3 차이 정보 및 제4 차이 정보에 따라 제2 손실 함수값을 산출하는 단계 - 제3 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와, 단어집 특징 추출 모듈이 출력한 제2 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이이며, 제4 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제2 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 - ; 제5 차이 정보에 따라 제3 손실 함수값을 산출하는 단계 - 제5 차이 정보는 제2 표준 채용 부문 설명 문서와 상기 설명 문서 생성 서브 모델이 출력한 문서 사이의 차이 정보임 -; 산출된 제2 손실 함수값 및 제3 손실 함수값에 따라 전체 손실 함수값을 결정하고, 상기 손실 함수값에 따라 상기 문서 테마 예측 서브 모델 및 상기 설명 문서 생성 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 전체 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함한다.
상기 발명 중의 일 실시에는 아래와 같은 장점 또는 유익한 효과가 있다. 심층 신경망 모델을 통해, 관련 오리지널 문서 중의 데이터를 자동으로 추출하여, 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 획득한다. 기존 기술에서 인적 자원 직원이 수동으로 부문 정보를 추출하는 것을 해결하였고, 수동적인 주관성을 감소하며, 채용 부문 설명 문서의 생성 시간 및 비용을 줄이고, 인적 자원 직원이 다른 부문의 전문적 스킬에 대해 영역 상의 갭이 있어 오차가 발생하는 것을 피하며, 채용 부문과 채용 인원을 정확하게 매칭하여 채용 효율을 향상시킨다.
본 발명의 실시예에 따르면, 본 발명은 전자 기기 및 판독 가능한 저장 매체를 제공한다.
도 9에 도시된 바와 같이, 본 발명의 실시예에 따른 채용 부문 설명 문서 생성 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 9에 도시된 바와 같이, 상기 전자 기기는 하나 또는 다수의 프로세서(901), 메모리(902), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재는 상이한 버스를 이용하여 서로 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령을 포함하는 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중프로세서 시스템)을 제공한다. 도 9에서 하나의 프로세서(901)를 예로 든다.
메모리(902)는 본 발명에서 제공한 비일시적 컴퓨터 판독 가능한 저장 매체이다. 여기서, 적어도 하나의 프로세서가 본 발명에서 제공된 채용 부문 설명 문서 생성 방법을 수행할 수 있도록 상기 메모리에는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장된다. 본 발명의 비일시적 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 명령이 저장되고, 상기 컴퓨터 명령은 컴퓨터가 본 발명에서 제공되는 채용 부문 설명 문서 생성 방법을 수행하도록 한다.
메모리(902)는 비일시적 컴퓨터 판독 가능한 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능한 프로그램, 및 본 발명의 실시예의 채용 부문 설명 문서 생성 방법에 대응되는 프로그램 명령/모듈과 같은 모듈을 저장할 수 있다. 프로세서(901)는 메모리(902)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하는데, 즉 상기 방법 실시예의 채용 부문 설명 문서 생성 방법을 구현한다.
메모리(902)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있고, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있으며; 데이터 저장 영역은 채용 부문 설명 문서 생성 방법의 전자 기기의 사용에 따라 구축된 데이터 등을 저장할 수 있다. 이 밖에, 메모리(902)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 메모리, 플래시 메모리, 또는 다른 비일시적 고체 상태 메모리와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(902)는 프로세서(901)에 대해 원격으로 설치된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 채용 부문 설명 문서 생성 방법의 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예로 인터넷, 인트라넷, 근거리 통신망, 이동 통신망 및 이들의 조합을 포함하지만 이에 한정되지 않는다.
채용 부문 설명 문서 생성 방법의 전자 기기는 입력 장치(903) 및 출력 장치(904)를 더 포함할 수 있다. 프로세서(901), 메모리(902), 입력 장치(903) 및 출력 장치(904)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 9에서 버스를 통해 연결되는 것을 예로 든다.
입력 장치(903)는 입력된 디지털 또는 캐릭터 정보를 수신할 수 있고, 채용 부문 설명 문서 생성 방법의 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 발생할 수 있으며, 상기 입력 장치는 예를 들어 터치 스크린, 키패드, 마우스, 트랙 패널, 터치 패널, 지시 바, 하나 또는 다수의 마우스 버튼, 트랙 볼, 조이스틱 등 입력 장치이다. 출력 장치(904)는 표시 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 표시 기기는 액정 표시 장치(LCD), 발광 다이오드(LED) 표시 장치 및 플라스마 표시 장치를 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 표시 기기는 터치 스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 본문에서 사용된 바와 같이, 용어 “기계 판독 가능한 매체” 및 “컴퓨터 판독 가능한 매체”는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 장치(PLD))를 의미하고, 기계 판독 가능한 신호인 기계 명령을 수신하는 기계 판독 가능한 매체를 포함한다. 용어 “기계 판독 가능한 신호”는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 블록체인 네트워크 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
본 발명의 실시예에 따른 기술적 해결수단은, 심층 신경망 모델을 통해, 관련 오리지널 문서 중의 데이터를 자동적으로 추출하여, 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 획득한다. 기존 기술에서 인적 자원 직원이 수동적으로 부문 정보를 추출하고, 채용 부문 설명 문서를 수동적으로 작성하는 과제를 해결하였으며, 수동적인 주관성을 감소하고, 채용 부문 설명 문서의 생성 시간 및 비용을 줄이며, 인적 자원 직원이 다른 부문의 전문적 스킬에 대해 영역 상의 갭이 있어 오차가 발생하는 것을 피하고, 처ㅣ용 부문과 채용 인원을 정확한 매칭을 구현하여 채용 부문 설명 문서의 생성 효율 및 채용 효율을 향상시킨다.
위에서 설명한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 기재된 각 단계는 동시에 수행될 수 있거나 순차적으로 수행될 수 있거나 상이한 순서로 수행될 수 있고, 본 발명에서 공개된 기술적 해결수단이 이루고자 하는 결과를 구현할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진해할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 진행한 임의의 수정, 등가적 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 속해야 한다.

Claims (21)

  1. 채용 부문 설명 문서 생성 방법으로서,
    오리지널 문서 획득 모듈에 의해 타깃 부문의 관련 오리지널 문서를 획득하는 단계; 및
    상기 관련 오리지널 문서 및 미리 트레이닝된 심층 신경망 모델에 기반하여, 설명 문서 생성 모듈에 의해 상기 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성하는 단계를 포함하고,
    상기 심층 신경망 모델은,
    상기 관련 오리지널 문서에 따라, 타깃 스킬 테마 분포 벡터를 예측하는 문서 테마 예측 서브 모델로서, 상기 타깃 스킬 테마 분포 벡터는 타깃 부문의 스킬 테마 분포 벡터이고, 상기 스킬 테마는 부문에 필요한 업무 스킬의 카테고리 명칭을 의미하는, 문서 테마 예측 서브 모델; 및
    상기 타깃 스킬 테마 분포 벡터에 따라, 상기 타깃 부문의 타깃 채용 부문 설명 문서를 생성하는 설명 문서 생성 서브 모델을 포함하고,
    상기 심층 신경망 모델의 트레이닝 과정은,
    단어집 특징 추출 모듈에 의해 제1 트레이닝 샘플 데이터를 획득하는 단계 - 제1 트레이닝 샘플 데이터는, 제1 샘플 부문의 제1 샘플 관련 문서 및 제1 샘플 부문에 대응되는 제1 표준 채용 부문 설명 문서를 포함함 - ;
    분포 파라미터 산출 모듈에 의해 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계;
    단어집 특징 추출 모듈에 의해 제2 트레이닝 샘플 데이터를 획득하는 단계 - 제2 트레이닝 샘플 데이터는, 제2 샘플 부문의 제2 샘플 관련 문서 및 제2 샘플 부문에 대응되는 제2 표준 채용 부문 설명 문서를 포함함 -; 및
    분포 파라미터 산출 모듈에 의해 제2 트레이닝 샘플 데이터를 사용하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계를 포함하는 채용 부문 설명 문서 생성 방법.
  2. 제1항에 있어서,
    상기 관련 오리지널 문서는, 부문 요구에 부합된다고 결정된 인원의 이력서 문서, 부문 직책 데이터를 포함하는 문서, 및 부문에 관한 프로젝트 데이터를 포함하는 문서 중의 적어도 하나를 포함하는 채용 부문 설명 문서 생성 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 문서 테마 예측 서브 모델은,
    상기 관련 오리지널 문서의 단어집 특징 벡터를 추출하는 단어집 특징 추출 모듈;
    상기 단어집 특징 벡터 및 비선형 네트워크층에 따라, 스킬 테마 벡터 분포 파라미터를 산출하는 분포 파라미터 산출 모듈; 및
    상기 스킬 테마 벡터 분포 파라미터 및 기설정 테마 분포 가설 파라미터에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 결정 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  5. 제4항에 있어서,
    상기 단어집 특징 추출 모듈은,
    상기 관련 오리지널 문서의 단어집 특성화 데이터를 생성하는 단어집 생성 서브 모듈; 및
    상기 단어집 특성화 데이터에 대해 특징 추출을 진행하여, 단어집 특징 벡터를 획득하는 제1 완전 접속망 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  6. 제4항에 있어서,
    상기 분포 파라미터 산출 모듈은,
    상기 단어집 특징 벡터 및 제1 비선형 네트워크층에 따라, 제1 스킬 테마 벡터 분포 서브 파라미터를 산출하는 제1 파라미터 산출 서브 모듈; 및
    상기 단어집 특징 벡터 및 제2 비선형 네트워크층에 따라, 제2 스킬 테마 벡터 분포 서브 파라미터를 산출하는 제2 파라미터 산출 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  7. 제6항에 있어서,
    상기 제1 테마 분포 결정 모듈은,
    제1 스킬 테마 벡터 분포 서브 파라미터 및 제1 기설정 테마 분포 가설 서브 파라미터에 따라, 제3 스킬 테마 벡터 분포 파라미터를 산출하는 제3 파라미터 산출 서브 모듈;
    제2 스킬 테마 벡터 분포 서브 파라미터 및 제2 기설정 테마 분포 가설 서브 파라미터에 따라, 제4 스킬 테마 벡터 분포 파라미터를 산출하는 제4 파라미터 산출 서브 모듈;
    제3 스킬 테마 벡터 분포 파라미터 및 제4 스킬 테마 벡터 분포 파라미터에 따라, 제1 스킬 테마 벡터를 획득하는 제1 테마 벡터 샘플링 서브 모듈;
    제1 스킬 테마 벡터에 대해 특징 추출을 진행하여, 제1 테마 특징 벡터를 획득하는 제2 완전 접속망 서브 모듈; 및
    제1 테마 특징 벡터 및 제1 활성화 함수에 따라, 타깃 스킬 테마 분포 벡터를 획득하는 제1 테마 분포 특징 산출 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  8. 제1항에 있어서,
    상기 설명 문서 생성 서브 모델은,
    상기 관련 오리지널 문서 중 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 인코더 모듈;
    상기 타깃 스킬 테마 분포 벡터에 따라, 상기 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하는 어텐션 모듈; 및
    가중 변환 후의 의미 특성화 벡터 시퀀스에 따라, 상기 현재 문장의 스킬 테마 태그를 예측하고, 상기 스킬 테마 태그에 따라 타깃 채용 부문 설명 문서의 현재 단어를 예측하는 디코더 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  9. 제8항에 있어서,
    상기 인코더 모듈은,
    상기 관련 오리지널 문서 중 현재 문장에 포함되는 각 단어의 단어 벡터를 생성하는 단어 벡터 생성 서브 모듈; 및
    각 상기 단어 벡터에 따라 상기 현재 문장의 의미 특성화 벡터 시퀀스를 생성하는 제1 순환 신경망 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  10. 제8항에 있어서,
    상기 어텐션 모듈은 제1 어텐션 서브 모듈 및 제2 어텐션 서브 모듈을 포함하고, 상기 디코더 모듈은 테마 예측 서브 모듈 및 문서 생성 서브 모듈을 포함하되,
    상기 제1 어텐션 서브 모듈은, 상기 타깃 스킬 테마 분포 벡터 및 상기 테마 예측 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 상기 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하여, 가중 변환 후의 제1 벡터 시퀀스를 획득하고;
    상기 제2 어텐션 서브 모듈은, 상기 타깃 스킬 테마 분포 벡터 및 상기 문서 생성 서브 모듈 중의 은닉층 특징 상태 벡터에 따라, 상기 의미 특성화 벡터 시퀀스에 대해 가중 변환을 진행하여, 가중 변환 후의 제2 벡터 시퀀스를 획득하며;
    상기 테마 예측 서브 모듈은, 상기 타깃 스킬 테마 분포 벡터 및 제1 벡터 시퀀스에 따라, 상기 현재 문장의 스킬 테마 태그를 예측하고;
    상기 문서 생성 서브 모듈은, 상기 현재 문장의 스킬 테마 태그 및 제2 벡터 시퀀스에 따라, 타깃 채용 부문 설명 문서 중의 현재 단어를 예측하는 채용 부문 설명 문서 생성 방법.
  11. 제10항에 있어서,
    상기 테마 예측 서브 모듈은,
    상기 문서 생성 서브 모듈 중 직전 문장의 순환 신경망을 예측하는 은닉층 특징 상태 벡터, 직전 문장의 스킬 테마 태그에 대응되는 임베이딩 특성화 벡터, 및 상기 타깃 스킬 테마 분포 벡터에 따라, 제1 시퀀스 특징 벡터를 획득하는 제2 순환 신경망 서브 모듈; 및
    제1 시퀀스 특징 벡터 및 제1 벡터 시퀀스에 따라, 상기 현재 문장의 스킬 테마 태그를 예측하는 테마 생성 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  12. 제11항에 있어서,
    상기 문서 생성 서브 모듈은,
    제1 시퀀스 특징 벡터 및 예측된 직전 단어의 단어 임베이딩 특성화 벡터에 따라, 제2 시퀀스 특징 벡터를 획득하는 제3 순환 신경망 서브 모듈;
    제2 벡터 시퀀스 및 제2 시퀀스 특징 벡터에 따라, 사전 생성 단어 확률 벡터를 획득하는 중간 처리 서브 모듈; 및
    제1 스킬 테마 단어 분포 파라미터에 기반하여 상기 사전 생성 단어 확률 벡터를 처리하여, 예측된 타깃 채용 부문 설명 문서 중의 현재 단어를 획득하는 복제 메커니즘 서브 모듈을 포함하는 채용 부문 설명 문서 생성 방법.
  13. 삭제
  14. 제1항에 있어서,
    상기 문서 테마 예측 서브 모델은,
    상기 스킬 테마 벡터 분포 파라미터에 따라, 오리지널 스킬 테마 분포 벡터를 획득하는 제2 테마 분포 결정 모듈;
    제2 스킬 테마 단어 분포 파라미터 및 오리지널 스킬 테마 분포 벡터에 따라, 재구성된 관련 오리지널 문서의 예측 단어집 특성화 데이터를 생성하는 제1 문서 재구성 서브 모듈; 및
    제1 스킬 테마 단어 분포 파라미터 및 타깃 스킬 테마 분포 벡터에 따라, 재구성된 표준 채용 부문 설명 문서의 예측 단어집 특성화 데이터를 생성하는 제2 문서 재구성 서브 모듈을 더 포함하는 채용 부문 설명 문서 생성 방법.
  15. 제14항에 있어서,
    제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계는,
    제1 샘플 관련 문서를 미리 구성된 문서 테마 예측 서브 모델에 입력하는 단계;
    제1 차이 정보 및 제2 차이 정보에 따라, 신경 변분법을 사용하여 제1 손실 함수값을 산출하는 단계 - 제1 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와 상기 단어집 특징 추출 모듈이 출력한 제1 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이 정보이며, 제2 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제1 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 -; 및
    산출된 제1 손실 함수값에 따라, 미리 구성된 문서 테마 예측 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함하는 채용 부문 설명 문서 생성 방법.
  16. 제14항에 있어서,
    제2 트레이닝 샘플 데이터를 사용하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계는,
    제2 샘플 관련 문서를 심층 신경망 모델에 입력하는 단계 - 상기 심층 신경망 모델은, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함함 - ;
    제3 차이 정보 및 제4 차이 정보에 따라 제2 손실 함수값을 산출하는 단계 - 제3 차이 정보는 제1 문서 재구성 서브 모듈이 출력한 제1 예측 단어집 특성화 데이터와 단어집 특징 추출 모듈이 출력한 제2 샘플 관련 문서의 단어집 특성화 데이터 사이의 차이이며, 제4 차이 정보는 제2 문서 재구성 서브 모듈이 출력한 제2 예측 단어집 특성화 데이터와 제2 표준 채용 부문 설명 문서의 단어집 특성화 데이터 사이의 차이 정보임 -;
    제5 차이 정보에 따라 제3 손실 함수값을 산출하는 단계 - 제5 차이 정보는 제2 표준 채용 부문 설명 문서와 상기 설명 문서 생성 서브 모델이 출력한 문서 사이의 차이 정보임 -; 및
    산출된 제2 손실 함수값 및 제3 손실 함수값에 따라 전체 손실 함수값을 결정하고, 상기 손실 함수값에 따라 상기 문서 테마 예측 서브 모델 및 상기 설명 문서 생성 서브 모델 중의 네트워크 파라미터를 반복 횟수 임계값 또는 전체 손실 함수값 수렴에 도달할 때까지 조절하는 단계를 포함하는 채용 부문 설명 문서 생성 방법.
  17. 채용 부문 설명 문서 생성 장치로서,
    타깃 부문의 관련 오리지널 문서를 획득하도록 구성되는 오리지널 문서 획득 모듈; 및
    상기 오리지널 문서 획득 모듈에 의해 획득된 상기 관련 오리지널 문서 및 분포 파라미터 산출 모듈에 의해 획득된 미리 트레이닝된 심층 신경망 모델에 기반하여, 상기 타깃 부문에 대응되는 타깃 채용 부문 설명 문서를 생성하도록 구성되는 설명 문서 생성 모듈을 포함하고,
    상기 심층 신경망 모델은,
    상기 관련 오리지널 문서에 따라, 타깃 스킬 테마 분포 벡터를 예측하는 문서 테마 예측 서브 모델로서, 상기 타깃 스킬 테마 분포 벡터는 타깃 부문의 스킬 테마 분포 벡터이고, 상기 스킬 테마는 부문에 필요한 업무 스킬의 카테고리 명칭을 의미하는, 문서 테마 예측 서브 모델; 및
    상기 타깃 스킬 테마 분포 벡터에 따라, 상기 타깃 부문의 타깃 채용 부문 설명 문서를 생성하는 설명 문서 생성 서브 모델을 포함하고,
    상기 심층 신경망 모델의 트레이닝 과정은,
    단어집 특징 추출 모듈에 의해 제1 트레이닝 샘플 데이터를 획득하는 단계 - 제1 트레이닝 샘플 데이터는, 제1 샘플 부문의 제1 샘플 관련 문서 및 제1 샘플 부문에 대응되는 제1 표준 채용 부문 설명 문서를 포함함 - ;
    분포 파라미터 산출 모듈에 의해 제1 트레이닝 샘플 데이터를 사용하여, 미리 구성된 문서 테마 예측 서브 모델에 대해 초보적 트레이닝을 진행하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델을 획득하는 단계;
    단어집 특징 추출 모듈에 의해 제2 트레이닝 샘플 데이터를 획득하는 단계 - 제2 트레이닝 샘플 데이터는, 제2 샘플 부문의 제2 샘플 관련 문서 및 제2 샘플 부문에 대응되는 제2 표준 채용 부문 설명 문서를 포함함 -; 및
    분포 파라미터 산출 모듈에 의해 제2 트레이닝 샘플 데이터를 사용하여, 초보적으로 트레이닝된 문서 테마 예측 서브 모델 및 미리 구성된 설명 문서 생성 서브 모델을 포함하는 심층 신경망 모델에 대해 트레이닝을 진행하여, 트레이닝된 심층 신경망 모델을 획득하는 단계를 포함하는 채용 부문 설명 문서 생성 장치.
  18. 삭제
  19. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기로서,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 제1항, 제2항, 제4항 내지 제12항, 및 제14항 내지 제16항 중 어느 한 항에 따른 채용 부문 설명 문서 생성 방법을 수행할 수 있도록 하는 전자 기기.
  20. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항, 제2항, 제4항 내지 제12항, 및 제14항 내지 제16항 중 어느 한 항에 따른 채용 부문 설명 문서 생성 방법을 수행하도록 하는 비일시적 컴퓨터 판독 가능한 저장 매체.
  21. 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항, 제2항, 제4항 내지 제12항, 및 제14항 내지 제16항 중 어느 한 항에 따른 채용 부문 설명 문서 생성 방법을 구현하도록 하는 컴퓨터 프로그램.
KR1020210040448A 2020-05-08 2021-03-29 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체 KR102540185B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010381686.9 2020-05-08
CN202010381686.9A CN113627135B (zh) 2020-05-08 2020-05-08 一种招聘岗位描述文本的生成方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
KR20210047284A KR20210047284A (ko) 2021-04-29
KR102540185B1 true KR102540185B1 (ko) 2023-06-07

Family

ID=75277915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210040448A KR102540185B1 (ko) 2020-05-08 2021-03-29 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체

Country Status (5)

Country Link
US (1) US20210216726A1 (ko)
EP (1) EP3859588A3 (ko)
JP (1) JP2021177375A (ko)
KR (1) KR102540185B1 (ko)
CN (1) CN113627135B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156635A1 (en) * 2020-11-19 2022-05-19 Sap Se Machine Learning Prediction For Recruiting Posting
US20230008868A1 (en) * 2021-07-08 2023-01-12 Nippon Telegraph And Telephone Corporation User authentication device, user authentication method, and user authentication computer program
CN114492393A (zh) * 2022-01-17 2022-05-13 北京百度网讯科技有限公司 文本主题的确定方法、装置及电子设备
CN114997829A (zh) * 2022-06-09 2022-09-02 北京联众鼎盛咨询有限公司 一种招聘服务系统及方法
CN115062220B (zh) * 2022-06-16 2023-06-23 成都集致生活科技有限公司 基于注意力合并的招工推荐系统
CN115630651B (zh) * 2022-10-24 2023-06-02 北京百度网讯科技有限公司 文本生成方法和文本生成模型的训练方法、装置
JP7329159B1 (ja) * 2023-02-20 2023-08-17 株式会社ビズリーチ 情報処理システム、情報処理方法及びプログラム
CN117689354B (zh) * 2024-02-04 2024-04-19 芯知科技(江苏)有限公司 基于云服务的招聘信息的智能处理方法及平台

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346171A (ja) * 2004-05-31 2005-12-15 Recruit Co Ltd 求人情報提供システム
US8843433B2 (en) * 2011-03-29 2014-09-23 Manyworlds, Inc. Integrated search and adaptive discovery system and method
CN105940395B (zh) * 2014-01-31 2019-07-16 谷歌有限责任公司 生成文档的矢量表示
KR101842362B1 (ko) * 2016-09-01 2018-03-26 성균관대학교산학협력단 인공 신경망 기반의 문단 생성 방법 및 장치
US11113732B2 (en) * 2016-09-26 2021-09-07 Microsoft Technology Licensing, Llc Controlling use of negative features in a matching operation
US10909442B1 (en) * 2017-03-30 2021-02-02 Amazon Technologies, Inc. Neural network-based artificial intelligence system for content-based recommendations using multi-perspective learned descriptors
US10733380B2 (en) * 2017-05-15 2020-08-04 Thomson Reuters Enterprise Center Gmbh Neural paraphrase generator
CN110192206A (zh) * 2017-05-23 2019-08-30 谷歌有限责任公司 基于注意力的序列转换神经网络
CN107273503B (zh) * 2017-06-19 2020-07-10 北京百度网讯科技有限公司 用于生成同语言平行文本的方法和装置
US11048879B2 (en) * 2017-06-19 2021-06-29 Vettd, Inc. Systems and methods to determine and utilize semantic relatedness between multiple natural language sources to determine strengths and weaknesses
CA3015240A1 (en) * 2017-08-25 2019-02-25 Royal Bank Of Canada Service management control platform
CN111919230A (zh) * 2017-10-02 2020-11-10 刘伟 用于职位申请人简历排序的机器学习系统
CN107967592A (zh) * 2017-10-12 2018-04-27 如是科技(大连)有限公司 招聘启事的辅助处理方法及装置
CN108280061B (zh) * 2018-01-17 2021-10-26 北京百度网讯科技有限公司 基于歧义实体词的文本处理方法和装置
US10437936B2 (en) * 2018-02-01 2019-10-08 Jungle Disk, L.L.C. Generative text using a personality model
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
US11042712B2 (en) * 2018-06-05 2021-06-22 Koninklijke Philips N.V. Simplifying and/or paraphrasing complex textual content by jointly learning semantic alignment and simplicity
US20200193382A1 (en) * 2018-12-17 2020-06-18 Robert P. Michaels Employment resource system, method and apparatus
US20200210491A1 (en) * 2018-12-31 2020-07-02 Charles University Faculty of Mathematics and Physics Computer-Implemented Method of Domain-Specific Full-Text Document Search
CN109886641A (zh) * 2019-01-24 2019-06-14 平安科技(深圳)有限公司 一种岗位画像设置方法、岗位画像设置装置及终端设备
CN109918483B (zh) * 2019-03-15 2021-07-16 智者四海(北京)技术有限公司 匹配招聘职位与求职简历的装置和方法
CN110032681B (zh) * 2019-04-17 2022-03-15 北京网聘咨询有限公司 基于简历内容的职位推荐方法
CN110782072A (zh) * 2019-09-29 2020-02-11 广州荔支网络技术有限公司 员工离职风险预测方法、装置、设备及可读存储介质
US11373146B1 (en) * 2021-06-30 2022-06-28 Skyhive Technologies Inc. Job description generation based on machine learning

Also Published As

Publication number Publication date
CN113627135A (zh) 2021-11-09
US20210216726A1 (en) 2021-07-15
EP3859588A2 (en) 2021-08-04
KR20210047284A (ko) 2021-04-29
CN113627135B (zh) 2023-09-29
JP2021177375A (ja) 2021-11-11
EP3859588A3 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
KR102540185B1 (ko) 채용 부문 설명 문서 생성 방법, 장치, 기기 및 매체
JP7250052B2 (ja) 自然言語及び知識グラフに基づく表現学習方法及び装置
Lison et al. Opendial: A toolkit for developing spoken dialogue systems with probabilistic rules
Wang et al. Policy learning for domain selection in an extensible multi-domain spoken dialogue system
CN110837548A (zh) 答案匹配方法、装置、电子设备及存储介质
CN112530437A (zh) 语义识别方法、装置、设备以及存储介质
CN114612749B (zh) 神经网络模型训练方法及装置、电子设备和介质
US20220358292A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN111177355A (zh) 基于搜索数据的人机对话交互方法、装置和电子设备
CN111640425A (zh) 一种模型训练和意图识别方法、装置、设备及存储介质
CN113609965A (zh) 文字识别模型的训练方法及装置、存储介质、电子设备
CN111767833A (zh) 模型生成方法、装置、电子设备及存储介质
CN111831813A (zh) 对话生成方法、装置、电子设备及介质
CN111753761A (zh) 模型生成方法、装置、电子设备及存储介质
US11947578B2 (en) Method for retrieving multi-turn dialogue, storage medium, and electronic device
CN111611808B (zh) 用于生成自然语言模型的方法和装置
CN112270168A (zh) 对白情感风格预测方法、装置、电子设备及存储介质
CN114281968A (zh) 一种模型训练及语料生成方法、装置、设备和存储介质
CN112507103A (zh) 任务型对话及模型训练方法、装置、设备和存储介质
CN114860913A (zh) 智能问答系统构建方法、问答处理方法及装置
CN112559715B (zh) 态度的识别方法、装置、设备及存储介质
CN114547244A (zh) 用于确定信息的方法和装置
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN111767832A (zh) 模型生成方法、装置、电子设备及存储介质
CN111753760A (zh) 模型生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant