JP6793975B2 - Video-based Jobs Job Matching Servers and methods and computer-readable recording media containing programs to perform those methods - Google Patents

Video-based Jobs Job Matching Servers and methods and computer-readable recording media containing programs to perform those methods Download PDF

Info

Publication number
JP6793975B2
JP6793975B2 JP2019148430A JP2019148430A JP6793975B2 JP 6793975 B2 JP6793975 B2 JP 6793975B2 JP 2019148430 A JP2019148430 A JP 2019148430A JP 2019148430 A JP2019148430 A JP 2019148430A JP 6793975 B2 JP6793975 B2 JP 6793975B2
Authority
JP
Japan
Prior art keywords
information
job
company
video
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019148430A
Other languages
Japanese (ja)
Other versions
JP2020071869A (en
Inventor
ヒョクゼ バク
ヒョクゼ バク
ゼホ ジャン
ゼホ ジャン
アンホ イ
アンホ イ
ソンチャン バク
ソンチャン バク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020071869A publication Critical patent/JP2020071869A/en
Application granted granted Critical
Publication of JP6793975B2 publication Critical patent/JP6793975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • G06Q10/1053Employment or hiring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は動画に含まれた情報に基づいて企業と求職者をマッチングさせる技術に関する。 The present invention relates to a technique for matching a company and a job seeker based on the information contained in the moving image.

インターネットの発達につれて就職のための求人求職はインターネット上で活発に行われている。 With the development of the Internet, job offers for employment are being actively pursued on the Internet.

インターネット上で行われる求人求職システムを詳察すると、職業を求める求職者が就職サイトに履歴情報を提供すると就職サイトはこれを集合して求職者情報データベースを構築する。また、雇用人材を求める企業が就職サイトに企業情報と必要な人材条件を提供すると、就職サイトはこれを集合して企業情報データベースを構築する。このような過程を通じてデータベースが構築された後、就職サイトでは企業や求職者にデータベースの情報を提供して企業と求職者を連結させる。 Looking at the job-seeking system on the Internet in detail, when a job seeker seeking a job provides history information to the job-seeking site, the job-seeking site collects this and builds a job-seeker information database. In addition, when a company seeking employment personnel provides company information and necessary personnel conditions to the employment site, the employment site collectively constructs a company information database. After the database is constructed through such a process, the employment site provides the information of the database to the company and the job seeker to connect the company and the job seeker.

しかし、既存の求人求職システムは企業や求職者がテキストで入力した情報またはイメージファイルなどのような限定された情報だけを提供したため、情報自体に対する相互間の信頼が保証できなかった。 However, existing job-seeking systems provided only limited information, such as textual information or image files by companies and job seekers, which could not guarantee mutual trust in the information itself.

例えば、企業の立場ではインターネット上の情報を通じて求職者の性格、印象、イメージなどについての情報を十分に分かり難いという点で、インターネット上の求職者の履歴が気に入るとしても、面接後に評価が異なるため求職者を雇用しない場合がある。また、求職者の立場ではインターネット上の情報を通じて企業の雰囲気や、勤務環境についての情報を分かることができないため、雇用されてまもなく退社してしまう場合が発生したりもする。 For example, from the standpoint of a company, it is difficult to fully understand information about a job seeker's personality, impression, image, etc. through information on the Internet, so even if you like the history of job seekers on the Internet, the evaluation will be different after the interview. May not hire job seekers. In addition, as a job seeker, it is not possible to obtain information about the company atmosphere and working environment through information on the Internet, so there may be cases where the employee leaves the company shortly after being hired.

このように、単純に入力した何行かの文章と何枚かのイメージのような限定された情報を通じての求人求職は、直接顔を見合わせて仕事をする社会の中でミスマッチングを発生させ、その結果、企業や求職者の相互間に時間的、物質的損害を発生させ、雇用人材不足でありながらも就職率の低下という矛盾する社会現象を作っている。 In this way, job hunting through simply entered lines of text and limited information such as some images causes mismatches in a society where people work face-to-face. As a result, it causes time and material damage between companies and job seekers, creating a contradictory social phenomenon in which the employment rate declines despite the shortage of employment personnel.

たとえインターネット上とはいえ、フェイスタイム、ユーチューブ、画像会議のような動画の中で人が駆使する単語、語り口、文章等を通してその人に対する印象と感じをある程度把握することができる。 Even on the Internet, it is possible to grasp the impression and feeling of a person to some extent through words, narratives, sentences, etc. that are used by a person in videos such as Facetime, YouTube, and image conferences.

このような点に着眼して、本発明の実施例は企業または求職者が直接アップロードした動画で人に対して実生活で感じることができる情報をデータとして抽出し、このようなデータを企業または求職者に提供し、正しい求人求職文化を達成しようとする。 With this in mind, in the embodiments of the present invention, information that can be felt in real life by a person is extracted as data from a video directly uploaded by a company or a job seeker, and such data is extracted by the company or a job seeker. Offer to job seekers and try to achieve the correct recruiting culture.

これを通じて、インターネット上で発生する既存の求人求職システムのミスマッチングを解決し、企業や求職者の個人的観点から時間的、物理的費用を減少させ、社会的観点で就職率を上昇させようとする。 Through this, we will try to solve the mismatch of the existing job-seeking system that occurs on the Internet, reduce the time and physical costs from the personal point of view of companies and job seekers, and increase the employment rate from the social point of view. To do.

ただし、本発明の実施例が達成しようとする技術的課題は以上で言及した課題に制限されず、以下で説明する内容から通常の技術者に自明な範囲内で多様な技術的課題が導き出され得る。 However, the technical problems to be achieved by the embodiments of the present invention are not limited to the problems mentioned above, and various technical problems are derived from the contents described below within a range that is obvious to ordinary engineers. obtain.

本発明の一実施例に係る動画基盤求人求職マッチングサーバーは、企業についての情報および求職者についての情報を保存する保存部、前記企業が使う企業端末から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信する企業映像受信部、前記求職者が使う求職端末から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信する求職映像受信部、前記企業映像情報および前記求職映像情報のそれぞれに含まれた音声情報を抽出して前記それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を保存するテキスト抽出部および前記企業テキスト情報および前記求職テキスト情報に基づいて、前記企業端末に前記企業が所望する求職者についての情報を提供したりまたは前記求職端末に前記求職者が所望する企業についての情報を提供するマッチング部を含む。 The video-based job-seeking matching server according to an embodiment of the present invention is a storage unit that stores information about the company and information about the job seeker, an introduction video of the company or a question video for an interview from the company terminal used by the company. A corporate video receiving unit that receives corporate video information including, a job seeking video receiving unit that receives job seeking video information including an introduction video of a job seeker or a response video to a question from a job seeking terminal used by the job seeker, the company video information and the above. Based on the text extraction unit that extracts the audio information included in each of the job-seeking video information and converts the respective audio information into text and saves the job-seeking text information, the company text information, and the job-seeking text information. , The company terminal includes a matching unit that provides information about a job seeker desired by the company or provides the job seeker terminal with information about a company desired by the job seeker.

また、前記テキスト抽出部は前記企業映像情報及び前記求職映像情報のそれぞれをmp4形式の音声情報に変換し、CSR(Clova Speech Recognition)アルゴリズムに基づいて前記それぞれの音声情報から前記企業テキスト情報及び前記求職テキスト情報を抽出することができる。 In addition, the text extraction unit converts each of the company video information and the job search video information into mp4 format voice information, and based on the CSR (Clova Speech Recognition) algorithm, the company text information and the above Job search text information can be extracted.

また、前記テキスト抽出部は前記企業テキスト情報に含まれたキーワードを判別して前記企業についての情報に前記キーワードをマッピングして保存し、前記マッチング部は前記求職者についての情報に前記求職者が既指定したキーワードが保存されている場合、前記既指定したキーワードがマッピングされている企業端末の情報を前記求職端末に提供することができる。 Further, the text extraction unit determines the keywords included in the company text information, maps the keywords to the information about the company, and saves the keywords, and the matching unit uses the information about the job seeker as the job seeker. When the specified keyword is saved, the information of the company terminal to which the specified keyword is mapped can be provided to the job seeking terminal.

また、前記テキスト抽出部は前記企業テキスト情報に含まれたキーワードを判別して前記企業についての情報に前記キーワードをマッピングして保存し、前記求職テキスト情報に含まれたキーワードを判別して前記求職者についての情報に前記キーワードをマッピングして保存し、前記マッチング部は前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードの類似度に基づいて、複数の企業端末のうちいずれか一つと複数の求職端末のうちいずれか一つをマッチングさせることができる。 Further, the text extraction unit determines the keyword included in the company text information, maps the keyword to the information about the company and saves the keyword, determines the keyword included in the job search text information, and determines the job search. The keyword is mapped and saved in the information about the person, and the matching unit is among a plurality of corporate terminals based on the similarity between the keyword included in the corporate text information and the keyword included in the job search text information. Any one of them can be matched with any one of a plurality of job seeking terminals.

また、前記テキスト抽出部は前記企業テキスト情報および求職テキスト情報をクローリングして既設定された単語または語句をキーワードで判別することができる。 In addition, the text extraction unit can crawle the company text information and the job search text information to determine a set word or phrase by a keyword.

また、前記テキスト抽出部はテキスト情報を入力レイヤー、既設定された単語または語句を出力レイヤーとして設定して、機械学習アルゴリズムに基づいて学習された神経網モデルに、前記企業テキスト情報および求職テキスト情報を入力した時に出力される単語または語句をキーワードで判別することができる。 In addition, the text extraction unit sets text information as an input layer and already set words or phrases as an output layer, and applies the company text information and job-seeking text information to a neural network model learned based on a machine learning algorithm. The word or phrase that is output when you enter is can be identified by the keyword.

また、前記マッチング部は前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードとが一致する程度に基づいて類似度を判別することができる。 In addition, the matching unit can determine the degree of similarity based on the degree to which the keywords included in the company text information and the keywords included in the job search text information match.

また、前記マッチング部は前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードをk−means clusteringアルゴリズムに基づいた非指導学習モデルに入力して、前記企業テキスト情報に含まれたキーワードの群集と前記求職テキスト情報に含まれたキーワードの群集間の距離に基づいて類似度を判別することができる。 Further, the matching unit inputs the keywords included in the company text information and the keywords included in the job search text information into the non-teaching learning model based on the k-means clustering algorithm, and is included in the company text information. The degree of similarity can be determined based on the distance between the crowd of keywords and the crowd of keywords included in the job search text information.

また、前記テキスト抽出部は前記求職映像情報に含まれた言語の種類を判別して前記求職者についての情報に前記判別された言語の種類をマッピングして保存し、前記マッチング部は前記企業が要求する既指定した言語が前記判別された言語である場合、前記求職者についての情報を前記企業端末に提供することができる。 Further, the text extraction unit determines the type of language included in the job-seeking video information, maps the type of the determined language to the information about the job seeker and saves it, and the matching unit is stored by the company. When the requested specified language is the determined language, information about the job seeker can be provided to the company terminal.

また、前記テキスト抽出部は前記求職映像情報から抽出された求職テキスト情報に基づいて前記言語の種類を判別することができる。 In addition, the text extraction unit can determine the type of the language based on the job-seeking text information extracted from the job-seeking video information.

また、前記テキスト抽出部は音声情報を入力レイヤー、前記音声情報に含まれた言語の種類および前記音声情報の言語駆使水準についての情報を出力レイヤーとして設定して、機械学習アルゴリズムに基づいて学習されたモデルに、前記求職映像情報から抽出された音声情報を入力した時に出力される情報から前記言語の種類および言語駆使水準を判別して、前記マッチング部は前記企業が要求する既指定した言語が前記判別された言語である場合、前記企業端末に前記求職者の言語駆使水準についての情報を追加的に提供することができる。 Further, the text extraction unit sets the voice information as an input layer, sets the information about the type of language included in the voice information and the language utilization level of the voice information as an output layer, and learns based on the machine learning algorithm. The type of the language and the level of language utilization are determined from the information output when the audio information extracted from the job-seeking video information is input to the model, and the matching unit uses the already specified language required by the company. In the case of the discriminated language, it is possible to additionally provide the company terminal with information about the language proficiency level of the job seeker.

本発明の一実施例に係る動画基盤求人求職マッチング方法は、一つ以上のプロセッサが以下の段階を遂行し、該当段階は、企業についての情報および求職者についての情報を保存する段階、前記企業が使う企業端末から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信する段階、前記求職者が使う求職端末から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信する段階、前記企業映像情報および前記求職映像情報のそれぞれに含まれた音声情報を抽出して前記それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を保存する段階および前記企業テキスト情報および前記求職テキスト情報に基づいて、前記企業端末に前記企業が所望する求職者についての情報を提供したりまたは前記求職端末に前記求職者が所望する企業についての情報を提供する段階を含むことができる。 In the video-based job-seeking matching method according to an embodiment of the present invention, one or more processors perform the following steps, and the corresponding step is a step of storing information about a company and information about a job seeker, said company. At the stage of receiving the company video information including the company introduction video or the question video for the interview from the company terminal used by the job seeker, the job seeker video information including the job seeker introduction video or the answer video to the question from the job seeker used. The stage of receiving, the stage of extracting the audio information contained in each of the company video information and the job-seeking video information, and saving the company text information and the job-seeking text information in which each of the audio information is converted into text, and the company text information. And, based on the job-seeking text information, the step of providing the company terminal with information about the job seeker desired by the company or providing the job-seeking terminal with information about the company desired by the job seeker may be included. it can.

本発明の実施例は企業または求職者が直接アップロードした動画からキーワードクローリングまたはマシンランニングアルゴリズムで学習された神経網モデルを通じてデータを抽出し、ある人に対して実生活で感じることができる情報を企業または求職者に提供することができる。 In the embodiment of the present invention, data is extracted from a video directly uploaded by a company or a job seeker through a neural network model learned by a keyword crawling or a machine running algorithm, and information that can be felt by a person in real life is provided by the company. Or it can be provided to job seekers.

これに伴い、本発明の実施例は実生活で感じることができる情報を企業または求職者に提供してインターネット上で求人求職の効率的なマッチングを最大化させることによって、企業や求職者の個人的観点では時間的、物理的費用を減少させることができ、社会的観点では就職率を上昇させることができる。 Along with this, the embodiment of the present invention provides the information that can be felt in real life to the company or the job seeker, and maximizes the efficient matching of the job offer on the Internet, thereby maximizing the efficient matching of the job seeker and the individual of the company or the job seeker. From a physical point of view, time and physical costs can be reduced, and from a social point of view, the employment rate can be increased.

本発明の一実施例に係る動画基盤求人求職マッチングシステムの構成図である。It is a block diagram of the video-based job offer matching system which concerns on one Example of this invention. 本発明の一実施例に係る動画基盤求人求職マッチングサーバーの構成図である。It is a block diagram of the video-based job offer matching server which concerns on one Example of this invention. 本発明の一実施例によって企業が企業端末を通じて映像を登録する例示図である。It is an example figure which a company registers a video through a company terminal by one Example of this invention. 本発明の一実施例により求職者が求職端末を通じて映像を登録する例示図である。It is an example figure which a job seeker registers a video through a job seeker terminal by one Example of this invention. 本発明の一実施例により企業映像情報からキーワードを抽出することを説明するための例示図である。It is explanatory drawing for demonstrating that the keyword is extracted from the corporate image information by one Example of this invention. 本発明の一実施例により求職映像情報からキーワードを抽出することを説明するための例示図である。It is explanatory drawing for demonstrating that the keyword is extracted from the job-seeking video information by one Example of this invention. 本発明の一実施例により企業映像情報から抽出した企業の特徴をおよび企業の質問目録を求職端末に提供することを説明するための例示図である。It is explanatory drawing for demonstrating that the characteristic of a company extracted from the company image information by one Example of this invention and the question list of a company are provided to a job-seeking terminal. 本発明の一実施例により求職端末に企業の紹介映像を提供することを説明するための例示図である。It is explanatory drawing for demonstrating that the introduction image of a company is provided to the job-seeking terminal by one Example of this invention. 本発明の一実施例に係る動画基盤求人求職マッチング方法のプロセスを図示したフローチャートである。It is a flowchart which illustrated the process of the video-based job offer matching method which concerns on one Example of this invention.

本発明の利点および特徴、そして、それらを達成する方法は添付される図面と共に詳細に後述されている実施例を参照すると明確となるはずである。しかし、本発明は以下で開示される実施例に限定されるものではなく、多様な形態で具現され得、単に本実施例は本発明の開示を完全とさせ、本発明が属する技術分野で通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明の範疇は請求項によってのみ定義される。 The advantages and features of the present invention, and the methods for achieving them, should become clear with reference to the examples described in detail below with the accompanying drawings. However, the present invention is not limited to the examples disclosed below, and may be embodied in various forms. Simply, the present invention completes the disclosure of the present invention and is usually used in the technical field to which the present invention belongs. It is provided to fully inform those who have the knowledge of the invention, and the category of the invention is defined only by the claims.

本発明の実施例の説明において、公知の機能または構成に対する具体的な説明は、本発明の実施例の説明において実際に必要な場合以外には省略される。そして、後述される用語は本発明の実施例での機能を考慮して定義された用語であって、これは使用者、運用者の意図または慣例などにより変わり得る。したがって、その定義は本明細書の全般に亘った内容に基づいて下されるべきである。 In the description of the examples of the present invention, specific description of the known function or configuration will be omitted except when it is actually necessary in the description of the examples of the present invention. The terms described later are terms defined in consideration of the functions in the embodiments of the present invention, and may vary depending on the intentions or customs of the user and the operator. Therefore, that definition should be made on the basis of the general content of this specification.

図面に表示され下記に説明される機能ブロックは可能な具現例に過ぎないものである。他の具現においては、詳細な説明の思想および範囲を逸脱しない範囲で他の機能ブロックが使われ得る。また、本発明の一つ以上の機能ブロックが個別ブロックで表示されるが、本発明の機能ブロックのうち一つ以上は同一機能を実行する多様なハードウェアおよびソフトウェア構成の組み合わせであり得る。 The functional blocks displayed in the drawings and described below are only possible embodiment. In other realizations, other functional blocks may be used without departing from the idea and scope of the detailed description. Further, although one or more functional blocks of the present invention are displayed as individual blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

また、ある構成要素を含むという表現は開放型の表現であって、該当構成要素が存在することを単に指し示すのみであり、追加的な構成要素を排除するものと理解されてはならない。 Also, the expression including a component is an open expression, which merely indicates the existence of the component, and should not be understood as excluding additional components.

さらに、ある構成要素が他の構成要素に連結されているとか接続されていると言及されるときには、その他の構成要素に直接連結または接続されていてもよいが、中間に他の構成要素が存在してもよいものと理解されるべきである。 Furthermore, when it is mentioned that one component is connected or connected to another component, it may be directly connected or connected to the other component, but there is another component in the middle. It should be understood that it may be.

また「第1、第2」などのような表現は複数の構成を区分するための用途でのみ使われた表現であって、構成間の順序やその他の特徴を限定しない。 In addition, expressions such as "first, second" are expressions used only for the purpose of classifying a plurality of configurations, and do not limit the order between configurations or other features.

以下では図面を参照して本発明の実施例について説明する。 Hereinafter, examples of the present invention will be described with reference to the drawings.

図1は、本発明の一実施例に係る動画基盤求人求職マッチングシステム1の構成図である。 FIG. 1 is a configuration diagram of a video-based job offer matching system 1 according to an embodiment of the present invention.

図1を参照すると、本発明の一実施例に係る動画基盤求人求職マッチングシステム1は、企業端末10、求職端末20および動画基盤求人求職マッチングサーバー100を含むことができ、これらは有無線ネットワークを通じてデータを送受信することができる。 Referring to FIG. 1, the video-based job-seeking matching system 1 according to an embodiment of the present invention can include a corporate terminal 10, a job-seeking terminal 20, and a video-based job-seeking matching server 100, which are connected through a wireless network. Data can be sent and received.

企業端末10は企業が使う端末装置である。企業は企業の紹介および所望する求職者を求めるために、動画基盤求人求職マッチングサーバー100に企業についての情報を伝送し、求職者についての情報の提供を受けることができる。 The corporate terminal 10 is a terminal device used by a company. A company can transmit information about a company to a video-based job-seeking matching server 100 and receive information about a job seeker in order to introduce the company and request a desired job seeker.

例えば、企業は企業端末10を通じて企業情報、企業の便り、企業の紹介映像、企業の質問映像、企業の採用リスト、企業の採用の詳細、進行中の採用、終了した採用、待機中の採用などの情報を動画基盤求人求職マッチングサーバー100に伝送することができる。 For example, a company can use the company terminal 10 to provide company information, company news, company introduction video, company question video, company recruitment list, company recruitment details, ongoing recruitment, completed recruitment, waiting recruitment, etc. Information can be transmitted to the video-based job offer matching server 100.

求職端末20は求職者が使う端末装置である。求職者は自分の履歴紹介および所望する職場を求めるために、動画基盤求人求職マッチングサーバー100に求職者自分についての情報を伝送し、企業についての情報の提供を受けることができる。 The job seeker terminal 20 is a terminal device used by job seekers. The job seeker can transmit information about the job seeker himself to the video-based job seeker matching server 100 and receive information about the company in order to introduce his / her history and request a desired workplace.

例えば、求職者は求職端末20を通じて個人の履歴情報、経歴、紹介映像、質問の返答映像を動画基盤求人求職マッチングサーバー100に伝送することができる。 For example, the job seeker can transmit personal history information, career, introduction video, and question response video to the video-based job search matching server 100 through the job search terminal 20.

動画基盤求人求職マッチングサーバー100は、企業端末10および求職端末20から伝送を受けた情報に基づいて、企業が所望する求職者についての情報を企業端末10に提供したり、求職者が所望する企業についての情報を求職端末20に提供して企業と求職者をマッチングさせる。 The video-based job-seeking matching server 100 provides information about the job seeker desired by the company to the company terminal 10 based on the information transmitted from the company terminal 10 and the job-seeking terminal 20, or the company desired by the job seeker. The information about the job seeker is provided to the job seeker terminal 20 to match the company and the job seeker.

この時、本発明の実施例に係る動画基盤求人求職マッチングサーバー100は、企業端末10および求職端末20から受信した動画からデータを抽出する。したがって、使用者が直接入力したテキストおよびイメージのような限定された情報に比べて、ある人に対して実生活で感じることができる現実的な情報を提供することができる。以下、図2〜図8とともに動画基盤求人求職マッチングサーバー100の構成を詳察する。 At this time, the video-based job-seeking matching server 100 according to the embodiment of the present invention extracts data from the moving images received from the corporate terminal 10 and the job-seeking terminal 20. Therefore, it is possible to provide a person with realistic information that can be felt in real life, as compared with limited information such as texts and images directly input by the user. Hereinafter, the configuration of the video-based job-seeking matching server 100 will be examined in detail together with FIGS. 2 to 8.

図2は、本発明の一実施例に係る動画基盤求人求職マッチングサーバー100の構成図である。 FIG. 2 is a configuration diagram of a video-based job search matching server 100 according to an embodiment of the present invention.

図2を参照すると、本発明の一実施例に係る動画基盤求人求職マッチングサーバー100は、保存部110、企業映像受信部120、求職映像受信部130、テキスト抽出部140およびマッチング部150を含むことができる。 Referring to FIG. 2, the video-based job-seeking matching server 100 according to an embodiment of the present invention includes a storage unit 110, a corporate video receiving unit 120, a job-seeking video receiving unit 130, a text extraction unit 140, and a matching unit 150. Can be done.

保存部110はデータを保存するデータベースである。保存部110は企業についての情報および求職者についての情報を保存することができる。 The storage unit 110 is a database that stores data. The storage unit 110 can store information about the company and information about the job seeker.

この時、企業についての情報は、企業情報、企業の便り、企業の紹介映像、企業の質問映像、企業の採用リスト、企業の採用の詳細、進行中の採用、終了した採用、待機中の採用についての情報を含むことができる。 At this time, the information about the company is company information, company news, company introduction video, company question video, company recruitment list, company recruitment details, ongoing recruitment, finished recruitment, waiting recruitment. Can contain information about.

また、求職者についての情報は、求職者の個人の履歴情報、経歴、紹介映像、質問の返答映像についての情報を含むことができる。 In addition, the information about the job seeker can include information about the job seeker's personal history information, career, introduction video, and question answer video.

このような情報は企業映像受信部120および求職映像受信部130を通じて受信することができ、企業映像受信部120および求職映像受信部130は企業端末10および求職端末20と有無線通信の役割を遂行する通信モジュールを含むことができる。 Such information can be received through the corporate video receiving unit 120 and the job-seeking video receiving unit 130, and the corporate video receiving unit 120 and the job-seeking video receiving unit 130 perform the role of wireless communication with the corporate terminal 10 and the job-seeking terminal 20. Can include communication modules to

企業映像受信部120は、企業が使う企業端末10から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信することができる。 The company video receiving unit 120 can receive company video information including a company introduction video or a question video for an interview from the company terminal 10 used by the company.

企業の紹介映像は、求職者が企業の雰囲気、企業の構成員についての情報が分かるように、企業の代表またはチーム員が自分の企業に対して本人が直接紹介する姿を撮影した映像を含む。 The company introduction video includes a video of a company representative or team member introducing himself directly to his company so that the job seeker can understand the atmosphere of the company and information about the members of the company. ..

面接のための質問映像は、求職者が企業が提示した質問に対して答えるように、企業の代表またはチーム員が求職者に質問をする姿を撮影する映像を含む。 Interview question footage includes footage of a company representative or team member asking a job seeker a question, just as a job seeker answers a question presented by the company.

このために、企業端末10は図3のような実施例のUI/UXを通じて企業映像を録画することができ、企業映像受信部120は企業端末10から企業映像情報を受信することができる。 Therefore, the corporate terminal 10 can record the corporate video through the UI / UX of the embodiment as shown in FIG. 3, and the corporate video receiving unit 120 can receive the corporate video information from the corporate terminal 10.

求職映像受信部130は、求職者が使う求職端末20から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信することができる。 The job-seeking video receiving unit 130 can receive job-seeking video information including an introduction video of the job-seeker or a response video to a question from the job-seeking terminal 20 used by the job-seeker.

求職者の紹介映像は、企業が求職者についての情報が分かるように、求職者が本人に対して直接紹介する姿を撮影した映像を含む。 The introduction video of the job seeker includes a video of the job seeker introducing directly to the job seeker so that the company can understand the information about the job seeker.

質問に対する返答映像は、企業の質問映像で企業が提示した質問に対して求職者が答える姿を撮影した映像を含む。 The video of the answer to the question includes a video of the job seeker answering the question presented by the company in the video of the company's question.

このために、求職端末20は図4のような実施例のUI/UXを通じて求職映像を録画することができ、求職映像受信部130は求職端末20から求職映像情報を受信することができる。 Therefore, the job-seeking terminal 20 can record the job-seeking video through the UI / UX of the embodiment as shown in FIG. 4, and the job-seeking video receiving unit 130 can receive the job-seeking video information from the job-seeking terminal 20.

テキスト抽出部140は、企業映像情報および求職映像情報のそれぞれに含まれた音声情報を抽出し、それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を抽出することができる。この時、テキスト抽出部140は企業テキスト情報および求職テキスト情報に含まれたテキスト情報のうち、企業の核心情報または求職者の核心情報を表すキーワードを抽出することができる。 The text extraction unit 140 can extract the voice information included in each of the company video information and the job search video information, and can extract the company text information and the job search text information in which each voice information is converted into text. At this time, the text extraction unit 140 can extract a keyword representing the core information of the company or the core information of the job seeker from the text information included in the company text information and the job search text information.

このために、テキスト抽出部140は、企業テキスト情報および求職テキスト情報をクローリングして既設定された単語または語句をキーワードで判別することができる。例えば、地域に関する単語(「ソウル」、「ブンダン」、「パンギョ」)、職業に関する単語(「開発者」、「プログラマー」)、特技に関する単語(「ハッキングセキュリティー」、「パイソン」、「ウェブ開発」)を抽出するように、キーワードに該当し得る単語を既設定して、テキスト情報内のキーワードを抽出することができる。 For this purpose, the text extraction unit 140 can crawle the company text information and the job search text information and determine a set word or phrase by a keyword. For example, regional words ("Soul", "Bundan", "Pangyo"), occupational words ("Developers", "Programmers"), feats ("Hacking Security", "Python", "Web Development"). ) Can be extracted by pre-setting words that can correspond to the keyword and extracting the keyword in the text information.

また、テキスト抽出部140は、テキスト情報を入力レイヤーに、既設定された単語または語句を出力レイヤーに入力されるように設定して、機械学習アルゴリズムに基づいて学習された神経網モデルに、企業テキスト情報および求職テキスト情報を入力した時に出力される単語または語句をキーワードで判別することができる。 Further, the text extraction unit 140 sets the text information to be input to the input layer and the preset words or phrases to be input to the output layer, and uses the neural network model learned based on the machine learning algorithm as a company. Words or phrases that are output when text information and job search text information are entered can be identified by keywords.

キーワードを判別する神経網モデルを生成する方法の一例を説明する。まず、映像で話したテキスト情報から重要であると思われる単語または語句を学習するキーワードとしてラベリングする。この時、テキスト情報は神経網の入力レイヤーに、ラベリングされた単語または語句は神経網の出力レイヤーに入力されるように設定する。この時、神経網設計者の選択により入力レイヤー、隠匿レイヤー、出力レイヤーに含まれるノードの個数および隠匿レイヤーの深さを設定して、複数の互いに異なるテキスト情報に対して、数回学習させて神経網モデルを生成することができる。この時、使用できる機械学習アルゴリズムの種類はいずれか一つに限定されるものではない。 An example of a method of generating a neural network model for discriminating keywords will be described. First, it is labeled as a keyword for learning a word or phrase that seems to be important from the text information spoken in the video. At this time, the text information is set to be input to the input layer of the neural network, and the labeled word or phrase is set to be input to the output layer of the neural network. At this time, the number of nodes included in the input layer, the hidden layer, and the output layer and the depth of the hidden layer are set according to the selection of the neural network designer, and a plurality of different text information is learned several times. A neural network model can be generated. At this time, the types of machine learning algorithms that can be used are not limited to any one.

図5は、本発明の一実施例により企業映像情報からキーワードを抽出することを説明するための例示図である。 FIG. 5 is an exemplary diagram for explaining that keywords are extracted from corporate video information according to an embodiment of the present invention.

図5を参照すると、テキスト抽出部140は、企業映像のフォーマットをmp3、mp4、wavなどの形式に変換して企業の代表またはチーム員が映像内で話した音声情報を抽出することができる。これに伴い、テキスト抽出部140はCSR(Clova Speech Recognition)アルゴリズムに基づいて抽出した音声情報に含まれた言語をテキスト化した企業テキスト情報を抽出することができる。これに伴い、企業テキスト情報を神経網モデルに入力すると、キーワードとして会社情報、求人職種、企業の質問に該当する単語または語句をキーワードで判別することができる。 With reference to FIG. 5, the text extraction unit 140 can convert the format of the corporate video into a format such as mp3, mp4, wav, and extract the audio information spoken by the representative or team member of the company in the video. Along with this, the text extraction unit 140 can extract the corporate text information in which the language included in the voice information extracted based on the CSR (Clova Speech Recognition) algorithm is converted into text. Along with this, when the company text information is input to the neural network model, the company information, the job type, and the word or phrase corresponding to the company question can be determined by the keyword.

図6は、本発明の一実施例により求職映像情報からキーワードを抽出することを説明するための例示図である。 FIG. 6 is an exemplary diagram for explaining that keywords are extracted from job-seeking video information according to an embodiment of the present invention.

図6を参照すると、テキスト抽出部140は求職映像のフォーマットをmp3、mp4、wavなどの形式に変換して求職者が映像内で話した音声情報を抽出することができる。これに伴い、テキスト抽出部140はCSR(Clova Speech Recognition)アルゴリズムに基づいて抽出した音声情報に含まれた言語をテキスト化した求職テキスト情報を抽出することができる。これに伴い、求職テキスト情報を神経網モデルに入力すると、キーワードとして使用言語、職業、強み、企業の質問に対する返答に該当する単語または語句をキーワードで判別することができる。 With reference to FIG. 6, the text extraction unit 140 can convert the format of the job seeker video into a format such as mp3, mp4, wav, and extract the audio information spoken by the job seeker in the video. Along with this, the text extraction unit 140 can extract the job-seeking text information in which the language included in the voice information extracted based on the CSR (Clova Speech Recognition) algorithm is converted into text. Along with this, when job-seeking text information is input to the neural network model, the language used as a keyword, occupation, strength, and the word or phrase corresponding to the answer to a company question can be determined by the keyword.

一方、図5および図6の実施例に対する説明において、音声情報抽出方式はmp4変換、テキスト情報抽出方式はCSRアルゴリズムを例示して説明したが、本発明の実施例はこのような例示に限定されるものではなく、図5および図6の神経網の構成は例示に過ぎず、このような構成に限定されるものではない。 On the other hand, in the description for the examples of FIGS. 5 and 6, the voice information extraction method is described by exemplifying the mp4 conversion, and the text information extraction method is described by exemplifying the CSR algorithm, but the examples of the present invention are limited to such examples. However, the configuration of the neural network of FIGS. 5 and 6 is merely an example, and the configuration is not limited to such a configuration.

マッチング部150はテキスト抽出部140が抽出した企業テキスト情報および求職テキスト情報に基づいて、企業端末10に企業が所望する求職者についての情報を提供したりまたは求職端末20に求職者が所望する企業についての情報を提供することができる。 The matching unit 150 provides the company terminal 10 with information about the job seeker desired by the company based on the company text information and the job search text information extracted by the text extraction unit 140, or provides the job seeker terminal 20 with the company desired by the job seeker. Can provide information about.

以下、テキスト抽出部140およびマッチング部150が企業と求職者をマッチングさせる多様な実施例を説明する。 Hereinafter, various examples in which the text extraction unit 140 and the matching unit 150 match a company and a job seeker will be described.

一実施例として、テキスト抽出部140は企業テキスト情報に含まれたキーワードを判別して、判別されたキーワードを保存部110に保存された企業についての情報とマッピングさせて保存することができる。これに伴い、マッチング部150は求職者についての情報に求職者が所望する企業に対する要件に対するキーワードが保存されている場合、該当キーワードがマッピングされている企業端末10の情報を求職端末20に提供することができる。 As an embodiment, the text extraction unit 140 can determine the keywords included in the company text information, map the determined keywords with the information about the company stored in the storage unit 110, and store the keywords. Along with this, when the keyword for the requirement for the company desired by the job seeker is stored in the information about the job seeker, the matching unit 150 provides the job seeker terminal 20 with the information of the company terminal 10 to which the keyword is mapped. be able to.

たとえば、企業の代表が企業映像で[わが社は東京に位置したICTスタートアップとして、APP開発可能なプログラマーを募集しています。はやく私たちの開発者にお会いしたいです]と話したとすれば、テキスト抽出部140は「ICT」、「APP開発」、「スタートアップ」、「東京」をキーワードとして抽出することができる。 For example, a representative of a company said in a corporate video [Our company is looking for a programmer who can develop APP as an ICT startup located in Tokyo. I would like to meet our developers soon], and the text extraction unit 140 can extract "ICT", "APP development", "startup", and "Tokyo" as keywords.

この時、保存部110に保存された求職者についての情報のうち、履歴がAPP開発者であり、パンギョで仕事をすることを所望する求職者が保存されている場合、マッチング部150は保存部110で該当する求職者を検索して、上記企業についての情報を求職端末20に図7の例示のように提供することができ、企業の質問映像で抽出したキーワードを求職端末20にあらかじめ提供することができる。 At this time, among the information about the job seeker stored in the storage unit 110, if the history is the APP developer and the job seeker who wants to work in Pangyo is stored, the matching unit 150 is the storage unit. The relevant job seeker can be searched by 110, and information about the above company can be provided to the job seeker terminal 20 as illustrated in FIG. 7, and the keywords extracted from the question video of the company are provided to the job seeker terminal 20 in advance. be able to.

これに伴い、求職者は求職端末20を通じて企業情報を選択して、図8の例示と企業が求職端末20を通じて、該当企業の紹介映像および質問映像を見ることができる。 Along with this, the job seeker can select the company information through the job seeker terminal 20, and the example of FIG. 8 and the company can see the introduction video and the question video of the company through the job seeker terminal 20.

また、一実施例として、テキスト抽出部140は企業テキスト情報に含まれたキーワードを判別して企業についての情報に判別されたキーワードをマッピングして保存し、求職テキスト情報に含まれたキーワードを判別して求職者についての情報に判別されたキーワードをマッピングして保存することができる。これに伴い、マッチング部150は企業テキスト情報に含まれたキーワードと求職テキスト情報に含まれたキーワードの類似度に基づいて複数の企業端末10のうちいずれか一つと複数の求職端末20のうちいずれか一つをマッチングさせることができる。 Further, as an embodiment, the text extraction unit 140 discriminates the keywords included in the company text information, maps and saves the determined keywords in the information about the company, and discriminates the keywords included in the job search text information. Then, the determined keyword can be mapped and saved in the information about the job seeker. Along with this, the matching unit 150 has one of a plurality of corporate terminals 10 and one of a plurality of job seeking terminals 20 based on the similarity between the keywords included in the corporate text information and the keywords included in the job seeking text information. Either one can be matched.

類似度の判別のために、マッチング部150は企業テキスト情報に含まれたキーワードと求職テキスト情報に含まれたキーワードとが一致する程度に基づいて類似度を判別することができる。たとえば、企業テキスト情報に含まれたキーワードが10個であり、求職テキスト情報に含まれたキーワードが10であるとき、互いに8個のキーワードが一致するのであれば80%の類似度と判別することができ、類似度が70%以上である企業および求職者である場合、相互間の情報を優先して露出させたりマッチングさせることができる。 In order to determine the similarity, the matching unit 150 can determine the similarity based on the degree to which the keywords included in the company text information and the keywords included in the job search text information match. For example, when there are 10 keywords included in the company text information and 10 keywords are included in the job search text information, if 8 keywords match each other, it is determined that the degree of similarity is 80%. In the case of companies and job seekers with a similarity of 70% or more, information between each other can be preferentially exposed or matched.

また、類似度の判別のために、マッチング部150は企業テキスト情報に含まれたキーワードと求職テキスト情報に含まれたキーワードとを非指導学習モデルに入力して、企業テキスト情報に含まれたキーワードの群集と求職テキスト情報に含まれたキーワードの群集間の距離に基づいて類似度を判別することができる。このために、非指導学習アルゴリズムのうち、k−means clustering技法を使うことができるが、例示に過ぎず、これに限定されるものではない。 Further, in order to determine the degree of similarity, the matching unit 150 inputs the keywords included in the company text information and the keywords included in the job search text information into the non-teaching learning model, and the keywords included in the company text information. The similarity can be determined based on the distance between the crowd of the keywords and the crowd of keywords contained in the job search text information. For this purpose, the k-means clustering technique can be used among the non-teaching learning algorithms, but it is merely an example and is not limited thereto.

また、一実施例として、テキスト抽出部140は求職映像情報に含まれた言語の種類を判別して求職者についての情報に判別された言語の種類をマッピングして保存部110に保存し、マッチング部150は該当言語が特定企業が要求するものと指定した言語である場合、該当企業端末10に該当求職者についての情報と該当求職者の言語駆使水準についての情報を提供することができる。 Further, as an embodiment, the text extraction unit 140 determines the type of language included in the job-seeking video information, maps the determined language type to the information about the job seeker, stores it in the storage unit 110, and matches it. When the relevant language is a language designated as required by the specific company, the department 150 can provide the relevant company terminal 10 with information on the relevant job seeker and information on the language proficiency level of the relevant job seeker.

このために、テキスト抽出部140は求職映像情報から抽出された求職テキスト情報に基づいて言語の種類を判別することができる。 Therefore, the text extraction unit 140 can determine the type of language based on the job search text information extracted from the job search video information.

また、テキスト抽出部140は音声情報を入力レイヤーに、音声情報に含まれた言語の種類および駆使水準についての情報を出力レイヤーに入力されるように設定して、機械学習アルゴリズムに基づいて学習された神経網モデルに、音声情報を入力した時に出力される情報から言語の種類および言語駆使水準を判別することができる。 Further, the text extraction unit 140 is set so that the voice information is input to the input layer and the information about the language type and the usage level included in the voice information is input to the output layer, and is learned based on the machine learning algorithm. It is possible to determine the type of language and the level of language utilization from the information output when voice information is input to the neural network model.

言語の種類を判別する神経網モデルを生成する方法の一例を説明する。まず、音声情報に含まれた言語の種類と該当音声情報の言語駆使水準に対してラベリングする。この時、音声情報は神経網の入力レイヤーに、ラベリングされた言語の種類と言語駆使水準は神経網の出力レイヤーに入力されるように設定する。これに対し、神経網設計者の選択により入力レイヤー、隠匿レイヤー、出力レイヤーに含まれるノードの個数および隠匿レイヤーの深さを設定して、複数の互いに異なる音声情報に対して数回学習させて神経網モデルを生成することができる。この時、使用できる機械学習アルゴリズムの種類はいずれか一つに限定されるものではない。 An example of a method of generating a neural network model for discriminating the type of language will be described. First, the types of languages included in the voice information and the language usage level of the relevant voice information are labeled. At this time, the voice information is set to be input to the input layer of the neural network, and the labeled language type and language utilization level are set to be input to the output layer of the neural network. On the other hand, the number of nodes included in the input layer, the concealment layer, and the output layer and the depth of the concealment layer are set according to the selection of the neural network designer, and a plurality of different audio information is learned several times. A neural network model can be generated. At this time, the types of machine learning algorithms that can be used are not limited to any one.

前述した実施例によると、企業または求職者が直接アップロードした動画で人に対して実生活で感じることができる情報をデータとして抽出し、このようなデータを企業または求職者に提供して効率的な求人求職マッチングを成功させることができる。 According to the above-mentioned embodiment, information that can be felt in real life for a person is extracted as data from a video uploaded directly by a company or a job seeker, and such data is provided to the company or a job seeker efficiently. Successful job search matching.

一方、前述した実施例が含む保存部110、企業映像受信部120、求職映像受信部130、テキスト抽出部140およびマッチング部150は、これらの機能を遂行するようにプログラムされた命令語を含むメモリ、およびこれらの命令語を遂行するマイクロ・プロセッサを含む演算装置によって具現され得る。 On the other hand, the storage unit 110, the corporate video reception unit 120, the job search video reception unit 130, the text extraction unit 140, and the matching unit 150 included in the above-described embodiment are memories including instruction words programmed to perform these functions. , And can be embodied by arithmetic units including microprocessors that carry out these instructions.

図9は、本発明の一実施例に係る動画基盤求人求職マッチング方法のプロセスを図示したフローチャートである。図9による動画基盤求人求職マッチング方法の各段階は図2を通じて説明された動画基盤求人求職マッチングサーバー100により実行され得、各段階を説明すると次の通りである。 FIG. 9 is a flowchart illustrating the process of the video-based job offer matching method according to the embodiment of the present invention. Each step of the video-based job-seeking matching method according to FIG. 9 can be executed by the video-based job-seeking matching server 100 described through FIG. 2, and each step will be described as follows.

まず、保存部110は企業についての情報及び求職者についての情報を保存する (S110)。 First, the storage unit 110 stores information about the company and information about the job seeker (S110).

次に、企業映像受信部120は企業が使う企業端末10から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信する(S120)。 Next, the company video receiving unit 120 receives company video information including a company introduction video or a question video for an interview from the company terminal 10 used by the company (S120).

また、求職映像受信部130は求職者が使う求職端末20から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信する(S130)。 Further, the job-seeking video receiving unit 130 receives job-seeking video information including an introduction video of the job-seeker or a response video to a question from the job-seeking terminal 20 used by the job-seeker (S130).

これに伴い、テキスト抽出部140は企業映像情報および求職映像情報のそれぞれに含まれた音声情報を抽出して、それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を保存部110に保存する(S140)。 Along with this, the text extraction unit 140 extracts the audio information included in each of the corporate video information and the job search video information, and stores the corporate text information and the job search text information in which the respective audio information is converted into text in the storage unit 110. (S140).

この後、マッチング部150は企業テキスト情報および求職テキスト情報に基づいて企業端末10に企業が所望する求職者についての情報を提供したりまたは求職端末20に求職者が所望する企業についての情報を提供する(S150)。 After that, the matching unit 150 provides the company terminal 10 with information about the job seeker desired by the company or provides the job seeker terminal 20 with information about the company desired by the job seeker based on the company text information and the job search text information. (S150).

一方、前述した各段階の主体である要素が該当段階を実施するための過程と 多様な実施例は、図2〜図8と共に説明したため、重複する説明は省略する。 On the other hand, since the process in which the element that is the main body of each stage described above carries out the relevant stage and various examples have been described together with FIGS. 2 to 8, duplicate description will be omitted.

前述した本発明の実施例は多様な手段を通じて具現され得る。例えば、本発明の実施例はハードウェア、ファームウェア(firmware)、ソフトウェアまたはそれらの結合などによって具現され得る。 The embodiments of the present invention described above can be embodied through various means. For example, the embodiments of the present invention may be embodied by hardware, firmware, software or a combination thereof.

ハードウェアによる具現の場合、本発明の実施例に係る方法は、一つまたはそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロ・プロセッサなどによって具現され得る。 In the case of hardware realization, the method according to the embodiment of the present invention is one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Programming Devices). It can be embodied by Devices), FPGAs (Field Programmable Gate Arrays), processors, controllers, microprocessors, microprocessors and the like.

ファームウェアやソフトウェアによる具現の場合、本発明の実施例に係る方法は、以上で説明された機能または動作を遂行するモジュール、手続きまたは関数などの形態で具現され得る。ソフトウェアコードなどが記録されたコンピュータプログラムは、コンピュータ読み取り可能記録媒体またはメモリユニットに保存されてプロセッサによって駆動され得る。メモリユニットはプロセッサの内部または外部に位置して、すでに公知とされている多様な手段によってプロセッサとデータをやり取りすることができる。 In the case of realization by firmware or software, the method according to the embodiment of the present invention may be embodied in the form of a module, procedure or function that performs the function or operation described above. A computer program in which software code or the like is recorded may be stored in a computer-readable recording medium or a memory unit and driven by a processor. The memory unit is located inside or outside the processor and can exchange data with the processor by various means already known.

また、本発明に添付されたブロック図の各ブロックとフローチャートの各段階の組み合わせは、コンピュータプログラムインストラクションによって遂行されてもよい。これらコンピュータプログラムインストラクションは、汎用コンピュータ、特殊用コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコーディングプロセッサに搭載され得るため、コンピュータまたはその他のプログラム可能なデータプロセシング装備のエンコーディングプロセッサを通じて遂行されるそのインストラクションが、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行する手段を生成することになる。これらコンピュータプログラムインストラクションは、特定の方法で機能を具現するために、コンピュータまたはその他のプログラム可能なデータプロセシング装備を指向できるコンピュータ利用可能またはコンピュータ読み取り可能メモリに保存されることも可能であるため、そのコンピュータ利用可能またはコンピュータ読み取り可能メモリに保存されたインストラクションは、ブロック図の各ブロックまたはフローチャートの各段階で説明された機能を遂行するインストラクション手段を内包する製造品目を生産することも可能である。コンピュータプログラムインストラクションは、コンピュータまたはその他のプログラム可能なデータプロセシング装備上に搭載されることも可能であるため、コンピュータまたはその他のプログラム可能なデータプロセシング装備上で一連の動作段階が遂行されて、コンピュータで実行されるプロセスを生成してコンピュータまたはその他のプログラム可能なデータプロセシング装備を遂行するインストラクションは、ブロック図の各ブロックおよびフローチャートの各段階で説明された機能を遂行するための段階を提供することも可能である。 Further, the combination of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by a computer program instruction. Since these computer program instructions can be installed in a general purpose computer, a special computer, or an encoding processor equipped with other programmable data processing, the instructions performed through the computer or other encoding processor equipped with programmable data processing can be carried out. , Will generate means to perform the functions described at each block of the block diagram or at each stage of the flowchart. These computer program instructions can also be stored in computer-enabled or computer-readable memory that can be directed to a computer or other programmable data processing equipment to embody functionality in a particular way. Instructions stored in computer-enabled or computer-readable memory can also produce manufactured items that include instructional means to perform the functions described at each block of the block diagram or at each stage of the flowchart. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of stages of operation can be performed on the computer or other programmable data processing equipment on the computer. Instructions that generate a process to be performed to perform a computer or other programmable data processing equipment may also provide steps to perform the functions described at each block of the block diagram and at each stage of the flowchart. It is possible.

併せて、各ブロックまたは各段階は、特定された論理的機能を実行するための一つ以上の実行可能なインストラクションを含むモジュール、セグメントまたはコードの一部を表すことができる。また、いくつかの代替実施例では、ブロックまたは段階で言及された機能が順序を外れて発生することも可能であることに注目しなければならない。例えば、連続して図示されている二つのブロックまたは段階は、実質的に同時に実行されることも可能でありまたはそのブロックまたは段階が時々該当する機能にしたがって逆順で遂行されることも可能である。 Together, each block or stage can represent a portion of a module, segment, or code that contains one or more executable instructions for performing the specified logical function. It should also be noted that in some alternative embodiments, the functions mentioned in the block or stage can occur out of order. For example, two blocks or stages shown in succession can be performed substantially simultaneously, or the blocks or stages can sometimes be performed in reverse order according to the function in question. ..

このように、本発明が属する技術分野の当業者は、本発明がその技術的思想や必須の特徴を変更することなく他の具体的な形態で実施され得るということが理解できるはずである。したがって、以上で記述した実施例はすべての面で例示的なものであり限定的ではないものとして理解されるべきである。本発明の範囲は詳細な説明よりは後述する特許請求の範囲によって示され、特許請求の範囲の意味および範囲そして、その等価概念から導き出されるすべての変更または変形された形態も本発明の範囲に含まれるものと解釈されるべきである。 Thus, one of ordinary skill in the art to which the present invention belongs should be able to understand that the present invention can be implemented in other specific forms without altering its technical ideas or essential features. Therefore, the examples described above should be understood as exemplary and not limiting in all respects. The scope of the present invention is indicated by the scope of claims described later rather than the detailed description, and the meaning and scope of the claims and all modified or modified forms derived from the equivalent concept are also included in the scope of the present invention. It should be interpreted as being included.

1:動画基盤求人求職マッチングシステム
10:企業端末
20:求職端末
100:動画基盤求人求職マッチングサーバー
110:保存部
120:企業映像受信部
130:求職映像受信部
140:テキスト抽出部
150:マッチング部
1: Video-based job-seeking matching system 10: Corporate terminal 20: Job-seeking terminal 100: Video-based job-seeking matching server 110: Storage unit 120: Corporate video receiving unit 130: Job-seeking video receiving unit 140: Text extraction unit 150: Matching unit

Claims (12)

企業についての情報および求職者についての情報を保存する保存部;
前記企業が使う企業端末から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信する企業映像受信部;
前記求職者が使う求職端末から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信する求職映像受信部;
前記企業映像情報および前記求職映像情報のそれぞれに含まれた音声情報を抽出して、前記それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を保存するテキスト抽出部;および
前記企業テキスト情報および前記求職テキスト情報に基づいて、前記企業端末に前記企業が所望する求職者についての情報を提供したりまたは前記求職端末に前記求職者が所望する企業についての情報を提供するマッチング部を含み、
前記テキスト抽出部は、
前記求職映像情報に含まれた言語の種類を判別して前記求職者についての情報に前記判別された言語の種類をマッピングして保存し、
前記マッチング部は、
前記企業が要求する既指定した言語が前記判別された言語である場合、前記求職者についての情報を前記企業端末に提供する、動画基盤求人求職マッチングサーバー。
Storage department that stores information about companies and information about job seekers;
A company video receiver that receives company video information including a company introduction video or a question video for an interview from the company terminal used by the company;
Job-seeking video receiving unit that receives job-seeking video information including an introduction video of the job-seeker or a video of answering a question from the job-seeking terminal used by the job-seeker;
A text extraction unit that extracts voice information contained in each of the company video information and the job-seeking video information and saves the company text information and the job-seeking text information in which the respective voice information is converted into text; and the company text information. and based on the job text information, see contains a matching portion in which the job seeker said to provide or or the job terminal information about job seekers company desires to the company terminal provides information about the desired enterprise ,
The text extraction unit
The type of language included in the job-seeking video information is discriminated, and the discriminated language type is mapped to the information about the job seeker and saved.
The matching unit
A video-based job-seeking matching server that provides information about the job seeker to the company terminal when the already-designated language requested by the company is the determined language .
前記テキスト抽出部は、
前記企業映像情報および前記求職映像情報のそれぞれを音声情報に変換し、CSR(Clova Speech Recognition)アルゴリズムに基づいて前記それぞれの音声情報からテキスト情報を抽出する、請求項1に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
The video-based job search according to claim 1, wherein each of the company video information and the job search video information is converted into voice information, and text information is extracted from each of the voice information based on a CSR (Clova Speech Recognition) algorithm. Matching server.
前記テキスト抽出部は、
前記企業テキスト情報に含まれたキーワードを判別して前記企業についての情報に前記キーワードをマッピングして保存し、
前記マッチング部は、
前記求職者についての情報に前記求職者が既指定したキーワードが保存されている場合、前記既指定したキーワードがマッピングされている企業端末の情報を前記求職端末に提供する、請求項1に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
The keyword included in the company text information is discriminated, the keyword is mapped to the information about the company, and the keyword is saved.
The matching unit
The first aspect of claim 1, wherein when the keyword specified by the job seeker is stored in the information about the job seeker, the information of the company terminal to which the specified keyword is mapped is provided to the job seeker terminal. Video-based job search matching server.
前記テキスト抽出部は、
前記企業テキスト情報に含まれたキーワードを判別して前記企業についての情報に前記キーワードをマッピングして保存し、
前記求職テキスト情報に含まれたキーワードを判別して前記求職者についての情報に前記キーワードをマッピングして保存し、
前記マッチング部は、
前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードの類似度に基づいて、複数の企業端末のうちいずれか一つと複数の求職端末のうちいずれか一つをマッチングさせる、請求項1に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
The keyword included in the company text information is discriminated, the keyword is mapped to the information about the company, and the keyword is saved.
The keyword included in the job seeker text information is discriminated, and the keyword is mapped and saved in the information about the job seeker.
The matching unit
Matching any one of a plurality of corporate terminals with any one of a plurality of job seeking terminals based on the similarity between the keywords included in the company text information and the keywords contained in the job seeking text information. The video-based job search matching server according to claim 1.
前記テキスト抽出部は、
前記企業テキスト情報および求職テキスト情報をクローリングして既設定された単語または語句をキーワードで判別する、請求項3または請求項4に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
The video-based job-seeking matching server according to claim 3 or 4, wherein the company text information and the job-seeking text information are crawled to determine a set word or phrase by a keyword.
前記テキスト抽出部は、
テキスト情報を入力レイヤー、既設定された単語または語句を出力レイヤーとして設定して、機械学習アルゴリズムに基づいて学習された神経網モデルに、前記企業テキスト情報および求職テキスト情報を入力した時に出力される単語または語句をキーワードで判別する、請求項3または請求項4に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
It is output when the company text information and the job search text information are input to the neural network model learned based on the machine learning algorithm by setting the text information as the input layer and the already set word or phrase as the output layer. The video-based job search matching server according to claim 3 or 4, which discriminates a word or phrase by a keyword.
前記マッチング部は、
前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードとが一致する程度に基づいて類似度を判別する、請求項4に記載の動画基盤求人求職マッチングサーバー。
The matching unit
The video-based job-seeking matching server according to claim 4, wherein the similarity is determined based on the degree to which the keywords included in the company text information and the keywords included in the job-seeking text information match.
前記マッチング部は、
前記企業テキスト情報に含まれたキーワードと前記求職テキスト情報に含まれたキーワードをk−means clusteringアルゴリズムに基づいた非指導学習モデルに入力して、前記企業テキスト情報に含まれたキーワードの群集と前記求職テキスト情報に含まれたキーワードの群集間の距離に基づいて類似度を判別する、請求項4に記載の動画基盤求人求職マッチングサーバー。
The matching unit
The keywords included in the company text information and the keywords included in the job search text information are input into a non-teaching learning model based on the k-means clustering algorithm, and the group of keywords included in the company text information and the above The video-based job search matching server according to claim 4, which determines the degree of similarity based on the distance between the crowds of keywords included in the job search text information.
前記テキスト抽出部は、
前記求職映像情報から抽出された求職テキスト情報に基づいて前記言語の種類を判別する、請求項に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
Wherein determining the type of the language based on the job text information extracted from the job image information, video infrastructure job seekers matching server according to claim 1.
前記テキスト抽出部は、
音声情報を入力レイヤー、前記音声情報に含まれた言語の種類および前記音声情報の言語駆使水準についての情報を出力レイヤーとして設定して、機械学習アルゴリズムに基づいて学習されたモデルに、前記求職映像情報から抽出された音声情報を入力した時に出力される情報から前記言語の種類および言語駆使水準を判別し、
前記マッチング部は、
前記企業が要求する既指定した言語が前記判別された言語である場合、前記企業端末に前記求職者の言語駆使水準についての情報を追加的に提供する、請求項に記載の動画基盤求人求職マッチングサーバー。
The text extraction unit
The job-seeking video is applied to a model learned based on a machine learning algorithm by setting audio information as an input layer, setting information about the type of language included in the audio information and the language utilization level of the audio information as an output layer. The type of language and the level of language utilization are determined from the information output when the voice information extracted from the information is input.
The matching unit
If the language you already specified that the company requires is the discriminated language, said providing additionally information about language full use levels of the job seeker to corporate terminal, video infrastructure job seekers of claim 1 Matching server.
動画基盤求人求職マッチングサーバーが遂行する動画基盤求人求職マッチング方法において、
企業についての情報および求職者についての情報を保存する段階;
前記企業が使う企業端末から企業の紹介映像または面接のための質問映像を含む企業映像情報を受信する段階;
前記求職者が使う求職端末から求職者の紹介映像または質問に対する返答映像を含む求職映像情報を受信する段階;
前記企業映像情報および前記求職映像情報のそれぞれに含まれた音声情報を抽出して前記それぞれの音声情報をテキスト化した企業テキスト情報および求職テキスト情報を保存する段階;および
前記企業テキスト情報および前記求職テキスト情報に基づいて、前記企業端末に前記企業が所望する求職者についての情報を提供したりまたは前記求職端末に前記求職者が所望する企業についての情報を提供する段階を含み、
前記テキスト情報を保存する段階は、
前記求職映像情報に含まれた言語の種類を判別して前記求職者についての情報に前記判別された言語の種類をマッピングして保存する段階を含み、
前記企業端末に前記企業が所望する求職者についての前記情報を提供する段階は、
前記企業が要求する既指定した言語が前記判別された言語である場合、前記求職者についての前記情報を前記企業端末に提供する段階を含む、動画基盤求人求職マッチング方法。
In the video-based job-seeking matching method performed by the video-based job-seeking matching server,
The stage of storing information about companies and job seekers;
The stage of receiving company video information including a company introduction video or a question video for an interview from the company terminal used by the company;
The stage of receiving job-seeking video information including an introduction video of the job-seeker or a video of answering a question from the job-seeking terminal used by the job-seeker;
The stage of extracting the voice information contained in each of the company video information and the job search video information and storing the company text information and the job search text information in which the respective voice information is converted into text; and the company text information and the job search. based on the text information, see contains the step of providing information about companies where the job seekers said to provide or or the job terminal information about job seekers company desires to the company terminal desires,
The stage of saving the text information is
Including a step of discriminating the type of language included in the job-seeking video information and mapping and saving the discriminated language type to the information about the job seeker.
The step of providing the company terminal with the information about the job seeker desired by the company is
A video-based job-seeking matching method including a step of providing the information about the job seeker to the company terminal when the already designated language requested by the company is the determined language .
請求項11に記載された方法をプロセッサが遂行するようにする命令語を含むコンピュータプログラムが記録された、コンピュータ読み取り可能記録媒体。 A computer-readable recording medium in which a computer program including an instruction word that causes a processor to perform the method according to claim 11 is recorded.
JP2019148430A 2018-10-29 2019-08-13 Video-based Jobs Job Matching Servers and methods and computer-readable recording media containing programs to perform those methods Active JP6793975B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180129732A KR102011870B1 (en) 2018-10-29 2018-10-29 Server and method for matching employee with employer based on video information
KR10-2018-0129732 2018-10-29

Publications (2)

Publication Number Publication Date
JP2020071869A JP2020071869A (en) 2020-05-07
JP6793975B2 true JP6793975B2 (en) 2020-12-02

Family

ID=67807521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148430A Active JP6793975B2 (en) 2018-10-29 2019-08-13 Video-based Jobs Job Matching Servers and methods and computer-readable recording media containing programs to perform those methods

Country Status (2)

Country Link
JP (1) JP6793975B2 (en)
KR (1) KR102011870B1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112308A1 (en) * 2019-12-06 2021-06-10 박환희 Method and server for providing employment interview service
KR102323481B1 (en) * 2019-12-06 2021-11-09 박환희 Method and server for proving contents adopting security
KR102373350B1 (en) 2020-06-12 2022-03-11 주식회사 한국직업개발원 Electronic commerce system for disable person and exemplary companies, and method thereof
KR102219271B1 (en) * 2020-08-28 2021-02-22 이장현 Method and server for providing job search service exclusively for entertainment
JP7254054B2 (en) * 2020-10-07 2023-04-07 株式会社ベクトル Server device, program, method and investor terminal device
JPWO2022113286A1 (en) * 2020-11-27 2022-06-02
JP7452701B2 (en) * 2020-11-27 2024-03-19 日本電気株式会社 Recommendation device, recommendation system, recommendation method and program
KR102319077B1 (en) * 2020-12-18 2021-10-29 주식회사 컴퍼니제이 Method, device, and system of online resume provision and recruitment
WO2023112098A1 (en) * 2021-12-13 2023-06-22 日本電信電話株式会社 Compatibility evaluation device, compatibility evaluation method, and program
KR102585693B1 (en) * 2022-01-10 2023-10-06 김병복 System for providing non face-to-face recruitment communcation platform service
CN114663042B (en) * 2022-02-11 2023-04-21 北京斗米优聘科技发展有限公司 Smart phone call recruitment method and device, electronic equipment and storage medium
KR102536000B1 (en) * 2022-07-08 2023-05-26 최명재 Method and device for providing service for recruiting based on commerce

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005130145A (en) * 2003-10-22 2005-05-19 Recruit Co Ltd Employer information providing server, method for the same, and program
KR20040030029A (en) * 2004-03-19 2004-04-08 주식회사 주은텍 Job Recruiting system using Multimedia Information
KR100708389B1 (en) * 2004-07-02 2007-04-18 동국대학교 산학협력단 The device which the compression and memorial to a PDF file of the security and method thereof
JP2006031204A (en) * 2004-07-14 2006-02-02 Recruit Co Ltd Information matching apparatus
US20080262859A1 (en) * 2007-04-20 2008-10-23 Yahoo! Inc. Systems and methods for providing a video resume
JP2009230731A (en) * 2008-03-19 2009-10-08 Planet Inc Job-offering/job-seeking support system and job-offering/job-seeking support method
KR20110056677A (en) * 2009-11-23 2011-05-31 (주)길림컴즈 Website system and method for employment assessment using by information retrieval of internet moving picture
JP5346841B2 (en) * 2010-02-22 2013-11-20 株式会社野村総合研究所 Document classification system, document classification program, and document classification method
KR20140135288A (en) 2013-05-15 2014-11-26 이혁재 Matching system of job service using Value Database
KR20160032433A (en) * 2014-09-16 2016-03-24 이남영 Recruit method and system using on-line
KR101830747B1 (en) * 2016-03-18 2018-02-21 주식회사 이노스피치 Online Interview system and method thereof
JP2017188021A (en) * 2016-04-08 2017-10-12 株式会社アールテクノ Job seeker support system

Also Published As

Publication number Publication date
KR102011870B1 (en) 2019-08-20
JP2020071869A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP6793975B2 (en) Video-based Jobs Job Matching Servers and methods and computer-readable recording media containing programs to perform those methods
US11081018B2 (en) Personalized learning system and method for the automated generation of structured learning assets based on user data
CN108446286B (en) Method, device and server for generating natural language question answers
CN110717017B (en) Method for processing corpus
CN106685916B (en) Intelligent device and method for electronic conference
Fiok et al. Explainable artificial intelligence for education and training
CN111641514B (en) Conference intelligence system, method for conference intelligence, and storage medium
US20170206797A1 (en) Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
CN111738016B (en) Multi-intention recognition method and related equipment
CN108415932A (en) Interactive method and electronic equipment
KR20190125153A (en) An apparatus for predicting the status of user's psychology and a method thereof
CN111708869B (en) Processing method and device for man-machine conversation
CN112395887A (en) Dialogue response method, dialogue response device, computer equipment and storage medium
Sabharwal et al. Developing Cognitive Bots Using the IBM Watson Engine: Practical, Hands-on Guide to Developing Complex Cognitive Bots Using the IBM Watson Platform
CN117172978B (en) Learning path information generation method, device, electronic equipment and medium
Devi et al. ChatGPT: Comprehensive Study On Generative AI Tool
Kumari et al. Domain-Specific Chatbot Development Using the Deep Learning-Based RASA Framework
Zhao et al. [Retracted] A Multimodal Model for College English Teaching Using Text and Image Feature Extraction
Taulli et al. Natural Language Processing (NLP) How Computers Talk
CN114757206A (en) Consultation service method, system and storage medium
Kingchang et al. Artificial Intelligence Chatbot Platform: AI Chatbot Platform for Educational Recommendations in Higher Education
Antunes et al. A context-based collaborative framework to build sign language databases by real users
KR102489448B1 (en) A system for providing data labeling services
US20230095895A1 (en) Aggregating and identifying new sign language signs
JP7475017B1 (en) Job advertisement related document creation support device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201104

R150 Certificate of patent or registration of utility model

Ref document number: 6793975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150