JP2021089557A - Test system - Google Patents

Test system Download PDF

Info

Publication number
JP2021089557A
JP2021089557A JP2019219400A JP2019219400A JP2021089557A JP 2021089557 A JP2021089557 A JP 2021089557A JP 2019219400 A JP2019219400 A JP 2019219400A JP 2019219400 A JP2019219400 A JP 2019219400A JP 2021089557 A JP2021089557 A JP 2021089557A
Authority
JP
Japan
Prior art keywords
data
test
teaching material
communication terminal
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219400A
Other languages
Japanese (ja)
Other versions
JP7381014B2 (en
Inventor
弘明 ▲はが▼
弘明 ▲はが▼
Hiroaki Haga
田中 伸一
Shinichi Tanaka
伸一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL KNOWLEDGE CO Ltd
Original Assignee
DIGITAL KNOWLEDGE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL KNOWLEDGE CO Ltd filed Critical DIGITAL KNOWLEDGE CO Ltd
Priority to JP2019219400A priority Critical patent/JP7381014B2/en
Publication of JP2021089557A publication Critical patent/JP2021089557A/en
Application granted granted Critical
Publication of JP7381014B2 publication Critical patent/JP7381014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a test system in which determining an integrity ratio between face data of a prior registered entrance exam candidate and face data photographed at a timing for taking a test can prevent fraud test or proxy test-taking.SOLUTION: There is provided a test system 10 which provides test contents to authorized users and makes it available for inputting answers against the test contents within a prescribed test time, wherein an integrity ratio between face data inputted by a camera of a communication terminal T110 and face image data stored in a user authentication database V150-7 is calculated, for executing fraud monitoring processing. The fraud monitoring processing is executed at monitoring timings in a plurality of times in accordance with a time elapsed within the test time, for determining whether or not the answers against the test contents are fraud based on the integrity ratio.SELECTED DRAWING: Figure 1

Description

試験システムに関する。 Regarding the test system.

資格試験、入学試験、大学の単位習得試験等において、なりすまし防止のために本人確認を厳格に求められており、試験会場で受験する際には、学生証や受験票の顔写真と受験者とを試験官が目視で確認している。 In qualification examinations, entrance examinations, university credit acquisition examinations, etc., identity verification is strictly required to prevent spoofing. Is visually confirmed by the examiner.

特開2003−150721号Japanese Patent Application Laid-Open No. 2003-150721

しかし、従来の技術を用いて試験管が受験票の顔写真を用いて本人確認を行う場合、受験者の人数が多ければ多いほど、本人確認に要する時間がかかってしまうため、試験官への負荷が多大になってしまうという問題が生じている。また、受験者は必ず決められた試験会場に行って受験をしなければならず、遠隔地の人にとっては試験会場に行くことに労力を費やしているという問題も生じている。 However, when a test tube uses a conventional technique to verify the identity of an examinee using a photo of the examinee's face, the larger the number of examinees, the longer it takes to verify the identity. There is a problem that the load becomes heavy. In addition, the examinee must always go to the designated examination venue to take the examination, and there is a problem that people in remote areas spend their efforts to go to the examination venue.

本発明は、上述の点に鑑みてなされたものであり、その目的とするところは、オンラインでの試験が可能な試験システムであって、あらかじめ登録された受験者の顔データと試験時に撮影された顔データとの整合率を判定することで不正受験や替え玉受験を抑止することができる試験システムを提供することにある。 The present invention has been made in view of the above points, and an object of the present invention is a test system capable of conducting an online test, in which pre-registered test taker face data and images taken at the time of the test are taken. The purpose of the present invention is to provide a test system that can prevent fraudulent examinations and replacement ball examinations by determining the matching rate with the face data.

本発明(1)は、
認証されたユーザに対して試験コンテンツを提供し、前記試験コンテンツに対する回答を所定の試験時間内にて入力可能とする試験システムであって、
撮像手段(例えば、通信端末T110のカメラ)によって入力された画像データ(例えば、顔データ)と、前記認証されたユーザに対応し予め記憶された顔画像データ(例えば、ユーザ認証用データベースに記憶されている顔画像データ)との整合率を算出する不正監視処理(例えば、不正監視手段V130−1での比較解析の処理)を実行可能であり、
前記所定の試験時間内での時間経過に応じた複数回の監視タイミングにて前記不正監視処理を実行し、前記整合率に基づき前記試験コンテンツに対する回答に不正があったか否かを決定可能である
ことを特徴とする試験システムである。
The present invention (1)
A test system that provides test content to authenticated users and enables input of answers to the test content within a predetermined test time.
Image data (for example, face data) input by an imaging means (for example, a camera of a communication terminal T110) and face image data (for example, a user authentication database) stored in advance corresponding to the authenticated user are stored. It is possible to execute a fraud monitoring process (for example, a process of comparative analysis by the fraud monitoring means V130-1) for calculating the matching rate with the (face image data).
It is possible to execute the fraud monitoring process at a plurality of monitoring timings according to the passage of time within the predetermined test time, and to determine whether or not the response to the test content is fraudulent based on the consistency rate. It is a test system characterized by.

本発明(2)は、
前記整合率に加えて前記試験コンテンツに対する回答に関する情報も加味して、前記試験コンテンツに対する回答に不正があったか否かを決定可能である、前記発明(1)記載の試験システムである。
The present invention (2)
The test system according to the invention (1), wherein it is possible to determine whether or not the response to the test content is incorrect by taking into consideration the information regarding the response to the test content in addition to the consistency rate.

本発明(3)は、
前記顔画像データは正面顔が撮像された画像データであり、前記撮像手段によって入力された画像データについて正面顔が撮像されたものでない場合にも前記整合率が低下する、前記発明(1)記載の試験システムである。
The present invention (3)
The above-described invention (1), wherein the face image data is image data obtained by capturing a front face, and the matching rate is lowered even when the front face is not captured with respect to the image data input by the imaging means. Test system.

オンラインでの試験が可能なシステムであるため、遠隔地の人でも試験会場に行くことなく試験を受けることが可能となる試験システムを提供することができる。また、あらかじめ登録された受験者の顔データと試験時に撮影された顔データとの整合率を判定することで不正受験や替え玉受験を抑止することができるため、試験官の負荷を大幅に軽減することが可能となる試験システムを提供することができる。 Since it is a system that enables online testing, it is possible to provide a testing system that enables people in remote areas to take the test without going to the testing site. In addition, by determining the matching rate between the face data of the examinee registered in advance and the face data taken during the test, it is possible to prevent fraudulent examinations and replacement ball examinations, which greatly reduces the burden on the examiner. It is possible to provide a test system that enables this.

本実施形態に係る試験システムの全体構成図である。It is an overall block diagram of the test system which concerns on this embodiment. 本実施形態に係るサーバの機能ブロック図である。It is a functional block diagram of the server which concerns on this embodiment. 本実施形態に係るユーザ情報登録手段が実行する処理のシステムフロー図である。It is a system flow diagram of the process executed by the user information registration means which concerns on this embodiment. 本実施形態に係るユーザログイン手段が実行する処理のシステムフロー図である。It is a system flow diagram of the process executed by the user login means which concerns on this embodiment. 本実施形態に係る試験実行手段及び不正監視手段が実行する処理のシステムフロー図である。It is a system flow diagram of the process executed by the test execution means and fraud monitoring means which concerns on this Embodiment. 本実施形態に係る変形例の試験実行手段及び不正監視手段が実行する処理のシステムフロー図である。It is a system flow diagram of the process executed by the test execution means and fraud monitoring means of the modified example which concerns on this embodiment. 本実施形態に係る学習システムの全体構成図である。It is an overall block diagram of the learning system which concerns on this embodiment. 本実施形態に係る検索実行手段が実行する処理のシステムフロー図である。It is a system flow diagram of the process executed by the search execution means which concerns on this embodiment. 本実施形態に係る検索実行手段の検索キーワードを使用した検索結果の画面の例を示す図である。It is a figure which shows the example of the screen of the search result using the search keyword of the search execution means which concerns on this embodiment. 本実施形態に係る検索実行手段の検索キーワードを使用した詳細表示要求の画面の例を示す図である。It is a figure which shows the example of the screen of the detailed display request using the search keyword of the search execution means which concerns on this embodiment. 本実施形態に係る全文表示手段が実行する全文表示の画面の例を示す図である。It is a figure which shows the example of the screen of the full-text display executed by the full-text display means which concerns on this embodiment.

(試験システム10のシステム全体構成)
まず、図1を参照しながら、本実施形態に係る試験システム10のシステム全体構成について説明する。はじめに、試験システム10は、通信端末T110での操作によりサーバV100における試験の管理を可能とするシステムである。まず、図示するように、試験システム10は、通信端末T110とサーバV100とから構成されている。
(Overall system configuration of test system 10)
First, the overall system configuration of the test system 10 according to the present embodiment will be described with reference to FIG. First, the test system 10 is a system that enables test management on the server V100 by operating the communication terminal T110. First, as shown in the figure, the test system 10 includes a communication terminal T110 and a server V100.

通信端末T110は、CPU(中央処理装置)、ROM(リードオンリーメモリ)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)、I/F(通信インターフェース装置)や操作手段(キーボード、マウス、タッチパネルなどの操作装置)、表示手段(液晶やタッチパネルなどの表示装置)などを備えたパーソナルコンピュータ、タブレット型コンピュータ、携帯型端末装置などである。 The communication terminal T110 includes a CPU (central processing device), ROM (read-only memory), RAM (random access memory), HDD (hard disk drive), I / F (communication interface device), operating means (keyboard, mouse, touch panel, etc.). (Operation device), personal computer equipped with display means (display device such as liquid crystal or touch panel), tablet computer, portable terminal device, and the like.

サーバV100は、CPU(中央処理装置)、ROM(リードオンリーメモリ)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)、I/F(通信インターフェース装置)や操作手段(キーボード、マウス、タッチパネルなどの操作装置)などを備えたコンピュータ、タブレット型コンピュータ、携帯型端末装置、サーバなどである。 The server V100 includes a CPU (central processing device), a ROM (read-only memory), a RAM (random access memory), an HDD (hard disk drive), an I / F (communication interface device), and an operating means (keyboard, mouse, touch panel, etc.). Computers equipped with (operating devices), tablet computers, portable terminal devices, servers, and the like.

サーバV100は、各種の演算処理及びデータ処理や、インターネットなどのネットワーク820を介して通信端末T110との通信処理などが可能な装置である。 The server V100 is a device capable of various arithmetic processing and data processing, and communication processing with the communication terminal T110 via a network 820 such as the Internet.

サーバV100は、試験システム10を用いて行われる試験の教材を特定するためのデータベースである試験教材用データベースを有している(図1参照)。試験教材用データベースには、試験教材夫々に割り当ててある試験教材識別情報である教材分類1、教材分類2、教材分類3、教材名、試験教材データが登録されている。なお、試験教材用データベースに登録されているデータは、これらの情報に限られず、試験教材データに対応付けられる試験教材ID等が登録されていてもよい。 The server V100 has a database for examination teaching materials, which is a database for specifying the teaching materials for the examination conducted by using the examination system 10 (see FIG. 1). In the test teaching material database, teaching material classification 1, teaching material classification 2, teaching material classification 3, teaching material name, and examination teaching material data, which are test teaching material identification information assigned to each test teaching material, are registered. The data registered in the test teaching material database is not limited to this information, and the test teaching material ID or the like associated with the test teaching material data may be registered.

試験教材用データベースの教材分類1には、試験で使用する試験教材データの対象を示す情報(中学生、高校生等の情報)が登録されている。教材分類2には、社会、理科、国語、数学、英語等の試験の科目を示す情報が登録されている。教材分類3には、試験の科目を細かく分類した情報が登録されている。例えば、教材分類2が社会の場合は、歴史1、歴史2、歴史3、地理1、地理2等の情報となっている。教材名は、試験で使用する試験教材データの教材名称が登録されている。試験教材データには、試験で使用する試験教材データ(試験問題のデータ)が登録されている。 Information (information on junior high school students, high school students, etc.) indicating the target of the test teaching material data used in the test is registered in the teaching material classification 1 of the test teaching material database. Information indicating test subjects such as social studies, science, national language, mathematics, and English is registered in the teaching material classification 2. In the teaching material classification 3, information in which the subjects of the examination are classified in detail is registered. For example, when the teaching material classification 2 is society, the information is history 1, history 2, history 3, geography 1, geography 2, and the like. As the teaching material name, the teaching material name of the examination teaching material data used in the examination is registered. Examination material data (examination question data) used in the examination is registered in the examination material data.

また、サーバV100は、試験システム10のユーザの夫々を一意に特定するためのデータベースであるユーザ認証用データベースV150−7を有している(図1参照)。ユーザ認証用データベースV150−7には、ユーザ夫々に割り当ててあるユーザ識別情報であるユーザID、ユーザパスワード、ユーザ名、顔画像データ、音声データが登録されている。なお、ユーザ認証用データベースV150−7に登録されているデータは、これらの情報に限られず、ユーザ識別情報として、指紋情報やメールアドレス等が登録されていてもよい。 Further, the server V100 has a user authentication database V150-7, which is a database for uniquely identifying each user of the test system 10 (see FIG. 1). In the user authentication database V150-7, user ID, user password, user name, face image data, and voice data, which are user identification information assigned to each user, are registered. The data registered in the user authentication database V150-7 is not limited to these information, and fingerprint information, an email address, or the like may be registered as user identification information.

(システム構成要素/サーバV100/ブロック図)
次に、図2のブロック図を参照しながら、本実施形態に係るサーバV100の各種機能について説明する。サーバV100は、試験システム10、教育システム20(図7を用いて詳細後述する)を使用する際のユーザログインにて必要なユーザIDやユーザパスワード、ユーザ名、顔画像データ、音声データ等を登録する手段であって後述するユーザ情報登録手段V110、試験システム10、教育システム20を使用する際にユーザID等を使用してシステムにログインする手段であって後述するユーザログイン手段V120、資格試験、入学試験、大学の単位習得試験等の試験をオンラインで実行する手段であって後述する試験実行手段V130、教育システム20において、検索キーワードを使用して検索を行うための手段であって後述する検索実行手段V140、試験システム10、教育システム20で使用する各種データを管理するデータ管理手段V150を有している。
(System component / Server V100 / Block diagram)
Next, various functions of the server V100 according to the present embodiment will be described with reference to the block diagram of FIG. The server V100 registers the user ID, user password, user name, face image data, voice data, etc. required for user login when using the test system 10 and the education system 20 (details will be described later with reference to FIG. 7). User information registration means V110, test system 10, and education system 20, which will be described later, are means for logging in to the system by using a user ID or the like, and user login means V120, qualification test, which will be described later. It is a means to execute tests such as entrance examinations and university credit acquisition tests online, and is a means to perform a search using search keywords in the examination execution means V130 and the education system 20, which will be described later, and is a search described later. It has a data management means V150 that manages various data used in the execution means V140, the test system 10, and the education system 20.

また、試験実行手段V130は、試験において不正を監視する手段であって後述する不正監視手段V130−1を有している。 Further, the test execution means V130 is a means for monitoring fraud in the test and has a fraud monitoring means V130-1 which will be described later.

また、データ管理手段V150は、教育システム20で使用する教材データ(例えば、教材動画データ)をテキスト化する際に最適な動画フォーマットに変換するためのフォーマット変換手段V150−1、教育システム20で使用する教材データ(例えば、教材動画データ)から音声を抽出する音声抽出手段V150−2、音声抽出手段で抽出した音声から文字コードで構成された文字列のデータとしてテキスト化するテキスト化手段V150−3、テキスト化手段でテキスト化した文字列のデータを所定形式に成型するデータ成型手段V150−4、データ成型手段で成型したデータを検索用データベースの形式にするインデックス化手段V150−5、教材分類1〜3、教材名、試験教材データ等が登録されている試験教材用データベースV150−6、ユーザID、ユーザパスワード、ユーザ名、顔画像データ、音声データ等が登録されているユーザ認証用データベースV150−7、教材分類1〜4、教材ID、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)等が登録されている学習教材用データベースV150−8(図7を用いて詳細後述する)、教材ID、変換一文、一文内単語、再生開始ポイント、再生終了ポイント等が登録されている検索用データベースV150−9(図7を用いて詳細後述する)を有している。 Further, the data management means V150 is used in the format conversion means V150-1 and the education system 20 for converting the teaching material data (for example, teaching material video data) used in the education system 20 into the optimum video format when converting into text. Audio extraction means V150-2 that extracts audio from teaching material data (for example, teaching material video data), and text conversion means V150-3 that converts audio extracted by audio extraction means into text as data of a character string composed of character codes. , Data molding means V150-4 that molds the data of the character string converted into text by the text conversion means into a predetermined format, Indexing means V150-5 that converts the data molded by the data molding means into the format of the search database, Teaching material classification 1 ~ 3, Examination teaching material database V150-6 in which teaching material names, examination teaching material data, etc. are registered, User authentication database V150-6 in which user ID, user password, user name, face image data, voice data, etc. are registered 7. Teaching material classification 1-4, teaching material ID, teaching material name, teaching material data (for example, teaching material video data), teaching material length (for example, video length), etc. are registered in the learning teaching material database V150-8 (Fig. 7). It has a search database V150-9 (details will be described later using FIG. 7) in which teaching material IDs, conversion sentences, words in one sentence, playback start points, playback end points, etc. are registered. ing.

(システムフロー)
ここで、図3を参照しながら、試験システム10、検索システム20の、通信端末T110とサーバV100との間でのユーザ情報登録手段が実行する処理について詳述する。本処理は、ユーザが通信端末T110を用いてユーザ個人情報を登録する場合のシステムフローである。
(System flow)
Here, with reference to FIG. 3, the processing executed by the user information registration means between the communication terminal T110 and the server V100 of the test system 10 and the search system 20 will be described in detail. This process is a system flow when the user registers the user's personal information using the communication terminal T110.

(システムフロー/ユーザ情報登録手段/通信端末T110の処理1A)
はじめに、通信端末T110の処理を実行する。まず、ステップ102−Sで、通信端末T110は、ユーザから入力された情報(例えば、URL)に基づき、ユーザ情報登録用のページにアクセスする。次に、ステップ103−Sで、通信端末T110は、ユーザ情報の登録を開始するためのユーザ情報登録要求を、ネットワーク820を介してサーバV100側に送信する。
(System flow / User information registration means / Communication terminal T110 processing 1A)
First, the processing of the communication terminal T110 is executed. First, in step 102-S, the communication terminal T110 accesses the user information registration page based on the information (for example, URL) input by the user. Next, in step 103-S, the communication terminal T110 transmits a user information registration request for starting registration of user information to the server V100 side via the network 820.

(システムフロー/ユーザ情報登録手段/サーバV100の処理1B)
次に、サーバV100の処理へ移行する。まず、ステップ104−Sで、ユーザ情報登録手段V110は、通信端末T110から送信されたユーザ情報登録要求を受信する。次に、ステップ106−Sで、ユーザ情報登録手段V110は、ユーザ情報登録要求フォーム(ユーザ情報に係る各項目を入力するためのフォーム)を生成する。次に、ステップ108−Sで、ユーザ情報登録手段V110は、ユーザ情報登録要求フォーム(ユーザ情報に係る各項目を選択するためのフォーム)を、ネットワーク820を介して通信端末T110に送信する。
(System flow / User information registration means / Server V100 process 1B)
Next, the process shifts to the processing of the server V100. First, in step 104-S, the user information registration means V110 receives the user information registration request transmitted from the communication terminal T110. Next, in step 106-S, the user information registration means V110 generates a user information registration request form (a form for inputting each item related to user information). Next, in step 108-S, the user information registration means V110 transmits a user information registration request form (a form for selecting each item related to user information) to the communication terminal T110 via the network 820.

(システムフロー/ユーザ情報登録手段/通信端末T110の処理2A)
次に、通信端末T110の処理へ移行する。まず、ステップ110−Sで、通信端末T110は、サーバV100から送信されたユーザ情報登録要求フォームを受信する。次に、ステップ112−Sで、通信端末T110は、ユーザ情報登録要求フォームを通信端末T110の表示装置に表示する。次に、ステップ114−Sで、通信端末T110は、ユーザから入力された個人情報(氏名(ユーザ認証用データベースV150−7のユーザ名)、顔データ(ユーザ認証用データベースV150−7の顔画像データ)、声データ(ユーザ認証用データベースV150−7の音声データ名)等の情報)をユーザ情報登録要求フォームにセットする。次に、ステップ116−Sで、通信端末T110は、当該個人情報を入力したユーザ情報登録要求フォーム(入力済)を、ネットワーク820を介してサーバV100側に送信する。
(System flow / User information registration means / Communication terminal T110 processing 2A)
Next, the process shifts to the processing of the communication terminal T110. First, in step 110-S, the communication terminal T110 receives the user information registration request form transmitted from the server V100. Next, in step 112-S, the communication terminal T110 displays the user information registration request form on the display device of the communication terminal T110. Next, in step 114-S, the communication terminal T110 uses the personal information (name (user name of the user authentication database V150-7)) and face data (face image data of the user authentication database V150-7) input by the user. ), Voice data (information such as voice data name of user authentication database V150-7)) is set in the user information registration request form. Next, in step 116-S, the communication terminal T110 transmits the user information registration request form (completed) in which the personal information is input to the server V100 side via the network 820.

(システムフロー/ユーザ情報登録手段/サーバV100の処理2B)
次に、サーバV100の処理へ移行する。まず、ステップ118−Sで、ユーザ情報登録手段V110は、通信端末T110から送信されたユーザ情報登録要求フォーム(入力済)を受信する。次に、ステップ120−Sで、ユーザ情報登録手段V110は、ユーザID及びユーザパスワードを生成する。次に、ステップ122−Sで、ユーザ情報登録手段V110は、当該生成したユーザID及びユーザパスワードと、ユーザ情報登録要求フォームに入力されている個人情報(氏名、顔データ、声データ等)とを紐づけてユーザ認証用データベースV150−7に記憶する。次に、ステップ124−Sで、ユーザ情報登録手段V110は、生成したユーザID及びユーザパスワードを、ネットワーク820を介して通信端末T110に送信する。
(System flow / User information registration means / Server V100 process 2B)
Next, the process shifts to the processing of the server V100. First, in step 118-S, the user information registration means V110 receives the user information registration request form (completed) transmitted from the communication terminal T110. Next, in step 120-S, the user information registration means V110 generates a user ID and a user password. Next, in step 122-S, the user information registration means V110 inputs the generated user ID and user password, and personal information (name, face data, voice data, etc.) entered in the user information registration request form. It is linked and stored in the user authentication database V150-7. Next, in step 124-S, the user information registration means V110 transmits the generated user ID and user password to the communication terminal T110 via the network 820.

ここで、本実施形態においては、ユーザ認証用データベースV150−7は、ユーザID毎に、ユーザパスワード及びユーザの個人情報が対応して管理されるよう構成されているが、ユーザ認証用データベースV150−7の項目の種類は、図1に示した項目には限定されず、例えばユーザの住所、電話番号、生年月日、メールアドレス、学校名、会社名、会社で所属する部署等を管理するよう構成してもよい。 Here, in the present embodiment, the user authentication database V150-7 is configured so that the user password and the user's personal information are managed correspondingly for each user ID. However, the user authentication database V150- The types of items 7 are not limited to the items shown in FIG. 1, and for example, the user's address, telephone number, date of birth, email address, school name, company name, department to which the company belongs, etc. should be managed. It may be configured.

(システムフロー/ユーザ情報登録手段/通信端末T110の処理3A)
次に、通信端末T110の処理へ移行する。まず、ステップ126−Sで、通信端末T110は、ネットワーク820を介してサーバV100から送信されたユーザID及びユーザパスワードを受信する。次に、ステップ128−Sで、通信端末T110は、当該受信したユーザID及びユーザパスワードを表示装置に表示し、ユーザ情報登録手段に係る処理を終了する。
(System flow / User information registration means / Communication terminal T110 processing 3A)
Next, the process shifts to the processing of the communication terminal T110. First, in step 126-S, the communication terminal T110 receives the user ID and user password transmitted from the server V100 via the network 820. Next, in step 128-S, the communication terminal T110 displays the received user ID and user password on the display device, and ends the process related to the user information registration means.

次に、図4を参照しながら、試験システム10、教育システム20の、通信端末T110とサーバV100との間でのユーザログイン手段が実行する処理について詳述する。本処理は、ユーザが通信端末T110を用いて試験システム10、教育システム20にログインする場合のシステムフローである。 Next, with reference to FIG. 4, the processing executed by the user login means between the communication terminal T110 and the server V100 of the test system 10 and the education system 20 will be described in detail. This process is a system flow when the user logs in to the test system 10 and the education system 20 using the communication terminal T110.

(システムフロー/ユーザログイン手段/通信端末T110の処理1C)
はじめに、通信端末T110の処理を実行する。まず、ステップ202−Sで、通信端末T110は、ユーザから入力された情報(例えば、URL)に基づき、ユーザログイン用のページにアクセスする。次に、ステップ204−Sで、通信端末T110は、ログイン情報入力フォーム要求を、ネットワーク820を介してサーバV100側に送信する。
(System flow / User login means / Communication terminal T110 processing 1C)
First, the processing of the communication terminal T110 is executed. First, in step 202-S, the communication terminal T110 accesses the user login page based on the information (for example, URL) input by the user. Next, in step 204-S, the communication terminal T110 transmits the login information input form request to the server V100 side via the network 820.

(システムフロー/ユーザログイン手段/サーバV100の処理1D)
次に、サーバV100の処理を実行する。まず、ステップ206−Sで、ユーザログイン手段V120は、通信端末T110から送信されたログイン情報入力フォーム要求を受信する。次に、ステップ208−Sで、ユーザログイン手段V120は、ログイン情報入力フォーム(ユーザログインに係る各項目を入力するためのフォーム)を生成する。次に、ステップ210−Sで、ユーザログイン手段V120は、ログイン情報入力フォーム(ユーザログインに係る各項目を入力するためのフォーム)を、ネットワーク820を介して通信端末T110に送信する。
(System flow / User login means / Server V100 processing 1D)
Next, the process of the server V100 is executed. First, in step 206-S, the user login means V120 receives the login information input form request transmitted from the communication terminal T110. Next, in step 208-S, the user login means V120 generates a login information input form (a form for inputting each item related to user login). Next, in step 210-S, the user login means V120 transmits a login information input form (a form for inputting each item related to user login) to the communication terminal T110 via the network 820.

(システムフロー/ユーザログイン手段/通信端末T110の処理2C)
次に、通信端末T110の処理を実行する。まず、ステップ212−Sで、通信端末T110は、サーバV100から送信されたログイン情報入力フォーム(ユーザログインに係る各項目を入力するためのフォーム)を受信する。次に、ステップ214−Sで、通信端末T110は、ログイン情報入力フォーム(ユーザログインに係る各項目を入力するためのフォーム)を表示装置に表示する。次に、ステップ216−Sで、通信端末T110は、ユーザから入力されたログイン情報(ユーザID及びユーザパスワード)をセットする。次に、ステップ218−Sで、通信端末T110は、当該セットされたログイン情報(ユーザID及びユーザパスワード)を、ネットワーク820を介してサーバV100に送信する。
(System flow / User login means / Communication terminal T110 processing 2C)
Next, the processing of the communication terminal T110 is executed. First, in step 212-S, the communication terminal T110 receives the login information input form (form for inputting each item related to user login) transmitted from the server V100. Next, in step 214-S, the communication terminal T110 displays a login information input form (a form for inputting each item related to user login) on the display device. Next, in step 216-S, the communication terminal T110 sets the login information (user ID and user password) input by the user. Next, in step 218-S, the communication terminal T110 transmits the set login information (user ID and user password) to the server V100 via the network 820.

(システムフロー/ユーザログイン手段/サーバV100の処理2D)
次に、サーバV100の処理を実行する。まず、ステップ220−Sで、ユーザログイン手段V120は、通信端末T110から送信されたユーザID及びユーザパスワードを受信する。次に、ステップ222−Sで、ユーザログイン手段V120は、当該受信したユーザID及びユーザパスワードと、ユーザ認証用データベースV150−7に記憶されたユーザID及びユーザパスワードとが一致するか否かを判定(認証)する。次に、ステップ224−Sで、ユーザログイン手段V120は、当該ユーザ用のメイン画面を生成する。次に、ステップ226−Sで、ユーザログイン手段V120は、当該生成したメイン画面を、ネットワーク820を介して通信端末T110に送信する。
(System flow / User login means / Server V100 processing 2D)
Next, the process of the server V100 is executed. First, in step 220-S, the user login means V120 receives the user ID and user password transmitted from the communication terminal T110. Next, in step 222-S, the user login means V120 determines whether or not the received user ID and user password match the user ID and user password stored in the user authentication database V150-7. (Authenticate. Next, in step 224-S, the user login means V120 generates a main screen for the user. Next, in step 226-S, the user login means V120 transmits the generated main screen to the communication terminal T110 via the network 820.

(システムフロー/ユーザログイン手段/通信端末T110の処理3C)
次に、通信端末T110の処理を実行する。まず、ステップ228−Sで、通信端末T110は、サーバV100から送信された、当該ユーザのメイン画面を受信する。次に、ステップ230−Sで、通信端末T110は、当該受信したメイン画面を表示装置に表示する。なお、メイン画面は、後述する試験コンテンツ(試験)を開始する試験実施ボタン等が表示されている画面である。
(System flow / User login means / Communication terminal T110 processing 3C)
Next, the processing of the communication terminal T110 is executed. First, in step 228-S, the communication terminal T110 receives the main screen of the user transmitted from the server V100. Next, in step 230-S, the communication terminal T110 displays the received main screen on the display device. The main screen is a screen on which a test execution button or the like for starting the test content (test) described later is displayed.

ユーザログイン手段が実行する処理により、サーバV100へのアクセス時において、通信端末T110側で入力されたユーザID及びユーザの入力したユーザパスワードが、サーバV100側で管理されているユーザID及びユーザパスワードと一致するか否かによって、当該通信端末T110のユーザが正規なユーザであるか否かを判定することが可能となる。尚、図示していないが、認証結果が正常(正規なユーザID及びユーザパスワード)である場合、試験システム10、教育システム20の機能が利用可能(当該ユーザのメイン画面が通信端末T110の表示装置に表示される)となる。一方、認証結果が異常(不正なユーザID又はユーザパスワード)である場合、試験システム10、教育システム20の機能が利用不能(当該ユーザのメイン画面が通信端末T110の表示装置に表示されない)となる。 By the process executed by the user login means, when accessing the server V100, the user ID and the user password entered by the communication terminal T110 are combined with the user ID and the user password managed by the server V100. Depending on whether or not they match, it is possible to determine whether or not the user of the communication terminal T110 is a legitimate user. Although not shown, when the authentication result is normal (regular user ID and user password), the functions of the test system 10 and the education system 20 can be used (the main screen of the user is the display device of the communication terminal T110). Is displayed in). On the other hand, if the authentication result is abnormal (illegal user ID or user password), the functions of the test system 10 and the education system 20 cannot be used (the main screen of the user is not displayed on the display device of the communication terminal T110). ..

次に、図5を参照しながら、試験システム10の、通信端末T110とサーバV100との間での、試験実行手段及び不正監視手段が実行する処理について詳述する。本処理は、ユーザである受験者が、通信端末T110を用いてサーバV100にアクセスし、図4に示すユーザログイン手段でログインした場合のシステムフローである。 Next, with reference to FIG. 5, the processing executed by the test execution means and the fraud monitoring means between the communication terminal T110 and the server V100 of the test system 10 will be described in detail. This process is a system flow when the examinee who is a user accesses the server V100 using the communication terminal T110 and logs in by the user login means shown in FIG.

(システムフロー/試験実行手段/通信端末T110の処理1E)
はじめに、通信端末T110の処理を実行する。まず、ステップ302−Sで、通信端末T110は、受験者が通信端末T110を操作したことによる試験コンテンツ(試験)を開始する試験実施ボタンが選択されたことにより、試験実施ボタンが選択されたと判断する。次に、ステップ304−Sで、通信端末T110は、試験実施ボタンが選択されたことに基づき、通信端末T110に備えられたカメラを用いて、顔データを取得する。次に、ステップ306−Sで、通信端末T110は、カメラで取得した顔データと試験問題・回答フォーム要求とを、ネットワーク820を介してサーバV100側に送信する。ここで、試験問題・回答フォームとは、試験で使用する試験問題のフォーム、試験問題の回答を記入、選択するための回答フォームである。
(System flow / Test execution means / Communication terminal T110 processing 1E)
First, the processing of the communication terminal T110 is executed. First, in step 302-S, the communication terminal T110 determines that the test execution button has been selected because the test execution button for starting the test content (test) due to the examinee operating the communication terminal T110 is selected. To do. Next, in step 304-S, the communication terminal T110 acquires face data using the camera provided in the communication terminal T110 based on the selection of the test execution button. Next, in step 306-S, the communication terminal T110 transmits the face data acquired by the camera and the test question / answer form request to the server V100 side via the network 820. Here, the examination question / answer form is an examination question form used in the examination and an answer form for entering and selecting the answer of the examination question.

(システムフロー/試験実行手段、不正監視手段/サーバV100の処理1F)
次に、サーバV100の処理を実行する。まず、ステップ308−Sで、試験実行手段V130は、通信端末110から送信された顔データ、試験問題・回答フォーム要求を受信する。次に、ステップ310−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとを比較解析する。次に、ステップ312−Sで、試験実行手段V130の不正監視手段V130−1は、比較解析の結果として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとの比較解析の結果がOK(不正なし)であれば、試験問題・回答フォームを生成する。一方、試験実行手段V130の不正監視手段V130−1は、比較解析の結果がNG(不正あり)であれば、試験を中止する。次に、ステップ314−Sで、試験実行手段V130は、当該生成した試験問題・回答フォームを、ネットワーク820を介して通信端末T110に送信する。
(System flow / test execution means, fraud monitoring means / server V100 processing 1F)
Next, the process of the server V100 is executed. First, in step 308-S, the test execution means V130 receives the face data and the test question / answer form request transmitted from the communication terminal 110. Next, in step 310-S, the fraud monitoring means V130-1 of the test execution means V130 compares the received face data with the face image data stored in the user authentication database V150-7 as fraud monitoring processing. To analyze. Next, in step 312-S, the fraud monitoring means V130-1 of the test execution means V130 combines the received face data and the face image data stored in the user authentication database V150-7 as a result of the comparative analysis. If the result of the comparative analysis is OK (no fraud), an exam question / answer form is generated. On the other hand, the fraud monitoring means V130-1 of the test execution means V130 cancels the test if the result of the comparative analysis is NG (with fraud). Next, in step 314-S, the test execution means V130 transmits the generated test question / answer form to the communication terminal T110 via the network 820.

ここで、試験実行手段V130の不正監視手段V130−1での比較解析は、人工知能の顔認証を用いて、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データを比較するが、具体的には、顔のパーツ(目、鼻、口等)の位置を判断し、顔のパーツ及び輪郭の整合率(認識率や類似度ともいう)を算出し、整合率が所定値以上(例えば、90%以上)で比較解析の結果をOK(不正なし)と判断し、整合率が所定値未満(例えば、90%未満)で比較解析の結果をNG(不正あり)と判断する。なお、受験者が自身の顔写真を用意してカメラに向けて配置し、整合率を維持しながらカンニング等を行うような不正受験を行うことが考えられる。このような場合、整合率が所定値以上(例えば、90%以上)であったとしても、前回受信した顔データと今回受信した顔データが同じである場合(例えば、前回受信した顔データと今回受信した顔データの類似度を判断し、類似度が98%以上の場合)、比較解析の結果をNG(不正あり)と判断してもよい。 Here, in the comparative analysis of the test execution means V130 by the fraud monitoring means V130-1, the received face data and the face image data stored in the user authentication database V150-7 are used for face recognition of artificial intelligence. For comparison, specifically, the positions of facial parts (eyes, nose, mouth, etc.) are determined, and the matching rate (also called recognition rate or similarity) of facial parts and contours is calculated, and the matching rate is determined. If the value is equal to or greater than the predetermined value (for example, 90% or more), the result of the comparative analysis is judged to be OK (no fraud), and if the matching rate is less than the predetermined value (for example, less than 90%), the result of the comparative analysis is determined to be NG (with fraud). to decide. In addition, it is conceivable that the examinee prepares his / her own face photograph and arranges it toward the camera, and performs an illegal examination such as cheating while maintaining the matching rate. In such a case, even if the matching rate is equal to or higher than a predetermined value (for example, 90% or higher), the face data received last time and the face data received this time are the same (for example, the face data received last time and this time). The similarity of the received face data may be determined (when the similarity is 98% or more), and the result of the comparative analysis may be determined to be NG (with fraud).

(システムフロー/試験実行手段/通信端末T110の処理2E)
次に、通信端末T110の処理を実行する。まず、ステップ316−Sで、通信端末T110は、サーバV100から送信された試験問題・回答フォームを受信する。次に、ステップ318−Sで、通信端末T110は、表示装置に当該受信した試験問題・回答フォームを表示する。次に、ステップ320−Sで、通信端末T110は、受験者によって通信端末T110の試験開始ボタンが選択された場合、試験開始ボタンが選択されたと判断する。次に、ステップ322−Sで、通信端末T110は、試験開始ボタンが選択されたことに基づき試験開始の情報を、ネットワーク820を介してサーバV100へ送信する。
(System flow / Test execution means / Communication terminal T110 processing 2E)
Next, the processing of the communication terminal T110 is executed. First, in step 316-S, the communication terminal T110 receives the test question / answer form transmitted from the server V100. Next, in step 318-S, the communication terminal T110 displays the received test question / answer form on the display device. Next, in step 320-S, when the test start button of the communication terminal T110 is selected by the examinee, the communication terminal T110 determines that the test start button has been selected. Next, in step 322-S, the communication terminal T110 transmits the test start information to the server V100 via the network 820 based on the selection of the test start button.

(システムフロー/試験実行手段、不正監視手段/サーバV100の処理2F)
次に、サーバV100の処理を実行する。まず、ステップ324−Sで、試験実行手段V130は、ステップ322−Sで送信された試験開始の情報を受信する。次に、ステップ326−Sで、試験実行手段V130は、所定の時間経過に応じて、顔データ要求をネットワーク820を介して通信端末T110に送信する。ここで、所定の時間経過は、試験開始から5分経過した例を挙げる。また、試験中の監視タイミングである顔データ要求の送信のタイミングは、試験時間(例えば、90分)内に複数回行われるように構成されており、例えば、試験開始から5分経過した際に1回目の顔データ要求を送信し、その後、5分経過毎に2回目、3回目の顔データ要求を送信するように構成されている。また、試験中のランダムな時間で顔データ要求を送信してもよい。さらに、受験者の顔がカメラに対して正面となった場合に顔データ要求を送信してもよく、この場合、カメラでは正面顔が撮影可能となり、整合率を判断するのに最適な顔データとすることができる。なお、試験開始から5分経過する毎に顔データ要求を送信するように構成したが、その際に正面顔が撮影できない場合があり、このような場合には整合率が所定値未満(例えば、90%未満)となり、不正行為を行っていないにもかかわらず不正ありと判断されてしまうという問題が生じる。このような問題に対し、5分経過した後に第一時間(例えば、1分間)の猶予時間を設け、この猶予時間において第一時間よりも短い第二時間毎(例えば、1秒毎)に顔データ要求して連続して顔データを取得するように構成してもよい。そして、試験実行手段V130の不正監視手段V130−1での比較解析は、この猶予時間で取得した顔データに正面顔の顔データが存在する場合は、正面画の顔データとユーザ認証用データベースV150−7に記憶されている顔画像データを比較するように構成することが好適である。このように整合率を判断するのに最適な正面顔の顔データを取得する期間を増加させることにより、不正行為を行っていないにもかかわらず不正ありと判断されてしまうという問題を解消可能となる。
(System flow / test execution means, fraud monitoring means / server V100 processing 2F)
Next, the process of the server V100 is executed. First, in step 324-S, the test execution means V130 receives the test start information transmitted in step 322-S. Next, in step 326-S, the test execution means V130 transmits a face data request to the communication terminal T110 via the network 820 according to the lapse of a predetermined time. Here, an example in which 5 minutes have passed from the start of the test will be given as the predetermined time elapsed. Further, the timing of transmitting the face data request, which is the monitoring timing during the test, is configured to be performed a plurality of times within the test time (for example, 90 minutes), for example, when 5 minutes have passed from the start of the test. The first face data request is transmitted, and then the second and third face data requests are transmitted every 5 minutes. You may also send face data requests at random times during the test. Further, the face data request may be sent when the examinee's face is in front of the camera. In this case, the camera can shoot the front face, which is the optimum face data for determining the matching rate. Can be. It should be noted that although the face data request is configured to be transmitted every 5 minutes from the start of the test, the front face may not be photographed at that time, and in such a case, the matching rate is less than the predetermined value (for example, It is less than 90%), and there is a problem that it is judged to be fraudulent even though it has not been cheated. For such problems, a grace period of 1 hour (for example, 1 minute) is provided after 5 minutes have passed, and the face is set every second hour (for example, every 1 second) shorter than the 1st hour in this grace time. It may be configured to request data and acquire face data continuously. Then, in the comparative analysis of the test execution means V130 by the fraud monitoring means V130-1, if the face data of the front face exists in the face data acquired in this grace time, the face data of the front image and the user authentication database V150 It is preferable to configure the face image data stored in -7 to be compared. By increasing the period for acquiring the face data of the front face, which is optimal for determining the consistency rate, it is possible to solve the problem that it is determined that there is fraud even though no fraudulent activity has been performed. Become.

また、カメラの映像をリアルタイムで監視し、受験者の顔が動いたことをカメラで確認したタイミングで顔データ要求を送信してもよい。このように構成する場合は、隣に受験者がいる場合に好適であり、受験者が隣の人の回答をカンニングしたタイミングをカメラで撮影することが可能となる。さらに、カメラの映像をリアルタイムで監視する場合、受験者の表情を読み取る表情認識の人工知能によって、表情の映像をもとに、その受験者の感情を推定することができるようになっている。この表情認識の人工知能によって、カメラで撮影した受験者の表情から、その時の感情や集中度を測ることができるようになっており、集中度が増すタイミングや逆に集中が途切れるタイミングを知ることが可能なため、受験者の不正を判断するデータとして活用できるようになっている。さらに受験者の表情だけではなく動きも分析することで、全体としての試験への集中度を知ることもでき、受験者の不正を判断するデータとして活用できるようになっている。さらに、カメラの映像をリアルタイムで監視する場合、受験者の顔がカメラに対して正面となった場合に、カメラを用いて顔データを取得するようにしてもよく、この場合、顔データが正面顔でのデータとなるため、整合率を判断するのに最適な顔データとすることができる。 Further, the image of the camera may be monitored in real time, and the face data request may be transmitted at the timing when the camera confirms that the examinee's face has moved. Such a configuration is suitable when there is an examinee next to the examinee, and it is possible to take a picture of the timing when the examinee cheats the answer of the next person with a camera. Furthermore, when monitoring the image of the camera in real time, the artificial intelligence of facial expression recognition that reads the facial expression of the examinee can estimate the emotion of the examinee based on the image of the facial expression. With this artificial intelligence of facial expression recognition, it is possible to measure the emotion and concentration at that time from the facial expression of the examinee taken with the camera, and to know the timing when the concentration increases or conversely the timing when the concentration is interrupted. Because it is possible, it can be used as data to judge the fraud of the examinee. Furthermore, by analyzing not only the facial expressions of the examinees but also their movements, it is possible to know the degree of concentration on the examination as a whole, which can be used as data for judging the injustice of the examinees. Further, when monitoring the image of the camera in real time, the face data may be acquired by using the camera when the examinee's face is in front of the camera. In this case, the face data is in front. Since the data is for the face, it can be the most suitable face data for determining the consistency rate.

(システムフロー/試験実行手段/通信端末T110の処理2E)
次に、通信端末T110の処理を実行する。まず、ステップ328−Sで、通信端末T110は、ステップ326−Sで送信された顔データ要求を受信する。次に、ステップ330−Sで、通信端末T110は、顔データ要求に基づきカメラで受験者の顔を撮影し、顔データを取得する。次に、ステップ332−Sで、通信端末T110は、取得した顔データを、ネットワーク820を介してサーバV100へ送信する。
(System flow / Test execution means / Communication terminal T110 processing 2E)
Next, the processing of the communication terminal T110 is executed. First, in step 328-S, the communication terminal T110 receives the face data request transmitted in step 326-S. Next, in step 330-S, the communication terminal T110 photographs the examinee's face with a camera based on the face data request, and acquires the face data. Next, in step 332-S, the communication terminal T110 transmits the acquired face data to the server V100 via the network 820.

(システムフロー/試験実行手段、不正監視手段/サーバV100の処理2F)
次に、サーバV100の処理を実行する。まず、ステップ334−Sで、試験実行手段V130は、ステップ332−Sで送信された顔データを受信する。次に、ステップ336−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとを比較解析する。次に、ステップ338−Sで、試験実行手段V130の不正監視手段V130−1は、比較解析の結果(整合率)と、顔データの受信時刻とを対応付けた整合率情報を記憶する。整合率情報は、例えば、9時0分に試験が開始された場合、9時5分、9時10分、9時15分・・・に受信した顔データと顔画像データとの整合率のデータを、顔データの受信時刻(撮影時刻)に対応付けて記憶する。なお、整合率情報として、顔データの受信時刻、顔データ、整合率との3つの情報を対応付けて記憶するようにしても良い。
(System flow / test execution means, fraud monitoring means / server V100 processing 2F)
Next, the process of the server V100 is executed. First, in step 334-S, the test execution means V130 receives the face data transmitted in step 332-S. Next, in step 336-S, the fraud monitoring means V130-1 of the test execution means V130 compares the received face data with the face image data stored in the user authentication database V150-7 as the fraud monitoring process. To analyze. Next, in step 338-S, the fraud monitoring means V130-1 of the test execution means V130 stores the matching rate information in which the result of the comparative analysis (matching rate) and the reception time of the face data are associated with each other. The matching rate information is, for example, when the test is started at 9:00, the matching rate of the face data and the face image data received at 9:05, 9:10, 9:15, and so on. The data is stored in association with the reception time (shooting time) of the face data. As the matching rate information, three pieces of information such as the reception time of the face data, the face data, and the matching rate may be stored in association with each other.

(システムフロー/試験実行手段/通信端末T110の処理2E)
ステップ332−Sで、1回目の顔データをサーバV100へ送信した以降であって、試験中においてはステップ340−Sで、通信端末T110は、受験者が試験中に試験の回答を試験回答フォームに入力したことに基づき、試験回答フォームに回答をセットする。次に、試験の回答を試験回答フォームにセットした後、ステップ342−Sで、受験者が試験終了ボタンを選択したことに基づき、通信端末T110は、試験回答フォーム(入力済)を、ネットワーク820を介してサーバV100へ送信する。
(System flow / Test execution means / Communication terminal T110 processing 2E)
After the first face data is transmitted to the server V100 in step 332-S, and in step 340-S during the test, the communication terminal T110 is a test answer form in which the examinee answers the test during the test. Based on what you entered in, set the answer in the exam answer form. Next, after setting the test answer in the test answer form, the communication terminal T110 displays the test answer form (completed) on the network 820 based on the test taker selecting the test end button in step 342-S. Is transmitted to the server V100 via.

(システムフロー/試験実行手段/サーバV100の処理3F)
次に、サーバV100の処理を実行する。まず、ステップ344−Sで、試験実行手段V130は、通信端末T110から送信された試験回答フォーム(入力済)を受信する。次に、ステップ346−Sで、試験実行手段V130は、試験回答フォーム(入力済)の情報と、整合率情報とを対応付けた試験回答情報を記憶する。
(System flow / Test execution means / Server V100 processing 3F)
Next, the process of the server V100 is executed. First, in step 344-S, the test execution means V130 receives the test response form (completed) transmitted from the communication terminal T110. Next, in step 346-S, the test execution means V130 stores the test response information in which the information on the test response form (input) and the consistency rate information are associated with each other.

なお、試験中の監視タイミングである顔データ要求の送信のタイミングは、試験時間(例えば、90分)内に5分毎に行われるが、ステップ336−Sの不正監視手段V130−1での不正監視処理の比較解析の結果として、整合率が前回の整合率よりも低下した場合や、整合率がNGの場合に顔データ要求の送信のタイミングを3分毎等に短縮して要求するようにしてもよい。このようにすることで、試験中の不正監視をより強くすることが可能となる。 The timing of transmitting the face data request, which is the monitoring timing during the test, is performed every 5 minutes within the test time (for example, 90 minutes), but the fraud monitoring means V130-1 in step 336-S is fraudulent. As a result of the comparative analysis of the monitoring process, when the matching rate is lower than the previous matching rate or when the matching rate is NG, the timing of sending the face data request is shortened to every 3 minutes or the like. You may. By doing so, it becomes possible to strengthen fraud monitoring during the test.

また、試験時間内で整合率が低下した場合、試験実行手段V130は、不正監視処理の比較解析で用いられる顔のパーツのパーツを増やすように構成してもよい。例えば、試験時間内において、顔のパーツの目、口の2パーツを用いて整合率を算出し、整合率が低下した場合、鼻を追加して、目、口、鼻の3パーツを用いて整合率を算出するようにする。このようにすることで、整合率の精度を上げ、試験中の不正監視をより強くすることが可能となる。 Further, when the matching rate decreases within the test time, the test execution means V130 may be configured to increase the number of facial parts used in the comparative analysis of fraud monitoring processing. For example, within the test time, the matching rate is calculated using the two parts of the face, the eyes and the mouth, and if the matching rate drops, the nose is added and the three parts of the eyes, mouth, and nose are used. Try to calculate the consistency rate. By doing so, it is possible to improve the accuracy of the matching rate and strengthen the fraud monitoring during the test.

次に、図6を参照しながら、試験システム10の変形例である、通信端末T110とサーバV100との間での、試験実行手段及び不正監視手段が実行する処理について詳述する。図6の試験実行手段及び不正監視手段が実行する処理では、図5の試験実行手段及び不正監視手段が実行する処理のステップ326−Sで、サーバV100の顔データ要求に基づき、通信端末T110が顔データをカメラで取得するのとは異なり、ステップ340−Sで、受験者が試験の回答を試験回答フォームに入力することに基づいて、通信端末T110が顔データをカメラで取得するように構成されている。なお、本処理は、ユーザである受験者が、通信端末T110を用いてサーバV100にアクセスし、図4に示すユーザログイン手段でログインした場合のシステムフローである。 Next, with reference to FIG. 6, the processing executed by the test execution means and the fraud monitoring means between the communication terminal T110 and the server V100, which is a modification of the test system 10, will be described in detail. In the process executed by the test executing means and the fraud monitoring means of FIG. 6, in step 326-S of the process executed by the test executing means and the fraud monitoring means of FIG. 5, the communication terminal T110 is based on the face data request of the server V100. Unlike acquiring face data with a camera, in step 340-S, the communication terminal T110 is configured to acquire face data with a camera based on the examinee inputting the test answer into the test answer form. Has been done. This process is a system flow when the examinee who is a user accesses the server V100 using the communication terminal T110 and logs in by the user login means shown in FIG.

(システムフロー/試験実行手段/通信端末T110の処理1E)
はじめに、通信端末T110の処理を実行する。まず、ステップ302−Sで、通信端末T110は、受験者が通信端末T110を操作したことによる試験コンテンツ(試験)を開始する試験実施ボタンが選択されたことにより、試験実施ボタンが選択されたと判断する。次に、ステップ304−Sで、通信端末T110は、試験実施ボタンが選択されたことに基づき、通信端末T110に備えられたカメラを用いて、顔データを取得する。次に、ステップ306−Sで、通信端末T110は、カメラで取得した顔データと試験問題・回答フォーム要求とを、ネットワーク820を介してサーバV100側に送信する。ここで、試験問題・回答フォームとは、試験で使用する試験問題のフォーム、試験問題の回答を記入、選択するための回答フォームである。
(System flow / Test execution means / Communication terminal T110 processing 1E)
First, the processing of the communication terminal T110 is executed. First, in step 302-S, the communication terminal T110 determines that the test execution button has been selected because the test execution button for starting the test content (test) due to the examinee operating the communication terminal T110 is selected. To do. Next, in step 304-S, the communication terminal T110 acquires face data using the camera provided in the communication terminal T110 based on the selection of the test execution button. Next, in step 306-S, the communication terminal T110 transmits the face data acquired by the camera and the test question / answer form request to the server V100 side via the network 820. Here, the examination question / answer form is an examination question form used in the examination and an answer form for entering and selecting the answer of the examination question.

(システムフロー/試験実行手段、不正監視手段/サーバV100の処理1F)
次に、サーバV100の処理を実行する。まず、ステップ308−Sで、試験実行手段V130は、通信端末110から送信された顔データ、試験問題・回答フォーム要求を受信する。次に、ステップ310−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとを比較解析する。次に、ステップ312−Sで、試験実行手段V130の不正監視手段V130−1は、比較解析の結果として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとの比較解析の結果がOK(不正なし)であれば、試験問題・回答フォームを生成する。一方、試験実行手段V130の不正監視手段V130−1は、比較解析の結果がNG(不正あり)であれば、試験を中止する。次に、ステップ314−Sで、試験実行手段V130は、当該生成した試験問題・回答フォームを、ネットワーク820を介して通信端末T110に送信する。
(System flow / test execution means, fraud monitoring means / server V100 processing 1F)
Next, the process of the server V100 is executed. First, in step 308-S, the test execution means V130 receives the face data and the test question / answer form request transmitted from the communication terminal 110. Next, in step 310-S, the fraud monitoring means V130-1 of the test execution means V130 compares the received face data with the face image data stored in the user authentication database V150-7 as fraud monitoring processing. To analyze. Next, in step 312-S, the fraud monitoring means V130-1 of the test execution means V130 combines the received face data and the face image data stored in the user authentication database V150-7 as a result of the comparative analysis. If the result of the comparative analysis is OK (no fraud), an exam question / answer form is generated. On the other hand, the fraud monitoring means V130-1 of the test execution means V130 cancels the test if the result of the comparative analysis is NG (with fraud). Next, in step 314-S, the test execution means V130 transmits the generated test question / answer form to the communication terminal T110 via the network 820.

(システムフロー/試験実行手段/通信端末T110の処理2E)
次に、通信端末T110の処理を実行する。まず、ステップ316−Sで、通信端末T110は、サーバV100から送信された試験問題・回答フォームを受信する。次に、ステップ318−Sで、通信端末T110は、表示装置に当該受信した試験問題・回答フォームを表示する。次に、ステップ320−Sで、通信端末T110は、受験者によって通信端末T110の試験開始ボタンが選択された場合、試験開始ボタンが選択されたと判断する。次に、ステップ322−Sで、通信端末T110は、試験開始ボタンが選択されたことに基づき試験開始の情報を、ネットワーク820を介してサーバV100へ送信する。次に、ステップ340−Sで、通信端末T110は、受験者が試験中に試験の回答を試験回答フォームに入力したことに基づき、試験回答フォームに回答をセットする。次に、ステップ330−Sで、通信端末T110は、試験回答フォームに試験の回答が入力されたことに基づきカメラで受験者の顔を撮影し、顔データを取得する。次に、ステップ332−Sで、通信端末T110は、取得した顔データを、ネットワーク820を介してサーバV100へ送信する。次に、試験の回答を試験回答フォームにセットした後、ステップ342−Sで、受験者が試験終了ボタンを選択したことに基づき、通信端末T110は、試験回答フォーム(入力済)を、ネットワーク820を介してサーバV100へ送信する。
(System flow / Test execution means / Communication terminal T110 processing 2E)
Next, the processing of the communication terminal T110 is executed. First, in step 316-S, the communication terminal T110 receives the test question / answer form transmitted from the server V100. Next, in step 318-S, the communication terminal T110 displays the received test question / answer form on the display device. Next, in step 320-S, when the test start button of the communication terminal T110 is selected by the examinee, the communication terminal T110 determines that the test start button has been selected. Next, in step 322-S, the communication terminal T110 transmits the test start information to the server V100 via the network 820 based on the selection of the test start button. Next, in step 340-S, the communication terminal T110 sets the answer in the test answer form based on the test taker inputting the test answer in the test answer form during the test. Next, in step 330-S, the communication terminal T110 photographs the examinee's face with a camera based on the test answer entered in the test answer form, and acquires face data. Next, in step 332-S, the communication terminal T110 transmits the acquired face data to the server V100 via the network 820. Next, after setting the test answer in the test answer form, the communication terminal T110 displays the test answer form (completed) on the network 820 based on the test taker selecting the test end button in step 342-S. Is transmitted to the server V100 via.

ステップ330−Sで、通信端末T110が、試験回答フォームに試験の回答が入力されたことに基づきカメラで受験者の顔を撮影し、顔データを取得するようにすることで、試験の回答を入力する際は通信端末T110の表示装置の正面で入力することになり、受験者の顔がカメラの正面となるため、整合率を判断するのに最適な正面顔のデータを取得することができる。 In step 330-S, the communication terminal T110 takes a picture of the examinee's face with a camera based on the test answer entered in the test answer form, and obtains the face data to obtain the test answer. When inputting, the input is performed in front of the display device of the communication terminal T110, and the examinee's face is in front of the camera. Therefore, the optimum front face data for determining the matching rate can be obtained. ..

(システムフロー/試験実行手段、不正監視手段/サーバV100の処理2F)
次に、サーバV100の処理を説明する。ステップ324−Sで、試験実行手段V130は、ステップ322−Sで送信された試験開始の情報を受信する。次に、ステップ334−Sで、試験実行手段V130は、ステップ332−Sで送信された顔データを受信する。次に、ステップ336−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとを比較解析する。次に、ステップ338−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理の比較解析の結果(整合率)と、顔データの受信時刻とを対応付けた整合率情報を記憶する。整合率情報は、例えば、9時0分に試験が開始された場合、問題1の回答の入力が9時8分、問題2の回答の入力が9時12分、問題3の回答の入力が9時19分・・・に受信した顔データと顔画像データとの整合率のデータを、顔データの受信時刻(撮影時刻)に対応付けて記憶する。なお、整合率情報として、顔データの受信時刻、顔データ、整合率とを対応付けて記憶するようにしても良い。
(System flow / test execution means, fraud monitoring means / server V100 processing 2F)
Next, the processing of the server V100 will be described. In step 324-S, the test execution means V130 receives the test start information transmitted in step 322-S. Next, in step 334-S, the test execution means V130 receives the face data transmitted in step 332-S. Next, in step 336-S, the fraud monitoring means V130-1 of the test execution means V130 compares the received face data with the face image data stored in the user authentication database V150-7 as the fraud monitoring process. To analyze. Next, in step 338-S, the fraud monitoring means V130-1 of the test execution means V130 obtains the matching rate information in which the result of the comparative analysis (matching rate) of the fraud monitoring process and the reception time of the face data are associated with each other. Remember. As for the consistency rate information, for example, when the test is started at 9:00, the answer to question 1 is input at 9:08, the answer to question 2 is input at 9:12, and the answer to question 3 is input. The data of the matching rate between the face data and the face image data received at 9:19 ... Is stored in association with the reception time (shooting time) of the face data. As the matching rate information, the reception time of the face data, the face data, and the matching rate may be stored in association with each other.

(システムフロー/試験実行手段/サーバV100の処理3F)
次に、サーバV100の処理を実行する。まず、ステップ344−Sで、試験実行手段V130は、通信端末T110から送信された試験回答フォーム(入力済)を受信する。次に、ステップ346−Sで、試験実行手段V130は、試験回答フォーム(入力済)の情報と、整合率情報とを対応付けた試験回答情報を記憶する。
(System flow / Test execution means / Server V100 processing 3F)
Next, the process of the server V100 is executed. First, in step 344-S, the test execution means V130 receives the test response form (completed) transmitted from the communication terminal T110. Next, in step 346-S, the test execution means V130 stores the test response information in which the information on the test response form (input) and the consistency rate information are associated with each other.

本実施形態に係る試験システム10は、試験実行手段V130の不正監視手段V130−1が、通信端末T110のカメラによって入力された顔データと、ユーザ認証用データベースV150−7に予め記憶された顔画像データとの整合率を算出する不正監視の処理を実行するようになっているが、英語のスピーキングの試験等を行う場合は、試験実行手段V130の不正監視手段V130−1が、通信端末T110のマイクによって入力された声データと、ユーザ認証用データベースV150−7に予め記憶された音声データとの整合率を算出するように構成してもよい。 In the test system 10 according to the present embodiment, the fraud monitoring means V130-1 of the test execution means V130 has face data input by the camera of the communication terminal T110 and a face image stored in advance in the user authentication database V150-7. Although the fraud monitoring process for calculating the consistency rate with the data is executed, when performing an English speaking test or the like, the fraud monitoring means V130-1 of the test execution means V130 is the communication terminal T110. It may be configured to calculate the matching rate between the voice data input by the microphone and the voice data stored in advance in the user authentication database V150-7.

英語のスピーキングの試験等において、声データと音声データとの整合率を算出する場合、図5や図6のステップ304−S、ステップ306−S、ステップ308−S、ステップ310−S、ステップ312−S、ステップ326−S(図5の場合のみ)、ステップ328−S(図5の場合のみ)、ステップ330−S、ステップ332−S、ステップ334−S、ステップ336−S、ステップ338−Sの処理が顔データと顔画像データとの整合性を算出する場合と異なる。 When calculating the matching rate between voice data and voice data in an English speaking test or the like, steps 304-S, 306-S, 308-S, 310-S, and 312 of FIGS. 5 and 6 -S, Step 326-S (only in the case of FIG. 5), Step 328-S (only in the case of FIG. 5), Step 330-S, Step 332-S, Step 334-S, Step 336-S, Step 338- The processing of S is different from the case of calculating the consistency between the face data and the face image data.

ここでは、顔データと顔画像データとの整合性を算出する場合の処理とは異なる処理について説明する。ステップ304−Sで、試験実施ボタンが選択されたことに基づき、通信端末T110は、カメラを用いて、顔データを取得するとともにマイクを用いて、声データを取得する。次に、ステップ306−Sで、通信端末T110は、カメラで取得した顔データ、マイクで取得した声データ、試験問題・回答フォーム要求を、ネットワーク820を介してサーバV100側に送信する。 Here, a process different from the process for calculating the consistency between the face data and the face image data will be described. Based on the fact that the test execution button is selected in step 304-S, the communication terminal T110 acquires face data using a camera and voice data using a microphone. Next, in step 306-S, the communication terminal T110 transmits the face data acquired by the camera, the voice data acquired by the microphone, and the test question / answer form request to the server V100 side via the network 820.

ステップ308−Sで、試験実行手段V130は、通信端末110から送信された顔データ、声データ、試験問題・回答フォーム要求を受信する。次に、ステップ310−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとを比較解析するとともに受信した声データとユーザ認証用データベースV150−7に記憶されている音声データとを比較解析する。次に、ステップ312−Sで、試験実行手段V130の不正監視手段V130−1は、受信した顔データとユーザ認証用データベースV150−7に記憶されている顔画像データとの比較解析の結果がOK(不正なし)であって、受信した声データとユーザ認証用データベースV150−7に記憶されている音声データとの比較解析の結果がOK(不正なし)であれば、試験問題・回答フォームを生成する。一方、試験実行手段V130の不正監視手段V130−1は、比較解析の結果がNG(不正あり)であれば、試験を中止する。 In step 308-S, the test execution means V130 receives the face data, voice data, and test question / answer form request transmitted from the communication terminal 110. Next, in step 310-S, the fraud monitoring means V130-1 of the test execution means V130 compares the received face data with the face image data stored in the user authentication database V150-7 as fraud monitoring processing. Along with the analysis, the received voice data and the voice data stored in the user authentication database V150-7 are compared and analyzed. Next, in step 312-S, the fraud monitoring means V130-1 of the test execution means V130 is OK with the result of comparative analysis between the received face data and the face image data stored in the user authentication database V150-7. If the result of comparison analysis between the received voice data and the voice data stored in the user authentication database V150-7 is OK (no fraud), an exam question / answer form is generated. To do. On the other hand, the fraud monitoring means V130-1 of the test execution means V130 cancels the test if the result of the comparative analysis is NG (with fraud).

ここで、不正監視手段V130−1の不正監視処理の比較解析は、人工知能の顔認証を用いて、受信した顔データ、声データとユーザ認証用データベースV150−7に記憶されている顔画像データ、音声データを比較し、整合率が所定値以上(例えば、90%以上)で比較解析の結果がOK(不正なし)と判断され、整合率が所定値未満(例えば、90%未満)で比較解析の結果がNG(不正あり)と判断される。 Here, in the comparative analysis of the fraud monitoring process of the fraud monitoring means V130-1, the received face data, voice data and face image data stored in the user authentication database V150-7 are performed by using the face authentication of artificial intelligence. , Voice data is compared, and if the matching rate is equal to or more than the predetermined value (for example, 90% or more), the result of the comparison analysis is judged to be OK (no fraud), and the matching rate is less than the predetermined value (for example, less than 90%). The result of the analysis is judged to be NG (injustice).

ステップ326−Sで、所定の時間経過に応じて、顔データ要求及び声データ要求を送信する。ここで、所定の時間経過は、試験開始から5分経過した例を挙げる。また、試験中の監視タイミングである顔データ要求及び声データ要求の送信のタイミングは、試験時間(例えば、90分)内に複数回行われるように構成されており、例えば、試験開始から5分経過した際に1回目の顔データ要求及び声データ要求を送信し、その後、5分経過毎に2回目、3回目の顔データ要求及び声データ要求を送信するように構成されている。また、試験中のランダムな時間で顔データ要求及び声データ要求を送信してもよい。 In step 326-S, the face data request and the voice data request are transmitted according to the lapse of a predetermined time. Here, as the predetermined time lapse, an example in which 5 minutes have passed from the start of the test will be given. Further, the timing of transmitting the face data request and the voice data request, which is the monitoring timing during the test, is configured to be performed a plurality of times within the test time (for example, 90 minutes), for example, 5 minutes from the start of the test. It is configured to transmit the first face data request and voice data request when elapsed, and then transmit the second and third face data request and voice data request every 5 minutes. In addition, the face data request and the voice data request may be transmitted at random times during the test.

ステップ328−Sで、通信端末T110は、ステップ326−Sで送信された顔データ要求及び声データ要求を受信する。次に、ステップ330−Sで、通信端末T110は、顔データ要求及び声データ要求に基づきカメラで受験者の顔を撮影し、顔データを取得するとともにマイクで受験者の声を収集し、声データを取得する。次に、通信端末T110は、ステップ332−Sで、取得した顔データ及び声データを、ネットワーク820を介してサーバV100へ送信する。 In step 328-S, the communication terminal T110 receives the face data request and the voice data request transmitted in step 326-S. Next, in step 330-S, the communication terminal T110 photographs the examinee's face with the camera based on the face data request and the voice data request, acquires the face data, collects the examinee's voice with the microphone, and voices. Get the data. Next, the communication terminal T110 transmits the acquired face data and voice data to the server V100 via the network 820 in step 332-S.

ステップ334−Sで、試験実行手段V130は、ステップ332−Sで送信された顔データ及び声データを受信する。次に、ステップ336−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理として、受信した顔データ及び声データとユーザ認証用データベースV150−7に記憶されている顔画像データ及び音声データとを比較解析する。次に、ステップ338−Sで、試験実行手段V130の不正監視手段V130−1は、不正監視処理の比較解析の結果(整合率)と、顔データ及び声データの受信時刻とを対応付けた整合率情報を記憶する。整合率情報は、例えば、9時0分に試験が開始された場合、9時5分、9時10分、9時15分・・・に受信した顔データ及び声データと顔画像データ及び音声データとの整合率のデータを、顔データ及び声データの受信時刻(撮影時刻)に対応付けて記憶する。なお、整合率情報として、顔データ及び声データの受信時刻、顔データ及び声データ、整合率とを対応付けて記憶するようにしても良い。 In step 334-S, the test execution means V130 receives the face data and voice data transmitted in step 332-S. Next, in step 336-S, the fraud monitoring means V130-1 of the test execution means V130 performs the received face data and voice data and the face image data stored in the user authentication database V150-7 as fraud monitoring processing. And the voice data are compared and analyzed. Next, in step 338-S, the fraud monitoring means V130-1 of the test execution means V130 matches the result (matching rate) of the comparative analysis of the fraud monitoring process with the reception time of the face data and the voice data. Store rate information. For example, when the test is started at 9:00, the matching rate information includes face data, voice data, face image data, and voice received at 9:05, 9:10, 9:15, and so on. The data of the consistency rate with the data is stored in association with the reception time (shooting time) of the face data and the voice data. As the matching rate information, the reception time of the face data and the voice data, the face data and the voice data, and the matching rate may be stored in association with each other.

なお、英語のスピーキングの試験等において、不正監視処理として、通信端末110から送信された顔データ、声データと、ユーザ認証用データベースV150−7に記憶されている顔画像データ、音声データとを比較解析する例を示したが、通信端末110から送信されるデータを声データのみとし、ユーザ認証用データベースV150−7に記憶されている音声データとを比較解析するようにしてもよい。 In the English speaking test, etc., the face data and voice data transmitted from the communication terminal 110 are compared with the face image data and voice data stored in the user authentication database V150-7 as fraud monitoring processing. Although an example of analysis is shown, the data transmitted from the communication terminal 110 may be limited to voice data, and the data stored in the user authentication database V150-7 may be compared and analyzed.

なお、英語のスピーキングの試験等において、声データと音声データとの整合率を算出する場合、図6のステップ340−S、ステップ330−S、ステップ332−Sを次のような処理とすることが好適である。ステップ340−Sは、スピーキングの回答がマイクに入力されたことに基づき、通信端末T110が声データを取得する処理とする。ステップ330−Sは、スピーキングの回答がマイクに入力されたことに基づき、通信端末T110がカメラで受験者の顔を撮影し、顔データを取得する処理とする。ステップ332−Sは、取得した顔データ及び声データを、通信端末T110がネットワーク820を介してサーバV100へ送信する処理とする。このようにスピーキングの試験において声データの入力に基づき顔データを取得することで、スピーキング時の表情を含めて上述した表情認識の人工知能を用いて整合率を算出することができるようになるため、より不正受験や替え玉受験を抑止することができる。 When calculating the matching rate between voice data and voice data in an English speaking test, etc., steps 340-S, 330-S, and 332-S in FIG. 6 should be processed as follows. Is preferable. Step 340-S is a process in which the communication terminal T110 acquires voice data based on the speaking answer being input to the microphone. Step 330-S is a process in which the communication terminal T110 photographs the examinee's face with a camera and acquires face data based on the speaking answer being input to the microphone. Step 332-S is a process in which the communication terminal T110 transmits the acquired face data and voice data to the server V100 via the network 820. By acquiring face data based on the input of voice data in the speaking test in this way, it becomes possible to calculate the matching rate using the above-mentioned artificial intelligence of facial expression recognition including facial expressions during speaking. , It is possible to prevent fraudulent examinations and replacement ball examinations.

なお、カメラは、通信端末T110に一体的に備えられたカメラもしくは通信端末T110とは別に備えられたカメラを用いる例を示したが、人の位置、人の存在、顔や表情を認識可能な深度(例えば、ピントがどこの位置からどこの位置まで合っているかを測る尺度)を確認可能なカメラを用いるようにしてもよい。このように構成することで、受験者が自身の顔写真を用意してカメラに向けて配置し、整合率を維持しながらカンニング等を行うような不正受験を行うようにしても、受験者がカメラの前にいないことを判断し、不正であると判断できるため、より不正受験や替え玉受験を抑止することができる。また、カメラ、マイクを複数設けるように構成してもよい。また、複数のカメラを設けてもよく、このようにすることで、受験者の隣にいる受験者以外の人を認識できるため、より不正受験や替え玉受験を抑止することができる。さらに、複数のマイクを設けてもよく、このようにすることで、声(声データ)を発した場所を特定することができるため、深度センサが設けられているカメラと同時に使用することで、より人の位置を特定することができるようになる。また、人の位置、人の存在、顔や表情を認識可能な深度(例えば、ピントがどこからどこまで合っているかを測る尺度)を確認可能なカメラ(通常のカメラでもよい)を用いて、試験時間内(試験時間中)に、受験者が席にいるか否かを判断するように構成してもよい。このようにする構成することで、受験者の在席が確認できない場合は、何かしらの不正を行っていると判断可能となる。 As the camera, an example of using a camera integrally provided in the communication terminal T110 or a camera provided separately from the communication terminal T110 has been shown, but the position of a person, the presence of a person, a face and a facial expression can be recognized. A camera capable of confirming the depth (for example, a scale for measuring from which position to which position the focus is in focus) may be used. With this configuration, even if the examinee prepares his / her own face photo and arranges it toward the camera to perform fraudulent examinations such as cheating while maintaining the consistency rate, the examinee can take the examination. Since it can be determined that the person is not in front of the camera and it is determined to be fraudulent, it is possible to further prevent fraudulent examinations and replacement ball examinations. Further, a plurality of cameras and microphones may be provided. In addition, a plurality of cameras may be provided, and by doing so, it is possible to recognize a person other than the examinee who is next to the examinee, so that it is possible to further prevent fraudulent examinations and replacement ball examinations. Furthermore, a plurality of microphones may be provided, and by doing so, the place where the voice (voice data) is emitted can be specified. Therefore, by using the camera at the same time as the camera provided with the depth sensor, You will be able to identify the position of a person more. Also, using a camera (or a normal camera) that can confirm the position of the person, the presence of the person, the depth at which the face and facial expression can be recognized (for example, a measure of how far the focus is from), the test time It may be configured to determine whether or not the examinee is in the seat within the period (during the examination time). With this configuration, if the presence of the examinee cannot be confirmed, it can be determined that some kind of fraud has been committed.

本実施形態に係る試験システム(1)は、認証されたユーザに対して試験コンテンツを提供し、試験コンテンツに対する回答を所定の試験時間内にて入力可能とする試験システムであって、撮像手段(例えば、通信端末T110のカメラ)によって入力された画像データ(例えば、顔データ)と、認証されたユーザに対応し予め記憶された顔画像データ(例えば、ユーザ認証用データベースV150−7に記憶されている顔画像データ)との整合率を算出する不正監視手段を実行可能であり、所定の試験時間内での時間経過に応じた複数回の監視タイミングにて不正監視手段を実行し、整合率に基づき試験コンテンツに対する回答に不正があったか否かを決定可能である、ことを特徴とする試験システムである。 The test system (1) according to the present embodiment is a test system that provides test content to an authenticated user and enables input of an answer to the test content within a predetermined test time, and is an imaging means (imaging means (1). For example, the image data (for example, face data) input by the communication terminal T110) and the face image data (for example, the user authentication database V150-7) stored in advance corresponding to the authenticated user are stored. It is possible to execute the fraud monitoring means that calculates the matching rate with the existing face image data), and the fraud monitoring means is executed at multiple monitoring timings according to the passage of time within the predetermined test time to obtain the matching rate. It is a test system characterized in that it is possible to determine whether or not the answer to the test content is incorrect based on the test content.

本実施形態に係る試験システム(2)は、ステップ346−Sで、試験回答フォーム(入力済)の情報と、整合率情報とを対応付けた試験回答情報を記憶した後(例えば、試験当日または後日)に、記憶した整合率に加えて試験に対する回答に関する情報(例えば、採点の情報)も加味して、試験に対する回答に不正があったか否かを決定可能である、本実施形態に係る試験システム(1)記載の試験システムである。このように構成することで、記憶した整合率だけではなく、試験の回答に関する情報を加味することで、隣の人と同様な回答であるような場合に隣の人の回答をカンニングした不正も判断の材料とすることができる。 In step 346-S, the test system (2) according to the present embodiment stores the test response information in which the information in the test response form (input) and the consistency rate information are associated with each other (for example, on the day of the test or on the day of the test). At a later date), the test system according to the present embodiment can determine whether or not the answer to the test is incorrect by taking into account the information about the answer to the test (for example, scoring information) in addition to the stored consistency rate. (1) The test system described. By constructing in this way, not only the memorized consistency rate but also the information about the test answer is added, and if the answer is similar to that of the next person, the cheat of the next person's answer can be cheated. It can be used as a basis for judgment.

ここで、試験の採点は、人工知能が自動で採点する自動採点処理として自動採点手段を用いる処理を採用してもよい。この場合、自動採点手段が、試験の回答をいくつかのパターンに分けて採点するようになっている。単純な正解か不正解かではなく、段階的に評価する場合、回答のパターンによってカテゴリー分けをすることで、同じカテゴリーの回答には一律の部分点を付与するように構成されている。また、マークシート形式等の選択形式とは異なる形式(自由に受験者が回答を記入する形式等)の回答を記載する場合の採点処理において、自動採点処理を採用してもよい。この場合、試験回答フォーム(入力済)の情報と、整合率情報とを対応付けた試験回答情報を記憶した後(例えば、試験当日または後日)に、記憶した整合率に自動採点処理における受験者の回答と他の受験者(例えば、隣の受験者)の回答の類似度を加味して、不正監視手段V130−1による比較解析の結果の整合率が所定値未満(例えば、90%未満)であって、回答の類似度が所定値以上(例えば、80%以上)である場合に、試験に対する回答にカンニングの不正があったか否かを決定可能であるように構成してもよい。このように構成することで、自動採点処理の採点の情報を加味したカンニング等の不正受験を判断することができる。また、採点の結果を用いて、受験者に教育システム20で使用するリコメンドというサービスを提供することができるようにしてもよい。例えば、受験者がメソポタミア文明の問題を間違えた場合、教育IDがVD_CSR1やVD_KSBK1の情報を受験者に提供するようにしてもよい。 Here, as the scoring of the test, a process using an automatic scoring means may be adopted as an automatic scoring process in which the artificial intelligence automatically scores. In this case, the automatic scoring means divides the test answers into several patterns and scores them. When evaluating in stages rather than simple correct or incorrect answers, the answers in the same category are given uniform partial points by categorizing them according to the answer pattern. In addition, automatic scoring processing may be adopted in the scoring process when the answer is described in a format different from the selection format such as the mark sheet format (a format in which the examinee freely fills in the answer, etc.). In this case, after storing the test response information in which the information on the test response form (entered) and the consistency rate information are associated with each other (for example, on the day of the test or at a later date), the examinee in the automatic scoring process uses the stored consistency rate. The consistency rate of the results of the comparative analysis by the fraud monitoring means V130-1 is less than a predetermined value (for example, less than 90%), taking into account the similarity between the answers of the above and the answers of other examinees (for example, the next examinee). However, when the similarity of the answers is equal to or more than a predetermined value (for example, 80% or more), it may be configured so that it can be determined whether or not the answer to the test has a fraudulent canning. With such a configuration, it is possible to determine an illegal examination such as cheating in consideration of the scoring information of the automatic scoring process. Further, the scoring result may be used to provide the examinee with a service called recommendation used in the education system 20. For example, if the examinee makes a mistake in the problem of the Mesopotamian civilization, the information of the education ID VD_CSR1 or VD_KSBK1 may be provided to the examinee.

本実施形態に係る試験システム(3)は、ユーザ認証用データベースV150−7に記憶されている顔画像データは受験者の正面顔が撮像された画像データであり、撮影手段(例えば、通信端末T110のカメラ)によって撮影された顔データが、正面顔が撮像されたものでない場合に整合率が低下するように判断する、本実施形態に係る試験システム(1)記載の試験システムである。正面顔の画像データ及び顔データを、整合率を判断するのに最適なデータとすることができる。 In the test system (3) according to the present embodiment, the face image data stored in the user authentication database V150-7 is image data obtained by capturing the front face of the examinee, and the photographing means (for example, the communication terminal T110). This is the test system according to the test system (1) according to the present embodiment, which determines that the matching rate is lowered when the face data captured by the camera) is not the one in which the front face is imaged. The image data of the front face and the face data can be the optimum data for determining the consistency rate.

(教育システム20のシステム全体構成)
図7を参照しながら、本実施形態に係る教育システム20のシステム全体構成について説明する。はじめに、教育システム20は、通信端末T110での操作によりサーバV100における試験の管理を可能とするシステムである。まず、図示するように、教育システム20は、通信端末T110とサーバV100とから構成されている。
(Overall system configuration of education system 20)
The overall system configuration of the education system 20 according to the present embodiment will be described with reference to FIG. 7. First, the education system 20 is a system that enables the management of tests on the server V100 by operating the communication terminal T110. First, as shown in the figure, the education system 20 includes a communication terminal T110 and a server V100.

通信端末T110及びサーバV100の構成は、試験システム10と同様であるが、教育システム20のサーバV100では、教材分類1〜4、教材ID、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)等が登録されている学習教材用データベースV150−8を有している(図7参照)。なお、学習教材用データベースV150−8に登録されているデータは、これらの情報に限られず、その他の情報が登録されていてもよく、教材データは予め登録されているデータ以外にネットワーク820を介してダウンロードした教材データを登録できるように構成してもよい。ここで、教材データは、eラーニング等で使用される学習用の教材動画データ(アニメーション形式のパワーポイントデータやPDFデータも含まれる)であることが好適であり、動画内には、映像、板書、音声等が含まれている。なお、音声のみが含まれているデータを教材データの対象としてもよい。さらに、音声が含まれるPDFデータ等の音声を含む静止画のデータを教材データの対象としてもよい。 The configuration of the communication terminal T110 and the server V100 is the same as that of the test system 10, but in the server V100 of the education system 20, the teaching material classifications 1 to 4, the teaching material ID, the teaching material name, the teaching material data (for example, the teaching material video data), and the teaching material It has a learning material database V150-8 in which lengths (for example, video lengths) and the like are registered (see FIG. 7). The data registered in the learning material database V150-8 is not limited to this information, and other information may be registered, and the teaching material data is via the network 820 in addition to the pre-registered data. It may be configured so that the downloaded teaching material data can be registered. Here, the teaching material data is preferably video teaching material video data for learning used in e-learning or the like (including PowerPoint data and PDF data in animation format), and the video includes video, board writing, and the like. Audio etc. are included. Note that data containing only audio may be the target of the teaching material data. Further, still image data including audio such as PDF data including audio may be used as the target of the teaching material data.

学習教材用データベースV150−8の教材分類1には、教育システム20で使用する教材データ(例えば、教材動画データ)を用いた学習者の対象を示す情報(中学生、高校生等の情報)が登録されている。なお、教材分類1を科目の情報としてもよく、その場合、中学生の科目、中学生の科目とは異なる科目である高校生の科目として学習教材用データベースV150−8に登録される。教材分類2には、社会、地理歴史、理科、化学、物理、生物、地学、国語、数学、英語等の学習の科目を示す情報としての大分類科目が登録されている。なお、大分類科目によって、教材データ(例えば、教材動画データ)が、教材分類2の中で異なる科目の教材を示すようになっている。教材分類3には、学習の科目を細かく分類した情報としての中分類科目が登録されている。例えば、教材分類2が社会の場合は、歴史1、歴史2、歴史3、公民1、公民2、世界史A、世界史B等の情報となっている。なお、中分類科目によって、教材データ(例えば、教材動画データ)が、教材分類3の中で異なる科目の教材を示すようになっている。 Information (information on junior high school students, high school students, etc.) indicating the target of the learner using the teaching material data (for example, teaching material video data) used in the education system 20 is registered in the teaching material classification 1 of the learning material database V150-8. ing. The teaching material classification 1 may be used as the subject information, and in that case, the subject is registered in the learning material database V150-8 as a subject for junior high school students and a subject for high school students, which is a subject different from the subject for junior high school students. In the teaching material classification 2, major classification subjects are registered as information indicating learning subjects such as society, geography and history, science, chemistry, physics, biology, earth science, national language, mathematics, and English. It should be noted that, depending on the major classification subject, the teaching material data (for example, teaching material video data) indicates the teaching material of a different subject in the teaching material classification 2. In the teaching material classification 3, the middle classification subject is registered as the information which classified the learning subject in detail. For example, when the teaching material classification 2 is society, the information is history 1, history 2, history 3, public citizen 1, public citizen 2, world history A, world history B, and the like. It should be noted that, depending on the middle classification subject, the teaching material data (for example, teaching material video data) indicates the teaching material of a different subject in the teaching material classification 3.

教材分類4には、学習の科目を更に細かく分類した情報としての小分類科目が登録されている。なお、小分類科目によって、教材データ(例えば、教材動画データ)が、教材分類4の中で異なる科目の教材を示すようになっている。例えば、教材分類2が地理歴史であって教材分類3が世界史Bの場合は、古代オリエント1、古代オリエント2、古代オリエント3等の情報が登録されている。教材IDは、学習で使用する映像である教材データ(例えば、教材動画データ)に対応付けられた番号である。教材名は、学習で使用する教材データ(例えば、教材動画データ)の教材名称が登録されている。教材データとしての教材動画データは、学習で使用する映像であり、教材動画データには、教材動画データの映像の教材名(学習教材用データベースの教材名と同じ)、教材動画データの説明文、教材動画データの映像長さ(学習教材用データベースの映像長さと同じ)が紐づけられて記憶されている。教材長さ(例えば、映像長さ)は、教材データの再生時間や教材動画データの映像の時間を示している。 In the teaching material classification 4, sub-classification subjects are registered as information in which the learning subjects are further classified. It should be noted that, depending on the sub-category subject, the teaching material data (for example, teaching material video data) indicates the teaching material of a different subject in the teaching material classification 4. For example, when the teaching material classification 2 is geographic history and the teaching material classification 3 is world history B, information such as ancient Orient 1, ancient Orient 2, and ancient Orient 3 is registered. The teaching material ID is a number associated with teaching material data (for example, teaching material video data) which is a video used in learning. As the teaching material name, the teaching material name of the teaching material data (for example, teaching material video data) used in learning is registered. The teaching material video data as the teaching material data is a video used in learning, and the teaching material video data includes the teaching material name of the video of the teaching material video data (same as the teaching material name of the learning teaching material database), the explanation of the teaching material video data, and so on. The video length of the teaching material video data (same as the video length of the learning material database) is linked and stored. The teaching material length (for example, the video length) indicates the playback time of the teaching material data and the video time of the teaching material video data.

また、サーバV100は、教育システム20の検索実行手段V140で用いられ、教材ID、変換一文、一文内単語、再生開始ポイント、再生終了ポイント等が登録されている検索用データベースV150−9を有している(図7参照)。なお、検索用データベースV150−9に登録されているデータは、これらの情報に限られず、学習教材用データベースV150−8で登録されている教材分類1〜4、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)等が学習教材用データベースV150−8の教材IDと同じ検査用データベースの教材IDに紐づけされるように登録されていてもよい。 Further, the server V100 has a search database V150-9 which is used in the search execution means V140 of the education system 20 and in which the teaching material ID, the converted sentence, the word in the sentence, the reproduction start point, the reproduction end point, etc. are registered. (See Fig. 7). The data registered in the search database V150-9 is not limited to this information, and the teaching material categories 1 to 4, the teaching material names, and the teaching material data (for example, teaching materials) registered in the learning teaching material database V150-8 are not limited to these information. The video data), the length of the teaching material (for example, the length of the video) and the like may be registered so as to be associated with the teaching material ID of the same inspection database as the teaching material ID of the learning teaching material database V150-8.

検索用データベースV150−9に登録されているデータは、以下のように登録される。以降説明するデータの登録の処理は、人工知能を用いて実行することが好適である。まず、フォーマット変換手段V150−1で、教育システム20で使用する教材データ(例えば、教材動画データ)をテキスト化する際に最適な動画フォーマットに変換する。フォーマット変換手段V150−1では、最適な動画フォーマットであるA形式ではない動画(例えば、B形式の動画フォーマット等である場合)を、A形式の動画フォーマットに変換する。次に、音声抽出手段V150−2で、最適な動画フォーマットに変換された教材データ(例えば、教材動画データ)から音声を抽出する。 The data registered in the search database V150-9 is registered as follows. The data registration process described below is preferably executed using artificial intelligence. First, the format conversion means V150-1 converts the teaching material data (for example, teaching material moving image data) used in the education system 20 into an optimal moving image format when converting into text. The format conversion means V150-1 converts a moving image that is not the A format, which is the optimum moving image format (for example, in the case of the moving image format of the B format), into the moving image format of the A format. Next, the audio extraction means V150-2 extracts audio from the teaching material data (for example, teaching material moving image data) converted into the optimum moving image format.

次に、テキスト化手段V150−3で、音声抽出手段で抽出した音声を、文字コードで構成された文字列のデータとしてテキスト化する。ここで、図7の学習教材用データベースV150−8に記憶された教材IDが、VD_CSR1の教材データ(例えば、教材動画データ)としての中学生(教材分類1)、社会(教材分類2)、歴史1(教材分類3)のテキスト化手段を例示する。教材IDがVD_CSR1の教材動画データのテキスト化手段では、音声抽出手段で抽出した音声から、文法上の区切りではなく音声の途切れにより区切られた一文内単語、タイムスタンプ情報としての一文内単語の再生開始ポイントと再生終了ポイントを抽出する。そして、複数の一文内単語から構成される変換一文をテキスト化して処理する。なお、変換一文は、全ての一文内単語を連結したものであって、タイムスタンプ情報を時系列的に並べたものとなっている。 Next, the text conversion means V150-3 converts the voice extracted by the voice extraction means into text as data of a character string composed of a character code. Here, the teaching material ID stored in the learning teaching material database V150-8 of FIG. 7 is the teaching material data of VD_CSR1 (for example, teaching material video data) for junior high school students (teaching material classification 1), society (teaching material classification 2), and history 1. An example of the means for converting (teaching material classification 3) into text. In the means for converting the teaching material video data of the teaching material ID of VD_CSR1 into text, the words in one sentence separated by the breaks in the voice instead of the grammatical breaks and the words in the sentence as time stamp information are reproduced from the voice extracted by the voice extraction means. Extract the start point and playback end point. Then, a converted sentence composed of a plurality of words in one sentence is converted into text and processed. The converted sentence is a concatenation of all the words in the sentence, and the time stamp information is arranged in chronological order.

例えば、教材IDがVD_CSR1の教材データ(例えば、教材動画データ)から抽出される一文内単語、再生開始ポイント、再生終了ポイントは以下のように紐づけされている。
『一文内単語=「まず」、再生開始ポイント=24.22、再生終了ポイント=25.31』
『一文内単語=「メソポタミア文明は」、再生開始ポイント=25.83、再生終了ポイント=27.79』
『一文内単語=「四大文明の一つです」再生開始ポイント=28.42、再生終了ポイント=29.96』
また、テキスト化手段では、全ての一文内単語を連結して『変換一文=「まずメソポタミア文明は四大文明の一つです」』と変換一文を生成している。なお、24.22や25.31等は24.22秒や25.31秒を示しており、1/100秒まで再生開始ポイント、再生終了ポイントを特定できるようになっている。
For example, the word in one sentence, the playback start point, and the playback end point extracted from the teaching material data (for example, teaching material video data) whose teaching material ID is VD_CSR1 are linked as follows.
"Word in one sentence =" first ", playback start point = 24.22, playback end point = 25.31"
"Word in one sentence =" Mesopotamian civilization ", playback start point = 25.83, playback end point = 27.79"
"Word in one sentence =" It is one of the four major civilizations "Playback start point = 28.42, playback end point = 29.96"
In addition, in the text conversion means, all the words in one sentence are concatenated to generate one conversion sentence, "One conversion sentence =" First, the Mesopotamian civilization is one of the four major civilizations. "" In addition, 24.22, 25.31 and the like indicate 24.22 seconds and 25.31 seconds, and the reproduction start point and the reproduction end point can be specified up to 1/100 second.

次に、データ成型手段V150−4で、テキスト化手段でテキスト化した文字列のデータを所定形式に成型する。ここで、図7の学習教材用データベースV150−8に記憶された教材IDが、VD_CSR1の教材データ(例えば、教材動画データ)としての中学生(教材分類1)、社会(教材分類2)、歴史1(教材分類3)のデータ成型手段を例示する。教材IDがVD_CSR1の教材動画データのデータ成型手段では、テキスト化手段でテキスト化した情報及び教材動画データが有する情報(教材名、説明文、映像長さ)から、タイムスタンプ情報と一文内単語、教材ID、説明文、教材名を抽出する。 Next, the data molding means V150-4 molds the data of the character string converted into text by the text conversion means into a predetermined format. Here, the teaching material ID stored in the learning teaching material database V150-8 of FIG. 7 is the teaching material data of VD_CSR1 (for example, teaching material video data) for junior high school students (teaching material classification 1), society (teaching material classification 2), and history 1. The data molding means of (teaching material classification 3) is illustrated. In the data molding means of the teaching material video data whose teaching material ID is VD_CSR1, the time stamp information and the word in one sentence are obtained from the information converted into text by the text conversion means and the information (teaching material name, explanation, video length) of the teaching material video data. Extract the teaching material ID, description, and teaching material name.

例えば、教材IDがVD_CSR1の教材データ(例えば、教材動画データ)のデータ成型手段は、以下のようにデータを成型している。
『再生開始ポイント=24.22、再生終了ポイント=25.31、一文内単語=「まず」
再生開始ポイント=25.83、再生終了ポイント=27.79、一文内単語=「メソポタミア文明は」
再生開始ポイント=28.42、再生終了ポイント=29.96、一文内単語=「四大文明の一つです」
教材ID=VD_CSR1
変換一文=まず メソポタミア文明は 四大文明の一つです
説明文=四大文明であるメソポタミア文明の学習(中学生対象)
教材名=四大文明のおこり』
For example, the data molding means of the teaching material data (for example, teaching material moving image data) whose teaching material ID is VD_CSR1 molds the data as follows.
"Playback start point = 24.22, playback end point = 25.31, word in one sentence =" first "
Playback start point = 25.83, playback end point = 27.79, word in one sentence = "Mesopotamian civilization"
Playback start point = 28.42, playback end point = 29.96, word in one sentence = "one of the four major civilizations"
Teaching material ID = VD_CSR1
Conversion 1 sentence = First, the Mesopotamian civilization is one of the four major civilizations Explanation = Learning the Mesopotamian civilization, which is the four major civilizations (for junior high school students)
Teaching material name = the origin of the four major civilizations "

ここで、テキスト化手段では、一文内単語、再生開始ポイント、再生終了ポイントの順序で情報を紐付け(対応付け)て処理したが、データ成型手段では、テキスト化手段とは異なる順序である再生開始ポイント、再生終了ポイント、一文内単語の順序で情報を紐付け(対応付け)て処理を実行している。データ成型手段では、テキスト化手段とは異なる順序で情報を対応付ける処理であって、再生開始ポイントが基準となる処理を実行するように構成されているため、再生開始ポイントの順序に合わせて、情報を並べれば良いように構成されているので、データ成型が容易になる。 Here, in the text conversion means, information is linked (associated) in the order of a word in one sentence, a playback start point, and a playback end point, but in the data molding means, the playback is in a different order from the text conversion means. Information is linked (corresponded) in the order of start point, playback end point, and word in one sentence, and processing is executed. The data molding means is a process of associating information in an order different from that of the text conversion means, and is configured to execute a process based on the playback start point. Therefore, the information is matched to the order of the playback start points. Since it is configured so that the data can be arranged side by side, data molding becomes easy.

次に、インデックス化手段V150−5で、データ成型手段で成型したデータを検索用データベースの形式にインデックス化する。教材IDが、VD_CSR1の教材データ(例えば、教材動画データ)は、図7に示すように教材ID、変換一文、一文内単語、再生開始ポイント、再生終了ポイントが検索用データベースV150−9に記憶されている。同様に、教材IDが、VD_KSBK1の教材動画データは、図7に示すように教材ID、変換一文、一文内単語、再生開始ポイント、再生終了ポイントが検索用データベースV150−9に記憶されている。このように教材IDの順番で検索用データベースV150−9に各教材動画データの教材ID、変換一文、一文内単語、再生開始ポイント、再生終了ポイントが記憶されている。 Next, the indexing means V150-5 indexes the data molded by the data molding means into the format of the search database. As for the teaching material data (for example, teaching material video data) whose teaching material ID is VD_CSR1, the teaching material ID, conversion sentence, word in one sentence, playback start point, and playback end point are stored in the search database V150-9 as shown in FIG. ing. Similarly, as shown in FIG. 7, the teaching material video data having the teaching material ID of VD_KSBK1 stores the teaching material ID, the converted sentence, the word in one sentence, the reproduction start point, and the reproduction end point in the search database V150-9. In this way, the teaching material ID, conversion sentence, word in one sentence, playback start point, and playback end point of each teaching material video data are stored in the search database V150-9 in the order of the teaching material ID.

次に、図8〜図10を参照しながら、教育システム20の、通信端末T110とサーバV100との間での、検索実行手段について詳述する。図8は、ユーザである学習者が、通信端末T110を用いてサーバV100にアクセスし、図4に示すユーザログイン手段でログインした場合のシステムフローであって、ユーザが通信端末T110を用いてサーバV100にアクセスし、条件に合う教材データ(例えば、教材動画データ)を検索する場合のシステムフローである。 Next, with reference to FIGS. 8 to 10, the search execution means between the communication terminal T110 and the server V100 of the education system 20 will be described in detail. FIG. 8 shows a system flow in which a learner who is a user accesses the server V100 using the communication terminal T110 and logs in by the user login means shown in FIG. 4, wherein the user uses the communication terminal T110 to log in to the server. This is a system flow for accessing V100 and searching for teaching material data (for example, teaching material video data) that meets the conditions.

(システムフロー/検索実行手段/通信端末T110の処理1G)
はじめに、通信端末T110の処理を実行する。まず、ステップ502−Sで、学習者が、通信端末T110を操作して検索フォームの形式に従い、検索のキーワードを入力したことに基づき、通信端末T110は、検索フォームにキーワードをセットする。例えば、図9に示すように検索のキーワードとして「メソポタミア」を入力する。次に、ステップ504−Sで、図9に示す検索のボタンが学習者によって選択されたことに基づき、通信端末T110は、検索フォーム(入力済)を、ネットワーク820を介してサーバV100側に送信する。
(System flow / Search execution means / Communication terminal T110 processing 1G)
First, the processing of the communication terminal T110 is executed. First, in step 502-S, the communication terminal T110 sets the keyword in the search form based on the fact that the learner operates the communication terminal T110 and inputs the search keyword according to the format of the search form. For example, as shown in FIG. 9, "Mesopotamia" is input as a search keyword. Next, in step 504-S, based on the fact that the search button shown in FIG. 9 is selected by the learner, the communication terminal T110 transmits the search form (completed) to the server V100 side via the network 820. To do.

(システムフロー/検索実行手段/サーバV100の処理1H)
次に、サーバV100の処理を実行する。まず、ステップ506−Sで、検索実行手段V140は、通信端末T110から送信された検索フォーム(入力済)を受信する。次に、ステップ508−Sで、検索実行手段V140は、検索用データベースV150−9に記憶された変換一文のデータを用いて、当該受信した検索フォーム(入力済)に入力された検索のキーワードに基づく検索を実行する。例えば、図7の検索用データベースV150−9に記憶された変換一文のデータの中から、検索のキーワードである「メソポタミア」が含まれた変換一文を検索する。
(System flow / Search execution means / Server V100 processing 1H)
Next, the process of the server V100 is executed. First, in step 506-S, the search execution means V140 receives the search form (completed) transmitted from the communication terminal T110. Next, in step 508-S, the search execution means V140 uses the data of the conversion sentence stored in the search database V150-9 as the search keyword entered in the received search form (entered). Perform a based search. For example, from the data of the conversion sentence stored in the search database V150-9 of FIG. 7, the conversion sentence including the search keyword "Mesopotamia" is searched.

次に、ステップ510−Sで、検索実行手段V140は、キーワード検索でヒットした教材IDを取得する。教材IDが複数ヒットした場合、検索実行手段V140は、ヒットした全てを対象として全ての教材IDを取得する。例えば、図7の検索用データベースV150−9に記憶された変換一文のデータの中から、検索のキーワードである「メソポタミア」を検索した場合、教材IDがVD_CSR1とVD_KSBK1の変換一文に「メソポタミア」が含まれている(図7の検索用データベース参照)ため、教材IDとして、VD_CSR1とVD_KSBK1を取得する。このように異なる科目であるVD_CSR1とVD_KSBK1との情報を検索によって取得する。 Next, in step 510-S, the search execution means V140 acquires the teaching material ID hit by the keyword search. When a plurality of teaching material IDs are hit, the search execution means V140 acquires all the teaching material IDs for all the hits. For example, when the search keyword "Mesopotamia" is searched from the data of the conversion sentence stored in the search database V150-9 of FIG. 7, "Mesopotamia" is added to the conversion sentence of the teaching material IDs VD_CSR1 and VD_KSBK1. Since it is included (see the search database in FIG. 7), VD_CSR1 and VD_KSBK1 are acquired as teaching material IDs. Information on VD_CSR1 and VD_KSBK1 which are different subjects in this way is acquired by searching.

次に、ステップ512−Sで、検索実行手段V140は、取得した教材IDに対応する学習教材用データベースV150−8の教材分類1〜4、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)の情報を取得する。例えば、図7の検索用データベースに記憶された変換一文のデータの中から、検索のキーワードである「メソポタミア」を検索し、教材IDとして、VD_CSR1とVD_KSBK1を取得した場合、図7に示す学習教材用データベースV150−8から教材IDがVD_CSR1の教材分類1〜4、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)の情報を取得する。同様に、図7に示す学習教材用データベースV150−8から教材IDがVD_KSBK1の教材分類1〜4、教材名、教材データ(例えば、教材動画データ)、教材長さ(例えば、映像長さ)の情報、図7に示す検索用データベースV150−9から変換一文の情報を取得する。 Next, in step 512-S, the search execution means V140 uses the learning material database V150-8 corresponding to the acquired teaching material ID to classify 1 to 4, teaching material names, teaching material data (for example, teaching material video data), and teaching materials. Acquires length (for example, video length) information. For example, when the search keyword "mesopotamia" is searched from the data of the conversion sentence stored in the search database of FIG. 7 and VD_CSR1 and VD_KSBK1 are acquired as the teaching material IDs, the learning material shown in FIG. 7 is obtained. Information on teaching material classifications 1 to 4 having a teaching material ID of VD_CSR1, teaching material name, teaching material data (for example, teaching material video data), and teaching material length (for example, video length) is acquired from the database V150-8. Similarly, from the learning teaching material database V150-8 shown in FIG. 7, the teaching material ID is VD_KSBK1, the teaching material classifications 1 to 4, the teaching material name, the teaching material data (for example, the teaching material video data), and the teaching material length (for example, the video length). Information, the information of the conversion sentence is acquired from the search database V150-9 shown in FIG.

次に、ステップ514−Sで、検索実行手段V140は、取得した情報に基づき検索結果の画面を生成する。例えば、図7の検索用データベースV150−9に記憶された変換一文のデータの中から、検索のキーワードである「メソポタミア」を検索した場合、図9に示すような検索結果の画面を生成する。検索結果の画面には、スコアの情報、教材分類1〜4の情報、教材長さ(例えば、映像長さ)の情報、変換一文の情報(一の変換一文、複数の変換一文、全ての変換一文のいずれかの変換一文の情報)、詳細ボタン(例えば、図9に示す詳細1や詳細2のボタン画像)を表示する。図9に示すように、検索のキーワードである「メソポタミア」は、検索結果の画面の変換一文の情報を学習者に視認し易くするように太字や斜体文字として表示したり、ハイライト表示したりするのが好適である。なお、図9の「勉強するのは」と「オリエント世界の法律というお話でございます」等との間のアンダーラインは、一文内単語と一文内単語との区切れを示すものであって映像での音声の途切れを示している。次に、ステップ516−Sで、検索実行手段V140は、当該生成した検索結果の画面を、ネットワーク820を介して通信端末T110へ送信する。また、検索結果の画面として、図10(a)で示す画面を小さくした画像(どのような映像であるのか、どのような内容であるのかをひと目で確認できる縮小画像)の表示(サムネイル表示ともいう)を検索結果の数(一または複数)だけ表示するように構成してもよい。 Next, in step 514-S, the search execution means V140 generates a search result screen based on the acquired information. For example, when the search keyword "Mesopotamia" is searched from the data of the conversion sentence stored in the search database V150-9 of FIG. 7, the search result screen as shown in FIG. 9 is generated. On the search result screen, score information, teaching material classifications 1 to 4, teaching material length (for example, video length) information, conversion one sentence information (one conversion one sentence, multiple conversion one sentence, all conversions) The information of one of the conversion sentences of one sentence) and the detail button (for example, the button image of detail 1 and detail 2 shown in FIG. 9) are displayed. As shown in FIG. 9, the search keyword "Mesopotamia" is displayed as bold or italic characters or highlighted so that the information of the converted sentence of the search result screen can be easily seen by the learner. It is preferable to do so. The underline between "What you study" and "The law of the Orient world" in Fig. 9 shows the division between words in one sentence and the video. Indicates a break in audio at. Next, in step 516-S, the search execution means V140 transmits the generated search result screen to the communication terminal T110 via the network 820. In addition, as the search result screen, a smaller image (a reduced image that allows you to check at a glance what kind of image it is and what kind of content it is) is displayed (thumbnail display). It may be configured to display as many as the number of search results (s).

ここで、スコアの情報は、検索のキーワードが多く含まれるほどスコアが高くなるように構成されているが、学習者の過去の学習履歴に基づき、既に学習した教材データ(例えば、教材動画データ)のスコアが高くなるようにしてもよい。また、既に学習した教材データ(例えば、教材動画データ)に対応付けられた教材分類1〜4の統計に基づき、学習者が一番多く学習した教材分類のスコアが高くなるようにしてもよい。このようにスコアの情報を表示することで、学習者が欲する適切な情報を提示するリコメンドというサービスを提供することができるとともに、検索のキーワードに同音異義語がある場合、学習者の学習履歴に沿った検索結果を表示することができる。 Here, the score information is configured so that the score becomes higher as the number of search keywords is included, but the teaching material data already learned (for example, teaching material video data) based on the learner's past learning history. The score may be higher. Further, the score of the teaching material classification that the learner learned the most may be high based on the statistics of the teaching material classifications 1 to 4 associated with the already learned teaching material data (for example, the teaching material video data). By displaying the score information in this way, it is possible to provide a service called recommendation that presents the appropriate information that the learner wants, and if there is a homonym in the search keyword, the learner's learning history You can display the search results along.

(システムフロー/検索実行手段/通信端末T110の処理2G)
次に、通信端末T110の処理を実行する。まず、ステップ518−Sで、通信端末T110は、サーバV100から送信された検索結果の画面を受信する。次に、ステップ520−Sで、通信端末T110は、表示装置に当該受信した検索結果の画面を表示する。例えば、図9に示すような検索結果の画面を表示する。次に、ステップ522−Sで、学習者が通信端末T110を操作して、詳細ボタン(図9に示す詳細1や詳細2のボタン画像)が選択されたことに基づき、通信端末T110は、詳細表示要求(教材ID含む)を、ネットワーク820を介してサーバV100へ送信する。
(System flow / Search execution means / Communication terminal T110 processing 2G)
Next, the processing of the communication terminal T110 is executed. First, in step 518-S, the communication terminal T110 receives the screen of the search result transmitted from the server V100. Next, in step 520-S, the communication terminal T110 displays the received search result screen on the display device. For example, the search result screen as shown in FIG. 9 is displayed. Next, in step 522-S, the communication terminal T110 is detailed based on the fact that the learner operates the communication terminal T110 and the detail buttons (button images of details 1 and 2 shown in FIG. 9) are selected. The display request (including the teaching material ID) is transmitted to the server V100 via the network 820.

(システムフロー/検索実行手段/サーバV100の処理2H)
次に、サーバV100の処理を実行する。まず、ステップ524−Sで、検索実行手段V140は、ステップ522−Sで送信された詳細表示要求(教材ID含む)を受信する。次に、ステップ526−Sで、検索実行手段V140は、当該受信した詳細表示要求の教材IDの情報に基づく学習教材用データベースV150−8の教材データ(例えば、教材動画データ)を取得する。例えば、図9で詳細1のボタンが選択された場合、教材IDがVD_KSBK1であるので、学習教材用データベースV150−8の教材IDがVD_KSBK1である教材動画データを取得する。
(System flow / Search execution means / Server V100 processing 2H)
Next, the process of the server V100 is executed. First, in step 524-S, the search execution means V140 receives the detailed display request (including the teaching material ID) transmitted in step 522-S. Next, in step 526-S, the search execution means V140 acquires teaching material data (for example, teaching material moving image data) of the learning teaching material database V150-8 based on the information of the teaching material ID of the received detailed display request. For example, when the button of detail 1 is selected in FIG. 9, since the teaching material ID is VD_KSBK1, the teaching material video data in which the teaching material ID of the learning teaching material database V150-8 is VD_KSBK1 is acquired.

次に、ステップ528−Sで、検索実行手段V140は、詳細表示要求の教材IDの情報の一文内単語のうち、キーワードを含む一文内単語およびキーワード含む一文内単語の前後の一文内単語の情報を検索用データベースV150−9から再生開始ポイントが早い順に取得する。例えば、検索のキーワードが「メソポタミア」の場合であって、教材IDがVD_KSBK1の場合、検索用データベースV150−9から「メソポタミア」が含まれる再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」と、再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」の前の一文内単語である「最初に興った文明が」と、後の一文内単語である「ここは重要です」との情報を取得する。また、検索用データベースV150−9から「メソポタミア」が含まれる再生開始ポイントが2番目の一文内単語である「メソポタミアは」と、再生開始ポイントが2番目の一文内単語である「メソポタミアは」の前の一文内単語である「ここで」と、後の一文内単語である「ギリシア語で」との情報を取得する。 Next, in step 528-S, the search execution means V140 provides information on the one-sentence word including the keyword and the one-sentence word before and after the one-sentence word containing the keyword among the one-sentence words in the information of the teaching material ID of the detailed display request. Is acquired from the search database V150-9 in order from the earliest playback start point. For example, when the search keyword is "Mesopotamia" and the teaching material ID is VD_KSBK1, the playback start point including "Mesopotamia" from the search database V150-9 is the first word in the sentence "Mesopotamia civilization". The playback start point is the word in the first sentence, "This is the Mesopotamian civilization," which is the word in the sentence before "The first civilization that emerged," and the word in the sentence after, "Here is." It's important. " Also, from the search database V150-9, "Mesopotamia", which has a playback start point containing "Mesopotamia" in the second sentence, and "Mesopotamia", which has a playback start point in the second sentence, Get information about the word "here" in the previous sentence and the word "in Greek" in the latter sentence.

次に、ステップ530−Sで、検索実行手段V140は、詳細表示要求の教材IDの情報の一文内単語のうち、キーワードを含む一文内単語の再生開始ポイントの情報を検索用データベースV150−9から再生開始ポイントが早い順に取得する。例えば、検索のキーワードが「メソポタミア」の場合であって、教材IDがVD_KSBK1の場合、検索用データベースV150−9から「メソポタミア」が含まれる再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」の再生開始ポイントである13.58の情報を取得する。また、検索用データベースV150−9から「メソポタミア」が含まれる再生開始ポイントが2番目の一文内単語である「メソポタミアは」の再生開始ポイントである16.34の情報を取得する。 Next, in step 530-S, the search execution means V140 searches the search database V150-9 for information on the reproduction start point of the word in the sentence including the keyword among the words in the sentence of the teaching material ID information of the detailed display request. Acquires the playback start points in the order of earliest. For example, when the search keyword is "Mesopotamia" and the teaching material ID is VD_KSBK1, the playback start point including "Mesopotamia" from the search database V150-9 is the first word in the sentence "Mesopotamia civilization". The information of 13.58, which is the playback start point of "is", is acquired. In addition, the information of 16.34, which is the reproduction start point of "Mesopotamia", which is the second word in one sentence, is acquired from the search database V150-9.

次に、ステップ532−Sで、検索実行手段V140は、取得した教材データ(例えば、教材動画データ)の情報、一文内単語の情報、再生開始ポイントの情報に基づき音声付き教材データ(映像)の画面を生成する。例えば、図10(a)のような画面を生成する。詳細表示要求の結果の画面としての音声付き教材データ(映像)の画面(図10(a)に示すように通信端末T110の表示装置)には、画面の上側の位置に音声付き教材データ(映像)を表示し、画面の中間位置に再生ボタン、早送りボタン、再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」の再生開始ポイントである13.58が表示されている。この状態で、再生ボタンを選択すると、再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」の再生開始ポイントである13.58から映像が再生されるようになっている。画面の下側の位置には、音声付き教材データ(映像)の文字列データが表示される。文字列データは、再生開始ポイント、検索のキーワードが含まれる一文内単語と、検索のキーワードが含まれる一文内単語の前の一文内単語と、検索のキーワードが含まれる一文内単語の後の一文内単語とを表示する。 Next, in step 532-S, the search execution means V140 determines the teaching material data (video) with audio based on the acquired teaching material data (for example, teaching material video data) information, word information in one sentence, and playback start point information. Generate a screen. For example, a screen as shown in FIG. 10A is generated. On the screen of the teaching material data (video) with audio as the result screen of the detailed display request (display device of the communication terminal T110 as shown in FIG. 10A), the teaching material data with audio (video) is located at the upper position of the screen. ) Is displayed, and the play button, fast forward button, and play start point 13.58, which is the play start point of "Mesopotamian civilization", which is the first word in one sentence, are displayed at the middle position of the screen. If the playback button is selected in this state, the video is played from 13.58, which is the playback start point of the first word in the sentence, "Mesopotamian civilization." The character string data of the teaching material data (video) with audio is displayed at the lower position of the screen. The character string data includes a playback start point, a word in a sentence containing a search keyword, a word in a sentence before a word in a sentence containing a search keyword, and a sentence after a word in a sentence containing a search keyword. Display inside words.

また、文字列データは、例えば、検索のキーワードが「メソポタミア」の場合であって、教材IDがVD_KSBK1の場合、検索用データベースV150−9から「メソポタミア」が含まれる再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」と、再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」の前の一文内単語である「最初に興った文明が」と、後の一文内単語である「ここは重要です」との情報を取得した場合、『13.58 文明が メソポタミア文明です ここは重要です』と表示するようにしてもよい。つまり、検索のキーワードを含む一文内単語である「メソポタミア文明です」の前の一文内単語である「最初に興った文明が」を、後の一文内単語である「ここは重要です」よりも短くなるように「最初に興った」を省略して表示するようにする。また、検索のキーワードを含む一文内単語である「メソポタミア文明です」の前の一文内単語を3文字等の固定文字数の一文内単語とし、後の一文内単語を5文字等の固定文字数の一文内単語としてもよい。検索のキーワードを含む一文内単語の前に位置する一文内単語を短く(且つ、固定文字数)することで、検索のキーワードを含む一文内単語の位置が、学習者にとって見やすい画面を提供することが可能となる。 Further, in the character string data, for example, when the search keyword is "Mesopotamia" and the teaching material ID is VD_KSBK1, the playback start point including "Mesopotamia" is the first sentence from the search database V150-9. "It's a Mesopotamian civilization", which is an internal word, and "The first civilization that emerged", which is the word before "It's a Mesopotamian civilization", which is the first word in the sentence, and the following sentence. If you get the information that the internal word "here is important", you may display "13.58 civilization is Mesopotamian civilization here is important". In other words, from the word "Mesopotamian civilization" before the word "Mesopotamian civilization" that includes the search keyword, "The first civilization that emerged" is changed to the word "This is important". Also, the word "first risen" should be omitted so that it will be shortened. In addition, the word in the sentence before "Mesopotamian civilization", which is a word in the sentence including the search keyword, is the word in the sentence with a fixed number of characters such as 3 characters, and the word in the sentence after is the word with a fixed number of characters such as 5 characters. It may be an internal word. By shortening (and a fixed number of characters) the word in the sentence that is located before the word in the sentence that includes the search keyword, the position of the word in the sentence that includes the search keyword can provide a screen that is easy for the learner to see. It will be possible.

また、検索のキーワードを含む一文内単語である「メソポタミア文明です」の前の一文内単語である「最初に興った文明が」と、後の一文内単語である「ここは重要です」とが、検索のキーワードを含む一文内単語である「メソポタミア文明です」よりも短くなるように省略して表示するようにすることが好適である。前の一文内単語であれば、前の文字を省略し、後ろの一文内単語であれば後ろの文字を省略(例えば、『13.58 文明が メソポタミア文明です ここは重要』)するのが好適である。このように構成することによって、検索のキーワードを含む一文内単語の位置が、学習者にとって見やすい画面を提供することが可能となる。 In addition, the word "Mesopotamian civilization" before the word "Mesopotamian civilization" that includes the search keyword "The first civilization that emerged" and the word "This is important" after that. However, it is preferable to abbreviate the word so that it is shorter than the word "Mesopotamian civilization" that includes the search keyword. It is preferable to omit the preceding letter if it is a word in the preceding sentence, and omit the following letter if it is a word in the following sentence (for example, "13.58 civilization is a Mesopotamian civilization, this is important"). Is. With this configuration, it is possible to provide a screen in which the position of a word in a sentence including a search keyword is easy for the learner to see.

また、検索のキーワードを含む一文内単語である「メソポタミア文明です」の検索のキーワード、または、検索のキーワードを含む一文内単語である「メソポタミア文明です」自体を太字、斜体の文字、アンダーラインを用いた文字やハイライト表示等によって強調することも好適である。このようにすることで、検索のキーワードを含む一文内単語を強調して表示することができるため、学習者にとって検索の結果が分かりやすい画面を提供することが可能となる。 In addition, the search keyword of "Mesopotamian civilization" which is a word in one sentence including the search keyword, or the word "Mesopotamian civilization" itself which is a word in one sentence including the search keyword is bolded, italicized, and underlined. It is also preferable to emphasize by the characters used and highlighting. By doing so, it is possible to emphasize and display the words in one sentence including the search keyword, so that it is possible to provide a screen in which the learner can easily understand the search result.

次に、ステップ534−Sで、検索実行手段V140は、生成した音声付き教材データ(映像)の画面を、ネットワーク820を介して通信端末T110へ送信する。 Next, in step 534-S, the search execution means V140 transmits the screen of the generated teaching material data (video) with audio to the communication terminal T110 via the network 820.

(システムフロー/検索実行手段/通信端末T110の処理3G)
次に、通信端末T110の処理を実行する。まず、ステップ536−Sで、通信端末T110は、ステップ326−Sで送信された教材データ(映像)の画面を受信する。次に、ステップ538−Sで、通信端末T110は、当該受信した音声付き教材データ(映像)の画面を表示装置に表示する。例えば、図10(a)のような画面を表示装置に表示する。次に、ステップ540−Sで、学習者が図10(a)に示す三角の再生ボタンを選択する再生操作に基づき、通信端末T110は、音声付き教材データ(映像)を再生して表示装置に表示する。例えば、教材IDがVD_KSBK1の場合であって、「メソポタミア」が含まれる再生開始ポイントと、1番目の一文内単語である「メソポタミア文明です」と、前の一文内単語である「最初に興った文明が」と、後の一文内単語である「ここは重要です」との情報である『13.58 文明が メソポタミア文明です ここは重要です』を表示している場合に再生ボタンが選択された場合、前の一文内単語である「最初に興った文明が」からは再生されず、図10(a)の講師の吹き出しで示すように「メソポタミア」が含まれる再生開始ポイントが1番目の一文内単語である「メソポタミア文明です」から再生されるようになっている。
(System flow / Search execution means / Communication terminal T110 processing 3G)
Next, the processing of the communication terminal T110 is executed. First, in step 536-S, the communication terminal T110 receives the screen of the teaching material data (video) transmitted in step 326-S. Next, in step 538-S, the communication terminal T110 displays the screen of the received teaching material data (video) with audio on the display device. For example, a screen as shown in FIG. 10A is displayed on the display device. Next, in step 540-S, the communication terminal T110 reproduces the teaching material data (video) with audio on the display device based on the reproduction operation in which the learner selects the triangular play button shown in FIG. 10 (a). indicate. For example, when the teaching material ID is VD_KSBK1, the playback start point including "Mesopotamia" and the first word in one sentence, "It is a Mesopotamian civilization", and the word in the previous sentence, "First rise". The play button is selected when "13.58 civilization is a Mesopotamian civilization is important" is displayed, which is the information "This is important", which is the word in the latter sentence. In that case, the playback start point that includes "Mesopotamia" is the first, as shown by the instructor's balloon in Fig. 10 (a), without being reproduced from the previous word in the sentence, "The first civilization that emerged." It is reproduced from the word "It is a Mesopotamian civilization" in one sentence.

学習者の再生操作に基づき、音声付き教材データ(映像)を再生して表示する場合、音声付き教材データの音声を音声抽出手段V150−2及びテキスト化手段V150−3で生成した変換一文(例えば、「最初に興った文明が メソポタミア文明です ここは重要です」)を、通信端末T110の表示装置の画面の所定位置にテロップで表示するようにしてもよい。このように音声付き教材データの音声をテキスト化した変換一文のテロップを表示する場合であって、図10(b)に示すような板書Aがある場合は、図10(b)に示すように板書Aに重複しない位置にテロップを表示するのが好適である。このように構成することで、音声が聞き取りにくい環境であっても、音声付き教材データの音声をテキスト化したテロップを確認して学習することができる。また、このテロップをテキストデータとして出力するボタン(図10(b)に示す「テロップ出力」ボタン)を設け、学習者の選択操作によってテキストデータを出力することができるようにしてもよい。学習者は、ポイントとなる個所のテキストデータを纏めることによって、自分のあった内容の資料を作成することができる。なお、テロップの文字の大きさは、通信端末T110の画面の下側に表示される文字列データの文字の大きさよりも文字サイズの大きい文字を使用して表示することが好適である。また、テロップの文字の大きさを通信端末T110の画面内に表示される文字の中で最大の文字の大きさとしてもよい。 When the audio-attached teaching material data (video) is reproduced and displayed based on the learner's playback operation, a conversion sentence (for example,) generated by the audio extraction means V150-2 and the text conversion means V150-3 from the audio of the audio-attached teaching material data , "The first civilization that emerged is the Mesopotamian civilization, which is important") may be displayed as a telop at a predetermined position on the screen of the display device of the communication terminal T110. In the case of displaying a telop of a converted single sentence in which the audio of the teaching material data with audio is converted into text in this way, and if there is a board A as shown in FIG. 10 (b), as shown in FIG. 10 (b). It is preferable to display the telop at a position that does not overlap with the board A. With this configuration, even in an environment where it is difficult to hear the voice, it is possible to check and learn the telop in which the voice of the teaching material data with voice is converted into text. Further, a button for outputting this telop as text data (“telop output” button shown in FIG. 10B) may be provided so that the text data can be output by the learner's selection operation. The learner can create a material with the content that suits him / her by collecting the text data of the key points. It is preferable that the character size of the telop is displayed by using a character whose character size is larger than the character size of the character string data displayed on the lower side of the screen of the communication terminal T110. Further, the character size of the telop may be set to the maximum character size among the characters displayed on the screen of the communication terminal T110.

また、図10(a)に示すように音声付き教材データ(映像)に板書Aがある場合、板書Aの内容をテキスト化して板書文字を生成して、通信端末T110の表示装置の画面の所定位置(板書Aに重複しない位置)に板書Bを表示するようにしてもよい。このように構成することで、映像の解像度が低くなってしまう環境で板書Aに書かれた文字が見にくいような場合であっても、テキスト化された板書Bを確認して学習することができる。なお、板書Bの文字の大きさは、板書Aの文字の大きさよりも文字サイズの大きい文字を使用して表示することが好適である。また、この板書Bをテキストデータとして出力するボタン(図10(b)に示す「板書出力」ボタン)を設け、学習者の選択操作によってテキストデータを出力することができるようにしてもよい。学習者は、ポイントとなる個所の板書のテキストデータを纏めることによって、自分のあった内容の資料を作成することができる。 Further, as shown in FIG. 10A, when there is a board writing A in the teaching material data (video) with audio, the content of the board writing A is converted into text to generate the board writing characters, and a predetermined screen of the display device of the communication terminal T110 is generated. The board writing B may be displayed at a position (a position that does not overlap with the board writing A). With this configuration, even if the characters written on the board A are difficult to see in an environment where the resolution of the image is low, it is possible to check and learn the text-written board B. .. It is preferable that the character size of the board writing B is displayed by using a character whose character size is larger than the character size of the board writing A. Further, a button for outputting the board writing B as text data (“board writing output” button shown in FIG. 10B) may be provided so that the text data can be output by the learner's selection operation. Learners can create materials with their own content by compiling the text data on the board at the key points.

また、図10(a)に示すように音声付き教材データ(映像)に板書Aがある場合であって、板書Aの前に講師が存在する場合、講師の映像を消去する画像処理を実行して図10(b)のように板書全体が確認できるようにしてもよい。この画像処理では、単に講師を消去するだけではなく、講師の背後に書かれている板書の文字を他の時間の動画データに表示されている板書の文字を基に補完する画像処理を行うのが好適である。このように構成することで、板書全体の内容を常時確認できるため、効率よく学習することができる。また、板書(板書A、板書B)の内容を検索できるようにしてもよい。教材データ中の講師の板書の内容をキーワード検索して学習することにより、効率よく学習することができる。 Further, as shown in FIG. 10A, when there is a board writing A in the teaching material data (video) with audio and there is a lecturer in front of the board writing A, image processing for erasing the video of the lecturer is executed. The entire board may be confirmed as shown in FIG. 10 (b). In this image processing, not only the instructor is deleted, but also the characters on the board written behind the instructor are complemented based on the characters on the board displayed in the video data of other times. Is preferable. With such a configuration, the contents of the entire board can be checked at all times, so that learning can be performed efficiently. In addition, the contents of the board writing (board writing A, board writing B) may be searchable. Efficient learning can be achieved by searching the contents of the instructor's board in the teaching material data by keyword and learning.

学習者の再生操作に基づき、音声付き教材データ(映像)を再生して表示する場合、音声付き教材データの講師のセリフの音声を音声抽出手段V150−2及びテキスト化手段V150−3で生成した全ての変換一文(例えば、「古代オリエントで 最初に興った文明が メソポタミア文明です ここは重要です ここでメソポタミアはギリシア語で川の間の地域という意味です ・・・」)を、図11(a)に示すように通信端末T110の表示装置の画面の所定位置に、表示可能な文字数を限度に表示する全文表示を行う全文表示手段をサーバV100に設けてもよい。 When the teaching material data (video) with voice is played back and displayed based on the learner's playback operation, the voice of the instructor's dialogue of the teaching material data with voice is generated by the voice extraction means V150-2 and the text conversion means V150-3. All transformational sentences (for example, "The first civilization in the Near East was the Mesopotamian civilization, which is important here. Mesopotamia is the Greek word for the region between rivers ..."), as shown in Figure 11 ( As shown in a), the server V100 may be provided with a full-text display means for displaying a full-text display up to the number of characters that can be displayed at a predetermined position on the screen of the display device of the communication terminal T110.

全文表示手段は、図11(a)、図11(b)に示すように、破線で示す赤色の枠(赤枠という)で、全ての変換一文のうちの所定数の変換一文(一の変換一文または複数の変換一文であり図11(a)、図11(b)では3つの変換一文としている)を囲むように構成している。図11(a)に示すように、音声付き教材データ(映像)を最初から再生して表示する場合、音声付き教材データ(映像)の再生時間が、第一番目の所定数の変換一文の最初の変換一文(「古代オリエントで最初に興った文明がメソポタミア文明です」)の再生開始ポイントと最後の変換一文(「ここでメソポタミアはギリシア語で川の間の地域という意味です」)の再生終了ポイントの間の時間であると全文表示手段が判断した場合、全文表示手段は、赤枠を第一番目の所定数の変換一文を囲むように表示する。 As shown in FIGS. 11A and 11B, the full-text display means is a red frame (referred to as a red frame) indicated by a broken line, and a predetermined number of conversion sentences (one conversion) out of all conversion sentences. It is configured to enclose one sentence or a plurality of conversion sentences (three conversion sentences in FIGS. 11 (a) and 11 (b)). As shown in FIG. 11A, when the teaching material data (video) with audio is reproduced and displayed from the beginning, the reproduction time of the teaching material data (video) with audio is the beginning of the first predetermined number of conversion sentences. Regeneration of the first conversion sentence ("Mesopotamian civilization is the first civilization in the ancient Orient") and the last conversion sentence ("Mesopotamia means the area between rivers in Greek") When the full-text display means determines that it is the time between the end points, the full-text display means displays a red frame so as to surround the first predetermined number of conversion sentences.

全文表示手段は、音声付き教材データ(映像)の再生時間が、第一番目の所定数の変換一文の最後の変換一文(「平坦で開放的な地形のため セム系や インドヨーロッパ系の遊牧民 山岳丘など 戦争が絶えず 国家の勃興が 激しい地帯でした」)の再生終了ポイントの時間を超えて、第二番目の所定数の変換一文の最初の変換一文(「メソポタミア文明は ティグリス川 ユーフラテス川 流域の メソポタミア地方で できた都市文明です」)の再生開始ポイントとなったと判断した場合、第一番目の所定数の変換一文を上にスクロール移動して表示装置の画面から第一番目の所定数の変換一文を表示しないようにする(一部が見えるように表示してもよい)と共に、第二番目の所定数の変換一文を上にスクロール移動して、赤枠によって第二番目の所定数の変換一文が囲まれるようにする。この際、赤枠を移動しないように構成しているが、所定数の変換一文の長さに応じて赤枠の大きさを変更するように構成している。 The full-text display means is that the playback time of the teaching material data (video) with audio is the first predetermined number of conversion sentences and the last conversion sentence ("Semitic and Indo-European nomadic mountains due to the flat and open terrain." Beyond the time of the end point of regeneration of the hills and other areas where the war was constantly rising, the first conversion sentence of the second predetermined number of conversion sentences ("Mesopotamian civilization is the Tigris River Euphrates River basin" It is a city civilization created in the Mesopotamia region. ”) When it is determined that it has become the playback start point, the first predetermined number of conversions is scrolled up and the first predetermined number of conversions is performed from the display device screen. Hide one sentence (may be displayed so that part of it can be seen), and scroll up the second predetermined number of conversions, and the red frame indicates the second predetermined number of conversions. Enclose a sentence. At this time, the red frame is configured not to move, but the size of the red frame is changed according to the length of a predetermined number of conversion sentences.

そして、全文表示手段は、音声付き教材データ(映像)の再生時間が、第二番目の所定数の変換一文の最後の変換一文(「ここでメソポタミアはギリシア語で川の間の地域という意味です」)の再生終了ポイントの時間を超えて、第三番目の所定数の変換一文の最初の変換一文(「メメソポタミア文明は 粘土の文明といわれていました」)の再生開始ポイントとなったと判断した場合、第二番目の所定数の変換一文を上にスクロール移動して表示装置の画面から第二番目の所定数の変換一文を表示しないようにする(一部が見えるように表示してもよい)と共に、第三番目の所定数の変換一文を上にスクロール移動して、赤枠によって第三番目の所定数の変換一文が囲まれるようにする。なお、全文表示手段は、赤枠を移動しないよう構成しているが、図11(b)に示すように、赤枠を移動するように構成してもよい。 And the full-text display means is that the playback time of the teaching material data (video) with audio is the last conversion sentence of the second predetermined number of conversion sentences ("Mesopotamia here means the area between rivers in Greek". ”) Beyond the time of the playback end point, it is judged that it became the playback start point of the first conversion sentence of the third predetermined number of conversion sentences (“Mesopotamian civilization was said to be a clay civilization”). If this is the case, scroll up the second predetermined number of conversion sentences to hide the second predetermined number of conversion sentences from the display device screen (even if a part of the conversion sentence is displayed so that it can be seen). (Good), scroll up the third predetermined number of conversion sentences so that the red frame surrounds the third predetermined number of conversion sentences. Although the full-text display means is configured not to move the red frame, it may be configured to move the red frame as shown in FIG. 11B.

このように、通信端末T110の表示装置の画面で、音声付き教材データ(映像)を再生し続けると、音声付き教材データ(映像)で再生中の講師のセリフの音声に連動した(対応した)所定数の変換一文が赤枠内に表示されるように、全文表示が自動に上にスクロールするように構成されている。このように構成することで、音声が聞き取りにくい環境であっても、音声付き教材データの音声をテキスト化した全ての変換一文を確認して学習することができる。なお、所定数の変換一文が一の変換一文の場合は、最初の変換一文の再生開始ポイントと、最後の変換一文の再生終了ポイントを一の変換一文の再生開始ポイントと再生終了ポイントを対象とする。 In this way, when the teaching material data (video) with audio is continuously played on the screen of the display device of the communication terminal T110, the teaching material data (video) with audio is linked (corresponding) with the voice of the instructor's dialogue being played. The full text display is configured to automatically scroll up so that a predetermined number of conversion sentences are displayed in the red frame. With this configuration, even in an environment where it is difficult to hear the voice, it is possible to confirm and learn all the converted sentences in which the voice of the teaching material data with voice is converted into text. When a predetermined number of conversion sentences are one conversion sentence, the playback start point of the first conversion sentence and the playback end point of the last conversion sentence are targeted at the playback start point and the playback end point of one conversion sentence. To do.

ここで、全文表示で表示できない所定数の変換一文の文字は、学習者がマウスやタッチパネルを用いて全文表示を下にスクロールすることによって、表示装置の画面に表示されるように構成されており、学習者の操作によって全文表示を下にスクロールしていくと、図11(a)と図11(b)とで示すように、全文表示手段は、赤枠を移動することによって、赤枠内に表示される変換一文の文字を変更する。学習者がマウスやタッチパネルを用いて全文表示を下にスクロールすることによって、音声付き教材データ(映像)の再生開始ポイントが変更されるように構成されており、全文表示手段は、音声付き教材データ(映像)の変更された再生開始ポイントが、どこの位置にある所定数の変換一文の再生開始ポイントと再生終了ポイントの間に含まれるかを判断し、判断結果の再生開始ポイントと再生終了ポイントが示す所定数の変換一文を囲むように赤枠を移動して表示する。 Here, a predetermined number of converted single-sentence characters that cannot be displayed in the full-text display are configured to be displayed on the screen of the display device by the learner scrolling down the full-text display using a mouse or a touch panel. When the full-text display is scrolled down by the learner's operation, as shown in FIGS. 11 (a) and 11 (b), the full-text display means moves within the red frame to enter the red frame. Change the character of the conversion sentence displayed in. When the learner scrolls down the full-text display using the mouse or touch panel, the playback start point of the audio-attached teaching material data (video) is changed, and the full-text display means is the audio-attached teaching material data. It is determined at which position the changed playback start point of (video) is included between the playback start point and the playback end point of a predetermined number of conversion sentences, and the playback start point and the playback end point of the judgment result are determined. The red frame is moved and displayed so as to surround the predetermined number of conversion sentences indicated by.

また、学習者の操作によって全文表示を下にスクロールしていくことによって赤枠内に表示される変換一文の文字に連動(詳細には、赤枠内に表示される変換一文が示す再生開始ポイントに対応)して、通信端末T110の表示装置の画面の上側の位置表示される音声付き教材データの映像の内容を全文表示手段が変更する(図11(a)、図11(b)では、講師の位置が変更されている)ように構成されている。 In addition, by scrolling down the full-text display by the learner's operation, it is linked to the characters of the conversion sentence displayed in the red frame (for details, the playback start point indicated by the conversion sentence displayed in the red frame). The full-text display means changes the content of the video of the teaching material data with audio displayed at the upper position of the screen of the display device of the communication terminal T110 (in FIGS. 11A and 11B). The position of the instructor has been changed).

なお、複数のテキスト化手段V150−3を用いて音声付き教材データの音声をテキスト化してもよい。このように構成する場合、1つ目の第一テキスト化手段V150−3でテキスト化された第一の変換一文(一文内単語でも可)と、2つ目の第二テキスト化手段V150−3でテキスト化された第二の変換一文(一文内単語でも可)とが異なる場合がある。例えば、第一テキスト化手段V150−3で「古代オリエント」とテキスト化し、第二テキスト化手段V150−3で「小台オリエント」とテキスト化して、第一テキスト化手段V150−3でテキスト化した「古代オリエント」を表示する場合、異なる変換一文(一文内単語でも可)である「古代オリエント」を、「(古代オリエント)で 最初に・・・」とのようにカッコで囲うようにして、テキスト化された内容に間違いがある可能性を表示しておくことが好ましい。このように、テキスト化手段V150−3で生成した変換一文に変換の間違いがある可能性があるため、通信端末T110の表示装置の画面(例えば、右下の位置)に、『自動文字起こし文』という表示をしておくことが好適である。 It should be noted that the audio of the teaching material data with audio may be converted into text by using a plurality of text conversion means V150-3. In the case of such a configuration, the first conversion one sentence (a word in one sentence is also possible) converted into text by the first first text conversion means V150-3 and the second second text conversion means V150-3. It may be different from the second conversion sentence (words in one sentence are also acceptable) converted into text in. For example, the first text conversion means V150-3 converted the text to "Ancient Near East", the second text conversion means V150-3 converted it to "Small Orient", and the first text conversion means V150-3 converted it to text. When displaying "Ancient Orient", enclose "Ancient Orient", which is a different conversion sentence (words in one sentence are also acceptable), in parentheses, such as "(Ancient Orient) first ...". It is preferable to indicate the possibility that there is an error in the textual content. In this way, there is a possibility that there is a conversion error in the conversion sentence generated by the text conversion means V150-3. Therefore, on the screen of the display device of the communication terminal T110 (for example, the lower right position), "automatic transcription sentence" is displayed. ] Is preferably displayed.

本実施形態に係る教育システム(1)は、
再生可能な音声付き教材データA(例えば、中学社会歴史1の教材動画データ)と、
前記音声付き教材データAの科目を示す科目データA(例えば、教材分類1〜4の情報)と、
前記音声付き教材データAから抽出された音声データが所定の変換手段(例えば、音声抽出手段、テキスト化手段)によって変換された文字列データA(例えば、教材IDがVD_CSR1の変換一文としての「まずメソポタミア文明は四大文明の一つです」)と、
再生可能な音声付き教材データB(例えば、高校世界史B古代1の教材動画データ)と、
前記音声付き教材データBの科目を示す科目データB(例えば、教材分類1〜4の情報)と、
前記音声付き教材データBから抽出された音声データが所定の変換手段(例えば、音声抽出手段、テキスト化手段)によって変換された文字列データB(例えば、教材IDがVD_KSBK1の変換一文としての「古代オリエントで最初に興った文明がメソポタミア文明です」)と、
にアクセス可能であって、前記科目データAと前記科目データBとに基づき前記音声付き教材データAと前記音声付き教材データBとを異なる科目の教材として提供可能な教育システムであって、
検索クエリの入力(例えば、検索のキーワードの入力としての「メソポタミア」)を受け付けて前記文字列データA及び前記文字列データBの双方に対して検索を実行可能であり、
前記検索クエリ(例えば、「メソポタミア」)が前記文字列データA(例えば、「まずメソポタミア文明は四大文明の一つです」)に含まれ且つ前記検索クエリが前記文字列データB(例えば、「古代オリエントで最初に興った文明がメソポタミア文明です」)にも含まれると判断した場合、前記音声付き教材データAへアクセスするための検索結果データA(例えば、教材IDとしてのVD_CSR1、教材分類1〜4、教材名、教材動画データ、映像長さ、変換一文、サムネイル表示)と前記音声付き教材データBへアクセスするための検索結果データB(例えば、教材IDとしてのVD_KSBK1、教材分類1〜4、教材名、教材動画データ、映像長さ、変換一文、サムネイル表示)とを一連の検索結果として出力する、ことを特徴とする教育システムである。
The education system (1) according to this embodiment is
Reproducible teaching material data A with audio (for example, teaching material video data of junior high school social history 1),
Subject data A (for example, information on teaching material classifications 1 to 4) indicating the subject of the teaching material data A with audio, and
The voice data extracted from the teaching material data A with voice is converted into character string data A (for example, the teaching material ID is VD_CSR1) as a conversion sentence of a predetermined conversion means (for example, voice extraction means, text conversion means). The Mesopotamian civilization is one of the four major civilizations. ")
Reproducible audio-attached teaching material data B (for example, high school world history B ancient 1 teaching material video data),
Subject data B (for example, information of teaching material classifications 1 to 4) indicating the subject of the teaching material data B with audio, and
The voice data extracted from the teaching material data B with voice is converted into character string data B (for example, the teaching material ID is VD_KSBK1) as a conversion sentence of a predetermined conversion means (for example, voice extraction means, text conversion means). The first civilization to emerge in the Orient was the Mesopotamian civilization. ")
An educational system capable of providing the audio-based teaching material data A and the audio-based teaching material data B as teaching materials for different subjects based on the subject data A and the subject data B.
It is possible to accept input of a search query (for example, "Mesopotamia" as input of a search keyword) and execute a search for both the character string data A and the character string data B.
The search query (eg, "Mesopotamia") is included in the string data A (eg, "First, the Mesopotamia civilization is one of the four major civilizations") and the search query is included in the string data B (eg, "Mesopotamia"). If it is determined that the civilization that first emerged in the ancient Orient is also included in the Mesopotamian civilization "), the search result data A for accessing the teaching material data A with audio (for example, VD_CSR1 as the teaching material ID, teaching material classification) 1 to 4, teaching material name, teaching material video data, video length, conversion sentence, thumbnail display) and search result data B for accessing the teaching material data B with audio (for example, VD_KSBK1 as teaching material ID, teaching material classification 1 to 4) 4. The educational system is characterized by outputting the teaching material name, teaching material video data, video length, conversion sentence, thumbnail display) as a series of search results.

本実施形態に係る教育システム(2)は、
前記文字列データA(例えば、「まずメソポタミア文明は四大文明の一つです」)は複数の発話文データ(例えば、一文内単語としての「まず」、「メソポタミア文明は」、「四大文明の一つです」)から成り、前記検索クエリ(例えば、「メソポタミア」)が前記文字列データAにおける或る発話文データに含まれると判断した場合、当該或る発話文データに対応する音声データが前記音声付き教材データAのうち何れの再生ポイントに付されているかを特定可能なデータ(例えば、教材IDとしてのVD_CSR1に対応した再生開始ポイント)を前記検索結果データAとあわせて出力し、
前記文字列データB(例えば、「古代オリエントで最初に興った文明がメソポタミア文明です」)は複数の発話文データ(例えば、一文内単語としての「古代オリエントで」、「最初に興った文明が」、「メソポタミア文明です」)から成り、前記検索クエリ(例えば、「メソポタミア」)が前記文字列データBにおける或る発話文データに含まれると判断した場合、当該或る発話文データに対応する音声データが前記音声付き教材データBのうち何れの再生ポイントに付されているかを特定可能なデータ(例えば、教材IDとしてのVD_KSBK1に対応した再生開始ポイント)を前記検索結果データBとあわせて出力する、本実施形態に係る教育システム(1)記載の教育システムである。
The education system (2) according to this embodiment is
The character string data A (for example, "First, the Mesopotamia civilization is one of the four major civilizations") contains a plurality of spoken sentence data (for example, "First" as a word in one sentence, "Mesopotamia civilization is", and "Four major civilizations". If it is determined that the search query (for example, "mesopotamia") is included in a certain utterance sentence data in the character string data A, the voice data corresponding to the certain utterance sentence data Data that can identify which playback point of the audio-attached teaching material data A is attached (for example, a playback start point corresponding to VD_CSR1 as the teaching material ID) is output together with the search result data A.
The character string data B (for example, "the first civilization that emerged in the ancient Orient is the Mesopotamian civilization") is a plurality of spoken sentence data (for example, "in the ancient Orient" as a word in one sentence, "first emerged". If it is determined that the search query (for example, "Mesopotamia") is included in a certain utterance sentence data in the character string data B, the search query (for example, "Mesopotamia") is composed of "Civilization is" and "Mesopotamia civilization"). Data that can identify which playback point of the audio-attached teaching material data B the corresponding audio data is attached to (for example, the reproduction start point corresponding to VD_KSBK1 as the teaching material ID) is combined with the search result data B. This is the education system described in the education system (1) according to the present embodiment.

本実施形態に係る教育システム(3)は、
前記文字列データA(例えば、「まずメソポタミア文明は四大文明の一つです」)は複数の発話文データ(例えば、一文内単語としての「まず」、「メソポタミア文明は」、「四大文明の一つです」)から成り、前記検索クエリ(例えば、「メソポタミア」)が前記文字列データAにおける或る発話文データに含まれると判断した場合、当該或る発話文データの前の発話文データ(例えば、一文内単語としての「まず」)と当該或る発話文データの後の発話文データ(例えば、一文内単語としての「四大文明の一つです」)の少なくとも一方を当該或る発話文データ(例えば、一文内単語としての「メソポタミア文明は」)に付加して前記検索結果データAとあわせて出力し、
前記文字列データB(例えば、「古代オリエントで最初に興った文明がメソポタミア文明です」)は複数の発話文データ(例えば、一文内単語としての「古代オリエントで」、「最初に興った文明が」、「メソポタミア文明です」)から成り、前記検索クエリ(例えば、「メソポタミア」)が前記文字列データBにおける或る発話文データに含まれると判断した場合、当該或る発話文データの前の発話文データ(例えば、一文内単語としての「古代オリエントで」)と当該或る発話文データの後の発話文データ(例えば、一文内単語としての「メソポタミア文明です」)の少なくとも一方を当該或る発話文データ(例えば、一文内単語としての「最初に興った文明が」)に付加して前記検索結果データBとあわせて出力する、本実施形態に係る教育システム(1)記載の教育システムである。
The education system (3) according to this embodiment is
The character string data A (for example, "First, the Mesopotamia civilization is one of the four major civilizations") contains a plurality of spoken sentence data (for example, "First" as a word in one sentence, "Mesopotamia civilization is", and "Four major civilizations". If it is determined that the search query (for example, "mesopotamia") is included in a certain utterance sentence data in the character string data A, the utterance sentence before the certain utterance sentence data is determined. At least one of the data (for example, "first" as a word in one sentence) and the utterance data after the certain utterance data (for example, "one of the four major civilizations" as a word in one sentence) It is added to the spoken sentence data (for example, "Mesopotamia civilization" as a word in one sentence) and output together with the search result data A.
The character string data B (for example, "the first civilization that emerged in the ancient Orient is the Mesopotamian civilization") is a plurality of spoken sentence data (for example, "in the ancient Orient" as a word in one sentence, "first emerged". If it is determined that the search query (for example, "mesopotamia") is included in a certain utterance sentence data in the character string data B, the search query (for example, "mesopotamia") is composed of "civilization is" and "is a mesopotamia civilization"). At least one of the previous utterance data (for example, "in the ancient Orient" as a word within a sentence) and the utterance data after the certain utterance data (for example, "Mesopotamian civilization" as a word within a sentence). Description of the education system (1) according to the present embodiment, which is added to the certain spoken sentence data (for example, "the first civilization that emerged" as a word in one sentence) and output together with the search result data B. Education system.

従来のように映像を用いて章だてで学習した後に、異なる科目の教材からキーワードを用いた検索を実行して章だてで学習した内容と関連する内容を学習することによって、より理解度を深めることが可能となる。つまり、体系立てて学習(縦軸に沿った学習)した内容を更に串刺しして学習(横軸に沿った学習)することができるので、頭の中で関連が構築され、理解が深まり、記憶の引き出しを増やすことができる。 After learning in chapters using video as in the past, by performing a search using keywords from teaching materials of different subjects and learning the contents related to the contents learned in chapters, the degree of understanding is further improved. Can be deepened. In other words, the content learned systematically (learning along the vertical axis) can be further skewered and learned (learning along the horizontal axis), so relationships are built in the mind, deepening understanding, and memory. You can increase the number of withdrawals.

(本実施の形態の詳細)
上述したように、本発明は、本実施の形態によって記載したが、この開示の一部をなす記載及び図面はこの発明を限定するものであると理解すべきでない。このように、本発明は、ここでは記載していない様々な実施の形態等を含むことはもちろんである。
(Details of the present embodiment)
As mentioned above, the invention has been described in accordance with this embodiment, but the descriptions and drawings that form part of this disclosure should not be understood to limit the invention. As described above, it goes without saying that the present invention includes various embodiments not described here.

10 試験システム
20 教育システム
T110 通信端末
V100 サーバ
820 ネットワーク
V110 ユーザ情報登録手段
V120 ユーザログイン手段
V130 試験実行手段
V140 検索実行手段
V150 データ管理手段
V130−1 不正監視手段
V150−1 フォーマット変換手段
V150−2 音声抽出手段
V150−3 テキスト化手段
V150−4 データ成型手段
V150−5 インデックス化手段
V150−6 試験教材用データベース
V150−7 ユーザ認証用データベース
V150−8 学習教材用データベース
V150−9 検索用データベース
10 Test system 20 Education system T110 Communication terminal V100 Server 820 Network V110 User information registration means V120 User login means V130 Test execution means V140 Search execution means V150 Data management means V130-1 Fraud monitoring means V150-1 Format conversion means V150-2 Voice Extraction means V150-3 Text conversion means V150-4 Data molding means V150-5 Indexing means V150-6 Examination teaching material database V150-7 User authentication database V150-8 Learning teaching material database V150-9 Search database

Claims (3)

認証されたユーザに対して試験コンテンツを提供し、前記試験コンテンツに対する回答を所定の試験時間内にて入力可能とする試験システムであって、
撮像手段によって入力された画像データと、前記認証されたユーザに対応し予め記憶された顔画像データとの整合率を算出する不正監視処理を実行可能であり、
前記所定の試験時間内での時間経過に応じた複数回の監視タイミングにて前記不正監視処理を実行し、前記整合率に基づき前記試験コンテンツに対する回答に不正があったか否かを決定可能である
ことを特徴とする試験システム。
A test system that provides test content to authenticated users and enables input of answers to the test content within a predetermined test time.
It is possible to execute fraud monitoring processing that calculates the matching rate between the image data input by the imaging means and the face image data stored in advance corresponding to the authenticated user.
It is possible to execute the fraud monitoring process at a plurality of monitoring timings according to the passage of time within the predetermined test time, and to determine whether or not the response to the test content is fraudulent based on the consistency rate. A test system featuring.
前記整合率に加えて前記試験コンテンツに対する回答に関する情報も加味して、前記試験コンテンツに対する回答に不正があったか否かを決定可能である、請求項1記載の試験システム。 The test system according to claim 1, wherein it is possible to determine whether or not the response to the test content is incorrect by adding information on the response to the test content in addition to the consistency rate. 前記顔画像データは正面顔が撮像された画像データであり、前記撮像手段によって入力された画像データについて正面顔が撮像されたものでない場合にも前記整合率が低下する、請求項1記載の試験システム。 The test according to claim 1, wherein the face image data is image data in which the front face is captured, and the matching rate is lowered even when the front face is not captured in the image data input by the imaging means. system.
JP2019219400A 2019-12-04 2019-12-04 test system Active JP7381014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219400A JP7381014B2 (en) 2019-12-04 2019-12-04 test system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219400A JP7381014B2 (en) 2019-12-04 2019-12-04 test system

Publications (2)

Publication Number Publication Date
JP2021089557A true JP2021089557A (en) 2021-06-10
JP7381014B2 JP7381014B2 (en) 2023-11-15

Family

ID=76220212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219400A Active JP7381014B2 (en) 2019-12-04 2019-12-04 test system

Country Status (1)

Country Link
JP (1) JP7381014B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107237A1 (en) * 2008-02-29 2009-09-03 グローリー株式会社 Biometrics device
JP2012069133A (en) * 2011-10-24 2012-04-05 Nec Corp Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program
JP2017219890A (en) * 2016-06-02 2017-12-14 グローリー株式会社 Money processing system
JP2018066972A (en) * 2016-10-14 2018-04-26 株式会社ベネッセコーポレーション Information processing terminal and program
WO2018225642A1 (en) * 2017-06-05 2018-12-13 日本電気株式会社 Face authentication system, face authentication method, biometric authentication system, biometric authentication method, and recording medium
JP2019080134A (en) * 2017-10-23 2019-05-23 パナソニックIpマネジメント株式会社 Door phone master unit and notification method
WO2019151368A1 (en) * 2018-02-01 2019-08-08 日本電気株式会社 Biometric authentication device, system, method and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009107237A1 (en) * 2008-02-29 2009-09-03 グローリー株式会社 Biometrics device
JP2012069133A (en) * 2011-10-24 2012-04-05 Nec Corp Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program
JP2017219890A (en) * 2016-06-02 2017-12-14 グローリー株式会社 Money processing system
JP2018066972A (en) * 2016-10-14 2018-04-26 株式会社ベネッセコーポレーション Information processing terminal and program
WO2018225642A1 (en) * 2017-06-05 2018-12-13 日本電気株式会社 Face authentication system, face authentication method, biometric authentication system, biometric authentication method, and recording medium
JP2019080134A (en) * 2017-10-23 2019-05-23 パナソニックIpマネジメント株式会社 Door phone master unit and notification method
WO2019151368A1 (en) * 2018-02-01 2019-08-08 日本電気株式会社 Biometric authentication device, system, method and recording medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大関真之: "ボルツマン機械学習によるカンニング検出技術", 電子情報通信学会技術研究報告, vol. 第114巻,第502号, JPN6023022981, 26 February 2015 (2015-02-26), JP, pages 1 - 8, ISSN: 0005128351 *
山本和徳,石井一彦,関野公彦: "なりすましを検知する遠隔試験不正防止システムの開発", NTT DOCOMOテクニカル・ジャーナル, vol. 第25巻,第4号, JPN6023022980, 31 January 2018 (2018-01-31), pages 19 - 24, ISSN: 0005128350 *

Also Published As

Publication number Publication date
JP7381014B2 (en) 2023-11-15

Similar Documents

Publication Publication Date Title
US9378650B2 (en) System and method for providing scalable educational content
CN111144191B (en) Font identification method, font identification device, electronic equipment and storage medium
Fanelle et al. Blind and human: Exploring more usable audio {CAPTCHA} designs
US20090239201A1 (en) Phonetic pronunciation training device, phonetic pronunciation training method and phonetic pronunciation training program
CN109766412A (en) A kind of learning Content acquisition methods and electronic equipment based on image recognition
CN105532014B (en) Information processing apparatus, information processing method, and program
CN109462603A (en) Voiceprint authentication method, equipment, storage medium and device based on blind Detecting
CN109509088A (en) Loan checking method, device, equipment and medium based on micro- Expression Recognition
CN111985282A (en) Learning ability training and evaluating system
US20120323556A1 (en) System and method for using pinyin and a dynamic memory state for modifying a hanyu vocabulary test
JP2015219247A (en) Nursing learning system, nursing learning server, and program
KR102446135B1 (en) Online network-based test supervision platform system
JP7381014B2 (en) test system
CN114971658B (en) Anti-fraud propaganda method, system, electronic equipment and storage medium
US20190304454A1 (en) Information providing device, information providing method, and recording medium
JP7428321B2 (en) education system
JP2007188314A (en) Video data extraction system and computer program
TWI771632B (en) Learning support device, learning support method, and recording medium
JP6930754B2 (en) Learning support device and questioning method
CN111078992B (en) Dictation content generation method and electronic equipment
CN109658304A (en) A kind of generation method that entering oneself for the examination information and electronic equipment
Pradeep et al. Web app for quick evaluation of subjective answers using natural language processing
JP2014112269A (en) Learning support system, learning support server, learning support method and learning support program
Silva et al. AI Base E-Learning Solution to Motivate and Assist Primary School Students
Brown The ins and outs of doing autoethnography: An insight into the methodology of my thesis on Australian male age discrimination

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7381014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150