JP2021530066A - 暗算問題に対する問題添削方法、装置、電子機器及び記憶媒体 - Google Patents

暗算問題に対する問題添削方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2021530066A
JP2021530066A JP2021517407A JP2021517407A JP2021530066A JP 2021530066 A JP2021530066 A JP 2021530066A JP 2021517407 A JP2021517407 A JP 2021517407A JP 2021517407 A JP2021517407 A JP 2021517407A JP 2021530066 A JP2021530066 A JP 2021530066A
Authority
JP
Japan
Prior art keywords
searched
mental arithmetic
question
feature vector
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021517407A
Other languages
English (en)
Other versions
JP7077483B2 (ja
Inventor
凡 石
涛 何
▲フゥァン▼ ▲ルゥオ▼
明▲チュァン▼ ▲チェン▼
Original Assignee
杭州大拿科技股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201811125657.5A external-priority patent/CN109284355B/zh
Priority claimed from CN201811125659.4A external-priority patent/CN109189895B/zh
Application filed by 杭州大拿科技股▲ふん▼有限公司 filed Critical 杭州大拿科技股▲ふん▼有限公司
Publication of JP2021530066A publication Critical patent/JP2021530066A/ja
Application granted granted Critical
Publication of JP7077483B2 publication Critical patent/JP7077483B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/02Counting; Calculating
    • G09B19/025Counting; Calculating with electrically operated apparatus or devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【解決手段】本発明は暗算問題に対する問題添削方法及び装置を提供し、各被検索問題の語幹の文字内容に基づき被検索問題の特徴ベクトルを取得し、次いで各被検索問題の特徴ベクトルを用いて問題データベース中から被検索問題に一致する目標試験紙を検索し、問題タイプが暗算問題である被検索問題に対し、目標試験紙内部において問題の特徴ベクトルに基づき2次検索を行い、検索の基準は最短編集距離が最も短いことであり、一致する目標問題の問題タイプがやはり暗算問題である場合、被検索問題を被添削暗算問題として確定し、同時に、予め設けられた暗算エンジンを用いて被添削暗算問題に対し計算を行って計算結果を被添削暗算問題の解答として出力する。【選択図】図1

Description

本発明は人工知能技術分野に関するものであり、特に、暗算問題に対する問題添削方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
コンピュータ技術及び教育情報の途絶えることのない発達に伴い、コンピュータ技術は既に日常の教育学習及び授業の様々な活動に応用されており、例えば教育評価のシナリオにおいて対応する応用を得られる。国内における既存の基礎教育では、学生の学習状況の主な調査方法は未だに様々な種類の試験紙や試験であり、このような状況において、教師は試験紙を添削するという大きな仕事上のプレッシャーを負う。
現在、スマート端末製品には、宿題や試験紙の添削を解決するための多くの検索APPが存在し、検索APPに試験紙の画像内容に基づき問題データベースから試験紙の画像中の各問題に対応する問題を検索させるよう、被添削試験紙を含む画像を検索APPに入力する。
現在の問題検索方法は、問題の語幹の文字内容に基づき問題の特徴ベクトルを生成し、該特徴ベクトルに基づき問題データベースから検索する。特徴ベクトルを生成するとき、異なる文字(トークン)は単語の頻度に基づき生成される重みが異なり、語幹の文字内容に頻繁に出現するほど該文字(トークン)が重要でないことを表し(例えば、「の」という字は語幹における出現回数が多く、「の」という字は重要でないと認定される)、該文字(トークン)の重みはより低く設定される。
しかし、暗算問題については、暗算問題の語幹の文字内容は概ね数字と計算記号であり、また数字と計算記号の語出現頻度は相対的に高く、即ち暗算問題の語幹の文字内容は識別度がある高い重みの文字(トークン)を欠き、これは異なる暗算問題に対応する特徴ベクトル同士の間の区別を小さくさせ、識別エンジンに些細な識別エラーが発生すると、別の異なる暗算問題に一致してしまい、暗算問題の添削を誤らせる結果となる。暗算問題の問題添削には容易にエラーが出現し、正確性が高くないことが分かる。
本発明の目的は、既存の問題添削方法は暗算問題に対する添削が容易にエラーを生み、正確性が高くないという課題を解決する、暗算問題に対する問題添削方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体を提供することである。
上記技術的課題を解決するため、本発明は以下を含む暗算問題に対する問題添削方法を提供する:
ステップS11:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別することと、
ステップS12:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すことと、
ステップS13:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することと、
ステップS14:前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定することと、
ステップS15:各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することにより、前記被検索試験紙上の被添削暗算問題の添削を完成すること。
任意的に、ステップS14において、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定する。
任意的に、ステップS13において、所定の条件を満たす目標試験紙が存在しない場合で、且つ前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定し、ステップS15を実行する。
任意的に、ステップS15は、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することを更に含む。
任意的に、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致しないとき、該被添削暗算問題の参考解答と一致しないことを表すために用いられるプロンプト情報を出力する。
任意的に、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含み、前記第1識別モデルはニューラルネットワークに基づくモデルであって;
ステップS15中の予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行うことが、
前記予め訓練された第1識別モデルを介し該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別することであって、前記計算タイプが四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算のうちの1つを含むことと;
識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得ることとを含む。
任意的に、前記ステップS12は以下を含む:
ステップS121、各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを得て、各被検索問題の特徴ベクトルとすることであって、前記語幹ベクトル化モデルがニューラルネットワークに基づくモデルであることと;
ステップS122、各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定すること。
任意的に、前記語幹ベクトル化モデルは以下のステップを通じて訓練される:
問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングすることと;
ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことにより、前記語幹ベクトル化モデルを訓練すること。
任意的に、前記ステップS12を実行する前に、前記暗算問題に対する問題添削方法が、問題データベース中の試験紙上の各問題の特徴ベクトルに対しインデックス情報テーブルを構築することを更に含み;
ステップS122が以下を含む:
各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することと;
一致する特徴ベクトルの前記インデックス情報テーブル中の対応する問題を該被検索問題に最も近い問題として確定すること。
任意的に、前記インデックス情報テーブルを構築する前に、前記暗算問題に対する問題添削方法が、異なる長さの特徴ベクトルを長さに従いグループ分けすることを更に含み;
前記各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することが以下を含む:
各被検索問題に対し、前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索すること。
任意的に、ステップS13中の、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することが、以下を含む:
出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を、前記被検索試験紙に一致する目標試験紙として確定すること。
任意的に、ステップS11中の、被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出することが、以下を含む:
予め訓練された検出モデルを用いて前記被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出することであって、前記検出モデルがニューラルネットワークに基づくモデルであること。
任意的に、ステップS11中の、各被検索問題の領域中の語幹の文字内容を識別することが、以下を含む:
予め訓練された第2識別モデルを用いて各被検索問題の領域中の語幹の文字内容を識別することであって、前記第2識別モデルがニューラルネットワークに基づくモデルであること。
任意的に、ステップS11を実行した後、ステップS12を実行する前において、前記暗算問題に対する問題添削方法が、以下を更に含む:
予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得ることと;
ここで、ステップS15において、各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題の領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成すること。
上記目的を達成するため、本発明は暗算問題に対する問題添削装置を更に提供し、前記装置は以下を含む:
被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別するために用いられる、検出識別モジュールと;
各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すために用いられる、問題検索モジュールと;
探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いられる、試験紙確定モジュールと;
前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定するために用いられる、暗算問題確定モジュールと;
各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することにより、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いられる、暗算問題添削モジュール。
任意的に、前記暗算問題確定モジュールは、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一の状況において、該被検索問題を被添削暗算問題として確定するためにも用いられる。
任意的に、前記試験紙確定モジュールは、所定の条件を満たす目標試験紙が存在せず、且つ前記被検索試験紙において問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定するためにも用いられる。
任意的に、前記暗算問題添削モジュールは、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力するためにも用いられる。
任意的に、前記暗算問題添削モジュールは、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致しないとき、該被添削暗算問題の参考解答が一致しないことを表すために用いられるプロンプト情報を出力するためにも用いられる。
任意的に、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含み、前記第1識別モデルはニューラルネットワークに基づくモデルであり;
前記暗算問題添削モジュールが、前記予め訓練された第1識別モデルを用いて該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別し、前記計算タイプが四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算のうちの1つを含み;識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得るために用いられる。
任意的に、前記問題検索モジュールは、以下を含む:
各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを得て、各被検索問題の特徴ベクトルとするために用いられる、特徴ベクトル取得ユニットであって、語幹ベクトル化モデルがニューラルネットワークに基づくモデルであることと;
各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定するために用いられる、問題検索ユニット。
任意的に、前記語幹ベクトル化モデルは以下のステップを介し訓練される:
問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングすることと、
ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことにより、前記語幹ベクトル化モデルを訓練する。
任意的に、前記装置は更に下記を含む:
予め問題データベース中の試験紙上の各問題の特徴ベクトルに対しインデックス情報テーブルを構築するために用いられる、前処理モジュールと;
具体的には、各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索し;一致する特徴ベクトルの前記インデックス情報テーブル中の対応する問題を該被検索問題に最も近い問題として確定するために用いられる、前記問題検索ユニット。
任意的に、前記前処理モジュールは、前記インデックス情報テーブルを構築する前に、異なる長さの特徴ベクトルを長さに従いグループ分けするためにも用いられる。
前記問題検索ユニットは、具体的には、各被検索問題に対し、前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索するために用いられる。
任意的に、前記試験紙確定モジュールは、具体的には、出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いられる。
任意的に、前記検出識別モジュールは、具体的には、予め訓練された検出モデルを用いて前記被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出するために用いられ、前記検出モデルはニューラルネットワークに基づくモデルである。
任意的に、前記検出識別モジュールは、具体的には、予め訓練された第2識別モデルを用いて各被検索問題の領域中の語幹の文字内容を識別するために用いられ、前記第2識別モデルはニューラルネットワークに基づくモデルである。
任意的に、前記暗算問題に対する問題添削装置は以下を更に含む:
予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を取得するために用いられる、計算モジュール;
ここで、前記暗算問題添削モジュールは各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題の領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成する。
上記目的を達成するため、本発明は、プロセッサと、通信インターフェイスと、メモリと、通信バスとを含む、電子機器も提供し、そのうち、プロセッサ、通信インターフェイス、メモリは通信バスを介し相互間の通信を完成し;
メモリは、コンピュータプログラムを格納するために用いられ;
プロセッサは、メモリに格納されたプログラムを実行するとき、上記のいずれか1つの暗算問題に対する問題添削方法の方法ステップを実現するために用いられる。
上記目的を達成するため、本発明はコンピュータ読み取り可能な記憶媒体を更に提供し、前記コンピュータ読み取り可能な記憶媒体はコンピュータプログラムを格納し、前記コンピュータプログラムはプロセッサにより実行されたとき上記のいずれか1つの暗算問題に対する問題添削方法の方法ステップを実現することを特徴とする。
上記目的を達成するため、本発明は暗算問題に対する問題添削方法を更に提供し、前記方法は以下を含む:
ステップS41:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別することと;
ステップS42:予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得ることと;
ステップS43:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すことと;
ステップS44:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することと;
ステップS45:前記被検索試験紙中に問題タイプが暗算問題の被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定することと;
ステップS46:各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題の領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成すること。
上記目的を達成するため、本発明は暗算問題に対する問題添削装置を更に提供し、前記装置は以下を含む:
被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別するために用いられる、検出識別モジュールと;
予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得るために用いられる、計算モジュールと、
各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すために用いられる、問題検索モジュールと;
探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いられる、試験紙確定モジュールと;
前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定するために用いられる、暗算問題確定モジュールと;
各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いられる、暗算問題添削モジュール。
既存技術と比較し、本発明は被検索試験紙に対し、先ず各被検索問題の語幹の文字内容に基づき被検索問題の特徴ベクトルを取得し、その後、各被検索問題の特徴ベクトルを用いて問題データベースから被検索試験紙に一致する目標試験紙を検索し、問題タイプが暗算問題である被検索問題に対し、目標試験紙内部において問題の特徴ベクトルに基づき2次検索を行い、検索の基準は最短編集距離が最も短いことであり、一致する目標問題の問題タイプも暗算問題である場合、被検索問題を被添削暗算問題として確定し、予め設けられた暗算エンジンを用いて被添削暗算問題に対し計算を行って計算結果を被添削暗算問題の解答として出力する。
被添削暗算問題に対し、語幹の文字内容に基づき取得された特徴ベクトルが互いに区別しにくいことから、問題データベース中から検索した目標試験紙中の参考解答が被添削暗算問題と一致しない可能性も比較的高く、このため2次検索で被添削暗算問題を確定して暗算エンジンを介し計算を行うことで、暗算問題の添削の正確性を高めることができることが分かる。
図1は、本発明の1つの実施例が提供する暗算問題に対する問題添削方法の概略フロー図である。 図2は、本発明の1つの実施例が提供する暗算問題の問題添削装置の概略構造図である。 図3は、本発明の1つの実施例が提供する電子機器の概略構造図である。 図4は、本発明のもう1つの実施例が提供する暗算問題に対する問題添削方法の概略フロー図である。 図5は、本発明のもう1つの実施例が提供する暗算問題の問題添削装置の概略構造図である。
以下に添付図面と具体的な実施例とを組み合わせて本発明が提示する暗算問題に対する問題添削方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体について更に詳細に説明する。請求項と下記説明とに基づき、本発明の利点と特徴が更に明確となる。
既存技術の課題を解決するため、本発明の実施例は暗算問題に対する問題添削方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体を提供する。
説明すべき点として、本発明の実施例の暗算問題に対する問題添削方法は本発明の実施例の暗算問題に対する問題添削装置に応用可能であり、該暗算問題に対する問題添削装置は電子機器に配置されることができる。ここで、該電子機器はコンピュータ、移動端末等であり得、該移動端末は携帯電話、タブレットコンピュータ等の各種オペレーティングシステムを有するハードウェア機器であり得る。
[実施例1]
図1は、本発明の1つの実施例の提供する暗算問題に対する問題添削方法の概略フロー図である。図1を参照し、暗算問題に対する問題添削方法は以下のステップを含んでよい:
ステップS11:被検索試験紙の画像に対し検出を行い、被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別する。
被検索試験紙の画像は被検索試験紙を含む画像であってよい。具体的には、検出モデルを用いて被検索試験紙の画像に対し検出を行い、被検索試験紙上の各被検索問題の領域を検出し、前記検出モデルはニューラルネットワークに基づくモデルである。ここで、検出モデルは、例えば深層畳み込みニューラルネットワーク(Convolutional neural network、CNN)に基づき試験紙サンプル訓練セット中のサンプルに対して訓練を行い得られたものであってよい。訓練済みの検出モデルを用いて被検索試験紙の画像から2次元特徴ベクトルを抽出し、2次元特徴ベクトルの各グリッドに異なる形状のアンカーポイントを生成し、グラウンドトゥルースボックス(Groundtruth Boxes)を用いて、検出した各被検索問題の領域にラベリングを行い、グラウンドトゥルースボックスを生成されたアンカーポイントと回帰(regression)処理を行うことで、グラウンドトゥルースボックスを問題の実際の位置に更に近づけることもできる。問題領域を識別した後、各被検索問題を単一画像として切断する、或いは実際には切断せず、処理時において各被検索問題領域を単一領域画像に分割し処理を行い、問題位置情報に基づき配列を行ってよい。
各被検索問題の領域を検出した後、分類識別モデルを用いて各被検索問題の問題タイプを確定してよく、前記分類識別モデルはニューラルネットワークに基づくモデルである。ここで、分類識別モデルは、例えば深層畳み込みニューラルネットワークに基づき試験紙サンプル訓練セット中のサンプルに対して訓練を行い得られたものであってよく、各サンプル中の問題は均しく問題タイプがラベリングされている。問題タイプは、演算問題、暗算問題、空欄記入問題、選択問題、応用問題等に分けられてよい。
同時に、第2識別モデルを用いて被検索問題領域中の語幹の文字内容を識別してもよく、前記第2識別モデルはニューラルネットワークに基づくモデルである。先ず被検索問題中の各構成部分をラベリングし、構成部分は語幹、解答及び/又は図を含んでよく、次いで第2識別モデルを介し問題中の語幹の文字内容を識別する。ここで、第2識別モデルは膨張畳み込み(Dilated Convolution)とアテンションモデル(Attention Model)に基づき確立されたものであってよく、具体的には、膨張畳み込みを用いて語幹、解答及び/又は図に対応するグラウンドトゥルースボックスに対し特徴抽出を行い、アテンションモデルを介し、抽出した特徴を文字にデコードする。
ステップS12:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探す。
具体的には、ステップS12は以下を更に含んでよい:
ステップS121:各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを得て、各被検索問題の特徴ベクトルとすることであって、前記語幹ベクトル化モデルはニューラルネットワークに基づくモデルである。
例を挙げると、例えば被検索問題中の語幹の文字内容が「4.明君は3分間歩き全行程のちょうど半分に達するとすると、彼の家は学校から何メートル離れているか?(6分)」とすると、該文字内容を予め訓練された語幹ベクトル化モデル−sent2vecモデルに入力し、該語幹の特徴ベクトルを取得し、特徴ベクトルは[x0,x1,x2…,xn]として表されることができる。
ここで、前記語幹ベクトル化モデルは、例えばCNNモデルといったニューラルネットワークに基づくモデルであってよく、前記語幹ベクトル化モデルは以下のステップを介し訓練される:問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングする;ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことで、前記語幹ベクトル化モデルを訓練する。そのうち、具体的な訓練過程は既存技術に属し、ここでは繰り返し説明しない。
ステップS122:各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定すること。
ここで、ベクトル近似検索の方法を介し、問題データベースにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索してよく、具体的には問題データベースにおいて該被検索問題の特徴ベクトルと距離が最も近い特徴ベクトルを検索する。異なるベクトル間の類似度測定(Similarity Measurement)で一般的に用いる方法はベクトル間の「距離(Distance)」を算出することであり、一般的な距離算出方法は、ユークリッド距離、マンハッタン距離、コサイン(Cosine)等を有することが理解される。本実施例1が採用する算出方法はコサインである。
好ましくは、特徴ベクトル検索に利するよう、予め問題データベース中の試験紙上の各問題の特徴ベクトルでインデックス情報テーブルを構築してもよい。インデックス情報テーブル中には問題データベース中の各問題の特徴ベクトル、問題の具体的内容、問題が存在する試験紙のID等を格納できる。
対応して、ステップS122は更に以下を含んでよい:各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することと;一致する特徴ベクトルの前記インデックス情報テーブルにおいて対応する問題を該被検索問題に最も近い問題として確定すること。
インデックス情報テーブルにおいて一致する特徴ベクトルを探し出した後、前記インデックス情報テーブルにおいて最も近い問題が探し出されたとき、最も近い問題の具体的内容(問題の語幹、解答及び/又は図を含む)、及び該最も近い問題が存在する試験紙のID情報を取得できることが理解される。
好ましくは、前記インデックス情報テーブルを構築する前に、異なる長さの特徴ベクトルを長さに従いグループ分けしてもよく、このようにして、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索するとき、先ず前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルの長さと同一又は近いグループを見つけ(ここで、前記長さが近いグループとは、被検索問題の特徴ベクトルの長さとインデックス情報テーブル中の特徴ベクトルの長さとの差が特定値又は所定値よりも小さいことを指す)、そして前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索できる。ここで、グループ分けの際には長さが同一の特徴ベクトルを1グループとして分けてよく、長さがある範囲内の特徴ベクトルを1グループとして分けてもよく、本発明はこれに対し限定しない。異なる長さの特徴ベクトルを長さに従いグループ分けすると、後に問題検索するとき、特徴ベクトルの長さに基づき対応するグループ内でクエリを行うことができ、問題検索速度が速まることが分かる。特徴ベクトルの長さが異なるのは、語幹の文字数が異なることによるものであることが理解される。
ステップS13:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、所定の条件を満たす試験紙を被検索試験紙に一致する目標試験紙として確定すること。具体的には、集約した試験紙を所定の条件と比較することを介し、所定の条件を満たす目標試験紙が存在するか否かの情報を得られ、所定の条件を満たす目標試験紙が存在するとき、対応する所定の条件を満たす試験紙を得られる。
ここで、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することは、具体的には、出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定することであってよい。実際には処理の際に、問題データベース中の各問題はいずれも対応する試験紙ID情報と現在の試験紙における位置情報とを有することから、最も近い問題が存在する試験紙IDに基づき最も近い問題がどの試験紙に属するものであるかを判断でき、次いで出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙IDを確定でき、これにより該試験紙IDを一致する目標試験紙として確定する。ここで、ある試験紙の出現頻度は以下の方法で算出できる:該試験紙の被検索問題における最も近い問題の数と被検索試験紙中の被検索問題の総数との割合、或いは、該試験紙の被検索試験紙に一致する問題の数と被検索試験紙中の被検索問題の総数との割合。出現頻度が最も高い試験紙の出現頻度が第1所定閾値未満の場合、該出現頻度が最も高い試験紙と被検索試験紙中には一致する問題の数が少なすぎることを表し、このとき問題データベース中には被検索試験紙に一致する目標試験紙が存在しないと見なすことができる。
更に、ステップS13において所定の条件を満たす目標試験紙が存在しない状況において、前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削問題として確定し、各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行って該被添削暗算問題の計算結果を該被添削暗算問題の解答として出力し、前記被検索試験紙上の被添削暗算問題の添削を完成してよい。
ステップS14:被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、目標試験紙中の該被検索問題に一致する目標問題を確定し、目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定すること。
具体的には、問題タイプが暗算問題である被検索問題に対し、最短編集距離マッチングを行うプロセスは2次検索のプロセスと称することができ、2次検索を介し被検索試験紙中の暗算問題を更に確認できる。2次検索のとき、問題タイプが暗算問題である各被検索問題に対し、目標試験紙中の該被検索問題との最短編集距離が最短で且つ第2所定閾値未満の問題を該被検索問題の検索結果、即ち目標試験紙中の該被検索問題に一致する目標問題とすることができる。目標問題の問題タイプがやはり暗算問題である場合、該被検索問題が確実に暗算問題であることが確認でき、これにより該被検索問題を被添削暗算問題として確定する。そのうち、特徴ベクトルに対し最短編集距離マッチングを行うアルゴリズムは本分野の慣例的な計算方法に属し、ここでは繰り返し説明しない。
例を挙げると、例えば暗算問題Aが「385×8−265=()」、暗算問題Bが「375×8−265=()」である場合、これら2つの問題の語幹ベクトル化を用いて取得される特徴ベクトルは非常に似ており、このため、被検索試験紙中のある問題が「385×8−265=()」である場合、ステップS12において容易に問題データベース中の暗算問題Bを該問題に最も近い問題として確定してしまい、即ちこのとき該問題に対する検索結果は正確でない。正確性を高めるため、該問題に対し目標試験紙において2次検索を行い、検索の基準は文字の最短編集距離が最も短いことであり、最短編集距離は重みを計算しないことから、該問題の目標試験紙において対応する目標問題が暗算問題Aであると容易に探し出すことができ、暗算問題Aの問題タイプが暗算問題としてラベリングされていることから、該問題は確実に暗算問題であると確定する。
更に、ステップS14において、目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定してもよい。被検索問題と目標問題の位置に対し確認を行うことは、即ち被検索試験紙中の暗算問題として識別された問題の被検索試験紙における位置と、目標問題の目標試験紙における位置とを比較し、両者の位置が同一であることは目標問題が確実に該被検索問題の正確な検索結果であることを表し、このようにして識別時にベクトルの差異から誤って該被検索問題を目標試験紙中のもう1つの近い問題として識別することを避けることができる。例を挙げると、被添削暗算問題の被検索試験紙において位置する領域が、目標問題が目標試験紙において位置する領域と一致すると、二者の位置は同一であることを表す。
ステップS15:各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、暗算エンジンの計算結果を該被添削暗算問題の解答として出力し、被検索試験紙上の被添削暗算問題の添削を完成すること。
ここで、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含んでよく、前記第1識別モデルはニューラルネットワークに基づくモデルであり、第2識別モデルに同じく、第1識別モデルは膨張畳み込みとアテンションモデルに基づき確立されたものであってよく、具体的には、膨張畳み込みを用いて被添削暗算問題に対し特徴抽出を行い、アテンションモデルを介し抽出した特徴を文字にデコードする。
ステップS15中の予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行うことは、以下を含んでよい:先ず、前記予め訓練された第1識別モデルを介し該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別し、前記計算タイプは四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算を含んでよい;その後、識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得る。例を挙げると、例えば被添削暗算問題が「385×8−265=()」であり、暗算エンジンは第1識別モデルを介し「3」、「8」、「5」、「×」、「8」、「−」、「2」、「6」、「5」、「=」、「(」、「)」、計算タイプが四則の組合せ計算であることを識別し、次いで自動計算して計算結果を得る。
更に、暗算問題の添削結果が正確であることを保証するため、ステップS15は以下を含んでよい:前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力すること。
更に、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の参考解答と一致しないとき、該被添削暗算問題の参考解答と一致しないことを表すために用いられるプロンプト情報を出力することで、試験紙添削者に該被添削暗算問題に注意するよう提示する。
例を挙げると、暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致する場合、該被添削暗算問題の領域内に暗算エンジンの計算結果を表示し、一致しない場合は、該被添削暗算問題の領域内にプロンプト情報を表示し、プロンプト情報は「解答は確定待ち、手動で添削してください」といったものであってよい。
まとめると、既存技術と比較し、本発明は被検索試験紙に対し、先ず各被検索問題の語幹の文字内容に基づき被検索問題の特徴ベクトルを取得し、その後各被検索問題の特徴ベクトルを用いて問題データベース中から被検索試験紙に一致する目標試験紙を検索し、問題タイプが暗算問題である被検索問題に対し、目標試験紙内部において問題の特徴ベクトルに基づき2次検索を行い、検索の基準は最短編集距離が最も短いことであり、一致した目標問題の問題タイプも暗算問題である場合、被検索問題を被添削暗算問題として確認し、予め設けられた暗算エンジンを用いて被添削暗算問題に対し計算を行って計算結果を被添削暗算問題の解答として出力する。被添削暗算問題に対し、語幹の文字内容に基づき取得された特徴ベクトルが互いに区別しにくいことから、問題データベース中から検索した目標試験紙中の参考解答が被添削暗算問題と一致しない可能性も比較的高く、このため2次検索で被添削暗算問題を確定して暗算エンジンを介し計算を行うことで、暗算問題の添削の正確性を高めることができることが分かる。
上記の暗算問題に対する問題添削方法の実施例に対応し、本発明は暗算問題の問題添削装置を提供し、図2を参照し、該装置は以下を含む:
被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別するために用いることのできる、検出識別モジュール21と;
各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すために用いることのできる、問題検索モジュール22と;
探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いることのできる、試験紙確定モジュール23と;
前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定するために用いることのできる、暗算問題確定モジュール24と;
各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力し、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いることのできる、暗算問題添削モジュール25。
任意的に、前記暗算問題確定モジュール25は、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定するために用いられてもよい。
任意的に、前記試験紙確定モジュール23は、所定の条件を満たす目標試験紙が存在しない状況において、前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定し、各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行って該被添削暗算問題の計算結果を該被添削暗算問題の解答として出力し、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いられてもよい。
任意的に、前記暗算問題添削モジュール25は、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力するために用いられてもよい。
任意的に、前記暗算問題添削モジュール25は、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致しないとき、該被添削暗算問題の参考解答が一致しないことを表すために用いられるプロンプト情報を出力することで、試験紙添削者に該被添削暗算問題に注意するよう提示するために用いられてもよい。
任意的に、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含んでよく、前記第1識別モデルはニューラルネットワークに基づくモデルである;
前記暗算問題添削モジュール25は、具体的には、前記予め訓練された第1識別モデルを介し該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別するために用いられてよく、前記計算タイプは四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算を含む;識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得る。
任意的に、前記問題検索モジュール22は、以下を含んでよい:
各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに出力し、各被検索問題の語幹の特徴ベクトルを得て、各被検索問題の特徴ベクトルとするために用いることのできる、特徴ベクトル取得ユニットであって、前記語幹ベクトル化モデルはニューラルネットワークに基づくモデルである;
各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定するために用いることのできる、問題検索ユニット。
任意的に、前記語幹ベクトル化モデルは以下のステップを介し訓練されてよい:
問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングする;
ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことにより、前記語幹ベクトル化モデルを訓練する。
任意的に、装置は以下を含んでもよい:
予め問題データベース中の試験紙上の各問題の特徴ベクトルに対しインデックス情報テーブルを構築するために用いることのできる、前処理モジュール;
前記問題検索ユニットは、具体的には、各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索するために用いることができる;一致する特徴ベクトルの前記インデックス情報テーブルにおいて対応する問題を該被検索問題に最も近い問題として確定する。
任意的に、前記前処理モジュールは、前記インデックス情報テーブルを構築する前に、異なる長さの特徴ベクトルを長さに従いグループ分けするために用いられてもよい;
前記問題検索ユニットは、具体的には、各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索するために用いられてよい。
任意的に、前記試験紙確定モジュール23は、具体的には、出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定してよい。
任意的に、前記検出識別モジュール21は、具体的には、予め訓練された検出モデルを用いて前記被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出するために用いられてよく、そのうち、前記検出モデルはニューラルネットワークに基づくモデルである。
任意的に、前記検出識別モジュール21は、具体的には、予め訓練された第2識別モデルを用いて各被検索問題の領域中の語幹の文字内容を識別するために用いられてよく、そのうち、第2識別モデルはニューラルネットワークに基づくモデルである。
本発明の実施例1は電子機器を更に提供し、図3に示されるように、プロセッサ301と、通信インターフェイス302と、メモリ303と、通信バス304とを含み、そのうち、プロセッサ301、通信インターフェイス302、メモリ303は通信バス304を介し相互間の通信を完成し、
メモリ303は、コンピュータプログラムを格納するために用いられ;
プロセッサ301は、メモリ303に格納されたプログラムを実行するとき、以下のステップを実現するために用いられる:
ステップS11:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、また各被検索問題の領域中の語幹の文字内容を識別することと;
ステップS12:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すことと;
ステップS13:探し出された被検索問題に最も近い問題の存在する全ての試験紙を集約し、所定の条件を満たす標試験紙を前記被検索試験紙に一致する目標試験紙として確定することと;
ステップS14:前記被検索試験紙に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定することと;
ステップS15:各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力し、前記被検索試験紙上の被添削暗算問題の添削を完成すること。
該方法の各ステップの具体的な実現と関連する説明内容は上述した図1に示される方法実施例を参照でき、ここでは繰り返し説明しない。
このほか、プロセッサ301がメモリ303に格納されたプログラムを実行して実現する暗算問題に対する問題添削方法のその他の実現方法は、上述した方法実施例部分で言及した実現方法と同一であり、ここでは再度説明しない。
上述した電子機器で言及した通信バスは、PCI(Peripheral Component Interconnect)バス又はEISA(Extended Industry Standard Architecture)バス等であってよい。該通信バスは、アドレスバス、データバス、制御バス等に分けられてよい。表示し易いよう、図では1つの太線で表しているのみであるが、僅か1つのバス又は1種類のバスを有するのみであることを表していない。
通信インターフェイスは、上述した電子機器と他の機器との間の通信に用いられる。
メモリは、RAM(Random Access Memory)を含んでよく、例えば少なくとも1つのディスクストレージといった不揮発性メモリ(Non−Volatile Memory、NVM)を含んでもよい。任意的に、メモリは前述したプロセッサから離れて位置する少なくとも1つのストレージデバイスであってもよい。
上述したプロセッサは、中央処理装置(Central Processing Unit、CPU)、ネットワークプロセッサ(Network Processor、NP)等を含む汎用プロセッサであってよく、デジタル信号処理(Digital Signal Processing、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)、又はその他のプログラマブル論理デバイス、離散ゲート又はトランジスタ論理デバイス、離散ハードウェアコンポーネントであってもよい。
本発明の実施例1は、コンピュータ読み取り可能な記憶媒体を更に提供し、該コンピュータ読み取り可能な記憶媒体内にはコンピュータプログラムが格納され、該コンピュータプログラムがプロセッサにより実行されるとき上述した暗算問題に対する問題添削方法のステップを実現する。
[実施例2]
図4は、本発明のもう1つの実施例の提供する暗算問題に対する問題添削方法の概略フロー図である。図4を参照し、暗算問題に対する問題添削方法は以下のステップを含んでよい:
ステップS41:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別すること。
被検索試験紙の画像は、被検索試験紙のイメージを含むものであってよい。具体的には、検出モデルを用いて被検索試験紙の画像に対し検出を行い、被検索試験紙上の各被検索問題の領域を検出してよく、前記検出モデルはニューラルネットワークに基づくモデルである。ここで、検出モデルは、例えば深層畳み込みニューラルネットワーク(Convolutional neural network、CNN)に基づき試験紙サンプル訓練セット中のサンプルに対して訓練を行い得られたものであってよい。訓練済みの検出モデルを用いて被検索試験紙の画像から2次元特徴ベクトルを抽出し、2次元特徴ベクトルの各グリッドに異なる形状のアンカーポイントを生成し、グラウンドトゥルースボックス(Groundtruth Boxes)を用いて、検出した各被検索問題の領域にラベリングを行い、グラウンドトゥルースボックスを生成されたアンカーポイントと回帰(regression)処理を行うことで、グラウンドトゥルースボックスを問題の実際の位置に更に近づけることもできる。問題領域を識別した後、各被検索問題を単一画像として切断する、或いは実際には切断せず、処理時において各被検索問題領域を単一領域画像に分割し処理を行い、問題位置情報に基づき配列を行ってよい。
各被検索問題の領域を検出した後、分類識別モデルを用いて各被検索問題の問題タイプを確定してよく、前記分類識別モデルはニューラルネットワークに基づくモデルである。ここで、分類識別モデルは、例えば深層畳み込みニューラルネットワークに基づき試験紙サンプル訓練セット中のサンプルに対して訓練を行い得られたものであってよく、各サンプル中の問題は均しく問題タイプがラベリングされている。問題タイプは、演算問題、暗算問題、空欄記入問題、選択問題、応用問題に分けられてよい。
同時に、第2識別モデルを用いて被検索問題領域中の語幹の文字内容を識別してもよく、前記第2識別モデルはニューラルネットワークに基づくモデルである。先ず被検索問題中の各構成部分をラベリングし、構成部分は語幹、解答及び/又は図を含んでよく、次いで第2識別モデルを介し問題中の語幹の文字内容を識別する。ここで、第2識別モデルは膨張畳み込みとアテンションモデルに基づき確立されたものであってよく、具体的には、膨張畳み込みを用いて語幹、解答及び/又は図に対応するグラウンドトゥルースボックスに対し特徴抽出を行い、アテンションモデルを介し、抽出した特徴を文字にデコードする。
ステップS42:予め設けられた暗算エンジンを用いて被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得ること。
ここで、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含んでよく、前記第1識別モデルはニューラルネットワークに基づくモデルであり、第2識別モデルに同じく、第1識別モデルは膨張畳み込みとアテンションモデルに基づき確立されたものであってよく、具体的には、膨張畳み込みを用いて被添削暗算問題に対し特徴抽出を行い、アテンションモデルを介し、抽出した特徴を文字にデコードする。
ステップS42中の予め設けられた暗算エンジンを用いて該被検索試験紙中の計算式及び/又は公式を含む領域に対し計算を行うことは、以下を含んでよい:前記予め訓練された第1識別モデルを介し前記被検索試験紙中の計算式及び/又は公式を含む領域内の数字、アルファベット、文字、記号、及び計算タイプを識別することであって、前記計算タイプは四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算を含んでよい;識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、各領域の計算結果を得る。例を挙げると、例えば被検索試験紙中のある領域が「385×8−265=()」を含み、該領域に対し、暗算エンジンは第1識別モデルを介し「3」、「8」、「5」、「×」、「8」、「−」、「2」、「6」、「5」、「=」、「(」、「)」、計算タイプが四則の組合せ計算であることを識別でき、次いで自動計算して該領域の計算結果を得る。
ステップS43:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すこと。
具体的には、ステップS43は更に以下を含んでよい:
ステップS431、各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを取得し、各被検索問題の特徴ベクトルとすることであって、前記語幹ベクトル化モデルはニューラルネットワークに基づくモデルである。
例を挙げると、例えば被検索問題中の語幹の文字内容が「4.明君は3分間歩き全行程のちょうど半分に達するとすると、彼の家は学校から何メートル離れているか?(6分)」とすると、該文字内容を予め訓練された語幹ベクトル化モデル−sent2vecモデルに入力し、該語幹の特徴ベクトルを取得し、特徴ベクトルは[x0,x1,x2…,xn]として表されることができる。
ここで、前記語幹ベクトル化モデルは、例えばCNNモデルといったニューラルネットワークに基づくモデルであってよく、前記語幹ベクトル化モデルは以下のステップを介し訓練されてよい:問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングすることと;ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことで、前記語幹ベクトル化モデルを訓練すること。そのうち、具体的な訓練過程は既存技術に属し、ここでは繰り返し説明しない。
ステップS432、各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定すること。
ここで、ベクトル近似検索の方法を介し、問題データベースにおいて該被検索問題の特徴ベクトルと一致する特徴ベクトルを検索してよく、具体的には、問題データベースにおいて該被検索問題の特徴ベクトルと距離が最も近い特徴ベクトルを検索する。異なるベクトル間の類似度測定(Similarity Measurement)で一般的に用いる方法はベクトル間の「距離(Distance)」を算出することであり、一般的な距離算出方法は、ユークリッド距離、マンハッタン距離、コサイン(Cosine)等を有することが理解される。本実施例2が採用する計算方法はコサインである。
好ましくは、特徴ベクトル検索に利するよう、予め問題データベース中の試験紙上の各問題の特徴ベクトルでインデックス情報テーブルを構築してもよい。インデックス情報テーブル中には問題データベース中の各問題の特徴ベクトル、問題の具体的内容、問題が存在する試験紙のID等を格納できる。
対応して、ステップS432は更に以下を含んでよい:各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することと;一致する特徴ベクトルの前記インデックス情報テーブルにおいて対応する問題を該被検索問題に最も近い問題として確定すること。
インデックス情報テーブルにおいて一致する特徴ベクトルを探し出した後、インデックス情報テーブルにおいて最も近い問題が探し出されたとき、最も近い問題の具体的内容(問題の語幹、解答及び/又は図)と該最も近い問題が存在する試験紙のID情報とを取得できることが理解される。
好ましくは、前記インデックス情報テーブルを構築する前に、異なる長さの特徴ベクトルを長さに従いグループ分けしてもよく、このようにして、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルと一致する特徴ベクトルを検索するとき、先ず前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルの長さと同一又は近いグループを見つけ(ここで、長さが近いグループとは、被検索問題の特徴ベクトルの長さとインデックス情報テーブルにおける特徴ベクトルの長さとの差が特定値又は所定値よりも小さいことを指す)、そして前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルと一致する特徴ベクトルを検索できる。ここで、グループ分けの際には長さが同一の特徴ベクトルを1グループとして分けてよく、長さがある範囲内の特徴ベクトルを1グループとして分けてもよく、本発明はこれに対し限定しない。異なる長さの特徴ベクトルを長さに従いグループ分けすると、後に問題検索するとき、特徴ベクトルの長さに基づき対応するグループ内でクエリを行うことができ、問題検索速度が速まることが分かる。特徴ベクトルの長さが異なるのは、語幹の文字数が異なることによるものであることが理解される。
ステップS44:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、所定の条件を満たす試験紙を被検索試験紙に一致する目標試験紙として確定すること。具体的には、集約した試験紙を所定の条件と比較することを介し、所定の条件を満たす目標試験紙が存在するか否かの情報を得られ、所定の条件を満たす目標試験紙が存在するとき、対応する所定の条件を満たす試験紙を得られる。
ここで、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することは、具体的には、出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定することであってよい。実際には処理の際に、問題データベース中の各問題はいずれも対応する試験紙ID情報と現在の試験紙における位置情報とを有することから、最も近い問題が存在する試験紙IDに基づき最も近い問題がどの試験紙に属するものであるかを判断でき、次いで出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙IDを確定でき、これにより該試験紙IDを一致する目標試験紙として確定する。ここで、ある試験紙の出現頻度は以下の方法で算出できる:該試験紙の被検索問題における最も近い問題の数と被検索試験紙中の被検索問題の総数との割合、或いは、該試験紙の被検索試験紙に一致する問題の数と被検索試験紙中の被検索問題の総数との割合。出現頻度が最も高い試験紙の出現頻度が第1所定閾値未満の場合、該出現頻度が最も高い試験紙と被検索試験紙中には一致する問題数が少なすぎることを表し、このとき問題データベース中には被検索試験紙に一致する目標試験紙が存在しないと見なすことができる。
更に、ステップS44において所定の条件を満たす目標試験紙が存在しない状況において、前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削問題として確定し、各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行って該被添削暗算問題の計算結果を該被添削暗算問題の解答として出力し、被検索試験紙上の被添削暗算問題の添削を完成してよい。
ステップS45:被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、目標試験紙中の該被検索問題に一致する目標問題を確定し、目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定すること。
具体的には、問題タイプが暗算問題である被検索問題に対し、最短編集距離マッチングを行うプロセスは2次検索のプロセスと称することができ、2次検索を介し被検索試験紙中の暗算問題を更に確認できる。2次検索のとき、各問題タイプが暗算問題である被検索問題に対し、目標試験紙中の該被検索問題との最短編集距離が最短で且つ第2所定閾値未満の問題を該被検索問題の検索結果、即ち目標試験紙中の該被検索問題に一致する目標問題とすることができる。目標問題の問題タイプがやはり暗算問題である場合、該被検索問題が確実に暗算問題であることが確認でき、これにより該被検索問題を被添削暗算問題として確定する。そのうち、特徴ベクトルに対し最短編集距離マッチングを行うアルゴリズムは本分野の慣例的な計算方法に属し、ここでは繰り返し説明しない。
例を挙げると、例えば暗算問題Aが「385×8−265=()」、暗算問題Bが「375×8−265=()」である場合、これら2つの問題の語幹ベクトル化を用いて取得される特徴ベクトルは非常に似ており、このため、被検索試験紙中のある問題が「385×8−265=()」である場合、ステップS13において容易に問題データベース中の暗算問題Bを該問題に最も近い問題として確定してしまい、即ちこのとき該問題に対する検索結果は正確でない。正確性を高めるため、該問題に対し目標試験紙において2次検索を行い、検索の基準は文字の最短編集距離が最も短いことであり、最短編集距離は重みを計算しないことから、該問題の目標試験紙において対応する目標問題が暗算問題Aであると容易に探し出すことができ、暗算問題Aの問題タイプが暗算問題としてラベリングされていることから、該問題は確実に暗算問題であると確定する。
更に、ステップS45において、目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定してもよい。被検索問題と目標問題の位置に対し確認を行うことは、即ち被検索試験紙中の暗算問題として識別された問題の被検索試験紙における位置と、目標問題の目標試験紙における位置とを比較し、両者の位置が同一であることは目標問題が確実に該被検索問題の正確な検索結果であることを表し、このようにして識別時にベクトルの差異から誤って該被検索問題を目標試験紙中のもう1つの近い問題として識別することを避けることができる。例を挙げると、被添削暗算問題が被検索試験紙において位置する領域が、目標問題が目標試験紙において位置する領域と一致すると、二者の位置は同一であることを表す。
ステップS46:各被添削暗算問題に対し、暗算エンジンの該被添削暗算問題領域に対応する計算結果を、該被添削暗算問題の解答として確定し、暗算エンジンの被添削暗算問題領域以外の全ての計算結果を破棄し、被検索試験紙上の被添削暗算問題の添削を完成すること。
具体的には、ステップS42中で暗算エンジンは多くの領域の計算結果を返す可能性があり、ステップS46において、各被添削暗算問題に対し、多くの領域の計算結果から該被添削暗算問題領域と十分に重なる領域に対応する計算結果を探し、該被添削暗算問題の解答としてよい。
更に、暗算問題添削結果の正確性を保証するため、ステップS46は以下を含んでもよい:前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力すること。
更に、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の参考解答と一致しないとき、該被添削暗算問題の参考解答と一致しないことを表すために用いられるプロンプト情報を出力することで、試験紙添削者に該被添削暗算問題に注意するよう提示する。
例を挙げると、暗算エンジンの計算結果が該被添削暗算問題の目標試験紙上の対応する参考解答と一致する場合、該被添削暗算問題の領域内に暗算エンジンの計算結果を表示し、一致しない場合は、該被添削暗算問題の領域内にプロンプト情報を表示し、プロンプト情報は「解答は確定待ち、手動で添削してください」といったものであってよい。
既存技術と比較し、本発明は被検索試験紙に対し、暗算エンジンを用いて被検索試験紙に対し処理を行い、同時に各被検索問題の語幹の文字内容に基づき被検索問題の特徴ベクトルを取得し、その後各被検索問題の特徴ベクトルを用いて問題データベース中から被検索試験紙に一致する目標試験紙を検索し、問題タイプが暗算問題である被検索問題に対し、目標試験紙内部において問題の特徴ベクトルに基づき2次検索を行い、検索の基準は最短編集距離が最も短いことであり、一致する目標問題の問題タイプも暗算問題である場合、被検索問題を被添削暗算問題として確認し、暗算エンジンの被添削暗算問題領域に対応する計算結果を被添削暗算問題の解答とし、暗算エンジンの被添削暗算問題領域以外の全ての計算結果を破棄する。被添削暗算問題に対し、語幹の文字内容に基づき取得した特徴ベクトルが互いに区別しにくいことから、問題データベース中から検索した目標試験紙中の参考解答が被添削暗算問題と一致しない可能性も比較的高く、このため2次検索で被添削暗算問題を確定して暗算エンジンの被添削暗算問題領域に対応する計算結果を解答として用い、暗算問題の添削の正確性を高めることができることが分かる。
上述した暗算問題に対する問題添削方法実施例に対応し、本発明は暗算問題に対する問題添削装置を提供し、図5を参照し、該装置は以下を含んでよい:
被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、また各被検索問題の領域中の語幹の文字内容を識別するために用いることのできる、検出識別モジュール51と;
予め設けられた暗算エンジンを用いて前記被検索試験紙上中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得るために用いることのできる、計算モジュール52と;
各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すために用いることのできる、問題検索モジュール53と;
探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いることのできる、試験紙確定モジュール54と;
前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定するために用いることのできる、暗算問題確定モジュール55と;
各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題領域に対応する計算結果を、該被添削暗算問題の解答とし、前記暗算エンジンの被添削暗算問題領域以外の全ての計算結果を破棄し、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いることのできる、暗算問題添削モジュール56。
任意的に、前記暗算問題確定モジュール55は、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定するために用いられてもよい。
任意的に、前記試験紙確定モジュール54は、所定の条件を満たす目標試験紙が存在しない状況において、前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれるとき、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定し、各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題領域に対応する計算結果を、該被添削暗算問題の解答とし、前記暗算エンジンの被添削暗算問題領域以外の全ての計算結果を破棄し、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いられてもよい。
任意的に、前記暗算問題添削モジュール56は、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力するために用いられてもよい。
任意的に、前記暗算問題添削モジュール56は、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の参考解答と一致しないとき、該被添削暗算問題の参考解答が一致しないことを表すために用いられるプロンプト情報を出力し、試験紙添削者に該被添削暗算問題に注意するよう提示するために用いられてもよい。
任意的に、前記予め設けられた暗算エンジンは予め訓練された第1識別モデルを含んでよく、前記第1識別モデルはニューラルネットワークに基づくモデルである;
前記計算モジュール52は、具体的には、前記予め訓練された第1識別モデルを介し前記被検索試験紙中の計算式及び/又は公式を含む領域内の数字、アルファベット、文字、記号、及び計算タイプを識別するために用いられてもよく、前記計算タイプは四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算を含む;識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、各領域の計算結果を得る。
任意的に、前記問題検索モジュール53は、以下を含んでよい:
各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを取得し、各被検索問題の特徴ベクトルとするために用いることのできる、特徴ベクトル取得ユニットであって、前記語幹ベクトル化モデルはニューラルネットワークに基づくモデルである;
各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定するために用いることのできる、問題検索ユニット。
任意的に、前記語幹ベクトル化モデルは以下のステップを介し訓練されてよい:
問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングすることと;
ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことにより、前記語幹ベクトル化モデルを訓練すること。
任意的に、前記装置は以下を含んでもよい:
予め問題データベース中の試験紙上の各問題の特徴ベクトルに対しインデックス情報テーブルを構築するために用いることのできる、前処理モジュール;
前記問題検索ユニットは、具体的には、各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索し、一致する特徴ベクトルの前記インデックス情報テーブル中の対応する問題を該被検索問題に最も近い問題として確定するために用いられてよい。
任意的に、前記前処理モジュールは、前記インデックス情報テーブルを構築する前に、異なる長さの特徴ベクトルを長さに従いグループ分けすることに用いられてもよい;
前記問題検索ユニットは、具体的には、各被検索問題に対し、前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索するために用いられてよい。
任意的に、前記試験紙確定モジュール54は、具体的には、出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いられてよい。
任意的に、前記検出識別モジュール51は、具体的には、予め訓練された検出モデルを用いて前記被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出するために用いられてよく、そのうち前記検出モデルはニューラルネットワークに基づくモデルである。
任意的に、前記検出識別モジュール51は、具体的には、予め訓練された第2識別モデルを用いて各被検索問題の領域中の語幹の文字内容を識別するために用いられてよく、そのうち、前記第2識別モデルはニューラルネットワークに基づくモデルである。
本発明の実施例2は電子機器を更に提供し、対応して図3を参照でき、プロセッサ301と、通信インターフェイス302と、メモリ303と、通信バス304とを含み、そのうち、プロセッサ301、通信インターフェイス302、メモリ303は通信バス304を介し相互間の通信を完成し、
メモリ303は、コンピュータプログラムを格納するために用いられ;
プロセッサ301は、メモリ303に格納されたプログラムを実行するとき、以下のステップを実現する:
ステップS41:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別することと;
ステップS42:予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得ることと;
ステップS43:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すことと;
ステップS44:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することと;
ステップS45:前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定することと;
ステップS46:各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題領域に対応する計算結果を、該被添削暗算問題の解答とし、前記暗算エンジンの被添削暗算問題領域以外の全ての計算結果を破棄し、前記被検索試験紙上の被添削暗算問題の添削を完成すること。
該方法の各ステップの具体的な実現と関連する説明内容は、上述した図4に示された方法実施例を参照でき、ここでは繰り返し説明しない。
このほか、プロセッサ301がメモリ303に格納されたプログラムを実行して実現する試験紙中の暗算問題を添削する方法のその他の実現方法は、前述した方法実施例部分で言及された実現方法と同一であり、ここでは再度説明しない。
上述した電子機器で言及した通信バスは、PCI(Peripheral Component Interconnect)バス又はEISA(Extended Industry Standard Architecture)バス等であってよい。該通信バスは、アドレスバス、データバス、制御バス等に分けられてよい。表示し易いよう、図では1つの太線で表しているのみであるが、僅か1つのバス又は1種類のバスを有するのみであることを表していない。
通信インターフェイスは、上述した電子機器と他の機器との間の通信に用いられる。
メモリは、RAM(Random Access Memory)を含んでよく、例えば少なくとも1つのディスクストレージといった不揮発性メモリ(Non−Volatile Memory、NVM)を含んでもよい。任意的に、メモリは前述したプロセッサから離れて位置する少なくとも1つのストレージデバイスであってもよい。
上述したプロセッサは、中央処理装置(Central Processing Unit、CPU)、ネットワークプロセッサ(Network Processor、NP)等を含む汎用プロセッサであってよく、デジタル信号処理(Digital Signal Processing、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA)、又はその他のプログラマブル論理デバイス、離散ゲート又はトランジスタ論理デバイス、離散ハードウェアコンポーネントであってもよい。
本発明の実施例2はコンピュータ読み取り可能な記憶媒体を更に提供し、該コンピュータ読み取り可能な記憶媒体内にはコンピュータプログラムが格納され、該コンピュータプログラムがプロセッサにより実行されたとき上述した暗算問題に対する問題添削方法のステップを実現する。
説明すべき点として、本明細書中の各実施例は均しく関連する方式を用いて記述しており、各実施例の間の同一、類似の部分は相互に参照でき、各実施例の重点である説明は全て他の実施例とは異なる部分である。特に、装置、電子機器、コンピュータ読み取り可能な記憶媒体の実施例について、基本的に方法実施例に類似していることから、説明は比較的単純であり、関連する部分は方法実施例の部分の説明を参照すればよい。
上記の説明は本発明の好ましい実施例についての説明にすぎず、本発明の範囲に対し如何様にも限定しない。当業者が上述した開示内容に基づき行った改変又は変更は、均しく請求項の保護範囲に属する。

Claims (22)

  1. 暗算問題に対する問題添削方法であって、
    ステップS11:被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別することと、
    ステップS12:各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すことと、
    ステップS13:探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することと、
    ステップS14:前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定することと、
    ステップS15:各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することにより、前記被検索試験紙上の被添削暗算問題の添削を完成することと
    を含むことを特徴とする、暗算問題に対する問題添削方法。
  2. ステップS14において、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が、該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定することを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  3. ステップS13において、所定の条件を満たす目標試験紙が存在せず、且つ前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる場合、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定し、ステップS15を実行することを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  4. ステップS15が、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することも含むことを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  5. 前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致しないとき、該被添削暗算問題の参考解答と一致しないことを表すために用いられるプロンプト情報を出力することを特徴とする、
    請求項4に記載の暗算問題に対する問題添削方法。
  6. 前記予め設けられた暗算エンジンが予め訓練された第1識別モデルを含み、前記第1識別モデルがニューラルネットワークに基づくモデルであり、
    ステップS15中の予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行うことが、
    前記予め訓練された第1識別モデルを介し該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別することであって、前記計算タイプが四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算のうちの1つを含むことと、
    識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得ることと
    を含むこと
    を特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  7. 前記ステップS12が、
    ステップS121:各被検索問題の語幹の文字内容を予め訓練された語幹ベクトル化モデルに入力し、各被検索問題の語幹の特徴ベクトルを得て、各被検索問題の特徴ベクトルとすることであって、前記語幹ベクトル化モデルがニューラルネットワークに基づくモデルであることと、
    ステップS122:各被検索問題に対し、問題データベースにおいて検索を行い、該被検索問題の特徴ベクトルに一致する特徴ベクトルを探し、問題データベース中の一致する特徴ベクトルに対応する問題を該被検索問題に最も近い問題として確定することと
    を含むこと
    を特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  8. 前記語幹ベクトル化モデルが、
    問題サンプル訓練セット中の各問題サンプルに対しラベリング処理を行い、各問題サンプル中の語幹の文字内容をラベリングすることと、
    ニューラルネットワークモデルを用いて各問題サンプル中の語幹の文字内容に対し2次元特徴ベクトル抽出を行うことにより、前記語幹ベクトル化モデルを訓練すること
    というステップを介し訓練されることを特徴とする、
    請求項7に記載の暗算問題に対する問題添削方法。
  9. 前記ステップS12を実行する前に、前記暗算問題に対する問題添削方法が、問題データベース中の試験紙上の各問題の特徴ベクトルに対しインデックス情報テーブルを構築することを更に含み、
    ステップS122が、
    各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することと、
    一致する特徴ベクトルの前記インデックス情報テーブル中の対応する問題を、該被検索問題に最も近い問題として確定することと
    を含むこと
    を特徴とする、
    請求項7に記載の暗算問題に対する問題添削方法。
  10. 前記インデックス情報テーブルを構築する前に、前記暗算問題に対する問題添削方法が、異なる長さの特徴ベクトルを長さに従いグループ分けすることを更に含み、
    前記各被検索問題に対し、前記インデックス情報テーブルにおいて該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することが、
    各被検索問題に対し、前記インデックス情報テーブル中の該被検索問題の特徴ベクトルの長さと同一又は近いグループ内において、該被検索問題の特徴ベクトルに一致する特徴ベクトルを検索することを含むこと
    を特徴とする、
    請求項9に記載の暗算問題に対する問題添削方法。
  11. ステップS13中、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定することが、
    出現頻度が最も高く且つ第1所定閾値よりも大きい試験紙を前記被検索試験紙に一致する目標試験紙として確定することを含む
    ことを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  12. ステップS11中、被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出することが、
    予め訓練された検出モデルを用いて前記被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出することであって、前記検出モデルがニューラルネットワークに基づくモデルであることを含む
    ことを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  13. ステップS11中、各被検索問題の領域中の語幹の文字内容を識別することが、
    予め訓練された第2識別モデルを用いて各被検索問題の領域中の語幹の文字内容を識別することであって、前記第2識別モデルがニューラルネットワークに基づくモデルであることを含む
    ことを特徴とする、
    請求項1に記載の暗算問題に対する問題添削方法。
  14. ステップS11を実行した後、ステップS12を実行する前に、前記暗算問題に対する問題添削方法が、
    予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得ることを更に含み、
    そのうち、ステップS15において、各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題の領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成する
    ことを特徴とする、
    請求項1〜13のいずれか1項に記載の暗算問題に対する問題添削方法。
  15. 暗算問題に対する問題添削装置であって、
    被検索試験紙の画像に対し検出を行い、前記被検索試験紙上の各被検索問題の領域を検出し、各被検索問題の問題タイプを確定し、各被検索問題の領域中の語幹の文字内容を識別するために用いられる、検出識別モジュールと、
    各被検索問題の語幹の文字内容に基づき、該被検索問題の特徴ベクトルを取得し、該被検索問題の特徴ベクトルに基づき問題データベースにおいて検索を行い、該被検索問題に最も近い問題を探すために用いられる、問題検索モジュールと、
    探し出された被検索問題に最も近い問題が存在する全ての試験紙を集約し、集約した試験紙を所定の条件と比較し、所定の条件を満たす目標試験紙が存在する場合、所定の条件を満たす試験紙を前記被検索試験紙に一致する目標試験紙として確定するために用いられる、試験紙確定モジュールと、
    前記被検索試験紙中に問題タイプが暗算問題である被検索問題が含まれる状況において、問題タイプが暗算問題である各被検索問題に対し、該被検索問題の特徴ベクトルを前記目標試験紙中の各問題の特徴ベクトルと最短編集距離マッチングを行い、前記目標試験紙中の該被検索問題に一致する目標問題を確定し、前記目標問題の問題タイプが暗算問題である場合、該被検索問題を被添削暗算問題として確定するために用いられる、暗算問題確定モジュールと、
    各被添削暗算問題に対し、予め設けられた暗算エンジンを用いて該被添削暗算問題に対し計算を行い、前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力することにより、前記被検索試験紙上の被添削暗算問題の添削を完成する、暗算問題添削モジュールと
    を含むことを特徴とする、
    暗算問題に対する問題添削装置。
  16. 前記暗算問題確定モジュールが、前記目標問題の問題タイプが暗算問題であり、且つ前記目標問題の前記目標試験紙における位置が該被検索問題の前記被検索試験紙における位置と同一である状況において、該被検索問題を被添削暗算問題として確定するためにも用いられることを特徴とする、
    請求項15に記載の暗算問題に対する問題添削装置。
  17. 前記試験紙確定モジュールが、所定の条件を満たす目標試験紙が存在せず、且つ前記被検索試験紙中に問題タイプが暗算問題である被検索問題を含むとき、問題タイプが暗算問題である被検索問題を被添削暗算問題として確定するためにも用いられることを特徴とする、
    請求項15に記載の暗算問題に対する問題添削装置。
  18. 前記暗算問題添削モジュールが、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致するか否かを検証し、一致する場合は前記暗算エンジンの計算結果を該被添削暗算問題の解答として出力するためにも用いられ、
    前記暗算問題添削モジュールが、前記暗算エンジンの計算結果が該被添削暗算問題の前記目標試験紙上の対応する参考解答と一致しないとき、該被添削暗算問題の参考解答が一致しないことを表すために用いられるプロンプト情報を出力するためにも用いられる
    ことを特徴とする、
    請求項15に記載の暗算問題に対する問題添削装置。
  19. 前記予め設けられた暗算エンジンが予め訓練された第1識別モデルを含み、前記第1識別モデルがニューラルネットワークに基づくモデルであり、
    前記暗算問題添削モジュールが、前記予め訓練された第1識別モデルを介し該被添削暗算問題中の数字、アルファベット、文字、記号、及び計算タイプを識別するために用いられ、前記計算タイプが四則の組合せ計算、推定、余りのある除算、分数計算、単位変換、垂直演算、再帰方程式演算のうちの1つを含むことと、識別された数字、アルファベット、文字、記号、及び計算タイプに基づき計算を行い、該被添削暗算問題の計算結果を得る
    ことを特徴とする、
    請求項15に記載の暗算問題に対する問題添削装置。
  20. 予め設けられた暗算エンジンを用いて前記被検索試験紙中の計算式及び/又は公式を含む領域に対し計算処理を行い、各領域の計算結果を得るために用いられる、計算モジュールを更に含み、
    そのうち、前記暗算問題添削モジュールが、各被添削暗算問題に対し、前記暗算エンジンの該被添削暗算問題の領域に対応する計算結果を、該被添削暗算問題の解答とすることにより、前記被検索試験紙上の被添削暗算問題の添削を完成するために用いられる
    ことを特徴とする、
    請求項15〜19のいずれか1項に記載の暗算問題に対する問題添削装置。
  21. 電子機器であって、
    プロセッサと、通信インターフェイスと、メモリと、通信バスとを含み、前記プロセッサ、前記通信インターフェイス、前記メモリが前記通信バスを介し相互間の通信を完成し、
    前記メモリが、コンピュータプログラムを格納するために用いられ、
    前記プロセッサが、メモリに格納されたプログラムを実行するとき、請求項1〜14のいずれか1項に記載の方法ステップを実現するために用いられる
    ことを特徴とする、
    電子機器。
  22. コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ読み取り可能な記憶媒体がコンピュータプログラムを格納し、前記コンピュータプログラムが実行されるとき、請求項1〜14のいずれか1項に記載の方法を実現することを特徴とする、
    コンピュータ読み取り可能な記憶媒体。

JP2021517407A 2018-09-26 2019-09-11 暗算問題に対する問題添削方法、装置、電子機器及び記憶媒体 Active JP7077483B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201811125657.5A CN109284355B (zh) 2018-09-26 2018-09-26 一种批改试卷中口算题的方法及装置
CN201811125659.4 2018-09-26
CN201811125657.5 2018-09-26
CN201811125659.4A CN109189895B (zh) 2018-09-26 2018-09-26 一种针对口算题的题目批改方法及装置
PCT/CN2019/105321 WO2020063347A1 (zh) 2018-09-26 2019-09-11 针对口算题的题目批改方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2021530066A true JP2021530066A (ja) 2021-11-04
JP7077483B2 JP7077483B2 (ja) 2022-05-30

Family

ID=69951164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517407A Active JP7077483B2 (ja) 2018-09-26 2019-09-11 暗算問題に対する問題添削方法、装置、電子機器及び記憶媒体

Country Status (4)

Country Link
US (1) US11721229B2 (ja)
EP (1) EP3859558A4 (ja)
JP (1) JP7077483B2 (ja)
WO (1) WO2020063347A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029708A1 (ko) * 2022-08-03 2024-02-08 주식회사 프로키언 인공지능 기반의 수학 문제 코드 제공 모델 생성 방법과 해당 모델을 이용한 수학 문제 생성 방법 및 장치
KR20240019017A (ko) * 2022-08-03 2024-02-14 주식회사 프로키언 인공지능 기반의 수학 문제 코드 제공 모델 생성 방법과 해당 모델을 이용한 수학 문제 생성 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230195723A1 (en) * 2020-05-20 2023-06-22 Nippon Telegraph And Telephone Corporation Estimation apparatus, learning apparatus, estimation method, learning method and program
CN111639630B (zh) * 2020-06-23 2023-07-18 北京字节跳动网络技术有限公司 一种作业批改方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286409A (ja) * 2006-04-18 2007-11-01 Hitachi Ltd 採点支援装置
WO2013069375A1 (ja) * 2011-11-08 2013-05-16 シャープ株式会社 照合装置、照合装置の制御方法、入力装置、試験システム、制御プログラム、および記録媒体
KR101459285B1 (ko) * 2014-04-04 2014-11-12 김종명 문장유사도 판단방법 및 장치, 시험채점방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009446A (ko) * 2009-03-13 2012-01-31 인벤션 머신 코포레이션 자연 언어 텍스트의 자동화 의미적 라벨링 시스템 및 방법
JP5623369B2 (ja) 2011-11-04 2014-11-12 日本電信電話株式会社 テキスト要約装置、方法及びプログラム
US9805614B2 (en) * 2012-09-17 2017-10-31 Crowdmark Inc. System and method for enabling crowd-sourced examination marking
CN103164994B (zh) 2013-03-15 2015-01-07 南京信息工程大学 一种运算类习题的批改及反馈方法
CN105955962B (zh) 2016-05-10 2019-11-05 北京新唐思创教育科技有限公司 题目相似度的计算方法及装置
CN106096564A (zh) 2016-06-17 2016-11-09 福建网龙计算机网络信息技术有限公司 一种数学自动批改方法
CN107832758A (zh) * 2017-11-06 2018-03-23 泉州市雄蓝教育科技有限公司 智能生成答题卡以及服务器终端自动阅卷评分的考试系统
CN108052504B (zh) 2017-12-26 2020-11-20 浙江讯飞智能科技有限公司 数学主观题解答结果的结构分析方法及系统
CN109284355B (zh) 2018-09-26 2020-09-22 杭州大拿科技股份有限公司 一种批改试卷中口算题的方法及装置
CN109189895B (zh) 2018-09-26 2021-06-04 杭州大拿科技股份有限公司 一种针对口算题的题目批改方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286409A (ja) * 2006-04-18 2007-11-01 Hitachi Ltd 採点支援装置
WO2013069375A1 (ja) * 2011-11-08 2013-05-16 シャープ株式会社 照合装置、照合装置の制御方法、入力装置、試験システム、制御プログラム、および記録媒体
KR101459285B1 (ko) * 2014-04-04 2014-11-12 김종명 문장유사도 판단방법 및 장치, 시험채점방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029708A1 (ko) * 2022-08-03 2024-02-08 주식회사 프로키언 인공지능 기반의 수학 문제 코드 제공 모델 생성 방법과 해당 모델을 이용한 수학 문제 생성 방법 및 장치
KR20240019017A (ko) * 2022-08-03 2024-02-14 주식회사 프로키언 인공지능 기반의 수학 문제 코드 제공 모델 생성 방법과 해당 모델을 이용한 수학 문제 생성 방법 및 장치
KR102645590B1 (ko) * 2022-08-03 2024-03-11 주식회사 프로키언 인공지능 기반의 수학 문제 코드 제공 모델 생성 방법과 해당 모델을 이용한 수학 문제 생성 방법 및 장치

Also Published As

Publication number Publication date
US20210192965A1 (en) 2021-06-24
WO2020063347A1 (zh) 2020-04-02
JP7077483B2 (ja) 2022-05-30
US11721229B2 (en) 2023-08-08
EP3859558A4 (en) 2022-06-22
EP3859558A1 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
CN109271401B (zh) 一种题目搜索、批改方法、装置、电子设备和存储介质
CN109284355B (zh) 一种批改试卷中口算题的方法及装置
JP7077483B2 (ja) 暗算問題に対する問題添削方法、装置、電子機器及び記憶媒体
CN109583429B (zh) 一种批改试卷中应用题的方法及装置
CN109670504B (zh) 一种手写答案识别批改方法及装置
CN109189895B (zh) 一种针对口算题的题目批改方法及装置
CN109712043B (zh) 一种答案批改方法及装置
US20220067416A1 (en) Method and device for generating collection of incorrectly-answered questions
CN108121702B (zh) 数学主观题评阅方法及系统
CN111475627B (zh) 解答推导题目的检查方法、装置、电子设备及存储介质
CN107491536B (zh) 一种试题校验方法、试题校验装置及电子设备
CN112184089B (zh) 试题难度预测模型的训练方法、装置、设备及存储介质
CN104933158A (zh) 数学问题求解模型的训练方法和装置、推理方法和装置
CN110796185A (zh) 一种图像标注结果的检测方法和装置
US11749128B2 (en) Answer correction method and device
CN116311312A (zh) 视觉问答模型的训练方法和视觉问答方法
CN106600489B (zh) 一种标记失误试题的方法及装置
WO2023024898A1 (zh) 题目辅助方法、题目辅助装置和题目辅助系统
CN111090989B (zh) 一种基于文字识别的提示方法及电子设备
CN111709551A (zh) 基于相似度的学生测试数据处理方法、系统、装置及介质
CN111078921A (zh) 一种科目识别方法及电子设备
CN106599312B (zh) 知识库的检验方法、装置及终端
CN114065762A (zh) 一种文本信息的处理方法、装置、介质及设备
CN111046802B (zh) 基于矢量字的评测方法、装置、设备和存储介质
CN108446277B (zh) 模拟学习的方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R150 Certificate of patent or registration of utility model

Ref document number: 7077483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150