JP2007233888A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2007233888A
JP2007233888A JP2006057158A JP2006057158A JP2007233888A JP 2007233888 A JP2007233888 A JP 2007233888A JP 2006057158 A JP2006057158 A JP 2006057158A JP 2006057158 A JP2006057158 A JP 2006057158A JP 2007233888 A JP2007233888 A JP 2007233888A
Authority
JP
Japan
Prior art keywords
result
image
information
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006057158A
Other languages
Japanese (ja)
Inventor
Toshiya Koyama
俊哉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006057158A priority Critical patent/JP2007233888A/en
Publication of JP2007233888A publication Critical patent/JP2007233888A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to easily confirm whether a grading result, a totaling result, or a recognition result about entry contents by handwriting is correct or not, or a part having an error. <P>SOLUTION: In an automatic grading system, when displaying an image of a read answer sheet on a display screen, a superposing position determination part 43 determines a vicinity of a score column or an answerer information column that is a handwriting entry area of the answer sheet, superposition part 44 superposes a processing result (a grading result) of automatic grading processing and an acquisition result from the answer sheet in a determined superposing position, and a display part 45 displays it. The user confirming display contents thereof can compare the entry information actually handwritten on the answer sheet, and the acquisition result and the grading result from the image of the answer sheet. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

一般に、学校や塾等の教育機関では、例えばテストの答案用紙や練習問題用紙のような教育用教材を用いることが多い。そして、問題およびその解答欄を含む教育用教材を用いて、その教育用教材(用紙)上に生徒に解答を記入させ、その記入された解答に対して教師が採点を行う、といったことが広く行われている。   In general, in educational institutions such as schools and cram schools, educational materials such as test answer sheets and practice question sheets are often used. And, it is widely used that the teaching material including the question and the answer column is used to make the student fill in the answer on the educational material (paper), and the teacher grades the written answer. Has been done.

ところで、教育用教材については、その採点処理の省力化が強く求められている。これに応えるべく、採点処理の省力化を実現するものとしては、例えば、パーソナルコンピュータ(以下、単に「PC」と記述する)に採点台および採点ペンを接続し、採点台の所定位置に教育用教材を載置した状態で採点ペンによって○×付けを実施することで、PCに対して教育用教材上に記入された解答の位置情報およびその正否情報を入力し得るようにし、これによりPCにて教育用教材上の解答についての自動採点を実施するように構成されたシステムが提案されている(例えば、特許文献1参照)。   By the way, for educational materials, there is a strong demand for labor saving in scoring. In order to respond to this requirement, for example, to save labor in scoring processing, for example, a scoring stand and a scoring pen are connected to a personal computer (hereinafter simply referred to as “PC”), and an educational tool is provided at a predetermined position on the scoring stand. By placing XX with a scoring pen with the teaching material placed, it is possible to input the position information of the answer written on the educational teaching material and its correctness information to the PC. There has been proposed a system configured to perform automatic scoring of answers on educational materials (see, for example, Patent Document 1).

特開平6−266278号公報JP-A-6-266278

しかしながら、上記従来技術では、教育用教材についての採点処理に当たって、採点台や採点ペン等といった専用の構成機器を必要とするために、システム全体の構成の複雑化や高コスト化等を招く要因となり、好ましいとは言えない。また、専用の構成機器を必要とすることで、対応可能な教育用教材が限定されてしまい、その教育用教材についての汎用性が制限されてしまうおそれもある。   However, in the above-mentioned conventional technology, dedicated scoring equipment such as a scoring table and a scoring pen is required for scoring processing of educational materials, which causes a complicated system configuration and high costs. It is not preferable. In addition, the necessity of dedicated component devices limits the educational materials that can be supported, which may limit the versatility of the educational materials.

これに対して、採点処理に当たって専用の構成機器を必要とすることがなく教育用教材についての汎用性を十分に確保できるようにするために、採点済み答案用紙をスキャナ等の画像読取装置で読み取り、その読取画像と原本(採点前答案用紙)画像とを比較し、その比較結果を基に採点済み答案用紙から記入情報、即ち「○」や「×」等の採点記号を抽出し、この抽出結果を基に採点処理を行う構成の自動採点システムが考えられる。   On the other hand, the graded answer sheet is read by an image reading device such as a scanner in order to ensure sufficient versatility for educational materials without requiring dedicated component equipment for the scoring process. The scanned image is compared with the original (answer paper before scoring) image, and based on the comparison result, entry information, that is, scoring symbols such as “○” and “×” are extracted from the scoring answer paper. An automatic scoring system configured to perform scoring processing based on the results can be considered.

ところで、この種の自動採点システムの利用法として、上述したように、教師等の採点者に代わって採点処理を行う利用法の他に、どの設問に対する解答率が高かったか、低かったか、あるいはどの生徒がどの分野の問題が得意か、不得意かなどの統計をとり、その後の教育方針に反映させるなどの利用法も考えられる。後者の利用法では、統計をとるのを主目的とする訳であるから、実際の採点処理については従来通り教師等の採点者が行う場合もあり得る。   By the way, as described above, in addition to the method of using the scoring process on behalf of the grader such as a teacher as a method of using this type of automatic scoring system, the answer rate for which question was high, low, or which It is also possible to use such methods as taking statistics such as which field the students are good at and not good at and then reflecting them in the subsequent educational policy. In the latter method of use, the main purpose is to collect statistics. Therefore, the actual scoring process may be performed by a grader such as a teacher as usual.

また、後者の利用法では、例えば生徒ごとに統計をとる処理が行われる訳であるから、生徒が手書きで書き入れた名前や出席番号などの記入内容についても認識し、その認識結果と集計結果とを対応付けてデータベース部に保管することになる。このとき、生徒が手書きで書き入れた名前や出席番号などの記入内容を認識する処理において、その認識結果が100%正しいとは言い切れないのが一般的である。採点結果についても然りである。   Also, in the latter usage, for example, a process of collecting statistics for each student is performed, so that the student also recognizes the written contents such as the name and attendance number written by hand, and the recognition result and the total result Are stored in the database unit in association with each other. At this time, in the process of recognizing the entry contents such as the name and attendance number written by the student by hand, the recognition result is generally not 100% correct. The same is true for scoring results.

したがって、ユーザ(教師等の採点者)は、認識結果や採点結果をそのまま信用してよいものかどうか迷うことが考えられる。また、認識結果や採点結果が正しいのか間違っているのか、あるいはどの箇所に誤りがあるのかがわからなければ、ユーザは認識結果や採点結果に間違いがあったとしても修正のしようがない。   Therefore, it is conceivable that the user (scorer such as a teacher) is at a loss as to whether the recognition result or the scoring result can be trusted as it is. Further, if it is not known whether the recognition result or the scoring result is correct or wrong, or in which part there is an error, the user cannot correct the recognition result or the scoring result even if there is an error.

なお、ここでは、教育用教材の自動採点システムにおいて、採点前の答案用紙と採点後の答案用紙の各画像の比較結果を基に採点記号を抽出する画像処理を行う場合を例に挙げて従来の課題について説明したが、教育用教材の自動採点に限らず、例えば、アンケート用紙の集計処理システムなどにおける集計処理においても同様のことが言える。   Here, in the conventional scoring system for educational materials, an example of performing image processing for extracting scoring symbols based on the comparison result of each image of the answer sheet before scoring and the answer sheet after scoring is taken as an example. However, the present invention is not limited to automatic scoring of educational materials, but the same can be said for the counting process in a questionnaire sheet counting process system, for example.

すなわち、例えば、アンケート用紙の集計処理システムにおいて、回答前アンケート用紙と回答済みアンケート用紙との比較結果を基に当該回答済みアンケート用紙から「○」や「×」等のチェック記号を抽出する画像処理を行う場合にも、アンケート回答者が手書きで書き入れた性別や居住地等の記入内容を認識して、性別や地域ごとに統計をとることになることから、認識結果や集計結果に間違いがあった場合に同様の問題が発生する。   That is, for example, in a questionnaire processing system, image processing for extracting check symbols such as “O” and “X” from the answered questionnaire sheet based on the comparison result between the questionnaire sheet before answering and the answered questionnaire sheet Even when conducting surveys, the survey respondents will recognize the contents of gender, residence, etc. written by hand, and will collect statistics for each gender and region. A similar problem will occur.

本発明は、上記課題に鑑みてなされたものであって、その目的とするところは、採点結果や集計結果、あるいは手書きによる記入内容についての認識結果が正しいのか間違っているのか、あるいはどの箇所に誤りがあるのかをユーザが簡単に確認できるようにした画像処理装置および画像処理プログラムを提供することにある。   The present invention has been made in view of the above problems, and the purpose of the present invention is to determine whether a scoring result, a totaling result, or a recognition result of handwritten entry contents is correct or wrong, or in which part An object of the present invention is to provide an image processing apparatus and an image processing program that allow a user to easily check whether there is an error.

上記目的を達成するために、本発明では次のような構成を採っている。すなわち、原本文書上の手書き記入すべき手書き記入領域の位置情報を記憶しておく一方、前記手書き記入領域に手書き記入され、さらに当該手書き記入領域以外の領域に追記情報が追記された記入済み文書の画像を読み取り、その読み取った記入済み文書の画像から手書き記入領域の記入情報を取得するとともに、記入済み文書に追記された追記情報を、当該記入済み文書と原本文書との画像の比較結果を基に抽出し、かつ、この抽出した追記情報に対して所定の処理を行う。そして、読み取った記入済み文書の画像を表示するとともに、前記位置情報に基づいて手書き記入領域の近傍に、所定の処理の処理結果と記入済み文書の画像からの取得結果(手書き記入領域の記入情報)とを表示する。   In order to achieve the above object, the present invention adopts the following configuration. That is, the position information of the handwritten entry area to be handwritten on the original document is stored, while the completed document is handwritten in the handwritten entry area and additionally written in the area other than the handwritten entry area. The image of the completed document is read, and the entry information in the handwritten entry area is obtained from the image of the entered document that has been read, and the additional information added to the completed document is compared with the image comparison result between the entered document and the original document. Based on the extracted information, the extracted additional information is subjected to a predetermined process. Then, an image of the read completed document is displayed and, based on the position information, in the vicinity of the handwritten entry area, a processing result of a predetermined process and an acquisition result from the completed document image (entry information in the handwritten entry area) ) And.

読み取った記入済み文書の画像を表示画面上に表示する際に、当該記入済み文書の手書き記入領域の近傍に、所定の処理の処理結果と記入済み文書の画像から取得した手書き記入領域の記入情報を表示することで、当該表示内容を確認するユーザは、記入済み文書の手書き記入領域に実際に手書き記入されている記入情報と、当該記入済み文書の画像からの取得結果とを対比することができる。また、所定の処理に対応した処理結果が記入情報として手書き記入領域に手書き記入されている場合には、この手書きの記入情報と所定の処理の処理結果とを表示画面上で対比することができる。これらを対比することにより、ユーザは、記入済み文書の画像からの取得結果や所定の処理の処理結果が正しいのか間違っているのか、あるいはどの箇所に誤りがあるのかを簡単に確認することができる。そして、誤りがある場合は、ユーザはその誤りを修正することになる。   When displaying an image of a read completed document on the display screen, information about the handwritten entry area acquired from the processing result of the predetermined process and the image of the completed document in the vicinity of the handwritten entry area of the completed document By displaying, the user who confirms the display contents can compare the entry information actually written in the handwritten entry area of the completed document with the acquisition result from the image of the completed document. it can. Further, when the processing result corresponding to the predetermined processing is handwritten in the handwritten input area as the input information, the handwritten input information and the processing result of the predetermined processing can be compared on the display screen. . By comparing these, the user can easily confirm whether the acquisition result from the image of the completed document, the processing result of the predetermined process is correct or incorrect, or in which part there is an error. . If there is an error, the user corrects the error.

本発明によれば、採点結果や集計結果等、所定の処理の処理結果、あるいは手書きによる記入情報についての取得結果が正しいのか間違っているのか、あるいはどの箇所に誤りがあるのかをユーザが簡単に確認できるために、間違いがある場合には、対応する箇所を確実に修正することができる。   According to the present invention, the user can easily determine whether a processing result of a predetermined process such as a scoring result or a totaling result, or an acquisition result of handwritten entry information is correct or incorrect, or in which part there is an error. Since it can be confirmed, if there is a mistake, the corresponding part can be surely corrected.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[適用例]
図1は、本発明が適用される画像処理装置の基本構成の一例を示すシステム構成図である。ここでは、画像処理装置として、教育機関で用いられる教材(以下、「教育用教材」と記述する)を取り扱う教材処理装置を例に挙げて説明するものとする。
[Application example]
FIG. 1 is a system configuration diagram showing an example of a basic configuration of an image processing apparatus to which the present invention is applied. Here, a teaching material processing apparatus that handles teaching materials used in educational institutions (hereinafter referred to as “educational teaching materials”) will be described as an example of the image processing apparatus.

図1に示すように、本適用例に係る画像処理装置である教材処理装置は、データベース部1と、画像読み取り部2と、画像データ解析部3と、教材判別部4と、歪み補正部5と、差分抽出部6と、解答者抽出部7と、正誤判定抽出部8と、途切れ補正部9と、図形形状認識部10と、記入位置算出部11と、採点集計部12と、集計結果出力部13と、データベース装置14と、確認修正部15とを有する構成となっている。   As shown in FIG. 1, a teaching material processing apparatus that is an image processing apparatus according to this application example includes a database unit 1, an image reading unit 2, an image data analysis unit 3, a teaching material determination unit 4, and a distortion correction unit 5. The difference extraction unit 6, the answerer extraction unit 7, the correctness / error determination extraction unit 8, the discontinuity correction unit 9, the figure shape recognition unit 10, the entry position calculation unit 11, the scoring calculation unit 12, and the counting result The output unit 13, the database device 14, and the confirmation / correction unit 15 are included.

かかる教材処理装置において、データベース部1は、生徒等の解答記入者による設問に対する解答の手書き記入や、教師等の採点者による解答に対する正誤判定の採点記号(例えば、「○」,「×」等の図形)の追記が為される前の教育用教材(原本文書)の画像データ(原本画像データ)および当該教育用教材についての電子データを保持蓄積する。   In such teaching material processing apparatus, the database unit 1 includes handwritten entry of answers to questions by answerers such as students, and scoring symbols (for example, “○”, “x”, etc.) for correct / incorrect determination of answers by graders such as teachers. The image data (original image data) of the educational teaching material (original document data) and the electronic data about the educational teaching material before the additional writing of the graphic) is held and accumulated.

ここで、教育用教材について簡単に説明する。図2は、教育用教材の一具体例を示す説明図である。図2に示すように、教育用教材20は、教育機関で用いられるテストの答案用紙や練習問題用紙等であり、問題およびその解答欄21を有している。ただし、教育用教材20は、少なくとも解答欄21を有していればよく、問題文については必ずしも記載されていなくともよい。解答欄21には、当然のことながら、生徒等の解答記入者によって解答が手書き記入される。   Here, the educational material will be briefly described. FIG. 2 is an explanatory diagram showing a specific example of educational materials. As shown in FIG. 2, the educational material 20 is a test answer sheet, a practice question sheet, or the like used in an educational institution, and has a question and its answer column 21. However, the educational material 20 only needs to have at least the answer column 21, and the question sentence is not necessarily described. As a matter of course, in the answer column 21, the answer is handwritten by an answer entry person such as a student.

また、教育用教材20には、その教育用教材20を識別特定するための情報が記載された識別情報欄22と、解答欄21への解答記入者に関する情報を記載するための解答者情報欄23と、採点結果である得点を記入する得点欄24とが設けられている。識別情報欄22には、例えば教育用教材20の科目、タイトル、適用学年等の情報があらかじめ記載されるものとする。   The educational material 20 includes an identification information field 22 in which information for identifying and specifying the educational material 20 is described, and an answerer information field in which information about an answer entry person in the answer field 21 is described. 23 and a score column 24 for entering a score as a scoring result is provided. In the identification information column 22, for example, information such as a subject, a title, and an applicable grade of the educational material 20 is described in advance.

一方、解答者情報欄23には、生徒等の解答記入者によって学級、出席番号、氏名等が手書き記入され、また得点欄24には、教師等の採点者によって得点が手書き記入され得るようになっている。すなわち、原本文書である教育用教材にあっては、解答欄21、解答者情報欄23および得点欄24等が、特許請求の範囲における手書き記入領域に相当する。   On the other hand, in the answerer information column 23, the class, attendance number, name, etc. are handwritten by the answerer such as the student, and the score can be handwritten by the grader such as the teacher in the score column 24. It has become. That is, in the educational material that is the original document, the answer column 21, the answerer information column 23, the score column 24, and the like correspond to the handwritten entry area in the claims.

このような教育用教材20についての電子データに関しては、その教育用教材20上における解答欄21、識別情報欄22、解答者情報欄23および得点欄24等のレイアウト(用紙上の位置)を特定し得る位置情報を含むものであって、かつ、データベース部1にて保持蓄積可能なものであれば、そのデータ形式を問わない。例えば、画像データであっても、文書作成ソフトウェアで作成したアプリケーション文書データであっても良い。   With regard to such electronic data about the educational material 20, the layout (position on the paper) of the answer column 21, the identification information column 22, the answerer information column 23, the score column 24, etc. on the educational material 20 is specified. Any data format can be used as long as it includes position information that can be stored and can be stored and accumulated in the database unit 1. For example, it may be image data or application document data created by document creation software.

ただし、教育用教材20の電子データは、その教育用教材20における各解答欄21についての配点情報を含んでいるものとする。配点情報とは、教育用教材20上における各解答欄21について、どの位置に存在する解答欄21への配点が何点であるかを特定するための情報である。なお、配点は、各解答欄21ごとに異なっていても、あるいは一律であっても構わない。   However, it is assumed that the electronic data of the educational material 20 includes scoring information for each answer column 21 in the educational material 20. The scoring information is information for specifying the number of points to be assigned to the answer column 21 at which position for each answer column 21 on the educational material 20. The score may be different for each answer column 21 or may be uniform.

図1に説明を戻す。画像読み取り部2は、解答者による解答欄21への解答の手書き記入および解答者情報欄23への氏名等の手書き記入、さらには当該解答に対する採点者による解答欄21への追記情報、具体的には正誤判定の採点記号(例えば、「○」,「×」等の図形)の追記(記入)が為された記入済み文書である教育用教材20に対して、公知の光学的画像読み取り技術を用いた画像読み取りを行って、その教育用教材20から画像データを得て本教材処理装置内に入力する。   Returning to FIG. The image reading unit 2 includes handwritten entry of answers in the answer column 21 by the answerer, handwritten entry of the name and the like in the answerer information field 23, and additional information in the answer column 21 by the grader for the answer, specifically Is a known optical image reading technique for the educational teaching material 20 which is a completed document in which a scoring symbol for correct / incorrect determination (for example, a figure such as “O”, “x”, etc.) is additionally written (filled). Is read, and image data is obtained from the educational material 20 and input into the educational material processing apparatus.

画像データ解析部3は、画像読み取り部2から入力された画像データについて、その解析処理を行う。解析処理としては、レイアウト解析、文字図形分離、文字認識、コード情報認識、図形処理、色成分認識等が挙げられるが、いずれも公知の画像処理技術を利用して実現すればよいために、ここではその詳細な説明を省略する。   The image data analysis unit 3 performs an analysis process on the image data input from the image reading unit 2. Examples of the analysis processing include layout analysis, character / graphic separation, character recognition, code information recognition, graphic processing, color component recognition, etc., all of which can be realized using known image processing techniques. Then, the detailed description is abbreviate | omitted.

教材判別部4は、タイトル解析部41とコード情報解析部42との少なくとも一方によって構成され、画像データ解析部3での解析処理の結果、特に識別情報欄22についてのタイトル解析部41によるタイトル解析またはコード情報解析部42によるコード解析の少なくとも一方の解析結果を基にして、画像読み取り部2で得られた画像データの元となった教育用教材20を識別特定する。   The teaching material discrimination unit 4 is configured by at least one of the title analysis unit 41 and the code information analysis unit 42, and as a result of the analysis processing in the image data analysis unit 3, particularly the title analysis by the title analysis unit 41 for the identification information column 22 Alternatively, the educational teaching material 20 that is the basis of the image data obtained by the image reading unit 2 is identified and specified based on at least one analysis result of the code analysis by the code information analysis unit 42.

このとき、教材判別部4においては、データベース部1が保持蓄積している教育用教材20の電子データと照らし合わせ、該当する電子データがデータベース部1に保持蓄積されていなければ、教育用教材の識別特定エラーとする判定を行う。すなわち、教材判別部4は、画像データ解析部3での解析結果を基に、画像読み取り部2で得られた画像データとの比較対象となる電子データを特定する。   At this time, the learning material discriminating unit 4 compares the electronic data of the educational material 20 held and accumulated in the database unit 1 and if the corresponding electronic data is not held and accumulated in the database unit 1, Judgment is made as an identification specific error. That is, the teaching material determination unit 4 specifies electronic data to be compared with the image data obtained by the image reading unit 2 based on the analysis result of the image data analysis unit 3.

歪み補正部5は、画像読み取り部2で得られた画像データに対して、その画像データにおける画像歪みの補正を行う。画像歪みの補正としては、傾き補正や主走査方向または副走査方向の拡縮補正等が挙げられる。これらの歪補正については、いずれも公知の画像処理技術を利用して実現すればよいため、ここではその詳細な説明を省略する。あるいは、画像読み取り部2で得られた画像データと、比較対象となるデータベース部1内の電子データとを比較照合し、その画像歪み(傾き、拡縮など)を補正するようにしても良い。   The distortion correction unit 5 performs image distortion correction on the image data obtained by the image reading unit 2. Examples of image distortion correction include tilt correction and enlargement / reduction correction in the main scanning direction or sub-scanning direction. Since these distortion corrections may be realized by using a known image processing technique, detailed description thereof is omitted here. Alternatively, the image data obtained by the image reading unit 2 and the electronic data in the database unit 1 to be compared may be compared and collated to correct the image distortion (inclination, scaling, etc.).

差分抽出部6は、画像読み取り部2から入力され、歪み補正部5での歪み補正処理後の読み取り画像データと、教材判別部4での教育用教材20の識別結果によって特定される比較対象となるデータベース部1内の原本画像データとを比較して、それぞれの間の差分を抽出する。なお、差分抽出処理の手法自体については、公知の画像処理技術を利用して実現すればよいため、ここではその詳細な説明を省略する。   The difference extraction unit 6 is input from the image reading unit 2 and read image data after distortion correction processing in the distortion correction unit 5 and a comparison target specified by the identification result of the educational material 20 in the learning material determination unit 4. The original image data in the database unit 1 is compared and the difference between them is extracted. Note that the difference extraction processing method itself may be realized by using a known image processing technique, and a detailed description thereof will be omitted here.

解答者抽出部7は、出席番号画像切り出し部71と手書きOCR(Optical Character Reader)部72との少なくとも一方、好ましくは両方から構成され、画像データ解析部3での解析処理の結果を基にしつつ、差分抽出部6で抽出された差分のうち、解答者情報欄23についての差分に対し、その差分からの出席番号画像切り出し部71による画像情報抽出や手書きOCR部72による文字認識処理等を通じて、画像読み取り部2で読み取り対象となった教育用教材に手書き記入された手書き情報を抽出する。   The answerer extraction unit 7 is composed of at least one of the attendance number image cutout unit 71 and the handwritten OCR (Optical Character Reader) unit 72, preferably both, and based on the result of the analysis processing in the image data analysis unit 3 Of the differences extracted by the difference extraction unit 6, the difference in the answerer information field 23 is extracted through image information extraction by the attendance number image cutout unit 71 from the difference and character recognition processing by the handwritten OCR unit 72. The handwritten information handwritten in the educational teaching material read by the image reading unit 2 is extracted.

手書き情報としては、教育用教材上の手書き記入領域に解答記入者や採点者によって手書き記入された情報、具体的には生徒等の解答記入者によって解答者情報欄23に手書き記入された学級、出席番号、氏名等といった、解答記入者を識別するための情報や、教師等の採点者によって得点欄24に手書き記入された得点等の採点結果を示す情報が挙げられる。   As handwritten information, information handwritten in the handwritten entry area on the educational material by the answer writer or grader, specifically, a class handwritten in the answerer information column 23 by the answer writer such as a student, Information indicating the answer entry person such as attendance number, name, etc., and information indicating the score result such as a score handwritten in the score column 24 by a grader such as a teacher.

正誤判定抽出部8は、画像データ解析部3での解析処理の結果を基にしつつ、差分抽出部6で抽出された差分から、さらに正誤判定の記入内容を抽出する。正誤判定の記入内容の抽出は、例えば差分抽出部6での抽出結果に対する色成分認識処理を通じて、所定色成分についてのものを抽出することによって行えばよい。何故ならば、採点者による正誤判定の記入は、一般に、赤色で行われるからである。   The correctness determination extraction unit 8 further extracts the correctness determination entry contents from the difference extracted by the difference extraction unit 6 based on the result of the analysis processing in the image data analysis unit 3. What is necessary is just to extract the content regarding a predetermined color component through the color component recognition process with respect to the extraction result in the difference extraction part 6, for example, extraction of the entry content of correct / incorrect determination. This is because the grader's entry of correct / incorrect determination is generally performed in red.

途切れ補正部9は、正誤判定抽出部8での抽出結果に対して途切れ補正処理を行う。ここに、途切れ補正処理とは、抽出された線分同士を接続して、その抽出線分間の途切れを解消するための処理である。   The discontinuity correction unit 9 performs discontinuity correction processing on the extraction result from the correctness / error determination extraction unit 8. Here, the interruption correction process is a process for connecting the extracted line segments and eliminating the interruption between the extracted line segments.

図形形状認識部10は、正誤判定抽出部8で抽出され、途切れ補正部9で途切れ補正が為された正誤判定の記入内容に対して、その形状認識を行って正誤判定の記入内容を認識する。形状認識は、正誤判定の採点記号、例えば「○」や「×」等の図形形状とのパターンマッチングによって行えばよい。すなわち、図形形状認識部10は、正誤判定の記入内容が「正解(○)」または「不正解(×)」であるかを認識するものである。あるいは、認識対象図形の特徴量を算出し、その特徴量から形状を認識するようにしてもよい。特徴量としては、例えば、穴の個数、外接矩形に占める対象図形の面積率などが挙げられる。   The figure shape recognizing unit 10 recognizes the entry contents of the correct / incorrect determination by performing shape recognition on the entry contents of the correct / incorrect determination extracted by the correctness / error determination extracting unit 8 and corrected by the discontinuity correcting unit 9. . The shape recognition may be performed by pattern matching with a scoring symbol for correct / incorrect determination, for example, a graphic shape such as “◯” or “×”. In other words, the graphic shape recognition unit 10 recognizes whether the content of the correct / incorrect determination entry is “correct answer (◯)” or “incorrect answer (×)”. Alternatively, the feature amount of the recognition target figure may be calculated and the shape may be recognized from the feature amount. Examples of the feature amount include the number of holes and the area ratio of the target graphic occupying the circumscribed rectangle.

記入位置算出部11は、図形形状認識部10にて形状が認識された正誤判定の記入内容について、その教育用教材20上における記入位置を算出する。記入位置の算出は、例えば教育用教材20上における座標解析によって行えばよい。   The entry position calculation unit 11 calculates the entry position on the educational material 20 for the entry contents of the correct / incorrect determination whose shape has been recognized by the figure shape recognition unit 10. The entry position may be calculated by, for example, coordinate analysis on the educational material 20.

採点集計部12は、図形形状認識部10による正誤判定の記入内容の認識結果と、記入位置算出部11による正誤判定の記入位置の算出結果と、データベース部1が保持蓄積している教育用教材20の電子データに含まれる当該教育用教材20の各解答欄21についての配点情報とを基にして、画像読み取り部2が画像読み取りを行った採点後の教育用教材20について、当該教育用教材20に記入された正誤判定の採点集計を行う。   The scoring and summing unit 12 recognizes the content of the correct / incorrect determination by the graphic shape recognition unit 10, the calculation result of the correct / incorrect determination by the input position calculation unit 11, and the teaching material stored and accumulated in the database unit 1. On the basis of the scoring information about each answer column 21 of the educational material 20 included in the electronic data 20, the educational material 20 for scoring after the image reading unit 2 has read the image. The score for correct / incorrect judgment entered in 20 is counted.

この採点集計を行う際に、採点集計部12は、「○」や「×」等の正誤判定記号(採点記号)と教育用教材20の各解答欄21とを対応付ける処理を行う。集計結果出力部13は、採点集計部12による採点集計の結果を、解答者抽出部7が抽出した解答者情報と関連付けて出力する。   When this score totaling is performed, the score totaling unit 12 performs a process of associating correctness determination symbols (scoring symbols) such as “◯” and “x” with each answer column 21 of the educational material 20. The totaling result output unit 13 outputs the result of scoring totaling by the scoring totaling unit 12 in association with the answerer information extracted by the answerer extracting unit 7.

データベース装置14は、画像読み取り部2で読み取られた記入済み文書である採点後の教育用教材の画像データを保存するとともに、集計結果出力部13から出力される採点集計結果を保存する。   The database device 14 stores the image data of the educational material after scoring, which is a completed document read by the image reading unit 2, and stores the scoring and counting result output from the counting result output unit 13.

確認修正部15は、表示部や修正入力部を有し、データベース装置14の保存内容、即ち自動採点結果を適宜表示部に表示することによってユーザによる確認が可能であるとともに、ユーザによる操作によって自動採点結果の内容を適宜修正できるような構成となっている。この確認修正部15における自動採点結果の確認・修正の処理が本発明の特徴とするところであり、その詳細については後述する。   The confirmation / correction unit 15 includes a display unit and a correction input unit, and can be confirmed by the user by appropriately displaying the saved contents of the database device 14, that is, the automatic scoring result on the display unit, and automatically by the user's operation. The content of scoring results can be modified as appropriate. The automatic scoring result confirmation / correction processing in the confirmation / correction unit 15 is a feature of the present invention, and details thereof will be described later.

なお、以上説明した各構成要素、即ちデータベース部1〜確認修正部15のうち、画像読み取り部2については、画像読み取り装置としての機能を有した複写機、複合機あるいはスキャナ装置を利用して実現することが考えられる。その場合、当該画像読み取り部2に自動原稿搬送装置(Automatic Document Feeder;ADF)が付設されていると、複数の教育用教材に対する画像読み取りを連続的に行うことができる。   Of the constituent elements described above, that is, the database unit 1 to the confirmation / correction unit 15, the image reading unit 2 is realized by using a copier, a multifunction peripheral, or a scanner device having a function as an image reading device. It is possible to do. In this case, when an automatic document feeder (ADF) is attached to the image reading unit 2, it is possible to continuously read images for a plurality of educational materials.

また、画像読み取り部2を除く他の各構成要素、即ちデータベース部1、画像データ解析部3〜確認修正部15については、例えばPC(パーソナルコンピュータ)のように、所定プログラムを実行することによって情報記憶処理機能、画像処理機能、演算処理機能等を実現するコンピュータ機器を利用して実現することが考えられる。   Further, other components other than the image reading unit 2, that is, the database unit 1, the image data analysis unit 3 to the confirmation / correction unit 15, are information by executing a predetermined program like a PC (personal computer), for example. It can be realized by using a computer device that realizes a storage processing function, an image processing function, an arithmetic processing function, and the like.

その場合に、データベース部1、画像データ解析部3〜確認修正部15の各機能を実現に必要となる所定プログラムは、あらかじめPC内にインストールしておくことが考えられる。ただし、あらかじめインストールされているのではなく、コンピュータ読み取り可能な記憶媒体に格納されて提供されるものであってもよく、または有線若しくは無線による通信手段を介して配信されるものであってもよい。   In that case, it is conceivable that predetermined programs necessary for realizing the functions of the database unit 1, the image data analysis unit 3 to the confirmation correction unit 15 are installed in the PC in advance. However, it may be provided by being stored in a computer-readable storage medium instead of being installed in advance, or distributed via wired or wireless communication means. .

(教材処理手順)
次に、以上のように構成された本適用例に係る教材処理装置における自動採点処理の手順の一例について、図3の説明図を参照して説明する。
(Educational material processing procedure)
Next, an example of the procedure of the automatic scoring process in the teaching material processing apparatus according to this application example configured as described above will be described with reference to the explanatory diagram of FIG.

教材処理装置を利用する場合には、先ず、生徒等によって解答者情報欄23への氏名等の情報の記入および解答欄21への解答記入が為され、さらに教師等によって各解答欄21に記入された解答に対する「○」や「×」等の正誤判定の採点記号が記入された教育用教材20について、画像読み取り部2が画像読み取りを行って、その教育用教材20からの画像データを得る(ステップS101)。   When using the teaching material processing apparatus, first, students enter information such as names in the answerer information field 23 and answers in the answer field 21 by students, and further fill in each answer field 21 by a teacher or the like. The image reading unit 2 reads the image of the educational material 20 in which the correctness / incorrectness scoring symbol such as “O” or “×” is written for the answer, and obtains image data from the educational material 20. (Step S101).

このとき、ADFを用いれば、例えば同一学級のような一つのグループに纏めて処理すべき複数の教育用教材20について、一括して画像読み取りを行って、各教育用教材20から連続的に画像データを得ることができる。そして、画像読み取りによって得られた画像データについては、一旦ワークエリアとして用いられるメモリ等に保持しておく。   At this time, if ADF is used, for example, a plurality of educational teaching materials 20 to be processed in one group such as the same class are read in a batch, and images are continuously acquired from the educational teaching materials 20. Data can be obtained. The image data obtained by reading the image is once stored in a memory or the like used as a work area.

その後は、各教育用教材20から得られたそれぞれの画像データに対して、順次、以下のような自動採点処理が行われる(ステップS102)。   Thereafter, the following automatic scoring process is sequentially performed on each image data obtained from each educational material 20 (step S102).

すなわち、ある一つの教育用教材20から得られた画像データについて、画像データ解析部3がその解析処理を行い、その解析処理の結果に基づいて教材判別部4が教育用教材20の識別特定を行う。この識別特定は、例えば「理科」、「5年」、「1.天気と気温の変化」といったタイトル解析または識別情報欄22に埋め込まれたコード情報についてのコード解析を通じて行えばよい。この識別特定を経ることで、教材判別部4において、画像読み取り部2で得られた画像データとの比較対象となる電子データを特定することが可能となる。   That is, the image data analysis unit 3 performs an analysis process on image data obtained from a single educational material 20, and the educational material determination unit 4 identifies and specifies the educational material 20 based on the result of the analysis process. Do. This identification and specification may be performed through title analysis such as “science”, “five years”, “1. change in weather and temperature” or code analysis of code information embedded in the identification information column 22. Through this identification specification, the teaching material determination unit 4 can specify electronic data to be compared with the image data obtained by the image reading unit 2.

なお、この識別特定は、画像読み取り部2が画像読み取りを行った複数の教育用教材20のそれぞれについて順次行うことも考えられるが、一般に一つのグループに纏めて処理される教育用教材20は全て同一のものであるため、その纏めて処理される中で最初に処理される教育用教材20についてのみ行えばよい。   This identification and identification may be performed sequentially for each of the plurality of educational materials 20 from which the image reading unit 2 has read the image, but all the educational materials 20 that are generally processed in one group are all included. Since they are the same, it is only necessary to perform the educational material 20 that is processed first during the batch processing.

教材判別部4が電子データを特定すると、データベース部1は、その特定結果に従いつつ、保持蓄積している中から該当する電子データを取り出して、これを差分抽出部6へ受け渡す。   When the teaching material discriminating unit 4 specifies the electronic data, the database unit 1 takes out the corresponding electronic data from the stored and stored according to the specifying result, and transfers it to the difference extracting unit 6.

また、ある一つの教育用教材20から得られた画像データについては、歪み補正部5がその画像データにおける画像歪みの補正を行う。この画像歪みの補正は、その後に行う電子データとの比較や差分抽出等の精度向上を図ることを目的として、画像読み取り部2での画像読み取りの際に生じ得る画像歪みを補正するために行われる。   For image data obtained from a single educational material 20, the distortion correction unit 5 corrects image distortion in the image data. This image distortion correction is performed in order to correct image distortion that may occur when the image reading unit 2 reads an image for the purpose of improving accuracy such as comparison with electronic data and subsequent difference extraction. Is called.

そして、差分抽出部6は、データベース部1から受け渡された電子データと、画像読み取り部2で得られ、歪み補正部5で画像歪みが補正された後の画像データとをそれぞれ比較して、その差分を抽出する。この差分抽出によって、解答者情報欄23および各解答欄21への記入内容、並びに各解答欄21に対する正誤判定の記入内容が抽出されることになる。   The difference extraction unit 6 compares the electronic data delivered from the database unit 1 with the image data obtained by the image reading unit 2 and corrected for image distortion by the distortion correction unit 5, respectively. The difference is extracted. By this difference extraction, the contents entered in the answerer information field 23 and each answer field 21 and the contents entered for correct / incorrect determination for each answer field 21 are extracted.

差分抽出部6が差分を抽出すると、その後は、解答者抽出部7が、その差分に対する文字認識処理等を通じて、画像読み取り部2で読み取り対象となった教育用教材における解答者情報を抽出する。これにより、ある一つの教育用教材20に解答を記入した解答記入者の学級、出席番号、氏名等を特定することが可能となる。   When the difference extraction unit 6 extracts the difference, the answerer extraction unit 7 thereafter extracts the answerer information in the educational material read by the image reading unit 2 through character recognition processing or the like for the difference. As a result, it is possible to specify the class, attendance number, name, etc. of the person who entered the answer in one educational material 20 for education.

また、差分抽出部6による差分抽出結果に対しては、各解答欄21への正誤判定の記入内容を抽出するために、その差分抽出結果から正誤判定抽出部8がさらに所定色成分についてのもの、具体的には例えば赤色成分のものを抽出する。所定色成分の抽出は、例えば差分抽出結果が画素データからなる場合であれば、その画素データを構成する色成分データに着目することで行うことができる。   Further, for the difference extraction result by the difference extraction unit 6, in order to extract the contents of correct / incorrect determination entry in each answer column 21, the correct / incorrect determination extraction unit 8 further extracts a result for the predetermined color component from the difference extraction result. Specifically, for example, a red component is extracted. The extraction of the predetermined color component can be performed by paying attention to the color component data constituting the pixel data, for example, when the difference extraction result is composed of pixel data.

ただし、一般に、教育用教材20上での「○」や「×」等の正誤判定の図形記入は、問題文、各解答欄21を特定する枠、各解答欄21への解答記入内容等に重ねて行われることが多い。そのため、正誤判定抽出部8による所定色成分の抽出結果は、その重なり部分が除かれたもの、すなわち「○」や「×」等の図形に途切れ部分が生じたものとなるおそれがある。このことから、正誤判定抽出部8による所定色成分の抽出結果に対しては、途切れ補正部9が途切れ補正処理を行う。   However, in general, the correctness / incorrectness graphic entry such as “O” and “X” on the educational material 20 is used for the question sentence, the frame for identifying each answer column 21, the contents of the answer entry in each answer column 21, etc. Often done in layers. Therefore, the extraction result of the predetermined color component by the correctness / error determination extraction unit 8 may be a result of removing the overlapped portion, that is, a discontinuous portion in a figure such as “◯” or “×”. Therefore, the interruption correction unit 9 performs the interruption correction process on the extraction result of the predetermined color component by the correctness / error determination extraction unit 8.

以上は、本発明が適用される教材処理装置の基本的な構成および処理についての説明である。   The above is the description of the basic configuration and processing of the teaching material processing apparatus to which the present invention is applied.

[実施形態]
次に、本発明による画像処理、例えば教材処理装置における自動採点結果の確認・修正の画像処理を行う確認修正部15の具体的な構成および作用について説明する。図4は、本発明の一実施形態に係る画像処理装置としての教材処理装置における確認修正部15の概略構成例を示すブロック図である。
[Embodiment]
Next, a specific configuration and operation of the confirmation / correction unit 15 that performs image processing according to the present invention, for example, image processing for confirmation / correction of automatic scoring results in the teaching material processing apparatus will be described. FIG. 4 is a block diagram illustrating a schematic configuration example of the confirmation correction unit 15 in the teaching material processing apparatus as the image processing apparatus according to the embodiment of the present invention.

図4に示すように、本実施形態に係る確認修正部15は、修正・確認開始指示部41、対象答案決定部42、重畳位置決定部43、重畳部44、表示部45および修正入力部46を有する構成となっている。   As shown in FIG. 4, the confirmation / correction unit 15 according to the present embodiment includes a correction / confirmation start instruction unit 41, a target answer determination unit 42, a superposition position determination unit 43, a superposition unit 44, a display unit 45, and a correction input unit 46. It has composition which has.

なお、図4において、答案情報記憶部51は、図1のデータベース部1の記憶部に相当し、教育用教材(以下、「答案」と記述する)についての答案情報、例えば図2に示す学級、氏名等を手書き記入する解答者情報欄23や、採点結果の得点が手書き記入される得点欄24などの座標情報(位置情報)を記憶保持する。   In FIG. 4, an answer information storage unit 51 corresponds to the storage unit of the database unit 1 of FIG. 1, and answer information about educational materials (hereinafter referred to as “answers”), for example, the class shown in FIG. Coordinate information (position information) such as an answerer information field 23 in which a name and the like are handwritten and a score field 24 in which a score of a scoring result is handwritten is stored.

また、採点結果記憶部52および画像データ記憶部53は、図1のデータベース装置14の記憶部に相当する。そして、採点結果記憶部52は、図1の解答者抽出部7が抽出した解答者情報(学級、氏名、得点等の情報)と関連付けられた採点集計部12による採点集計結果、即ち集計結果出力部13から出力される採点集計結果を記憶保存する。画像データ記憶部53は、画像読み取り部2で読み取られた記入済み文書である採点後の答案の画像データを記憶保存する。   The scoring result storage unit 52 and the image data storage unit 53 correspond to the storage unit of the database device 14 of FIG. Then, the scoring result storage unit 52 outputs the scoring result by the scoring summing part 12 associated with the answerer information extracted by the solver extracting part 7 in FIG. The score totaling result output from the unit 13 is stored and saved. The image data storage unit 53 stores and saves the image data of the answer after the grading, which is a completed document read by the image reading unit 2.

修正・確認開始指示部41は、ユーザによる操作によって自動採点結果の確認・修正開始指示を行う。対象答案決定部42は、修正・確認開始指示部41からの確認・修正開始指示を受けて、自動採点結果の確認・修正を行う対象の答案を、答案情報記憶部51、採点結果記憶部52および画像データ記憶部53に対して指定する。   The correction / confirmation start instruction unit 41 performs an automatic scoring result confirmation / correction start instruction by a user operation. In response to the confirmation / correction start instruction from the correction / confirmation start instruction unit 41, the target answer determination unit 42 determines the answer to be subjected to the automatic scoring result confirmation / correction as an answer information storage unit 51 and a scoring result storage unit 52. And is specified to the image data storage unit 53.

この確認・修正対象の答案指定により、答案情報記憶部51は指定された答案についての答案情報を重畳位置決定部43に対して出力し、採点結果記憶部52は指定された答案についての採点結果を重畳部44に対して出力し、画像データ記憶部53は指定された答案についての画像データを重畳部44に対して出力する。   By specifying the answer to be confirmed / corrected, the answer information storage unit 51 outputs answer information about the specified answer to the superposition position determination unit 43, and the scoring result storage unit 52 scores the result of the specified answer Is output to the superimposing unit 44, and the image data storage unit 53 outputs image data for the designated answer to the superimposing unit 44.

重畳位置決定部43は、答案情報記憶部51から与えられる答案情報に基づいて、採点結果記憶部52から与えられる学級、氏名、得点等の解答者情報や得点情報を表示画面上で、画像データ記憶部53から与えられる答案画像(データ)に重畳する座標位置を決定する。具体的には、答案画像上に手書き記入されている手書き情報の近傍、即ち図2に示す解答者情報欄23や得点欄24の近傍の位置を重畳する座標位置として決定する。   Based on the answer information given from the answer information storage unit 51, the superimposition position determination unit 43 displays the answerer information such as class, name, score, and score information given from the scoring result storage unit 52 on the display screen. A coordinate position to be superimposed on the answer image (data) given from the storage unit 53 is determined. Specifically, the position near the handwritten information handwritten on the answer image, that is, the position near the answerer information field 23 or the score field 24 shown in FIG.

重畳部44は、重畳位置決定部43によって決定された、画像データ記憶部53から与えられる答案画像の座標位置に、採点結果記憶部52から与えられる学級、氏名、得点等の解答者情報や得点情報を重畳する。このとき、図5(A)に示すように、画像で重畳する場合には、採点結果記憶部52から与えられる解答者情報や得点情報をラスタライズ化し、これら解答者情報や得点情報を解答者情報欄23や得点欄24の近傍の位置を重畳するようにすればよい。これにより、解答者情報欄23に手書き記入された解答者情報と、自動採点処理で取得した解答者情報との対比が可能になる。   The superimposing unit 44 determines the answerer information such as the class, name, score, etc. given from the scoring result storage unit 52 to the coordinate position of the answer image given from the image data storage unit 53 determined by the superposition position determining unit 43. Superimpose information. At this time, as shown in FIG. 5A, in the case of superimposing images, the answerer information and the score information given from the scoring result storage unit 52 are rasterized, and the answerer information and the score information are converted into the answerer information. The positions in the vicinity of the column 23 and the score column 24 may be superimposed. As a result, it is possible to compare the answerer information handwritten in the answerer information field 23 with the answerer information acquired by the automatic scoring process.

なお、画像で重畳する場合において、自動採点とは別に、教師等の採点者が採点処理を実施し、その採点結果である得点を、図5(B)に示すように、得点欄24に例えは赤ペンによって手書き記入する場合もある。この場合には、解答者情報欄23に手書き記入された解答者情報と、自動採点処理で取得した解答者情報との対比に加えて、得点欄24に手書き記入された得点情報と、自動採点処理で取得した得点情報との対比が可能になる。   In addition, when superimposing on an image, in addition to automatic scoring, a scoring person such as a teacher performs scoring processing, and the scoring result is compared with the scoring column 24 as shown in FIG. May be handwritten with a red pen. In this case, in addition to the comparison between the answerer information handwritten in the answerer information field 23 and the answerer information acquired in the automatic scoring process, the score information handwritten in the score field 24 and the automatic scoring Comparison with the score information acquired by the processing becomes possible.

画像で重畳する手法の他に、採点結果記憶部52から与えられる解答者情報や得点情報を、図6(A)に示すように、電子付箋化して答案画像に重畳する手法を採ることも可能である。さらには、図6(B)に示すように、採点結果記憶部52から与えられる解答者情報や得点情報を、画像データ記憶部53から与えられる答案画像の領域とは違う領域に表示する手法を採ることも可能である。   In addition to the method of superimposing with an image, it is also possible to adopt a method of converting answerer information and score information given from the scoring result storage unit 52 into an electronic sticky note and superimposing it on the answer image as shown in FIG. It is. Furthermore, as shown in FIG. 6B, a method of displaying the answerer information and the score information given from the scoring result storage unit 52 in a region different from the region of the answer image given from the image data storage unit 53. It is also possible to take.

表示部45は、重畳部44で重畳された答案画像と解答者情報や得点情報とを画面上に表示する。この表示により、ユーザは、生徒等の解答記入者や教師等の採点者によって答案画像に手書き記入されている解答者情報や得点情報と、この手書き記入されている解答者情報や得点情報を図1の解答者抽出部7で抽出することによって取得した解答者情報や得点情報とを対比し、解答者情報の取得結果(図1の手書きOCR部72での認識結果)や自動採点結果に誤りがないか否かを確認することができる。   The display unit 45 displays the answer image superimposed by the superimposing unit 44 and the answerer information and score information on the screen. This display allows the user to display the answerer information and score information handwritten in the answer image by the answerer such as students and the grader such as the teacher, and the answerer information and score information written in handwriting. The answerer information and the score information acquired by the extraction by the answerer extraction unit 1 of 1 are compared, and the acquisition result of the answerer information (recognition result in the handwritten OCR unit 72 in FIG. 1) and the automatic scoring result are incorrect. It can be confirmed whether or not there is.

修正入力部46は、表示部45の表示画面上でのユーザによる自動採点結果の確認の際に、解答者情報の取得結果または自動採点結果に誤りがあった場合に、ユーザによる操作によってその誤りの箇所を修正入力する。その修正結果は、採点結果記憶部52に記憶保存される。   The correction input unit 46, when confirming the automatic scoring result by the user on the display screen of the display unit 45, if there is an error in the acquisition result of the answerer information or the automatic scoring result, the error is caused by the operation by the user. Input the correct part. The correction result is stored and saved in the scoring result storage unit 52.

修正入力部46での修正の際は、所定の表示エリアを修正したり、電子付箋化された情報を修正したりする。また、対となる情報を修正する際は、一方の情報を修正したとき、他方の情報を当該一方の情報の修正に連動させて修正する。例えば、出席番号と氏名とは対の関係にあることから、出席番号(または、氏名)を修正したら氏名(または、出席番号)も連動させて修正する。あるいは、個別の問題(設問)とその配点とは対の関係にあることから、個別の問題の正誤を修正したら、合計点(得点)も連動させて修正する。   At the time of correction by the correction input unit 46, a predetermined display area is corrected, or information that is converted into an electronic tag is corrected. In correcting the paired information, when one information is corrected, the other information is corrected in conjunction with the correction of the one information. For example, since the attendance number and the name are in a pair relationship, when the attendance number (or name) is corrected, the name (or attendance number) is also corrected in conjunction with it. Alternatively, since individual questions (questions) and their scoring are in a pair relationship, if the correctness of individual questions is corrected, the total points (scores) are also corrected.

以上説明した確認修正部15の各構成要素、即ち修正・確認開始指示部41、対象答案決定部42、重畳位置決定部43、重畳部44、表示部45および修正入力部46については、パーソナルコンピュータ(PC)のように、所定プログラムを実行することによって情報記憶処理、画像処理、演算処理等の各機能を実行するコンピュータ機器を利用してソフトウェア構成によって実現することが考えられる。ただし、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成、あるいはハードウェアとソフトウェアの複合構成によって実現することも可能である。   About each component of the confirmation correction part 15 demonstrated above, ie, the correction / confirmation start instruction | indication part 41, the target answer determination part 42, the superimposition position determination part 43, the superimposition part 44, the display part 45, and the correction input part 46, it is a personal computer. It may be realized by a software configuration using a computer device that executes functions such as information storage processing, image processing, and arithmetic processing by executing a predetermined program, such as (PC). However, the present invention is not limited to the implementation by software configuration, and can also be implemented by a hardware configuration or a combined configuration of hardware and software.

ソフトウェア構成によって実現する場合、対象答案決定部42、重畳位置決定部43および重畳部44としてコンピュータを機能させるプログラムが本発明による画像処理プログラムとなる。この場合、修正・確認開始指示部41がマウス等の入力手段に、表示部45がディスプレイに、修正入力部46がキーボード等の入力手段にそれぞれ相当することになる。   When realized by a software configuration, a program that causes a computer to function as the target answer determination unit 42, the superimposition position determination unit 43, and the superposition unit 44 is an image processing program according to the present invention. In this case, the correction / confirmation start instruction unit 41 corresponds to an input unit such as a mouse, the display unit 45 corresponds to a display, and the correction input unit 46 corresponds to an input unit such as a keyboard.

また、以下に説明する自動採点結果の確認・修正処理の処理シーケンスにおける各処理ステップの処理を実行するプログラムが、本発明による画像処理プログラムであるとも言える。そして、これらの画像処理プログラムについては、あらかじめコンピュータ内にインストールしておくことが考えられる。ただし、あらかじめインストールされているのではなく、コンピュータ読み取り可能な記憶媒体に格納されて提供されるものであっても良く、または有線若しくは無線による通信手段を介して配信されるものであっても良い。   It can also be said that the program for executing the processing of each processing step in the processing sequence of the automatic scoring result confirmation / correction processing described below is an image processing program according to the present invention. These image processing programs may be installed in the computer in advance. However, it may be provided by being stored in a computer-readable storage medium instead of being installed in advance, or distributed via wired or wireless communication means. .

次に、本発明による画像処理である自動採点結果の確認・修正処理の手順の一例について、図7のフローチャートを用いて説明する。以下に説明する一連の処理は、コンピュータのプロセッサによる制御の下に実行されることになる。   Next, an example of the procedure of the automatic scoring result confirmation / correction processing, which is image processing according to the present invention, will be described using the flowchart of FIG. A series of processing described below is executed under the control of a computer processor.

自動採点結果の確認・修正処理に当たっては、図4の修正・確認開始指示部41において、ユーザによる操作によって確認・修正の開始指示が行われる。この確認・修正の開始指示がなされると、先ず確認・修正を行う答案を指定する(ステップS11)。このステップS11の処理は、図4の対象答案決定部42の処理に相当する。この答案指定では、例えば、ある学年、ある組の全生徒の答案について確認・修正を行う場合に、例えば出席番号「1」の生徒の答案から順番に指定する処理が行われる。   In the automatic scoring result confirmation / correction process, the correction / confirmation start instruction unit 41 shown in FIG. 4 issues a confirmation / correction start instruction by a user operation. When the confirmation / correction start instruction is given, an answer to be confirmed / corrected is first designated (step S11). The process of step S11 corresponds to the process of the target answer determination unit 42 in FIG. In this answer designation, for example, when checking and correcting the answers of all students in a certain school year and a certain group, for example, a process of designating sequentially from the answer of the student with attendance number “1” is performed.

次に、指定された答案についての答案情報、例えば図2に示す学級、氏名等を手書き記入する解答者情報欄23や、採点結果の得点が手書き記入される得点欄24などの座標情報(位置情報)を答案情報記憶部51から取得し(ステップS12)、次いでこの取得した答案情報に基づいて、学級、氏名、得点等の解答者情報や得点情報などの採点結果を表示画面上で、答案画像に重畳する座標位置を決定する(ステップS13)。このステップS13の処理は、図4の重畳位置決定部43の処理に相当する。   Next, coordinate information (position) such as answer information about the designated answer, for example, the answerer information field 23 in which the class and name shown in FIG. 2 are handwritten and the score field 24 in which the score of the scoring result is handwritten. Information) from the answer information storage unit 51 (step S12), and then, based on the obtained answer information, answerer information such as class, name, score, etc. and scoring results such as score information are displayed on the display screen. A coordinate position to be superimposed on the image is determined (step S13). The process of step S13 corresponds to the process of the overlapping position determination unit 43 in FIG.

次に、決定した答案画像上の座標位置に解答者情報や得点情報などの採点結果を重畳し(ステップS14)、その重畳した情報をディスプレイ(図4の表示部45に相当)に出力する(ステップS15)。このステップS14,S15の処理は、図4の重畳部44の処理に相当する。この処理の結果、例えば図5(A)に示すように、生徒等の解答記入者や教師等の採点者によって答案画像に手書き記入されている解答者情報や得点情報の近傍位置に、採点結果(図1の解答者抽出部7で抽出した解答者情報や得点情報)が表示されることになる。   Next, scoring results such as answerer information and score information are superimposed on the determined coordinate position on the answer image (step S14), and the superimposed information is output to a display (corresponding to the display unit 45 in FIG. 4) ( Step S15). The processes in steps S14 and S15 correspond to the process of the superimposing unit 44 in FIG. As a result of this processing, for example, as shown in FIG. 5 (A), the scoring result is displayed in the vicinity of the answerer information and scoring information handwritten in the answer image by the answerer such as the student or the grader such as the teacher. (Answerer information and score information extracted by the answerer extraction unit 7 in FIG. 1) is displayed.

この表示状態において、ユーザは、生徒等の解答記入者や教師等の採点者によって答案画像に手書き記入されている解答者情報や得点情報と、この手書き記入されている解答者情報や得点情報を図1の解答者抽出部7で抽出することによって取得した解答者情報や得点情報とを対比し、解答者情報の取得結果(図1の手書きOCR部72での認識結果)や自動採点結果に誤りがないか否かを確認する。   In this display state, the user displays the answerer information and score information handwritten in the answer image by the answerer such as students and the grader such as teacher, and the answerer information and score information written in handwriting. The answerer information and score information acquired by extraction by the answerer extraction unit 7 in FIG. 1 are compared with each other to obtain the answerer information acquisition result (recognition result in the handwritten OCR unit 72 in FIG. 1) and the automatic scoring result. Check if there are any errors.

この確認の際に、ユーザによる修正入力があるか否かを判断し(ステップS16)、修正入力があれば、その修正入力に応じて修正箇所を修正する(ステップS17)。次に、修正対象の情報が対となる情報であるか否かを判断し(ステップS18)、修正対象の情報が対となる情報の一方であれば、他方の情報を当該一方の情報の修正に連動させて修正する(ステップS19)。そして、その修正結果をデータベース部である採点結果記憶部52に記憶保存する(ステップS20)。   At the time of this confirmation, it is determined whether or not there is a correction input by the user (step S16). If there is a correction input, the correction portion is corrected according to the correction input (step S17). Next, it is determined whether or not the information to be corrected is a pair of information (step S18). If the information to be corrected is one of the paired information, the other information is corrected to the one information. It is corrected in conjunction with (step S19). And the correction result is memorize | stored and preserve | saved at the scoring result memory | storage part 52 which is a database part (step S20).

以上説明したように、例えば教材処理装置における自動採点システムにおいて、読み取った答案(記入済み文書)の画像を表示画面上に表示する際に、当該答案の手書き記入領域である解答者情報欄23や得点欄24の近傍に、所定の処理(本実施形態では、自動採点処理)の処理結果(採点結果)と答案画像からの取得結果(図1の解答者抽出部7で抽出した解答者情報)を表示することで、当該表示内容を確認するユーザは、答案に実際に手書き記入されている記入情報と、当該答案の画像からの取得結果および採点結果とを対比することができる。   As described above, for example, in an automatic scoring system in a teaching material processing apparatus, when displaying an image of a read answer (completed document) on a display screen, an answerer information column 23 which is a handwritten entry area of the answer In the vicinity of the score column 24, a processing result (scoring result) of a predetermined process (automatic scoring process in the present embodiment) and an acquisition result from the answer image (answerer information extracted by the answerer extraction unit 7 in FIG. 1) By displaying “”, the user who confirms the display content can compare the entry information actually written in the answer with the acquisition result and the scoring result from the image of the answer.

また、図5(B)に示すように、答案の得点欄24に採点結果の得点情報が記入情報として教師等の採点者によって手書き記入されている場合には、ユーザは、この手書きの記入情報である得点情報と自動採点処理による採点結果とに関しても表示画面上で対比することができる。   Further, as shown in FIG. 5B, when the score information of the scoring result is handwritten by the grader such as a teacher in the score column 24 of the answer as entry information, the user can enter the handwritten entry information. The score information and the scoring result by the automatic scoring process can also be compared on the display screen.

このように、実際に手書き記入された記入情報と、その近傍に表示された答案の画像からの取得結果および採点結果とを対比できることにより、ユーザは、答案画像からの取得結果(図1の手書きOCR部72による認識結果)や自動採点による採点結果が正しいのか間違っているのか、あるいはどの箇所に誤りがあるのかを簡単に確認することができるために、間違いがある場合には、対応する箇所を確実に修正することができる。したがって、ユーザ(教師等の採点者)は、答案画像からの取得結果(認識結果)や採点結果をそのまま信用してよいものかどうか迷うようなこともなくなる。   In this way, the user can compare the entry information actually written in handwriting with the acquisition result and scoring result from the image of the answer displayed in the vicinity thereof, so that the user can obtain the acquisition result from the answer image (handwriting in FIG. 1). (Recognition result by the OCR unit 72) and the automatic scoring result is correct or wrong, or in which part there is an error, so if there is an error, the corresponding part Can be reliably corrected. Therefore, the user (scorer such as a teacher) does not get confused as to whether or not the result obtained from the answer image (recognition result) and the scoring result can be trusted as they are.

なお、上記実施形態では、教材処理装置における自動採点システムにおける自動採点結果の確認・修正処理に適用した場合を例に挙げて説明したが、本発明はこの適用例に限られるものではなく、手書き記入領域に手書き記入され、さらに当該手書き記入領域以外の領域に追記情報が追記された記入済み文書と原本文書との比較結果を基に、当該記入済み文書から記入情報を抽出する画像処理全般に対して適用可能である。   In the above embodiment, the case where the present invention is applied to the automatic scoring result confirmation / correction processing in the automatic scoring system in the teaching material processing apparatus has been described as an example. However, the present invention is not limited to this application example, and handwriting is performed. For image processing in general, which extracts entry information from the completed document based on the comparison result between the original document and the completed document that has been handwritten in the entry area and additional information added to the area other than the handwritten entry area. It is applicable to.

その他の適用例として、例えば、アンケート用紙の白紙原本と記入済みアンケート用紙との比較結果を基に、当該記入済みアンケート用紙から「○」や「×」等のチェック記号を抽出し、その抽出結果を基に集計処理を行うアンケート集計システムにおける集計結果の確認・修正処理などが挙げられる。   As another application example, for example, based on the comparison result between a blank questionnaire sheet and a completed questionnaire sheet, a check symbol such as “○” or “×” is extracted from the completed questionnaire sheet, and the extraction result Checking / correcting the counting results in a questionnaire counting system that performs counting processing based on this.

本発明が適用される画像処理装置の基本構成の一例を示すシステム構成図である。1 is a system configuration diagram illustrating an example of a basic configuration of an image processing apparatus to which the present invention is applied. 教育用教材の一具体例を示す説明図である。It is explanatory drawing which shows a specific example of the educational material. 本適用例に係る教材処理装置における自動採点処理の手順の一例についての説明図である。It is explanatory drawing about an example of the procedure of the automatic scoring process in the teaching material processing apparatus which concerns on this application example. 本発明の一実施形態に係る教材処理装置における確認修正部の概略構成例を示すブロック図である。It is a block diagram which shows the example of schematic structure of the confirmation correction part in the teaching material processing apparatus which concerns on one Embodiment of this invention. 答案画像に対して解答者情報や得点情報を重畳して表示する表示例を示す図(その1)である。It is FIG. (1) which shows the example of a display which displays answerer information and score information superimposed on an answer image. 答案画像に対して解答者情報や得点情報を重畳して表示する表示例を示す図(その2)である。It is FIG. (2) which shows the example of a display which displays answerer information and score information superimposed on an answer image. 自動採点結果の確認・修正処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the confirmation / correction process of an automatic scoring result.

符号の説明Explanation of symbols

1…データベース部、2…画像読み取り部、3…画像データ解析部、4…教材判別部、5…歪み補正部、6…差分抽出部、7…解答者抽出部、8…正誤判定抽出部、9…途切れ補正部、10…図形形状認識部、11…記入位置算出部、12…採点集計部、13…集計結果出力部、14…データベース装置、15…確認修正部、20…教育用教材、21…解答欄、22…識別情報欄、23…解答者情報欄、24…得点欄、41…修正・確認開始指示部、42…対象答案決定部、43…重畳位置決定部、44…重畳部、45…表示部、46…修正入力部   DESCRIPTION OF SYMBOLS 1 ... Database part, 2 ... Image reading part, 3 ... Image data analysis part, 4 ... Teaching material discrimination | determination part, 5 ... Distortion correction part, 6 ... Difference extraction part, 7 ... Answerer extraction part, 8 ... Correct / error determination extraction part, DESCRIPTION OF SYMBOLS 9 ... Discontinuation correction | amendment part, 10 ... Graphic shape recognition part, 11 ... Entry position calculation part, 12 ... Score totaling part, 13 ... Counting result output part, 14 ... Database apparatus, 15 ... Confirmation correction part, 20 ... Educational teaching material, DESCRIPTION OF SYMBOLS 21 ... Answer column, 22 ... Identification information column, 23 ... Answerer information column, 24 ... Score column, 41 ... Correction / confirmation start instruction part, 42 ... Target answer determination part, 43 ... Superimposition position determination part, 44 ... Superimposition part 45 ... display unit, 46 ... correction input unit

Claims (6)

原本文書上の手書き記入すべき手書き記入領域の位置情報を記憶する記憶手段と、
前記手書き記入領域に手書き記入され、さらに当該手書き記入領域以外の領域に追記情報が追記された記入済み文書の画像を読み取る読み取り手段と、
前記読み取り手段によって読み取られた前記記入済み文書の画像から前記手書き記入領域の記入情報を取得する取得手段と、
前記記入済み文書に追記された前記追記情報を、当該記入済み文書と前記原本文書との画像の比較結果を基に抽出する抽出手段と、
前記抽出手段によって抽出された前記追記情報に対して所定の処理を行う処理手段と、
前記読み取り手段によって読み取られた前記記入済み文書の画像を表示するとともに、前記記憶手段に記憶されている前記位置情報に基づいて前記手書き記入領域の近傍に前記処理手段による処理結果と前記取得手段による取得結果とを表示する表示手段と
を備えることを特徴とする画像処理装置。
Storage means for storing position information of a handwritten entry area to be handwritten on the original document;
Reading means for reading an image of a completed document that is handwritten in the handwritten entry area and in which additional information is additionally written in an area other than the handwritten entry area;
Obtaining means for obtaining entry information of the handwritten entry area from an image of the completed document read by the reading means;
Extraction means for extracting the additional information added to the completed document based on a comparison result of the images of the completed document and the original document;
Processing means for performing predetermined processing on the additional information extracted by the extraction means;
The image of the completed document read by the reading means is displayed, and the processing result by the processing means and the acquisition means are in the vicinity of the handwritten entry area based on the position information stored in the storage means. An image processing apparatus comprising: display means for displaying an acquisition result.
前記表示手段は、前記処理手段による処理結果と前記取得手段による取得結果とを画像として表示する
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the display unit displays the processing result by the processing unit and the acquisition result by the acquisition unit as images.
前記表示手段は、前記処理手段による処理結果と前記取得手段による取得結果とを電子付箋化して表示する
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the display unit displays the processing result by the processing unit and the acquisition result by the acquisition unit as electronic sticky notes.
前記表示手段は、前記処理手段による処理結果と前記取得手段による取得結果とを前記記入済み文書の画像の領域とは違う領域に表示する
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the display unit displays the processing result by the processing unit and the acquisition result by the acquisition unit in a region different from the region of the image of the completed document.
前記処理手段による処理結果と前記取得手段による取得結果とを修正する修正手段をさらに備え、
前記修正手段は、対となる情報を修正する際に、一方の情報を修正したとき、他方の情報を当該一方の情報の修正に連動させて修正する
ことを特徴とする請求項1記載の画像処理装置。
A correction unit for correcting the processing result by the processing unit and the acquisition result by the acquisition unit;
2. The image according to claim 1, wherein when correcting one piece of information, the correction unit corrects the other information in conjunction with the correction of the one information when correcting the paired information. Processing equipment.
原本文書上の手書き記入すべき手書き記入領域の位置情報を記憶する記憶ステップと、
前記手書き記入領域に手書き記入され、さらに当該手書き記入領域以外の領域に追記情報が追記された記入済み文書の画像を読み取る読み取りステップと、
前記読み取りステップで読み取った前記記入済み文書の画像から前記手書き記入領域の記入情報を取得する取得ステップと、
前記記入済み文書に追記された前記追記情報を、当該記入済み文書と前記原本文書との画像の比較結果を基に抽出する抽出ステップと、
前記抽出ステップで抽出した前記追記情報に対して所定の処理を行う処理ステップと、
前記読み取りステップで読み取った前記記入済み文書の画像を表示するとともに、前記記憶ステップで記憶した前記位置情報に基づいて前記手書き記入領域の近傍に前記処理ステップでの処理結果と前記取得ステップでの取得結果とを表示する表示ステップと
の各処理をコンピュータに実行させることを特徴とする画像処理プログラム。
A storage step for storing position information of a handwritten entry area to be handwritten on the original document;
A reading step of reading an image of a completed document in which handwritten information is written in the handwritten writing area and additional information is additionally written in an area other than the handwritten writing area;
An obtaining step of obtaining entry information of the handwritten entry area from an image of the completed document read in the reading step;
An extraction step of extracting the additional information added to the completed document based on a comparison result of the images of the completed document and the original document;
A processing step of performing a predetermined process on the additional information extracted in the extraction step;
The image of the completed document read in the reading step is displayed, and the processing result in the processing step and the acquisition in the acquisition step in the vicinity of the handwritten writing area based on the position information stored in the storage step An image processing program causing a computer to execute each process of a display step for displaying a result.
JP2006057158A 2006-03-03 2006-03-03 Image processor and image processing program Withdrawn JP2007233888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006057158A JP2007233888A (en) 2006-03-03 2006-03-03 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006057158A JP2007233888A (en) 2006-03-03 2006-03-03 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2007233888A true JP2007233888A (en) 2007-09-13

Family

ID=38554390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006057158A Withdrawn JP2007233888A (en) 2006-03-03 2006-03-03 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2007233888A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077086A (en) * 2007-09-19 2009-04-09 Fuji Xerox Co Ltd Image processor and program
JP2017083664A (en) * 2015-10-28 2017-05-18 一般財団法人電力中央研究所 Training device and training program for predicting danger
CN110490180A (en) * 2019-07-05 2019-11-22 平安国际智慧城市科技股份有限公司 Work correction method, apparatus, storage medium and server based on image recognition
JP2021009708A (en) * 2019-02-15 2021-01-28 日本電気株式会社 Device, system, method, and program for supporting scoring
JP2021068127A (en) * 2019-10-21 2021-04-30 富士ゼロックス株式会社 Document confirmation system and point rating system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077086A (en) * 2007-09-19 2009-04-09 Fuji Xerox Co Ltd Image processor and program
JP2017083664A (en) * 2015-10-28 2017-05-18 一般財団法人電力中央研究所 Training device and training program for predicting danger
JP2021009708A (en) * 2019-02-15 2021-01-28 日本電気株式会社 Device, system, method, and program for supporting scoring
JP7074170B2 (en) 2019-02-15 2022-05-24 日本電気株式会社 Scoring support device, scoring support system, scoring support method and scoring support program
CN110490180A (en) * 2019-07-05 2019-11-22 平安国际智慧城市科技股份有限公司 Work correction method, apparatus, storage medium and server based on image recognition
CN110490180B (en) * 2019-07-05 2022-06-17 平安国际智慧城市科技股份有限公司 Image recognition-based job correction method and device, storage medium and server
JP2021068127A (en) * 2019-10-21 2021-04-30 富士ゼロックス株式会社 Document confirmation system and point rating system

Similar Documents

Publication Publication Date Title
US8794978B2 (en) Educational material processing apparatus, educational material processing method, educational material processing program and computer-readable recording medium
US20150187219A1 (en) Systems and methods for computer-assisted grading of printed tests
KR101648756B1 (en) Examination paper recognition and scoring system
JP4807489B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP4655824B2 (en) Image recognition apparatus, image recognition method, and image recognition program
JP2010152480A (en) Digital marking system
JP2008020506A (en) Image processor and image processing program
JP2007233888A (en) Image processor and image processing program
JP4756447B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP4807487B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP5860488B2 (en) Answer determination system
JP7074170B2 (en) Scoring support device, scoring support system, scoring support method and scoring support program
JP4807486B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
CN113903039A (en) Color-based answer area acquisition method for answer sheet
JP4756456B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP4894195B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP2018136418A (en) Information processing apparatus, program, and information processing method
JP4894184B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP4701918B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP4736595B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP2020013282A (en) Information processing device and program
JP5054284B2 (en) Teaching material processing apparatus, teaching material processing method, and teaching material processing program
JP2007057882A (en) Teaching material processing device, teaching material processing method, and teaching material processing program
JP2007295320A (en) Postscript information processing method, postscript information processing apparatus, and program
JP7263777B2 (en) Answer sheet processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090210

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091009

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100713