JP2011257453A - Learning support device, learning support method using the same, learning support program and recording medium - Google Patents

Learning support device, learning support method using the same, learning support program and recording medium Download PDF

Info

Publication number
JP2011257453A
JP2011257453A JP2010129398A JP2010129398A JP2011257453A JP 2011257453 A JP2011257453 A JP 2011257453A JP 2010129398 A JP2010129398 A JP 2010129398A JP 2010129398 A JP2010129398 A JP 2010129398A JP 2011257453 A JP2011257453 A JP 2011257453A
Authority
JP
Japan
Prior art keywords
image
unit
character
display
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010129398A
Other languages
Japanese (ja)
Inventor
Minako Kuwata
みな子 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010129398A priority Critical patent/JP2011257453A/en
Publication of JP2011257453A publication Critical patent/JP2011257453A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a learning support device, a learning support method using the same, a learning support program and a recording medium which is capable of simplifying an input operation for creating a mask image.SOLUTION: In a learning support device 20, a character recognition section 22 recognizes each character in a document image. A character position recognition section 26 recognizes a character display region on a display screen. In the character display region, each character recognized by the character recognition section 22 is arranged. A position designation input section 27 is for inputting position designation information 40 which designates a position on the display screen. A designated position determining section 28 determines whether or not the designated position by the position designation information 40 is inside the character display region.

Description

本発明は、学習を支援する学習支援装置、これを用いる学習支援方法、学習支援プログラムおよび記録媒体に関する。   The present invention relates to a learning support apparatus that supports learning, a learning support method using the same, a learning support program, and a recording medium.

図17は、従来技術に係る学習支援装置である電子教科書1の構成を表すブロック図である。従来技術に係る学習支援装置として、文書を画像として読取る画像取得部2と、読み込んだ画像を表示する表示部3と、表示部3の上に積層され操作入力を可能とする操作部4と、操作部4への入力操作に基づいて前記表示部3における画像表示をマスクするためのマスクデータを作成するマスクデータ作成手段とを含む電子教科書1が知られる。   FIG. 17 is a block diagram showing the configuration of the electronic textbook 1 which is a learning support apparatus according to the prior art. As a learning support apparatus according to the prior art, an image acquisition unit 2 that reads a document as an image, a display unit 3 that displays the read image, an operation unit 4 that is stacked on the display unit 3 and allows operation input, There is known an electronic textbook 1 including mask data creating means for creating mask data for masking image display on the display unit 3 based on an input operation to the operation unit 4.

この電子教科書1では、操作部4を介して閉曲線を成す図形が入力されると、操作部4に対して押圧によって入力された座標情報は、押圧信号検出部5によって押圧信号として検出される。これによって、閉曲線によって囲繞される領域をマスクするためのマスクデータが、マスクデータ作成手段6によって作成される。この電子教科書1では、画像取得部2によって読取られた画像と、マスクデータ作成手段6によって作成されたマスクデータとが重畳されて表示部3において表示される。   In the electronic textbook 1, when a figure forming a closed curve is input via the operation unit 4, the coordinate information input by pressing the operation unit 4 is detected as a press signal by the press signal detection unit 5. Thus, mask data for masking the area surrounded by the closed curve is created by the mask data creating means 6. In this electronic textbook 1, the image read by the image acquisition unit 2 and the mask data created by the mask data creation unit 6 are superimposed and displayed on the display unit 3.

特開2007−34047号公報JP 2007-34047 A

従来技術における電子教科書1では、マスクされる領域を指定するためには閉曲線が描かれるように入力操作しなければならず、マスクデータ作成手段6に対してマスク領域を指示するための入力作業が煩雑であるという問題点がある。   In the electronic textbook 1 in the prior art, in order to designate a masked area, an input operation must be performed so that a closed curve is drawn, and an input operation for instructing the mask area to the mask data creating means 6 is performed. There is a problem that it is complicated.

本発明の目的は、マスク画像を作成するためのマスク領域の入力作業を単純化することのできる学習支援装置、これを用いる学習支援方法、学習支援プログラムおよび記録媒体を提供することである。   An object of the present invention is to provide a learning support apparatus, a learning support method using the same, a learning support program, and a recording medium that can simplify the mask region input operation for creating a mask image.

本発明は、1または複数の文字が記載される文書を文書画像として読取る画像読取部と、
前記文書画像に含まれる各文字を認識する文字認識部と、
表示画面を有し、前記文書画像を前記表示画面上に表示する表示部と、
前記文字認識部によって認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識部と、
前記表示画面上において位置を指定する位置指定情報を入力するための位置指定入力部と、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定部と、
前記位置指定入力部によって指定された位置が前記文字表示領域に含まれると、前記指定位置判定部によって判定されたときに、前記位置指定情報によって指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識部と、
前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成部と、
前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成部と、
前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御部とを含むことを特徴とする学習支援装置である。
The present invention provides an image reading unit that reads a document in which one or more characters are described as a document image;
A character recognition unit for recognizing each character included in the document image;
A display unit having a display screen and displaying the document image on the display screen;
A character position recognition unit for recognizing an area on the display screen where each character recognized by the character recognition unit is arranged as a character display area;
A position designation input unit for inputting position designation information for designating a position on the display screen;
A designated position determining unit that determines whether or not the position specified by the position specifying information is included in the character display area;
When the position designated by the position designation input unit is included in the character display area, the character display area including the position designated by the position designation information is masked when determined by the designated position determination unit. A mask area recognition unit for recognizing as a mask area to be performed;
A mask image generation unit for generating a mask image for masking the character display area recognized as the mask area;
A superimposed image generating unit that generates a superimposed image formed by superimposing the document image and the mask image;
And a display control unit configured to control the display unit and display the superimposed image on the display unit.

また本発明は、1または複数の前記文書画像と1または複数の前記重畳画像とを記憶する画像記憶部であって、
一文書画像に対応して1または複数の前記マスク画像が前記マスク画像生成部によって生成されたときに、前記1または複数の前記マスク画像が前記一文書画像に重畳されて形成された1または複数の重畳画像と、前記一文書画像とを、互いに関連付けて記憶する画像記憶部をさらに含むことを特徴とする。
The present invention is an image storage unit that stores one or more document images and one or more superimposed images,
One or a plurality of mask images generated by superimposing the one or a plurality of mask images on the one document image when one or a plurality of the mask images are generated by the mask image generation unit corresponding to one document image And an image storage unit that stores the superimposed image and the one document image in association with each other.

また本発明は、前記文書画像および前記重畳画像のうちいずれか1つの画像を選択する選択指令情報を入力するための選択指令入力部をさらに含み、
前記表示制御部は、前記選択指令情報に応じて、前記表示部に、前記選択された文書画像または重畳画像を表示させることを特徴とする。
The present invention further includes a selection command input unit for inputting selection command information for selecting any one of the document image and the superimposed image,
The display control unit displays the selected document image or superimposed image on the display unit in accordance with the selection command information.

また本発明は、前記画像記憶部は、前記文書画像および前記重畳画像のうち前記選択指令情報によって選択された文書画像または重畳画像に、前記選択指令情報によって選択されたことを表す選択履歴情報を付与して記憶することを特徴とする。   According to the present invention, the image storage unit displays selection history information indicating that a document image or a superimposed image selected by the selection command information from the document image and the superimposed image is selected by the selection command information. It is characterized by being given and stored.

また本発明は、日時情報を取得する日時情報取得部をさらに含み、
前記画像記憶部は、前記画像読取部が各文書画像を読取ったときに前記日時情報取得部が取得した日時情報を、読取った前記各文書画像の読取日時情報として記憶し、前記表示部が各文書画像または各重畳画像を表示したときに前記日時情報取得部が取得した日時情報を、表示した前記各文書画像または各重畳画像の表示日時情報として記憶することを特徴とする。
The present invention further includes a date information acquisition unit for acquiring date information,
The image storage unit stores date / time information acquired by the date / time information acquisition unit when the image reading unit reads each document image as reading date / time information of each read document image, and the display unit The date and time information acquired by the date and time information acquisition unit when displaying the document image or each superimposed image is stored as display date and time information of each displayed document image or each superimposed image.

また本発明は、前記選択指令情報の入力によって前記文書画像および前記重畳画像のうちの1つ画像が選択されると、前記選択指令情報の入力が行われたときに前記日時情報取得部が取得した日時情報を現在日時として取得し、前記選択された文書画像の読取日時情報、または前記選択された重畳画像の読取日時情報と、前記現在日時とを比較し、時間的な差分値を算出する時間差算出部をさらに含み、
前記表示制御部は、前記時間差算出部による算出結果が、予め定める時間的な長さ以上であるか否かを判定し、前記時間差算出部による算出結果が予め定める時間的な長さ以上であると判定された場合、
前記選択指令情報が一文書画像を選択する情報であるときには、前記一文書画像に関連付けられる1または複数の重畳画像が前記画像記憶部に記憶されているか否かの情報を取得し、
前記画像記憶部に重畳画像が記憶されていれば、前記重畳画像の1つを前記表示部に表示させ、前記画像記憶部に前記一文書画像に関連付けられる重畳画像が記憶されていなければ、前記一文書画像を表示部に表示させることを特徴とする。
Further, according to the present invention, when one of the document image and the superimposed image is selected by inputting the selection command information, the date / time information acquisition unit acquires when the selection command information is input. The obtained date / time information is acquired as the current date / time, and the reading date / time information of the selected document image or the reading date / time information of the selected superimposed image is compared with the current date / time to calculate a temporal difference value. It further includes a time difference calculator,
The display control unit determines whether the calculation result by the time difference calculation unit is equal to or greater than a predetermined time length, and the calculation result by the time difference calculation unit is equal to or greater than a predetermined time length. Is determined,
When the selection command information is information for selecting one document image, information on whether or not one or a plurality of superimposed images associated with the one document image is stored in the image storage unit;
If a superimposed image is stored in the image storage unit, one of the superimposed images is displayed on the display unit, and if a superimposed image associated with the one document image is not stored in the image storage unit, One document image is displayed on the display unit.

また本発明は、連続して並ぶ前記マスク領域に配置される複数の文字を、一連の文字列として認識する文字列抽出部と、
前記一連の文字列の少なくとも一部の文字を単語として認識する単語認識部と、
前記単語認識部によって認識される単語、および前記単語に関連付けられる関連情報を記憶する関連情報記憶部と、
前記関連情報を表示する関連画像を生成する関連画像生成部とをさらに含み、
前記表示制御部は、前記一連の文字列が配置される文書画像または重畳画像と、前記関連画像とを重畳して表示部に表示させることを特徴とする。
Further, the present invention provides a character string extraction unit that recognizes a plurality of characters arranged in the mask region arranged continuously as a series of character strings;
A word recognition unit for recognizing at least some characters of the series of character strings as words;
A related information storage unit for storing a word recognized by the word recognition unit and related information associated with the word;
A related image generation unit that generates a related image for displaying the related information;
The display control unit superimposes a document image or a superimposed image on which the series of character strings are arranged and the related image to be displayed on the display unit.

また本発明は、前記学習支援装置を用い、
前記画像読取部によって、1または複数の文字が記載される文書を文書画像として読取る画像読取工程と、
前記文字認識部によって、前記文書画像に含まれる各文字を認識する文字認識工程と、
前記表示部によって、前記文書画像を前記表示画面上に表示する表示工程と、
前記文字位置認識部によって、前記文字認識工程において認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識工程と、
前記位置指定入力部によって、前記表示画面上において位置を指定する位置指定情報を入力する位置指定入力工程と、
前記指定位置判定部によって、前記位置指定入力工程において指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定工程と、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれると、前記指定位置判定工程において判定されたときに、前記マスク領域認識部によって、前記位置指定入力工程において指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識工程と、
前記マスク画像生成部によって、前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成工程と、
前記重畳画像生成部によって、前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成工程と、
前記表示制御部によって前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御工程とを含むことを特徴とする学習支援方法である。
The present invention also uses the learning support device,
An image reading step of reading a document in which one or more characters are described as a document image by the image reading unit;
A character recognition step of recognizing each character included in the document image by the character recognition unit;
A display step of displaying the document image on the display screen by the display unit;
A character position recognition step for recognizing an area on the display screen as a character display area in which each character recognized in the character recognition step is arranged by the character position recognition unit;
A position designation input step of inputting position designation information for designating a position on the display screen by the position designation input unit;
A designated position determination step for determining whether or not the position designated in the position designation input step is included in the character display area by the designated position determination unit;
When the position designated by the position designation information is included in the character display area, the position designated in the position designation input process is determined by the mask area recognition unit when determined in the designated position determination process. A mask area recognition step for recognizing the character display area including the mask area to be masked;
A mask image generating step for generating a mask image for masking the character display area recognized as the mask area by the mask image generating unit;
A superimposed image generation step of generating a superimposed image formed by superimposing the document image and the mask image by the superimposed image generation unit;
A display control step of controlling the display unit by the display control unit and displaying the superimposed image on the display unit.

また本発明は、1または複数の文字が記載される文書を文書画像として読取る画像読取部と、表示画面を有し、前記文書画像を前記表示画面上に表示する表示部と、
前記表示画面上において位置を指定する位置指定情報を入力するための位置指定入力部とに接続されたコンピュータを、
前記文書画像に含まれる各文字を認識する文字認識部、
前記文字認識部によって認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識部、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定部、
前記位置指定入力部によって指定された位置が前記文字表示領域に含まれると、前記指定位置判定部によって判定されたときに、前記位置指定情報によって指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識部、
前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成部、
前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成部、および
前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御部として機能させることを特徴とする学習支援プログラムである。
The present invention also includes an image reading unit that reads a document in which one or more characters are described as a document image, a display unit that has a display screen, and displays the document image on the display screen;
A computer connected to a position designation input unit for inputting position designation information for designating a position on the display screen;
A character recognition unit for recognizing each character included in the document image;
A character position recognizing unit that recognizes an area on the display screen where each character recognized by the character recognizing unit is arranged as a character display area;
A designated position determination unit that determines whether or not the position designated by the position designation information is included in the character display area;
When the position designated by the position designation input unit is included in the character display area, the character display area including the position designated by the position designation information is masked when determined by the designated position determination unit. A mask area recognition unit for recognizing as a mask area to be performed,
A mask image generation unit for generating a mask image for masking the character display area recognized as the mask area;
A superimposed image generating unit that generates a superimposed image formed by superimposing the document image and the mask image, and a display control unit that controls the display unit and causes the display unit to display the superimposed image. Is a learning support program characterized by

また本発明は、前記学習支援プログラムが、コンピュータに読取り可能に記録される記録媒体である。   Further, the present invention is a recording medium on which the learning support program is recorded so as to be readable by a computer.

本発明によれば、学習支援装置において文字位置認識部は、文字が配置される表示画面上の領域を、文字表示領域として認識する。文字表示領域には、文字認識部によって認識された各文字が配置される。位置指定入力部は、位置指定情報を入力するための部分であり、位置指定情報は、表示画面上において位置を指定する。指定位置判定部は、位置指定情報によって指定された位置が、文字表示領域に含まれるか否かを判定する。マスク領域認識部は、位置指定情報によって指定された位置が、文字表示領域に含まれると、指定位置判定部によって判定されたときに、位置指定情報によって指定された位置を含む文字表示領域を、マスク領域として認識する。マスク領域は、マスクされるべき領域である。マスク画像生成部は、マスク画像を生成する。マスク画像は、マスク領域として認識された文字表示領域をマスクする。重畳画像生成部は、重畳画像を生成する。重畳画像は、文字画像とマスク画像とが重畳されて形成された画像である。表示制御部は、表示部を制御し、表示部に重畳画像を表示させる。   According to the present invention, in the learning support device, the character position recognition unit recognizes the area on the display screen where the character is arranged as the character display area. Each character recognized by the character recognition unit is arranged in the character display area. The position designation input unit is a part for inputting position designation information, and the position designation information designates a position on the display screen. The designated position determination unit determines whether or not the position designated by the position designation information is included in the character display area. When the position designated by the position designation information is included in the character display area, the mask area recognition unit, when determined by the designated position determination unit, the character display area including the position designated by the position designation information, Recognize as a mask area. The mask area is an area to be masked. The mask image generation unit generates a mask image. The mask image masks the character display area recognized as the mask area. The superimposed image generation unit generates a superimposed image. The superimposed image is an image formed by superimposing a character image and a mask image. The display control unit controls the display unit to display a superimposed image on the display unit.

これによって、位置指定入力部によって指定した位置を含む文字表示領域を、マスク領域として指定することができる。したがって、文字表示領域のうち1点でも指定すれば、その文字表示領域に含まれる文字をマスクするマスク画像を生成することができる。文字表示領域は、文字認識部によって認識されるので、文字表示領域を規定する端の位置は、自動的に認識される。これによって、マスク領域と、これに隣接しマスク領域とは異なる領域との境界線を、直接的に入力するのではなく、隣接する文字表示領域同士の間に、自動的に位置させることができる。したがって、マスクしたい文字列を、他の領域の文字列と区別して囲繞するのではなく、紙面上においてマーカーペンで文字列をなぞるように、マスクしたい文字列を指定することができる。これによって、マスク画像を作成するための入力作業を単純化することができる。   Thereby, the character display area including the position designated by the position designation input unit can be designated as the mask area. Therefore, if at least one point is specified in the character display area, a mask image for masking characters included in the character display area can be generated. Since the character display area is recognized by the character recognition unit, the position of the edge that defines the character display area is automatically recognized. Accordingly, the boundary line between the mask area and the area adjacent to the mask area and different from the mask area can be automatically positioned between the adjacent character display areas instead of directly inputting the boundary line. . Therefore, the character string desired to be masked can be specified so that the character string is traced with the marker pen on the paper, instead of surrounding the character string desired to be masked separately from the character strings in other areas. As a result, the input operation for creating the mask image can be simplified.

また本発明によれば、学習支援装置は、画像記憶部をさらに含んで構成される。画像記憶部は、1または複数の文書画像と1または複数の重畳画像とを記憶する。画像記憶部は、一文書画像に対応して1または複数のマスク画像がマスク画像生成部によって生成されたときに、1または複数のマスク画像が前記一文書画像に重畳されて形成された1または複数の重畳画像と、前記一文書画像とを、互いに関連付けて記憶する。これによって、画像記憶部から繰返して読み出すことによって、文字画像および重畳画像を複数回にわたって表示させることができる。したがって、複数回の確認作業を行うことが可能となり、容易に復習することができ、効果的に学習支援を行うことができる。   According to the present invention, the learning support apparatus further includes an image storage unit. The image storage unit stores one or more document images and one or more superimposed images. The image storage unit is formed by superimposing one or more mask images on the one document image when one or more mask images corresponding to one document image are generated by the mask image generating unit. A plurality of superimposed images and the one document image are stored in association with each other. Accordingly, the character image and the superimposed image can be displayed a plurality of times by repeatedly reading from the image storage unit. Therefore, the confirmation work can be performed a plurality of times, the review can be easily performed, and the learning support can be effectively performed.

また本発明によれば、学習支援装置は、選択指令入力部をさらに含んで構成される。選択指令入力部は、選択指令情報を入力するための部分である。選択指令情報は、文書画像および重畳画像のうちいずれか1つの画像を選択する情報である。表示制御部は、選択指令情報に応じて、表示部に、選択された文書画像または重畳画像を表示させる。これによって、選択指令入力部によって、表示部に、文書画像および重畳画像のいずれかの画像を表示させることができる。したがって、マスク領域においてマスクされる文字を思い出す作業を繰返して行うことができ、効率的に学習を行うことができる。   According to the invention, the learning support device further includes a selection command input unit. The selection command input unit is a portion for inputting selection command information. The selection command information is information for selecting one of the document image and the superimposed image. The display control unit causes the display unit to display the selected document image or superimposed image in accordance with the selection command information. Thus, either the document image or the superimposed image can be displayed on the display unit by the selection command input unit. Therefore, it is possible to repeatedly perform the work of remembering the characters to be masked in the mask area, and to learn efficiently.

また本発明によれば、画像記憶部は、文書画像および重畳画像のうち選択指令情報によって選択された文書画像または重畳画像に、選択履歴情報を付与して記憶する。選択履歴情報は、選択指令情報によって選択されたことを表す。これによって、すでに文書画像および重畳画像の表示が行われた履歴があるか否か、表示回数の計測、および表示が行われた時期などを記録することが可能となる。したがって、表示履歴の有無、表示回数の多少、または表示時期などに応じて文書画像に優先順位を付与することも可能となる。これによって、文書画像および重畳画像の表示順序を、優先順位に応じて変更することが可能となる。したがって、効果的な学習支援を行うことができる。   According to the invention, the image storage unit assigns and stores selection history information to the document image or the superimposed image selected by the selection command information from the document image and the superimposed image. The selection history information indicates that the selection history information is selected. As a result, it is possible to record whether or not there is a history of displaying the document image and the superimposed image, measuring the number of times of display, and the time when the display was performed. Therefore, it is possible to give priority to the document image according to the presence / absence of the display history, the number of display times, or the display time. As a result, the display order of the document image and the superimposed image can be changed according to the priority order. Therefore, effective learning support can be performed.

また本発明によれば、学習支援装置は、日時情報取得部をさらに含み、日時情報取得部は、日時情報を取得する。画像記憶部は、画像読取部が各文書画像を読取ったときに日時情報取得部が取得した日時情報を、読取った各文書画像の読取日時情報として記憶する。また画像記憶部は、表示部が各文書画像または各重畳画像を表示したときに日時情報取得部が取得した日時情報を、表示した各文書画像または各重畳画像の表示日時情報として記憶する。これによって、文書画像として読取りが行われた時期、文書画像または重畳画像が表示された時期に応じて文書画像および重畳画像に優先順位を付与することが可能となる。したがって、文書画像または重畳画像の新旧に応じて表示順序を変更することが可能となる。   According to the invention, the learning support apparatus further includes a date / time information acquisition unit, and the date / time information acquisition unit acquires the date / time information. The image storage unit stores the date and time information acquired by the date and time information acquisition unit when the image reading unit reads each document image as reading date and time information of each read document image. The image storage unit stores the date information acquired by the date information acquisition unit when the display unit displays each document image or each superimposed image as display date information of each displayed document image or each superimposed image. Accordingly, it is possible to give priority to the document image and the superimposed image according to the time when the document image is read and the time when the document image or the superimposed image is displayed. Therefore, it is possible to change the display order according to whether the document image or the superimposed image is old or new.

また本発明によれば、学習支援装置は、時間差算出部をさらに含んで構成される。時間差算出部は、選択指令情報の入力によって文書画像および重畳画像のうちの1つの画像が選択されると、選択指令情報の入力が行われたときに日時情報取得部が取得した日時情報を現在日時として取得する。また時間差算出部は、選択された文書画像の読取日時情報、または選択された重畳画像の読取日時情報と、現在日時とを比較し、時間的な差分値を算出する。表示制御部は、時間差算出部による算出結果が、予め定める時間的な長さ以上であるか否かを判定する。表示制御部は、時間差算出部による算出結果が予め定める時間的な長さ以上であると判定された場合、選択指令情報が一文書画像を選択する情報であるときには、前記一文書画像に関連付けられる1または複数の重畳画像が画像記憶部に記憶されているか否かの情報を取得する。画像記憶部に重畳画像が記憶されていれば、表示制御部は、重畳画像の1つを表示部に表示させる。画像記憶部に、前記一文書画像に関連付けられる重畳画像が記憶されていなければ、前記一文書画像を表示部に表示させる。   According to the present invention, the learning support device further includes a time difference calculation unit. When one of the document image and the superimposed image is selected by the input of the selection command information, the time difference calculation unit obtains the date / time information acquired by the date / time information acquisition unit when the selection command information is input. Get as date and time. The time difference calculation unit compares the reading date / time information of the selected document image or the reading date / time information of the selected superimposed image with the current date / time, and calculates a temporal difference value. The display control unit determines whether the calculation result by the time difference calculation unit is equal to or longer than a predetermined time length. When it is determined that the calculation result by the time difference calculation unit is equal to or longer than a predetermined time length, the display control unit is associated with the one document image when the selection command information is information for selecting one document image. Information on whether or not one or more superimposed images are stored in the image storage unit is acquired. If the superimposed image is stored in the image storage unit, the display control unit causes the display unit to display one of the superimposed images. If the superimposed image associated with the one document image is not stored in the image storage unit, the one document image is displayed on the display unit.

これによって、選択指令情報が一文書画像を選択する情報であるときに、選択された一文書画像が予め定める時間的な長さ以上の時間を隔てた過去に読取られたものであり、かつこの一文書画像について重畳画像が画像記憶部に記憶されていれば、一文書画像の表示よりも重畳画像の表示を優先的に行うことができる。したがって、すでに学習されていて然るべき内容には、マスク画像が重畳された重畳画像による復習学習を優先して支援することができる。   Thus, when the selection command information is information for selecting one document image, the selected one document image is read in the past at a time longer than a predetermined time length, and this If a superimposed image is stored in the image storage unit for one document image, the superimposed image can be displayed with priority over the display of the single document image. Therefore, it is possible to preferentially support review learning using a superimposed image in which a mask image is superimposed on appropriate content that has already been learned.

また本発明によれば、学習支援装置は、文字列抽出部と、単語認識部と、関連情報記憶部と、関連画像生成部とをさらに含んで構成される。文字列抽出部は、連続して並ぶマスク領域に配置される複数の文字を、一連の文字列として認識する。単語認識部は、一連の文字列の少なくとも一部の文字を単語として認識する。関連情報記憶部は、関連情報を記憶する。関連情報は、単語認識部によって認識される単語および前記単語に関連付けられる。関連画像生成部は、関連情報を表示する関連画像を生成する。表示制御部は、一連の文字列が配置される文書画像または重畳画像と、関連画像とを重畳して表示部に表示させる。   According to the present invention, the learning support device further includes a character string extraction unit, a word recognition unit, a related information storage unit, and a related image generation unit. The character string extraction unit recognizes a plurality of characters arranged in a continuously aligned mask area as a series of character strings. The word recognition unit recognizes at least some characters of the series of character strings as words. The related information storage unit stores related information. The related information is associated with the word recognized by the word recognition unit and the word. The related image generation unit generates a related image for displaying related information. The display control unit superimposes the document image or superimposed image on which a series of character strings are arranged and the related image, and causes the display unit to display the superimposed image.

これによって、マスクされた文字列に関連する関連情報を関連画像として表示することができる。したがって、マスクされた文字列を介して、この文字列を含む文字画像とは異なる情報を表示することが可能となる。これによって、効果的な学習支援を行うことができる。   Thereby, the related information related to the masked character string can be displayed as a related image. Therefore, it is possible to display information different from the character image including the character string via the masked character string. Thereby, effective learning support can be performed.

また本発明によれば、学習支援方法において文字位置認識工程では、文字が配置される表示画面上の領域を、文字表示領域として認識する。文字表示領域には、文字認識部によって認識された各文字が配置される。位置指定入力工程では、位置指定情報を入力する工程であり、位置指定情報は、表示画面上において位置を指定する。指定位置判定工程では、位置指定情報によって指定された位置が、文字表示領域に含まれるか否かを判定する。マスク領域認識工程では、位置指定情報によって指定された位置が、文字表示領域に含まれると、指定位置判定部によって判定されたときに、位置指定情報によって指定された位置を含む文字表示領域を、マスク領域として認識する。マスク領域は、マスクされるべき領域である。マスク画像生成工程では、マスク画像を生成する。マスク画像は、マスク領域として認識された文字表示領域をマスクする。重畳画像生成工程では、重畳画像を生成する。重畳画像は、文字画像とマスク画像とが重畳されて形成された画像である。表示制御工程では、表示部を制御し、表示部に重畳画像を表示させる。   According to the present invention, in the character support step in the learning support method, the area on the display screen where the character is arranged is recognized as the character display area. Each character recognized by the character recognition unit is arranged in the character display area. In the position designation input process, position designation information is input, and the position designation information designates a position on the display screen. In the designated position determination step, it is determined whether or not the position designated by the position designation information is included in the character display area. In the mask area recognition step, when the position designated by the position designation information is included in the character display area, the character display area including the position designated by the position designation information is determined by the designated position determination unit, Recognize as a mask area. The mask area is an area to be masked. In the mask image generation step, a mask image is generated. The mask image masks the character display area recognized as the mask area. In the superimposed image generation step, a superimposed image is generated. The superimposed image is an image formed by superimposing a character image and a mask image. In the display control step, the display unit is controlled to display a superimposed image on the display unit.

これによって、位置指定入力工程において指定した位置を含む文字表示領域を、マスク領域として指定することができる。したがって、文字表示領域のうち1点でも指定すれば、その文字表示領域に含まれる文字をマスクするマスク画像を生成することができる。文字表示領域は、文字認識部によって認識されるので、文字表示領域を規定する端の位置は、自動的に認識される。これによって、マスク領域と、これに隣接しマスク領域とは異なる領域との境界線を、直接的に入力するのではなく、隣接する文字表示領域同士の間に、自動的に位置させることができる。したがって、マスクしたい文字列を、他の領域の文字列と区別して囲繞するのではなく、紙面上においてマーカーペンで文字列をなぞるように、マスクしたい文字列を指定することができる。これによって、マスク画像を作成するための入力作業を単純化することができる。   Thereby, the character display area including the position designated in the position designation input process can be designated as the mask area. Therefore, if at least one point is specified in the character display area, a mask image for masking characters included in the character display area can be generated. Since the character display area is recognized by the character recognition unit, the position of the edge that defines the character display area is automatically recognized. Accordingly, the boundary line between the mask area and the area adjacent to the mask area and different from the mask area can be automatically positioned between the adjacent character display areas instead of directly inputting the boundary line. . Therefore, the character string desired to be masked can be specified so that the character string is traced with the marker pen on the paper, instead of surrounding the character string desired to be masked separately from the character strings in other areas. As a result, the input operation for creating the mask image can be simplified.

学習支援プログラムは、コンピュータを、文字認識部、文字位置認識部、位置指定入力部、指定位置判定部、マスク領域認識部、マスク画像生成部、重畳画像生成部、および表示制御部として機能させる。これによって、前記学習支援装置を、コンピュータを含む構成によって実現することができる。   The learning support program causes the computer to function as a character recognition unit, a character position recognition unit, a position designation input unit, a designated position determination unit, a mask area recognition unit, a mask image generation unit, a superimposed image generation unit, and a display control unit. Thus, the learning support device can be realized by a configuration including a computer.

記録媒体には、前記学習支援プログラムが、コンピュータに読取り可能に記録される。これによって、前記学習支援プログラムを、コンピュータに読み取り可能な記録媒体によって提供することができる。   The learning support program is recorded on the recording medium so as to be readable by a computer. Thus, the learning support program can be provided by a computer-readable recording medium.

本発明の第1実施形態に係る学習支援装置20の構成を表すブロック図である。It is a block diagram showing the structure of the learning assistance apparatus 20 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る学習支援方法の各工程を表すフローチャートである。It is a flowchart showing each process of the learning assistance method which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る学習支援装置20の構成を表すブロック図である。It is a block diagram showing the structure of the learning assistance apparatus 20 which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 5th Embodiment of this invention. 本発明の第6実施形態に係る学習支援装置20の構成を表すブロック図である。It is a block diagram showing the structure of the learning assistance apparatus 20 which concerns on 6th Embodiment of this invention. 本発明の第6実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 6th Embodiment of this invention. 本発明の第7実施形態に係る学習支援装置20の構成を表すブロック図である。It is a block diagram showing the structure of the learning assistance apparatus 20 which concerns on 7th Embodiment of this invention. 本発明の第7実施形態において各重畳画像に関連付けられて記憶される蓄積情報の一例である。It is an example of the accumulated information stored in association with each superimposed image in the seventh embodiment of the present invention. 本発明の第1実施形態における表示画面による表示の一例である。It is an example of the display by the display screen in 1st Embodiment of this invention. 本発明の第1実施形態に係る学習支援装置20のマスク情報56の内容である。It is the content of the mask information 56 of the learning assistance apparatus 20 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る学習支援装置20の位置指定情報40の内容である。It is the content of the position specification information 40 of the learning assistance apparatus 20 which concerns on 1st Embodiment of this invention. 本発明の第7実施形態に係る学習支援方法の工程を表すフローチャートである。It is a flowchart showing the process of the learning assistance method which concerns on 7th Embodiment of this invention. 第7実施形態における関連情報記憶部49に記憶される関連情報の一例である。It is an example of the relevant information memorize | stored in the relevant information storage part 49 in 7th Embodiment. 従来技術に係る学習支援装置である電子教科書1の構成を表すブロック図である。It is a block diagram showing the structure of the electronic textbook 1 which is a learning assistance apparatus which concerns on a prior art.

以下、図面を参照しながら、本発明を実施するための複数の形態について説明する。以下の説明においては、各形態に先行する形態ですでに説明している事項に対応している部分には同一の参照符を付し、重複する説明を略す場合がある。構成の一部のみを説明している場合、構成の他の部分は、先行して説明している形態と同様とする。実施の各形態で具体的に説明している部分の組合せばかりではなく、特に組合せに支障が生じなければ、実施の形態同士を部分的に組合せることも可能である。またそれぞれの実施形態は、本発明に係る技術を具体化するために例示するものであり、本発明の技術的範囲を限定するものではない。本発明に係る技術内容は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることが可能である。以下、学習支援装置20、学習支援プログラム、および学習支援方法についての説明を含む。   Hereinafter, a plurality of modes for carrying out the present invention will be described with reference to the drawings. In the following description, parts corresponding to items already described in the forms preceding each form may be denoted by the same reference numerals, and overlapping descriptions may be omitted. When only a part of the configuration is described, the other parts of the configuration are the same as those described in the preceding section. Not only the combination of the parts specifically described in each embodiment, but also the embodiments can be partially combined as long as the combination does not hinder. Moreover, each embodiment is illustrated in order to embody the technique which concerns on this invention, and does not limit the technical scope of this invention. The technical contents according to the present invention can be variously modified within the technical scope described in the claims. Hereinafter, descriptions of the learning support device 20, the learning support program, and the learning support method are included.

(第1実施形態)
図1は、本発明の第1実施形態に係る学習支援装置20の構成を表すブロック図である。第1実施形態に係る学習支援装置20は、文書を文書画像として読取り、文書画像を表示するとともに、文書画像の少なくとも一部をマスクした状態で表示したり、マスクが解除された状態で表示したりすることで、学習を支援する電子装置である。この学習支援装置20では、画像から文字を認識し、文字認識した結果と表示部24の上にポイントされた座標位置情報から指定文字領域を抽出する。さらに指定文字領域をマスクして表示したり、文字認識した結果に関連する情報を合成して表示することを可能とする。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a learning support apparatus 20 according to the first embodiment of the present invention. The learning support apparatus 20 according to the first embodiment reads a document as a document image, displays the document image, displays the document image in a masked state, or displays the document image in a masked state. Or an electronic device that supports learning. In the learning support device 20, a character is recognized from the image, and a designated character region is extracted from the character recognition result and the coordinate position information pointed on the display unit 24. Furthermore, it is possible to display the specified character area while masking it, or to combine and display information related to the result of character recognition.

学習支援装置20は、画像読取部21と、文字認識部22と、表示部24と、文字位置認識部26と、位置指定入力部27と、指定位置判定部28と、マスク領域認識部32と、マスク画像生成部33と、重畳画像生成部34と、表示制御部36とを含んで構成される。画像読取部21は、1または複数の文字が記載される文書を、文書画像として読取る。文字認識部22は、文書画像に含まれる各文字を認識する。表示部24は、表示画面を有し、表示部24は、文書画像を表示画面上に表示する。   The learning support device 20 includes an image reading unit 21, a character recognition unit 22, a display unit 24, a character position recognition unit 26, a position designation input unit 27, a designated position determination unit 28, and a mask area recognition unit 32. The mask image generation unit 33, the superimposed image generation unit 34, and the display control unit 36 are included. The image reading unit 21 reads a document in which one or more characters are described as a document image. The character recognition unit 22 recognizes each character included in the document image. The display unit 24 has a display screen, and the display unit 24 displays a document image on the display screen.

文字位置認識部26は、文字が配置される表示画面上の領域を、文字表示領域として認識する。文字表示領域には、文字認識部22によって認識された各文字が配置される。位置指定入力部27は、位置指定情報40(図14参照)を入力するための部分であり、位置指定情報40は、表示画面上において位置を指定する。指定位置判定部28は、位置指定情報40によって指定された位置が、文字表示領域に含まれるか否かを判定する。   The character position recognition unit 26 recognizes an area on the display screen where the character is arranged as a character display area. Each character recognized by the character recognition unit 22 is arranged in the character display area. The position designation input unit 27 is a part for inputting position designation information 40 (see FIG. 14), and the position designation information 40 designates a position on the display screen. The designated position determination unit 28 determines whether or not the position designated by the position designation information 40 is included in the character display area.

マスク領域認識部32は、位置指定情報40によって指定された位置が、文字表示領域に含まれると、指定位置判定部28によって判定されたときに、位置指定情報40によって指定された位置を含む文字表示領域を、マスク領域として認識する。マスク領域は、マスクされるべき領域である。マスク画像生成部33は、マスク画像を生成する。マスク画像は、マスク領域として認識された文字表示領域をマスクする。重畳画像生成部34は、重畳画像を生成する。重畳画像は、文字画像とマスク画像とが重畳されて形成された画像である。表示制御部36は、表示部24を制御し、表示部24に重畳画像を表示させる。   The mask area recognizing unit 32, when the position designated by the position designation information 40 is determined by the designated position determination unit 28 when the position designated by the position designation information 40 is included in the character display area, the character including the position designated by the position designation information 40 The display area is recognized as a mask area. The mask area is an area to be masked. The mask image generation unit 33 generates a mask image. The mask image masks the character display area recognized as the mask area. The superimposed image generation unit 34 generates a superimposed image. The superimposed image is an image formed by superimposing a character image and a mask image. The display control unit 36 controls the display unit 24 and causes the display unit 24 to display a superimposed image.

画像読取部21は、たとえばスキャナ、カメラなどの画像取得手段である。表示制御部36は、中央処理装置(central processing unit, 略称「CPU」)を含んで実現され、RAM(random access memory)などを含んでもよい。表示部24は、たとえば液晶パネルなどを含んで実現される。位置指定入力部27は、表示部24の表示画面上に添付される透明なシート状の部品を含み、たとえばタッチパネルによって実現されるポインティング装置である。タッチパネルは、押圧されると押圧信号を検知し、押圧された位置の座標を検出し、座標情報として出力する。   The image reading unit 21 is an image acquisition unit such as a scanner or a camera. The display control unit 36 is realized including a central processing unit (abbreviated as “CPU”), and may include a RAM (random access memory) or the like. The display unit 24 is realized including, for example, a liquid crystal panel. The position designation input unit 27 includes a transparent sheet-like component attached on the display screen of the display unit 24, and is a pointing device realized by, for example, a touch panel. When pressed, the touch panel detects a pressing signal, detects the coordinates of the pressed position, and outputs the coordinates as coordinate information.

ただし位置指定入力部27は、タッチパネルに限定するものではなく、たとえばマウス、トラックボール、トラックパッドなどのポインティング装置を用いて実現することも可能である。また表示部24を、光センサを内蔵した液晶パネルとすれば、たとえば手指などを表示画面に近接させて外方からの光を遮蔽することによって、位置情報を入力することができる。   However, the position designation input unit 27 is not limited to the touch panel, and can be realized using a pointing device such as a mouse, a trackball, or a trackpad. If the display unit 24 is a liquid crystal panel with a built-in optical sensor, position information can be input by, for example, bringing a finger or the like close to the display screen to shield light from the outside.

その他、文字認識部22、文字位置認識部26、指定位置判定部28、マスク領域認識部32、マスク画像生成部33、および重畳画像生成部34は、表示制御部36と同様にCPUによって実現される。これらのうち文字認識部22による文字認識は、光学文字認識(optical character reader, 略称「OCR」)などの技術によって実現することができる。またこれによって、文字の姿勢によって文字の上下を判断し、文書画像の上下を判断することもでき、また文書画像内において文字が並ぶ縦方向または横方向など、文字の並ぶ方向を特定することもできる。   In addition, the character recognition unit 22, the character position recognition unit 26, the designated position determination unit 28, the mask area recognition unit 32, the mask image generation unit 33, and the superimposed image generation unit 34 are realized by the CPU in the same manner as the display control unit 36. The Among these, the character recognition by the character recognition unit 22 can be realized by a technique such as optical character reader (abbreviated as “OCR”). In addition, it is possible to determine the top and bottom of the document image based on the character orientation, and to determine the top and bottom of the document image. Also, it is possible to specify the direction in which characters are arranged in the document image, such as the vertical direction or the horizontal direction. it can.

学習支援装置20は、画像記憶部38を含んで構成される。画像記憶部38は、1または複数の文書画像と1または複数の重畳画像とを記憶する。画像記憶部38は、一文書画像に対応して1または複数のマスク画像がマスク画像生成部によって生成されたときに、1または複数のマスク画像が前記一文書画像に重畳されて形成された1または複数の重畳画像と、前記一文書画像とを、互いに関連付けて記憶する。画像記憶部38は、たとえばハードディスクおよびハードディスクドライブ、メモリカードおよびカードリーダなどを含んで実現される。   The learning support device 20 includes an image storage unit 38. The image storage unit 38 stores one or more document images and one or more superimposed images. The image storage unit 38 is formed by superimposing one or a plurality of mask images on the one document image when one or a plurality of mask images are generated by the mask image generation unit corresponding to the one document image. Alternatively, a plurality of superimposed images and the one document image are stored in association with each other. The image storage unit 38 is realized including, for example, a hard disk and a hard disk drive, a memory card, a card reader, and the like.

学習支援装置20は、選択指令入力部39を含んで構成される。選択指令入力部39は、選択指令情報を入力するための部分である。選択指令情報は、文書画像および重畳画像のうちいずれか1つの画像を選択する情報である。表示制御部36は、選択指令情報に応じて、表示部24に、選択された文書画像または重畳画像を表示させる。   The learning support device 20 includes a selection command input unit 39. The selection command input unit 39 is a portion for inputting selection command information. The selection command information is information for selecting one of the document image and the superimposed image. The display control unit 36 causes the display unit 24 to display the selected document image or superimposed image in accordance with the selection command information.

画像記憶部38は、文書画像および重畳画像のうち選択指令情報によって選択された文書画像または重畳画像に、選択履歴情報を付与して記憶する。選択履歴情報は、選択指令情報によって選択されたことを表す。   The image storage unit 38 assigns and stores selection history information to the document image or superimposed image selected by the selection command information from the document image and the superimposed image. The selection history information indicates that the selection history information is selected.

選択指令入力部39は、位置指定入力部27とは異なる、たとえばボタンなどを含んで実現されてもよく、また表示画面中の特定の領域に指示アイコンを表示し、これをポインティング装置によってポイントすることによって、選択指令情報を入力することも可能である。表示制御部36は、画像記憶部38に対して画像呼び出し手段として機能し、画像記憶部38に記憶される情報の検索、取得、転送、などを行い、または表示部24などへの情報の出力を行わせることができる。   The selection command input unit 39 may be realized by including, for example, a button that is different from the position designation input unit 27, and displays an instruction icon in a specific area in the display screen, and points this with a pointing device. Thus, selection command information can be input. The display control unit 36 functions as an image calling unit for the image storage unit 38, and searches, acquires, and transfers information stored in the image storage unit 38, or outputs information to the display unit 24 and the like. Can be performed.

学習支援装置20のうち、文字認識部22、文字位置認識部26、指定位置判定部28、マスク領域認識部32、マスク画像生成部33、重畳画像生成部34および表示制御部36は、コンピュータによって実現され、コンピュータは、画像読取部21と、表示部24と、位置指定入力部27とに接続される。学習支援プログラムは、コンピュータを、文字認識部22、文字位置認識部26、指定位置判定部28、マスク領域認識部32、マスク画像生成部33、重畳画像生成部34および表示制御部36として機能させる。第1実施形態においてこのコンピュータは、さらに画像記憶部38、選択指令入力部39などにも接続される。学習支援プログラムは、コンピュータに読み取り可能な状態で、記録媒体に記録される。これによって記録媒体による供給が可能となる。   Among the learning support devices 20, the character recognition unit 22, the character position recognition unit 26, the designated position determination unit 28, the mask area recognition unit 32, the mask image generation unit 33, the superimposed image generation unit 34, and the display control unit 36 are performed by a computer. The computer is realized and connected to the image reading unit 21, the display unit 24, and the position designation input unit 27. The learning support program causes the computer to function as the character recognition unit 22, the character position recognition unit 26, the designated position determination unit 28, the mask area recognition unit 32, the mask image generation unit 33, the superimposed image generation unit 34, and the display control unit 36. . In the first embodiment, the computer is further connected to an image storage unit 38, a selection command input unit 39, and the like. The learning support program is recorded on a recording medium in a state readable by a computer. As a result, supply by a recording medium becomes possible.

第1実施形態によれば、学習支援装置20において文字位置認識部26は、表示画面上の文字表示領域を認識する。文字表示領域には、文字認識部22によって認識された各文字が配置される。位置指定入力部27は、位置指定情報40を入力するための部分であり、位置指定情報40は、表示画面上において位置を指定する。指定位置判定部28は、位置指定情報40によって指定された位置が、文字表示領域に含まれるか否かを判定する。   According to the first embodiment, the character position recognition unit 26 in the learning support device 20 recognizes the character display area on the display screen. Each character recognized by the character recognition unit 22 is arranged in the character display area. The position designation input unit 27 is a part for inputting the position designation information 40, and the position designation information 40 designates a position on the display screen. The designated position determination unit 28 determines whether or not the position designated by the position designation information 40 is included in the character display area.

マスク領域認識部32は、位置指定情報40によって指定された位置が、文字表示領域に含まれると、指定位置判定部28によって判定されたときに、位置指定情報40によって指定された位置を含む文字表示領域を、マスク領域として認識する。マスク領域は、マスクされるべき領域である。マスク画像生成部33は、マスク画像を生成する。マスク画像は、マスク領域として認識された文字表示領域をマスクする。重畳画像生成部34は、重畳画像を生成する。重畳画像は、文字画像とマスク画像とが重畳されて形成された画像である。表示制御部36は、表示部24を制御し、表示部24に重畳画像を表示させる。   The mask area recognizing unit 32, when the position designated by the position designation information 40 is determined by the designated position determination unit 28 when the position designated by the position designation information 40 is included in the character display area, the character including the position designated by the position designation information 40 The display area is recognized as a mask area. The mask area is an area to be masked. The mask image generation unit 33 generates a mask image. The mask image masks the character display area recognized as the mask area. The superimposed image generation unit 34 generates a superimposed image. The superimposed image is an image formed by superimposing a character image and a mask image. The display control unit 36 controls the display unit 24 and causes the display unit 24 to display a superimposed image.

これによって、位置指定入力部27によって指定した位置を含む文字表示領域を、マスク領域として指定することができる。したがって、文字表示領域のうち1点でも指定すれば、その文字表示領域に含まれる文字をマスクするマスク画像を生成することができる。文字表示領域は、文字認識部22によって認識されるので、文字表示領域を規定する端の位置は、自動的に認識される。   Thereby, the character display area including the position designated by the position designation input unit 27 can be designated as the mask area. Therefore, if at least one point is specified in the character display area, a mask image for masking characters included in the character display area can be generated. Since the character display area is recognized by the character recognition unit 22, the position of the edge that defines the character display area is automatically recognized.

これによって、マスク領域と、これに隣接しマスク領域とは異なる領域との境界線を、直接的に入力するのではなく、隣接する文字表示領域同士の間に、自動的に位置させることができる。したがって、マスクしたい文字列を、他の領域の文字列と区別して囲繞するのではなく、紙面上においてマーカーペンで文字列をなぞるように、マスクしたい文字列を指定することができる。これによって、マスク画像を作成するための入力作業を単純化することができる。   Accordingly, the boundary line between the mask area and the area adjacent to the mask area and different from the mask area can be automatically positioned between the adjacent character display areas instead of directly inputting the boundary line. . Therefore, the character string desired to be masked can be specified so that the character string is traced with the marker pen on the paper, instead of surrounding the character string desired to be masked separately from the character strings in other areas. As a result, the input operation for creating the mask image can be simplified.

また、文字画像において隣接する文字と文字との間隔が狭い場合であっても、文字画像を拡大表示することなく、マスク領域を容易に指定し、マスク画像を生成することができる。したがって、表示画面上に表示される文字が小さい場合、または行間が詰まっている場合などであっても、閉曲線により抽出する必要がない。したがって、複数の文字行を抽出してしまう等、意図しないマスク領域が指定されてしまうことを防止することができる。さらに文字認識を行うので、文字認識結果41(図11(b)および図13(a)参照)の文字コードを利用した処理を行うことも可能となる。   Further, even when the distance between adjacent characters in the character image is narrow, the mask region can be easily specified and the mask image can be generated without enlarging the character image. Therefore, even when the characters displayed on the display screen are small or when the line spacing is clogged, it is not necessary to extract with a closed curve. Therefore, it is possible to prevent an unintended mask area from being designated, such as extracting a plurality of character lines. Furthermore, since character recognition is performed, it is also possible to perform processing using the character code of the character recognition result 41 (see FIG. 11B and FIG. 13A).

また第1実施形態によれば、学習支援装置20は、画像記憶部38をさらに含んで構成される。画像記憶部38は、1または複数の文書画像と1または複数の重畳画像とを記憶する。画像記憶部38は、一文書画像に対応して1または複数のマスク画像がマスク画像生成部によって生成されたときに、1または複数のマスク画像が前記一文書画像に重畳されて形成された1または複数の重畳画像と、前記一文書画像とを、互いに関連付けて記憶する。これによって、画像記憶部38から繰返して読み出すことによって、文字画像および重畳画像を複数回にわたって表示させることができる。したがって、複数回の確認作業を行うことが可能となり、容易に復習することができ、効果的に学習支援を行うことができる。   Further, according to the first embodiment, the learning support device 20 is configured to further include the image storage unit 38. The image storage unit 38 stores one or more document images and one or more superimposed images. The image storage unit 38 is formed by superimposing one or a plurality of mask images on the one document image when one or a plurality of mask images are generated by the mask image generation unit corresponding to the one document image. Alternatively, a plurality of superimposed images and the one document image are stored in association with each other. Accordingly, the character image and the superimposed image can be displayed a plurality of times by repeatedly reading from the image storage unit 38. Therefore, the confirmation work can be performed a plurality of times, the review can be easily performed, and the learning support can be effectively performed.

また第1実施形態によれば、学習支援装置20は、選択指令入力部39をさらに含んで構成される。選択指令入力部39は、選択指令情報を入力するための部分である。選択指令情報は、文書画像および重畳画像のうちいずれか1つの画像を選択する情報である。表示制御部36は、選択指令情報に応じて、表示部24に、選択された文書画像または重畳画像を表示させる。これによって、選択指令入力部39によって、表示部24に、文書画像および重畳画像のいずれかの画像を表示させることができる。したがって、マスク領域においてマスクされる文字を思い出す作業を繰返して行うことができ、効率的に学習を行うことができる。   Further, according to the first embodiment, the learning support device 20 is configured to further include the selection command input unit 39. The selection command input unit 39 is a portion for inputting selection command information. The selection command information is information for selecting one of the document image and the superimposed image. The display control unit 36 causes the display unit 24 to display the selected document image or superimposed image in accordance with the selection command information. As a result, either the document image or the superimposed image can be displayed on the display unit 24 by the selection command input unit 39. Therefore, it is possible to repeatedly perform the work of remembering the characters to be masked in the mask area, and to learn efficiently.

また第1実施形態によれば、画像記憶部38は、文書画像および重畳画像のうち選択指令情報によって選択された文書画像または重畳画像に、選択履歴情報を付与して記憶する。選択履歴情報は、選択指令情報によって選択されたことを表す。これによって、すでに文書画像および重畳画像の表示が行われた履歴があるか否か、表示回数の計測、および表示が行われた時期などを記録することが可能となる。したがって、表示履歴の有無、表示回数の多少、または表示時期などに応じて文書画像に優先順位を付与することも可能となる。これによって、文書画像および重畳画像の表示順序を、優先順位に応じて変更することが可能となる。したがって、効果的な学習支援を行うことができる。   Further, according to the first embodiment, the image storage unit 38 assigns and stores selection history information to the document image or the superimposed image selected by the selection command information from the document image and the superimposed image. The selection history information indicates that the selection history information is selected. As a result, it is possible to record whether or not there is a history of displaying the document image and the superimposed image, measuring the number of times of display, and the time when the display was performed. Therefore, it is possible to give priority to the document image according to the presence / absence of the display history, the number of display times, or the display time. As a result, the display order of the document image and the superimposed image can be changed according to the priority order. Therefore, effective learning support can be performed.

図2は、本発明の第1実施形態に係る学習支援方法の各工程を表すフローチャートである。第1実施形態に係る学習支援方法は、前述した学習支援装置20を用い、学習を支援する方法である。本発明の第1実施形態に係る学習支援方法は、画像読取工程と、文字認識工程と、表示工程と、文字位置認識工程と、位置指定入力工程と、指定位置判定工程と、マスク領域認識工程と、マスク画像生成工程と、重畳画像生成工程と、表示制御工程とを含んで構成される。   FIG. 2 is a flowchart showing each process of the learning support method according to the first embodiment of the present invention. The learning support method according to the first embodiment is a method of supporting learning using the learning support device 20 described above. The learning support method according to the first embodiment of the present invention includes an image reading process, a character recognition process, a display process, a character position recognition process, a position designation input process, a designated position determination process, and a mask area recognition process. And a mask image generation step, a superimposed image generation step, and a display control step.

画像読取工程では、画像読取部21によって、1または複数の文字が記載される文書を、文書画像として読取る。文字認識工程では、文字認識部22によって、文書画像に含まれる各文字を認識する。表示部24には、表示画面が形成される。表示工程では、表示部24によって、文書画像を表示画面上に表示する。文字位置認識工程では、文字位置認識によって、表示画面上の文字表示領域を認識する。文字表示領域には、文字認識部22によって認識された各文字が配置される。   In the image reading step, the image reading unit 21 reads a document in which one or more characters are described as a document image. In the character recognition step, each character included in the document image is recognized by the character recognition unit 22. A display screen is formed on the display unit 24. In the display step, the display unit 24 displays the document image on the display screen. In the character position recognition step, the character display area on the display screen is recognized by character position recognition. Each character recognized by the character recognition unit 22 is arranged in the character display area.

位置指定入力工程では、位置指定入力部27によって、位置指定情報40を入力する。位置指定情報40は、表示画面上において位置を指定する。指定位置判定工程では、指定位置判定部28によって、位置指定入力工程において指定された位置が、文字表示領域に含まれるか否かを判定する。マスク領域認識工程では、マスク領域認識部32によって、位置指定入力工程において指定された位置が、文字表示領域に含まれると、指定位置判定部28によって判定されたときに、位置指定情報40によって指定された位置を含む文字表示領域を、マスク領域として認識する。   In the position designation input process, the position designation information 40 is input by the position designation input unit 27. The position designation information 40 designates a position on the display screen. In the designated position determination step, the designated position determination unit 28 determines whether or not the position designated in the position designation input step is included in the character display area. In the mask area recognition process, when the position designated by the mask area recognition unit 32 in the position designation input process is included in the character display area, it is designated by the position designation information 40 when it is judged by the designated position judgment unit 28. The character display area including the designated position is recognized as a mask area.

マスク領域は、マスクされるべき領域である。マスク画像生成工程では、マスク画像生成部33によって、マスク画像を生成する。マスク画像は、マスク領域として認識された文字表示領域をマスクする。重畳画像生成工程では、重畳画像生成部34によって、重畳画像を生成する。重畳画像は、文字画像とマスク画像とが重畳されて形成された画像である。表示制御工程では、表示制御部36によって、表示部24を制御し、表示部24に重畳画像を表示させる。   The mask area is an area to be masked. In the mask image generation process, the mask image generation unit 33 generates a mask image. The mask image masks the character display area recognized as the mask area. In the superimposed image generation step, the superimposed image generation unit 34 generates a superimposed image. The superimposed image is an image formed by superimposing a character image and a mask image. In the display control step, the display control unit 36 controls the display unit 24 to display a superimposed image on the display unit 24.

本処理開始後、ステップa1の工程に移行し、学習支援を終了するか否かの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。学習支援を終了するとの選択指令情報が入力されれば、本処理を終了する。画像入力を終了しない場合には、次のステップa2の画像読取工程に移行し、文書画像の読取を行う。次にステップa3の文字認識工程に移行し、読み取った文書画像に含まれる文字の認識を行う。次にステップa4の表示工程に移行し、読み取った文書画像の表示を行う。ステップa3の文字認識工程およびステップa4の表示工程は、順序を逆にしてもよい。   After the start of this process, the process proceeds to step a1 to determine whether or not to end the learning support. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. If selection command information for ending learning support is input, this processing is terminated. When the image input is not finished, the process proceeds to the next image reading process at step a2, and the document image is read. Next, the process proceeds to a character recognition process in step a3, where characters included in the read document image are recognized. Next, the process proceeds to the display step of step a4, and the read document image is displayed. The order of the character recognition process in step a3 and the display process in step a4 may be reversed.

次にステップa5の文字位置認識工程に移行し、表示画面上における各文字の位置の認識を行う。これは、各文字に外接する矩形の領域を設定し、矩形を成す4つの頂点のうち少なくとも対角線上の2つの点の座標の検出を行う。このとき、矩形における4つの頂点の座標を検出してもよい。   Next, the process proceeds to a character position recognition process in step a5, where the position of each character on the display screen is recognized. This sets a rectangular area circumscribing each character, and detects the coordinates of at least two points on the diagonal line among the four vertices forming the rectangle. At this time, the coordinates of the four vertices in the rectangle may be detected.

次にステップa6の位置指定入力工程に移行し、位置指定情報40の入力を行う。このとき学習支援装置20では、位置指定情報40の入力が行われたか否かの判断を行い、入力が行われていないとの判断結果であれば、ステップa1の工程に移行する。位置指定情報40の入力が行われた場合には、位置指定情報40によって指定された位置を座標によって表す。次にステップa7の指定位置判定工程に移行し、位置指定情報40によって指定された位置が、表示画面上のいずれかの文字表示領域に含まれる位置であるか否かを判定する。このとき、位置指定情報40によって指定された位置が、表示画面上のいずれの文字表示領域にも含まれないと判定された場合には、ステップa6の位置指定入力工程に移行する。   Next, the process proceeds to the position designation input process of step a6, and the position designation information 40 is input. At this time, the learning support apparatus 20 determines whether or not the position designation information 40 has been input. If the determination result indicates that the input has not been performed, the process proceeds to step a1. When the position designation information 40 is input, the position designated by the position designation information 40 is represented by coordinates. Next, the process proceeds to the designated position determination step of step a7, and it is determined whether or not the position designated by the position designation information 40 is a position included in any one of the character display areas on the display screen. At this time, if it is determined that the position designated by the position designation information 40 is not included in any character display area on the display screen, the process proceeds to the position designation input step of step a6.

指定位置判定工程において、位置指定情報40で指定された位置が、表示画面上のいずれかの文字表示領域に含まれる位置であると判定された場合には、ステップa8のマスク領域認識工程に移行し、この位置を含む文字表示領域を検出し、この文字表示領域をマスク領域として認識する。次にステップa9のマスク画像生成工程に移行し、マスク画像の生成を行う。   In the designated position determining step, when it is determined that the position designated by the position designation information 40 is a position included in any of the character display areas on the display screen, the process proceeds to the mask area recognizing process in step a8. Then, a character display area including this position is detected, and this character display area is recognized as a mask area. Next, the process proceeds to a mask image generation process in step a9, and a mask image is generated.

次にステップa10の重畳画像生成工程に移行し、文字画像とマスク画像とを重畳して、重畳画像を生成する。これは、文字画像とマスク画像とがそれぞれ異なる層であるという情報を維持して重畳画像を生成してもよいし、レイヤーを統合して分離不可能な画像として生成してもよい。次にステップa11の表示制御工程に移行する。第1実施形態において表示制御工程では、表示部24に、重畳画像の表示を行わせる。ステップa11の表示制御工程の後には、ステップa1に移行し、学習支援を終了するのか否かの判断を行い、学習支援を終了するとの選択指令情報が入力されれば、本処理を終了する。   Next, the process proceeds to the superimposed image generation step of step a10, and the superimposed image is generated by superimposing the character image and the mask image. In this case, the superimposed image may be generated while maintaining the information that the character image and the mask image are different layers, or may be generated as an image that cannot be separated by integrating the layers. Next, the process proceeds to the display control step of step a11. In the first embodiment, in the display control step, the display unit 24 displays a superimposed image. After the display control process in step a11, the process proceeds to step a1, where it is determined whether or not the learning support is to be ended. If selection command information for ending the learning support is input, this processing is ended.

これによって、位置指定入力工程において指定した位置を含む文字表示領域を、マスク領域として指定することができる。したがって、文字表示領域のうち1点でも指定すれば、その文字表示領域に含まれる文字をマスクするマスク画像を生成することができる。文字表示領域は、文字認識部22によって認識されるので、文字表示領域を規定する端の位置は、自動的に認識される。   Thereby, the character display area including the position designated in the position designation input process can be designated as the mask area. Therefore, if at least one point is specified in the character display area, a mask image for masking characters included in the character display area can be generated. Since the character display area is recognized by the character recognition unit 22, the position of the edge that defines the character display area is automatically recognized.

これによって、マスク領域と、これに隣接しマスク領域とは異なる領域との境界線を、直接的に入力するのではなく、隣接する文字表示領域同士の間に、自動的に位置させることができる。したがって、マスクしたい文字列を、他の領域の文字列と区別して囲繞するのではなく、紙面上においてマーカーペンで文字列をなぞるように、マスクしたい文字列を指定することができる。これによって、マスク画像を作成するための入力作業を単純化することができる。   Accordingly, the boundary line between the mask area and the area adjacent to the mask area and different from the mask area can be automatically positioned between the adjacent character display areas instead of directly inputting the boundary line. . Therefore, the character string desired to be masked can be specified so that the character string is traced with the marker pen on the paper, instead of surrounding the character string desired to be masked separately from the character strings in other areas. As a result, the input operation for creating the mask image can be simplified.

また、文字画像において隣接する文字と文字との間隔が狭い場合であっても、文字画像を拡大表示することなく、マスク領域を容易に指定し、マスク画像を生成することができる。したがって、表示画面上に表示される文字が小さい場合、または行間が詰まっている場合などであっても、閉曲線により抽出する必要がない。したがって、複数の文字行を抽出してしまう等、意図しないマスク領域が指定されてしまうことを防止することができる。さらに文字認識を行うので、文字認識結果41の文字コードを利用した処理を行うことも可能となる。   Further, even when the distance between adjacent characters in the character image is narrow, the mask region can be easily specified and the mask image can be generated without enlarging the character image. Therefore, even when the characters displayed on the display screen are small or when the line spacing is clogged, it is not necessary to extract with a closed curve. Therefore, it is possible to prevent an unintended mask area from being designated, such as extracting a plurality of character lines. Furthermore, since character recognition is performed, it is possible to perform processing using the character code of the character recognition result 41.

(第2実施形態)
図3は、本発明の第2実施形態に係る学習支援方法の工程を表すフローチャートである。第2実施形態に係る学習支援装置20および学習支援方法は、第1実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第1実施形態に対する第2実施形態の相違点を中心に説明する。
(Second Embodiment)
FIG. 3 is a flowchart showing the steps of the learning support method according to the second embodiment of the present invention. The learning support device 20 and the learning support method according to the second embodiment are similar to the learning support device 20 and the learning support method according to the first embodiment. Hereinafter, the differences of the second embodiment from the first embodiment. The explanation will be focused on.

第2実施形態に係る学習支援方法では、画像読取部21によって読取られる画像、および画像記憶部38に記憶される画像のうち、いずれの画像を表示部24に表示するかを選択することができる。本処理開始後、ステップb1に移行し、画像記憶部38に記憶される画像を読み出すか否かの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。画像記憶部38に記憶される画像を読み出す場合には、ステップb2の蓄積画像表示工程に移行し、選択指令情報によって指定された画像の読み出しを行う。   In the learning support method according to the second embodiment, it is possible to select which image to be displayed on the display unit 24 among the image read by the image reading unit 21 and the image stored in the image storage unit 38. . After the start of this process, the process proceeds to step b1 to determine whether or not to read an image stored in the image storage unit 38. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. When the image stored in the image storage unit 38 is read, the process proceeds to the stored image display process in step b2, and the image specified by the selection command information is read.

蓄積画像表示工程の次には、ステップb3の工程に移行し、画像表示を終了するか否かの判断を行う。この工程でも、選択指令入力部39からの選択指令情報が表示制御部36によって判断され、選択指令情報が画像表示を終了しないことを意味する場合には、画像表示を継続し、画像記憶部38に記憶される画像の表示を続ける。このとき、選択指令情報が、表示中の画像についての表示を終了する指令を意味する場合には、ステップb1に移行する。画像記憶部38に記憶される画像のうちの他の画像への切換えを意味するならば、ステップb1において他の蓄積画像を読み出すものと判断され、それに従って表示を行うことができる。   After the stored image display process, the process proceeds to step b3, where it is determined whether or not to end the image display. Also in this step, if the selection command information from the selection command input unit 39 is judged by the display control unit 36 and the selection command information means that the image display is not finished, the image display is continued and the image storage unit 38 is continued. The display of the image stored in is continued. At this time, if the selection command information means a command to end the display of the image being displayed, the process proceeds to step b1. If it means switching to another image among the images stored in the image storage unit 38, it is determined in step b1 that another accumulated image is read out, and display can be performed accordingly.

ステップb1の工程において、画像記憶部38に記憶される画像を読み出さないと判断された場合には、ステップb4の工程に移行する。ステップb4では、学習支援を終了するのか否かの判断を行う。ステップb4〜ステップb14は、第1実施形態におけるステップa1〜ステップa11の工程と同様である。ステップb14の表示制御工程の後、ステップb15の重畳画像保存判断工程に移行し、重畳画像の保存を行うか否かの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。このとき、重畳画像の保存を行わないと判断されると、ステップb4に移行し、重畳画像の保存を行うと判断されると、次のステップb16の重畳画像保存工程に移行する。   If it is determined in step b1 that the image stored in the image storage unit 38 is not read, the process proceeds to step b4. In step b4, it is determined whether or not to end the learning support. Steps b4 to b14 are the same as the steps a1 to a11 in the first embodiment. After the display control process of step b14, the process proceeds to the superimposed image storage determination process of step b15, and it is determined whether or not to store the superimposed image. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. At this time, if it is determined not to store the superimposed image, the process proceeds to step b4. If it is determined to store the superimposed image, the process proceeds to the superimposed image storing process in the next step b16.

b16の重畳画像保存工程では、重畳画像の画像記憶部38への保存を行う。このとき重畳画像とは別にマスク画像を保存することもできる。各重畳画像および各マスク画像は、1つの文書画像に対応するものであるので、その文書画像と関連付けられた状態で、保存される。ステップb16の重畳画像保存工程の後には、ステップb4に移行し、学習支援を終了するのか否かの判断を行い、学習支援を終了するとの選択指令情報が入力されれば、本処理を終了する。   In the superimposed image storage step b16, the superimposed image is stored in the image storage unit 38. At this time, a mask image can be stored separately from the superimposed image. Since each superimposed image and each mask image correspond to one document image, they are stored in a state associated with the document image. After the superimposed image storing step of step b16, the process proceeds to step b4, where it is determined whether or not the learning support is to be ended, and if the selection command information for ending the learning support is input, this processing is ended. .

(第3実施形態)
図4は、本発明の第3実施形態に係る学習支援方法の工程を表すフローチャートである。第3実施形態に係る学習支援装置20および学習支援方法は、第1実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第1実施形態に対する第3実施形態の相違点を中心に説明する。第3実施形態では、画像記憶部38に記憶された画像の、文書画像および重畳画像のうち、いずれか一方の表示を、選択指令入力部39からの選択指令情報に沿って行う。
(Third embodiment)
FIG. 4 is a flowchart showing the steps of the learning support method according to the third embodiment of the present invention. The learning support device 20 and the learning support method according to the third embodiment are similar to the learning support device 20 and the learning support method according to the first embodiment. Hereinafter, the differences of the third embodiment from the first embodiment. The explanation will be focused on. In the third embodiment, one of the document image and the superimposed image of the image stored in the image storage unit 38 is displayed according to the selection command information from the selection command input unit 39.

本処理開始後、ステップc1に移行し、画像記憶部38に記憶される画像を読み出すか否かの判断を行う。この工程は、第2実施形態におけるステップb1と同様である。このとき、画像記憶部38に記憶される画像を読み出すと判断されると、ステップc2に移行し、文書画像および重畳画像のうちのいずれを表示するのかの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。   After the start of this process, the process proceeds to step c1 to determine whether or not to read an image stored in the image storage unit 38. This process is the same as step b1 in the second embodiment. At this time, if it is determined that the image stored in the image storage unit 38 is to be read, the process proceeds to step c2 to determine which of the document image and the superimposed image is to be displayed. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39.

ここでは、複数の文書画像および複数の重畳画像のうちのいずれか1つを、選択指令情報の入力によって選択してもよいけれども、学習を支援するためには、文書画像を表示した後、これに対応する重畳画像を表示するという順序と、重畳画像を表示した後、これに対応する文書画像を表示するという順序とでは意味が異なるので、別段の指定がない場合には、重畳画像を、文書画像よりも時間的に早く表示する構成とすることが好ましい。   Here, any one of the plurality of document images and the plurality of superimposed images may be selected by inputting the selection command information. However, in order to support learning, after displaying the document image, Since there is a different meaning between the order of displaying the superimposed image corresponding to the image and the order of displaying the document image corresponding to this after displaying the superimposed image, if there is no other designation, the superimposed image is It is preferable to display the document image earlier than the document image.

第3実施形態では、ステップc2において文書画像の表示を行うと判断されると、ステップc3の文書画像表示工程に移行し、文書画像を表示する。ステップc2において重畳画像の表示を行うと判断されると、ステップc4の重畳画像表示工程に移行し、1つの重畳画像の表示の後、この重畳画像において重畳される文書画像の表示を行う。   In the third embodiment, when it is determined in step c2 that the document image is to be displayed, the process proceeds to a document image display process in step c3, and the document image is displayed. If it is determined in step c2 that the superimposed image is to be displayed, the process proceeds to the superimposed image display step in step c4, and after displaying one superimposed image, the document image superimposed on the superimposed image is displayed.

ステップc3およびステップc4の後には、ステップc5の工程に移行し、画像表示を終了するか否かの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。ステップc5の工程において、画像表示を終了しないと判断されると、ステップc2の工程に移行する。ステップc5の工程において、画像表示を終了すると判断されると、本処理を終了する。ステップc1において、画像記憶部38に記憶される画像を読み出さないと判断された場合には、ステップc6に移行し、学習支援を終了するか否かの判断を行う。ステップc6以降の工程は、第2実施形態におけるステップb4以降の工程と同様である。   After step c3 and step c4, the process proceeds to step c5 to determine whether or not to end the image display. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. If it is determined in step c5 that the image display is not finished, the process proceeds to step c2. If it is determined in step c5 that the image display is to be terminated, the present process is terminated. If it is determined in step c1 that the image stored in the image storage unit 38 is not to be read, the process proceeds to step c6 to determine whether or not to end the learning support. The processes after step c6 are the same as the processes after step b4 in the second embodiment.

(第4実施形態)
図5は、本発明の第4実施形態に係る学習支援方法の工程を表すフローチャートである。第4実施形態に係る学習支援装置20および学習支援方法は、第1実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第1実施形態に対する第4実施形態の相違点を中心に説明する。第4実施形態では、文書画像の入力を行った後に、画像記憶部38に記憶された画像の表示を、選択指令入力部39からの選択指令情報に沿って行う。
(Fourth embodiment)
FIG. 5 is a flowchart showing the steps of the learning support method according to the fourth embodiment of the present invention. The learning support apparatus 20 and the learning support method according to the fourth embodiment are similar to the learning support apparatus 20 and the learning support method according to the first embodiment. Hereinafter, the differences of the fourth embodiment from the first embodiment. The explanation will be focused on. In the fourth embodiment, after inputting the document image, the image stored in the image storage unit 38 is displayed along the selection command information from the selection command input unit 39.

本処理開始後、ステップd1に移行し、学習支援を終了するか否かを判断するステップd1〜d10は、第1実施形態のステップa1〜ステップa10と同様である。ステップd10の重畳画像生成工程の後、ステップd11に移行し、文書画像および重畳画像のうちのいずれを表示するのかの判断を行う。ステップd11〜d13は、第3実施形態におけるステップc2〜c4と同様である。ただしステップd11〜d13において取扱われる文書画像および重畳画像は、画像記憶部38には、まだ記憶されていない、画像読取部21によって読み込まれた状態の文書画像およびこれに基づいて作成された重畳画像である。   After the start of this process, the process proceeds to step d1 and steps d1 to d10 for determining whether or not to end the learning support are the same as steps a1 to a10 in the first embodiment. After the superimposed image generation step of step d10, the process proceeds to step d11 to determine which of the document image and the superimposed image is to be displayed. Steps d11 to d13 are the same as steps c2 to c4 in the third embodiment. However, the document image and the superimposed image handled in steps d11 to d13 are not yet stored in the image storage unit 38 and are read by the image reading unit 21 and the superimposed image created based on the document image. It is.

ステップd12の文書画像表示工程およびステップd13の重畳画像表示工程の後には、ステップd14の工程に移行し、ステップd11〜d13において取扱われる文書画像および重畳画像を、画像記憶部38に保存するか否かの判断を行う。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。このとき、保存しないと判断されると、ステップd1に移行し、保存すると判断されると、ステップd15に移行する。ステップd15では、画像読取部21によって読み込まれた状態の文書画像およびこれに基づいて作成された重畳画像を画像記憶部38に保存する。その後、ステップd1に移行する。   After the document image display process in step d12 and the superimposed image display process in step d13, the process proceeds to step d14, and whether or not to store the document image and the superimposed image handled in steps d11 to d13 in the image storage unit 38. Judgment is made. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. At this time, if it is determined not to store, the process proceeds to step d1, and if it is determined to store, the process proceeds to step d15. In step d15, the document image read by the image reading unit 21 and the superimposed image created based on the document image are stored in the image storage unit 38. Thereafter, the process proceeds to step d1.

(第5実施形態)
図6は、本発明の第5実施形態に係る学習支援装置20の構成を表すブロック図である。図7は、本発明の第5実施形態に係る学習支援方法の工程を表すフローチャートである。第5実施形態に係る学習支援装置20および学習支援方法は、第4実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第4実施形態に対する第5実施形態の相違点を中心に説明する。第5実施形態では、文書画像および重畳画像の保存を行うときに、各画像に日時情報を付与して保存する。
(Fifth embodiment)
FIG. 6 is a block diagram showing the configuration of the learning support apparatus 20 according to the fifth embodiment of the present invention. FIG. 7 is a flowchart showing the steps of the learning support method according to the fifth embodiment of the present invention. The learning support device 20 and the learning support method according to the fifth embodiment are similar to the learning support device 20 and the learning support method according to the fourth embodiment. Hereinafter, the differences of the fifth embodiment from the fourth embodiment. The explanation will be focused on. In the fifth embodiment, when saving a document image and a superimposed image, date and time information is assigned to each image and saved.

学習支援装置20は、日時情報取得部42をさらに含み、日時情報取得部42は、日時情報を取得する。画像記憶部38は、画像読取部21が各文書画像を読取ったときに日時情報取得部42が取得した日時情報を、読取った各文書画像の読取日時情報として記憶する。また画像記憶部38は、表示部24が各文書画像または各重畳画像を表示したときに日時情報取得部42が取得した日時情報を、表示した各文書画像または各重畳画像の表示日時情報として記憶する。   The learning support apparatus 20 further includes a date / time information acquisition unit 42, and the date / time information acquisition unit 42 acquires date / time information. The image storage unit 38 stores the date and time information acquired by the date and time information acquisition unit 42 when the image reading unit 21 reads each document image as reading date and time information of each read document image. Further, the image storage unit 38 stores the date information acquired by the date information acquisition unit 42 when the display unit 24 displays each document image or each superimposed image as display date information of each displayed document image or each superimposed image. To do.

本処理開始後、ステップe1に移行し、学習支援を終了するか否かを判断する。ステップe1〜e14は、第4実施形態のステップd1〜d14と同様である。ステップe14において、画像読取部21によって読み込まれた状態の文書画像およびこれに基づいて作成された重畳画像を、画像記憶部38に保存すると判断されると、ステップe15に移行し、日時情報取得部42から現在日時を表す日時情報を取得する。次にステップe16に移行し、文書画像および重畳画像に日時情報を、保存日時として付与し、文書画像および重畳画像とともに記憶する。文書画像については、画像読取部21によって読取りが行われたときに日時情報取得部42から日時方法を取得し、文書画像に、文書画像の読取日時情報として付与し、記憶してもよい。その後、ステップe1に移行する。ステップd14において文書画像または重畳画像を画像記憶部38に保存しないと判断されると、ステップe1に移行する。   After the start of this process, the process proceeds to step e1 to determine whether or not to end the learning support. Steps e1 to e14 are the same as steps d1 to d14 of the fourth embodiment. If it is determined in step e14 that the document image read by the image reading unit 21 and the superimposed image created based on the document image are stored in the image storage unit 38, the process proceeds to step e15, and the date / time information acquisition unit Date / time information representing the current date / time is acquired from 42. Next, the process proceeds to step e16, where the date and time information is given to the document image and the superimposed image as the storage date and stored together with the document image and the superimposed image. As for the document image, a date / time method may be acquired from the date / time information acquisition unit 42 when read by the image reading unit 21, and the document image may be given and stored as reading date / time information of the document image. Thereafter, the process proceeds to step e1. If it is determined in step d14 that the document image or the superimposed image is not stored in the image storage unit 38, the process proceeds to step e1.

第5実施形態において、文字画像入力を行うことに先立って、第3実施形態と同様に、画像記憶部38に記憶される文書画像または重畳画像を表示する構成とすることもできる。この場合には、文書画像として読取りが行われた時期、文書画像または重畳画像が表示された時期に応じて文書画像および重畳画像に優先順位を付与する構成としてもよい。また、文書画像または重畳画像の新旧に応じて表示順序を変更する構成としてもよい。   In the fifth embodiment, prior to inputting a character image, a document image or a superimposed image stored in the image storage unit 38 may be displayed as in the third embodiment. In this case, priority may be given to the document image and the superimposed image according to the time when the document image is read and the time when the document image or the superimposed image is displayed. Further, the display order may be changed according to whether the document image or the superimposed image is new or old.

(第6実施形態)
図8は、本発明の第6実施形態に係る学習支援装置20の構成を表すブロック図である。図9は、本発明の第6実施形態に係る学習支援方法の工程を表すフローチャートである。第6実施形態に係る学習支援装置20および学習支援方法は、第5実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第5実施形態に対する第6実施形態の相違点を中心に説明する。第6実施形態では、文書画像および重畳画像の保存を行うときに、各画像に日時情報を付与して保存し、文書画像または重畳画像の表示を行うときに、文書画像および重畳画像に付与された日時情報に基づいて、表示を制御する。
(Sixth embodiment)
FIG. 8 is a block diagram showing the configuration of the learning support apparatus 20 according to the sixth embodiment of the present invention. FIG. 9 is a flowchart showing the steps of the learning support method according to the sixth embodiment of the present invention. The learning support device 20 and the learning support method according to the sixth embodiment are similar to the learning support device 20 and the learning support method according to the fifth embodiment. Hereinafter, the differences of the sixth embodiment from the fifth embodiment. The explanation will be focused on. In the sixth embodiment, when saving a document image and a superimposed image, the date and time information is assigned to each image and saved, and when the document image or the superimposed image is displayed, it is given to the document image and the superimposed image. The display is controlled based on the date information.

学習支援装置20は、時間差算出部44をさらに含んで構成される。時間差算出部44は、選択指令情報の入力によって文書画像および重畳画像のうちの1つの画像が選択されると、選択指令情報の入力が行われたときに日時情報取得部42が取得した日時情報を現在日時として取得する。また時間差算出部44は、選択された文書画像の読取日時情報、または選択された重畳画像の読取日時情報と、現在日時とを比較し、時間的な差分値を算出する。表示制御部36は、時間差算出部44による算出結果が、予め定める時間的な長さ以上であるか否かを判定する。   The learning support device 20 further includes a time difference calculation unit 44. The time difference calculation unit 44, when one of the document image and the superimposed image is selected by the input of the selection command information, the date information acquired by the date information acquisition unit 42 when the selection command information is input. Is acquired as the current date and time. The time difference calculation unit 44 compares the reading date / time information of the selected document image or the reading date / time information of the selected superimposed image with the current date / time, and calculates a temporal difference value. The display control unit 36 determines whether the calculation result by the time difference calculation unit 44 is equal to or longer than a predetermined time length.

表示制御部36は、時間差算出部44による算出結果が予め定める時間的な長さ以上であると判定された場合、選択指令情報が一文書画像を選択する情報であるときには、前記一文書画像に関連付けられる1または複数の重畳画像が画像記憶部38に記憶されているか否かの情報を取得する。画像記憶部38に重畳画像が記憶されていれば、表示制御部36は、重畳画像の1つを表示部24に表示させる。画像記憶部38に、前記一文書画像に関連付けられる重畳画像が記憶されていなければ、前記一文書画像を表示部24に表示させる。   When it is determined that the calculation result by the time difference calculation unit 44 is equal to or longer than a predetermined time length, the display control unit 36 determines that the one document image is selected when the selection command information is information for selecting one document image. Information about whether or not one or more associated superimposed images are stored in the image storage unit 38 is acquired. If the superimposed image is stored in the image storage unit 38, the display control unit 36 causes the display unit 24 to display one of the superimposed images. If the superimposed image associated with the one document image is not stored in the image storage unit 38, the one document image is displayed on the display unit 24.

時間差算出部44による算出結果が予め定める時間的な長さ未満であると判定された場合、文書画像および重畳画像の表示は、選択指令入力部39からの選択指令情報に従って、表示制御部36が表示部24を制御することによって行われる。時間差算出部44による算出結果が予め定める時間的な長さ以上であると判定され、かつ選択指令情報が重畳画像を選択する情報であるときには、選択指令情報に従って、重畳画像を表示する。時間差算出部44による算出結果が予め定める時間的な長さ以上であると判定され、選択指令情報が一文書画像を選択する情報であり、かつ複数の重畳画像が画像記憶部38に記憶されているときには、たとえば保存日時が現在日時に近い重畳画像を、保存日時が現在日時から遠い重畳画像よりも優先して表示する構成としてもよい。   When it is determined that the calculation result by the time difference calculation unit 44 is less than the predetermined time length, the display control unit 36 displays the document image and the superimposed image according to the selection command information from the selection command input unit 39. This is done by controlling the display unit 24. When it is determined that the calculation result by the time difference calculation unit 44 is equal to or longer than a predetermined time length and the selection command information is information for selecting a superimposed image, the superimposed image is displayed according to the selection command information. It is determined that the calculation result by the time difference calculation unit 44 is greater than or equal to a predetermined time length, the selection command information is information for selecting one document image, and a plurality of superimposed images are stored in the image storage unit 38. For example, a superimposed image having a storage date and time close to the current date and time may be displayed with priority over a superimposed image having a storage date and time far from the current date and time.

本処理開始後、ステップf1に移行し、画像記憶部38に記憶される画像を読み出すか否かの判断を行う。この工程は、第2実施形態におけるステップb1と同様である。このとき、画像記憶部38に記憶される画像を読み出すと判断されると、ステップf2に移行し、保存日時情報が、現在日時から予め定める時間的な長さ以上、前であるか否かを判定する。すなわち、保存日時が予め定める基準よりも古いか否かを判断する。このとき、予め定める定める時間的な長さ未満である、すなわち比較的新しいと判定されたときには、ステップf3に移行し、選択指令情報に応じて文書画像または重畳画像の表示を行う。ステップf2において、予め定める時間的な長さ以上である、すなわち比較的古いと判定されたときには、ステップf4に移行し、重畳画像を優先して表示する。重畳画像を表示した後には、これに対応する文書画像の表示を行ってもよい。   After the start of this process, the process proceeds to step f1 to determine whether or not to read an image stored in the image storage unit 38. This process is the same as step b1 in the second embodiment. At this time, if it is determined that the image stored in the image storage unit 38 is to be read, the process proceeds to step f2, and it is determined whether or not the storage date / time information is more than a predetermined length of time from the current date / time. judge. That is, it is determined whether or not the storage date is older than a predetermined reference. At this time, when it is determined that it is less than a predetermined time length, that is, it is relatively new, the process proceeds to step f3, and a document image or a superimposed image is displayed according to the selection command information. If it is determined in step f2 that the length is equal to or longer than the predetermined time length, that is, it is relatively old, the process proceeds to step f4 to preferentially display the superimposed image. After displaying the superimposed image, a document image corresponding to the superimposed image may be displayed.

ステップf3およびステップf4の後には、ステップf5に移行し、画像表示を終了するか否かを判断する。この工程は、選択指令入力部39からの選択指令情報を表示制御部36が判断することによって行われる。表示制御部36は、選択指令情報として指令信号の入力があることによって終了指令であると判断し、指令信号の入力がないことによって継続指令であると判断してもよい。ステップf5において、画像表示を終しないと判断されると、選択された画像の表示または重畳画像の表示を継続する。ステップf5において画像の表示を終了すると判断され、ステップf1に移行する。   After step f3 and step f4, the process proceeds to step f5 to determine whether or not to end the image display. This step is performed when the display control unit 36 determines selection command information from the selection command input unit 39. The display control unit 36 may determine that the selection command information is an end command when a command signal is input, and may determine that the command is a continuation command when there is no command signal. If it is determined in step f5 that the image display is not finished, the display of the selected image or the superimposed image is continued. In step f5, it is determined that the image display is finished, and the process proceeds to step f1.

ステップf1において画像記憶部38に記憶された画像を表示しないと判断されると、ステップf6に移行する。ステップf6以降は、第5実施形態におけるステップe1以降と同様である。   If it is determined in step f1 that the image stored in the image storage unit 38 is not displayed, the process proceeds to step f6. Step f6 and subsequent steps are the same as step e1 and subsequent steps in the fifth embodiment.

第6実施形態では、選択指令情報が一文書画像を選択する情報であるときに、選択された一文書画像が予め定める時間的な長さよりも長い時間を隔てた過去に読取られたものであり、かつこの一文書画像について重畳画像が画像記憶部38に記憶されていれば、一文書画像の表示よりも重畳画像の表示を優先的に行うことができる。したがって、すでに学習されていて然るべき内容には、マスク画像が重畳された重畳画像による復習学習を優先して支援することができる。   In the sixth embodiment, when the selection command information is information for selecting one document image, the selected one document image is read in the past at a time longer than a predetermined time length. If the superimposed image is stored in the image storage unit 38 for the one document image, the superimposed image can be displayed with priority over the display of the single document image. Therefore, it is possible to preferentially support review learning using a superimposed image in which a mask image is superimposed on appropriate content that has already been learned.

(第7実施形態)
図10は、本発明の第7実施形態に係る学習支援装置20の構成を表すブロック図である。第7実施形態に係る学習支援装置20および学習支援方法は、第6実施形態に係る学習支援装置20および学習支援方法に類似しており、以下、第6実施形態に対する第7実施形態の相違点を中心に説明する。第7実施形態では、文書画像の内容に関連する関連情報を記憶した関連情報記憶部49が設けられ、関連情報に基づく画像表示を行う。
(Seventh embodiment)
FIG. 10 is a block diagram showing the configuration of the learning support apparatus 20 according to the seventh embodiment of the present invention. The learning support device 20 and the learning support method according to the seventh embodiment are similar to the learning support device 20 and the learning support method according to the sixth embodiment. Hereinafter, the differences of the seventh embodiment from the sixth embodiment. The explanation will be focused on. In the seventh embodiment, a related information storage unit 49 that stores related information related to the contents of a document image is provided to display an image based on the related information.

学習支援装置20は、文字列抽出部46と、単語認識部48と、関連情報記憶部49と、関連画像生成部51とをさらに含んで構成される。文字列抽出部46は、連続して並ぶマスク領域に配置される複数の文字を、一連の文字列として認識する。文字列抽出部46によって認識された一連の文字列を「キー文字列」(54)と称することがある。単語認識部48は、一連の文字列の少なくとも一部の文字を単語として認識する。関連情報記憶部49は、関連情報を記憶する。関連情報は、単語認識部48によって認識される単語および前記単語に関連付けられる。関連画像生成部51は、関連情報を表示する関連画像を生成する。表示制御部36は、一連の文字列が配置される文書画像または重畳画像と、関連画像とを重畳して表示部24に表示させる。   The learning support device 20 further includes a character string extraction unit 46, a word recognition unit 48, a related information storage unit 49, and a related image generation unit 51. The character string extraction unit 46 recognizes a plurality of characters arranged in a continuously aligned mask area as a series of character strings. A series of character strings recognized by the character string extraction unit 46 may be referred to as a “key character string” (54). The word recognition unit 48 recognizes at least some characters of the series of character strings as words. The related information storage unit 49 stores related information. The related information is associated with the word recognized by the word recognition unit 48 and the word. The related image generation unit 51 generates a related image for displaying related information. The display control unit 36 causes the display unit 24 to superimpose a document image or superimposed image on which a series of character strings are arranged and a related image.

これによって、マスクされた文字列に関連する関連情報を関連画像として表示することができる。したがって、マスクされた文字列を介して、この文字列を含む文字画像とは異なる情報を表示することが可能となる。これによって、効果的な学習支援を行うことができる。   Thereby, the related information related to the masked character string can be displayed as a related image. Therefore, it is possible to display information different from the character image including the character string via the masked character string. Thereby, effective learning support can be performed.

図11は、本発明の第7実施形態において各重畳画像に関連付けられて記憶される蓄積情報の一例である。また第7実施形態では、単語認識部48は、単語辞書部分52を有する。単語辞書部分52は、1または複数の文字によって表される複数の単語を記憶する。単語認識部48は、表示画面上において連続して並ぶ文字表示領域に配置される複数の文字から、単語辞書部分52に記憶される複数の単語55に基づいて、単語55に一致する単語文字列を認識する。文字列抽出部46によって抽出された一連の文字列が、単語文字列に満たないとき、マスク領域認識部32は、一連の文字列を含む単語文字列の文字表示領域を、マスク領域として認識する。   FIG. 11 is an example of accumulated information stored in association with each superimposed image in the seventh embodiment of the present invention. In the seventh embodiment, the word recognition unit 48 includes a word dictionary portion 52. The word dictionary part 52 stores a plurality of words represented by one or more characters. The word recognition unit 48 is a word character string that matches the word 55 based on a plurality of words 55 stored in the word dictionary portion 52 from a plurality of characters arranged in a character display area continuously arranged on the display screen. Recognize When the series of character strings extracted by the character string extraction unit 46 is less than the word character string, the mask area recognition unit 32 recognizes the character display area of the word character string including the series of character strings as a mask area. .

これによって、マスク領域と、これに隣接しマスク領域とは異なる領域との境界線を、単語55を表す単語文字列と、これに隣接する他の文字列との間に、自動的に位置させることができる。したがって、位置指定入力部27によって指定されたマスク領域から、単語55を成す単語文字列の一部が逸脱している場合にも、逸脱している文字列の一部を、マスクされるべきマスク領域に含むことができる。これによって、単語認識部48によって単語文字列を認識しない場合に比べて、マスク画像を作成するための入力作業を単純化することができる。   Thus, the boundary line between the mask area and the area adjacent to and different from the mask area is automatically positioned between the word character string representing the word 55 and another character string adjacent thereto. be able to. Therefore, even when a part of the word character string constituting the word 55 deviates from the mask area designated by the position designation input unit 27, a part of the deviating character string is masked to be masked. Can be included in the area. Thereby, compared with the case where the word character string is not recognized by the word recognition unit 48, the input work for creating the mask image can be simplified.

また第7実施形態に類似する他の実施形態では、マスク領域認識部32は、文字列抽出部46によって抽出された一連の文字列と、他の一連の文字列とが、予め定める字数以下の、マスク領域とは異なる文字表示領域によって隔てられているか否かを判定してもよい。このとき、予め定める字数以下の文字表示領域によって隔てられていると判定されるならば、マスク領域認識部32は、前記一連の文字列と他の一連の文字列とを隔てている文字表示領域をもマスク領域として認識する。予め定める時数は、たとえば1字または2字などを設定する。   In another embodiment similar to the seventh embodiment, the mask area recognition unit 32 includes a series of character strings extracted by the character string extraction unit 46 and another series of character strings having a predetermined number of characters or less. It may be determined whether or not the character area is separated from the mask area. At this time, if it is determined that the character display areas are separated by a predetermined number of characters or less, the mask area recognition unit 32 separates the series of character strings from the other series of character strings. Is also recognized as a mask region. For example, one character or two characters are set as the predetermined number of hours.

これによって、連続した一連の文字列をマスク領域として指定するときに、指定に漏れがあった場合であっても、指定の漏れを補間して、マスク領域を指定することができる。これによって、補間してマスク領域を指定しない場合に比べて、マスク画像を作成するための入力作業を簡単化することができる。   As a result, when a series of character strings is designated as a mask area, even if there is a omission in the designation, the omission of the designation can be interpolated to designate the mask area. As a result, the input operation for creating the mask image can be simplified as compared with the case where the mask area is not specified by interpolation.

(実施例)
図12は、本発明の第1実施形態における表示画面による表示の一例である。図12(a)にはポインティング装置による位置指定情報40が入力されていない状態を表し、図12(b)にはポインティング装置による位置指定情報40が入力された状態を表している。図12(b)では、「6」,「4」,「5」の文字表示領域がそれぞれ位置指定情報40によって位置指定されている。
(Example)
FIG. 12 is an example of display on the display screen according to the first embodiment of the present invention. FIG. 12A shows a state where the position designation information 40 by the pointing device is not input, and FIG. 12B shows a state where the position designation information 40 by the pointing device is input. In FIG. 12B, the character display areas “6”, “4”, and “5” are respectively designated by the position designation information 40.

図13は、本発明の第1実施形態に係る学習支援装置20のマスク情報56の内容である。図14は、本発明の第1実施形態に係る学習支援装置20の位置指定情報40の内容である。たとえば図13(a)の文字認識結果41であった場合に、マスク情報56は、図13(b)の座標情報となる。マスク情報56は、図12のようにポイントされた座標位置情報が645年の部分の座標つまり図14に示されるような情報であった場合、図13の座標を含む図13(a)の文字認識結果座標を探索し、ポイントされた座標位置情報の座標位置を含む文字認識結果座標をマスク情報56の座標とする。   FIG. 13 shows the contents of the mask information 56 of the learning support apparatus 20 according to the first embodiment of the present invention. FIG. 14 shows the contents of the position designation information 40 of the learning support apparatus 20 according to the first embodiment of the present invention. For example, in the case of the character recognition result 41 in FIG. 13A, the mask information 56 becomes the coordinate information in FIG. 13B. The mask information 56 is the character of FIG. 13A including the coordinates of FIG. 13 when the coordinate position information pointed to as shown in FIG. 12 is the coordinates of the 645 part, that is, the information as shown in FIG. The recognition result coordinates are searched, and the character recognition result coordinates including the coordinate position of the pointed coordinate position information are set as the coordinates of the mask information 56.

図15は、本発明の第7実施形態に係る学習支援方法の工程を表すフローチャートである。本処理開始後、ステップg1に移行し、画像記憶部38に記憶される蓄積画像を読み出すか否かの判断を行う。ステップg1において蓄積画像を読み出すと判断されると、ステップg2に移行する。ステップg2〜g6は、第6実施形態におけるステップf2〜f6と同様である。また第7実施形態におけるステップg6〜g13は、第1実施形態におけるステップa1〜a8と同様である。ステップg13のマスク領域認識工程の後、ステップg14に移行し、マスク領域に位置してマスクされる文字列に関連して記憶される関連情報を検索して抽出し、関連情報記憶部49から読み出す。次にステップg15のマスク画像生成工程に移行する。これは、第1実施形態におけるステップa9と同様である。次にステップg16の関連画像生成工程に移行し関連情報に基づく関連画像を生成する。   FIG. 15 is a flowchart showing the steps of the learning support method according to the seventh embodiment of the present invention. After the start of this process, the process proceeds to step g1, and it is determined whether or not to read the stored image stored in the image storage unit 38. If it is determined in step g1 that the stored image is read, the process proceeds to step g2. Steps g2 to g6 are the same as steps f2 to f6 in the sixth embodiment. Steps g6 to g13 in the seventh embodiment are the same as steps a1 to a8 in the first embodiment. After the mask area recognition step of step g13, the process proceeds to step g14, and related information stored in relation to the character string to be masked located in the mask area is retrieved and read out from the related information storage unit 49. . Next, the process proceeds to a mask image generation process in step g15. This is the same as step a9 in the first embodiment. Next, the process proceeds to the related image generation step of step g16 to generate a related image based on the related information.

次にステップg17の重畳画像生成工程に移行し、重畳画像を生成する。これには、文書画像、マスク画像および関連画像が重畳される。次にステップg18の表示制御工程に移行する。ステップg18のこの工程は、第1実施形態におけるステップa11と同様である。次にステップg19に移行し、ステップg19の次にはステップg20に移行する。ステップg19およびg20は、第3実施形態におけるステップc17およびc18と同様である。   Next, the process proceeds to the superimposed image generation step of step g17 to generate a superimposed image. A document image, a mask image, and a related image are superimposed on this. Next, the process proceeds to the display control step of step g18. This step of step g18 is the same as step a11 in the first embodiment. Next, the process proceeds to step g19, and after step g19, the process proceeds to step g20. Steps g19 and g20 are the same as steps c17 and c18 in the third embodiment.

第7実施形態に係る学習支援方法の、第1〜第6実施形態との最も大きな差異は、ステップg14において、関連情報記憶部49に記憶される関連情報を、検索する工程が追加されることである。ここでは、ステップg13においてマスク領域として認識された領域においてマスクされた文字列をキーワードとして、関連情報記憶部49を検索する。   The biggest difference between the learning support method according to the seventh embodiment and the first to sixth embodiments is that in step g14, a step of searching for related information stored in the related information storage unit 49 is added. It is. Here, the related information storage unit 49 is searched using the character string masked in the area recognized as the mask area in step g13 as a keyword.

図16は、第7実施形態における関連情報記憶部49に記憶される関連情報の一例である。キー文字列54とキー文字列54に関する詳細情報58が対応づけられており、キー文字列54からさらに詳細な情報が抽出できる。たとえば、歴史分野に関する関連情報であれば、たとえば年号から歴史上の事件の詳細情報58が得られたり、歴史上の人物からその人物の肖像画像データが得られたりする。詳細情報58は、キー文字列54の代わりに補間によって補われたマスク領域56の文字列または単語55として単語認識部48に認識された文字列に関連付けられていてもよい。   FIG. 16 is an example of related information stored in the related information storage unit 49 in the seventh embodiment. The key character string 54 and detailed information 58 related to the key character string 54 are associated with each other, and more detailed information can be extracted from the key character string 54. For example, in the case of related information relating to the history field, detailed information 58 on historical events is obtained from the year, for example, and portrait image data of the person is obtained from historical persons. The detailed information 58 may be associated with a character string recognized by the word recognition unit 48 as a character string in the mask area 56 or a word 55 supplemented by interpolation instead of the key character string 54.

これはデータベースではないので、関連情報記憶部49ではなく、画像記憶部38において記憶される。蓄積情報としては、たとえばマスクの座標、画像が保存された保存日時、文書画像と重畳画像との優先順位、および関連情報記憶部49から得られた関連情報などである。文書画像と重畳画像との優先順位については、たとえば「マスク表示ON」で重畳画像の優先度を高く設定することが表され、「マスク表示OFF」で文書画像の優先度を高く設定することが表される。   Since this is not a database, it is stored not in the related information storage unit 49 but in the image storage unit 38. The accumulated information includes, for example, the coordinates of the mask, the storage date and time when the image was stored, the priority order between the document image and the superimposed image, and related information obtained from the related information storage unit 49. Regarding the priority order of the document image and the superimposed image, for example, “mask display ON” indicates that the priority of the superimposed image is set high, and “mask display OFF” indicates that the priority of the document image is set high. expressed.

このような蓄積情報には、さらに最終の表示日時を表す最新閲覧日時情報などが付記されていてもよい。また関連情報記憶部49は、学習支援装置20の外部の記憶装置を、学習支援装置20に接続して利用されるものであってもよい。   Such accumulated information may be additionally appended with the latest browsing date and time information indicating the final display date and time. The related information storage unit 49 may be used by connecting a storage device outside the learning support device 20 to the learning support device 20.

20 学習支援装置
21 画像読取部
22 文字認識部
24 表示部
26 文字位置認識部
27 位置指定入力部
28 指定位置判定部
32 マスク領域認識部
33 マスク画像生成部
34 重畳画像生成部
36 表示制御部
38 画像記憶部
39 選択指令入力部
42 日時情報取得部
44 時間差算出部
46 文字列抽出部
48 単語認識部
49 関連情報記憶部
51 関連画像生成部
52 単語辞書部分
DESCRIPTION OF SYMBOLS 20 Learning support apparatus 21 Image reading part 22 Character recognition part 24 Display part 26 Character position recognition part 27 Position designation input part 28 Designated position determination part 32 Mask area recognition part 33 Mask image generation part 34 Superimposed image generation part 36 Display control part 38 Image storage unit 39 Selection command input unit 42 Date and time information acquisition unit 44 Time difference calculation unit 46 Character string extraction unit 48 Word recognition unit 49 Related information storage unit 51 Related image generation unit 52 Word dictionary portion

Claims (10)

1または複数の文字が記載される文書を文書画像として読取る画像読取部と、
前記文書画像に含まれる各文字を認識する文字認識部と、
表示画面を有し、前記文書画像を前記表示画面上に表示する表示部と、
前記文字認識部によって認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識部と、
前記表示画面上において位置を指定する位置指定情報を入力するための位置指定入力部と、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定部と、
前記位置指定入力部によって指定された位置が前記文字表示領域に含まれると、前記指定位置判定部によって判定されたときに、前記位置指定情報によって指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識部と、
前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成部と、
前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成部と、
前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御部とを含むことを特徴とする学習支援装置。
An image reading unit that reads a document in which one or more characters are described as a document image;
A character recognition unit for recognizing each character included in the document image;
A display unit having a display screen and displaying the document image on the display screen;
A character position recognition unit for recognizing an area on the display screen where each character recognized by the character recognition unit is arranged as a character display area;
A position designation input unit for inputting position designation information for designating a position on the display screen;
A designated position determining unit that determines whether or not the position specified by the position specifying information is included in the character display area;
When the position designated by the position designation input unit is included in the character display area, the character display area including the position designated by the position designation information is masked when determined by the designated position determination unit. A mask area recognition unit for recognizing as a mask area to be performed;
A mask image generation unit for generating a mask image for masking the character display area recognized as the mask area;
A superimposed image generating unit that generates a superimposed image formed by superimposing the document image and the mask image;
And a display control unit that controls the display unit and causes the display unit to display the superimposed image.
1または複数の前記文書画像と1または複数の前記重畳画像とを記憶する画像記憶部であって、
一文書画像に対応して1または複数の前記マスク画像が前記マスク画像生成部によって生成されたときに、前記1または複数の前記マスク画像が前記一文書画像に重畳されて形成された1または複数の重畳画像と、前記一文書画像とを、互いに関連付けて記憶する画像記憶部をさらに含むことを特徴とする請求項1に記載の学習支援装置。
An image storage unit that stores one or more document images and one or more superimposed images,
One or a plurality of mask images generated by superimposing the one or a plurality of mask images on the one document image when one or a plurality of the mask images are generated by the mask image generation unit corresponding to one document image The learning support apparatus according to claim 1, further comprising an image storage unit that stores the superimposed image and the one document image in association with each other.
前記文書画像および前記重畳画像のうちいずれか1つの画像を選択する選択指令情報を入力するための選択指令入力部をさらに含み、
前記表示制御部は、前記選択指令情報に応じて、前記表示部に、前記選択された文書画像または重畳画像を表示させることを特徴とする請求項2に記載の学習支援装置。
A selection command input unit for inputting selection command information for selecting any one of the document image and the superimposed image;
The learning support apparatus according to claim 2, wherein the display control unit causes the display unit to display the selected document image or superimposed image in accordance with the selection command information.
前記画像記憶部は、前記文書画像および前記重畳画像のうち前記選択指令情報によって選択された文書画像または重畳画像に、前記選択指令情報によって選択されたことを表す選択履歴情報を付与して記憶することを特徴とする請求項3に記載の学習支援装置。   The image storage unit assigns and stores selection history information indicating that a document image or a superimposed image selected by the selection command information from the document image and the superimposed image is selected by the selection command information. The learning support apparatus according to claim 3. 日時情報を取得する日時情報取得部をさらに含み、
前記画像記憶部は、前記画像読取部が各文書画像を読取ったときに前記日時情報取得部が取得した日時情報を、読取った前記各文書画像の読取日時情報として記憶し、前記表示部が各文書画像または各重畳画像を表示したときに前記日時情報取得部が取得した日時情報を、表示した前記各文書画像または各重畳画像の表示日時情報として記憶することを特徴とする請求項3または4に記載の学習支援装置。
A date and time information acquisition unit for acquiring date and time information;
The image storage unit stores date / time information acquired by the date / time information acquisition unit when the image reading unit reads each document image as reading date / time information of each read document image, and the display unit 5. The date and time information acquired by the date and time information acquisition unit when a document image or each superimposed image is displayed is stored as display date and time information of each displayed document image or each superimposed image. The learning support apparatus according to 1.
前記選択指令情報の入力によって前記文書画像および前記重畳画像のうちの1つ画像が選択されると、前記選択指令情報の入力が行われたときに前記日時情報取得部が取得した日時情報を現在日時として取得し、前記選択された文書画像の読取日時情報、または前記選択された重畳画像の読取日時情報と、前記現在日時とを比較し、時間的な差分値を算出する時間差算出部をさらに含み、
前記表示制御部は、前記時間差算出部による算出結果が、予め定める時間的な長さ以上であるか否かを判定し、前記時間差算出部による算出結果が予め定める時間的な長さ以上であると判定された場合、
前記選択指令情報が一文書画像を選択する情報であるときには、前記一文書画像に関連付けられる1または複数の重畳画像が前記画像記憶部に記憶されているか否かの情報を取得し、
前記画像記憶部に重畳画像が記憶されていれば、前記重畳画像の1つを前記表示部に表示させ、前記画像記憶部に前記一文書画像に関連付けられる重畳画像が記憶されていなければ、前記一文書画像を表示部に表示させることを特徴とする請求項5に記載の学習支援装置。
When one of the document image and the superimposed image is selected by inputting the selection command information, the date / time information acquired by the date / time information acquisition unit when the selection command information is input is A time difference calculating unit that acquires the date and time, compares the reading date and time information of the selected document image or the reading date and time information of the selected superimposed image and the current date and time, and calculates a temporal difference value; Including
The display control unit determines whether the calculation result by the time difference calculation unit is equal to or greater than a predetermined time length, and the calculation result by the time difference calculation unit is equal to or greater than a predetermined time length. Is determined,
When the selection command information is information for selecting one document image, information on whether or not one or a plurality of superimposed images associated with the one document image is stored in the image storage unit;
If a superimposed image is stored in the image storage unit, one of the superimposed images is displayed on the display unit, and if a superimposed image associated with the one document image is not stored in the image storage unit, The learning support apparatus according to claim 5, wherein one document image is displayed on the display unit.
連続して並ぶ前記マスク領域に配置される複数の文字を、一連の文字列として認識する文字列抽出部と、
前記一連の文字列の少なくとも一部の文字を単語として認識する単語認識部と、
前記単語認識部によって認識される単語、および前記単語に関連付けられる関連情報を記憶する関連情報記憶部と、
前記関連情報を表示する関連画像を生成する関連画像生成部とをさらに含み、
前記表示制御部は、前記一連の文字列が配置される文書画像または重畳画像と、前記関連画像とを重畳して表示部に表示させることを特徴とする請求項1〜6のいずれか1つに記載の学習支援装置。
A character string extraction unit for recognizing a plurality of characters arranged in the mask region continuously arranged as a series of character strings;
A word recognition unit for recognizing at least some characters of the series of character strings as words;
A related information storage unit for storing a word recognized by the word recognition unit and related information associated with the word;
A related image generation unit that generates a related image for displaying the related information;
The display control unit causes the display unit to superimpose a document image or a superimposed image on which the series of character strings are arranged and the related image to be displayed on the display unit. The learning support apparatus according to 1.
請求項1〜7のいずれか1つに記載の学習支援装置を用い、
前記画像読取部によって、1または複数の文字が記載される文書を文書画像として読取る画像読取工程と、
前記文字認識部によって、前記文書画像に含まれる各文字を認識する文字認識工程と、
前記表示部によって、前記文書画像を前記表示画面上に表示する表示工程と、
前記文字位置認識部によって、前記文字認識工程において認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識工程と、
前記位置指定入力部によって、前記表示画面上において位置を指定する位置指定情報を入力する位置指定入力工程と、
前記指定位置判定部によって、前記位置指定入力工程において指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定工程と、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれると、前記指定位置判定工程において判定されたときに、前記マスク領域認識部によって、前記位置指定入力工程において指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識工程と、
前記マスク画像生成部によって、前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成工程と、
前記重畳画像生成部によって、前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成工程と、
前記表示制御部によって前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御工程とを含むことを特徴とする学習支援方法。
Using the learning support device according to any one of claims 1 to 7,
An image reading step of reading a document in which one or more characters are described as a document image by the image reading unit;
A character recognition step of recognizing each character included in the document image by the character recognition unit;
A display step of displaying the document image on the display screen by the display unit;
A character position recognition step for recognizing an area on the display screen as a character display area in which each character recognized in the character recognition step is arranged by the character position recognition unit;
A position designation input step of inputting position designation information for designating a position on the display screen by the position designation input unit;
A designated position determination step for determining whether or not the position designated in the position designation input step is included in the character display area by the designated position determination unit;
When the position designated by the position designation information is included in the character display area, the position designated in the position designation input process is determined by the mask area recognition unit when determined in the designated position determination process. A mask area recognition step for recognizing the character display area including the mask area to be masked;
A mask image generating step for generating a mask image for masking the character display area recognized as the mask area by the mask image generating unit;
A superimposed image generation step of generating a superimposed image formed by superimposing the document image and the mask image by the superimposed image generation unit;
A display control step of controlling the display unit by the display control unit and displaying the superimposed image on the display unit.
1または複数の文字が記載される文書を文書画像として読取る画像読取部と、表示画面を有し、前記文書画像を前記表示画面上に表示する表示部と、
前記表示画面上において位置を指定する位置指定情報を入力するための位置指定入力部とに接続されたコンピュータを、
前記文書画像に含まれる各文字を認識する文字認識部、
前記文字認識部によって認識された各文字が配置される、前記表示画面上の領域を、文字表示領域として認識する文字位置認識部、
前記位置指定情報によって指定された位置が、前記文字表示領域に含まれるか否かを判定する指定位置判定部、
前記位置指定入力部によって指定された位置が前記文字表示領域に含まれると、前記指定位置判定部によって判定されたときに、前記位置指定情報によって指定された位置を含む前記文字表示領域を、マスクされるべきマスク領域として認識するマスク領域認識部、
前記マスク領域として認識された文字表示領域をマスクするマスク画像を生成するマスク画像生成部、
前記文書画像と前記マスク画像とが重畳されて形成された重畳画像を生成する重畳画像生成部、および
前記表示部を制御し、前記表示部に前記重畳画像を表示させる表示制御部として機能させることを特徴とする学習支援プログラム。
An image reading unit that reads a document in which one or more characters are described as a document image, a display unit that has a display screen, and displays the document image on the display screen;
A computer connected to a position designation input unit for inputting position designation information for designating a position on the display screen;
A character recognition unit for recognizing each character included in the document image;
A character position recognizing unit that recognizes an area on the display screen where each character recognized by the character recognizing unit is arranged as a character display area;
A designated position determination unit that determines whether or not the position designated by the position designation information is included in the character display area;
When the position designated by the position designation input unit is included in the character display area, the character display area including the position designated by the position designation information is masked when determined by the designated position determination unit. A mask area recognition unit for recognizing as a mask area to be performed,
A mask image generation unit for generating a mask image for masking the character display area recognized as the mask area;
A superimposed image generating unit that generates a superimposed image formed by superimposing the document image and the mask image, and a display control unit that controls the display unit and causes the display unit to display the superimposed image. A learning support program characterized by
請求項9に記載の学習支援プログラムが、コンピュータに読取り可能に記録される記録媒体。   A recording medium in which the learning support program according to claim 9 is recorded in a computer-readable manner.
JP2010129398A 2010-06-04 2010-06-04 Learning support device, learning support method using the same, learning support program and recording medium Pending JP2011257453A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010129398A JP2011257453A (en) 2010-06-04 2010-06-04 Learning support device, learning support method using the same, learning support program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010129398A JP2011257453A (en) 2010-06-04 2010-06-04 Learning support device, learning support method using the same, learning support program and recording medium

Publications (1)

Publication Number Publication Date
JP2011257453A true JP2011257453A (en) 2011-12-22

Family

ID=45473725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010129398A Pending JP2011257453A (en) 2010-06-04 2010-06-04 Learning support device, learning support method using the same, learning support program and recording medium

Country Status (1)

Country Link
JP (1) JP2011257453A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013077075A (en) * 2011-09-29 2013-04-25 Furyu Kk Image display system, learning system, image display method and control program
JP2016038903A (en) * 2014-08-07 2016-03-22 莊新宏 Examination question generation system and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013077075A (en) * 2011-09-29 2013-04-25 Furyu Kk Image display system, learning system, image display method and control program
JP2016038903A (en) * 2014-08-07 2016-03-22 莊新宏 Examination question generation system and method thereof

Similar Documents

Publication Publication Date Title
JP5248696B1 (en) Electronic device, handwritten document creation method, and handwritten document creation program
US10909308B2 (en) Information processing apparatus, information processing method, and program
JP5439454B2 (en) Electronic comic editing apparatus, method and program
US9207808B2 (en) Image processing apparatus, image processing method and storage medium
JP5211193B2 (en) Translation display device
JP2010073185A (en) Input apparatus, image processing program and computer-readable recording medium
JPH07182445A (en) Method for decision of important correspondence for computation processing
JP5395927B2 (en) Electronic device and handwritten document search method
JP2013089198A (en) Electronic comic editing device, method and program
JP2013089197A (en) Electronic comic editing device, method and program
US10152472B2 (en) Apparatus and method for generating summary data of E-book or E-note
JP5661549B2 (en) Character recognition device for recognizing characters on a form, mask processing method, and mask processing program
WO2014192156A1 (en) Electronic device and processing method
US10127704B2 (en) Information processing device, program, and recording medium
JP2011257453A (en) Learning support device, learning support method using the same, learning support program and recording medium
JP7241506B2 (en) Correction support device and correction support program for optical character recognition results
JP6274132B2 (en) Music score display apparatus and music score display method
GB2509552A (en) Entering handwritten musical notation on a touchscreen and providing editing capabilities
JP2001351065A (en) Method for recognizing character, computer readable recording medium recording character recognition program and character recognition device
JP6691818B2 (en) Interface, character input guide method and program
JP6918252B2 (en) Ink data generator, method and program
JP5666011B1 (en) Method and electronic equipment
US20240202465A1 (en) Information processing apparatus, controlling method of information processing apparatus, and storage medium
JPH11110119A (en) Schedule input device, and medium recording schedule input device control program
JP2008305248A (en) Retrieval device and program