JP2012049860A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2012049860A
JP2012049860A JP2010190639A JP2010190639A JP2012049860A JP 2012049860 A JP2012049860 A JP 2012049860A JP 2010190639 A JP2010190639 A JP 2010190639A JP 2010190639 A JP2010190639 A JP 2010190639A JP 2012049860 A JP2012049860 A JP 2012049860A
Authority
JP
Japan
Prior art keywords
data
image
masking
character
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010190639A
Other languages
Japanese (ja)
Inventor
Masaru Sekiguchi
優 関口
Toshifumi Yamaai
敏文 山合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010190639A priority Critical patent/JP2012049860A/en
Publication of JP2012049860A publication Critical patent/JP2012049860A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor for securely masking a necessary place and improving information confidentiality.SOLUTION: The image processor includes: a data acquiring portion 202 acquiring display data before it is transmitted to a display device to be displayed; a data determination portion 203 determining whether the acquired display data is image data or not; a character recognition processing portion 204 recognizing characters in a character image included in the image data when the display data is the image data; a keyword retrieval portion 205 retrieving data matched with a keyword in the acquired text data or result data where the characters are recognized by using a masking dictionary which correspondingly stores the keyword and a place to be masked, and specifying the place to be masked; a masking processing portion 207 masking the specified place; and a data output portion 208 outputting the text data or the image data generated by the masking processing to the display device as the display data.

Description

本発明は、表示装置に表示させる前に表示データを取得し、マスキングが必要な箇所を見つけ、その箇所を塗りつぶす等のマスキング処理を行い、表示装置へ出力することにより、情報機密性を向上させることができる画像処理装置、その方法およびその方法を実現するためのコンピュータ可読なプログラムに関する。   The present invention improves information confidentiality by acquiring display data before displaying on a display device, finding a portion that needs to be masked, performing a masking process such as painting the portion, and outputting the result to the display device. The present invention relates to an image processing apparatus, a method thereof, and a computer-readable program for realizing the method.

画面UI(User Interface)の文字列、エディタやワープロ等のテキストデータ、スキャナやCCD(Charge Coupled Device)カメラといった画像読取装置により読み取った文書画像データ等の各種情報をディスプレイ等の表示装置に表示し、利用者がその表示された情報に基づいて閲覧や編集を行うために、画像処理装置が利用されている。   Various information such as character strings of screen UI (User Interface), text data such as editors and word processors, document image data read by image reading devices such as scanners and CCD (Charge Coupled Device) cameras, etc. are displayed on a display device such as a display. An image processing apparatus is used for a user to browse and edit based on the displayed information.

画像読取装置から入力された画像データを外部に配布する場合において、その画像データに、他人には見られたくない情報が含まれているとき、その情報をマスキングして秘匿することが行われている。例えば、画像データ上に電子的にマスキング機能をもったオブジェクトを配置し、編集途中のデータではマスキングオブジェクト下にある画像データを確認する形で記録しておき、それをプリンタ等の出力装置で出力する際、マスキングオブジェクト下にある画像データを確認することができないようにする画像処理プログラムを実装した構成が知られている(特許文献1参照)。   When distributing image data input from an image reader to the outside, if the image data contains information that you do not want to be seen by others, the information is masked and kept secret. Yes. For example, an object with a masking function is placed electronically on the image data, and the image data under the masking object is recorded in the data being edited and recorded and output by an output device such as a printer. In this case, a configuration is known in which an image processing program is installed so that image data under a masking object cannot be confirmed (see Patent Document 1).

この特許文献1では、画像処理プログラムの実行により、データ記録媒体から画像データを読み込み、メモリ上に描画し、その一方で入力デバイスから図形オブジェクトを読み込み、ディスプレイ上に出力するときは、図形オブジェクトが有するマスクパターンの機能に従ってメモリ上の画像データに描画し、プリンタに出力するときは、図形オブジェクトが有する特徴通りにメモリ上の画像データに描画する。これにより、編集途中ではディスプレイ上にマスキング処理されて隠れている情報を確認することができ、外部配布用にプリンタに出力されたものは、情報を確認できないようにすることができる。   In this Patent Document 1, when an image processing program is executed, image data is read from a data recording medium and rendered on a memory, while a graphic object is read from an input device and output on a display. When drawing on the image data on the memory in accordance with the mask pattern function and outputting it to the printer, the drawing is performed on the image data on the memory according to the characteristics of the graphic object. As a result, information hidden by masking on the display can be confirmed during editing, and information output to a printer for external distribution can be prevented from being confirmed.

また、個人情報の各項目と画像データに含まれる個人情報の座標位置とを対応付けて保持し、選択された項目に応じてその画像データにマスキング処理などの画像処理を施す画像処理部と、画像処理された画像データを印字出力する画像形成部とを備える画像処理装置が提案されている(特許文献2参照)。このように各個人情報の座標位置を保持し、コピーする際、見せたくない個人情報にマスキング処理等を施すことにより、所望の情報のみを選択的に出力できるようにすることができる。   In addition, an image processing unit that holds each item of personal information and the coordinate position of personal information included in the image data in association with each other, and performs image processing such as masking processing on the image data according to the selected item; There has been proposed an image processing apparatus including an image forming unit that prints out image data subjected to image processing (see Patent Document 2). In this way, when the coordinate position of each personal information is held and copied, by masking the personal information that is not desired to be displayed, only desired information can be selectively output.

また、PDL(Page Description Language)データの画像を表示装置にプレビュー表示し、そのプレビュー表示された画像のうちユーザ選択された領域をマスキング領域に設定し、ユーザ入力された日時を設定されたマスキング領域をマスキングする有効期限として設定し、設定されたマスキング領域中の画像をマスキング対象画像として切り出し、この切り出したマスキング対象画像を暗号化して暗号画像を作成し、これを、有効期限を表現する有効期限画像と合成したマスキング画像を生成し、このマスキング画像がPDLデータの画像中のマスキング領域にはめ込まれた画像を印刷し、マスキング原稿を提供する装置や方法が提案されている(特許文献3参照)。これにより、一部領域が、有効期限が設定された状態でマスキング処理された電子文書とその印刷物の融合を容易にすることができる。   Also, a PDL (Page Description Language) data image is previewed on a display device, a user-selected area of the preview displayed image is set as a masking area, and a date and time input by the user is set. Is set as the expiration date for masking, the image in the set masking area is cut out as the masking target image, the cut out masking target image is encrypted to create an encrypted image, and this is used as the expiration date for expressing the expiration date There has been proposed an apparatus and method for generating a masking image synthesized with an image, printing an image in which the masking image is inserted into a masking area in an image of PDL data, and providing a masking document (see Patent Document 3). . As a result, it is possible to facilitate the fusion of the electronic document that has been subjected to the masking process in a state where the expiration date is set in the partial area and the printed matter.

画面上の情報を画像として扱い、光学的な文字認識技術を用いて空白にしたり、モザイクをかけたりする必要のある部分を判定する構成が提案されている(非特許文献1参照)。従来の隠ぺい方法とは異なり、ソフトウェアを修正したり、データを改変することなく、情報が画面に表示する前に情報にフィルタをかけることができ、また、隠ぺいすべき部分はユーザが変更することができるようにされている。これにより、提供先別に表示項目を修正したデータを用意するといった手間を省くことができる。   A configuration has been proposed in which information on a screen is handled as an image and a portion that needs to be blanked or mosaiced using an optical character recognition technique is determined (see Non-Patent Document 1). Unlike traditional methods of concealment, the information can be filtered before it is displayed on the screen without modifying the software or altering the data, and the parts to be concealed can be changed by the user Have been able to. As a result, it is possible to save the trouble of preparing data in which display items are corrected for each provider.

上記の特許文献1に記載された発明では、見られたくない情報をマスキングすることができるが、ディスプレイ等の表示装置に表示する前の段階で、マスキングすべき箇所の設定漏れ等により、マスキングされずに表示されてしまい、機密情報が漏洩してしまうという問題がある。   In the invention described in the above-mentioned Patent Document 1, it is possible to mask information that is not desired to be seen, but at the stage before displaying it on a display device such as a display, it is masked due to a setting omission of a portion to be masked. There is a problem that confidential information is leaked.

また、上記の特許文献2も、見られたくない情報をマスキングすることができるが、マスキング指定を手動で行っているため、かなり手間がかかるという問題がある。   Although the above-mentioned Patent Document 2 can mask information that is not desired to be viewed, there is a problem that it takes much time and effort because the masking designation is performed manually.

上記の特許文献3も同様に、見られたくない情報をマスキングすることができるが、マスキング指定について座標データが予め決められているため、定形外のデータが来た場合、対応することができないという問題がある。   Similarly, the above-mentioned Patent Document 3 can mask information that is not desired to be seen, but since coordinate data is determined in advance for masking designation, it cannot respond when non-standard data comes. There's a problem.

上記の非特許文献1では、ディスプレイに表示された情報を画像として扱うため、テキストデータであっても文字認識を行う必要があり、認識精度には限界があるため、誤認識により正しくマスキングされない可能性がある。   In the above non-patent document 1, since information displayed on a display is handled as an image, it is necessary to perform character recognition even for text data, and since recognition accuracy is limited, it may not be correctly masked due to misrecognition. There is sex.

本発明は、上記課題に鑑みなされたものであり、画面UIの文字列、エディタやワープロ等のテキストデータ、スキャナやCCDカメラ等で読み込んだ文書画像データ等の各種情報をディスプレイ等の表示装置に表示させる前に、例えば一定間隔で画面を取り込み、文字列やテキストデータはそのまま文字として扱い、画像データのみ文字認識を行い、その認識結果の文字データ、文字列、テキストデータからマスキングが必要なキーワードを見つけ、マスキング辞書を参照して必要な箇所を画面上で塗りつぶすという構成を採用する。   The present invention has been made in view of the above problems, and displays various information such as a character string of a screen UI, text data of an editor, a word processor, etc., document image data read by a scanner, a CCD camera, etc., on a display device such as a display. Before display, for example, the screen is captured at regular intervals, the character string or text data is treated as characters, only the image data is recognized, and keywords that require masking from the recognition result character data, character string, or text data. A configuration is adopted in which a masking dictionary is found and necessary portions are painted on the screen.

このように、表示装置の画面に表示される表示データを、表示される前に取得し、画面UIの文字列やテキストデータはそのまま用い、画像データのみ文字認識を行い、マスキング辞書を参照して必要な箇所にマスキング処理を施し出力するため、マスキングし忘れによる情報漏洩を防止することができ、自動でマスキング指定を行うことができ、テキストデータ等は文字認識が不要であるため誤認識を減少させ、より確実にマスキングすることができる。   In this way, display data displayed on the screen of the display device is acquired before being displayed, character strings and text data on the screen UI are used as they are, only image data is recognized, and a masking dictionary is referred to. Masking processing is performed at the required location and output, preventing information leakage due to forgetting to mask, automatic masking can be specified, and text data does not require character recognition, reducing false recognition Can be masked more reliably.

本発明では、これらを実現するための画像処理装置、画像処理方法およびその方法を実現するためのコンピュータ可読なプログラムを提供することができる。   In the present invention, it is possible to provide an image processing apparatus, an image processing method, and a computer-readable program for realizing the method for realizing these.

本発明の画像処理装置は、表示データを処理して表示させる装置であり、表示装置へ送信され表示される前の表示データを取得するデータ取得部と、取得した表示データが画像データであるかテキストデータであるかを判定するデータ判定部と、表示データが画像データである場合に、該画像データに含まれる文字画像の文字認識を行う文字認識処理部と、キーワードとマスキングすべき箇所とを対応付けて格納するマスキング辞書を用い、取得したテキストデータまたは文字認識処理部により文字認識された結果データの中に、キーワードに一致するものを検索し、該テキストデータまたは該文字認識された結果データの中のマスキングすべき箇所を特定するキーワード検索部と、取得したテキストデータまたは画像データの特定された箇所に対しマスキング処理するマスキング処理部と、マスキング処理により生成されたテキストデータまたは画像データを表示データとして表示装置へ出力するデータ出力部とを含む。   An image processing apparatus according to the present invention is a device that processes and displays display data. A data acquisition unit that acquires display data before being transmitted to the display device and displayed, and whether the acquired display data is image data. A data determination unit that determines whether the data is text data, a character recognition processing unit that performs character recognition of a character image included in the image data when the display data is image data, a keyword and a portion to be masked Using the masking dictionary stored in association with each other, the text data or the result data recognized by the character recognition processing unit is searched for a match with the keyword in the obtained text data or the result data recognized by the character recognition processing unit. A keyword search part that specifies the location to be masked in the text and the specified location of the acquired text data or image data To include a masking processing unit for masking process, and a data output section for outputting to the display device a text data or image data generated by the masking processing as the display data.

データ取得部は、取得する表示データに応じてフラグを設定し、データ判定部は、表示データに設定されたフラグに応じて画像データであるかテキストデータであるかを判定することができる。データ取得部は、画面をキャプチャするか、描画命令を出力するテキストデータやUIの文字列等を横取りし、表示データを取得する。このとき、画面をキャプチャして取得した表示データは画像データとして蓄積され、テキストデータやUIの文字列等はテキストデータとして蓄積され、それぞれに異なる値のフラグが設定される。   The data acquisition unit can set a flag according to the display data to be acquired, and the data determination unit can determine whether the data is image data or text data according to the flag set for the display data. The data acquisition unit captures a screen or intercepts text data or a UI character string that outputs a drawing command, and acquires display data. At this time, the display data obtained by capturing the screen is stored as image data, text data, UI character strings, and the like are stored as text data, and flags having different values are set for each.

また、データ取得部は、一定間隔で表示データを取得し、もしくはユーザ操作があったことに応答して表示データを取得し、または画面切り替えが発生したことに応答して表示データを取得する。このような条件に応じて表示データを取得することにより、途中で機密情報を含む表示データが表示装置へ送信された場合においても、また、ユーザ操作により機密情報を含む表示データが表示装置へ送信された場合においても、さらには、画面切り替えにより機密情報を含む表示データが表示装置へ送信された場合においても、確実にその機密情報をマスキングし、他人に見られないようにして表示装置に表示させることができる。   Further, the data acquisition unit acquires display data at regular intervals, acquires display data in response to a user operation, or acquires display data in response to screen switching. By acquiring display data according to such conditions, even when display data including confidential information is transmitted to the display device on the way, display data including confidential information is transmitted to the display device by a user operation. Even when the display data including the confidential information is transmitted to the display device by switching the screen, the confidential information is surely masked and displayed on the display device so that it cannot be seen by others. Can be made.

文字認識処理部は、文字の領域を抽出し、予め作成された文字パターン辞書の各文字画像と照合して、文字を識別することにより結果データとしてのテキストデータへ変換する。   The character recognition processing unit extracts a character region, compares it with each character image of a character pattern dictionary created in advance, identifies the character, and converts it into text data as result data.

マスキング辞書は、さらに、表示データを表示させるのに使用されるアプリケーションのアプリケーション名と、マスキングすべき箇所に含まれる文字の文字種とを含む。このため、使用されるアプリケーションや文字種を判断してマスキング処理することが可能である。   The masking dictionary further includes an application name of an application used to display the display data and a character type of a character included in a portion to be masked. Therefore, it is possible to perform masking processing by determining the application and character type to be used.

マスキング辞書は、さらに、キーワードおよび文字種に対応する文字画像データを含み、
キーワード検索部は、画像データに含まれる文字画像と、マスキング辞書に含まれる文字画像とのマッチング処理を行い、マスキングすべき箇所を探し出すことができる。
The masking dictionary further includes character image data corresponding to the keyword and character type,
The keyword search unit can perform a matching process between the character image included in the image data and the character image included in the masking dictionary to find a portion to be masked.

マスキング処理部は、ユーザが設定したセキュリティレベルを参照し、そのセキュリティレベルに応じて、マスキングすべき箇所を、低コントラスト、ぼかし、格子線の追加、塗りつぶし、モザイクのいずれかで表示されるようにマスキング処理を行うことができる。データ出力部は、表示装置に代えて、または表示装置とともに印刷装置へマスキング処理により生成されたテキストデータまたは画像データを出力することができ、ユーザ設定により、印刷不可とすることもできる。   The masking processing unit refers to the security level set by the user, and depending on the security level, the part to be masked is displayed as one of low contrast, blurring, adding grid lines, filling, or mosaic. Masking processing can be performed. The data output unit can output the text data or the image data generated by the masking process to the printing apparatus instead of the display apparatus or together with the display apparatus, and can be disabled by user setting.

本発明の画像処理方法は、上記の画像処理装置が備える各部により実行される処理を処理ステップとして含み、プログラムは、この処理ステップをコンピュータに実行させるものとして構成することができる。   The image processing method of the present invention includes processing executed by each unit included in the image processing apparatus as processing steps, and the program can be configured to cause a computer to execute the processing steps.

本実施形態の画像処理装置のハードウェア構成を示した図。1 is a diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment. 画像処理装置の機能ブロック図。The functional block diagram of an image processing apparatus. 画像処理装置が行う画像処理の第1実施形態を示したフローチャート。3 is a flowchart illustrating a first embodiment of image processing performed by the image processing apparatus. マスキング辞書の第1実施形態を示した図。The figure which showed 1st Embodiment of the masking dictionary. 画像処理装置が行う画像処理の第2実施形態を示したフローチャート。6 is a flowchart illustrating a second embodiment of image processing performed by the image processing apparatus. マスキング辞書の第2実施形態を示した図。The figure which showed 2nd Embodiment of the masking dictionary. 表示データの1つの例を示した図。The figure which showed one example of display data. マッチング処理を行っているところを例示した図。The figure which illustrated the place which is performing the matching process. 表示データの別の例を示した図。The figure which showed another example of display data. 図9に示す表示データにマスキング処理を施した図。The figure which performed the masking process to the display data shown in FIG. セキュリティレベルに応じてマスキング処理を施した文字列を例示した図。The figure which illustrated the character string which performed masking processing according to the security level.

図1は、本実施形態の画像処理装置のハードウェア構成を示した図である。画像処理装置100は、原稿等を読み取るスキャナ部101と、撮像して画像データを取得する撮像手段102と、装置全体の制御を行うCPU103と、読み取った画像データや撮像して取得した画像データ等を表示させるために記憶する表示データメモリ部104と、それら画像データを蓄積したり、他の装置から取得した画像データ等を記録したり、CPU103が実行するプログラムを格納するCD−ROM、DVD、メモリカード106やHDD107といった外部記憶部105と、マスキング処理を施したり、その他の画像処理を行う画像処理部108と、インターネット等のネットワーク110と接続し、ネットワーク110との間の通信を制御する通信制御部109と、マスキング処理やその他の画像処理が施された画像データを表示する表示部111とを含んで構成されている。なお、これら各部は、データを伝送するためのバス112により互いに接続され、互いにデータのやりとりを行うことができるようにされている。   FIG. 1 is a diagram illustrating a hardware configuration of the image processing apparatus according to the present embodiment. The image processing apparatus 100 includes a scanner unit 101 that reads a document and the like, an imaging unit 102 that captures and acquires image data, a CPU 103 that controls the entire apparatus, read image data, image data acquired by imaging, and the like A display data memory unit 104 for storing the image data, and a CD-ROM, a DVD, a DVD-ROM, a DVD-ROM for storing a program executed by the CPU 103, storing the image data, recording image data acquired from another device, and the like Communication that controls communication between the external storage unit 105 such as the memory card 106 and the HDD 107, the image processing unit 108 that performs masking processing and other image processing, and the network 110 such as the Internet, and controls communication with the network 110. The control unit 109 and the image data subjected to masking processing and other image processing It is configured to include a display unit 111 for displaying the data. These units are connected to each other by a bus 112 for transmitting data, and can exchange data with each other.

スキャナ部101は、読み取る対象の原稿に光を照射する光源と、その原稿に反射した光あるいは透過した光を読み取り、電気信号へ変換するCCDと、アナログデータである電気信号をデジタルデータへ変換するA/Dコンバータとを含んで構成される。   The scanner unit 101 irradiates a document to be read with light, a CCD that reads light reflected or transmitted through the document and converts it into an electrical signal, and converts an electrical signal that is analog data into digital data. And an A / D converter.

撮像手段102は、例えば、デジタルカメラを挙げることができ、その構成は、集光するレンズ、光量を決定する絞り、光を検出する光学センサといった撮像素子、決定された時間に限って撮像素子に光を当てるシャッター、撮像対象を確認するためのファインダーを備えるものとされる。撮像素子としては、CCDやCMOSが用いられる。撮像手段102は、さらに、撮像素子から出力されたアナログデータをA/D変換するA/Dコンバータを備え、また、補間演算、色空間変換、ガンマ補正、収差の補正、ノイズリダクション、画像圧縮等の画像処理を行い、PC等による利用が可能な画像形式、例えばExif(Exchangeable image file format)形式やRAW画像として記録媒体に記録する画像エンジンを備える。ここで、Exif形式とは、コンピュータ等で扱われる静止画像のデジタルデータを圧縮する方式の1つであるJPEG(Joint Photographic Experts Group)の拡張規格であり、画像メタデータのフォーマットである。   For example, the image pickup means 102 can be a digital camera, and its configuration includes an image pickup element such as a condensing lens, a diaphragm for determining the amount of light, an optical sensor for detecting light, and an image pickup element only for a determined time. It is assumed that a shutter for shining light and a viewfinder for confirming an imaging target are provided. A CCD or CMOS is used as the image sensor. The imaging unit 102 further includes an A / D converter that performs A / D conversion on analog data output from the imaging device, and further includes interpolation calculation, color space conversion, gamma correction, aberration correction, noise reduction, image compression, and the like. And an image engine that records on a recording medium as an image format that can be used by a PC or the like, for example, an Exif (Exchangeable image file format) format or a RAW image. Here, the Exif format is an extended standard of JPEG (Joint Photographic Experts Group), which is one of methods for compressing digital data of still images handled by a computer or the like, and is a format of image metadata.

表示データメモリ部104は、テキストやUIデータ等の表示データや、上記のスキャナ部101や撮像手段102により取得した表示データを記憶する。   The display data memory unit 104 stores display data such as text and UI data, and display data acquired by the scanner unit 101 and the imaging unit 102 described above.

画像処理部108は、表示部111に表示させる表示データにマスキングをかける処理を施し、また、色補正を施したり、所定の形式に変換する等の画像処理を行う。   The image processing unit 108 performs processing for masking display data to be displayed on the display unit 111, and performs image processing such as color correction and conversion to a predetermined format.

図2は、画像処理装置の機能ブロック図である。画像処理装置は、図1に示すハードウェア構成とされるが、外部記憶部105が記憶するプログラムをCPU103が実行し、また、画像処理部108が画像処理を行うことにより、図2に示す各部として機能させることができる。   FIG. 2 is a functional block diagram of the image processing apparatus. The image processing apparatus has the hardware configuration shown in FIG. 1, but the CPU 103 executes a program stored in the external storage unit 105, and the image processing unit 108 performs image processing, whereby each unit shown in FIG. Can function as.

この画像処理装置は、機密情報の漏洩を防止すべく、機密情報の部分をマスキングし、出力する装置であり、UI提供部201と、データ取得部202と、データ判定部203と、文字認識処理部204と、キーワード検索部205と、マスキング辞書保管部206と、マスキング処理部207と、データ出力部208とを含んで構成されている。また、画像処理装置は、表示データを保管するための図示しないデータ保管部を備えることができる。   This image processing apparatus is an apparatus that masks and outputs a portion of confidential information in order to prevent leakage of confidential information, and includes a UI providing unit 201, a data acquisition unit 202, a data determination unit 203, and character recognition processing. A unit 204, a keyword search unit 205, a masking dictionary storage unit 206, a masking processing unit 207, and a data output unit 208 are configured. Further, the image processing apparatus can include a data storage unit (not shown) for storing display data.

UI提供部201は、Windows(登録商標)系統のウィンドウをはじめとするオブジェクトやテキストデータ等のUIデータを提供する。   The UI providing unit 201 provides UI data such as objects and text data including Windows (registered trademark) windows.

データ取得部202は、表示装置である表示部111へ送信される表示データであって、表示部111に表示される前のデータを取得する。表示された後にマスキングしても機密情報の漏洩を防止できないからである。表示データは、表示部111に表示するためのデータであって、スキャナ部101により読み取られた画像データや撮像手段102から取得した画像データ、描画命令を出力するテキストデータ、UI提供部201が提供するUIデータ等が挙げられる。   The data acquisition unit 202 acquires display data that is transmitted to the display unit 111 that is a display device and that is not displayed on the display unit 111. This is because leakage of confidential information cannot be prevented by masking after being displayed. The display data is data to be displayed on the display unit 111, and is provided by the UI providing unit 201, image data read by the scanner unit 101, image data acquired from the imaging unit 102, text data for outputting a drawing command. UI data to be used.

このデータ取得部202は、画面をキャプチャするか、テキストデータやUIデータを横取りして、表示データを取得することから、画面をキャプチャして取得したデータは画像データと識別し、テキストデータやUIデータはテキストデータと識別する。このようにして識別されたデータは、例えばフラグを設定し、それらを判別することを可能にすることができる。フラグは1ビットで表現され、画像データを1、テキストデータを0といった数値で設定することができる。   The data acquisition unit 202 captures a screen or intercepts text data or UI data to acquire display data. Therefore, the data acquired by capturing the screen is identified as image data, and the text data or UI is captured. Data is identified as text data. The data identified in this way can be set, for example, by flags to allow discrimination. The flag is expressed by 1 bit, and can be set by numerical values such as 1 for image data and 0 for text data.

また、このデータ取得部202は、表示データを、一定間隔で取得したり、ユーザ操作(例えばボタンの押下)があったことに応答して取得したり、画面切り替えが発生したことに応答して取得することができ、次の画面が表示される前にマスキングを行い、確実に機密情報の漏洩を防止することができる。   In addition, the data acquisition unit 202 acquires display data at regular intervals, acquires it in response to a user operation (for example, pressing a button), or responds to the occurrence of screen switching. It can be acquired, and masking is performed before the next screen is displayed, so that leakage of confidential information can be surely prevented.

データ判定部203は、データ取得部202が取得した表示データが、画像データであるか、テキストデータであるかを判定する。この判定は、表示データに設定されたフラグを読み出し、そのフラグの値により判定することができる。   The data determination unit 203 determines whether the display data acquired by the data acquisition unit 202 is image data or text data. This determination can be made by reading the flag set in the display data and determining the value of the flag.

文字認識処理部204は、データ判定部203で画像データと判定された表示データを受け取り、その表示データである画像データに含まれる文字を表す文字画像の文字認識を行う。文字認識の方法は、これまでに知られたいかなる方法でも採用することができるが、例えば、各字の文字パターンを文字パターン辞書として用意しておき、その文字パターンとマッチング処理を行うことにより文字認識を行うことができる。   The character recognition processing unit 204 receives display data determined as image data by the data determination unit 203, and performs character recognition of a character image representing a character included in the image data that is the display data. Any method known so far can be used as the character recognition method. For example, a character pattern of each character is prepared as a character pattern dictionary, and the character pattern is matched with the character pattern. Recognition can be performed.

マスキング辞書保管部206は、キーワードとマスキングすべき箇所とを対応付けて格納するマスキング辞書を保管する。キーワードは、文字列からなる単語であり、機密情報となる氏名、住所、電話番号、携帯番号、生年月日、性別、会社名、所属等が挙げられる。マスキングとは、文字や画像上をカバーで覆うことをいい、具体的には、文字例を塗りつぶし見えなくすること等をいう。マスキングすべき箇所は、キーワードと同じ行の右側、キーワードと同じ列の下側、キーワードと同じ行の右側のセル等である。したがって、キーワードとして住所が設定され、マスキングすべき箇所として同じ行の右側が設定されている場合、マスキングすべき箇所は、「住所 A市B町C」と記載されていれば、キーワードである「住所」の同じ行の右側にある「A市B町C」の部分を意味する。このようにして機密情報を見えなくし、その情報の漏洩を防止する。   The masking dictionary storage unit 206 stores a masking dictionary that stores a keyword and a portion to be masked in association with each other. The keyword is a word composed of a character string, and includes name, address, telephone number, mobile phone number, date of birth, sex, company name, affiliation, etc., which are confidential information. Masking refers to covering a character or image with a cover, and specifically, covering a character example to make it invisible. The parts to be masked are the right side of the same row as the keyword, the lower side of the same column as the keyword, the right cell of the same row as the keyword, and the like. Therefore, when an address is set as a keyword and the right side of the same line is set as a portion to be masked, the portion to be masked is a keyword if “address A city B town C” is described. It means the part of “A city B town C” on the right side of the same address. In this way, confidential information is made invisible and leakage of the information is prevented.

キーワード検索部205は、このマスキング辞書を用い、取得したテキストデータまたは文字認識処理部204により文字認識された結果データの中に、キーワードに一致するものを検索する。そして、そのテキストデータまたは文字認識された結果データの中のマスキングすべき箇所を特定する。   The keyword search unit 205 uses the masking dictionary to search the acquired text data or the result data recognized by the character recognition processing unit 204 for data that matches the keyword. And the location which should be masked in the text data or the result data by which character recognition was carried out is specified.

また、キーワード検索部205は、表示データが画像データである場合、画像データにより生成される文字画像と、マスキング辞書に含まれる文字画像データにより生成される文字画像とのマッチング処理を行い、マスキングすべき箇所を探し出す。このため、マスキング辞書は、文字画像データもキーワードと対応付けて格納することができる。   Further, when the display data is image data, the keyword search unit 205 performs matching processing between the character image generated from the image data and the character image generated from the character image data included in the masking dictionary, and performs masking. Find where to go. For this reason, the masking dictionary can store character image data in association with keywords.

マスキング処理部207は、キーワード検索部205により特定されたマスキングすべき箇所を、設定したマスキング方法によりマスキングを行う。ユーザは、セキュリティレベルを設定することができ、そのセキュリティレベルに応じて、マスキングすべき箇所を、低コントラストにしたり、ぼかしを入れたり、格子線を追加したり、塗りつぶしたり、モザイクをかけたりすることができる。なお、マスキング処理は、マスキングすべき箇所として特定された文字列や数字列等のすべてに対して行われるようになされる。   The masking processing unit 207 masks the portion to be masked specified by the keyword search unit 205 by the set masking method. The user can set the security level, and depending on the security level, the area to be masked is made low contrast, blurred, added with a grid line, painted, or mosaiced. be able to. Note that the masking process is performed on all character strings, numeric strings, and the like that are specified as portions to be masked.

マスキング辞書は、さらに、表示データを表示するために使用されるアプリケーションのアプリケーション名や、マスキングすべき箇所にある文字列の文字種等もキーワードに対応付けて格納することができる。これにより、マスキング処理部207が、使用されるアプリケーションを判断し、また、文字種を判断して適合した場合にマスキングを行うことができる。   The masking dictionary can further store an application name of an application used for displaying display data, a character type of a character string in a portion to be masked, and the like in association with a keyword. As a result, the masking processing unit 207 can determine the application to be used and perform masking when the character type is determined and matched.

データ出力部208は、マスキング処理部207によりマスキング処理により生成されたテキストデータまたは画像データである表示データを表示部111へ出力し、表示させる。このデータ出力部208は、表示部111のほか、印刷装置へ出力することもでき、マスキング処理したデータを印刷出力することも可能である。また、セキュリティレベル等の設定により、その設定に応じて、印刷出力したり、印刷不可とすることも可能である。   The data output unit 208 outputs display data, which is text data or image data generated by the masking processing by the masking processing unit 207, to the display unit 111 for display. The data output unit 208 can output to the printing apparatus in addition to the display unit 111, and can also print out the masked data. Also, depending on the setting such as the security level, it is possible to print out or disable printing.

図3は、画像処理装置が行う画像処理の第1実施形態を示したフローチャートである。このフローチャートを参照して、画像処理の流れについて説明する。画像処理は、ステップ300から開始し、まず、ステップ310で、表示データを取得する。   FIG. 3 is a flowchart illustrating a first embodiment of image processing performed by the image processing apparatus. The flow of image processing will be described with reference to this flowchart. The image processing starts from step 300. First, in step 310, display data is acquired.

ここで、表示データを取得する方法の例を詳細に説明する。取得する条件は、例えば、一定期間ごと、特定の操作をしたとき、画面の切り替えがあったとき、に取得することができる。一定期間としては、例えば10〜100ミリ秒という間隔で画面をキャプチャすることが挙げられる。特定の操作をしたときとしては、ボタンが押下されたときや、閲覧しようとする操作をしたときが挙げられる。画面の切り替えがあったときとしては、表示用画面が変遷したときが挙げられる。   Here, an example of a method for acquiring display data will be described in detail. The acquisition condition can be acquired, for example, when a specific operation is performed every certain period or when the screen is switched. An example of the fixed period is capturing the screen at an interval of 10 to 100 milliseconds, for example. Examples of when a specific operation is performed include when a button is pressed or when an operation for browsing is performed. An example of when the screen is switched is when the display screen changes.

このような条件が発生した場合に、画面をキャプチャしたり、描画命令を出すテキストデータやUIの文字列等を横取りして、表示データを取得することができる。画面をキャプチャした場合、そのデータは画像データとして蓄積される。また、テキストデータ等を横取りして取得した場合は、テキストデータ、UIの文字列等がテキストデータとして蓄積される。   When such a condition occurs, display data can be acquired by capturing a screen or capturing text data for issuing a drawing command, a UI character string, or the like. When the screen is captured, the data is stored as image data. In addition, when the text data or the like is intercepted and acquired, the text data, the UI character string, and the like are accumulated as the text data.

これらの具体的な方法としては、公知のスクリーンリーダ(例えば、JAWS(登録商標) for Windows(登録商標)を用いて行うことができる。このスクリーンリーダは、画面やウィンドウに表示された情報や入力した文字を読み上げるものである。   As these specific methods, a known screen reader (for example, JAWS (registered trademark) for Windows (registered trademark)) can be used. This screen reader is used for information and input displayed on a screen or a window. Read aloud characters.

次に、ステップ320で、取得した画面データが画像データであるか、テキストデータであるかの判定を行う。この判定は、ステップ310においてテキストデータを取得するというフラグの設定、あるいは画像データとして取得するというフラグの設定がなされるため、その設定されたフラグから判定することができる。   Next, in step 320, it is determined whether the acquired screen data is image data or text data. This determination can be made from the set flag since the flag for acquiring text data or the flag for acquiring as image data is set in step 310.

そして、ステップ330において、ステップ320により判定した結果から、画像データである場合は、文字認識処理を行い、文字認識した結果の結果データであるテキストデータを取得する。文字認識処理としては、これまで知られたいかなる技術でも使用することができる。   In step 330, if it is image data from the result determined in step 320, character recognition processing is performed, and text data that is result data of character recognition is obtained. As the character recognition process, any known technique can be used.

例えば、文書画像であれば、画像データが白と黒という情報から構成されるため、まず、黒のドットの分布のしかたを解析し、この黒の固まりを罫線や数字等と分類する。これは、面積や形状等の傾向を分析し、その特徴に基づいて分類する。分類後、予め作成した文字パターン辞書と照合し、文字や数字を識別することによりテキストデータへ変換する。その流れを説明すると、入力された文書画像から、写真等の画像として扱う領域と、文字の領域とに分け、文字画像をパターンに照らし合わせ、重なる面積の大きいものを変換すべき文字や数字として決定し、それをテキストデータとして変換する。   For example, in the case of a document image, since the image data is composed of information of white and black, first, the distribution of black dots is analyzed, and this black cluster is classified into ruled lines, numbers, and the like. This analyzes trends such as area and shape, and classifies them based on their characteristics. After classification, it is collated with a character pattern dictionary created in advance and converted into text data by identifying characters and numbers. To explain the flow, the input document image is divided into an area to be treated as an image such as a photograph and a character area, the character image is compared with a pattern, and a large overlapping area is converted into characters or numbers to be converted. Determine and convert it as text data.

カラー画像データである場合は、白と黒という2値の画像データではなく、多値の画像データとなる。まず、写真の領域を抽出し、背景色を特定して削除する。その後、白黒2値データに変換し、文字の部分をテキストデータへ変換する。この変換は、上記と同様、パターンと照合する方法により文字や数字を識別し、その識別された文字や数字に変換することにより行うことができる。   In the case of color image data, it is not binary image data of white and black but multi-value image data. First, a photo area is extracted, and the background color is specified and deleted. Thereafter, the data is converted into black and white binary data, and the character portion is converted into text data. Similar to the above, this conversion can be performed by identifying characters and numbers by a method of matching with a pattern and converting the characters and numbers into the identified characters and numbers.

このようにしてテキストデータへ変換するが、このデータにはレイアウト情報や文字の色情報等が含められ、ワープロ文書として再生できるようにされる。   In this way, the data is converted to text data. This data includes layout information, character color information, and the like, and can be reproduced as a word processor document.

テキストデータへの変換の際、画像データに汚れや網掛けがある場合、それらを除去し、原稿が傾いてスキャンされた場合、文字や罫線の傾きを分析し、水平になるようにスキュー補正し、天地左右の向きを誤ってスキャンしても、その方向を判別し、正しい方向へ修正することができ、これらの処理後、画像領域と文字領域とに分け、パターン照合し、テキストデータへ変換することができる。   When converting to text data, remove any smudges or shading in the image data, and if the document is scanned at an angle, analyze the inclination of characters and ruled lines and correct the skew so that it is horizontal. Even if the vertical direction is scanned incorrectly, the direction can be determined and corrected in the correct direction. After these processes, the image area and the character area are divided into patterns, collated, and converted to text data. can do.

ステップ320により判定した結果から、画面データにあるテキストデータの場合、あるいはステップ330でテキストデータへ変換された後、ステップ340へ進み、テキストデータから機密情報に該当するキーワードに一致するものを検索する。なお、機密情報に該当するキーワードは、マスキング辞書保管部206に保管されている。   From the result determined in step 320, in the case of text data in the screen data, or after being converted into text data in step 330, the process proceeds to step 340 to search the text data that matches the keyword corresponding to the confidential information. . Note that keywords corresponding to confidential information are stored in the masking dictionary storage unit 206.

図4に、マスキング辞書保管部206に保管されているマスキング辞書の一例を示す。マスキング辞書は、テーブルとして構成され、キーワード、アプリケーション、マスキングすべき箇所であるマスキング位置、文字種をデータとして含む。キーワードは、マスキングして秘匿すべき情報と対応付けて用いられる単語であり、具体的には、上述したもののほか、電話、Tel、FAX、名前、name、address等の文字が挙げられる。アプリケーションは、マスキングを適用する画像データまたはテキストデータに使用されるアプリケーションである。   FIG. 4 shows an example of the masking dictionary stored in the masking dictionary storage unit 206. The masking dictionary is configured as a table, and includes a keyword, an application, a masking position that is a portion to be masked, and a character type as data. The keyword is a word used in association with information to be masked and concealed, and specifically includes characters such as telephone, tel, fax, name, name, and address in addition to those described above. The application is an application used for image data or text data to which masking is applied.

マスキング位置は、キーワードに対してどの位置をマスキングするかを示し、「同じ行の右」であれば、キーワードと同じ行のキーワードの右側にあるテキストをマスキングすることを意味する。文字種は、マスキングして秘匿すべき情報がどのような文字種からなるものかを示す情報である。数字、ハイフンであれば、数字とハイフンから構成されるテキストデータであることを示す。   The masking position indicates which position is to be masked with respect to the keyword. If “right of the same line”, it means that the text on the right side of the keyword on the same line as the keyword is masked. The character type is information indicating what character type the information to be masked and concealed is. A number or hyphen indicates that the text data is composed of a number and a hyphen.

再び図3を参照して、ステップ350で、キーワードが見つかった場合、上述したマスキング辞書を用いてキーワードがある箇所の付近を参照し、マスキングすべき箇所を探し出す。この探し出す処理の詳細については後述する。   Referring again to FIG. 3, when a keyword is found in step 350, the vicinity of the location where the keyword is located is referred to using the above-described masking dictionary to find a location to be masked. Details of the searching process will be described later.

その後、ステップ360において、特定したマスキングすべき箇所に対し、マスキング処理を施す。そして、ステップ370で、マスキング処理により生成されたデータを出力し、画面に表示し、ステップ380でこの処理を終了する。ちなみに、ステップ340で、キーワードに一致するものがない場合、マスキング処理を施すことなく、ステップ370で、画像データあるいはテキストデータを含む画面データを表示し、ステップ380でこの処理を終了する。   Thereafter, in step 360, a masking process is performed on the identified portion to be masked. In step 370, the data generated by the masking process is output and displayed on the screen, and in step 380, the process ends. Incidentally, if there is no keyword matching in step 340, screen data including image data or text data is displayed in step 370 without performing masking processing, and this processing is terminated in step 380.

図5は、画像処理装置が行う画像処理の第2実施形態を示したフローチャートである。ステップ500から開始し、まず、ステップ510で、表示データを取得する。この表示データの取得は、上記と同様の方法で行うことができる。   FIG. 5 is a flowchart illustrating a second embodiment of image processing performed by the image processing apparatus. Starting from step 500, first, in step 510, display data is acquired. This display data can be acquired by the same method as described above.

次に、ステップ520で、取得した画面データが画像データであるか、テキストデータであるかの判定を行う。これも、上記と同様に、設定されたフラグにより判定することができる。   Next, in step 520, it is determined whether the acquired screen data is image data or text data. This can also be determined by the set flag as described above.

ステップ520でテキストデータであると判定された場合、ステップ530へ進み、テキストデータからマスキング辞書から機密情報に該当するキーワードに一致するものを検索する。キーワードに一致するものがある場合は、ステップ540へ進み、ない場合はステップ580へ進む。ステップ540では、マスキング辞書保管部206に保管されているマスキング辞書を参照し、マスキングすべき箇所を探し出す。そして、ステップ570で、そのマスキングすべき箇所に対しマスキング処理を施し、ステップ580で、マスキングされたデータを出力し、画面に表示し、ステップ590でこの処理を終了する。   If it is determined in step 520 that the data is text data, the process proceeds to step 530, and the text data is searched from the masking dictionary that matches the keyword corresponding to the confidential information. If there is a match with the keyword, the process proceeds to step 540, and if not, the process proceeds to step 580. In step 540, the masking dictionary stored in the masking dictionary storage unit 206 is referred to search for a portion to be masked. In step 570, the masking process is performed on the portion to be masked. In step 580, the masked data is output and displayed on the screen. In step 590, the process ends.

ステップ520で画像データであると判定された場合、ステップ550へ進み、画像データに含まれる文字画像と、マスキング辞書にある文字画像とのマッチングを行い、マスキングすべき箇所を探し出す。そして、ステップ560で、マスキングすべき箇所があったかどうかを判定し、あった場合、ステップ570へ進み、そのマスキングすべき箇所にマスキングを施す。これに対し、なかった場合は、ステップ580へ進み、そのまま出力して画面表示を行う。   If it is determined in step 520 that the data is image data, the process proceeds to step 550, where the character image included in the image data is matched with the character image in the masking dictionary to find a portion to be masked. Then, in step 560, it is determined whether or not there is a portion to be masked. If there is, the process proceeds to step 570, where the portion to be masked is masked. On the other hand, if not, the process proceeds to step 580, where it is output as it is and displayed on the screen.

マッチング処理は、画像データにある文字画像とマスキング辞書にある文字との照合を行い、マスキングすべき箇所を探し出す処理である。このため、マスキング辞書には、図6のテーブルに示すように、機密情報に対応するキーワード(単語)、表示データの取得元で、表示するために使用されるアプリケーション、マスキングすべき箇所であるマスキング位置、文字種のほか、文字画像の画像データが含まれている。   The matching process is a process in which a character image in the image data is compared with a character in the masking dictionary to find a portion to be masked. Therefore, as shown in the table of FIG. 6, the masking dictionary includes keywords (words) corresponding to confidential information, applications used for display at the display data acquisition source, and masking that is a portion to be masked. In addition to the position and character type, the image data of the character image is included.

キーワードを探し、見つかった場合、その箇所をマークし、キーワードが見つかった箇所の前後にある文字列をマスキング辞書のマスキング位置を参照して、最終的にマスキングする位置を特定する。図7に示すように、「氏名」、「住所」というキーワードを見つけ、それらの後にある「画像太郎」、「東京都B市C町1−5−3」をマスキングすべき箇所の文字列等として特定し、この文字列等に対してマスキングを施す。   If a keyword is found and found, the part is marked, and the character string before and after the part where the keyword is found is referred to the masking position of the masking dictionary to finally identify the masking position. As shown in FIG. 7, the keywords “name” and “address” are found, and after that, “image Taro”, “Tokyo city B city C town 1-5-3” character string etc. which should be masked And masking the character string or the like.

帳票等の原稿画像データにおいて、レイアウト構成等のフォーマット形式が決まっているものについて、重要な情報であることを示す箇所をマスキング辞書に登録しておき、その箇所をマスキングすることも可能である。   In document image data such as a form, it is possible to register a portion indicating important information in a masking dictionary for a format format such as a layout configuration, and mask the portion.

マッチング処理は、図8に示す「あ」や「お」といった要素を、マッチング用データと重ね合わせ、差分を見て、一致度が高いかどうかを判定することにより行うことができる。図8に示す実施形態では、要素2の「お」はマッチング用データ「あ」と照合しても、重なり合う面積が少ないため、一致度が低いが、要素1の「あ」は、重なり合う面積が大部分で、その一致度は高いことから、要素1は「あ」と識別する。例えば、閾値を設け、その閾値を超える面積が重なり合う文字あるいは数字を、一致度が高い文字あるいは数字と判断し、その文字あるいは数字が複数存在する場合には、最も一致度が高いものを変換すべき文字あるいは数字として識別することができる。   The matching process can be performed by superimposing elements such as “a” and “o” shown in FIG. 8 on the matching data and determining whether the degree of matching is high by looking at the difference. In the embodiment shown in FIG. 8, even if the “2” of the element 2 is compared with the matching data “A”, the overlapping area is small, so the degree of matching is low, but the “A” of the element 1 has an overlapping area. In most cases, since the degree of coincidence is high, element 1 is identified as “A”. For example, a threshold value is set, and a letter or number that overlaps the area exceeding the threshold value is judged as a letter or number with a high degree of matching, and if there are multiple letters or numbers, the one with the highest degree of matching is converted. Can be identified as a power or number.

図9は、画面に表示されるデータの表示例であるが、氏名、会社名、所属、郵便番号、住所、電話番号等が含まれている。これらは、個人を特定するための重要な情報であり、他人には見られたくない情報である。これらの情報がキーワードとして登録されている場合、本発明のマスキング処理の実行により、これらのキーワードの右側にある文字や数字等はマスキングされ、図10に示すような画面として表示される。図10では、マスキングされた箇所が黒く塗りつぶされ、見えなくなっている。   FIG. 9 is a display example of data displayed on the screen, and includes a name, company name, affiliation, postal code, address, telephone number, and the like. These are important information for identifying an individual and are information that other people do not want to see. When these pieces of information are registered as keywords, by executing the masking process of the present invention, characters, numbers, etc. on the right side of these keywords are masked and displayed as a screen as shown in FIG. In FIG. 10, the masked portion is painted black and cannot be seen.

マスキング処理は、ユーザ設定したセキュリティレベルに応じて、図11に示すように変更することができる。例えば、セキュリティレベルに応じて、通常表示、難視認表示、不可視表示を設定できるようにすることができる。通常表示の場合、そのままの表示にするか、強調表示することができる。難視認表示の場合、低コントラスト表示、ぼかし、格子線を入れる等の視認が難しい表示にすることができる。不可視表示の場合、べた塗り(塗りつぶし)、モザイク処理等の視認が不可能な表示にすることができる。   The masking process can be changed as shown in FIG. 11 according to the security level set by the user. For example, normal display, difficult-to-view display, and invisible display can be set according to the security level. In the case of normal display, it can be displayed as it is or highlighted. In the case of difficult-to-view display, it is possible to make the display difficult to view such as low-contrast display, blurring, and grid lines. In the case of invisible display, it is possible to make a display incapable of visual recognition such as solid paint (filling) and mosaic processing.

また、画面表示に限らず、プリンタ等に出力する場合においても、ユーザが設定したセキュリティレベルに応じて、印刷可能、印刷不可のフラグをたて、そのフラグが印刷不可であれば、印刷しないようにすることができる。   Also, not only on the screen display but also when outputting to a printer or the like, depending on the security level set by the user, a flag indicating whether printing is possible or not is set, and if the flag is not printing, printing is not performed. Can be.

これまで本発明を上述した実施の形態をもって説明してきたが、本発明は上述した実施の形態に限定されるものではなく、他の実施の形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。したがって、本発明は、上記の画像処理装置および画像処理方法のほか、その方法を実行するためのコンピュータ可読なプログラム、そのプログラムが記録された記録媒体も提供することができるものである。   The present invention has been described with the above-described embodiments, but the present invention is not limited to the above-described embodiments, and those skilled in the art will conceive other embodiments, additions, changes, deletions, and the like. It can be changed within the range that can be performed, and any embodiment is included in the scope of the present invention as long as the operation and effect of the present invention are exhibited. Therefore, in addition to the image processing apparatus and the image processing method described above, the present invention can also provide a computer-readable program for executing the method and a recording medium on which the program is recorded.

100…画像処理装置、101…スキャナ部、102…撮像手段、103…CPU、104…表示データメモリ部、105…外部記憶部、106…CR−ROM、DVD、メモリカード、107…HDD、108…画像処理部、109…通信制御部、110…ネットワーク、111…表示部、112…バス、201…UI提供部、202…データ取得部、203…データ判定部、204…文字認識処理部、205…キーワード検索部、206…マスキング辞書保管部、207…マスキング処理部、208…データ出力部 DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 101 ... Scanner part, 102 ... Imaging means, 103 ... CPU, 104 ... Display data memory part, 105 ... External storage part, 106 ... CR-ROM, DVD, memory card, 107 ... HDD, 108 ... Image processing unit 109 ... Communication control unit 110 ... Network 111 ... Display unit 112 ... Bus 201 ... UI providing unit 202 ... Data acquisition unit 203 ... Data determination unit 204 ... Character recognition processing unit 205 ... Keyword search unit, 206 ... masking dictionary storage unit, 207 ... masking processing unit, 208 ... data output unit

特開2004−228709号公報JP 2004-228709 A 特開2007−074295号公報JP 2007-074295 A 特開2007−074088号公報Japanese Patent Laid-Open No. 2007-074088

“データの加工は不要:IBM、ディスプレイ上で機密情報をマスキングする技術を発表”、[online]、2009年7月10日、インターネット<URL:http://www.itmedia.co.jp/enterprise/articles/0907/10/news059.html>“Data processing is unnecessary: IBM announces technology to mask confidential information on display”, [online], July 10, 2009, Internet <URL: http://www.itmedia.co.jp/enterprise /articles/0907/10/news059.html>

Claims (17)

表示データを処理して表示させる画像処理装置であって、
表示装置へ送信され表示される前の前記表示データを取得するデータ取得部と、
取得した前記表示データが画像データであるかテキストデータであるかを判定するデータ判定部と、
前記表示データが画像データである場合に、該画像データに含まれる文字画像の文字認識を行う文字認識処理部と、
キーワードとマスキングすべき箇所とを対応付けて格納するマスキング辞書を用い、取得した前記テキストデータまたは前記文字認識処理部により文字認識された結果データの中に前記キーワードに一致するものを検索し、該テキストデータまたは該文字認識された結果データの中のマスキングすべき箇所を特定するキーワード検索部と、
取得した前記テキストデータまたは前記画像データの特定された箇所に対しマスキング処理するマスキング処理部と、
マスキング処理により生成されたテキストデータまたは画像データを前記表示データとして前記表示装置へ出力するデータ出力部とを含む、画像処理装置。
An image processing apparatus that processes and displays display data,
A data acquisition unit for acquiring the display data before being transmitted to the display device and displayed;
A data determination unit for determining whether the acquired display data is image data or text data;
A character recognition processing unit that performs character recognition of a character image included in the image data when the display data is image data;
Using a masking dictionary that stores a keyword and a portion to be masked in association with each other, search the acquired text data or result data recognized by the character recognition processing unit for a match with the keyword, A keyword search unit for specifying a portion to be masked in the text data or the character-recognized result data;
A masking processing unit that performs a masking process on the specified portion of the acquired text data or the image data;
An image processing apparatus comprising: a data output unit that outputs text data or image data generated by masking processing to the display apparatus as the display data.
前記データ取得部は、取得する前記表示データに応じてフラグを設定し、前記データ判定部は、前記表示データに設定された前記フラグに応じて、前記画像データであるか前記テキストデータであるかを判定する、請求項1に記載の画像処理装置。   The data acquisition unit sets a flag according to the display data to be acquired, and the data determination unit determines whether the data is the image data or the text data according to the flag set for the display data. The image processing apparatus according to claim 1, wherein: 前記データ取得部は、一定間隔で前記表示データを取得し、もしくはユーザ操作があったことに応答して前記表示データを取得し、または画面切り替えが発生したことに応答して前記表示データを取得する、請求項1または2に記載の画像処理装置。   The data acquisition unit acquires the display data at regular intervals, acquires the display data in response to a user operation, or acquires the display data in response to screen switching The image processing apparatus according to claim 1 or 2. 前記文字認識処理部は、文字の領域を抽出し、予め作成された文字パターン辞書の各文字画像と照合して、文字を識別することにより前記結果データとしてのテキストデータへ変換する、請求項1〜3のいずれか1項に記載の画像処理装置。   The character recognition processing unit extracts a character region, compares it with each character image in a character pattern dictionary created in advance, and identifies the character to convert it into text data as the result data. The image processing apparatus according to any one of? 前記マスキング辞書は、さらに、前記表示データを表示させるのに使用されるアプリケーションのアプリケーション名と、前記マスキングすべき箇所に含まれる文字の文字種とを含み、使用される前記アプリケーションおよび前記マスキングすべき箇所の前記文字種を判断してマスキング処理する、請求項1〜4のいずれか1項に記載の画像処理装置。   The masking dictionary further includes an application name of an application used for displaying the display data and a character type of a character included in the portion to be masked, and the application to be used and the portion to be masked. The image processing apparatus according to claim 1, wherein the character type is determined and masking is performed. 前記マスキング辞書は、さらに、前記キーワードおよび前記文字種に対応する文字画像データを含み、
前記キーワード検索部は、前記画像データに含まれる文字画像と、前記マスキング辞書に含まれる文字画像とのマッチング処理を行い、前記マスキングすべき箇所を探し出す、請求項5に記載の画像処理装置。
The masking dictionary further includes character image data corresponding to the keyword and the character type,
The image processing apparatus according to claim 5, wherein the keyword search unit performs a matching process between a character image included in the image data and a character image included in the masking dictionary to search for a portion to be masked.
前記マスキング処理部は、ユーザが設定したセキュリティレベルを参照し、前記セキュリティレベルに応じて、前記マスキングすべき箇所を、低コントラスト、ぼかし、格子線の追加、塗りつぶし、モザイクのいずれかで表示されるようにマスキング処理を行う、請求項1〜6のいずれか1項に記載の画像処理装置。   The masking processing unit refers to the security level set by the user, and the portion to be masked is displayed as one of low contrast, blurring, addition of a grid line, painting, and mosaic according to the security level. The image processing apparatus according to claim 1, wherein the masking process is performed as described above. 前記データ出力部は、前記表示装置に代えて、または前記表示装置とともに印刷装置へマスキング処理により生成されたテキストデータまたは画像データを出力する、請求項1〜7のいずれか1項に記載の画像処理装置。 The image according to any one of claims 1 to 7, wherein the data output unit outputs text data or image data generated by masking processing to a printing apparatus instead of the display apparatus or together with the display apparatus. Processing equipment. 表示データを処理して表示させる画像処理方法であって、該方法は画像処理装置により実行され、
表示装置へ送信され表示される前の前記表示データを取得するステップと、
取得した前記表示データが画像データであるかテキストデータであるかを判定するステップと、
前記表示データが画像データである場合に、該画像データに含まれる文字画像の文字認識を行うステップと、
キーワードとマスキングすべき箇所とを対応付けて格納するマスキング辞書を用い、取得した前記テキストデータまたは前記文字認識を行うステップにおいて文字認識された結果データの中に前記キーワードに一致するものを検索し、該テキストデータまたは該文字認識された結果データの中のマスキングすべき箇所を特定するステップと、
取得した前記テキストデータまたは前記画像データの特定された箇所に対しマスキング処理するステップと、
マスキング処理により生成されたテキストデータまたは画像データを前記表示データとして前記表示装置へ出力するステップとを含む、画像処理方法。
An image processing method for processing and displaying display data, the method being executed by an image processing device,
Obtaining the display data before being transmitted to the display device and displayed;
Determining whether the acquired display data is image data or text data;
When the display data is image data, performing character recognition of a character image included in the image data;
Using a masking dictionary that stores a keyword and a portion to be masked in association with each other, search the acquired text data or the result data recognized in the character recognition step to search for a match with the keyword, Identifying a portion to be masked in the text data or the character-recognized result data;
Masking the specified portion of the acquired text data or image data; and
Outputting the text data or image data generated by the masking process to the display device as the display data.
前記取得するステップでは、取得する前記表示データに応じてフラグを設定し、前記判定するステップでは、前記表示データに設定された前記フラグに応じて、前記画像データであるか前記テキストデータであるかを判定する、請求項9に記載の画像処理方法。   In the obtaining step, a flag is set in accordance with the display data to be obtained, and in the determining step, whether the image data or the text data is in accordance with the flag set in the display data. The image processing method according to claim 9, wherein: 前記取得するステップでは、一定間隔で前記表示データを取得し、もしくはユーザ操作があったことに応答して前記表示データを取得し、または画面切り替えが発生したことに応答して前記表示データを取得する、請求項9または10に記載の画像処理方法。   In the obtaining step, the display data is obtained at regular intervals, or the display data is obtained in response to a user operation, or the display data is obtained in response to a screen switching. The image processing method according to claim 9 or 10. 前記文字認識を行うステップは、文字の領域を抽出し、予め作成された文字パターン辞書の各文字画像と照合して、文字を識別することにより前記結果データとしてのテキストデータへ変換するステップを含む、請求項9〜11のいずれか1項に記載の画像処理方法。   The step of recognizing the character includes a step of extracting a character region, comparing it with each character image of a character pattern dictionary created in advance, and converting the text data as the result data by identifying the character. The image processing method according to any one of claims 9 to 11. 前記マスキング辞書は、さらに、前記表示データを表示させるのに使用されるアプリケーションのアプリケーション名と、前記マスキングすべき箇所に含まれる文字の文字種とを含み、前記マスキング処理するステップでは、使用される前記アプリケーションおよび前記マスキングすべき箇所の前記文字種を判断してマスキング処理する、請求項9〜12のいずれか1項に記載の画像処理方法。   The masking dictionary further includes an application name of an application used for displaying the display data and a character type of a character included in the portion to be masked, and is used in the masking step. The image processing method according to claim 9, wherein masking processing is performed by determining an application and the character type of the portion to be masked. 前記マスキング辞書は、さらに、前記キーワードおよび前記文字種に対応する文字画像データを含み、
前記特定するステップは、前記画像データに含まれる文字画像と、前記マスキング辞書に含まれる文字画像とのマッチング処理を行い、前記マスキングすべき箇所を探し出すステップを含む、請求項13に記載の画像処理方法。
The masking dictionary further includes character image data corresponding to the keyword and the character type,
The image processing according to claim 13, wherein the specifying step includes a step of performing matching processing between a character image included in the image data and a character image included in the masking dictionary and searching for a portion to be masked. Method.
前記マスキング処理するステップでは、ユーザが設定したセキュリティレベルを参照し、前記セキュリティレベルに応じて、前記マスキングすべき箇所を、低コントラスト、ぼかし、格子線の追加、塗りつぶし、モザイクのいずれかで表示されるようにマスキング処理を行う、請求項9〜14のいずれか1項に記載の画像処理方法。   In the step of masking, the security level set by the user is referred to, and the portion to be masked is displayed as one of low contrast, blurring, addition of a grid line, painting, and mosaic according to the security level. The image processing method according to claim 9, wherein the masking process is performed as described above. 前記出力するステップでは、前記表示装置に代えて、または前記表示装置とともに印刷装置へマスキング処理により生成されたテキストデータまたは画像データを出力する、請求項9〜15のいずれか1項に記載の画像処理方法。 The image according to any one of claims 9 to 15, wherein in the outputting step, text data or image data generated by a masking process is output to a printing device instead of the display device or together with the display device. Processing method. 請求項9〜16のいずれか1項に記載の画像処理方法を実行するためのコンピュータ可読なプログラム。   The computer-readable program for performing the image processing method of any one of Claims 9-16.
JP2010190639A 2010-08-27 2010-08-27 Image processor, image processing method and program Pending JP2012049860A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010190639A JP2012049860A (en) 2010-08-27 2010-08-27 Image processor, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010190639A JP2012049860A (en) 2010-08-27 2010-08-27 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2012049860A true JP2012049860A (en) 2012-03-08

Family

ID=45904215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010190639A Pending JP2012049860A (en) 2010-08-27 2010-08-27 Image processor, image processing method and program

Country Status (1)

Country Link
JP (1) JP2012049860A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019097056A (en) * 2017-11-24 2019-06-20 キヤノン電子株式会社 Information processing system
US10509913B2 (en) 2016-11-10 2019-12-17 Kyocera Document Solutions Inc. Image forming system and image forming method that execute masking process on concealment region, and recording medium therefor
JP2020170969A (en) * 2019-04-04 2020-10-15 富士通株式会社 Document output program, document output method, and document output system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255463A (en) * 1985-05-08 1986-11-13 C I C Japan Kk Information processing device and information processing system
JPH096974A (en) * 1995-06-20 1997-01-10 Canon Inc Image processing method and device
JP2001005443A (en) * 1999-06-21 2001-01-12 Sharp Corp Display device
JP2001357352A (en) * 2000-06-09 2001-12-26 Hitachi Ltd Device and method for document image output
JP2002271771A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Video information transmission system and video information processing unit
JP2005229265A (en) * 2004-02-12 2005-08-25 Kddi Corp Image encryption system and method
JP2007058380A (en) * 2005-08-23 2007-03-08 Hitachi Software Eng Co Ltd Electronic document masking system
JP2007249435A (en) * 2006-03-14 2007-09-27 Ricoh Co Ltd Document management device, document management method, document management program, and its recording medium
JP2009124319A (en) * 2007-11-13 2009-06-04 Murata Mach Ltd Image editing apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255463A (en) * 1985-05-08 1986-11-13 C I C Japan Kk Information processing device and information processing system
JPH096974A (en) * 1995-06-20 1997-01-10 Canon Inc Image processing method and device
JP2001005443A (en) * 1999-06-21 2001-01-12 Sharp Corp Display device
JP2001357352A (en) * 2000-06-09 2001-12-26 Hitachi Ltd Device and method for document image output
JP2002271771A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Video information transmission system and video information processing unit
JP2005229265A (en) * 2004-02-12 2005-08-25 Kddi Corp Image encryption system and method
JP2007058380A (en) * 2005-08-23 2007-03-08 Hitachi Software Eng Co Ltd Electronic document masking system
JP2007249435A (en) * 2006-03-14 2007-09-27 Ricoh Co Ltd Document management device, document management method, document management program, and its recording medium
JP2009124319A (en) * 2007-11-13 2009-06-04 Murata Mach Ltd Image editing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509913B2 (en) 2016-11-10 2019-12-17 Kyocera Document Solutions Inc. Image forming system and image forming method that execute masking process on concealment region, and recording medium therefor
JP2019097056A (en) * 2017-11-24 2019-06-20 キヤノン電子株式会社 Information processing system
JP7050471B2 (en) 2017-11-24 2022-04-08 キヤノン電子株式会社 Information processing system
JP2020170969A (en) * 2019-04-04 2020-10-15 富士通株式会社 Document output program, document output method, and document output system
JP7183923B2 (en) 2019-04-04 2022-12-06 富士通株式会社 Document output program, document output method and document output system

Similar Documents

Publication Publication Date Title
US10339378B2 (en) Method and apparatus for finding differences in documents
US7272269B2 (en) Image processing apparatus and method therefor
JP4576427B2 (en) Annotated image generation method and camera
US7321688B2 (en) Image processor for character recognition
US7630544B1 (en) System and method for locating a character set in a digital image
US7596271B2 (en) Image processing system and image processing method
JP4502385B2 (en) Image processing apparatus and control method thereof
WO2019072127A1 (en) Law enforcement recorder based on two-dimensional code scanning and identifying, and whole-process audio and video recording method
US8848984B2 (en) Dynamic thresholds for document tamper detection
JP2006025129A (en) System and method for image processing
JP2011513850A (en) How to scan
JP2012049860A (en) Image processor, image processing method and program
US10887491B2 (en) Image processing apparatus for processing of highlighted regions
JP2008028716A (en) Image processing method and apparatus
JP6919260B2 (en) Information converter and program
JP6540597B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CN107016320B (en) Method for improving image security level identification accuracy rate based on Chinese lexicon
US8295602B2 (en) Image processing apparatus and image processing method
JP5673277B2 (en) Image processing apparatus and program
US20080043269A1 (en) Method and apparatus for processing image containing picture and characters
JP4383429B2 (en) Form image processing method and apparatus
CN100511267C (en) Graph and text image processing equipment and image processing method thereof
JP2007049245A (en) Photography instrument with voice input function
JP2008193234A (en) Image processor, control method of image processor and control program of image processor
JP2009071781A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140930