JP2022152134A - Image data edition program, image data edition method, and image data edition device - Google Patents
Image data edition program, image data edition method, and image data edition device Download PDFInfo
- Publication number
- JP2022152134A JP2022152134A JP2021054791A JP2021054791A JP2022152134A JP 2022152134 A JP2022152134 A JP 2022152134A JP 2021054791 A JP2021054791 A JP 2021054791A JP 2021054791 A JP2021054791 A JP 2021054791A JP 2022152134 A JP2022152134 A JP 2022152134A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- image data
- item name
- masked
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000012545 processing Methods 0.000 claims abstract description 75
- 230000000873 masking effect Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 16
- 238000012015 optical character recognition Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Storage Device Security (AREA)
Abstract
Description
本発明は、画像データ編集プログラム、画像データ編集方法及び画像データ編集装置に関する。 The present invention relates to an image data editing program, an image data editing method, and an image data editing apparatus.
例えば、銀行等において、利用するシステムのマニュアルを作成する場合、実際の入力画面等をスクリーンショットして得られる画像を利用することがある。このような画像には、顧客情報などの秘匿すべき情報が含まれるため、従来においては、人手で秘匿すべき情報にマスクをかける必要があった。 For example, when creating a manual for a system used in a bank or the like, images obtained by taking screen shots of actual input screens and the like may be used. Since such an image includes confidential information such as customer information, it has been conventionally necessary to manually mask the confidential information.
また、画像の秘匿すべき部分を隠蔽する技術として、例えば特許文献1、2等が知られている。
In addition, for example,
しかしながら、人手で秘匿すべき情報にマスクをかける場合、手間がかかるとともに、見落としが生じるおそれがある。 However, when manually masking information that should be kept confidential, it is troublesome and may be overlooked.
また、例えば特許文献2では、表において特定の項目の所定方向(例えば下側)に並ぶ文字列を非表示にすることはできるものの、特定の項目に対応する文字列が当該項目の所定方向に並んでいない場合には非表示にすることはできない。
Further, for example, in
1つの側面では、本発明は、画像データに含まれる特定の項目に対応する文字列を精度よくマスクすることが可能な画像データ編集プログラム、画像データ編集方法及び画像データ編集装置を提供することを目的とする。 In one aspect, the present invention provides an image data editing program, an image data editing method, and an image data editing apparatus capable of precisely masking a character string corresponding to a specific item included in image data. aim.
一つの態様では、画像データ編集プログラムは、画像データに含まれる文字列を取得し、マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出し、前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定し、特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定し、前記画像データの、前記第1文字列と前記第2文字列をマスクする、処理をコンピュータに実行させるための画像データ編集プログラムである。 In one aspect, the image data editing program obtains a character string included in the image data, and refers to a storage unit that associates and stores an item name to be masked and a feature of the character string corresponding to the item name. extracts the item name to be masked from the obtained character string, refers to the storage unit, and corresponds to the extracted item name to be masked from the character string included in the image data. identifying a first character string that satisfies the characteristics of the character string to be masked, and using the identified first character string as a reference, identifying the characteristics of the character string corresponding to the extracted item name to be masked, arranged in the vertical and horizontal directions; An image data editing program for causing a computer to execute a process of specifying a satisfying second character string and masking the first character string and the second character string of the image data.
画像データに含まれる特定の項目に対応する文字列を精度よくマスクすることができる。 Character strings corresponding to specific items included in image data can be accurately masked.
以下、情報処理システムの一実施形態について、図1~図17に基づいて詳細に説明する。 An embodiment of an information processing system will be described in detail below with reference to FIGS. 1 to 17. FIG.
図1には、一実施形態に係る情報処理システム100の構成が概略的に示されている。図1に示すように、情報処理システム100は、画像データ編集装置としてのサーバ10と、管理者端末60と、複数の利用者端末70と、備えており、各装置は、インターネットなどのネットワーク80に接続されている。
FIG. 1 schematically shows the configuration of an
サーバ10は、利用者端末70から送信されてくる画像データを取得して、取得した画像データの中から、マスク(秘匿)すべき文字列を特定する。また、サーバ10は、特定した文字列を自動的にマスク処理し、マスク処理後の画像データを利用者端末70に戻す処理を実行する。
The
図2(a)には、サーバ10のハードウェア構成が示されている。図2(a)に示すように、サーバ10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(例えば、SSD(Solid State Drive)やHDD(Hard Disk Drive))96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これらサーバ10の構成各部は、バス98に接続されている。サーバ10では、ROM92あるいはHDD96に格納されているプログラム(画像データ編集プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(画像データ編集プログラムを含む)をCPU90が実行することにより、図3に示す、各部の機能が実現される。なお、図3には、サーバ10の記憶部96等に格納されている画像データ記憶部42や、記憶部としての文字列パターンDB40も図示されている。なお、図3の各部の機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。なお、図3の各部の詳細については後述する。
FIG. 2(a) shows the hardware configuration of the
管理者端末60は、管理者が利用するPC(Personal Computer)等の端末であり、図2(b)に示すようなハードウェア構成を有する。具体的には、図2(b)に示すように、管理者端末60は、CPU190、ROM192、RAM194、記憶部196、ネットワークインタフェース197、表示部193、入力部195、及び可搬型記憶媒体用ドライブ199等を備えている。これら管理者端末60の構成各部は、バス198に接続されている。また、可搬型記憶媒体用ドライブ199は、可搬型記憶媒体191に記憶されているプログラムやデータを読み取る装置である。表示部193は、液晶ディスプレイ等を含み、入力部195は、キーボードやマウス、タッチパネル等を含む。
The
管理者端末60を利用する管理者は、入力部195を介して、画像データにおいてマスク処理を施すべき文字列の情報を入力する。サーバ10では、管理者が入力した情報を取得すると、当該情報を管理し、マスク処理に利用する。
An administrator using the
利用者端末70は、利用者(例えば銀行で利用されるシステムのマニュアルを作成するユーザ)が利用するPC(Personal Computer)等の端末であり、管理者端末60と同様、図2(b)に示すようなハードウェア構成を有する。
The
利用者端末70を利用する利用者は、入力部195を介して、表示部193上に表示されている画面をキャプチャするための指示を入力する(例えば、キーボードの「print screen」キーを押下する)。利用者端末70は、当該指示が入力されると、表示部193上に表示されている画面をキャプチャし、生成された画像データをサーバ10に送信する。また、利用者端末70は、サーバ10からマスク処理後の画像データが送信されてきたときに、当該画像データを取得する。
A user using the
図4には、本実施形態における、管理者端末60、サーバ10、利用者端末70の処理の概要が示されている。本実施形態においては、管理者が、管理者端末60に、マスク処理を施すべき文字列の情報を入力すると、管理者端末60は、(1)マスク処理すべき文字列の情報をサーバ10に送信する。この情報を受信したサーバ10は、(2)管理者端末60から受信したマスク処理すべき文字列の情報を登録する。この(1)、(2)の処理は、管理者がマスク処理すべき文字列の情報を入力するたびに実行される。一方、利用者端末70において、利用者が画面をキャプチャする指示を入力すると、利用者端末70は、(3)画面をキャプチャし、キャプチャした画像データをサーバ10に送信する。これに対し、画像データを受信したサーバ10は、(4)受信した画像データに対しマスク処理を実行する。そして、サーバ10は、(5)マスク処理後の画像データを利用者端末70に送信する。本実施形態では、例えば、利用者端末70において図8に示すような画像データがキャプチャされた場合、サーバ10では、図16に示すようにマスク処理し、マスク処理後の画像データが利用者端末70に送信されるようになっている。
FIG. 4 shows an outline of processing of the
次に、サーバ10の機能について、図3に基づいて説明する。サーバ10は、CPU90がプログラムを実行することにより、登録部20、画像データ受信部24、文字列取得部としてのOCR処理部26、秘密情報解析部28、マスク処理部30、マスク画像送信部32、として機能する。
Next, functions of the
登録部20は、管理者端末60において管理者が入力したマスク処理すべき文字列の情報を取得し、文字列パターンDB40に格納する。ここで、文字列パターンDB40は、画像データの中からマスク処理をすべき文字列を特定するために必要な情報が格納されている。具体的には、文字列パターンDB40は、図5(a)に示すように、「項目名」、「属性」、「値」、「チェックルール」の各フィールドを有する。「項目名」のフィールドには、マスク処理をすべき文字列の項目名(例えば「マイナンバー」や「性別」など)が格納されている。「属性」及び「値」のフィールドには、「項目名」に対応する文字列の特徴が格納されている。例えば、項目名が「マイナンバー」の場合、属性として「%n12」が格納されている。「%n12」は、12桁の数値を意味する。また、例えば、項目名が「性別」の場合、値として具体的な文字列「男」、「女」「男性」、「女性」が格納されている。
The
「チェックルール」には、属性や値では表現できない条件がある場合に、詳細なチェックルールが格納される。例えば、項目名が「マイナンバー」の場合、12桁の数値がマイナンバーであるかをチェックする「マイナンバーチェック」が格納される。マイナンバーチェックとしては、総務省で定められた、文字列の12桁目でチェックデジットを行う方法を用いることができる(平成二十六年総務省令第八十五号「行政手続における特定の個人を識別するための番号の利用等に関する法律の規定による通知カード及び個人番号カード並びに情報提供ネットワークシステムによる特定個人情報の提供等に関する省令」第五条)。また、例えば項目名が「免許証番号」の場合、「チェックルール」には、「免許証番号チェック」が格納される。この免許証番号チェックの場合、警察庁で定められた、文字列の11桁目でチェックデジットを行う方法を用いることができる(昭和56年9月10日「丁運発第105号 運転免許証の番号の形式及び内容について」参照)。
"Check rules" stores detailed check rules when there are conditions that cannot be expressed by attributes or values. For example, if the item name is "my number", "my number check" for checking whether the 12-digit number is my number is stored. As a My Number check, the method of performing a check digit in the 12th digit of a character string specified by the Ministry of Internal Affairs and Communications (Ministry of Internal Affairs and Communications Ordinance No. 85 of 2014,
上記のように、本実施形態では、図5(a)の文字列パターンDB40において、マスク対象の項目名と、項目名に対応する文字列の特徴とが関連付けて(紐付けて)記憶されている。
As described above, in this embodiment, in the character
また、例外処理として、ある領域をマスク領域として追加したり、ある領域をマスク領域から除外する場合には、「チェックルール」のフィールドに、領域を特定するための画像が格納される。なお、領域を特定するための画像の具体例については、後述する。 As exception processing, when adding a certain area as a mask area or excluding a certain area from the mask area, an image for specifying the area is stored in the "check rule" field. A specific example of the image for identifying the area will be described later.
画像データ受信部24は、利用者端末70においてキャプチャされた画像データを取得し、画像データ記憶部42に記憶する。なお、画像データ記憶部42には、サーバ10においてマスク処理される画像データが一時記憶される。
The image
OCR処理部26は、画像データ記憶部42に記憶された画像データを取得し、OCR(Optical Character Recognition)処理により、画像データに含まれる文字列を取得する。
The
秘密情報解析部28は、文字列パターンDB40(図5(a))を参照して、OCR処理部26が取得した文字列の中から、文字列パターンDB40に格納されている項目名と一致する文字列を特定する。また、秘密情報解析部28は、特定した文字列を基準として、項目名に対応する特徴を有する文字列(マスクすべき、又はマスクするのが好ましい文字列)を抽出する。
The confidential
マスク処理部30は、画像データ記憶部42から画像データを読み出し、秘密情報解析部28が抽出したマスクすべき文字列をマスクする処理を実行する。
The
マスク画像送信部32は、マスク処理部30がマスク処理した画像データを利用者端末70に対して送信する処理を実行する。
The mask
(サーバ10の処理について)
次に、サーバ10の処理について、図6、図7のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。
(Regarding the processing of the server 10)
Next, the processing of the
(登録部20の処理)
図6は、登録部20の処理を示すフローチャートである。この図6の処理は、図4の(1)、(2)の処理に対応している。
(Processing of registration unit 20)
FIG. 6 is a flow chart showing the processing of the
図6の処理が開始されると、登録部20は、まず、ステップS10において、マスク対象の項目名と文字列パターンの情報(属性、値、チェックルール)を受信するまで待機する。管理者端末60に管理者がマスク対象の項目名と文字列パターンの情報を入力すると、ステップS12に移行する。
When the process of FIG. 6 is started, the
ステップS12に移行すると、登録部20は、項目名と文字列パターンとを紐づけて、文字列パターンDB40に格納する。例えば、管理者が項目名「マイナンバー」と「性別」に関する文字列パターンの情報(特徴の情報)を入力した場合には、図5(a)に示すように情報を格納する。登録部20は、その後はステップS10に戻り、上記処理を繰り返し実行する。
In step S<b>12 , the
(画像データのマスク処理)
図7は、サーバ10による画像データのマスク処理を示すフローチャートである。この図7の処理は、図4の(3)~(5)の処理に対応している。図7の処理は、利用者端末70からキャプチャされた画像データが送信されてきた段階(画像データ受信部24が画像データを取得した段階)で開始される。なお、ここでは、画像データ受信部24は、図8に示すような画像データを取得し、画像データ記憶部42に記憶したとする。図8においては、画像データの左上を原点とした座標系を示しているが、実際の画像データには座標系の表示は含まれないものとする。
(Mask processing of image data)
FIG. 7 is a flowchart showing image data masking processing by the
図7の処理が開始されると、まず、ステップS30において、OCR処理部26が、画像データに対してOCR処理を実行し、各文字列と、文字列の位置やサイズ情報を取得する。ここで、文字列の位置やサイズの情報には、文字列の左上位置を原点として、原点の横方向の座標、原点の縦方向の座標、文字列全体を矩形とみなしたときの矩形サイズ横、矩形サイズ縦の情報が含まれる。図9には、図8の画像データに含まれる全ての文字列の情報が示されている。例えば、「マイナンバー」という文字列であれば、文字列の情報は、文字列=「マイナンバー」、原点の横方向の座標=「150」、原点の縦方向の座標=「50」、文字列全体を矩形とみなしたときの矩形サイズ横=「75」、矩形サイズ縦=「25」である。図9のように取得された情報は、図10(a)に示すようにリスト化され、秘密情報解析部28に送信される。
When the process of FIG. 7 is started, first, in step S30, the
次いで、ステップS32では、秘密情報解析部28が、文字列パターンDB40(図5(a))を参照して、文字列パターンDB40に格納されている項目名と一致する文字列を特定する。ここでは、図10(a)のリストから、図10(b)に示すように、文字列「マイナンバー」と「性別」が特定される。
Next, in step S32, the confidential
次いで、ステップS34では、秘密情報解析部28が、文字列パターンDB40を参照し、特定した項目名に対応する特徴を有する文字列を抽出する。
Next, in step S34, the confidential
ここで、秘密情報解析部28は、まず、項目名「マイナンバー」についての処理を行うものとする。このとき、秘密情報解析部28は、図10(a)のリストの中から、12桁の数値であり、かつマイナンバーチェックの条件をクリアする文字列を特定する。例えば、図10(a)のリスト中から、12桁の数値として、図11(a)に示す(A)~(G)の7つの文字列が特定されたとする。また、特定された7つの文字列のうち、マイナンバーチェックの条件をクリアする文字列は、(A)文字列「123456789012」と、(C)「234567890123」、(G)「345678901234」となったものとする。
Here, it is assumed that the confidential
また、秘密情報解析部28は、上記マイナンバーチェックの条件を満たす文字列であっても、マスク領域から除外する領域に存在する文字列は除外する。図5(a)の例では、マスク領域から除外する領域が、従業員番号欄画像.PNGで特定されている。従業員番号欄画像.PNGは、図5(b)に示すような画像である。この場合、秘密情報解析部28は、項目名「従業員番号」の下側の欄の領域に存在する12桁の文字列は、マスクしないこととする。図8の例では、当該領域に文字列「999999999999」や「8888888888888」が存在しているので、これらの文字列については、仮にマイナンバーチェックの条件を満たす場合でも除外される。この結果、項目名「マイナンバー」に対応する特徴を有する文字列のリストとして、図11(b)に示すようなリストが得られる。
In addition, the secret
本実施形態では、上述したように、マスク領域から除外する領域を定義するために「従業員番号欄画像.PNG」のような画像(図5(b))を用いることとしている。これにより、利用者が表をどのような大きさ(拡大率)でキャプチャしても、マスク領域から除外する箇所を精度よく特定することができる。 In this embodiment, as described above, an image such as "employee number column image.PNG" (FIG. 5(b)) is used to define the area to be excluded from the mask area. As a result, regardless of the size (enlargement ratio) of the table captured by the user, it is possible to accurately specify the portion to be excluded from the mask area.
また、秘密情報解析部28は、項目名「性別」についての処理も行う。この場合、秘密情報解析部28は、図10(a)のリストから、「男」、「女」、「男性」、「女性」のいずれかである文字列(図12(a)の(H)、(I)参照)を、特定する。この結果、項目名「性別」に対応する特徴を有する文字列のリストとして、図12(b)に示すようなリストが得られる。
The secret
次いで、ステップS36では、秘密情報解析部28が、項目名に対応する特徴を有する文字列が抽出できたか否かを判断する。このステップS36の判断が否定された場合、すなわちステップS34において文字列を特定できなかった場合には、ステップS50に移行し、秘密情報解析部28はマスク処理を行う箇所が無かった旨を利用者端末70に通知する。利用者は、この通知を参照することで、キャプチャした画像に秘匿すべき情報がないことを確認できるので、安心して、キャプチャした画像をマニュアル等の作成に利用することができる。その後は、図7の全処理を終了する。
Next, in step S36, the secret
一方、ステップS36の判断が肯定された場合、すなわち、図11(b)、図12(b)に示すようにステップS34において文字列を特定できた場合には、ステップS38に移行する。ステップS38に移行すると、秘密情報解析部28は、ステップS34において抽出できた文字列に対応する項目名を1つ選択する。ここでは、項目名「マイナンバー」が選択されるものとする。
On the other hand, if the determination in step S36 is affirmative, that is, if the character string can be specified in step S34 as shown in FIGS. 11(b) and 12(b), the process proceeds to step S38. After proceeding to step S38, the confidential
次いで、ステップS40では、秘密情報解析部28が、選択した項目名の左上側の領域を除く領域において、抽出した文字列の中から、選択した項目名の位置に最も近い文字列を特定する。この場合、秘密情報解析部28は、図10(b)の項目名「マイナンバー」の座標と、図11(b)のリストに含まれる文字列の座標を参照する。そして、秘密情報解析部28は、図13に示すように項目名「マイナンバー」の原点から見て、第2象限を除く領域(第1、第3、第4象限)に存在し、項目名「マイナンバー」の原点から最も原点が近い文字列(第1文字列)を特定する。このように第2象限を除外するのは、第2象限には、選択している項目名「マイナンバー」に対応する文字列が存在する可能性が低いからであり、第2象限を除外することで、処理を簡素化することができる。ここでは、図11(b)のリストのうち、文字列「123456789012」が特定されたものとする。
Next, in step S40, the secret
次いで、ステップS42では、秘密情報解析部28が、抽出した文字列(図11(b))の中から、特定した文字列(第1文字列)を基準として、縦横に並ぶ文字列(第2文字列)を特定する。具体的には、秘密情報解析部28は、図14に示すように、文字列「123456789012」から縦方向に探索することで、文字列「234567890123」を特定する。また、秘密情報解析部28は、文字列「123456789012」から横方向に探索したり、文字列「234567890123」から横方向に探索するが(図14の破線矢印参照)、この場合には、新たな文字列は特定されない。したがって、本実施形態では、秘密情報解析部28は、図15(a)、図15(b)に示すようなマスク対象領域の情報(マスク処理をすべき文字列を示す情報)を生成し、マスク処理部30に送信する。なお、例えば、文字列「123456789012」や「234567890123」から横方向に探索した結果、新たな文字列が特定された場合には、秘密情報解析部28は、新たに特定された文字列を起点として縦方向や横方向に文字列の探索を行うものとする。
Next, in step S42, the secret
次いで、ステップS44では、秘密情報解析部28が、マスク領域追加処理を実行し、追加対象の文字列を特定する。この場合、秘密情報解析部28は、図5(a)の文字列パターンDB40を参照して、選択している項目名に対応するチェックルールとして「マスク領域追加」が存在しているかを判断する。そして、存在している場合には、秘密情報解析部28は、当該マスク領域追加に対応付けられている画像(ここでは「備考欄画像.PNG」)を参照する。ここで、「備考欄画像.PNG」は、図5(c)に示すような画像であるとする。秘密情報解析部28は、この「備考欄画像.PNG」と同一の部分が、図8の画像データ中に存在するかを判断する。図8の場合、図5(c)と同一の部分が存在しているので、その部分の下側の欄に存在する12桁の数値で、マイナンバーチェックの条件を満たす文字列をマスク対象とする。図8の例では、「345678901234」がマスク対象領域となる。したがって、秘密情報解析部28は、図15(c)に示すようなマスク対象領域の情報を生成し、マスク処理部30に送信する。
Next, in step S44, the secret
なお、本実施形態では、上述したように、マスク領域に追加する領域を定義するために図5(c)に示す「備考欄画像.PNG」のような画像を用いることとしている。これにより、利用者が表をどのような大きさ(拡大率)でキャプチャしても、マスク領域を精度よく特定することができる。 In this embodiment, as described above, an image such as "remark column image.PNG" shown in FIG. 5C is used to define the area to be added to the mask area. This allows the user to accurately specify the mask area regardless of the size (enlargement ratio) of the table captured by the user.
次いで、ステップS46では、秘密情報解析部28が、項目名を全て選択したか否かを判断する。ここでの判断が否定されると、秘密情報解析部28は、ステップS38に戻る。
Next, in step S46, the secret
ステップS38に戻ると、秘密情報解析部28は、ステップS34において抽出できた文字列に対応する項目名を1つ選択する。ここでは、項目名「性別」が選択されるものとする。
Returning to step S38, the secret
次いで、ステップS40では、秘密情報解析部28が、選択した項目名「性別」の原点を基準とした左上の領域を除く領域において、抽出した文字列(図12(b))の中から、選択した項目名の位置に最も近い文字列を特定する。この場合、図12(b)のリストに含まれる文字列の中から、図8において上側に位置する「男性」の文字列が特定される。
Next, in step S40, the secret
次いで、ステップS42では、秘密情報解析部28が、抽出した文字列(図12(b))の中から、ステップS40で特定した文字列を基準として、縦横に並ぶ文字列を特定する。これにより、図8において下側に位置する「男性」の文字列が特定される。本実施形態では、秘密情報解析部28は、図15(d)、図15(e)に示すようなマスク対象領域の情報を生成し、マスク処理部30に送信する。
Next, in step S42, the confidential
次いで、ステップS44では、秘密情報解析部28が、マスク領域追加処理を実行し、追加対象の文字列を特定する。なお、図5(a)に示すように、選択中の項目名「性別」には「マスク領域追加」のチェックルールが存在していないので、ここでの処理は行われず、ステップS46に移行する。
Next, in step S44, the secret
ステップS46に移行すると、秘密情報解析部28は、項目名を全て選択したか否かを判断する。ここでの判断が肯定されると、秘密情報解析部28は、ステップS48に移行する。
After proceeding to step S46, the secret
ステップS48では、マスク処理部30が、画像データのうち、特定された文字列の位置をマスク処理する。具体的には、マスク処理部30は、秘密情報解析部28から送信されてきた図15(a)~図15(e)に示すマスク対象領域の情報に基づいて、図8の画像データを図16に示すようにマスク処理する。そして、マスク画像送信部32は、マスク処理後の画像データ(図16)を利用者端末70に送信する。これにより、利用者は、人手で画像データにマスク処理を行う必要がなくなる。また、本実施形態では、精度よく画像データがマスク処理されるため、秘匿すべき情報が漏洩するのを防止することができる。以上により、図7の全処理が終了する。
In step S48, the
なお、本実施形態では、図17(a)に示すような表(3列目以降の項目名が省略されている表)がキャプチャされた場合でも、マスク処理すべき文字列を精度よく特定することができる。この場合、項目名「マイナンバー」が特定され((1)参照)、項目名に対応する特徴を有する文字列のうち最も近い文字列(第1文字列)が特定される((2)参照)。そして、(2)で特定された最も近い文字列から縦横方向に探索されることで、同様の特徴を有する文字列(第2文字列)が特定される((3)~(5)参照)。なお、本処理においては、(2)の文字列を起点として、縦方向に探索をし、縦方向の文字列の探索が完了したら、(2)の文字列と、縦方向の探索で見つかった(3)の文字列を起点として横方向への探索を行う。また、横方向の探索で新たに見つかった(4)、(5)の文字列からも縦方向及び横方向に探索を行う。なお、既に見つかっている文字列が再度見つかった場合には、その文字列からは再度探索は行わないこととする。 Note that, in this embodiment, even when a table such as that shown in FIG. 17A (a table in which item names in the third and subsequent columns are omitted) is captured, character strings to be masked can be specified with high accuracy. be able to. In this case, the item name "my number" is identified (see (1)), and the closest character string (first character string) among character strings having characteristics corresponding to the item name is identified (see (2) ). Then, by searching in the vertical and horizontal directions from the closest character string identified in (2), a character string (second character string) having similar characteristics is identified (see (3) to (5)). . In this process, starting from the character string in (2), the search is performed in the vertical direction. A horizontal search is performed starting from the character string in (3). The character strings (4) and (5) newly found in the horizontal search are also searched vertically and horizontally. If a character string that has already been found is found again, the character string is not searched again.
また、図17(b)に示すような表(項目名「マイナンバー」よりも上側にマイナンバーの文字列が表示された表)がキャプチャされた場合でも、マスク処理すべき文字列を精度よく特定することができる。この場合、(1)項目名「マイナンバー」が特定され、(2)項目名に対応する特徴を有する文字列のうち最も近い文字列(第1文字列)が特定される。そして、(3)~(5)最も近い文字列から縦横方向に探索して同様の特徴を有する文字列(第2文字列)が特定される。このように、様々な形式の表がキャプチャされた画像データであっても、図8の画像データと同様に、マスク処理を精度よく行うことができる。 In addition, even when a table such as that shown in FIG. can be specified. In this case, (1) the item name “my number” is identified, and (2) the closest character string (first character string) among character strings having characteristics corresponding to the item name is identified. Then, (3) to (5) a character string having similar characteristics (second character string) is specified by searching in the vertical and horizontal directions from the closest character string. In this way, even for image data in which tables in various formats are captured, mask processing can be performed with high accuracy, as with the image data in FIG.
これまでの説明から明らかなように、本実施形態では、秘密情報解析部28により、画像データから所定の項目名を抽出する抽出部、画像データから項目名に対応する文字列の特徴を満たす文字列を特定する第1、第2特定部としての機能が実現されている。
As is clear from the above description, in the present embodiment, the secret
以上、詳細に説明したように、本実施形態によると、OCR処理部26は、画像データに含まれる文字列を取得する(S30)。また、秘密情報解析部28は、文字列パターンDB40を参照して、取得した文字列の中からマスク対象の項目名を特定する(S32)。また、秘密情報解析部28は、文字列パターンDB40を参照して、画像データに含まれる文字列の中から、特定した項目名に対応する文字列の特徴を満たす文字列を特定する(S34、S40)。また、秘密情報解析部28は、特定した文字列を基準として、縦方向及び横方向に並ぶ、項目名に対応する文字列の特徴を満たす文字列を特定する(S42)。そして、マスク処理部30は、秘密情報解析部28の処理結果に基づいて、画像データをマスク処理する(S48)。すなわち、秘密情報解析部28は、マスクするのが好ましい文字列の特徴を有する文字列(第1文字列)を基準として、同様の特徴を有する文字列が配置されている可能性の高い位置を探索し、同様の特徴を有する文字列(第2文字列)を特定する。これにより、精度よくマスク対象の文字列を特定することができる。したがって、サーバ10によれば、マスク対象の文字列が精度よくマスク処理された画像データを自動的に生成し、利用者端末70に提供することができる。また、サーバ10において画像データが自動的にマスク処理されることから、利用者は、画像データを手動でマスク処理しなくてもよくなる。例えば、マスク処理の方法としては、項目名の所定方向(右方向や下方向)に存在する所定文字数の文字列をマスクする方法がある。しかしながら、このような方法では、図17(a)や図17(b)のような表を含む画像データを適切にマスクすることは難しい。一方、本実施形態では、図17(a)や図17(b)のような表を含む画像データであっても、適切にマスク処理を行うことができる。
As described above in detail, according to the present embodiment, the
また、本実施形態では、ステップS40において、秘密情報解析部28は、選択している項目名の左上側(第2象限)を除く範囲において、項目名に対応する特徴を有する文字列を1つ特定する。このように、処理において、第2象限を除外することで、処理の簡素化を図ることができる。
Further, in this embodiment, in step S40, the secret
また、本実施形態では、図5(a)の「チェックルール」のフィールドに、マスク領域を追加するために用いる画像(例えば、備考欄画像.PNG)を格納しておくことができる。このように、マスク領域を特定する画像を格納しておくことで、表がどのような大きさ(拡大率)でキャプチャされたとしても、マスク領域に追加する領域を精度よく特定することができる。 In this embodiment, an image (for example, remarks column image.PNG) used for adding a mask area can be stored in the "check rule" field in FIG. 5(a). By storing an image that specifies the mask area in this way, the area to be added to the mask area can be specified with high accuracy no matter what size (magnification) the table is captured. .
なお、上記実施形態では、秘密情報解析部28は、ステップS40において、項目名に対応する特徴を有する文字列のうち、項目名の最も近くに存在する文字列を特定しているが、これに限られるものではない。例えば、秘密情報解析部28は、項目名に対応する特徴を有する文字列の中からランダムに1つの文字列を特定してもよい。
In the above-described embodiment, the confidential
なお、上記実施形態では、秘密情報解析部28は、ステップS40において、項目名の原点を基準として第2象限以外の範囲で、項目名の位置に最も近い文字列を特定する場合について説明したが、これに限られるものではない。例えば、ステップS34において、秘密情報解析部28が文字列を抽出する範囲から、第2象限を除外してもよい。また、ステップS42において、秘密情報解析部28が縦横に探索する際に、第2象限を除外することとしてもよい。あるいは、ステップS40やステップS34、S42において、第2象限を除外せずに各処理を行うこととしてもよい。
In the above embodiment, the confidential
なお、上記実施形態では、マスク処理部30は、文字列を黒塗りの矩形形状でマスクする場合について説明したが、これに限られるものではない。例えば、文字列の文字数がわかるように、1文字ずつマスクすることとしてもよい。また、モザイク処理を行ったり、任意の文字(例えばアルファベットや×など)で置き換える処理を行うこととしてもよい。
In the above-described embodiment, the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記憶媒体(ただし、搬送波は除く)に記録しておくことができる。 Note that the processing functions described above can be realized by a computer. In that case, a program is provided that describes the processing contents of the functions that the processing device should have. By executing the program on a computer, the above processing functions are realized on the computer. A program describing the processing content can be recorded in a computer-readable storage medium (excluding carrier waves).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)などの可搬型記憶媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable storage medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.
プログラムを実行するコンピュータは、例えば、可搬型記憶媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記憶媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 A computer that executes a program stores, for example, a program recorded on a portable storage medium or a program transferred from a server computer in its own storage device. The computer then reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable storage medium and execute processing according to the program. In addition, the computer can also execute processing in accordance with the received program each time the program is transferred from the server computer.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are examples of preferred implementations of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the spirit of the present invention.
なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 画像データに含まれる文字列を取得し、
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出し、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定し、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定し、
前記画像データの、前記第1文字列と前記第2文字列をマスクする、
処理をコンピュータに実行させるための画像データ編集プログラム。
(付記2) 前記第1文字列を特定する処理では、抽出した前記マスク対象の項目名の左上側を除く範囲に存在する文字列の中から、前記第1文字列を1つ特定する、ことを特徴とする付記1に記載の画像データ編集プログラム。
(付記3) 前記第1文字列を特定する処理では、抽出した前記マスク対象の項目名に最も近い位置に存在する前記第1文字列を特定する、ことを特徴とする付記1又は2に記載の画像データ編集プログラム。
(付記4) 前記記憶部は、マスク対象の領域を示す画像と、前記マスク対象の領域に対応する文字列の特徴とを関連付けて記憶しており、
前記マスクする処理では、前記画像データのうち、前記記憶部に記憶されている前記マスク対象の領域に存在し、かつ前記マスク対象の領域に対応する文字列の特徴を有する文字列をマスクする、ことを特徴とする付記1~3のいずれかに記載の画像データ編集プログラム。
(付記5) 画像データに含まれる文字列を取得し、
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出し、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定し、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定し、
前記画像データの、前記第1文字列と前記第2文字列をマスクする、
処理をコンピュータが実行することを特徴とする画像データ編集方法。
(付記6) 画像データに含まれる文字列を取得する文字列取得部と、
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部と、
前記記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出する抽出部と、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定する第1特定部と、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定する第2特定部と、
前記画像データの、前記第1文字列と前記第2文字列をマスクするマスク処理部と、
を備える画像データ編集装置。
(付記7) 前記第1特定部は、抽出した前記マスク対象の項目名の左上側を除く範囲に存在する文字列の中から、前記第1文字列を1つ特定する、ことを特徴とする付記6に記載の画像データ編集装置。
(付記8) 前記第1特定部は、抽出した前記マスク対象の項目名に最も近い位置に存在する前記第1文字列を特定する、ことを特徴とする付記6又は7に記載の画像データ編集装置。
(付記9) 前記記憶部は、マスク対象の領域を示す画像と、前記マスク対象の領域に対応する文字列の特徴とを関連付けて記憶しており、
前記マスク処理部は、前記画像データのうち、前記記憶部に記憶されている前記マスク対象の領域に存在し、かつ前記マスク対象の領域に対応する文字列の特徴を有する文字列をマスクする、ことを特徴とする付記6~8のいずれかに記載の画像データ編集装置。
In addition, the following additional remarks will be disclosed with respect to the above description of the embodiment.
(Appendix 1) Get the character string included in the image data,
extracting the item name to be masked from the obtained character string by referring to a storage unit that stores an item name to be masked and a feature of a character string corresponding to the item name in association with each other;
identifying a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked, from among the character strings included in the image data, by referring to the storage unit;
Using the identified first character string as a reference, identifying a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and arranged in the vertical and horizontal directions;
masking the first character string and the second character string of the image data;
An image data editing program for making a computer execute processing.
(Appendix 2) In the process of identifying the first character string, one of the first character strings is identified from character strings existing in a range excluding the upper left side of the extracted item name to be masked. The image data editing program according to
(Appendix 3) The method according to
(Appendix 4) The storage unit associates and stores an image showing a mask target area and a feature of a character string corresponding to the mask target area,
In the masking process, among the image data, a character string that exists in the mask target area stored in the storage unit and has characteristics of a character string corresponding to the mask target area is masked. The image data editing program according to any one of
(Appendix 5) Acquire the character string included in the image data,
extracting the item name to be masked from the obtained character string by referring to a storage unit that stores an item name to be masked and a feature of a character string corresponding to the item name in association with each other;
identifying a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked, from among the character strings included in the image data, by referring to the storage unit;
Using the identified first character string as a reference, identifying a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and arranged in the vertical and horizontal directions;
masking the first character string and the second character string of the image data;
An image data editing method characterized in that processing is executed by a computer.
(Additional remark 6) a character string obtaining unit for obtaining a character string included in the image data;
a storage unit that associates and stores an item name to be masked and a feature of a character string corresponding to the item name;
an extraction unit that refers to the storage unit and extracts the item name to be masked from the obtained character string;
a first specifying unit that refers to the storage unit and specifies, from among the character strings included in the image data, a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked;
a second identifying unit that identifies a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and that is aligned vertically and horizontally with the identified first character string as a reference;
a mask processing unit that masks the first character string and the second character string of the image data;
An image data editing device comprising:
(Supplementary Note 7) The first identification unit identifies one of the first character strings from character strings existing in a range excluding the upper left side of the extracted item name to be masked. The image data editing device according to appendix 6.
(Supplementary note 8) The image data editing according to Supplementary note 6 or 7, wherein the first specifying unit specifies the first character string present at a position closest to the extracted item name to be masked. Device.
(Additional Note 9) The storage unit associates and stores an image showing a mask target area and a feature of a character string corresponding to the mask target area,
The mask processing unit masks a character string existing in the mask target area stored in the storage unit and having characteristics of a character string corresponding to the mask target area in the image data. The image data editing device according to any one of appendices 6 to 8, characterized by:
10 サーバ(画像データ編集装置)
26 OCR処理部(文字列取得部)
28 秘密情報解析部(抽出部、第1特定部、第2特定部)
30 マスク処理部
40 文字列パターンDB(記憶部)
10 server (image data editing device)
26 OCR processing unit (character string acquisition unit)
28 secret information analysis unit (extraction unit, first identification unit, second identification unit)
30
Claims (6)
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出し、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定し、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定し、
前記画像データの、前記第1文字列と前記第2文字列をマスクする、
処理をコンピュータに実行させるための画像データ編集プログラム。 Get the string contained in the image data,
extracting the item name to be masked from the obtained character string by referring to a storage unit that stores an item name to be masked and a feature of a character string corresponding to the item name in association with each other;
identifying a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked, from among the character strings included in the image data, by referring to the storage unit;
Using the identified first character string as a reference, identifying a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and arranged in the vertical and horizontal directions;
masking the first character string and the second character string of the image data;
An image data editing program for making a computer execute processing.
前記マスクする処理では、前記画像データのうち、前記記憶部に記憶されている前記マスク対象の領域に存在し、かつ前記マスク対象の領域に対応する文字列の特徴を有する文字列をマスクする、ことを特徴とする請求項1~3のいずれか一項に記載の画像データ編集プログラム。 The storage unit associates and stores an image showing a region to be masked and a feature of a character string corresponding to the region to be masked,
In the masking process, among the image data, a character string that exists in the mask target area stored in the storage unit and has characteristics of a character string corresponding to the mask target area is masked. 4. The image data editing program according to any one of claims 1 to 3, characterized by:
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出し、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定し、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定し、
前記画像データの、前記第1文字列と前記第2文字列をマスクする、
処理をコンピュータが実行することを特徴とする画像データ編集方法。 Get the string contained in the image data,
extracting the item name to be masked from the obtained character string by referring to a storage unit that stores an item name to be masked and a feature of a character string corresponding to the item name in association with each other;
identifying a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked, from among the character strings included in the image data, by referring to the storage unit;
Using the identified first character string as a reference, identifying a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and arranged in the vertical and horizontal directions;
masking the first character string and the second character string of the image data;
An image data editing method characterized in that processing is executed by a computer.
マスク対象の項目名と、該項目名に対応する文字列の特徴とを関連付けて記憶する記憶部と、
前記記憶部を参照して、取得した前記文字列の中から前記マスク対象の項目名を抽出する抽出部と、
前記記憶部を参照して、前記画像データに含まれる文字列の中から、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第1文字列を特定する第1特定部と、
特定した前記第1文字列を基準として、縦方向及び横方向に並ぶ、抽出した前記マスク対象の項目名に対応する文字列の特徴を満たす第2文字列を特定する第2特定部と、
前記画像データの、前記第1文字列と前記第2文字列をマスクするマスク処理部と、
を備える画像データ編集装置。
a character string acquisition unit that acquires a character string included in image data;
a storage unit that associates and stores an item name to be masked and a feature of a character string corresponding to the item name;
an extraction unit that refers to the storage unit and extracts the item name to be masked from the obtained character string;
a first specifying unit that refers to the storage unit and specifies, from among the character strings included in the image data, a first character string that satisfies the characteristics of the extracted character string corresponding to the item name to be masked;
a second identifying unit that identifies a second character string that satisfies the characteristics of the character string corresponding to the extracted item name to be masked and that is aligned vertically and horizontally with the identified first character string as a reference;
a mask processing unit that masks the first character string and the second character string of the image data;
An image data editing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021054791A JP2022152134A (en) | 2021-03-29 | 2021-03-29 | Image data edition program, image data edition method, and image data edition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021054791A JP2022152134A (en) | 2021-03-29 | 2021-03-29 | Image data edition program, image data edition method, and image data edition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022152134A true JP2022152134A (en) | 2022-10-12 |
Family
ID=83556112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021054791A Pending JP2022152134A (en) | 2021-03-29 | 2021-03-29 | Image data edition program, image data edition method, and image data edition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022152134A (en) |
-
2021
- 2021-03-29 JP JP2021054791A patent/JP2022152134A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11461386B2 (en) | Visual recognition using user tap locations | |
US9665959B2 (en) | Composite image creation assist apparatus using images of users other than target user, and non-transitory computer readable recording medium | |
JP2019520662A (en) | Content-based search and retrieval of trademark images | |
JPWO2014006903A1 (en) | Content control method, content control apparatus, and program | |
CN110827177A (en) | Case-like document searching method and device | |
JP6529254B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM | |
CN111967367A (en) | Image content extraction method and device and electronic equipment | |
JP5484113B2 (en) | Document image related information providing apparatus and document image related information acquisition system | |
JP2022152134A (en) | Image data edition program, image data edition method, and image data edition device | |
JP5946315B2 (en) | Image search system | |
KR101800975B1 (en) | Sharing method and apparatus of the handwriting recognition is generated electronic documents | |
JP4474231B2 (en) | Document link information acquisition system | |
JP2006252455A (en) | File management device, file management method and file management program | |
JP2010231431A (en) | Article related information providing method, device, program, and recording medium | |
JP6408055B2 (en) | Information processing apparatus, method, and program | |
CN109522437A (en) | A kind of information search method of paper document, device, storage medium and terminal | |
JP2014063457A (en) | Annotation management system, and program for making computer execute the same | |
JP5410372B2 (en) | Content search apparatus, method, and program | |
US11462014B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
CN113268193B (en) | Notebook page moving method, electronic equipment and computer storage medium | |
JP5913774B2 (en) | Web site sharing method, electronic device, and computer program | |
US20240185641A1 (en) | Fingerprint information processing apparatus, fingerprint information processing method, and non-transitory storage medium | |
US20240037214A1 (en) | Information processing device, information processing method, and computer readable medium | |
JP5440197B2 (en) | Apparatus for constructing imaging target spot database, construction system, and construction method | |
JP5353299B2 (en) | Image search system, image search device, and image search method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240522 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240611 |