JP2017033477A - Image determination system, image determination method, image determination program, and record medium for recording image determination program - Google Patents

Image determination system, image determination method, image determination program, and record medium for recording image determination program Download PDF

Info

Publication number
JP2017033477A
JP2017033477A JP2015155568A JP2015155568A JP2017033477A JP 2017033477 A JP2017033477 A JP 2017033477A JP 2015155568 A JP2015155568 A JP 2015155568A JP 2015155568 A JP2015155568 A JP 2015155568A JP 2017033477 A JP2017033477 A JP 2017033477A
Authority
JP
Japan
Prior art keywords
image
unit
determination
character data
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015155568A
Other languages
Japanese (ja)
Other versions
JP6875061B2 (en
Inventor
康史 渡邊
Yasushi Watanabe
康史 渡邊
祥広 坂本
Yoshihiro Sakamoto
祥広 坂本
亨 青柳
Toru Aoyanagi
亨 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015155568A priority Critical patent/JP6875061B2/en
Publication of JP2017033477A publication Critical patent/JP2017033477A/en
Application granted granted Critical
Publication of JP6875061B2 publication Critical patent/JP6875061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image determination system which adopts an image having a high possibility of being used.SOLUTION: An image determination system includes: an acquisition unit which acquires an image; a determination unit which determines whether the image satisfies an adoption condition; and a storage unit. The adoption condition is that a predetermined character or image is recognized in the image, and the storage unit stores the image determined to satisfy the adoption condition by the determination unit.SELECTED DRAWING: Figure 1

Description

本発明は、採用条件を満たす画像を記憶する画像判定システム、画像判定方法、画像判定プログラム、画像判定プログラムを記録する記録媒体に関する。   The present invention relates to an image determination system, an image determination method, an image determination program, and a recording medium for recording an image determination program.

近年、デジタルカメラや携帯端末で画像を撮像することが容易となり、撮像した画像の用途も多岐に渡っている。例えば、身分証明書のコピーの代わりに、身分証明書を撮像した画像を送付することや、画像に対してOCR(Optical Character Recognition:光学文字認識)処理を行うことで文字を抽出することにより、画像のもつ情報を有効活用する場合がある。   In recent years, it has become easy to capture an image with a digital camera or a portable terminal, and the use of the captured image has been diverse. For example, instead of copying an ID card, sending an image of the ID card or extracting characters by performing OCR (Optical Character Recognition) processing on the image, In some cases, information stored in images is used effectively.

画像のもつ情報を利用する技術に関連する装置が、特許文献1に記載されている。特許文献1記載の装置は、道路走行中の車両を撮像し、撮像された画像から車両ナンバーを検出する装置である。特許文献1の装置は、道路上にパルスビームを出力することで道路を横切る車と装置との距離を測定し、その距離が予め定めた設定距離内となったタイミングで、撮像を行う。そして、撮像された画像から車両ナンバーを読み取る。   An apparatus related to a technique that uses information of an image is described in Patent Document 1. The apparatus described in Patent Document 1 is an apparatus that images a vehicle traveling on a road and detects a vehicle number from the captured image. The device of Patent Document 1 measures the distance between a vehicle crossing the road and the device by outputting a pulse beam on the road, and performs imaging at a timing when the distance falls within a predetermined set distance. And a vehicle number is read from the imaged image.

特開平11−296682JP-A-11-296682

しかしながら、上述したような装置では、例えば、画像のピントが合っていない、情報を表示する部分が反射している、被写体が傾いて写っている、等の理由から、被写体が持つ情報を画像に反映できず、画像を利用できない場合があるという問題点があった。   However, in the above-described apparatus, for example, the information held by the subject is included in the image because the image is out of focus, the information display portion is reflected, the subject is tilted, and the like. There was a problem that the image could not be used and the image could not be used.

そこで、本発明の目的は、上述した課題を解決し、利用できる可能性の高い画像を採用する画像判定システムを提供することにある。   Accordingly, an object of the present invention is to solve the above-described problems and provide an image determination system that employs an image that is highly likely to be used.

本発明の第一のシステムは、画像を取得する取得部と、前記画像が、採用条件を満たすか否かを判定する判定部と、記憶部と、を有し、前記採用条件は、前記画像において所定の文字又は画像が認識されることであり、前記記憶部は、前記判定部が前記採用条件を満たすと判定した前記画像を記憶する。   A first system of the present invention includes an acquisition unit that acquires an image, a determination unit that determines whether or not the image satisfies an employment condition, and a storage unit, and the employment condition includes the image The predetermined character or image is recognized, and the storage unit stores the image determined by the determination unit to satisfy the employment condition.

本発明によれば、利用できる可能性の高い画像を採用する画像判定システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image determination system which employ | adopts the image with high possibility of being usable can be provided.

第一実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st embodiment. 第一実施形態のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of 1st embodiment. 第二実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 2nd embodiment. 第二実施形態の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of 2nd embodiment. 採用条件の一例を示す図である。It is a figure which shows an example of employment conditions. 在留カードを撮像した画像の一例である。It is an example of the image which imaged the residence card. 所定位置の説明図である。It is explanatory drawing of a predetermined position. 位置合わせのための枠の表示例である。It is a display example of the frame for alignment. 位置合わせのための枠の表示例である。It is a display example of the frame for alignment. 第三実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 3rd embodiment. 第三実施形態の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of 3rd embodiment. 文字データの表示の一例である。It is an example of a display of character data. 文字データの入れ替えの説明図である。It is explanatory drawing of replacement | exchange of character data. 文字データの入れ替えの説明図である。It is explanatory drawing of replacement | exchange of character data. サポートデスクに接続するための手段の一例である。It is an example of the means for connecting to a support desk. 第四実施形態のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of 4th embodiment.

以下に、図面を参照して、本発明の実施の形態について詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は例示であり、本発明の技術範囲をそれらに限定する趣旨のものではない。
(第一実施形態)
(第一実施形態の構成)
第一実施形態の構成例について説明する。図1は第一実施形態の構成例を示すブロック図である。画像判定システム1000は、取得部10、判定部20、記憶部30を含む。図に示す各構成要素は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in the following embodiments are exemplifications, and are not intended to limit the technical scope of the present invention.
(First embodiment)
(Configuration of the first embodiment)
A configuration example of the first embodiment will be described. FIG. 1 is a block diagram showing a configuration example of the first embodiment. The image determination system 1000 includes an acquisition unit 10, a determination unit 20, and a storage unit 30. Each component shown in the figure is not a hardware unit configuration but a functional unit block.

取得部10は画像を取得する。判定部20は、取得部10が取得した画像を受け取り、採用条件を満たすか否かを判定する。採用条件は、画像において所定の文字又は画像が認識されることである。つまり、判定部20は、取得した画像のいずれの位置で所定の文字又は画像を認識した場合も、採用条件を満たすと判定してもよい。記憶部30は、判定部20が採用条件を満たすと判定した画像を取得し、記憶する。   The acquisition unit 10 acquires an image. The determination unit 20 receives the image acquired by the acquisition unit 10 and determines whether or not the employment condition is satisfied. The adoption condition is that a predetermined character or image is recognized in the image. That is, the determination unit 20 may determine that the employment condition is satisfied even when a predetermined character or image is recognized at any position of the acquired image. The storage unit 30 acquires and stores an image that the determination unit 20 determines to satisfy the employment condition.

次に、第一実施形態のハードウェア構成について、図2を用いて説明する。図2は、第一実施形態の各構成要素を実現するハードウェア構成を示している。通信制御部1は、ネットワークを介して外部装置と通信する。RAM(Random Access Memory)2は、CPU(Central Processing Unit)4が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM2には、本実施形態の実現に必要な種々のデータを記憶する容量が確保される。記憶部3は、本実施形態の実現に必要なデータベース等のデータ、CPU4が実行するアプリケーションプログラム、初期データ等を、不揮発に記憶する。CPU4は演算制御用のプロセッサであり、プログラムを実行することで本発明の各機能手段を実現する。   Next, the hardware configuration of the first embodiment will be described with reference to FIG. FIG. 2 shows a hardware configuration for realizing each component of the first embodiment. The communication control unit 1 communicates with an external device via a network. A RAM (Random Access Memory) 2 is a random access memory used by a CPU (Central Processing Unit) 4 as a work area for temporary storage. The RAM 2 has a capacity for storing various data necessary for realizing the present embodiment. The storage unit 3 stores data such as a database necessary for realizing the present embodiment, application programs executed by the CPU 4, initial data, and the like in a nonvolatile manner. The CPU 4 is a processor for arithmetic control, and implements each functional unit of the present invention by executing a program.

なお、CPU4は、CPU以外の回路によって代替されても良い。回路は、プログラムを実行するひとつまたは複数のプロセッサであり、CPU、ASICs、PAL‘s等を含む。複数の回路は、同一の装置内で協働しても良いし、別の装置内に存在しても良い。   The CPU 4 may be replaced by a circuit other than the CPU. The circuit is one or a plurality of processors that execute programs, and includes CPUs, ASICs, PAL's, and the like. The plurality of circuits may cooperate in the same device or may exist in another device.

図2に示すように、記憶部3は、記憶部30を実現することができる。CPU4は、取得部10及び判定部20を実現することができる。なお、各ハードウェア構成と、各構成要素との対応付けは、図2に示すものに限らず、任意の組み合わせで良い。例えば、取得部10は、RAM2によって実現されても良い。また、取得部10と判定部20は、異なる回路によって実現されても良い。また、画像判定システム1000は、一つの装置によって実現されても良いし、複数の装置によって実現されても良い。すなわち、画像判定システム1000を構成する取得部10、判定部20、記憶部30は、それぞれ別の装置内のハードウェアによって実現されても良い。   As illustrated in FIG. 2, the storage unit 3 can implement a storage unit 30. The CPU 4 can realize the acquisition unit 10 and the determination unit 20. The association between each hardware configuration and each component is not limited to that shown in FIG. 2, and any combination may be used. For example, the acquisition unit 10 may be realized by the RAM 2. The acquisition unit 10 and the determination unit 20 may be realized by different circuits. The image determination system 1000 may be realized by a single device or a plurality of devices. In other words, the acquisition unit 10, the determination unit 20, and the storage unit 30 included in the image determination system 1000 may be realized by hardware in different devices.

記憶部3が記憶するアプリケーションプログラムは、取得部10及び判定部20が行う処理を実行するプログラムである。CPU4は記憶部3からアプリケーションプログラムを読み出して、取得部10及び判定部20の処理を実行する
第一実施形態によれば、所定位置において、所定の文字又は画像が認識された画像を採用するため、利用できる可能性の高い画像を採用することができる。
(第二実施形態)
(第二実施形態の構成)
第二実施形態の構成例について説明する。図3は第二実施形態の構成例を示すブロック図である。画像判定システム1002は、画像判定装置100を含む。画像判定装置100は、例えば携帯電話端末、タブレット端末、パーソナルコンピュータ、デジタルカメラ等で良い。画像判定装置100は、取得部11、判定部21、記憶部31、撮像部40を含む。
The application program stored in the storage unit 3 is a program that executes processing performed by the acquisition unit 10 and the determination unit 20. CPU4 reads an application program from the memory | storage part 3, and performs the process of the acquisition part 10 and the determination part 20 In order to employ | adopt the image by which the predetermined character or image was recognized in the predetermined position according to 1st embodiment. Images that are likely to be used can be employed.
(Second embodiment)
(Configuration of Second Embodiment)
A configuration example of the second embodiment will be described. FIG. 3 is a block diagram showing a configuration example of the second embodiment. The image determination system 1002 includes an image determination device 100. The image determination apparatus 100 may be, for example, a mobile phone terminal, a tablet terminal, a personal computer, a digital camera, or the like. The image determination apparatus 100 includes an acquisition unit 11, a determination unit 21, a storage unit 31, and an imaging unit 40.

記憶部31は、書類種別ごとに異なる採用条件を、前記書類種別に対応付けて記憶する。書類には、運転免許証、パスポート、在留カード等の身分証明書や、クレジットカード、キャッシュカード等の個人情報を含む書類、カードも含まれるものとする。採用条件とは、撮像部40が撮像した画像を採用するか否かの基準となる条件であり、所定位置において、所定の文字又は画像が認識されることを示す。記憶部31は、採用条件として、書類種別に対応付けて所定の位置及び所定の文字を記憶する。記憶部31は、採用条件として、所定の文字に代えて、所定の画像を記憶しても良い。画像を記憶する。書類種別と採用条件との対応付けは、例えば、「書類種別」「位置(座標等)」「所定の文字又は画像」のそれぞれを含む表を、記憶部31が記憶することによって実現されてもよい。または、取得11と判定部21が実行するプログラムとして、特定の書類種別を取得したときに対応する採用条件を判定するように動作させても良い。   The storage unit 31 stores different employment conditions for each document type in association with the document type. Documents include identification documents such as driver's licenses, passports, residence cards, and documents and cards containing personal information such as credit cards and cash cards. The adoption condition is a condition that serves as a reference for determining whether or not the image captured by the imaging unit 40 is to be used, and indicates that a predetermined character or image is recognized at a predetermined position. The storage unit 31 stores a predetermined position and a predetermined character in association with the document type as the employment condition. The storage unit 31 may store a predetermined image in place of a predetermined character as an employment condition. Store the image. The association between the document type and the employment condition may be realized by the storage unit 31 storing a table including “document type”, “position (coordinates, etc.)”, and “predetermined character or image”, for example. Good. Alternatively, the program executed by the acquisition unit 11 and the determination unit 21 may be operated so as to determine a corresponding employment condition when a specific document type is acquired.

撮像部40は、個人情報を含む被写体である書類を撮像し、画像を生成する。撮像部40による画像の生成は、一定の時間間隔で行われても良いし、ユーザが不図示のシャッターボタンを押下したタイミングで行われても良い。又は、撮像部40による画像の生成は、判定部21による画像の判定結果に基づいた指示があったタイミングで行われても良い。   The imaging unit 40 captures a document that is a subject including personal information and generates an image. The image generation by the imaging unit 40 may be performed at regular time intervals, or may be performed at a timing when the user presses a shutter button (not shown). Alternatively, the image generation by the imaging unit 40 may be performed at a timing when an instruction based on the determination result of the image by the determination unit 21 is given.

取得部11は、撮像部40から、個人情報を含む被写体を撮像した画像を取得する。取得部11は、撮像部40が画像を生成する度に当該画像を取得しても良いし、一定時間ごとにまとめて当該画像を取得しても良い。また、取得部11は、ユーザが不図示の指定部を介して選択した書類種別を取得する。指定部は、例えば画像判定装置100を構成するタッチパネル、操作ボタンや、画像判定装置100と接続されたマウス、キーボード等で良い。ユーザが指定する書類種別は、撮像部40が撮像した書類の種別を表すものであり、例えば運転免許証、パスポート、在留カード等で良い。   The acquisition unit 11 acquires an image obtained by imaging a subject including personal information from the imaging unit 40. The acquisition unit 11 may acquire the image every time the imaging unit 40 generates an image, or may acquire the image collectively at regular intervals. The acquisition unit 11 acquires the document type selected by the user via a designation unit (not shown). The designation unit may be, for example, a touch panel, operation buttons, a mouse connected to the image determination device 100, a keyboard, or the like that constitutes the image determination device 100. The document type designated by the user represents the type of document imaged by the imaging unit 40, and may be a driver's license, a passport, a residence card, or the like, for example.

判定部21は、取得部11が取得した画像と書類種別を取得する。そして、判定部21は、取得した画像が、取得した書類種別に対応する採用条件を満たすか否かを判定する。判定部21は、取得した書類種別に対応付けられた採用条件を記憶部31から読み出し、取得した画像の判定を行う。つまり、判定部21は、書類種別に対応する所定の文字又は画像が、対応する所定の位置に認識されるか否かを判定する。取得した画像が採用条件を満たす場合、判定部21は、その画像を記憶部31に記憶させる。なお、文字又は画像の認識と判定は、パターンマッチング、統計的識別法、構造識別法など、画像の特徴を用いた既存の技術により実現できる。   The determination unit 21 acquires the image and document type acquired by the acquisition unit 11. Then, the determination unit 21 determines whether the acquired image satisfies the employment condition corresponding to the acquired document type. The determination unit 21 reads out the employment condition associated with the acquired document type from the storage unit 31 and determines the acquired image. That is, the determination unit 21 determines whether a predetermined character or image corresponding to the document type is recognized at a corresponding predetermined position. When the acquired image satisfies the employment condition, the determination unit 21 stores the image in the storage unit 31. Note that recognition and determination of characters or images can be realized by existing techniques using image features such as pattern matching, statistical identification, and structure identification.

判定部21は、取得した画像が採用条件を満たさない場合、撮像部40に対し、画像の撮像を継続するよう指示する。または、取得した画像が採用条件を満たさず、かつ画像の撮像開始から一定時間が経過している場合、判定部21は、撮像部40に画像の撮像の停止を指示しても良い。   When the acquired image does not satisfy the employment condition, the determination unit 21 instructs the imaging unit 40 to continue imaging. Alternatively, when the acquired image does not satisfy the adoption condition and a certain time has elapsed since the start of image capturing, the determination unit 21 may instruct the image capturing unit 40 to stop image capturing.

なお、判定部21は、所定位置に対してOCR処理を行うことで画像に表示された文字を認識しても良い。このときのOCR処理を、以下判定用OCR処理と呼ぶ。この場合の採用条件は、判定用OCR処理により認識された文字が、所定の文字と同一となることで良い。すなわち、判定部21は、判定用OCR処理により所定位置で認識された文字が、当該所定位置に対応する所定文字と同一(一部の文字でもよい)であるか否かを判定し、同一であれば、採用条件を満たすと判定する。判定用OCR処理により何の文字も認識されない場合、および認識された文字が所定文字と同一でない場合、判定部21は、採用条件を満たさないと判定する。   Note that the determination unit 21 may recognize characters displayed on the image by performing OCR processing on a predetermined position. The OCR processing at this time is hereinafter referred to as determination OCR processing. The adoption condition in this case may be that the character recognized by the determination OCR process is the same as the predetermined character. That is, the determination unit 21 determines whether or not the character recognized at the predetermined position by the determination OCR process is the same as the predetermined character corresponding to the predetermined position (may be a part of the characters). If there is, it is determined that the employment condition is satisfied. When no character is recognized by the determination OCR process, and when the recognized character is not the same as the predetermined character, the determination unit 21 determines that the employment condition is not satisfied.

また、画像判定装置100は、撮像部40を含まなくても良い。その場合、取得部11は、不図示の受信部が受信した画像を取得しても良い。つまり、画像判定装置100は、無線又は有線の通信により、書類を撮像した画像を外部から取得しても良い。   Further, the image determination device 100 may not include the imaging unit 40. In that case, the acquisition unit 11 may acquire an image received by a receiving unit (not shown). That is, the image determination apparatus 100 may acquire an image obtained by capturing a document from the outside by wireless or wired communication.

採用条件は、複数の所定位置において、それぞれの所定位置に対応する所定の文字又は画像が認識されることであっても良い。採用条件は、全ての所定位置において対応する文字等が認識されることでも良いし、予め定められた数の所定位置において対応する文字等が認識されることでも良い。
(第二実施形態の動作)
図4は、第二実施形態の動作を示すフローチャートである。まず、取得部11は、ユーザが不図示の指定部を介して選択した書類種別を取得する(S1)。ユーザによる書類種別の指定は、画像判定装置100が記憶するアプリケーションを介して行われても良い。本実施形態では、ユーザは書類種別を「在留カード」として指定する。指定部は、例えば画像判定装置100を構成するタッチパネル、操作ボタンや、画像判定装置100と接続されたマウス、キーボード等で良い。書類種別が取得されると、撮像部40が起動し、画像の撮像が開始される。なお、画像の撮像が開始されてから、書類種別を選択するものとしてもよい。
The adoption condition may be that a predetermined character or image corresponding to each predetermined position is recognized at a plurality of predetermined positions. The adoption condition may be that corresponding characters or the like are recognized at all predetermined positions, or that corresponding characters or the like are recognized at a predetermined number of predetermined positions.
(Operation of Second Embodiment)
FIG. 4 is a flowchart showing the operation of the second embodiment. First, the acquisition unit 11 acquires the document type selected by the user via a designation unit (not shown) (S1). The designation of the document type by the user may be performed via an application stored in the image determination apparatus 100. In the present embodiment, the user designates the document type as “resident card”. The designation unit may be, for example, a touch panel, operation buttons, a mouse connected to the image determination device 100, a keyboard, or the like that constitutes the image determination device 100. When the document type is acquired, the image capturing unit 40 is activated and image capturing is started. Note that the document type may be selected after the image capturing is started.

本実施形態では、ユーザは、撮像部40を用いて在留カードを撮像するものとする。在留カードは、在留資格に係る許可の結果として我が国に中長期間在留する者(中長期在留者)に対して交付されるカードであり、適法に在留する者であることを証明する証明書としての性格を有する。また、在留カードには、氏名、住所、性別、国籍等の個人情報が記載されている。   In the present embodiment, it is assumed that the user images the residence card using the imaging unit 40. A residence card is a card issued to a person who resides in Japan for a medium to long term as a result of permission related to the status of residence (medium to long term resident), and is a certificate that proves that the person is a legal person. Has the character of The residence card contains personal information such as name, address, gender, and nationality.

ユーザは、画像判定装置100と在留カードとを近づけ、撮像部40が在留カードを撮像できる位置関係で静止する。撮像部40は、その画角に入る映像を撮像し、画像を生成する。本実施形態では、撮像部40が起動した後の二度目以降の画像の生成は、判定部21による画像の判定結果に基づいた指示があったタイミングで行われるものとする。   The user brings the image determination device 100 and the residence card close to each other and stops still in a positional relationship where the imaging unit 40 can image the residence card. The imaging unit 40 captures an image that falls within the angle of view and generates an image. In the present embodiment, generation of the second and subsequent images after the imaging unit 40 is activated is performed at a timing when an instruction based on the determination result of the image by the determination unit 21 is given.

取得部11は、撮像部40が撮像した画像を取得する(S2)。本実施形態では、取得部11は、撮像部40が画像を生成する度に当該画像を取得するものとする。また、判定部21は、取得部11が取得した画像と書類種別を取得する。そして、判定部21は、取得した画像が、取得した書類種別に対応する採用条件を満たすか否かを判定する(S3)。つまり、判定部21は、取得した書類種別に対応付けられた採用条件を記憶部31から読み出す。そして、判定部21は、取得した画像が、採用条件における所定位置において所定の文字が認識されるか否かの判定を行う。   The acquisition unit 11 acquires an image captured by the imaging unit 40 (S2). In the present embodiment, the acquisition unit 11 acquires the image every time the imaging unit 40 generates an image. The determination unit 21 acquires the image and document type acquired by the acquisition unit 11. Then, the determination unit 21 determines whether or not the acquired image satisfies an employment condition corresponding to the acquired document type (S3). That is, the determination unit 21 reads out the employment condition associated with the acquired document type from the storage unit 31. And the determination part 21 determines whether a predetermined character is recognized in the acquired image in the predetermined position in adoption conditions.

より具体的には、記憶部31は、例えば図5に示す情報を記憶する。記憶部31は、書類種別ごとに異なる前記採用条件を、前記書類種別に対応付けて記憶する。採用条件は、所定位置において、所定の文字又は画像が認識されることであるため、記憶部31は、書類種別ごとに、所定の文字と所定の位置を対応付けて記憶する。図5に示すように、書類種別「在留カード」については、文字「在留カード」「法務大臣」及び「日本国政府」が、それぞれの在留カード上の位置A,B,及びCと対応付けられて記憶されている。A,B,及びC等の所定位置は、例えば所定の文字を囲む長方形の四隅のX座標とY座標の値によって表すことができる。なお、位置の表し方、原点の位置はこれに限られない。   More specifically, the storage unit 31 stores, for example, information illustrated in FIG. The storage unit 31 stores the employment conditions that are different for each document type in association with the document type. Since the adoption condition is that a predetermined character or image is recognized at a predetermined position, the storage unit 31 stores a predetermined character and a predetermined position in association with each document type. As shown in FIG. 5, for the document type “residence card”, the characters “residence card”, “Minister of Justice”, and “Government of Japan” are associated with the positions A, B, and C on the respective residence card. Is remembered. Predetermined positions such as A, B, and C can be represented by, for example, X and Y coordinate values of four corners of a rectangle surrounding a predetermined character. Note that the way of expressing the position and the position of the origin are not limited to this.

判定部21は、書類種別が「在留カード」であることを取得すると、記憶部31から所定文字「在留カード」「法務大臣」「日本国政府」及びそれらについての所定位置A,B,及びCを読みだす。そして、判定部21は、取得した画像が採用条件を満たすか、すなわち、読み出した所定位置に所定文字が認識されるか否かを判定する。   When the determination unit 21 obtains that the document type is “residence card”, the predetermined character “residence card”, “Minister of Justice”, “Government of Japan” and predetermined positions A, B, and C thereof from the storage unit 31. Read out. Then, the determination unit 21 determines whether the acquired image satisfies the employment condition, that is, whether a predetermined character is recognized at the read predetermined position.

在留カードを撮像した画像上の位置と文字との関係の例を図6に示す。図6では、画像に写る在留カード2000の左下角を原点として、X軸とY軸が設定されている。図5より、所定位置2001の位置は「A」、所定位置2002の位置は「B」、所定位置2003の位置は「C」である。画像における原点となる位置の認識は、不図示の処理部が画像に写る在留カード2000の輪郭を検出することで行われても良い。つまり、記憶部31が記憶する採用条件の「位置」が、画像に写る被写体における「位置」である場合、不図示の処理部が画像に写る被写体を認識しても良い。   FIG. 6 shows an example of the relationship between the position on the image obtained by capturing the residence card and the character. In FIG. 6, the X axis and the Y axis are set with the lower left corner of the residence card 2000 shown in the image as the origin. From FIG. 5, the position of the predetermined position 2001 is “A”, the position of the predetermined position 2002 is “B”, and the position of the predetermined position 2003 is “C”. Recognition of the position as the origin in the image may be performed by detecting the contour of the residence card 2000 that is shown in the image by a processing unit (not shown). That is, when the “position” of the employment condition stored in the storage unit 31 is the “position” of the subject in the image, the processing unit (not shown) may recognize the subject in the image.

記憶部31が記憶する採用条件の「位置」は、画像に写る被写体における「位置」ではなく、画像全体における「位置」でも良い。例えば、画像全体の左下角を原点とした場合の位置が採用条件に用いられていても良い。この場合、画像に写る被写体の位置は認識されなくても良い。   The “position” of the adoption condition stored in the storage unit 31 may not be the “position” of the subject in the image but the “position” of the entire image. For example, the position where the lower left corner of the entire image is the origin may be used as the adoption condition. In this case, the position of the subject in the image need not be recognized.

さらに、採用条件に複数の所定の文字又は画像が含まれる場合、採用条件の「位置」は、それらの文字又は画像の相対位置でも良い。相対位置は、例えば2つ以上の文字又は画像の中心間の距離、2つ以上の文字又は画像の中心を結ぶ直線が水平方向に対してなす角度等によって表されても良い。また、採用条件の「位置」は、2つ以上の文字又は画像の相対距離が所定の範囲内にあることでも良い。   Furthermore, when a plurality of predetermined characters or images are included in the employment conditions, the “position” of the employment conditions may be a relative position of those characters or images. The relative position may be represented by, for example, a distance between the centers of two or more characters or images, an angle formed by a straight line connecting the centers of two or more characters or images with respect to the horizontal direction, or the like. Further, the “position” of the employment condition may be that the relative distance between two or more characters or images is within a predetermined range.

判定部21は、取得した画像が採用条件を満たすと判定した場合、その画像を記憶部31に記憶させる。記憶部31は、判定部21から取得した画像を記憶し(S4)、処理が終了する。   If the determination unit 21 determines that the acquired image satisfies the employment condition, the determination unit 21 stores the image in the storage unit 31. The storage unit 31 stores the image acquired from the determination unit 21 (S4), and the process ends.

判定部21は、取得した画像が採用条件を満たさないと判定した場合、撮像部40の起動から所定時間が経過したか否かを判定する(S5)。所定時間が経過していない場合、
判定部21は、撮像部40に対し、画像の撮像を継続するよう指示する。所定時間が経過している場合、判定部21は、撮像部40に画像の撮像の停止を指示し、処理が終了する。
If the determination unit 21 determines that the acquired image does not satisfy the adoption condition, the determination unit 21 determines whether a predetermined time has elapsed since the activation of the imaging unit 40 (S5). If the predetermined time has not passed,
The determination unit 21 instructs the image capturing unit 40 to continue image capturing. When the predetermined time has elapsed, the determination unit 21 instructs the imaging unit 40 to stop imaging, and the process ends.

第二実施形態の画像判定システム1002の判定部20は、所定位置において所定の文字又は画像が認識されるか否かを判定するため、認識の負荷が低減し、認識に要する時間が短縮される。また、画像判定システム1002は、書類種別ごとに異なる前記採用条件で画像の判定を行うため、システムの設計者は書類の特性に応じた採用条件を設定することができる。例えば、書類のうち重要な情報を有する部分(顔写真や氏名が表示された部分)の付近を所定部分とすれば、ユーザがそれらの情報を正確に読み取れる画像を採用することができる可能性が高まる。   Since the determination unit 20 of the image determination system 1002 of the second embodiment determines whether or not a predetermined character or image is recognized at a predetermined position, the recognition load is reduced and the time required for recognition is shortened. . In addition, since the image determination system 1002 determines an image under the above-described employment conditions that differ for each document type, the system designer can set the employment conditions according to the characteristics of the document. For example, if the vicinity of a portion having important information (portion where a face photograph or name is displayed) is set as a predetermined portion, there is a possibility that the user can employ an image that can accurately read the information. Rise.

なお、採用条件は、複数の所定位置とそれぞれに対応する所定文字等により構成されていても良いし、一つの所定位置とそれに対応する所定文字等により構成されていても良い。さらに、採用条件は、全ての所定位置において対応する文字等が認識されることでも良いし、予め定められた数の所定位置において対応する文字等が認識されることでも良い。例えば、上述の在留カードの例では、所定文字「在留カード」「法務大臣」「日本国政府」の全てが、それぞれに対応する所定位置において認識された場合に、採用条件を満たすとしても良い。   The adoption condition may be configured by a plurality of predetermined positions and predetermined characters corresponding to the respective predetermined positions, or may be configured by one predetermined position and predetermined characters corresponding thereto. Further, the adoption condition may be that corresponding characters or the like are recognized at all predetermined positions, or corresponding characters or the like may be recognized at a predetermined number of predetermined positions. For example, in the above-described example of the residence card, the adoption condition may be satisfied when all of the predetermined characters “residence card”, “Minister of Justice”, and “Government of Japan” are recognized at the corresponding positions.

採用条件が、複数の所定位置とそれぞれに対応する所定文字等により構成されることにより、画像に写された書類の有する情報が全体的に利用できる可能性が高まる。すなわち、画像のどの部分もピントが合い、反射しておらず、書類の情報が読み取り可能である可能性が高い。特に、所定位置を書類上に分散するように設定することで、その効果がより高まる。   When the employment condition is configured by a plurality of predetermined positions and predetermined characters corresponding to the respective positions, the possibility that the information contained in the document copied in the image can be used as a whole increases. That is, it is highly possible that any part of the image is in focus and not reflected, and the document information can be read. In particular, the effect is further enhanced by setting the predetermined positions so as to be distributed on the document.

また、所定位置には、一定の広がりがあっても良い。つまり、所定位置は所定の文字又は画像の大きさよりも大きくてもよい。所定位置に一定の広がりがある場合、所定位置に含まれる領域内のいずれかの位置で文字又は画像が認識されることを、採用条件としてもよい。図7は、所定位置に一定の広がりがある場合の説明図である。画像4000は、判定部21が取得する画像の一例である。所定位置2004〜2006は、認識の対象となる文字「日本国政府」「在留カード」「法務大臣」のそれぞれに対応する所定位置を示す。例えば判定部21は、所定位置2006内のいずれかの位置で文字「日本国政府」が認識されるか否かの判定をする。   Further, the predetermined position may have a certain spread. That is, the predetermined position may be larger than the size of the predetermined character or image. When there is a certain spread at the predetermined position, the adoption condition may be that the character or the image is recognized at any position within the region included in the predetermined position. FIG. 7 is an explanatory diagram when there is a certain spread at a predetermined position. The image 4000 is an example of an image acquired by the determination unit 21. The predetermined positions 2004 to 2006 indicate predetermined positions corresponding to the characters “Japanese government”, “residence card”, and “Minister of Justice” to be recognized. For example, the determination unit 21 determines whether or not the character “Japanese government” is recognized at any position within the predetermined position 2006.

これにより、判定部20は、在留カード2000が画像4000に対して一定の範囲に収まっていれば、採用条件を満たすと判断することができる。そのため、ユーザが画像判定装置100と被写体との位置を厳密に調節しなくとも、画像判定装置100は利用できる可能性の高い画像を採用することができる。特に、採用条件の「位置」が、画像全体における「位置」である場合に、ユーザによる画像判定装置100と被写体との位置調節の負担を低減することができる。   Thereby, the determination unit 20 can determine that the employment condition is satisfied if the residence card 2000 is within a certain range with respect to the image 4000. Therefore, even if the user does not strictly adjust the positions of the image determination apparatus 100 and the subject, the image determination apparatus 100 can employ an image that is highly likely to be used. In particular, when the “position” of the adoption condition is “position” in the entire image, it is possible to reduce the burden of position adjustment between the image determination apparatus 100 and the subject by the user.

さらに、ユーザによる画像の撮像の際に、不図示の表示部は、撮像された画像と共に位置合わせのための枠を表示しても良い。位置合わせのための枠は、認証対象となる文字や画像が撮像された画像に含まれるように設定されることが好ましい。表示部による位置合わせのための枠の表示例を図8に示す。図8には、画像判定装置100の一例として、スマートフォン3000を示す。スマートフォン3000の表示部70は、撮像部40が撮像した画像を逐次取得し、表示する。図8に示すスマートフォン3000は、表示部70の背面に撮像部40を有し、被写体である在留カード2000を撮像している。   Furthermore, when a user captures an image, a display unit (not shown) may display a frame for alignment together with the captured image. The alignment frame is preferably set so that characters or images to be authenticated are included in the captured image. A display example of a frame for alignment by the display unit is shown in FIG. FIG. 8 shows a smartphone 3000 as an example of the image determination device 100. The display unit 70 of the smartphone 3000 sequentially acquires and displays images captured by the imaging unit 40. A smartphone 3000 shown in FIG. 8 has an imaging unit 40 on the back surface of the display unit 70 and images a residence card 2000 that is a subject.

4つの枠80は、撮像部40が撮像する画像に写る在留カードの大きさを、ユーザが調節するための枠である。ユーザは、表示部70写る在留カード2000の四隅を枠80に合わせることで、画像内の在留カード2000の大きさを調節する。図8では、在留カード2000の大きさが枠80に合う大きさより小さい。そのため、ユーザは、スマートフォン3000と実物の在留カード2000とを近づける動作を行う。   The four frames 80 are frames for the user to adjust the size of the residence card that appears in the image captured by the imaging unit 40. The user adjusts the size of the residence card 2000 in the image by aligning the four corners of the residence card 2000 displayed on the display unit 70 with the frame 80. In FIG. 8, the size of the residence card 2000 is smaller than the size that fits the frame 80. Therefore, the user performs an operation of bringing the smartphone 3000 and the real residence card 2000 close to each other.

また、位置合わせのための枠は、画像に写る被写体の大きさ示すものでも、画像に写る被写体の一部の大きさを示すものでもよい。図9に示す位置合わせの枠は、認証対象となる文字部分の大きさを示すものである。ユーザは、枠81に文字「法務大臣」が収まり、かつ、枠82に文字「日本国政府」が収まるように、スマートフォン3000と実物の在留カード2000の位置を調節する。枠が対象とする被写体の一部は、認証対象となる文字に限られない。例えば、認証対象の顔写真部分、特徴的なマークなど、ユーザが用いやすい部分を枠の対象としても良い。   Further, the alignment frame may indicate the size of the subject appearing in the image or may indicate the size of a part of the subject appearing in the image. The alignment frame shown in FIG. 9 indicates the size of the character part to be authenticated. The user adjusts the positions of the smart phone 3000 and the real residence card 2000 so that the letter “Minister of Justice” fits in the frame 81 and the letter “Japanese government” fits in the frame 82. A part of the subject targeted by the frame is not limited to the character to be authenticated. For example, a portion that is easy for the user to use, such as a face photo portion to be authenticated and a characteristic mark, may be used as the frame target.

なお、上述した位置合わせのための枠の形態は、は図8及び図9に示すものに限られない。位置合わせのための枠は、点線や実践で表された図形、被写体のテンプレート画像等、ユーザがそれを見て画像に写る被写体の大きさを調節することができるものであれば何でも良い。   Note that the form of the frame for alignment described above is not limited to that shown in FIGS. The alignment frame may be anything as long as the user can adjust the size of the subject appearing in the image by looking at it, such as a dotted line, a figure represented by practice, or a template image of the subject.

画像判定装置100が位置合わせのための枠を表示することにより、ユーザは画像判定装置100と被写体との位置を調節することができる。そのため、画像判定装置100が所定の文字又は画像を認識し、利用できる画像を採用するまでに要する時間を短縮することができる。また、採用条件の「位置」が、画像に写る被写体における「位置」である場合、不図示の処理部が画像に写る被写体を認識する際の負荷が低減される。   When the image determination apparatus 100 displays the alignment frame, the user can adjust the positions of the image determination apparatus 100 and the subject. Therefore, the time required for the image determination apparatus 100 to recognize a predetermined character or image and adopt an available image can be shortened. Further, when the “position” of the adoption condition is “position” of the subject appearing in the image, the load when the processing unit (not shown) recognizes the subject appearing in the image is reduced.

また、画像判定システム1002は、書類種別ごとに異なる前記採用条件で画像の判定を行わなくても良い。つまり、記憶部31は、書類種別ごとに異なる採用条件を記憶していなくても良い。例えば採用条件は、被写体によらず同一でも良い。つまり、図4に示すフローチャートのS4は実行されなくても良い。その場合、例えばユーザが撮像部40を起動する動作を行ったことを契機に、画像の撮像が開始されても良い。ユーザが撮像部40を起動させる動作とは、ユーザが、画像判定装置100を構成するタッチパネルや画像判定装置100に接続されたマウス等を用いて、画像判定装置100が記憶するアプリケーションを起動する動作でも良い。また、その場合、判定部21は、書類種別を取得せず、採用条件を記憶部31から読み出しても良い。   Further, the image determination system 1002 does not have to perform image determination under the above-described employment conditions that are different for each document type. That is, the storage unit 31 may not store different employment conditions for each document type. For example, the employment conditions may be the same regardless of the subject. That is, S4 in the flowchart shown in FIG. 4 may not be executed. In that case, for example, when the user performs an operation of starting the imaging unit 40, the imaging of the image may be started. The operation in which the user activates the imaging unit 40 is an operation in which the user activates an application stored in the image determination apparatus 100 using a touch panel constituting the image determination apparatus 100, a mouse connected to the image determination apparatus 100, or the like. But it ’s okay. In this case, the determination unit 21 may read the employment condition from the storage unit 31 without acquiring the document type.

なお、判定部21は、所定位置に対してOCR処理を行うことで画像に表示された文字を認識しても良い。このときのOCR処理を、以下判定用OCR処理と呼ぶ。この場合の採用条件は、判定用OCR処理により認識された文字が、所定の文字と同一となることであっても良い。すなわち、判定部21は、判定用OCR処理により所定位置で認識された文字が、当該所定位置に対応する所定文字と同一であるか否かを判定し、同一であれば、採用条件を満たすと判定する。判定用OCR処理により文字が何らの文字も認識されない場合、および認識された文字が所定文字と同一でない場合は、判定部21は、採用条件を満たさないと判定する。   Note that the determination unit 21 may recognize characters displayed on the image by performing OCR processing on a predetermined position. The OCR processing at this time is hereinafter referred to as determination OCR processing. The adoption condition in this case may be that the character recognized by the determination OCR process is the same as the predetermined character. That is, the determination unit 21 determines whether or not the character recognized at the predetermined position by the determination OCR process is the same as the predetermined character corresponding to the predetermined position. judge. When no character is recognized by the determination OCR process, and when the recognized character is not the same as the predetermined character, the determination unit 21 determines that the employment condition is not satisfied.

画像判定システム1002が採用した画像に対してOCR処理を行い、書類の画像から個人情報等を抽出するような場合(例えば、証明書の画像から個人情報を抽出し、帳票入力を補助する場合)に、判定用OCR処理は有効である。なぜならば、判定用OCR処理によって、所定位置で所定の文字が認識された場合は、その他の部分でもOCR処理により正しい文字が認識される可能性が高いためである。
(第三実施形態)
(第三実施形態の構成)
第三実施形態の構成例について説明する。図10は第三実施形態の構成例を示すブロック図である。画像判定システム1003は、画像判定装置101を含む。画像判定装置101は、取得部11、判定部21、記憶部31、撮像部40、処理部50、受付部60を含む。処理部50及び受付部60以外の構成は第二実施形態と同様であるため、説明を省略する。
When OCR processing is performed on the image adopted by the image determination system 1002 and personal information is extracted from the document image (for example, when personal information is extracted from the certificate image and assists the form input) In addition, the determination OCR processing is effective. This is because, when a predetermined character is recognized at a predetermined position by the determination OCR process, there is a high possibility that a correct character is recognized by the OCR process at other portions.
(Third embodiment)
(Configuration of the third embodiment)
A configuration example of the third embodiment will be described. FIG. 10 is a block diagram showing a configuration example of the third embodiment. The image determination system 1003 includes an image determination apparatus 101. The image determination apparatus 101 includes an acquisition unit 11, a determination unit 21, a storage unit 31, an imaging unit 40, a processing unit 50, and a reception unit 60. Since the configuration other than the processing unit 50 and the receiving unit 60 is the same as that of the second embodiment, description thereof is omitted.

処理部50は、記憶部31が記憶する画像に対してOCR処理を行い、生成された文字データを記憶部31に記憶させる。すなわち、処理部50は、判定部21が採用条件を満たすと判定した画像に対してOCR処理を行い、画像に写る被写体から文字データを抽出する。生成される文字データは、被写体である証明書等が表示する個人情報に関するものでよく、ユーザの氏名、住所、国籍等である。また、生成される文字データは、「氏名」「住所」「国籍」等、ユーザの個人情報の項目自体を示すものでもよい。   The processing unit 50 performs OCR processing on the image stored in the storage unit 31 and stores the generated character data in the storage unit 31. That is, the processing unit 50 performs OCR processing on the image that the determination unit 21 determines to satisfy the employment condition, and extracts character data from the subject that appears in the image. The generated character data may be related to personal information displayed on the certificate or the like as the subject, and is the user's name, address, nationality, and the like. The generated character data may indicate items of personal information of the user such as “name”, “address”, “nationality”, and the like.

また、処理部50は、受付部60がユーザからの修正部分の選択を受け付けた場合、修正用OCR処理を行う。修正用OCR処理は、修正部分を修正するために用いられる文字データを生成するOCR処理である。修正用OCR処理によって生成された文字データを、修正用文字データとする。   Further, the processing unit 50 performs the correction OCR process when the receiving unit 60 receives the selection of the correction portion from the user. The correction OCR process is an OCR process that generates character data used to correct a correction portion. The character data generated by the correction OCR process is set as the correction character data.

より具体的には、受付部60は、ユーザからの修正部分の選択を受け付けると、撮像部40を起動する。そして、撮像部40は、再び画像の撮像を開始する。第二実施形態と同様の動作を経て、判定部21が記憶部31に対して新たな画像を記憶させると、処理部50は、新たな画像に対して修正用OCR処理を行う。なお、受付部60は、ユーザからの修正部分の選択を受け付けた際に、撮像部40を起動せず、処理部50に修正用OCR処理を指示しても良い。つまり、処理部50は、新たに撮像された画像ではなく、前回と同じ画像に対して修正用OCR処理を行っても良い。   More specifically, the accepting unit 60 activates the imaging unit 40 when accepting selection of a correction portion from the user. Then, the imaging unit 40 starts capturing an image again. When the determination unit 21 stores a new image in the storage unit 31 through the same operation as in the second embodiment, the processing unit 50 performs the correction OCR process on the new image. Note that the reception unit 60 may instruct the processing unit 50 to perform the correction OCR process without starting the imaging unit 40 when receiving the selection of the correction portion from the user. In other words, the processing unit 50 may perform the correction OCR process on the same image as the previous time, instead of the newly captured image.

さらに、処理部50は、修正用OCR処理によって生成された修正用文字データのうち、受付部60が受け付けた修正部分に対応する部分を、記憶部31が記憶する文字データと入れ替える。詳細は、第三実施形態の動作の説明で後述する。   Further, the processing unit 50 replaces the part of the correction character data generated by the correction OCR process corresponding to the correction part received by the receiving unit 60 with the character data stored in the storage unit 31. Details will be described later in the description of the operation of the third embodiment.

受付部60は、記憶部31が記憶する文字データのうち、ユーザが修正を希望する修正部分の選択を受け付ける。より具体的には、まず、不図示の表示部がユーザに対して、処理部50が生成した文字データを表示する。ユーザは表示部を見て、文字データに誤りがあるか否かを判断する。   The accepting unit 60 accepts selection of a correction portion that the user desires to correct among the character data stored in the storage unit 31. More specifically, first, a display unit (not shown) displays the character data generated by the processing unit 50 to the user. The user looks at the display unit and determines whether there is an error in the character data.

文字データに誤りがある場合、ユーザは、不図示の指定部を用いて修正部分を選択する。指定部は、例えば画像判定装置101を構成するタッチパネル、操作ボタンや、画像判定装置101と接続されたマウス、キーボード等で良い。受付部60は、不図示の指定部から修正部分の選択を受け付ける。つまり、受付部60は、ユーザが選択した修正部分を特定する情報を指定部から取得する。   When there is an error in the character data, the user selects a correction portion using a designation portion (not shown). The designation unit may be, for example, a touch panel, operation buttons, a mouse connected to the image determination apparatus 101, a keyboard, or the like that constitutes the image determination apparatus 101. The accepting unit 60 accepts selection of a correction portion from a not-shown designation unit. That is, the reception unit 60 acquires information specifying the correction portion selected by the user from the designation unit.

ユーザは、文字データに誤りがないと判断した場合、画像判定装置101の処理を終了する動作を行う。画像判定装置101の処理を終了する動作とは、例えば不図示の表示部に表示された「Confirm」のアイコンをユーザがタッチする、マウスでクリックする、などで良い。
(第三実施形態の動作)
図11は、第三実施形態の動作を示すフローチャートである。S1〜S5の動作は、第二実施形態と同様であるため、説明を省略する。 処理部50は、記憶部31が記憶する画像に対してOCR処理を行う(S6)。そして、処理部50は、OCR処理によって生成された文字データを記憶部31に記憶させる(S7)。すなわち、処理部50は、判定部21が採用条件を満たすと判定した画像に対してOCR処理を行うことで、画像に写る被写体から文字データを抽出する。生成される文字データは、被写体である証明書等が表示する個人情報に関するものでよく、ユーザの氏名、住所、国籍等である。
When the user determines that there is no error in the character data, the user performs an operation to end the processing of the image determination apparatus 101. The operation of ending the processing of the image determination apparatus 101 may be, for example, a user touching a “Confirm” icon displayed on a display unit (not shown) or clicking with a mouse.
(Operation of the third embodiment)
FIG. 11 is a flowchart showing the operation of the third embodiment. Since the operations of S1 to S5 are the same as those in the second embodiment, the description thereof is omitted. The processing unit 50 performs OCR processing on the image stored in the storage unit 31 (S6). Then, the processing unit 50 stores the character data generated by the OCR process in the storage unit 31 (S7). That is, the processing unit 50 extracts character data from the subject appearing in the image by performing OCR processing on the image that the determination unit 21 determines to satisfy the employment condition. The generated character data may be related to personal information displayed on the certificate or the like as the subject, and is the user's name, address, nationality, and the like.

そして、不図示の表示部は、記憶部31が記憶する文字データを表示する。不図示の表示部が表示する文字データの例を図12に示す。図12には、氏名、生年月日、住所等の、ユーザの個人情報が項目ごとに文字データとして表示されている。そして、これらの文字データはいずれも、図6の在留カードを撮像した画像からOCR処理によって生成されたものである。   A display unit (not shown) displays character data stored in the storage unit 31. An example of character data displayed on a display unit (not shown) is shown in FIG. In FIG. 12, the user's personal information such as name, date of birth, and address is displayed as character data for each item. Each of these character data is generated by OCR processing from an image obtained by capturing the residence card in FIG.

各項目と文字データとの対応付けは、処理部50によって行われる。処理部50は、OCR処理により「氏名」「生年月日」といった項目が記載された部分を認識することで、その付近(例えば右側)に記載された文字をその項目に対応する文字として認識しても良い。   The processing unit 50 associates each item with character data. The processing unit 50 recognizes a character in which an item such as “name” and “birth date” is described by OCR processing, thereby recognizing a character described in the vicinity (for example, on the right side) as a character corresponding to the item. May be.

図12の表示を見たユーザは、文字データに誤りがあるか否かを判断する。そして、誤りがあると判断すると、ユーザは、不図示の指定部を用いて修正部分を選択する。指定部は、例えば画像判定装置101を構成するタッチパネル、操作ボタンや、画像判定装置101と接続されたマウス、キーボード等で良い。   The user who sees the display in FIG. 12 determines whether there is an error in the character data. When it is determined that there is an error, the user selects a correction portion using a designation unit (not shown). The designation unit may be, for example, a touch panel, operation buttons, a mouse connected to the image determination apparatus 101, a keyboard, or the like that constitutes the image determination apparatus 101.

図6と図12を比較すると、図6では、「住所」が「東京都港区○丁目○番○号」であるが図12では「束京都港区○丁目○番○号」であり、「東」が「束」に置き換わっている。すなわち、図6の在留カードを撮像した画像が、OCR処理によって正しく読み取られなかったといえる。そこで、ユーザは、例えば図12に示す表示のうち、「束」の部分のタッチパネルをタッチして選択した上で、修正用OCRボタンを押下する。修正用OCRボタンとは、図12に示すカメラマークのアイコンである。なお、選択の仕方はこれに限られない。例えばユーザは、同様の選択を、マウスを用いて行っても良い。また、ユーザは、誤っていない文字を全て選択することで、誤っている文字を選択するものとしても良い。修正用OCRボタンのデザインも、図12に示すものに限られない。   Comparing FIG. 6 and FIG. 12, in FIG. 6, the “address” is “Minato-ku ○ chome ○ number ○ number” in Tokyo, but in FIG. "East" has been replaced with "bundle". That is, it can be said that the image obtained by capturing the residence card in FIG. 6 was not correctly read by the OCR process. Thus, for example, the user touches and selects the “bundle” touch panel in the display shown in FIG. 12, and then presses the correction OCR button. The correction OCR button is an icon of a camera mark shown in FIG. Note that the selection method is not limited to this. For example, the user may perform the same selection using a mouse. In addition, the user may select an erroneous character by selecting all the characters that are not erroneous. The design of the correction OCR button is not limited to that shown in FIG.

受付部60は、修正用OCRボタンの押下を検出すると、不図示の指定部から修正部分の選択を受け付ける(S8)。つまり、受付部60は、ユーザが選択した修正部分を特定する情報を指定部から取得する。受付部60は、修正部分の選択を受け付けると、撮像部40を起動する。また、受付部60は、処理部50に対して修正用OCR処理を指示する。   When the reception unit 60 detects the pressing of the correction OCR button, the reception unit 60 receives selection of a correction portion from a designation unit (not shown) (S8). That is, the reception unit 60 acquires information specifying the correction portion selected by the user from the designation unit. The accepting unit 60 activates the imaging unit 40 when accepting the selection of the correction portion. In addition, the receiving unit 60 instructs the processing unit 50 to perform a correction OCR process.

撮像部40が起動した後、画像判定装置101は二実施形態と同様の動作を行う。そして、判定部21が記憶部31に対して新たな画像を記憶させると、処理部50は、新たな画像に対して修正用OCR処理を行う(S9)。修正用OCR処理によって生成された文字データを、修正用文字データとする。なお、受付部60は、ユーザからの修正部分の選択を受け付けた際に、撮像部40を起動しなくても良い。つまり、処理部50は、新たに撮像された画像ではなく、前回と同じ画像に対して修正用OCR処理を行っても良い。修正用OCR処理によって生成された文字データと各項目との対応付けは、前述と同様に、処理部50が行っても良い。   After the imaging unit 40 is activated, the image determination apparatus 101 performs the same operation as in the second embodiment. When the determination unit 21 stores a new image in the storage unit 31, the processing unit 50 performs a correction OCR process on the new image (S9). The character data generated by the correction OCR process is set as the correction character data. Note that the accepting unit 60 may not activate the imaging unit 40 when accepting selection of a correction portion from the user. In other words, the processing unit 50 may perform the correction OCR process on the same image as the previous time, instead of the newly captured image. As described above, the processing unit 50 may perform association between the character data generated by the correction OCR process and each item.

さらに、処理部50は、修正用OCR処理によって生成された修正用文字データのうち、受付部60が受け付けた修正部分に対応する部分を、記憶部31が記憶する文字データと入れ替える(S10)。文字データの入れ替えの説明図を図13に示す。図13は、OCR処理によって生成された文字データと、修正用OCR処理によって生成された修正用文字データを示す対比図である。処理部50は、文字データのうち、○印がついた修正部分である「束」の部分を、修正用文字データのうち、○印がついている部分の「東」の部分と入れ替える。これらの部分は、文字データ又は修正用文字データ全体において、同一の箇所に位置しているため、対応する部分であるといえる。   Further, the processing unit 50 replaces the part of the correction character data generated by the correction OCR process corresponding to the correction part received by the receiving unit 60 with the character data stored in the storage unit 31 (S10). An explanatory diagram of the replacement of the character data is shown in FIG. FIG. 13 is a comparison diagram showing character data generated by the OCR processing and correction character data generated by the correction OCR processing. The processing unit 50 replaces the “bundle” portion, which is a correction portion with a circle mark, in the character data with the “east” portion of the correction character data portion with a circle mark. Since these portions are located at the same place in the entire character data or correction character data, they can be said to be corresponding portions.

処理部50は、これらの部分以外の部分については入れ替えを行わなくても良い。修正用OCR処理によって生成された修正用文字データの「氏名」の項目は、名が「FLIZABETH」となっており、頭文字が誤って読み取られているが、処理部50は、この部分についての入れ替えは行わなくて良い。   The processing unit 50 does not have to perform replacement for parts other than these parts. The item “name” of the correction character data generated by the correction OCR process has the name “FLIZABETH”, and the initial is read incorrectly. There is no need to replace it.

記憶部31が記憶していた文字データは、処理部50が修正部分の文字を入れ替えた文字データに上書きされ、再び記憶部31に記憶される。そして、不図示の表示部は、記憶部31が記憶する文字データを再度表示する。不図示の表示部による表示を見たユーザは、文字データに誤りがあるか否かを再度判断する。ユーザが文字データに誤りがあると判断すると、S8と同様に、受付部60は、ユーザによる不図示の指定部を介した修正部分の選択を受け付ける(S11)。そして、画像判定装置101は、S9〜S11の動作を繰り返す。   The character data stored in the storage unit 31 is overwritten with the character data in which the processing unit 50 replaces the corrected character, and is stored in the storage unit 31 again. A display unit (not shown) displays the character data stored in the storage unit 31 again. The user who sees the display on the display unit (not shown) determines again whether there is an error in the character data. If the user determines that there is an error in the character data, the accepting unit 60 accepts the selection of the correction portion via the designation unit (not shown) by the user (S11), as in S8. And the image determination apparatus 101 repeats operation | movement of S9-S11.

S8又はS11において、ユーザは、文字データに誤りがないと判断した場合、画像判定装置101の処理を終了する動作を行う。画像判定装置101の処理を終了する動作とは、例えば図12に示すような不図示の表示部に表示された「Confirm」のアイコン部分のタッチパネルをユーザがタッチする、マウスでクリックする、などで良い。これにより、画像判定装置101は動作を終了する。以上のように、ユーザによる文字データの確認、修正を経て確定された文字データは、帳票の自動入力、ユーザ情報の収集などの用途に用いることができる。   In S8 or S11, when the user determines that there is no error in the character data, the user performs an operation to end the processing of the image determination apparatus 101. The operation of ending the processing of the image determination apparatus 101 is, for example, when the user touches the touch panel of the “Confirm” icon displayed on the display unit (not shown) as shown in FIG. good. As a result, the image determination apparatus 101 ends the operation. As described above, the character data determined through the confirmation and correction of the character data by the user can be used for purposes such as automatic input of forms and collection of user information.

なお、S6以降の動作は、S1〜S5の動作と独立して行われても良い。すなわち、S6以降で扱う画像は、S1〜S5を経て採用され、記憶された画像でなくても良い。   The operations after S6 may be performed independently of the operations of S1 to S5. That is, the images handled in S6 and subsequent steps may be adopted through S1 to S5 and not be stored images.

第三実施形態の画像判定システム1003は、文字データについてユーザが選択した修正部分について、修正用文字データとの入れ替えを行うため、修正用OCR処理によって新たに修正すべき部分が発生することがない。つまり、修正用OCR処理の度に異なる部分に誤りが発生することにより、何度も同様の動作を行うというユーザの煩わしさを低減することができる。   The image determination system 1003 of the third embodiment replaces the correction portion selected by the user with respect to the character data with the correction character data, so that a portion to be newly corrected does not occur due to the correction OCR processing. . In other words, since an error occurs in a different part every time the correction OCR process is performed, it is possible to reduce the troublesomeness of the user who performs the same operation many times.

また処理部50は、生成した文字データの画像における位置に基づいて、文字データが示す個人情報の項目を決定してもよい。その場合は、記憶部31が予め、各項目と各項目の画像上の位置とを対応付けて記憶していても良い。処理部50は、記憶部31が記憶する情報を読み出し、各項目とOCR処理により認識された文字データとの対応付けを行っても良い。そして、記憶部31は、処理部50が生成した文字データと、項目とを対応付けて記憶する。   The processing unit 50 may determine the item of personal information indicated by the character data based on the position of the generated character data in the image. In this case, the storage unit 31 may store each item and the position of each item on the image in association with each other. The processing unit 50 may read information stored in the storage unit 31 and associate each item with character data recognized by the OCR process. And the memory | storage part 31 matches and memorize | stores the character data and the item which the process part 50 produced | generated.

修正用OCR処理の対象となる画像が、OCR処理を行った画像とは異なる書類種別の書類を撮像したものである場合、処理部50は、修正部分を含む文字データが対応付けられている項目と同一の項目について生成された修正用文字データの、一部又は全部を対応する部分としても良い。例えば、一度目のOCR処理の対象となった画像が在留カードを撮像したものであり、修正用OCR処理の対象となった画像が運転免許証を撮像したものであるとする。図14は、OCR処理によって生成された文字データと、修正用OCR処理によって生成された修正用文字データを示す対比図である。   When the image to be subjected to the correction OCR processing is an image of a document of a document type different from the image subjected to the OCR processing, the processing unit 50 is an item associated with character data including the correction portion. A part or all of the correction character data generated for the same item may be a corresponding part. For example, it is assumed that the image that is the target of the first OCR process is an image of the residence card, and the image that is the target of the correction OCR process is an image of the driver's license. FIG. 14 is a comparison diagram showing the character data generated by the OCR process and the correction character data generated by the correction OCR process.

まず、処理部50は、修正部分である「束」を含む文字データが、項目「住所」に対応付けられており、「住所」に対応付けられた文字データの一文字目であることを認識する。そして、処理部50は、修正用文字データのうち、同一の項目「住所」に対応付けられている文字データの一文字目を対応する部分として、文字データとの入れ替えを行う。つまり、処理部50は、修正部分の文字データ「束」を「東」に入れ替える。なお、文字データの入れ替えは、項目「住所」に対応付けられた文字データ全体に対して行われても良い。つまり、処理部50は、修正部分を含む文字データ「束京都港区○丁目○番○号」を、「東京都港区○丁目○番○号」に入れ替えても良い。   First, the processing unit 50 recognizes that the character data including the correction “bundle” is associated with the item “address” and is the first character of the character data associated with the “address”. . Then, the processing unit 50 replaces the correction character data with the character data as a portion corresponding to the first character of the character data associated with the same item “address”. That is, the processing unit 50 replaces the character data “bundle” of the corrected portion with “east”. The replacement of character data may be performed on the entire character data associated with the item “address”. That is, the processing unit 50 may replace the character data “Bund Kyoto Minato-ku ○ Chome ○ No. ○ No.” including the corrected portion with “Tokyo Minato-ku ○ Chome ○ No. ○ No.”.

これにより、画像判定システム1003は、修正部分の項目と同一の項目について生成された修正用文字データを対応する部分とするため、異なる書類に対して修正用OCR処理を行った場合も、ユーザの個人情報として同一の内容を構成する文字を入れ替えることができる。   As a result, the image determination system 1003 uses the correction character data generated for the same item as the correction part item as the corresponding part. Characters constituting the same content as personal information can be replaced.

また、処理部50は、修正用OCR処理が所定の回数行われた場合、ユーザに対し、サポートデスクに接続するための手段を提供しても良い。サポートデスクに接続するための手段の例を図15に示す。例えばユーザが、項目「住所」についての文字データの修正のために、画像判定装置101に対して修正用OCR処理を所定の回数指示したとする。すると、処理部50は、不図示の表示部に対し、図15の項目「住所」の右端に示されるような電話マークのアイコンを表示させる。このアイコンが、サポートデスクに接続するための手段の例である。ユーザが、タッチパネル上の当該アイコンをタッチすると、不図示の通信制御部が予め記憶されたサポートデスクの電話番号に対して発信を行い、ユーザはサポートデスクの担当者と会話をすることが可能となる。   Further, the processing unit 50 may provide a means for connecting to the support desk to the user when the correction OCR processing is performed a predetermined number of times. An example of means for connecting to the support desk is shown in FIG. For example, it is assumed that the user has instructed the image determination apparatus 101 to perform correction OCR processing a predetermined number of times in order to correct character data for the item “address”. Then, the processing unit 50 displays an icon of a telephone mark as shown on the right end of the item “address” in FIG. This icon is an example of means for connecting to the support desk. When the user touches the icon on the touch panel, a communication control unit (not shown) makes a call to a support desk phone number stored in advance, and the user can talk with a person in charge of the support desk. Become.

また、処理部50は、当該アイコンの表示の際に、不図示のスピーカーを介して音声アナウンスを送出しても良い。アナウンスの内容は、ユーザが当該アイコンをタッチすることにより、サポートデスクへの接続が可能となる旨のメッセージで良い。   Further, the processing unit 50 may send out an audio announcement via a speaker (not shown) when the icon is displayed. The content of the announcement may be a message indicating that the user can connect to the support desk by touching the icon.

これにより、画像判定システム1003は、ユーザに対し、サポートデスクに接続するための手段を提供するため、ユーザが適切に文字データを修正できず困惑している場合にも、迅速にサポートを得ることができる。また、画像判定システム1003を用いてサービスを提供する企業も、ユーザが抱えている問題に対して迅速に対応することができ、顧客満足度を高めることができる。
(第四実施形態)
(第四実施形態の構成)
第四実施形態の構成例について説明する。図16は第四実施形態の構成例を示すブロック図である。図16では、構成要素を示す機能単位のブロック図及びそれらを実現するハードウェアの構成例を示している。
As a result, the image determination system 1003 provides the user with a means for connecting to the support desk, so that the user can quickly obtain support even when the user is not able to correct the character data properly and is confused. Can do. In addition, a company that provides a service using the image determination system 1003 can quickly cope with a problem that the user has, and can increase customer satisfaction.
(Fourth embodiment)
(Configuration of the fourth embodiment)
A configuration example of the fourth embodiment will be described. FIG. 16 is a block diagram illustrating a configuration example of the fourth embodiment. FIG. 16 shows a functional unit block diagram showing components and hardware configuration examples for realizing them.

画像判定装置101内の取得部11、判定部21、処理部50、受付部60は、回路5によって実現されても良い。記憶部31は、記憶部6によって実現されても良い。撮像部40は、撮像部7によって実現されてもよい。撮像部7は、例えばCCD(Charge Coupled Device)イメージセンサ、CCDイメージセンサを備えたデジタルカメラなどで良い。   The acquisition unit 11, the determination unit 21, the processing unit 50, and the reception unit 60 in the image determination apparatus 101 may be realized by the circuit 5. The storage unit 31 may be realized by the storage unit 6. The imaging unit 40 may be realized by the imaging unit 7. The imaging unit 7 may be a CCD (Charge Coupled Device) image sensor, a digital camera equipped with a CCD image sensor, or the like.

各構成要素の説明及びその他のハードウェアの説明については、上述の実施形態と同様であるため省略する。なお、ハードウェア構成と、各構成要素との対応付けは、図14に示すものに限らず、任意の組み合わせによって実現される。例えば、取得部11、判定部21、処理部50、受付部60は、異なる装置内の回路によって実現されても良い。また、記憶部6は、外付けハードディスク、SDカード等、画像判定装置101とは異なる装置によって実現されても良い。   The description of each component and the description of other hardware are the same as those in the above-described embodiment, and will be omitted. Note that the association between the hardware configuration and each component is not limited to that illustrated in FIG. 14, and is realized by any combination. For example, the acquisition unit 11, the determination unit 21, the processing unit 50, and the reception unit 60 may be realized by circuits in different apparatuses. The storage unit 6 may be realized by an apparatus different from the image determination apparatus 101, such as an external hard disk or an SD card.

本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In this specification, the steps describing the series of processes described above are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. It also includes the processing.

上述した各実施形態は本発明を具体化した一例に過ぎず、請求の範囲に記載された本発明の趣旨の範囲内であれば、種々変更することができるものである。   Each embodiment mentioned above is only an example which materialized the present invention, and can be variously changed if it is in the range of the meaning of the present invention indicated in the claim.

1 通信制御部
2 RAM
3 記憶部
4 CPU
5 CPU
6 記憶部
7 撮像部
10 取得部
11 取得部
20 判定部
21 判定部
30 記憶部
31 記憶部
40 撮像部
50 処理部
60 受付部
70 表示部
80 枠
81 枠
82 枠
100 画像判定装置
101 画像判定装置
1000 画像判定システム
1001 画像判定システム
1002 画像判定システム
1003 画像判定システム
2000 画像に写る在留カード
2001 所定位置
2002 所定位置
2003 所定位置
2004 所定位置
2005 所定位置
2006 所定位置
3000 スマートフォン
4000 画像
1 Communication control unit 2 RAM
3 Memory 4 CPU
5 CPU
REFERENCE SIGNS LIST 6 storage unit 7 image pickup unit 10 acquisition unit 11 acquisition unit 20 determination unit 21 determination unit 30 determination unit 30 storage unit 31 storage unit 40 image pickup unit 50 processing unit 60 reception unit 70 display unit 80 frame 81 frame 82 frame 100 image determination device 101 image determination device 1000 Image Judgment System 1001 Image Judgment System 1002 Image Judgment System 1003 Image Judgment System 2000 Resident Card Reflected in Image 2001 Predetermined Position 2002 Predetermined Position 2003 Predetermined Position 2004 Predetermined Position 2005 Predetermined Position 2006 Predetermined Position 3000 Smartphone 4000 Image

Claims (10)

画像を取得する取得部と、
前記画像が、採用条件を満たすか否かを判定する判定部と、
記憶部と、を有し、
前記採用条件は、前記画像において所定の文字又は画像が認識されることであり、
前記記憶部は、前記判定部が前記採用条件を満たすと判定した前記画像を記憶する、
画像判定システム。
An acquisition unit for acquiring images;
A determination unit for determining whether or not the image satisfies an employment condition;
A storage unit;
The adoption condition is that a predetermined character or image is recognized in the image,
The storage unit stores the image determined by the determination unit to satisfy the employment condition.
Image judgment system.
前記採用条件は、所定位置において、前記所定の文字又は画像が認識されることである
請求項1記載の画像判定システム。
The image determination system according to claim 1, wherein the adoption condition is that the predetermined character or image is recognized at a predetermined position.
前記画像は、個人情報を含む書類を撮像した画像であり、
前記取得部は、前記書類の書類種別を取得し、
前記判定部は、前記画像が、前記書類種別ごとに異なる前記採用条件を満たすか否かを判定する
請求項1又は2記載の画像判定システム。
The image is an image of a document containing personal information,
The acquisition unit acquires a document type of the document,
The image determination system according to claim 1, wherein the determination unit determines whether or not the image satisfies the different employment conditions for each document type.
前記採用条件は、複数の前記所定位置において、それぞれの前記所定位置に対応する前記所定の文字又は画像が認識されることである
請求項1乃至3のいずれかひとつに記載の画像判定システム。
4. The image determination system according to claim 1, wherein the adoption condition is that the predetermined character or image corresponding to each of the predetermined positions is recognized at a plurality of the predetermined positions. 5.
前記判定部は、前記画像の前記所定位置に対して判定用OCR処理を行い、
前記採用条件は、前記判定用OCR処理により生成された文字データが、所定の文字データと同一となることである
請求項1乃至4のいずれかひとつに記載の画像判定システム。
The determination unit performs determination OCR processing on the predetermined position of the image,
5. The image determination system according to claim 1, wherein the adoption condition is that character data generated by the determination OCR process is the same as predetermined character data. 6.
前記記憶部が記憶する画像に対してOCR処理を行い、生成された文字データを前記記憶部に記憶させる処理部と、
前記記憶部が記憶する前記文字データにおける修正部分の選択を受け付ける受付部と、を有し、
前記処理部は、修正用OCR処理によって生成された修正用文字データのうち、前記受付部が受け付けた修正部分に対応する部分を、前記記憶部が記憶する文字データと入れ替える
請求項1乃至5記載のいずれかひとつに記載の画像判定システム。
A processing unit that performs OCR processing on the image stored in the storage unit and stores the generated character data in the storage unit;
A reception unit that receives selection of a correction portion in the character data stored in the storage unit,
6. The processing unit replaces a portion corresponding to a correction portion received by the receiving unit, out of the correction character data generated by the correction OCR process, with character data stored in the storage unit. The image determination system according to any one of the above.
前記処理部は、生成した前記文字データの前記画像における位置に基づいて、前記文字データが示す情報の項目を決定し、
前記記憶部は、前記文字データと、前記項目とを対応付けて記憶し、
前記修正用OCR処理の対象となる画像が、前記OCR処理を行った画像とは異なる書類種別の書類を撮像したものである場合、
前記処理部は、前記修正部分を含む前記文字データが対応付けられている前記項目と同一の項目について生成された前記修正用文字データの、一部又は全部を前記対応する部分とする
請求項6記載の画像判定システム。
The processing unit determines an item of information indicated by the character data based on the position of the generated character data in the image,
The storage unit stores the character data and the items in association with each other,
When the image to be subjected to the correction OCR processing is an image of a document of a different document type from the image subjected to the OCR processing,
7. The processing unit sets a part or all of the correction character data generated for the same item as the item associated with the character data including the correction part as the corresponding part. The image determination system described.
前記処理部は、前記修正用OCR処理が所定の回数行われた場合、ユーザに対し、サポートデスクに接続するための手段を提供する
請求項6又は7記載の画像判定システム。
The image determination system according to claim 6, wherein the processing unit provides a user with means for connecting to a support desk when the correction OCR processing is performed a predetermined number of times.
画像を取得し、
前記画像が、採用条件を満たすか否かを判定し、
前記判定部が前記採用条件を満たすと判定した前記画像を記憶し、
前記採用条件は、前記画像において、所定の文字又は画像が認識されることである
画像判定方法。
Get an image,
Determining whether the image satisfies the employment condition;
Storing the image determined by the determination unit to satisfy the employment condition;
The image determination method in which the adoption condition is that a predetermined character or image is recognized in the image.
コンピュータに、
画像を取得する取得処理と、
前記画像が、採用条件を満たすか否かを判定する判定処理と、
前記判定部が前記採用条件を満たすと判定した前記画像を記憶する記憶処理と、を実行させ、
前記採用条件は、前記画像において、所定の文字又は画像が認識されることである、
画像判定プログラム。
On the computer,
An acquisition process to acquire an image;
A determination process for determining whether or not the image satisfies an employment condition;
A storage process for storing the image determined by the determination unit to satisfy the employment condition;
The adoption condition is that a predetermined character or image is recognized in the image.
Image judgment program.
JP2015155568A 2015-08-06 2015-08-06 A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program. Active JP6875061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015155568A JP6875061B2 (en) 2015-08-06 2015-08-06 A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015155568A JP6875061B2 (en) 2015-08-06 2015-08-06 A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020108392A Division JP2020155155A (en) 2020-06-24 2020-06-24 Image determination system, image determination method, image determination program, and record medium for recording image determination program

Publications (2)

Publication Number Publication Date
JP2017033477A true JP2017033477A (en) 2017-02-09
JP6875061B2 JP6875061B2 (en) 2021-05-19

Family

ID=57988259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015155568A Active JP6875061B2 (en) 2015-08-06 2015-08-06 A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.

Country Status (1)

Country Link
JP (1) JP6875061B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524323A (en) * 2017-12-14 2020-08-13 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Certificate verification method, device, electronic device, and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166229A (en) * 1997-08-11 1999-03-09 N T T Data:Kk Character recognition system and record medium recorded with program for character recognition
JP2003208565A (en) * 2002-01-11 2003-07-25 Glory Ltd Document registration support method and device, and program
JP2005018678A (en) * 2003-06-30 2005-01-20 Casio Comput Co Ltd Form data input processing device, form data input processing method, and program
JP2005157458A (en) * 2003-11-20 2005-06-16 Glory Ltd Automatic contract system, automatic contract reception machine, and automatic contract method
JP2008077454A (en) * 2006-09-22 2008-04-03 Matsushita Electric Ind Co Ltd Title extraction device, image reading device, title extraction method, and title extraction program
JP2010102668A (en) * 2008-10-27 2010-05-06 Hitachi Software Eng Co Ltd Metadata extraction device and method therefor
JP2010136221A (en) * 2008-12-05 2010-06-17 Bankutekku Japan Kk Image processing system and image processing method
JP2011510365A (en) * 2007-12-12 2011-03-31 スリーエム イノベイティブ プロパティズ カンパニー Document verification using dynamic document identification framework
WO2014038164A1 (en) * 2012-09-04 2014-03-13 パナソニック株式会社 Service usage range determination method, computer program, and portable terminal
JP2014182477A (en) * 2013-03-18 2014-09-29 Fuji Xerox Co Ltd Program and document processing device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166229A (en) * 1997-08-11 1999-03-09 N T T Data:Kk Character recognition system and record medium recorded with program for character recognition
JP2003208565A (en) * 2002-01-11 2003-07-25 Glory Ltd Document registration support method and device, and program
JP2005018678A (en) * 2003-06-30 2005-01-20 Casio Comput Co Ltd Form data input processing device, form data input processing method, and program
JP2005157458A (en) * 2003-11-20 2005-06-16 Glory Ltd Automatic contract system, automatic contract reception machine, and automatic contract method
JP2008077454A (en) * 2006-09-22 2008-04-03 Matsushita Electric Ind Co Ltd Title extraction device, image reading device, title extraction method, and title extraction program
JP2011510365A (en) * 2007-12-12 2011-03-31 スリーエム イノベイティブ プロパティズ カンパニー Document verification using dynamic document identification framework
JP2010102668A (en) * 2008-10-27 2010-05-06 Hitachi Software Eng Co Ltd Metadata extraction device and method therefor
JP2010136221A (en) * 2008-12-05 2010-06-17 Bankutekku Japan Kk Image processing system and image processing method
WO2014038164A1 (en) * 2012-09-04 2014-03-13 パナソニック株式会社 Service usage range determination method, computer program, and portable terminal
JP2014182477A (en) * 2013-03-18 2014-09-29 Fuji Xerox Co Ltd Program and document processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524323A (en) * 2017-12-14 2020-08-13 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Certificate verification method, device, electronic device, and storage medium
US11256943B2 (en) 2017-12-14 2022-02-22 Shenzhen Sensetime Technology Co., Ltd. Method and apparatus for verifying identity document, electronic device, and storage medium

Also Published As

Publication number Publication date
JP6875061B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6918148B2 (en) Certificate verification methods, devices, electronics and storage media
WO2020022014A1 (en) Information processing device, information processing method, and information processing program
JP6712045B2 (en) Information processing system, its processing method, and program
JP2022106869A (en) Biometric authentication device, biometric authentication method, and biometric authentication program
JP4640416B2 (en) Face authentication apparatus, system, method and program
US10452943B2 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP6217593B2 (en) Approval device, approval system, and approval program
JP3982132B2 (en) Information output control method and information display device
KR20230017774A (en) Information processing device, information processing method, and program
JP6875061B2 (en) A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program.
JP2018125658A (en) Portable information processing device having camera function, display control method thereof, and program
JP7091606B2 (en) Terminals, character recognition systems, terminal control methods and programs
JP2020177368A (en) Authenticity determination apparatus and program
JP6507555B2 (en) Application acceptance method and system for media with face image
JP2020155155A (en) Image determination system, image determination method, image determination program, and record medium for recording image determination program
JP2022093466A (en) Information processing device, information processing system, and program
JP2013134565A (en) Individual authentication device
JP6650018B1 (en) Information processing apparatus, information processing method, program, and information processing server
JP2017097859A (en) Information processing device, and processing method and program thereof
JP6913309B2 (en) Computer programs, information processing methods, and information processing equipment
JP6639257B2 (en) Information processing apparatus and control method therefor
JP2020091748A (en) Terminal device, program, and image management method
JP2006331247A (en) Id card reissue system
JP2019120984A (en) Business form data management apparatus, business form data management method
JP6815712B1 (en) Image processing system, image processing method, image processing program, image processing server, and learning model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200624

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200707

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200714

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200814

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200818

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210119

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210224

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210330

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210422

R150 Certificate of patent or registration of utility model

Ref document number: 6875061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150