JP2015050730A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2015050730A
JP2015050730A JP2013182920A JP2013182920A JP2015050730A JP 2015050730 A JP2015050730 A JP 2015050730A JP 2013182920 A JP2013182920 A JP 2013182920A JP 2013182920 A JP2013182920 A JP 2013182920A JP 2015050730 A JP2015050730 A JP 2015050730A
Authority
JP
Japan
Prior art keywords
image data
unit
image
template
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013182920A
Other languages
Japanese (ja)
Other versions
JP6326744B2 (en
Inventor
吉田 裕一
Yuichi Yoshida
裕一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013182920A priority Critical patent/JP6326744B2/en
Publication of JP2015050730A publication Critical patent/JP2015050730A/en
Application granted granted Critical
Publication of JP6326744B2 publication Critical patent/JP6326744B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operation efficiency when attaching image data to a prescribed region of a predetermined format.SOLUTION: An information processing system comprises a reception unit, a recognition unit, a first storage unit, an identification unit, a second storage unit, and an image attachment unit. The reception unit receives first image data indicating an image of the document read by a read unit. The recognition unit recognizes the handwritten characters included in the first image data. The first storage unit stores the first association information with which position information of a prescribed region to which second image data is attached is associated for each of a plurality of kinds of template images. The identification unit identifies the corresponding template image on the basis of feature information of the first image data. The second storage unit stores the second association information with which the second image data is associated for each of a plurality of kinds of characters. The image attachment unit generates third image data by attaching the second image data corresponding to the handwritten characters recognized by the recognition unit to a prescribed region of the template image identified by the identification unit.

Description

本発明は、情報処理システム、情報処理方法およびプログラムに関する。   The present invention relates to an information processing system, an information processing method, and a program.

従来、画像読取装置などに搭載可能な写真管理アプリが知られている。この写真管理アプリの例としては、ネットワークで接続された外部サーバに置かれた画像ファイル群と印刷形式の雛形を表すモデル(以下、「テンプレート画像」と称する場合がある)を並列で表示し、例えばユーザが、画面上の画像ファイルに対して指などを接触させることで当該画像ファイルを選択し、その指を画面に接触させたまま、テンプレート画像上の規定の位置範囲に動かすと、その選択された画像ファイルをテンプレート画像上に形成するとともに、その付帯情報を文字情報としてテンプレート画像上に描画する機能を提供するためのアプリケーションである。   Conventionally, a photo management application that can be installed in an image reading apparatus or the like is known. As an example of this photo management application, an image file group placed on an external server connected via a network and a model representing a print format template (hereinafter sometimes referred to as a “template image”) are displayed in parallel. For example, when the user selects an image file by touching the image file on the screen with the finger, and moves the finger to the specified position range on the template image while touching the screen, the selection is performed. This is an application for providing a function of forming the image file on the template image and drawing the accompanying information as character information on the template image.

しかし、従来の写真管理アプリでは、ユーザは、画面上において、添付したい画像ファイルを指などで選択し、雛形(予め定められたフォーマット)に貼り付ける作業をしなければならず、画面が小さい場合には非常に操作しにくいという問題がある。   However, in the conventional photo management application, the user has to select an image file to be attached with a finger or the like on the screen and paste it on a template (predetermined format). Has a problem that it is very difficult to operate.

本発明は、上記に鑑みてなされたものであって、予め定められたフォーマットの所定領域に画像データを添付する際の操作効率を向上させることが可能な情報処理システム、情報処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an information processing system, an information processing method, and a program capable of improving the operation efficiency when attaching image data to a predetermined area of a predetermined format. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明は、画像読取部により読み取られた原稿の画像を示す第1画像データを受信する受信部と、前記第1画像データに含まれる手書き文字を認識する認識部と、それぞれが印刷形式の雛形を表す複数種類のテンプレート画像ごとに、第2画像データが添付される所定領域の位置情報を対応付けた第1対応情報を保存する第1保存部と、前記第1画像データの特徴情報に基づいて、対応する前記テンプレート画像を特定する特定部と、複数種類の文字ごとに、前記第2画像データを対応付けた第2対応情報を保存する第2保存部と、前記認識部により認識された前記手書き文字に対応する前記第2画像データを、前記特定部により特定された前記テンプレート画像の前記所定領域に添付して第3画像データを生成する画像添付部と、を備える情報処理システムである。   In order to solve the above-described problems and achieve the object, the present invention provides a receiving unit that receives first image data indicating an image of a document read by an image reading unit, and a handwriting included in the first image data. A first unit that stores first correspondence information that associates position information of a predetermined area to which second image data is attached, for each of a plurality of types of template images each representing a template of a print format, and a recognition unit that recognizes characters. Based on the feature information of the first image data, a storage unit, a specifying unit for specifying the corresponding template image, and second correspondence information in which the second image data is associated for each of a plurality of types of characters are stored. And attaching the second image data corresponding to the handwritten character recognized by the recognition unit to the predetermined area of the template image specified by the specifying unit. An image attachment unit for generating image data, an information processing system comprising a.

本発明によれば、予め定められたフォーマットの所定領域に画像データを添付する際の操作効率を向上させることができる。   According to the present invention, it is possible to improve the operation efficiency when attaching image data to a predetermined area of a predetermined format.

図1は、MFPのハードウェア構成例を示す図である。FIG. 1 is a diagram illustrating a hardware configuration example of an MFP. 図2は、MFPのソフトウェア構成例を示す模式図である。FIG. 2 is a schematic diagram illustrating a software configuration example of the MFP. 図3は、第1実施形態の操作部の機能構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of the operation unit according to the first embodiment. 図4は、第1実施形態のMFPの動作例を示すフロー図である。FIG. 4 is a flowchart illustrating an operation example of the MFP according to the first embodiment. 図5は、写真番号記載フォーマット用紙の一例を示す図である。FIG. 5 is a diagram showing an example of a photo number description format sheet. 図6は、操作部に表示される画面の一例を示す図である。FIG. 6 is a diagram illustrating an example of a screen displayed on the operation unit. 図7は、写真番号が記入されたフォーマット用紙の一例を示す図である。FIG. 7 is a diagram showing an example of a format sheet on which a photo number is entered. 図8は、操作部に表示される画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of a screen displayed on the operation unit. 図9は、第2実施形態の操作部の機能構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a functional configuration of the operation unit according to the second embodiment. 図10は、訂正記号が記入されたフォーマット用紙の一例を示す図である。FIG. 10 is a diagram showing an example of a format sheet on which correction symbols are entered. 図11は、第2実施形態のMFPの動作例を示すフロー図である。FIG. 11 is a flowchart illustrating an operation example of the MFP according to the second embodiment. 図12は、第3実施形態の操作部の機能構成の一例を示す図である。FIG. 12 is a diagram illustrating an example of a functional configuration of the operation unit according to the third embodiment. 図13は、第3実施形態のMFPの動作例を示すフロー図である。FIG. 13 is a flowchart illustrating an operation example of the MFP according to the third embodiment. 図14は、第4実施形態の操作部の機能構成の一例を示す図である。FIG. 14 is a diagram illustrating an example of a functional configuration of the operation unit according to the fourth embodiment. 図15は、第4実施形態のMFPの動作例を示すフロー図である。FIG. 15 is a flowchart illustrating an operation example of the MFP according to the fourth embodiment. 図16は、第5実施形態の操作部の機能構成の一例を示す図である。FIG. 16 is a diagram illustrating an example of a functional configuration of the operation unit according to the fifth embodiment. 図17は、第5実施形態のMFPの動作例を示すフロー図である。FIG. 17 is a flowchart illustrating an operation example of the MFP according to the fifth embodiment. 図18は、操作部に表示される画面の一例を示す図である。FIG. 18 is a diagram illustrating an example of a screen displayed on the operation unit.

以下、添付図面を参照しながら、本発明に係る情報処理システム、情報処理方法およびプログラムの実施形態を詳細に説明する。以下では、本発明に係る情報処理システムを、複合機(MFP:Multifunction Peripheral)に適用した場合を例に挙げて説明するが、これに限定されるものではない。なお、複合機とは、印刷機能、複写機能、スキャナ機能、及びファクシミリ機能のうち少なくとも2つの機能を有する装置である。本発明に係る情報処理システムが適用された複合機は、少なくともスキャナ機能を有する。   Hereinafter, embodiments of an information processing system, an information processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, a case where the information processing system according to the present invention is applied to a multifunction peripheral (MFP) will be described as an example, but the present invention is not limited to this. Note that a multifunction peripheral is a device having at least two functions among a printing function, a copying function, a scanner function, and a facsimile function. A multifunction machine to which an information processing system according to the present invention is applied has at least a scanner function.

(第1実施形態)
図1は、本実施形態のMFP1のハードウェア構成例を示すブロック図である。図1に示すように、MFP1は、コピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種の機能を実現可能な本体10と、ユーザの操作に応じた入力を受け付ける操作部20と、を備える。本体10と操作部20は、専用の通信路300を介して相互に通信可能に接続されている。通信路300は、例えばUSB(Universal Serial Bus)規格のものを用いることもできるが、有線か無線かを問わず任意の規格のものであってよい。
(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration example of the MFP 1 according to the present embodiment. As illustrated in FIG. 1, the MFP 1 includes a main body 10 capable of realizing various functions such as a copy function, a scanner function, a fax function, and a printer function, and an operation unit 20 that receives an input corresponding to a user operation. . The main body 10 and the operation unit 20 are connected via a dedicated communication path 300 so that they can communicate with each other. The communication path 300 may be, for example, a USB (Universal Serial Bus) standard, but may be of any standard regardless of whether it is wired or wireless.

なお、本体10は、操作部20で受け付けた入力に応じた動作を行うことができる。また、本体10は、クライアントPC(パーソナルコンピュータ)等の外部装置とも通信可能であり、外部装置から受信した指示に応じた動作を行うこともできる。   The main body 10 can perform an operation according to the input received by the operation unit 20. The main body 10 can also communicate with an external device such as a client PC (personal computer), and can also perform an operation according to an instruction received from the external device.

次に、本体10のハードウェア構成について説明する。図1に示すように、本体10は、CPU11と、ROM12と、RAM13と、HDD(ハードディスクドライブ)14と、通信I/F(インタフェース)15と、接続I/F16と、エンジン部17とを備え、これらがシステムバス18を介して相互に接続されている。   Next, the hardware configuration of the main body 10 will be described. As shown in FIG. 1, the main body 10 includes a CPU 11, a ROM 12, a RAM 13, an HDD (hard disk drive) 14, a communication I / F (interface) 15, a connection I / F 16, and an engine unit 17. These are connected to each other via a system bus 18.

CPU11は、本体10の動作を統括的に制御する。CPU11は、RAM13をワークエリア(作業領域)としてROM12またはHDD14等に格納されたプログラムを実行することで、本体10全体の動作を制御し、上述したコピー機能、スキャナ機能、ファクス機能、プリンタ機能などの各種機能を実現する。   The CPU 11 comprehensively controls the operation of the main body 10. The CPU 11 controls the overall operation of the main body 10 by executing a program stored in the ROM 12 or the HDD 14 or the like using the RAM 13 as a work area (work area), and the above-described copy function, scanner function, fax function, printer function, etc. Implement various functions.

通信I/F15は、クライアントPC(パーソナルコンピュータ)等の外部装置と通信するためのインタフェースである。接続I/F16は、通信路300を介して操作部20と通信するためのインタフェースである。   The communication I / F 15 is an interface for communicating with an external device such as a client PC (personal computer). The connection I / F 16 is an interface for communicating with the operation unit 20 via the communication path 300.

エンジン部17は、コピー機能、スキャナ機能、ファクス機能、および、プリンタ機能を実現させるための、汎用的な情報処理及び通信以外の処理を行うハードウェアである。例えば、原稿の画像をスキャンして読み取るスキャナ(画像読取部)、用紙等のシート材への印刷を行うプロッタ(画像形成部)、ファクス通信を行うファクス部などを備えている。本実施形態におけるエンジン部17は、少なくともスキャナ(画像読取部)を備えており、このスキャナ(画像読取部)は、OCR(Optical Character Recognition)の機能を有している。更に、印刷済みシート材を仕分けるフィニッシャや、原稿を自動給送するADF(自動原稿給送装置)のような特定のオプションを備えることもできる。   The engine unit 17 is hardware that performs processing other than general-purpose information processing and communication for realizing a copy function, a scanner function, a fax function, and a printer function. For example, a scanner (image reading unit) that scans and reads an image of a document, a plotter (image forming unit) that performs printing on a sheet material such as paper, and a fax unit that performs fax communication are provided. The engine unit 17 in this embodiment includes at least a scanner (image reading unit), and the scanner (image reading unit) has an OCR (Optical Character Recognition) function. Further, a specific option such as a finisher for sorting printed sheet materials or an ADF (automatic document feeder) for automatically feeding a document can be provided.

次に、操作部20のハードウェア構成について説明する。図1に示すように、操作部20は、CPU21と、ROM22と、RAM23と、フラッシュメモリ24と、通信I/F25と、接続I/F26と、操作パネル27と、を備え、これらがシステムバス28を介して相互に接続されている。   Next, the hardware configuration of the operation unit 20 will be described. As shown in FIG. 1, the operation unit 20 includes a CPU 21, a ROM 22, a RAM 23, a flash memory 24, a communication I / F 25, a connection I / F 26, and an operation panel 27, which are system buses. They are connected to each other through 28.

CPU21は、操作部20の動作を統括的に制御する。CPU21は、RAM23をワークエリア(作業領域)としてROM22またはフラッシュメモリ24等に格納されたプログラムを実行することで、操作部20全体の動作を制御し、ユーザから受け付けた入力に応じた情報(画像)の表示などの後述する各種機能を実現する。   The CPU 21 comprehensively controls the operation of the operation unit 20. The CPU 21 uses the RAM 23 as a work area (work area) and executes a program stored in the ROM 22 or the flash memory 24 to control the operation of the entire operation unit 20 and information (image) according to the input received from the user. Various functions described later such as display of) are realized.

通信I/F25は、インターネットなどのネットワークを介してサーバ装置等の外部装置と通信するためのインタフェースである。接続I/F26は、通信路300を介して本体10と通信するためのインタフェースである。   The communication I / F 25 is an interface for communicating with an external device such as a server device via a network such as the Internet. The connection I / F 26 is an interface for communicating with the main body 10 via the communication path 300.

操作パネル27は、ユーザの操作に応じた各種の入力を受け付けるとともに、各種の情報(例えばMFP1の動作状況を示す情報、設定状態などを示す情報など)を表示する。この例では、操作パネル27は、タッチパネル機能を搭載した液晶表示装置(LCD)で構成されるが、これに限られるものではない。例えばタッチパネル機能が搭載された有機EL表示装置で構成されてもよい。さらに、これに加えて又はこれに代えて、ハードウェアキー等の操作部やランプ等の表示部を設けることもできる。   The operation panel 27 accepts various inputs in accordance with user operations and displays various types of information (for example, information indicating the operation status of the MFP 1, information indicating a setting state, etc.). In this example, the operation panel 27 is configured by a liquid crystal display device (LCD) having a touch panel function, but is not limited thereto. For example, an organic EL display device equipped with a touch panel function may be used. Further, in addition to or instead of this, an operation unit such as a hardware key and a display unit such as a lamp may be provided.

次に、MFP1のソフトウェア構成について説明する。図2は、MFP1のソフトウェア構成の一例を示す模式図である。図2に示すように、本体10は、アプリ層101と、サービス層102と、OS層103とを有する。アプリ層101、サービス層102、および、OS層103の実体は、ROM12やHDD14等に格納されている各種ソフトウェアである。CPU11が、これらのソフトウェアを実行することにより、各種の機能が提供される。   Next, the software configuration of the MFP 1 will be described. FIG. 2 is a schematic diagram illustrating an example of the software configuration of the MFP 1. As illustrated in FIG. 2, the main body 10 includes an application layer 101, a service layer 102, and an OS layer 103. The entities of the application layer 101, the service layer 102, and the OS layer 103 are various software stored in the ROM 12, the HDD 14, and the like. Various functions are provided by the CPU 11 executing these software.

アプリ層101のソフトウェアは、ハードウェア資源を動作させて所定の機能を提供するためのアプリケーションソフトウェア(以下の説明では、単に「アプリ」あるいは「アプリケーション」と称する場合がある)である。例えばアプリケーションの種類としては、コピー機能を提供するためのコピーアプリ、スキャナ機能を提供するためのスキャナアプリ、ファクス機能を提供するためのファクスアプリ、プリンタ機能を提供するためのプリンタアプリなどが挙げられる。   The software of the application layer 101 is application software for operating a hardware resource to provide a predetermined function (in the following description, it may be simply referred to as “application” or “application”). For example, application types include a copy application for providing a copy function, a scanner application for providing a scanner function, a fax application for providing a fax function, and a printer application for providing a printer function. .

サービス層102のソフトウェアは、アプリ層101とOS層103との間に介在し、アプリケーションに対し、本体10が備えるハードウェア資源を利用するためのインタフェースを提供するためのソフトウェアである。より具体的には、ハードウェア資源に対する動作要求の受付、動作要求の調停を行う機能を提供するためのソフトウェアである。サービス層102が受け付ける動作要求としては、スキャナによる読み取りやプロッタによる印刷等の要求が考えられる。   The software of the service layer 102 is software that is interposed between the application layer 101 and the OS layer 103 and provides an interface for using hardware resources included in the main body 10 for the application. More specifically, it is software for providing a function of accepting an operation request for a hardware resource and arbitrating the operation request. As an operation request received by the service layer 102, a request such as reading by a scanner or printing by a plotter can be considered.

なお、サービス層102によるインタフェースの機能は、本体10のアプリ層101だけではなく、操作部20のアプリ層201に対しても提供される。すなわち、操作部20のアプリ層201(アプリ)も、サービス層102のインタフェース機能を介して、本体10のハードウェア資源(例えばエンジン部17)を利用した機能を実現することができる。   Note that the interface function by the service layer 102 is provided not only to the application layer 101 of the main body 10 but also to the application layer 201 of the operation unit 20. That is, the application layer 201 (application) of the operation unit 20 can also realize a function using hardware resources (for example, the engine unit 17) of the main body 10 via the interface function of the service layer 102.

OS層103のソフトウェアは、本体10が備えるハードウェアを制御する基本機能を提供するための基本ソフトウェア(オペレーティングシステム)である。サービス層102のソフトウェアは、各種アプリからのハードウェア資源の利用要求を、OS層103が解釈可能なコマンドに変換してOS層103に渡す。そして、OS層103のソフトウェアによりコマンドが実行されることで、ハードウェア資源は、アプリケーションの要求に従った動作を行う。   The software of the OS layer 103 is basic software (operating system) for providing a basic function for controlling hardware included in the main body 10. The software of the service layer 102 converts a hardware resource use request from various applications into a command interpretable by the OS layer 103 and passes the command to the OS layer 103. Then, when the command is executed by the software of the OS layer 103, the hardware resource performs an operation according to the request of the application.

同様に、操作部20は、アプリ層201と、サービス層202と、OS層203とを有する。操作部20が備えるアプリ層201、サービス層202及びOS層203も、階層構造については本体10側と同様である。ただし、アプリ層201のアプリにより提供される機能や、サービス層202が受け付け可能な動作要求の種類は、本体10側とは異なる。アプリ層201のアプリとしては、操作部20が備えるハードウェア資源を動作させて所定の機能を提供するためのソフトウェアであってもよいが、主として、本体10が備える機能(コピー機能、スキャナ機能、ファクス機能、プリンタ機能)に関する操作や表示を行うためのUI(ユーザインタフェース)の機能を提供するためのソフトウェアや、ユーザが使用するデジタルカメラなどの撮像装置の撮像により得られた画像データ(請求項の「第2画像データ」に対応)を、スキャナにより読み取られた原稿の画像データ(請求項の「第1画像データ」に対応)の所定領域に添付する機能を提供するためのソフトウェア(以下の説明では、「写真管理アプリ」と称する場合がある)などが含まれる。   Similarly, the operation unit 20 includes an application layer 201, a service layer 202, and an OS layer 203. The application layer 201, the service layer 202, and the OS layer 203 included in the operation unit 20 have the same hierarchical structure as that of the main body 10 side. However, the functions provided by the applications in the application layer 201 and the types of operation requests that can be accepted by the service layer 202 are different from those on the main body 10 side. The application of the application layer 201 may be software for operating a hardware resource provided in the operation unit 20 to provide a predetermined function, but mainly functions provided in the main body 10 (copy function, scanner function, Software for providing a UI (user interface) function for performing operations and display related to a fax function and a printer function) and image data obtained by imaging of an imaging device such as a digital camera used by a user (claims) (Corresponding to “second image data”) of the document (hereinafter referred to as “second image data”) to a predetermined area of the image data of the document read by the scanner (corresponding to “first image data” in the claims) The description includes “sometimes referred to as a“ photo management application ”).

なお、本実施形態では、機能の独立性を保つために、本体10側のOS層103のソフトウェアと操作部20側のOS層203のソフトウェアが互いに異なる。つまり、本体10と操作部20は、別々のオペレーティングシステムで互いに独立して動作する。例えば、本体10側のOS層103のソフトウェアとしてLinux(登録商標)を用い、操作部20側のOS層203のソフトウェアとしてAndroid(登録商標)を用いることも可能である。   In this embodiment, the software of the OS layer 103 on the main body 10 side and the software of the OS layer 203 on the operation unit 20 side are different from each other in order to maintain the independence of functions. That is, the main body 10 and the operation unit 20 operate independently of each other with different operating systems. For example, it is possible to use Linux (registered trademark) as the software of the OS layer 103 on the main body 10 side and Android (registered trademark) as the software of the OS layer 203 on the operation unit 20 side.

また、本実施形態では、操作部20に対する電力供給は、本体10から通信路300を経由して行われているので、操作部20の電源制御を、本体10の電源制御とは別に(独立して)行うことができる。   In the present embodiment, since the power supply to the operation unit 20 is performed from the main body 10 via the communication path 300, the power control of the operation unit 20 is performed separately from the power control of the main body 10 (independently). Can do).

次に、MFP1の機能構成について説明する。図3は、操作部20の機能構成の一例を示す図である。説明の便宜上、図3では、上述の写真管理アプリに関する機能を主に例示しているが、操作部20が有する機能は、これらに限られるものではない。   Next, the functional configuration of the MFP 1 will be described. FIG. 3 is a diagram illustrating an example of a functional configuration of the operation unit 20. For convenience of explanation, FIG. 3 mainly illustrates functions related to the above-described photo management application, but the functions of the operation unit 20 are not limited to these.

図3に示すように、操作部20は、受信部211と、認識部212と、第1保存部213と、特定部214と、第2保存部215と、画像添付部216と、生成データ保存部217と、第1表示部218とを有する。上記各部については、これらの一部又は全部がソフトウェア(プログラム)、ハードウェア回路であっても良い。また、上記各部のうちの一部が本体10側に搭載される形態であってもよい。   As illustrated in FIG. 3, the operation unit 20 includes a reception unit 211, a recognition unit 212, a first storage unit 213, a specification unit 214, a second storage unit 215, an image attachment unit 216, and generated data storage. Part 217 and first display part 218. As for each of the above parts, some or all of them may be software (program) or hardware circuit. Moreover, the form mounted in the main body 10 side may be sufficient as a part of said each part.

受信部211は、上述のエンジン部17に含まれるスキャナ(画像読取部)により読み取られた原稿の画像を示す第1画像データを受信する。本実施形態におけるスキャナは、原稿をスキャンして読み取った画像に対してOCR処理を行い、原稿画像の属性を表す様々な画像特性値を算出する。なお、OCR処理は、公知の技術であるため、ここでは詳細な説明は省略する。本実施形態におけるスキャナは、スキャン結果を示す第1画像データと、OCR処理の結果を示すOCR情報(算出された画像特性値を示す情報)とを操作部20へ送信する。受信部211は、スキャナからの第1画像データとOCR情報とを受信する。   The receiving unit 211 receives first image data indicating an image of a document read by a scanner (image reading unit) included in the engine unit 17 described above. The scanner according to the present embodiment performs OCR processing on an image read by scanning a document, and calculates various image characteristic values representing attributes of the document image. Since the OCR process is a known technique, detailed description thereof is omitted here. The scanner in the present embodiment transmits first image data indicating the scan result and OCR information (information indicating the calculated image characteristic value) indicating the result of the OCR processing to the operation unit 20. The receiving unit 211 receives first image data and OCR information from the scanner.

認識部212は、第1画像データに含まれる手書き文字を認識する。本実施形態における認識部212は、受信部211で受信した第1画像データとOCR情報とに基づいて、第1画像データに含まれる手書き文字を認識する。   The recognition unit 212 recognizes handwritten characters included in the first image data. The recognition unit 212 in this embodiment recognizes handwritten characters included in the first image data based on the first image data and the OCR information received by the reception unit 211.

第1保存部213は、それぞれが印刷形式の雛形を表す複数種類のテンプレート画像ごとに、第2画像データが添付される所定領域の位置情報(例えば画像データの座標系における座標情報)を対応付けた第1対応情報を保存する。この例では、第2画像データは、ユーザが使用するデジタルカメラなどの撮像装置の撮像により得られた画像データである。「撮像」とは、レンズなどの光学系により結像された被写体(撮像対象)の像を、電気信号に変換することを指す。以下の説明では、上記所定領域を、「写真添付領域」と称する場合がある。   The first storage unit 213 associates position information (for example, coordinate information in the coordinate system of image data) of a predetermined area to which the second image data is attached, for each of a plurality of types of template images each representing a print format template. The first correspondence information is stored. In this example, the second image data is image data obtained by imaging with an imaging device such as a digital camera used by the user. “Imaging” refers to converting an image of a subject (imaging target) imaged by an optical system such as a lens into an electrical signal. In the following description, the predetermined area may be referred to as a “photo attachment area”.

特定部214は、第1画像データの特徴情報に基づいて、対応するテンプレート画像を特定する。例えば特定部214は、第1保存部213に格納された複数のテンプレート画像のうち、第1画像データの特徴点(特徴情報の一例)と一致する特徴点を含むテンプレート画像を、第1画像データに対応するテンプレート画像として特定することもできる。なお、これに限らず、上記特徴情報は、例えばテンプレート画像を判別するための判別画像(例えばバーコードなど)であってもよい。この例では、予め原稿に判別画像を描画しておき、特定部214は、スキャン結果を示す第1画像データを解析して判別画像を抽出し、その抽出した判別画像から、対応するテンプレート画像を特定することもできる。   The specifying unit 214 specifies a corresponding template image based on the feature information of the first image data. For example, the specifying unit 214 selects a template image that includes a feature point that matches a feature point (an example of feature information) of the first image data among the plurality of template images stored in the first storage unit 213 as the first image data. It can also be specified as a template image corresponding to. The feature information is not limited to this, and may be, for example, a determination image (for example, a barcode) for determining a template image. In this example, a discrimination image is drawn on a document in advance, and the specifying unit 214 analyzes the first image data indicating the scan result to extract a discrimination image, and extracts a corresponding template image from the extracted discrimination image. It can also be specified.

ここで、本実施形態における認識部212は、受信部211で受信した第1画像データのうち、特定部214により特定されたテンプレート画像の所定領域に対応する領域内の手書き文字を認識する。より具体的には、認識部212は、第1保存部213に保存された第1対応情報を参照して、特定部214により特定されたテンプレート画像に対応する位置情報(例えば画像データの座標系における座標情報)を特定し、受信部211で受信した第1画像データのうち、その特定した位置情報によって示される領域内の手書き文字を認識するという具合である。   Here, the recognition unit 212 in the present embodiment recognizes handwritten characters in an area corresponding to a predetermined area of the template image specified by the specifying unit 214 among the first image data received by the receiving unit 211. More specifically, the recognizing unit 212 refers to the first correspondence information stored in the first storage unit 213 and refers to the position information corresponding to the template image specified by the specifying unit 214 (for example, the coordinate system of image data). In the first image data received by the receiving unit 211, the handwritten characters in the area indicated by the specified position information are recognized.

第2保存部215は、複数種類の文字ごとに、第2画像データを対応付けた第2対応情報を保存する。第2保存部215に格納される第2対応情報は、第2画像データの追加や削除が行われるたびに更新される。第2画像データは、SDカードなどの外部記憶媒体から読み込むこともでき、読み込んだ第2画像データと、特定の文字とを対応付けて第2対応情報を生成(あるいは更新)することもできる。   The second storage unit 215 stores the second correspondence information in which the second image data is associated for each of a plurality of types of characters. The second correspondence information stored in the second storage unit 215 is updated each time the second image data is added or deleted. The second image data can be read from an external storage medium such as an SD card, and the second correspondence information can be generated (or updated) by associating the read second image data with a specific character.

画像添付部216は、認識部212により認識された手書き文字に対応する第2画像データを、特定部214により特定されたテンプレート画像の所定領域に添付して第3画像データを生成する。より具体的には、画像添付部216は、第2保存部215に保存された第2対応情報を参照して、認識部212により認識された手書き文字に対応する第2画像データを特定する。そして、画像添付部216は、その特定した第2画像データを、特定部214により特定されたテンプレート画像の所定領域に添付して第3画像データを生成する。   The image attachment unit 216 generates the third image data by attaching the second image data corresponding to the handwritten character recognized by the recognition unit 212 to the predetermined region of the template image specified by the specifying unit 214. More specifically, the image attachment unit 216 refers to the second correspondence information stored in the second storage unit 215 and identifies the second image data corresponding to the handwritten character recognized by the recognition unit 212. Then, the image attachment unit 216 attaches the specified second image data to a predetermined area of the template image specified by the specification unit 214 to generate third image data.

生成データ保存部217は、画像添付部216により生成された第3画像データを保存する。第1表示部218は、第3画像データを操作パネル27に表示する制御を行う。また、第1表示部218は、添付可能な第2画像データのリストを表示する制御を行うこともできる。この例では、第1表示部218は、添付可能な第2画像データのリストとして、上述の第2対応情報を表示する。より具体的には、第1表示部218は、添付可能な第2画像データ(この例では写真データ)ごとに、写真データを識別する番号を示す写真番号(上記文字の一例)を対応付けた第2対応情報を表示するという具合である。さらに、第1表示部218は、テンプレート画像のリストを表示する制御を行うこともできる。   The generation data storage unit 217 stores the third image data generated by the image attachment unit 216. The first display unit 218 performs control to display the third image data on the operation panel 27. The first display unit 218 can also perform control to display a list of attachable second image data. In this example, the first display unit 218 displays the second correspondence information described above as a list of attachable second image data. More specifically, the first display unit 218 associates, for each attachable second image data (photo data in this example), a photo number (an example of the character) indicating a number for identifying photo data. The second correspondence information is displayed. Furthermore, the first display unit 218 can also perform control to display a list of template images.

次に、MFP1の動作例を説明する。図4は、写真データ(第2画像データの一例)をテンプレート画像に添付して表示する手順の一例を示すフロー図である。まず、ユーザは、予め印刷しておいた写真番号記載フォーマット用紙(原稿)に対して、添付したい写真データの写真番号を記入する(ステップS1)。図5は、写真番号記載フォーマット用紙の一例を示す図である。写真番号記載フォーマット用紙は写真添付領域を有し、この写真添付領域には、添付したい写真データの写真番号を記入する領域が含まれている。   Next, an operation example of the MFP 1 will be described. FIG. 4 is a flowchart showing an example of a procedure for displaying photographic data (an example of second image data) attached to a template image. First, the user enters the photo number of the photo data to be attached on the photo number description format sheet (original) printed in advance (step S1). FIG. 5 is a diagram showing an example of a photo number description format sheet. The photo number description format sheet has a photo attachment area, and this photo attachment area includes an area for entering the photo number of the photo data to be attached.

また、このとき、図6に示すように、操作パネル27の画面上には、添付可能な写真データごとに写真番号を対応付けた第2対応情報と、写真番号の記入を促す情報とが表示されている。また、この例では、操作パネル27の画面上には、スキャナによるスキャンの実行指示を受け付けるUI画像30も併せて表示されている。ユーザは、操作パネル27上に表示された第2対応情報を見ながら、添付したい写真データの写真番号を写真番号記載フォーマット用紙に記入する。図7は、写真番号が記入された後の写真番号記載フォーマット用紙の一例を示す図である。   At this time, as shown in FIG. 6, on the screen of the operation panel 27, second correspondence information in which a photo number is associated with each attachable photo data and information for prompting entry of the photo number are displayed. Has been. In this example, a UI image 30 for receiving a scan execution instruction by the scanner is also displayed on the screen of the operation panel 27. While viewing the second correspondence information displayed on the operation panel 27, the user enters the photo number of the photo data to be attached on the photo number description format sheet. FIG. 7 is a diagram showing an example of a photo number description format sheet after the photo number has been entered.

ユーザは、添付したい写真データの写真番号を写真番号記載フォーマット用紙に記入した後、スキャナによるスキャンの実行を指示する(ステップS2)。この例では、ユーザは、操作パネル27上に表示されたUI画像30(図6参照)を押下する操作を行うことで、スキャナによるスキャンの実行指示を入力することができる。スキャナによるスキャンの実行指示を受け付けた場合、スキャナは、写真番号が記入された写真番号記載フォーマット用紙のスキャンを開始し、スキャン結果を示す第1画像データを得る。また、スキャナは、第1画像データに対してOCR処理を行い、スキャン結果を示す第1画像データと、OCR処理の結果を示すOCR情報とを操作部20へ送信する。   The user enters the photo number of the photo data to be attached on the photo number description format sheet, and then instructs the scanner to execute scanning (step S2). In this example, the user can input a scan execution instruction by the scanner by performing an operation of pressing the UI image 30 (see FIG. 6) displayed on the operation panel 27. When an instruction to execute scanning by the scanner is received, the scanner starts scanning the photo number-formatted paper on which the photo number is written, and obtains first image data indicating the scan result. Further, the scanner performs OCR processing on the first image data, and transmits first image data indicating the scan result and OCR information indicating the result of the OCR processing to the operation unit 20.

操作部20の受信部211は、第1画像データとOCR情報とをスキャナから受信する(ステップS3)。次に、特定部214は、ステップS3で受信した第1画像データの特徴情報に基づいて、対応するテンプレート画像を特定する(ステップS4)。例えば特定部214は、第1保存部213に格納された複数のテンプレート画像のうち、第1画像データの特徴点と一致する特徴点を含むテンプレート画像を、第1画像データに対応するテンプレート画像として特定することもできる。なお、これに限らず、上述したように、上記特徴情報は、例えばテンプレート画像を判別するための判別画像(例えばバーコードなど)であってもよい。   The receiving unit 211 of the operation unit 20 receives the first image data and the OCR information from the scanner (step S3). Next, the specifying unit 214 specifies a corresponding template image based on the feature information of the first image data received in step S3 (step S4). For example, the specifying unit 214 uses, as a template image corresponding to the first image data, a template image including a feature point that matches the feature point of the first image data among a plurality of template images stored in the first storage unit 213. It can also be specified. However, the present invention is not limited to this, and as described above, the feature information may be, for example, a determination image (for example, a barcode) for determining a template image.

次に、認識部212は、ステップS3で受信した第1画像データのうち、ステップS4で特定されたテンプレート画像の所定領域に対応する領域内の手書き文字を認識する。この例では、認識部212は、第1保存部213に保存された第1対応情報を参照して、ステップS4で特定されたテンプレート画像に対応する位置情報を特定し、第1画像データのうち、その特定した位置情報によって示される領域内の手書き文字をOCR情報に基づいて認識するという具合である。要するに、認識部212は、写真番号記載フォーマット用紙の写真添付領域に記入された手書き文字を認識する(ステップS5)。   Next, the recognition part 212 recognizes the handwritten character in the area | region corresponding to the predetermined area | region of the template image specified by step S4 among the 1st image data received by step S3. In this example, the recognizing unit 212 refers to the first correspondence information stored in the first storage unit 213, specifies the position information corresponding to the template image specified in step S4, and includes the first image data. The handwritten character in the area indicated by the specified position information is recognized based on the OCR information. In short, the recognition unit 212 recognizes handwritten characters entered in the photo attachment area of the photo number description format sheet (step S5).

次に、画像添付部216は、ステップS5で認識された手書き文字に対応する第2画像データを、ステップS4で特定したテンプレート画像の所定領域に添付して第3画像データを生成する(ステップS6)。より具体的には、画像添付部216は、第2保存部215に保存された第2対応情報を参照して、ステップS5で認識された手書き文字に対応する第2画像データを特定する。また、画像添付部216は、第1保存部213に保存された第1対応情報を参照して、ステップS4で特定されたテンプレート画像の所定領域を特定する。そして、画像添付部216は、以上のようにして特定した第2画像データを、以上のようにして特定したテンプレート画像の所定領域に添付して第3画像データを生成する。   Next, the image attachment unit 216 generates the third image data by attaching the second image data corresponding to the handwritten character recognized in step S5 to the predetermined area of the template image specified in step S4 (step S6). ). More specifically, the image attachment unit 216 refers to the second correspondence information stored in the second storage unit 215, and specifies the second image data corresponding to the handwritten character recognized in step S5. In addition, the image attachment unit 216 refers to the first correspondence information stored in the first storage unit 213, and specifies the predetermined area of the template image specified in step S4. Then, the image attachment unit 216 generates the third image data by attaching the second image data specified as described above to the predetermined region of the template image specified as described above.

なお、例えば画像添付部216は、ステップS5で認識された手書き文字に対応する第2画像データのサイズと、ステップS4で特定したテンプレート画像の所定領域のサイズとが異なる場合は、第2画像データのサイズを調整する機能を有していてもよい。要するに、画像添付部216は、所定領域のサイズに合わせて、第2画像データのサイズを変化させる機能を有していてもよい。   For example, if the size of the second image data corresponding to the handwritten character recognized in step S5 is different from the size of the predetermined area of the template image specified in step S4, the image attachment unit 216 determines that the second image data It may have a function of adjusting the size. In short, the image attachment unit 216 may have a function of changing the size of the second image data in accordance with the size of the predetermined area.

次に、図8に示すように、第1表示部218は、ステップS6で生成された第3画像データを操作パネル27に表示する制御を行う(ステップS7)。図8の例では、操作パネル27には、印刷の実行指示を受け付けるUI画像31も併せて表示されている。この例では、ユーザは、操作パネル27上に表示されたUI画像31を押下する操作を行うことで、印刷の実行指示を入力することができる。印刷の実行指示を受け付けた場合、MFP1(エンジン部17が有する画像形成部)は、第3画像データの印刷を開始するという具合である。   Next, as shown in FIG. 8, the first display unit 218 performs control to display the third image data generated in step S6 on the operation panel 27 (step S7). In the example of FIG. 8, a UI image 31 that receives a print execution instruction is also displayed on the operation panel 27. In this example, the user can input a print execution instruction by performing an operation of pressing the UI image 31 displayed on the operation panel 27. When the print execution instruction is received, the MFP 1 (the image forming unit included in the engine unit 17) starts printing the third image data.

以上に説明したように、本実施形態では、ユーザが、添付したい写真データの写真番号を写真番号記載フォーマット用紙に手書きで記入した後、スキャナによるスキャンの実行を指示すると、上述の写真管理アプリが搭載された操作部20は、ユーザが手書きで記入した写真番号に対応する写真データを、スキャン結果を示す第1画像データに対応するテンプレート画像の所定領域に添付して第3画像データを生成する。これにより、予め定められたフォーマット(テンプレート画像)の所定領域に画像データを添付する際の操作効率を向上させることができる。   As described above, in the present embodiment, when the user inputs the photo number of the photo data to be attached on the photo number description format sheet by hand and then instructs the execution of scanning by the scanner, the photo management application described above is executed. The mounted operation unit 20 generates third image data by attaching the photo data corresponding to the photo number handwritten by the user to a predetermined area of the template image corresponding to the first image data indicating the scan result. . Thereby, the operation efficiency when attaching image data to a predetermined area of a predetermined format (template image) can be improved.

(第2実施形態)
次に、第2実施形態について説明する。上述の第1実施形態と重複する部分については適宜に説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. A description of the same parts as those in the first embodiment will be omitted as appropriate.

図9は、第2実施形態に係る操作部220の機能構成の一例を示す図である。図9に示すように、操作部220は、受信部211と、認識部221と、第1保存部213と、特定部214と、第2保存部215と、画像添付部216と、生成データ保存部217と、第1表示部218とを有する。認識部221以外の機能は、第1実施形態と同様である。   FIG. 9 is a diagram illustrating an example of a functional configuration of the operation unit 220 according to the second embodiment. As illustrated in FIG. 9, the operation unit 220 includes a reception unit 211, a recognition unit 221, a first storage unit 213, a specification unit 214, a second storage unit 215, an image attachment unit 216, and generated data storage. Part 217 and first display part 218. Functions other than the recognition unit 221 are the same as those in the first embodiment.

認識部221は、第1実施形態で説明した機能に加えて、文字を訂正するための訂正記号を検出した場合は、検出した訂正記号から一定範囲内に存在する手書き文字を認識する機能を有する。訂正記号の例としては、例えば図10に示すような二重線32などが含まれる。   In addition to the function described in the first embodiment, the recognition unit 221 has a function of recognizing a handwritten character existing within a certain range from the detected correction symbol when a correction symbol for correcting the character is detected. . Examples of correction symbols include a double line 32 as shown in FIG.

図11は、第2実施形態において、写真データをテンプレート画像に添付して表示する手順の一例を示すフロー図である。ここでは、認識部221によって訂正記号が検出される場合を例に挙げて説明する。図11に示すステップS11〜ステップS14の処理の内容は、図4に示すステップS1〜ステップS4の処理の内容と同様であるので、詳細な説明は省略する。   FIG. 11 is a flowchart showing an example of a procedure for displaying photographic data attached to a template image in the second embodiment. Here, a case where a correction symbol is detected by the recognition unit 221 will be described as an example. Since the content of the process of step S11-step S14 shown in FIG. 11 is the same as the content of the process of step S1-step S4 shown in FIG. 4, detailed description is abbreviate | omitted.

ステップS14の後、認識部221は、写真添付領域に記入された訂正記号を検出する(ステップS15)。次に、認識部221は、テンプレート画像の文字列以外の文字が、検出した訂正記号から一定範囲内に存在するか否かを判断する(ステップS16)。この検索範囲は、第1画像データのうち、写真添付領域に相当する範囲などに限定される。一定範囲内に文字が存在する場合(ステップS16:Yes)、認識部221は、その文字を、写真添付領域に記入された文字として認識する。そして、画像添付部216は、第2対応情報を参照して、認識部221により認識された文字に対応する第2画像データを特定し、特定した第2画像データを、ステップS14で特定したテンプレート画像の所定領域に添付して第3画像データを生成する(ステップS17)。そして、第1表示部218は、ステップS17で生成された第3画像データを表示する(ステップS18)。一方、上述のステップS16において、一定範囲内に文字が存在しない場合(ステップS16:No)、そのまま処理は終了する。   After step S14, the recognition unit 221 detects the correction symbol entered in the photo attachment area (step S15). Next, the recognizing unit 221 determines whether characters other than the character string of the template image exist within a certain range from the detected correction symbol (step S16). This search range is limited to the range corresponding to the photo attachment area in the first image data. If there is a character within a certain range (step S16: Yes), the recognition unit 221 recognizes the character as a character entered in the photo attachment area. Then, the image attachment unit 216 identifies the second image data corresponding to the character recognized by the recognition unit 221 with reference to the second correspondence information, and the identified second image data is identified in step S14. Third image data is generated by attaching to a predetermined area of the image (step S17). Then, the first display unit 218 displays the third image data generated in step S17 (step S18). On the other hand, in step S16 described above, if there is no character within a certain range (step S16: No), the process ends.

(第3実施形態)
次に、第3実施形態について説明する。上述の第1実施形態と重複する部分については適宜に説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. A description of the same parts as those in the first embodiment will be omitted as appropriate.

図12は、第3実施形態に係る操作部230の機能構成の一例を示す図である。図12に示すように、操作部230は、受信部211と、認識部212と、第1保存部213と、特定部214と、第2保存部215と、画像添付部216と、生成データ保存部217と、第1表示部218と、編集部231とを有する。編集部231以外の機能は、第1実施形態と同様である。   FIG. 12 is a diagram illustrating an example of a functional configuration of the operation unit 230 according to the third embodiment. As illustrated in FIG. 12, the operation unit 230 includes a reception unit 211, a recognition unit 212, a first storage unit 213, a specification unit 214, a second storage unit 215, an image attachment unit 216, and a generated data storage. A section 217, a first display section 218, and an editing section 231. Functions other than the editing unit 231 are the same as those in the first embodiment.

編集部231は、第1表示部218によって第3画像データが表示されたときに、手書き文字の編集を行うか否かをユーザに問い合わせる制御を行い、手書き文字を編集する指示を受け付けた場合は、第3画像データを作り直す制御を行う。より具体的には、編集部231は、画像添付部216により生成された第3画像データを破棄し、受信部211に対して、新たな第1画像データの受信を待つことを指示する。   When the third image data is displayed by the first display unit 218, the editing unit 231 performs control to inquire the user whether or not to edit the handwritten character, and receives an instruction to edit the handwritten character. Then, control for recreating the third image data is performed. More specifically, the editing unit 231 discards the third image data generated by the image attachment unit 216 and instructs the reception unit 211 to wait for reception of new first image data.

図13は、第3実施形態において、写真データをテンプレート画像に添付して表示する手順の一例を示すフロー図である。図13に示すステップS21〜ステップS27の処理の内容は、図4に示すステップS1〜ステップS7の処理の内容と同様であるので、詳細な説明は省略する。図13に示すステップS27の後、編集部231は、手書き文字の編集を行うか否かをユーザに問い合わせる制御を行う(ステップS28)。この例では、編集部231は、手書き文字を編集する指示を受け付けるための編集ボタン(UI画像)を操作パネル27上に表示する制御を行う。   FIG. 13 is a flowchart showing an example of a procedure for displaying photographic data attached to a template image in the third embodiment. The contents of the processes in steps S21 to S27 shown in FIG. 13 are the same as the contents of the processes in steps S1 to S7 shown in FIG. After step S27 shown in FIG. 13, the editing unit 231 performs control to inquire the user whether or not to edit handwritten characters (step S28). In this example, the editing unit 231 performs control to display an edit button (UI image) for accepting an instruction to edit a handwritten character on the operation panel 27.

ここでは、ユーザが、手書き文字の編集を行う場合を例に挙げて説明する。ステップS28の後、ユーザは、編集ボタンを押下する操作を行う(ステップS29)。ユーザが編集ボタンを押下する操作を行った場合(ステップS30:Yes)、編集部231は、第3画像データを作り直す制御を行う。この例では、編集部231は、ステップS26で生成された第3画像データを破棄し、受信部211に対して、新たな第1画像データの受信を待つことを指示する。そして、ユーザは、スキャンした原稿に記入した写真番号を修正する(ステップS31)。例えば、修正したい番号の上に二重線を引いて、その近傍に新しい番号を記入してもよい。以降、ステップS22以降の処理が繰り返される。   Here, a case where the user edits a handwritten character will be described as an example. After step S28, the user performs an operation of pressing an edit button (step S29). When the user performs an operation of pressing the edit button (step S30: Yes), the editing unit 231 performs control to regenerate the third image data. In this example, the editing unit 231 discards the third image data generated in step S26 and instructs the receiving unit 211 to wait for reception of new first image data. Then, the user corrects the photo number entered on the scanned document (step S31). For example, a double line may be drawn on the number to be corrected and a new number may be written in the vicinity thereof. Henceforth, the process after step S22 is repeated.

(第4実施形態)
次に、第4実施形態について説明する。上述の第1実施形態と重複する部分については適宜に説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. A description of the same parts as those in the first embodiment will be omitted as appropriate.

図14は、第4実施形態に係る操作部240の機能構成の一例を示す図である。図14に示すように、操作部240は、受信部211と、認識部212と、第1保存部213と、特定部214と、第2保存部215と、画像添付部246と、生成データ保存部217と、第1表示部218と、第2表示部241と、選択部242とを有する。第2表示部241、選択部242、および、画像添付部246以外の機能は、第1実施形態と同様である。   FIG. 14 is a diagram illustrating an example of a functional configuration of the operation unit 240 according to the fourth embodiment. As illustrated in FIG. 14, the operation unit 240 includes a reception unit 211, a recognition unit 212, a first storage unit 213, a specification unit 214, a second storage unit 215, an image attachment unit 246, and generated data storage. A unit 217, a first display unit 218, a second display unit 241, and a selection unit 242. Functions other than the second display unit 241, the selection unit 242, and the image attachment unit 246 are the same as those in the first embodiment.

第2表示部241は、認識部212によって複数種類の手書き文字が認識された場合は、第3画像データが生成される前に、認識部212により認識された複数種類の手書き文字を表示する。選択部242は、ユーザの指示に従って、第2表示部241によって表示された複数種類の手書き文字のうちの何れかを選択する。画像添付部246は、第1実施形態で説明した機能に加えて、選択部242により選択された手書き文字に対応する第2画像データを、特定部214により特定されたテンプレート画像の所定領域に添付して第3画像データを生成する。   When the recognition unit 212 recognizes a plurality of types of handwritten characters, the second display unit 241 displays the plurality of types of handwritten characters recognized by the recognition unit 212 before the third image data is generated. The selection unit 242 selects any one of a plurality of types of handwritten characters displayed by the second display unit 241 in accordance with a user instruction. In addition to the functions described in the first embodiment, the image attachment unit 246 attaches second image data corresponding to the handwritten character selected by the selection unit 242 to a predetermined region of the template image specified by the specification unit 214. Thus, the third image data is generated.

図15は、第4実施形態において、写真データをテンプレート画像に添付して表示する手順の一例を示すフロー図である。図15に示すステップS31〜ステップS35の処理の内容は、図4に示すステップS1〜ステップS5の処理の内容と同様であるので、詳細な説明は省略する。ここでは、図13に示すステップS35において、認識部212は、複数種類の手書き文字を認識した場合を例に挙げて説明する。ステップS35の後、第2表示部241は、認識部212によって認識された複数種類の手書き文字を操作パネル27上に表示する制御を行う(ステップS36)。これを見たユーザは、何れかの文字を選択することを指示する(ステップS37)。そして、選択部242は、ユーザの指示に従って、何れかの文字を選択する(ステップS38)。   FIG. 15 is a flowchart showing an example of a procedure for displaying photographic data attached to a template image in the fourth embodiment. The contents of the processes in steps S31 to S35 shown in FIG. 15 are the same as the contents of the processes in steps S1 to S5 shown in FIG. Here, the case where the recognition unit 212 recognizes a plurality of types of handwritten characters in step S35 illustrated in FIG. 13 will be described as an example. After step S35, the second display unit 241 performs control to display a plurality of types of handwritten characters recognized by the recognition unit 212 on the operation panel 27 (step S36). The user who sees this instructs to select any character (step S37). Then, the selection unit 242 selects any character according to the user's instruction (step S38).

次に、画像添付部246は、ステップS38で選択された文字に対応する第2画像データを、ステップS34で特定されたテンプレート画像の所定領域に添付して第3画像データを生成する(ステップS39)。次に、第1表示部218は、ステップS39で生成された第3画像データを表示する(ステップS40)。   Next, the image attachment unit 246 generates the third image data by attaching the second image data corresponding to the character selected in step S38 to the predetermined area of the template image specified in step S34 (step S39). ). Next, the first display unit 218 displays the third image data generated in step S39 (step S40).

(第5実施形態)
次に、第5実施形態について説明する。上述の第1実施形態と重複する部分については適宜に説明を省略する。
(Fifth embodiment)
Next, a fifth embodiment will be described. A description of the same parts as those in the first embodiment will be omitted as appropriate.

図16は、第5実施形態に係る操作部250の機能構成の一例を示す図である。図16に示すように、操作部250は、受信部211と、認識部212と、第1保存部213と、特定部214と、第2保存部215と、画像添付部216と、生成データ保存部217と、第1表示部218と、変更部251とを有する。変更部251以外の機能は、第1実施形態と同様である。   FIG. 16 is a diagram illustrating an example of a functional configuration of the operation unit 250 according to the fifth embodiment. As illustrated in FIG. 16, the operation unit 250 includes a reception unit 211, a recognition unit 212, a first storage unit 213, a specification unit 214, a second storage unit 215, an image attachment unit 216, and generated data storage. A unit 217, a first display unit 218, and a change unit 251. Functions other than the changing unit 251 are the same as those in the first embodiment.

変更部251は、認識部212によって手書き文字が認識されなかった場合、テンプレート画像のレイアウトを変更することができる。より具体的には、変更部251は、テンプレート画像のレイアウトを変更するか否かをユーザに問い合わせる制御を行い、テンプレート画像のレイアウトを変更する指示を受け付けた場合は、テンプレート画像のレイアウトを変更する。本実施形態では、変更部251は、認識部212によって手書き文字が認識されなかった場合、レイアウトを変更する指示を受け付けるためのレイアウト変更ボタン(UI画像)を操作パネル27上に表示する制御を行う。   The change unit 251 can change the layout of the template image when the recognition unit 212 does not recognize the handwritten character. More specifically, the changing unit 251 performs control for inquiring of the user whether or not to change the layout of the template image, and changes the template image layout when receiving an instruction to change the layout of the template image. . In the present embodiment, the change unit 251 performs control to display a layout change button (UI image) on the operation panel 27 for accepting an instruction to change the layout when the recognition unit 212 does not recognize a handwritten character. .

図17は、第5実施形態において、写真データをテンプレート画像に添付して表示する手順の一例を示すフロー図である。図17に示すステップS41〜ステップS45の処理の内容は、図4に示すステップS1〜ステップS5の処理の内容と同様であるので、詳細な説明は省略する。また、図17に示すステップS50およびステップS51の処理の内容は、図4に示すステップS6およびステップS7の処理の内容と同様であるので、詳細な説明は省略する。   FIG. 17 is a flowchart showing an example of a procedure for displaying photographic data attached to a template image in the fifth embodiment. The details of the processing in steps S41 to S45 shown in FIG. 17 are the same as the details of the processing in steps S1 to S5 shown in FIG. Further, the contents of the processes in steps S50 and S51 shown in FIG. 17 are the same as the contents of the processes in steps S6 and S7 shown in FIG.

ステップS45の後、認識部212は、ステップS43で受信した第1画像データに、写真番号を示す手書き文字が含まれているか否かを判断する(ステップS46)。この判断は、写真添付領域ごとに行う。写真番号を示す手書き文字が含まれていないと判断された場合(ステップS46:No)、変更部251は、テンプレート画像のレイアウトを変更するか否かをユーザに問い合わせる制御を行う(ステップS47)。この例では、変更部251は、上述のレイアウト変更ボタンを操作パネル27上に表示する制御を行う。   After step S45, the recognition unit 212 determines whether or not the first image data received in step S43 includes a handwritten character indicating a photo number (step S46). This determination is made for each photo attachment region. When it is determined that the handwritten character indicating the photo number is not included (step S46: No), the changing unit 251 performs control to inquire the user whether to change the layout of the template image (step S47). In this example, the change unit 251 performs control to display the layout change button described above on the operation panel 27.

ここでは、ユーザがレイアウトの変更を指示する場合を例に挙げて説明する。ステップS47の後、ユーザは、レイアウト変更ボタンを押下する操作を行う(ステップS48)。ユーザがレイアウト変更ボタンを押下する操作を行った場合、つまり、レイアウトを変更する指示を受け付けた場合、変更部251は、テンプレート画像のレイアウトを変更する(ステップS49)。例えば変更部251は、テンプレート画像のうち、写真番号が記入されなかった写真添付領域の箇所とそれに関連する部分を削除することもできる。この例では、図18に示すように、写真番号が記入された箇所のみ表示されることになる。   Here, a case where the user instructs to change the layout will be described as an example. After step S47, the user performs an operation of pressing the layout change button (step S48). When the user performs an operation of pressing the layout change button, that is, when an instruction to change the layout is received, the changing unit 251 changes the layout of the template image (step S49). For example, the changing unit 251 can also delete a portion of a photo attachment area in which a photo number is not entered and a portion related thereto in the template image. In this example, as shown in FIG. 18, only the part where the photo number is entered is displayed.

以上、本発明に係る実施形態について説明したが、本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to each above-mentioned embodiment as it is, A component can be deform | transformed and embodied in the range which does not deviate from the summary in an implementation stage. . Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

例えば、上述の各実施形態では、本体10と操作部20は、別々のオペレーティングシステムで互いに独立して動作しているが、これに限らず、例えば本体10と操作部20が同じオペレーティングシステムで動作する形態であってもよい。   For example, in each of the above-described embodiments, the main body 10 and the operation unit 20 operate independently of each other with different operating systems. However, the present invention is not limited thereto, and for example, the main body 10 and the operation unit 20 operate with the same operating system. It may be a form to do.

また、上述した各実施形態の情報処理システムで実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed in the information processing system of each embodiment described above is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, or DVD (Digital Versatile Disk). It may be configured to be recorded and provided on a computer-readable recording medium such as USB (Universal Serial Bus), or may be configured to be provided or distributed via a network such as the Internet. Various programs may be provided by being incorporated in advance in a ROM or the like.

1 MFP
10 本体
20 操作部
211 受信部
212 認識部
213 第1保存部
214 特定部
215 第2保存部
216 画像添付部
217 生成データ保存部
218 第1表示部
231 編集部
241 第2表示部
242 選択部
251 変更部
300 通信路
1 MFP
DESCRIPTION OF SYMBOLS 10 Main body 20 Operation part 211 Reception part 212 Recognition part 213 1st preservation | save part 214 Identification part 215 2nd preservation | save part 216 Image attachment part 217 Generation data preservation | save part 218 1st display part 231 Editing part 241 2nd display part 242 Selection part 251 Change unit 300 communication path

特開2010−136085号公報JP 2010-136085 A

Claims (12)

画像読取部により読み取られた原稿の画像を示す第1画像データを受信する受信部と、
前記第1画像データに含まれる手書き文字を認識する認識部と、
それぞれが印刷形式の雛形を表す複数種類のテンプレート画像ごとに、第2画像データが添付される所定領域の位置情報を対応付けた第1対応情報を保存する第1保存部と、
前記第1画像データの特徴情報に基づいて、対応する前記テンプレート画像を特定する特定部と、
複数種類の文字ごとに、前記第2画像データを対応付けた第2対応情報を保存する第2保存部と、
前記認識部により認識された前記手書き文字に対応する前記第2画像データを、前記特定部により特定された前記テンプレート画像の前記所定領域に添付して第3画像データを生成する画像添付部と、を備える、
情報処理システム。
A receiving unit that receives first image data indicating an image of a document read by the image reading unit;
A recognition unit for recognizing handwritten characters included in the first image data;
A first storage unit that stores first correspondence information in which position information of a predetermined area to which the second image data is attached is associated with each of a plurality of types of template images each representing a template in print format;
A specifying unit for specifying the corresponding template image based on the feature information of the first image data;
A second storage unit that stores second correspondence information in which the second image data is associated for each of a plurality of types of characters;
An image attachment unit for generating third image data by attaching the second image data corresponding to the handwritten character recognized by the recognition unit to the predetermined region of the template image specified by the specification unit; Comprising
Information processing system.
前記認識部は、前記第1画像データのうち、前記特定部により特定された前記テンプレート画像の前記所定領域に対応する領域内の前記手書き文字を認識する、
請求項1に記載の情報処理システム。
The recognizing unit recognizes the handwritten character in an area corresponding to the predetermined area of the template image specified by the specifying unit in the first image data;
The information processing system according to claim 1.
前記特徴情報は、前記テンプレート画像を判別するための判別画像である、
請求項1または請求項2に記載の情報処理システム。
The feature information is a discrimination image for discriminating the template image.
The information processing system according to claim 1 or 2.
前記画像添付部は、前記所定領域のサイズに合わせて、前記第2画像データのサイズを変化させる、
請求項1乃至3のうちの何れか1項に記載の情報処理システム。
The image attachment unit changes the size of the second image data in accordance with the size of the predetermined area.
The information processing system according to any one of claims 1 to 3.
前記第3画像データを表示する第1表示部をさらに備える、
請求項1乃至4のうちの何れか1項に記載の情報処理システム。
A first display unit for displaying the third image data;
The information processing system according to any one of claims 1 to 4.
前記認識部は、文字を訂正するための訂正記号を検出した場合は、検出した前記訂正記号から一定範囲内に存在する前記手書き文字を認識する、
請求項1乃至5のうちの何れか1項に記載の情報処理システム。
When the recognition unit detects a correction symbol for correcting a character, the recognition unit recognizes the handwritten character existing within a certain range from the detected correction symbol;
The information processing system according to any one of claims 1 to 5.
前記第1表示部によって前記第3画像データが表示されたときに、前記手書き文字の編集を行うか否かをユーザに問い合わせる制御を行い、前記手書き文字を編集することを示す入力を受け付けた場合は、前記第3画像データを作り直す制御を行う編集部をさらに備える、
請求項1乃至5のうちの何れか1項に記載の情報処理システム。
When the third image data is displayed by the first display unit, control is performed to inquire the user whether or not to edit the handwritten character, and an input indicating that the handwritten character is edited is received Further includes an editing unit that performs control to regenerate the third image data.
The information processing system according to any one of claims 1 to 5.
前記認識部によって複数種類の前記手書き文字が認識された場合は、前記第3画像データが生成される前に、前記認識部により認識された前記複数種類の前記手書き文字を表示する第2表示部と、
前記ユーザの指示に従って、前記第2表示部によって表示された前記複数種類の前記手書き文字のうちの何れかを選択する選択部と、をさらに備え、
前記画像添付部は、前記選択部により選択された前記手書き文字に対応する前記第2画像データを、前記特定部により特定された前記テンプレート画像の前記所定領域に添付して前記第3画像データを生成する、
請求項1乃至5のうちの何れか1項に記載の情報処理システム。
A second display unit that displays the plurality of types of handwritten characters recognized by the recognition unit before the third image data is generated when the recognition unit recognizes a plurality of types of the handwritten characters. When,
A selection unit that selects any one of the plurality of types of the handwritten characters displayed by the second display unit according to the user's instruction;
The image attachment unit attaches the second image data corresponding to the handwritten character selected by the selection unit to the predetermined area of the template image specified by the specification unit, and attaches the third image data. Generate,
The information processing system according to any one of claims 1 to 5.
前記認識部によって前記手書き文字が認識されなかった場合、前記テンプレート画像のレイアウトを変更する変更部をさらに備える、
請求項2乃至6のうちの何れか1項に記載の情報処理システム。
If the handwritten character is not recognized by the recognition unit, further comprising a changing unit for changing the layout of the template image.
The information processing system according to any one of claims 2 to 6.
前記変更部は、前記テンプレート画像のレイアウトを変更するか否かを前記ユーザに問い合わせる制御を行い、前記テンプレート画像のレイアウトを変更することを示す入力を受け付けた場合は、前記テンプレート画像のレイアウトを変更する制御を行う、
請求項9に記載の情報処理システム。
The change unit performs control for inquiring the user whether or not to change the layout of the template image, and when receiving an input indicating that the layout of the template image is changed, changes the layout of the template image Do control,
The information processing system according to claim 9.
画像読取部により読み取られた原稿の画像を示す第1画像データを受信する受信ステップと、
前記第1画像データに含まれる手書き文字を認識する認識ステップと、
前記第1画像データの特徴情報に基づいて、前記第1画像データに対応し、かつ、印刷形式の雛形を表すテンプレート画像を特定する第1特定ステップと、
複数種類の文字ごとに、第2画像データを対応付けた第2対応情報を参照して、前記認識ステップにより認識された前記手書き文字に対応する前記第2画像データを特定する第2特定ステップと、
複数種類の前記テンプレート画像ごとに、前記第2画像データが添付される所定領域の位置情報を対応付けた第1対応情報を参照して、前記第1特定ステップで特定された前記テンプレート画像の前記所定領域を特定する第3特定ステップと、
前記第2特定ステップで特定した前記第2画像データを、前記第3特定ステップで特定した前記テンプレート画像の前記所定領域に添付して第3画像データを生成する画像添付ステップと、を含む、
情報処理方法。
A receiving step of receiving first image data indicating an image of a document read by the image reading unit;
Recognizing a handwritten character included in the first image data;
A first specifying step of specifying a template image corresponding to the first image data and representing a template of a print format based on the feature information of the first image data;
A second specifying step of specifying the second image data corresponding to the handwritten character recognized in the recognition step with reference to second correspondence information in which the second image data is associated for each of a plurality of types of characters; ,
For each of the plurality of types of template images, referring to first correspondence information in which position information of a predetermined area to which the second image data is attached is associated, the template image identified in the first identifying step A third specifying step of specifying a predetermined area;
Attaching the second image data specified in the second specifying step to the predetermined area of the template image specified in the third specifying step, and generating third image data.
Information processing method.
コンピュータに、
画像読取部により読み取られた原稿の画像を示す第1画像データを受信する受信ステップと、
前記第1画像データに含まれる手書き文字を認識する認識ステップと、
前記第1画像データの特徴情報に基づいて、前記第1画像データに対応し、かつ、印刷形式の雛形を表すテンプレート画像を特定する第1特定ステップと、
複数種類の文字ごとに、第2画像データを対応付けた第2対応情報を参照して、前記認識ステップにより認識された前記手書き文字に対応する前記第2画像データを特定する第2特定ステップと、
複数種類の前記テンプレート画像ごとに、前記第2画像データが添付される所定領域の位置情報を対応付けた第1対応情報を参照して、前記第1特定ステップで特定された前記テンプレート画像の前記所定領域を特定する第3特定ステップと、
前記第2特定ステップで特定した前記第2画像データを、前記第3特定ステップで特定した前記テンプレート画像の前記所定領域に添付して第3画像データを生成する画像添付ステップと、を実行させるためのプログラム。
On the computer,
A receiving step of receiving first image data indicating an image of a document read by the image reading unit;
Recognizing a handwritten character included in the first image data;
A first specifying step of specifying a template image corresponding to the first image data and representing a template of a print format based on the feature information of the first image data;
A second specifying step of specifying the second image data corresponding to the handwritten character recognized in the recognition step with reference to second correspondence information in which the second image data is associated for each of a plurality of types of characters; ,
For each of the plurality of types of template images, referring to first correspondence information in which position information of a predetermined area to which the second image data is attached is associated, the template image identified in the first identifying step A third specifying step of specifying a predetermined area;
An image attaching step of generating the third image data by attaching the second image data specified in the second specifying step to the predetermined area of the template image specified in the third specifying step. Program.
JP2013182920A 2013-09-04 2013-09-04 Information processing system, information processing method, and program Expired - Fee Related JP6326744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013182920A JP6326744B2 (en) 2013-09-04 2013-09-04 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013182920A JP6326744B2 (en) 2013-09-04 2013-09-04 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2015050730A true JP2015050730A (en) 2015-03-16
JP6326744B2 JP6326744B2 (en) 2018-05-23

Family

ID=52700363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013182920A Expired - Fee Related JP6326744B2 (en) 2013-09-04 2013-09-04 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6326744B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123112A (en) * 1998-10-14 2000-04-28 Canon Inc Character processor and character data processing method
JP2003080789A (en) * 2001-09-12 2003-03-19 Seiko Epson Corp Image output apparatus
JP2006268767A (en) * 2005-03-25 2006-10-05 Fuji Xerox Co Ltd Image processor, and report format entry data processing system
JP2006277310A (en) * 2005-03-29 2006-10-12 Hitachi Ltd Handwritten information updating system, method and device for the same
JP2010226158A (en) * 2009-03-19 2010-10-07 Seiko Epson Corp Image forming apparatus and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123112A (en) * 1998-10-14 2000-04-28 Canon Inc Character processor and character data processing method
JP2003080789A (en) * 2001-09-12 2003-03-19 Seiko Epson Corp Image output apparatus
JP2006268767A (en) * 2005-03-25 2006-10-05 Fuji Xerox Co Ltd Image processor, and report format entry data processing system
JP2006277310A (en) * 2005-03-29 2006-10-12 Hitachi Ltd Handwritten information updating system, method and device for the same
JP2010226158A (en) * 2009-03-19 2010-10-07 Seiko Epson Corp Image forming apparatus and control method thereof

Also Published As

Publication number Publication date
JP6326744B2 (en) 2018-05-23

Similar Documents

Publication Publication Date Title
US8605336B2 (en) Image processing apparatus, image processing system, and image conducting character recognition with respect to image data
JP2012027662A (en) Image formation apparatus and screen control method
US8970854B2 (en) Document management system, document management apparatus, computer-readable medium and computer data signal
JP2008003991A (en) Image processor and processing method, and program
US11341733B2 (en) Method and system for training and using a neural network for image-processing
US11144189B2 (en) Determination and relocation of movement targets based on a drag-and-drop operation of a thumbnail across document areas
US8606049B2 (en) Image management apparatus, image management method, and storage medium
JP6066108B2 (en) Electronic document generation system and program
KR20200115263A (en) Image processing apparatus, method for controlling the same, and storage medium
US20100225941A1 (en) Image processing device and system, and computer readable medium therefor
JP6187063B2 (en) Information processing apparatus, information processing system, information processing method, and program
US10645246B2 (en) Non-transitory computer-readable medium and portable device
US10893165B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP2010213121A (en) Image processing apparatus, system and image processing method
JP2008092451A (en) Scanner system
US10171688B2 (en) Management server to receive scanned images and align the scanned images based on page numbers included in the scanned images
JP2016096393A (en) Information processing apparatus, system, information processing method, and program
US8294960B2 (en) Image processing device and system, and computer readable medium therefor
JP6326744B2 (en) Information processing system, information processing method, and program
US20180084122A1 (en) Processing device, image forming apparatus, and non-transitory computer readable medium
JP2016177387A (en) Information processing apparatus, system, information processing method, and program
JP5316271B2 (en) Image processing apparatus, image processing system, image processing method, program, and recording medium
US9560238B2 (en) Portable terminal capable of displaying image, control method therefor, and storage medium storing control program therefor
JP2014199507A (en) Image processing device and computer program
US11012584B2 (en) Image forming apparatus, method of processing image, and recording medium storing image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R151 Written notification of patent or utility model registration

Ref document number: 6326744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees