JP2021166365A - Image processing apparatus and image forming apparatus - Google Patents

Image processing apparatus and image forming apparatus Download PDF

Info

Publication number
JP2021166365A
JP2021166365A JP2020069858A JP2020069858A JP2021166365A JP 2021166365 A JP2021166365 A JP 2021166365A JP 2020069858 A JP2020069858 A JP 2020069858A JP 2020069858 A JP2020069858 A JP 2020069858A JP 2021166365 A JP2021166365 A JP 2021166365A
Authority
JP
Japan
Prior art keywords
image
item
character string
unit
entry field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020069858A
Other languages
Japanese (ja)
Other versions
JP7419942B2 (en
Inventor
スターラ・ジェーン・ファートン
Jane Ferton Starla
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2020069858A priority Critical patent/JP7419942B2/en
Publication of JP2021166365A publication Critical patent/JP2021166365A/en
Application granted granted Critical
Publication of JP7419942B2 publication Critical patent/JP7419942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To create another document that incorporates character strings entered in item entry columns included in an image of a document.SOLUTION: An image forming apparatus 10 comprises: a display 21; an image reading unit 11; an operation unit 22; and a control unit 31. The control unit 31 analyzes a document image obtained through reading of a document performed by the image reading unit 11, acquires the layout of the document image, displays the document image on the display 21, when an item column and an entry column in the document image are designated by a user with a touch operation through a touch panel 23, extracts a character string in the entry column associated with the item, and inserts the extracted character string into an item included in a predetermined document.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置及び画像形成装置に関し、特に、原稿上の画像から必要な文字列を抽出する技術に関する。 The present invention relates to an image processing apparatus and an image forming apparatus, and more particularly to a technique for extracting a necessary character string from an image on a manuscript.

画像処理装置では、画像読取部により原稿の画像を読取って、画像形成部により原稿の画像を記録紙に形成するものがある。また、特許文献1に記載の画像処理装置では、原稿の画像に対するマークの記入領域の設定を受け付け、このマークの記入領域に対してマーク認識処理を施して、このマーク認識処理の結果を示すオブジェクト(例えばマークの記入領域と同じサイズの矩形で透明色の領域)を生成し、この生成されたオブジェクトをそのマークの記入領域に重ね合わせて表示させている。これにより、ユーザーが記入したマークの確認作業が軽減されると共に、オペレータによる訂正作業が容易となる。 In some image processing devices, the image of the original is read by the image reading unit, and the image of the original is formed on the recording paper by the image forming unit. Further, the image processing apparatus described in Patent Document 1 accepts the setting of the mark entry area for the image of the original, performs the mark recognition process on the mark entry area, and indicates the result of the mark recognition process. (For example, a rectangular and transparent area having the same size as the mark entry area) is generated, and the generated object is superimposed on the mark entry area and displayed. As a result, the work of confirming the mark entered by the user is reduced, and the work of correction by the operator becomes easy.

特開2013−012223号公報Japanese Unexamined Patent Publication No. 2013-0122223

ここで、原稿に記載されている内容として、項目名(例えば氏名や住所)が記入された項目欄とその項目名に対応する具体的な内容が記入される記入欄とを並設したレイアウトのものがある。このような原稿の多くは、記入欄に記入されている具体的な内容を認識して抽出する作業を人手に頼っているために長い時間を要する。このため、そのような作業の自動化が望まれている。 Here, as the content described in the manuscript, the layout is such that the item column in which the item name (for example, name and address) is entered and the entry column in which the specific content corresponding to the item name is entered are arranged side by side. There is something. Many of these manuscripts take a long time because they rely on human labor to recognize and extract the specific contents entered in the entry fields. Therefore, automation of such work is desired.

上記特許文献1では、マークの記入領域に対してマーク認識処理を施して、このマーク認識処理の結果を示すオブジェクトをそのマークの記入領域に重ね合わせて表示させることにより、マークの確認作業が軽減されるようにしているが、上記のような記入欄に記入されている文字列を組み入れた他のドキュメントを作成することはできない。 In Patent Document 1, the mark recognition process is performed on the mark entry area, and the object showing the result of the mark recognition process is superimposed on the mark entry area and displayed, thereby reducing the mark confirmation work. However, it is not possible to create other documents that incorporate the character string entered in the above entry field.

本発明は、上記の事情に鑑みなされたものであり、原稿の画像に含まれる項目の記入欄に記載された文字列を組み入れた他のドキュメントを作成可能にすることを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to make it possible to create another document incorporating a character string described in an entry field of an item included in an image of a manuscript.

本発明の一局面にかかる画像処理装置は、表示部と、ユーザーにより操作される操作部と、原稿画像を解析して、当該原稿画像に含まれる各項目及び各項目に対応付けられた各記入欄を検出し、当該原稿画像を前記表示部に表示させ、前記操作部の操作により指定された、当該原稿画像に含まれる前記項目に対応付けられた記入欄の文字列を抽出し、予め定められたドキュメントに含まれる項目に、当該抽出した文字列を挿入する制御部と、を備えるものである。 The image processing device according to one aspect of the present invention analyzes the display unit, the operation unit operated by the user, and the manuscript image, and each item included in the manuscript image and each entry associated with each item. The field is detected, the manuscript image is displayed on the display unit, and the character string of the entry field associated with the item included in the manuscript image specified by the operation of the operation unit is extracted and determined in advance. It is provided with a control unit for inserting the extracted character string into the items included in the obtained document.

また、本発明の一局面にかかる画像形成装置は、上記画像処理装置と、記録媒体に画像を形成する画像形成部とを備え、前記制御部が、前記合成を行った前記原稿画像を、前記画像形成部により画像形成させるものである。 Further, the image forming apparatus according to one aspect of the present invention includes the image processing apparatus and an image forming unit for forming an image on a recording medium, and the control unit obtains the combined original image. An image is formed by an image forming unit.

本発明によれば、原稿の画像に含まれる項目の記入欄に記載された文字列を組み入れた他のドキュメントを作成可能にすることができる。 According to the present invention, it is possible to create another document incorporating the character string described in the entry field of the item included in the image of the manuscript.

本発明に係る画像処理装置の一実施形態である画像形成装置を示す断面図である。It is sectional drawing which shows the image forming apparatus which is one Embodiment of the image processing apparatus which concerns on this invention. 画像形成装置の主要内部構成を示す機能ブロック図である。It is a functional block diagram which shows the main internal structure of an image forming apparatus. 原稿に記載されている画像のレイアウトを例示する図である。It is a figure which illustrates the layout of the image described in a manuscript. 文字列抽出モード実行時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of executing the character string extraction mode. 原稿画像のレイアウトが新規又は既存のいずれかを指示するための選択画面を示す図である。It is a figure which shows the selection screen for instructing either new or existing layout of a manuscript image. 表示部に表示された原稿画像を示す図である。It is a figure which shows the original image displayed on the display part. 表示部に表示された原稿画像における項目及び記入欄をハイライト表示した状態を示す図である。It is a figure which shows the state which highlighted the item and the entry column in the manuscript image displayed on the display part. 文字列の保存、レイアウトの保存、及び、文字列とレイアウトの保存、のいずれかを選択して指示するための別の選択画面を示す図である。It is a figure which shows another selection screen for selecting and instructing either save character string, save layout, and save character string and layout. (A)はCSVファイルを例示する図であり、(B)は更新されたCSVファイルを例示する図である。(A) is a diagram illustrating a CSV file, and (B) is a diagram illustrating an updated CSV file. レイアウトデータが示す情報に基づいて構成した各項目及び記入欄の配置を概念的に示す図である。It is a figure which conceptually shows the arrangement of each item and an entry column constructed based on the information which a layout data shows. 表示部に表示された、異なるレイアウトからなる原稿画像を示す図ある。It is a figure which shows the manuscript image which has a different layout displayed on the display part.

以下、本発明の一実施形態について図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態にかかる画像処理装置を適用した画像形成装置を示す断面図である。図1に示すように本実施形態の画像形成装置10は、例えばコピー機能、プリンター機能、ファクシミリ機能のような複数の機能を兼ね備えたMFP(複合機)である。この画像形成装置10は、画像読取部11と、画像形成部12とを備えている。 FIG. 1 is a cross-sectional view showing an image forming apparatus to which the image processing apparatus according to the embodiment of the present invention is applied. As shown in FIG. 1, the image forming apparatus 10 of the present embodiment is an MFP (multifunction device) having a plurality of functions such as a copy function, a printer function, and a facsimile function. The image forming apparatus 10 includes an image reading unit 11 and an image forming unit 12.

画像読取部11は、原稿MSの画像を光学的に読み取る撮像素子を有しており、この撮像素子のアナログ出力がデジタル信号に変換されて、原稿MSの画像を示す画像データが生成される。 The image reading unit 11 has an image sensor that optically reads the image of the document MS, and the analog output of the image sensor is converted into a digital signal to generate image data indicating the image of the document MS.

画像形成部12は、上記画像データによって示される画像を記録紙に形成するものであり、マゼンタ用の画像形成ユニット3M、シアン用の画像形成ユニット3C、イエロー用の画像形成ユニット3Y、及びブラック用の画像形成ユニット3Bkを備えている。各画像形成ユニット3M、3C、3Y、及び3Bkのいずれにおいても、感光体ドラム4の表面を均一帯電させ、感光体ドラム4の表面を露光して、感光体ドラム4の表面に静電潜像を形成し、感光体ドラム4の表面の静電潜像をトナー像に現像して、感光体ドラム4の表面のトナー像を中間転写ベルト5に1次転写する。これにより、カラーのトナー像が中間転写ベルト5上に形成される。このカラーのトナー像は、中間転写ベルト5と2次転写ローラー6の間のニップ域Nにおいて給紙部14から搬送路8を通じて搬送されてきた記録紙Pに2次転写される。 The image forming unit 12 forms the image indicated by the image data on the recording paper, and is used for the image forming unit 3M for magenta, the image forming unit 3C for cyan, the image forming unit 3Y for yellow, and the black. The image forming unit 3Bk of the above is provided. In each of the image forming units 3M, 3C, 3Y, and 3Bk, the surface of the photoconductor drum 4 is uniformly charged, the surface of the photoconductor drum 4 is exposed, and an electrostatic latent image is formed on the surface of the photoconductor drum 4. Is formed, the electrostatic latent image on the surface of the photoconductor drum 4 is developed into a toner image, and the toner image on the surface of the photoconductor drum 4 is primarily transferred to the intermediate transfer belt 5. As a result, a color toner image is formed on the intermediate transfer belt 5. The toner image of this color is secondarily transferred to the recording paper P conveyed from the paper feed unit 14 through the transfer path 8 in the nip area N between the intermediate transfer belt 5 and the secondary transfer roller 6.

この後、定着装置15で記録紙Pが加熱及び加圧されて、記録紙P上のトナー像が熱圧着により定着され、更に記録紙Pが排出ローラー16を通じて排出トレイ17に排出される。 After that, the recording paper P is heated and pressurized by the fixing device 15, the toner image on the recording paper P is fixed by thermocompression bonding, and the recording paper P is further discharged to the discharge tray 17 through the discharge roller 16.

次に、図2は、本実施形態の画像形成装置10の主要内部構成を示すブロック図である。図2に示すように本実施形態の画像形成装置10は、画像読取部11と、画像形成部12と、表示部21と、操作部22と、タッチパネル23と、ネットワーク通信部(NW通信部)25と、画像メモリー27と、記憶部28と、制御ユニット29とを備えている。これらの構成要素は、互いにバスを通じてデータ又は信号の送受信が可能とされている。 Next, FIG. 2 is a block diagram showing a main internal configuration of the image forming apparatus 10 of the present embodiment. As shown in FIG. 2, the image forming apparatus 10 of the present embodiment includes an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, and a network communication unit (NW communication unit). It includes 25, an image memory 27, a storage unit 28, and a control unit 29. These components are capable of transmitting and receiving data or signals to and from each other via a bus.

表示部21は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(OLED:Organic Light-Emitting Diode)ディスプレイなどから構成される。 The display unit 21 is composed of a liquid crystal display (LCD), an organic EL (OLED: Organic Light-Emitting Diode) display, and the like.

操作部22は、テンキー、決定キー、スタートキーなどの物理キーを備え、当該各キーのユーザーによる操作に基づいて各種の指示を受け付ける。 The operation unit 22 includes physical keys such as a numeric keypad, an enter key, and a start key, and receives various instructions based on operations by the user of each key.

表示部21の画面には、タッチパネル23が配置されている。タッチパネル23は、所謂抵抗膜方式や静電容量方式などのタッチパネルであって、タッチパネル23に対するユーザーの指などの接触(タッチ)をその接触位置とともに検知して、その接触位置の座標を示す検知信号を制御ユニット29の後述する制御部31などに出力する。このタッチパネル23は、操作部22と共に表示部21の画面に対するユーザー操作が入力される操作部としての役割を果たす。 A touch panel 23 is arranged on the screen of the display unit 21. The touch panel 23 is a touch panel of a so-called resistive film method or capacitance method, and detects contact (touch) of a user's finger or the like with the touch panel 23 together with the contact position, and a detection signal indicating the coordinates of the contact position. Is output to the control unit 31 or the like described later of the control unit 29. The touch panel 23 serves as an operation unit in which user operations on the screen of the display unit 21 are input together with the operation unit 22.

画像メモリー27には、画像読取部11により読取られた原稿MSの画像を示す画像データが記憶される。 The image memory 27 stores image data indicating an image of the original MS read by the image reading unit 11.

記憶部28は、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの大容量の記憶装置であって、各種のアプリケーションプログラムや種々のデータを記憶している。 The storage unit 28 is a large-capacity storage device such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive), and stores various application programs and various data.

制御ユニット29は、プロセッサー、RAM(Random Access Memory)、及びROM(Read Only Memory)などから構成される。プロセッサーは、例えばCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、又はMPU(Micro Processing Unit)等である。制御ユニット29は、上記のROM又は記憶部28に記憶された制御プログラムが上記のプロセッサーで実行されることにより、制御部31として機能する。 The control unit 29 is composed of a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The processor is, for example, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), an MPU (Micro Processing Unit), or the like. The control unit 29 functions as the control unit 31 when the control program stored in the ROM or the storage unit 28 is executed by the processor.

制御ユニット29は、画像形成装置10を統括的に制御する。制御ユニット29は、画像読取部11、画像形成部12、表示部21、操作部22、タッチパネル23、ネットワーク通信部25、画像メモリー27、及び記憶部28などと接続されており、これらの構成要素の動作制御や、該各構成要素との間での信号またはデータの送受信を行う。 The control unit 29 comprehensively controls the image forming apparatus 10. The control unit 29 is connected to an image reading unit 11, an image forming unit 12, a display unit 21, an operation unit 22, a touch panel 23, a network communication unit 25, an image memory 27, a storage unit 28, and the like, and is a component thereof. It controls the operation of the above and sends and receives signals or data to and from each of the components.

制御部31は、画像形成装置10による画像形成に必要な各種の処理などを実行する処理部としての役割を果たす。また、制御部31は、タッチパネル23から出力される検知信号あるいは操作部22の物理キーの操作に基づき、ユーザーにより入力された操作指示を受け付ける。更に、制御部31は、表示部21の表示動作を制御する機能、ネットワーク通信部25の通信動作を制御する機能を有する。また、制御部31は、画像メモリー27に記憶されている画像データに対して処理を施す。 The control unit 31 serves as a processing unit that executes various processes necessary for image formation by the image forming apparatus 10. Further, the control unit 31 receives an operation instruction input by the user based on the detection signal output from the touch panel 23 or the operation of the physical key of the operation unit 22. Further, the control unit 31 has a function of controlling the display operation of the display unit 21 and a function of controlling the communication operation of the network communication unit 25. Further, the control unit 31 processes the image data stored in the image memory 27.

このような構成の画像形成装置10において、例えば、ユーザーが、原稿MSを画像読取部11にセットし、操作部22を操作して、コピージョブの実行指示を入力すると、制御部31は、操作部22に受け付けられた当該実行指示に従って、画像読取部11により原稿MSの画像を読取らせる。更に、制御部31は、この画像を示す画像データを画像メモリー27に一旦記憶させ、この画像データを画像形成部12に入力させて、この画像データによって示される画像を画像形成部12により記録紙に印刷させる。 In the image forming apparatus 10 having such a configuration, for example, when the user sets the document MS in the image reading unit 11 and operates the operation unit 22 to input a copy job execution instruction, the control unit 31 operates. According to the execution instruction received by the unit 22, the image reading unit 11 is made to read the image of the original MS. Further, the control unit 31 temporarily stores the image data indicating this image in the image memory 27, causes the image data to be input to the image forming unit 12, and the image forming unit 12 records the image indicated by the image data. To print.

また、画像形成装置10では、文字列抽出モードを備えている。制御部31は、操作部22に入力されたユーザーからのモード設定指示に従って、画像形成装置10を当該文字列抽出モードに設定する。画像形成装置10が文字列抽出モードに設定されたとき、制御部31は、画像読取部11による原稿の読取で得られた原稿画像に基づいて、当該原稿画像を構成する文字画像及び罫線画像等に基づいて、各項目及びその記入欄を検出して、当該項目の記入欄に含まれる文字列を抽出し、他のドキュメントにおいて含まれる項目に、当該抽出した文字列を挿入する処理を行う。 Further, the image forming apparatus 10 includes a character string extraction mode. The control unit 31 sets the image forming apparatus 10 to the character string extraction mode according to the mode setting instruction from the user input to the operation unit 22. When the image forming apparatus 10 is set to the character string extraction mode, the control unit 31 sets the character image, the ruled line image, and the like constituting the original image based on the original image obtained by scanning the original by the image reading unit 11. Based on, each item and its entry field are detected, the character string included in the entry field of the item is extracted, and the extracted character string is inserted into the item included in other documents.

文字列抽出モードの実行時に、例えば、図3に示すような原稿MS上に形成されている原稿画像D1が画像読取部11により読み取られる場合を説明する。この図3に示す原稿画像D1は、項目名(例えば氏名や住所)が記入される各項目ICと、その項目に対応する具体的な内容が記入されるそれぞれの記入欄ECとを並設したレイアウト(文書構成)を有する。制御部31は、既知のOCR技術等を用いて原稿画像D1の構成を解析して、各項目ICと各記入欄ECを判定する。例えば、制御部31は、原稿画像D1と、OCR技術により原稿画像D1がキャラクター化されてなる文字列とから、予め定められた項目名としての文字列、例えば、「申請年月日」、「氏名」、「性別」、「年齢」、「住所」、又は「電話番号」等と、当該項目名としての文字列が罫線で囲まれた領域とを項目ICとして判定する。また、制御部31は、項目ICに隣接して罫線で囲まれた例えば矩形領域を当該項目ICに対応付けられた記入欄ECとして判定する。制御部31は、原稿画像D1を表示部21の画面に表示させる。 A case where the original image D1 formed on the original MS as shown in FIG. 3 is read by the image reading unit 11 when the character string extraction mode is executed will be described. In the manuscript image D1 shown in FIG. 3, each item IC in which an item name (for example, a name or an address) is entered and each entry field EC in which specific contents corresponding to the item are entered are arranged side by side. It has a layout (document structure). The control unit 31 analyzes the configuration of the manuscript image D1 using a known OCR technique or the like, and determines each item IC and each entry field EC. For example, the control unit 31 uses a character string as a predetermined item name from the manuscript image D1 and a character string obtained by characterizing the manuscript image D1 by OCR technology, for example, "application date", " The item IC determines the "name", "gender", "age", "address", "telephone number", etc., and the area in which the character string as the item name is surrounded by a ruled line. Further, the control unit 31 determines, for example, a rectangular area adjacent to the item IC and surrounded by a ruled line as an entry field EC associated with the item IC. The control unit 31 displays the original image D1 on the screen of the display unit 21.

続いて、制御部31は、ユーザーによる表示部21の表示画面へのタッチ操作によりタッチパネル23を介して入力された指示により指定された、当該表示画面上の原稿画像D1における各項目ICに対応付けられている各記入欄EC内の位置に記載されているそれぞれの文字列を抽出する。なお、制御部31は、異なるレイアウトを有する別の原稿が画像読取部11により読み取られた場合も、この読取で得られた原稿画像に基づいて、同様に、ユーザーにより指定された記入欄ECに記載されている文字列を抽出する。 Subsequently, the control unit 31 associates with each item IC in the document image D1 on the display screen designated by the instruction input via the touch panel 23 by the user touching the display screen of the display unit 21. Each character string described in the position in each entry field EC is extracted. Even when another document having a different layout is read by the image reading unit 11, the control unit 31 similarly fills the entry field EC designated by the user based on the document image obtained by this reading. Extract the described character string.

次に、そのような文字列抽出モード実行時の処理を図4に示すフローチャートなどを参照して詳しく説明する。 Next, the processing at the time of executing such a character string extraction mode will be described in detail with reference to the flowchart shown in FIG.

ユーザーが、例えば表示部21の画面に表示されているGUI(例えば初期設定画面)に対する操作によりタッチパネル23を介して文字列抽出モードの設定指示を入力すると、制御部31は、当該設定指示に応じて、文字列抽出モードを設定する(S101)。そして、制御部31は、図5に例を示すような選択画面G1を表示部21に表示させる(S102)。この図5に示す選択画面G1には、原稿のレイアウトが新規のものであることを示す情報を入力するための新規キーK11、及び原稿のレイアウトが新規のものでなく既存のものであることを示す情報を入力するための既存キーK12が配置されている。 When the user inputs a character string extraction mode setting instruction via the touch panel 23 by operating the GUI (for example, the initial setting screen) displayed on the screen of the display unit 21, the control unit 31 responds to the setting instruction. Then, the character string extraction mode is set (S101). Then, the control unit 31 causes the display unit 21 to display the selection screen G1 as shown in FIG. 5 (S102). On the selection screen G1 shown in FIG. 5, a new key K11 for inputting information indicating that the layout of the manuscript is new, and that the layout of the manuscript is not new but existing. An existing key K12 for inputting the information to be shown is arranged.

ユーザーが、選択画面G1における新規キーK11又は既存キーK12のいずれかに対してタッチ操作すると、制御部31は、タッチ操作された方のキーに対応して入力される情報に基づいて、原稿のレイアウトが新規のものか又は既存のものであるかの選択を受け付ける(S103)。 When the user touches either the new key K11 or the existing key K12 on the selection screen G1, the control unit 31 controls the document based on the information input corresponding to the touch-operated key. Accepts the selection of whether the layout is new or existing (S103).

続いて、ユーザーは、原稿MSを画像読取部11にセットして、操作部22のスタートキーを操作する。制御部31は、当該スタートキーの操作により入力される文字列抽出指示に従って、原稿MSを画像読取部11により読み取らせ、当該読取で得られた原稿画像を表示部21の画面に表示させる(S104)。例えば、図6に例を示すように原稿画像D1が表示部21の画面に表示される。制御部31は、当該原稿画像を画像メモリー27に記憶させる(S105)。 Subsequently, the user sets the document MS in the image reading unit 11 and operates the start key of the operation unit 22. The control unit 31 causes the image reading unit 11 to read the document MS according to the character string extraction instruction input by the operation of the start key, and displays the document image obtained by the reading on the screen of the display unit 21 (S104). ). For example, as shown in FIG. 6, the original image D1 is displayed on the screen of the display unit 21. The control unit 31 stores the original image in the image memory 27 (S105).

図6に示す表示部21の画面に、制御部31は、原稿画像D1の他に、OKキーK21、及び終了キーK22を表示させる。なお、表示部21の画面に原稿画像D1の全体を表示できない場合は、制御部31は、タッチパネル23を介して入力される、表示部21の画面に対するスワイプ操作などに応じて、表示部21の画面上で原稿画像D1をスクロール表示させる。 On the screen of the display unit 21 shown in FIG. 6, the control unit 31 displays the OK key K21 and the end key K22 in addition to the original image D1. If the entire document image D1 cannot be displayed on the screen of the display unit 21, the control unit 31 responds to a swipe operation on the screen of the display unit 21 input via the touch panel 23, and the display unit 21 displays the original image D1. The original image D1 is scrolled and displayed on the screen.

例えば、制御部31は、S103で原稿のレイアウトを新規のものとして指定を受け付けた場合(S106「新規」)、既知のOCR(Optical Character Recognition)技術等により、画像メモリー27内の上記原稿画像のレイアウトを解析して、原稿画像において各項目IC及びそのサイズと位置、更に、各項目ICに対応するそれぞれの記入欄EC及びそのサイズと位置を検出する(S107)。 For example, when the control unit 31 accepts the designation of the original layout as a new one in S103 (S106 “new”), the control unit 31 uses a known OCR (Optical Character Recognition) technique or the like to obtain the original image in the image memory 27. The layout is analyzed to detect each item IC and its size and position in the manuscript image, and each entry field EC corresponding to each item IC and its size and position (S107).

ここで、ユーザーが、表示部21の画面上で各項目ICのうち任意の項目ICに対してタッチ操作し、更にOKキーK21にタッチ操作したものとする。制御部31は、上記各タッチ操作に基づいてタッチパネル23に入力される指示に基づいて、タッチ操作された項目IC、及び当該項目ICに隣接する記入欄ECを当該項目ICに対応付けられた記入欄ECとして、上記検出したサイズ及び位置に基づいて検出し、表示部21の画面上で当該検出した項目ICを強調表示(例えばイエローでハイライト表示)させると共に、その検出した記入欄ECを強調表示(例えばブルーでハイライト表示)させる(S108)。制御部31は、上記タッチ操作に基づいて複数の項目IC及びこれに対応付けられた記入欄ECを検出した場合は、検出した全ての項目IC及び記入欄ECについて強調表示させる。 Here, it is assumed that the user touch-operates any item IC among the item ICs on the screen of the display unit 21 and then touches the OK key K21. Based on the instructions input to the touch panel 23 based on each of the above touch operations, the control unit 31 fills in the touch-operated item IC and the entry field EC adjacent to the item IC in association with the item IC. As the column EC, it is detected based on the detected size and position, and the detected item IC is highlighted (for example, highlighted in yellow) on the screen of the display unit 21, and the detected entry column EC is highlighted. Display (for example, highlight in blue) (S108). When the control unit 31 detects a plurality of item ICs and the entry field EC associated therewith based on the touch operation, the control unit 31 highlights all the detected item ICs and the entry field EC.

更に、制御部31は、上記のように検出された各項目ICのサイズと位置、該選択した項目ICの項目名、及び、当該各項目ICに対応付けられたそれぞれの記入欄ECのサイズと位置を示すレイアウトデータを生成する(S109)。 Further, the control unit 31 determines the size and position of each item IC detected as described above, the item name of the selected item IC, and the size of each entry field EC associated with each item IC. Layout data indicating the position is generated (S109).

また、ユーザーが図7に示す表示画面に表示されている終了キーK22にタッチ操作すると、制御部31は、タッチパネル23を通じて、データを保存する方法を選択するための選択画面の表示指示を受け付け、図8に例を示すような選択画面G2を表示部21に表示させる(S110)。この図8に示す選択画面G2に、制御部31は、S108で検出された各項目IC及び対応付けられた各記入欄ECに記載されている文字列を抽出して保存する文字列保存指示を入力するための文字列保存キーK31、S109で生成したレイアウトデータを保存するレイアウトデータ保存指示を入力するためのレイアウト保存キーK32、当該文字列保存指示及び当該レイアウトデータ保存指示の両方を入力するための文字列レイアウト保存キーK33を表示させる。 When the user touches the end key K22 displayed on the display screen shown in FIG. 7, the control unit 31 receives a display instruction on the selection screen for selecting a method for saving data through the touch panel 23. The selection screen G2 as shown in FIG. 8 is displayed on the display unit 21 (S110). On the selection screen G2 shown in FIG. 8, the control unit 31 gives a character string saving instruction to extract and save the character string described in each item IC detected in S108 and each associated entry field EC. Character string save key K31 for input, layout save key K32 for inputting layout data save instruction for saving layout data generated in S109, for inputting both the character string save instruction and the layout data save instruction. Display the character string layout save key K33.

例えば、ユーザーが図8に示す選択画面G2における文字列保存キーK31にタッチ操作すると、制御部31は、タッチパネル23を通じて、文字列保存指示を受け付け(S111「文字列」)、S109でレイアウトデータとして取得した各項目ICのサイズと位置及びこれに対応付けられたそれぞれの記入欄ECのサイズと位置に基づき、S108で検出した各項目IC及びこれらに対応付けられた各記入欄ECを判定し、当該各記入欄ECに記入されているそれぞれの文字列を、原稿画像D1から抽出して、これらの文字列を含むドキュメント、例えばCSVファイル(ワードプロセッサー用形式のファイル、又は表計算ソフト用形式のファイル等、更新可能なタッチパネルの形式のファイルでもよい)を作成し、S109で生成したレイアウトデータに対応付けて、このCSVファイルを記憶部28に保存させる(S112)。 For example, when the user touches the character string saving key K31 on the selection screen G2 shown in FIG. 8, the control unit 31 receives the character string saving instruction through the touch panel 23 (S111 “character string”), and in S109, it is used as layout data. Based on the acquired size and position of each item IC and the size and position of each entry field EC associated therewith, each item IC detected in S108 and each entry field EC associated therewith are determined. Each character string entered in each entry field EC is extracted from the manuscript image D1, and a document containing these character strings, for example, a CSV file (a file in a word processor format or a file in a spreadsheet format) , Etc.) is created, and the CSV file is stored in the storage unit 28 in association with the layout data generated in S109 (S112).

図9(A)は、CSVファイルを例示する図である。この図9(A)に示すCSVファイルにおいて、第1行には、S108で検出した各項目ICを示す文字列(項目名)、例としてここでは「申請年月日」、「氏名」、「性別」、「年齢」、「住所」、「電話番号」が「,」で区切られて順次配列される。また、第2行には、該各項目ICに対応付けられているそれぞれの記入欄ECに記載された文字列、ここでは「令和元年1月1日」、「○○○太郎」、「男」、「30」、「大阪府△△△」、「*******」が「,」で区切られて、対応する項目と同じ配列で順次配列される。 FIG. 9A is a diagram illustrating a CSV file. In the CSV file shown in FIG. 9A, the first line is a character string (item name) indicating each item IC detected in S108, for example, here, "application date", "name", "name", " Gender, age, address, and telephone number are separated by "," and arranged in order. In addition, in the second line, the character string described in each entry field EC associated with each item IC, here, "January 1, 1st year of Reiwa", "○○○ Taro", "Man", "30", "Osaka prefecture △△△", "*****" are separated by "," and arranged in the same arrangement as the corresponding items.

また、ユーザーが図8に示す選択画面G2におけるレイアウト保存キーK32にタッチ操作して、制御部31が、タッチパネル23を通じて、S109で生成したレイアウトデータを保存するレイアウトデータ保存指示を受け付けると(S111「レイアウト」)、制御部31は、S109で生成したレイアウトデータを記憶部28に保存させる(S113)。 Further, when the user touches the layout save key K32 on the selection screen G2 shown in FIG. 8 and the control unit 31 receives the layout data save instruction for saving the layout data generated in S109 through the touch panel 23 (S111 " Layout "), the control unit 31 stores the layout data generated in S109 in the storage unit 28 (S113).

上述のようにレイアウトデータは、原稿画像D1におけるS108で選択された各項目ICのサイズと位置、該選択された各項目ICの項目名、及びS108で選択された各記入欄ECのサイズと位置を示すが、例えば、原稿画像D1についてのレイアウトデータが示す情報に基づいて構成した各項目及び記入欄の配置は、図10に示すものとなる。 As described above, the layout data includes the size and position of each item IC selected in S108 in the original image D1, the item name of each selected item IC, and the size and position of each entry field EC selected in S108. However, for example, the arrangement of each item and the entry column configured based on the information indicated by the layout data for the manuscript image D1 is as shown in FIG.

また、ユーザーが、図8に示す選択画面G2における文字列レイアウト保存キーK33にタッチ操作すると、制御部31は、タッチパネル23を通じて、上記文字列保存指示及び上記レイアウトデータ保存指示の両方を受け付ける(S111「両者」)。制御部31は、S112と同様に、各項目IC及び対応付けられた各記入欄ECに記入されているそれぞれの文字列から上記のようなCSVファイルを作成して、このCSVファイルを記憶部28に保存させると共に、S113と同様にレイアウトデータを記憶部28に保存させる(S114)。 Further, when the user touches the character string layout saving key K33 on the selection screen G2 shown in FIG. 8, the control unit 31 receives both the character string saving instruction and the layout data saving instruction through the touch panel 23 (S111). "Both"). Similar to S112, the control unit 31 creates a CSV file as described above from each character string entered in each item IC and each associated entry field EC, and stores this CSV file in the storage unit 28. The layout data is stored in the storage unit 28 in the same manner as in S113 (S114).

一方、S106において、制御部31は、S102で図5に示す選択画面G1における既存キーK12がタッチ操作された場合(S106「既存」)、S104で画像読取部11により読み取られて画像メモリー27に記憶された原稿画像D1を既知のOCR技術等により解析し、記憶部28に記憶されている既存のレイアウトデータであって、ユーザーによる操作部22の操作で指定されたレイアウトデータに基づいて、原稿画像D1から、各項目IC及び対応付けられた各記入欄ECを検出する(S115)。そして、制御部31は、当該各記入欄ECに記載されているそれぞれの文字列を抽出し、当該レイアウトデータに対応付けられたCSVファイルに含まれる対応する各項目にそれぞれの各文字列を書き込んで、当該CSVファイルを更新する(S116)。 On the other hand, in S106, when the existing key K12 on the selection screen G1 shown in FIG. 5 is touch-operated in S102 (S106 “existing”), the control unit 31 is read by the image reading unit 11 in S104 and stored in the image memory 27. The stored manuscript image D1 is analyzed by a known OCR technique or the like, and the manuscript is existing layout data stored in the storage unit 28 and is based on the layout data specified by the operation of the operation unit 22 by the user. From the image D1, each item IC and each associated entry field EC are detected (S115). Then, the control unit 31 extracts each character string described in each entry field EC, and writes each character string in each corresponding item included in the CSV file associated with the layout data. Then, the CSV file is updated (S116).

これにより、記憶部28に複数のレイアウトデータが記憶されている場合に、いずれかのレイアウトデータAが示す各項目のサイズと位置及び該各記入欄のサイズと位置に一致する、各項目のサイズと位置及び該各記入欄のサイズと位置を有する原稿MSの原稿画像における各項目に対応付けられた各記入欄の文字列を、当該レイアウトデータAに対応付けられたCSVファイルに、迅速に追加して更新することができる。 As a result, when a plurality of layout data are stored in the storage unit 28, the size and position of each item indicated by any of the layout data A and the size and position of each item that match the size and position of each entry field. And the position and the character string of each entry field associated with each item in the manuscript image of the manuscript MS having the size and position of each entry field are quickly added to the CSV file associated with the layout data A. Can be updated.

例えば、図9(B)に示すように第3行に、制御部31は、原稿画像D1と同一レイアウトを有する別原稿の原稿画像における各記入欄ECの「令和元年2月2日」、「○○○花子」、「女」、「27」、「京都府×××」、「*******」を追加して、対応する各項目の順に順次配列して更新する。 For example, as shown in FIG. 9B, in the third line, the control unit 31 has "February 2, 1st year of Reiwa" in each entry field EC in the manuscript image of another manuscript having the same layout as the manuscript image D1. , "○○○ Hanako", "Woman", "27", "Kyoto Prefecture XXX", "*****" are added, and the corresponding items are sequentially arranged and updated. ..

このように本実施形態では、文字列抽出モードが設定された状態で、原稿MSの原稿画像が画像読取部11により読み取られ、当該原稿画像の各項目ICと各記入欄ECが判定されると共に、当該原稿画像が表示部21の画面に表示され、ユーザーにより指定された、当該原稿画像における各項目ICに対応付けられている記入欄ECに記載されているそれぞれの文字列が抽出され、予め定められたドキュメントとしてのCSVファイルに含まれる各項目に、上記抽出したそれぞれの対応文字列が挿入される。 As described above, in the present embodiment, the original image of the original MS is read by the image reading unit 11 in the state where the character string extraction mode is set, and each item IC and each entry field EC of the original image are determined. , The manuscript image is displayed on the screen of the display unit 21, and each character string described in the entry field EC associated with each item IC in the manuscript image specified by the user is extracted in advance. Each of the above-extracted corresponding character strings is inserted into each item included in the CSV file as a defined document.

また、別の実施形態として、S106で「既存」となり、制御部31が、記憶部28に記憶されている既存のレイアウトデータAを用いて原稿MSの原稿画像から各項目IC及び対応付けられた各記入欄ECを検出する場合、これに代えて、制御部31は、原稿MSの原稿画像を解析して各項目及び対応付けられた各記入欄、更に当該各項目の文字列を検出し、当該各項目及び各記入欄のサイズ及び位置に関係なく、当該検出した項目を示す文字列が、レイアウトデータAに含まれる項目を示す文字列に一致する場合、レイアウトデータAに対応付けられたCSVファイルに記憶されている当該項目に対応する文字列として、上記原稿画像から検出された上記項目ICに対応付けられた記入欄ECに記載された文字列を、CSVファイルに挿入して更新するようにしてもよい。この場合、制御部31は、CSVファイルに、図9(B)に示しように新たな行を作成して、当該文字列の挿入及び更新を行う。 Further, as another embodiment, it becomes “existing” in S106, and the control unit 31 is associated with each item IC from the manuscript image of the manuscript MS using the existing layout data A stored in the storage unit 28. When detecting each entry field EC, instead of this, the control unit 31 analyzes the manuscript image of the manuscript MS and detects each item, each associated entry field, and a character string of each item. Regardless of the size and position of each item and each entry field, if the character string indicating the detected item matches the character string indicating the item included in the layout data A, the CSV associated with the layout data A As a character string corresponding to the item stored in the file, the character string described in the entry field EC associated with the item IC detected from the manuscript image is inserted into the CSV file and updated. You may do it. In this case, the control unit 31 creates a new line in the CSV file as shown in FIG. 9B, and inserts and updates the character string.

更に別の実施形態として、CSVファイルに項目IC毎に書き込まれている文字列を、当該CSVファイルに対応付けられたレイアウトデータが示すレイアウトとは異なる別のレイアウトからなる原稿画像に書き込むことも可能である。例えば、図11に示すような別のレイアウトの原稿の原稿画像D2が画像読取部11により読取られて画像メモリー27に記憶されたものとする。この原稿画像D2は、「申請年月日」、「氏名」、「性別」、「年齢」、「電話番号」が項目名して記入された各項目ICと、該各項目に対応するそれぞれの具体的な内容が記入される各記入欄ECとを並設したレイアウトを有している。 As yet another embodiment, it is also possible to write the character string written for each item IC in the CSV file on a manuscript image having a layout different from the layout indicated by the layout data associated with the CSV file. Is. For example, it is assumed that the original image D2 of a document having a different layout as shown in FIG. 11 is read by the image reading unit 11 and stored in the image memory 27. This manuscript image D2 includes each item IC in which "application date", "name", "gender", "age", and "telephone number" are entered as item names, and each item corresponding to each item. It has a layout in which each entry field EC in which specific contents are entered is arranged side by side.

制御部31は、原稿画像D2のレイアウトを解析して、各項目ICと各記入欄ECを検出し、各項目IC別に項目ICの文字列を認識して、この文字列に一致する文字列を有する項目を、ユーザーによる操作部22の操作で指定された、記憶部28に記憶されているCSVファイルから検索し、この検索した項目についての文字列を読み取って、この読み取った文字列を示す文字列画像を生成し、当該文字列画像を、原稿画像D2における、文字列が一致する項目ICに対応付けられている記入欄EC内に合成する。制御部31は、当該原稿画像D2を、記憶部28に記憶させる、又は、画像形成部12により記録紙P上に画像形成させる。これにより、例えば、原稿画像D1の記入欄ECの文字列を、CSVファイルを介して、原稿画像D2に転載することが可能になる。 The control unit 31 analyzes the layout of the manuscript image D2, detects each item IC and each entry field EC, recognizes the character string of the item IC for each item IC, and determines a character string that matches this character string. The item to be possessed is searched from the CSV file stored in the storage unit 28 specified by the operation of the operation unit 22 by the user, the character string for the searched item is read, and the character indicating the read character string is read. A column image is generated, and the character string image is combined in the entry field EC associated with the item IC whose character strings match in the original image D2. The control unit 31 stores the original image D2 in the storage unit 28, or causes the image forming unit 12 to form an image on the recording paper P. As a result, for example, the character string in the entry field EC of the manuscript image D1 can be reprinted on the manuscript image D2 via the CSV file.

なお、上記実施形態では、制御部31による上記解析の対象とする原稿画像を、画像読取部11による原稿MSの読取で取得しているが、ドキュメントを図略のUSBインターフェイスを介してUSBメモリーから読み取る、又は、ネットワーク上のストレージからネットワーク通信部25を通じて受信する、等により取得してもよい。 In the above embodiment, the original image to be analyzed by the control unit 31 is acquired by reading the original MS by the image reading unit 11, but the document is obtained from the USB memory via the USB interface (not shown). It may be acquired by reading, receiving from storage on the network through the network communication unit 25, or the like.

また、図1乃至図11を用いて説明した上記実施形態の構成及び処理は、本発明の一例に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。 Further, the configuration and processing of the above-described embodiment described with reference to FIGS. 1 to 11 are merely examples of the present invention, and the present invention is not intended to be limited to the configuration and processing.

10 画像形成装置
11 画像読取部
12 画像形成部
21 表示部
22 操作部
23 タッチパネル
25 ネットワーク通信部
27 画像メモリー
28 記憶部
29 制御ユニット
31 制御部
10 Image forming device 11 Image reading unit 12 Image forming unit 21 Display unit 22 Operation unit 23 Touch panel 25 Network communication unit 27 Image memory 28 Storage unit 29 Control unit 31 Control unit

Claims (5)

表示部と、
ユーザーにより操作される操作部と、
原稿画像を解析して、当該原稿画像に含まれる各項目及び各項目に対応付けられた各記入欄を検出し、当該原稿画像を前記表示部に表示させ、前記操作部の操作により指定された、当該原稿画像に含まれる前記項目に対応付けられた記入欄の文字列を抽出し、予め定められたドキュメントに含まれる項目に、当該抽出した文字列を挿入する制御部と、を備える画像処理装置。
Display and
The operation unit operated by the user and
The manuscript image is analyzed, each item included in the manuscript image and each entry field associated with each item are detected, the manuscript image is displayed on the display unit, and the manuscript image is designated by the operation of the operation unit. An image process including a control unit that extracts a character string in an entry field associated with the item included in the manuscript image and inserts the extracted character string into an item included in a predetermined document. Device.
データを記憶する記憶部を更に備え、
前記制御部は、前記解析により、前記原稿画像に含まれる各項目とそのサイズ及び位置、更に当該各項目に対応付けられた記入欄とそのサイズ及び位置を検出し、検出した当該各項目とそのサイズ及び位置と、更に当該各項目に対応付けられた記入欄とそのサイズ及び位置とを示すデータからなるレイアウトデータを生成し、前記記憶部に記憶させる請求項1に記載の画像処理装置。
It also has a storage unit to store data.
The control unit detects each item included in the manuscript image and its size and position, and an entry field associated with each item and its size and position by the analysis, and each detected item and its size. The image processing apparatus according to claim 1, wherein layout data including size and position, an entry field associated with each item, and data indicating the size and position is generated and stored in the storage unit.
前記制御部は、前記原稿画像から、前記記憶部に記憶されているレイアウトデータが示す項目及び当該項目に対応付けられた記入欄を検出し、当該検出した項目に対応付けられた記入欄の文字列を抽出して、当該抽出した文字列を、当該レイアウトデータに対応付けられて前記記憶部に記憶されている前記ドキュメントに含まれる項目であって、前記検出された項目の文字列と同一の文字列を有する項目に対応付けられた記入欄の文字列として前記ドキュメントに挿入する請求項2に記載の画像処理装置。 The control unit detects an item indicated by layout data stored in the storage unit and an entry field associated with the item from the manuscript image, and the characters in the entry field associated with the detected item. A column is extracted, and the extracted character string is an item included in the document that is associated with the layout data and stored in the storage unit, and is the same as the character string of the detected item. The image processing apparatus according to claim 2, wherein the image processing device is inserted into the document as a character string in an entry field associated with an item having a character string. 前記制御部は、前記原稿画像を解析して前記項目及びこれに対応付けられた記入欄を検出し、前記項目を示す文字列を認識して、この文字列に一致する文字列を有する項目を、ユーザーによる前記操作部の操作で指定された、前記記憶部に記憶されているドキュメントから検索し、当該検索した項目に対応付けられている記入欄の文字列を当該ドキュメントから読み取って、この読み取った文字列を示す文字列画像を生成して、当該文字列画像を、前記原稿画像における、前記文字列が一致する項目に対応付けられている記入欄内に合成する、請求項2又は請求項3に記載の画像処理装置。 The control unit analyzes the manuscript image, detects the item and the entry field associated with the item, recognizes the character string indicating the item, and selects an item having a character string matching the character string. , Search from the document stored in the storage unit specified by the operation of the operation unit by the user, read the character string of the entry field associated with the searched item from the document, and read this. Claim 2 or claim, which generates a character string image indicating the character string, and synthesizes the character string image in an entry field associated with an item in which the character string matches in the manuscript image. The image processing apparatus according to 3. 請求項4に記載の画像処理装置と、
記録媒体に画像を形成する画像形成部とを備え、
前記制御部が、前記合成を行った前記原稿画像を、前記画像形成部により画像形成させる画像形成装置。
The image processing apparatus according to claim 4 and
The recording medium is provided with an image forming unit for forming an image.
An image forming apparatus in which the control unit forms an image of the synthesized original image by the image forming unit.
JP2020069858A 2020-04-08 2020-04-08 Image processing device and image forming device Active JP7419942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020069858A JP7419942B2 (en) 2020-04-08 2020-04-08 Image processing device and image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020069858A JP7419942B2 (en) 2020-04-08 2020-04-08 Image processing device and image forming device

Publications (2)

Publication Number Publication Date
JP2021166365A true JP2021166365A (en) 2021-10-14
JP7419942B2 JP7419942B2 (en) 2024-01-23

Family

ID=78022301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020069858A Active JP7419942B2 (en) 2020-04-08 2020-04-08 Image processing device and image forming device

Country Status (1)

Country Link
JP (1) JP7419942B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6122357B2 (en) 2013-06-28 2017-04-26 キヤノン株式会社 Information processing apparatus, document synthesis system, information processing method, and program
JP2015227013A (en) 2014-05-30 2015-12-17 キヤノンマーケティングジャパン株式会社 Printer, control method, and program
JP6558331B2 (en) 2016-09-14 2019-08-14 京セラドキュメントソリューションズ株式会社 Image processing device
JP2019068323A (en) 2017-10-03 2019-04-25 キヤノン株式会社 Device for setting file name for scanned image, control method thereof, and program
JP6524311B2 (en) 2018-05-24 2019-06-05 株式会社エスピック Table recognition processor

Also Published As

Publication number Publication date
JP7419942B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
CN108132762B (en) Image processing apparatus and image forming apparatus
EP2879036A1 (en) Display input device, image forming apparatus, and control method of display input device
JP6885318B2 (en) Image processing device
CN111510576B (en) Image forming apparatus with a toner supply device
JP2019109628A5 (en)
US20090316202A1 (en) Data processing apparatus which downloads data via network, data processing method, and data processing program embodied on computer readable medium
US11297199B2 (en) Image processing apparatus that generates cover page from source image
US20190347057A1 (en) Image forming apparatus setting printing condition and number of recording paper sheets
JP2008070777A (en) Image forming apparatus and image forming system
JP6885319B2 (en) Image processing device
JP7419942B2 (en) Image processing device and image forming device
JP2019109629A5 (en)
JP7115162B2 (en) ELECTRONIC DEVICE, IMAGE FORMING APPARATUS, E-MAIL CREATION SUPPORT METHOD AND E-MAIL CREATION SUPPORT PROGRAM
CN114661254A (en) Information processing apparatus and document management method
JP6708267B2 (en) Image forming device
WO2021033603A1 (en) Image-reading device
JP2020086536A (en) Electronic apparatus and image forming device
JP2022074865A (en) Image processing apparatus and image forming apparatus
JP2021034830A (en) Image reading device and image forming apparatus
JP2021166333A (en) Document combining method, image forming system, and image forming apparatus
US11849086B2 (en) Image processing apparatus capable of extracting portion of document image specified by preset index and subjecting character string in extracted portion to processing associated with index
WO2023182232A1 (en) Image processing device and job management program
JP6624027B2 (en) Image processing apparatus and image forming apparatus
JP2022157010A (en) Image processing apparatus and image processing method
JP2020134964A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230329

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7419942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150