JP2023081269A - Image forming device, method for controlling image forming device, and program - Google Patents
Image forming device, method for controlling image forming device, and program Download PDFInfo
- Publication number
- JP2023081269A JP2023081269A JP2022090350A JP2022090350A JP2023081269A JP 2023081269 A JP2023081269 A JP 2023081269A JP 2022090350 A JP2022090350 A JP 2022090350A JP 2022090350 A JP2022090350 A JP 2022090350A JP 2023081269 A JP2023081269 A JP 2023081269A
- Authority
- JP
- Japan
- Prior art keywords
- image forming
- graph
- forming apparatus
- document
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
Description
本発明は、画像形成装置、画像形成装置の制御方法およびプログラムに関する。 The present invention relates to an image forming apparatus, an image forming apparatus control method, and a program.
紙等の記録材に画像を形成する画像形成装置としては、プリンタ機能、スキャン機能、ファクシミリ機能、コピー機能等を併せ持った複合機が知られている。複合機では、カラー印刷された原稿(ここでは「1次原稿」と言う)をスキャン機能で読み取ることができる。そして、当該読み取られた1次原稿をプリンタ機能で出力するのに際して、印刷コストを削減するために、モノクロ印刷で原稿(ここでは「2次原稿」と言う)を出力する場合がある。例えば、1次原稿内に赤色の棒グラフと青色の棒グラフの2本の棒グラフが含まれている場合、2次原稿では、これら2本の棒グラフは、濃淡が異なるのみであり、識別性がカラー印刷の場合よりも劣る。このような問題に対して、特許文献1に記載の画像形成装置では、モノクロ印刷でも、識別し易いパターン(ハッチング)を各棒グラフに施すことができる。また、特許文献1に記載の画像形成装置では、1次原稿内のグラフを検出する際には、色が施された(塗りつぶされた)領域の形状が矩形または扇形である場合に、当該領域をグラフとして検出している。
2. Description of the Related Art As an image forming apparatus for forming an image on a recording material such as paper, there is known a multifunction machine having a printer function, a scan function, a facsimile function, a copy function, and the like. A multifunction device can read a color-printed document (referred to as a "primary document" here) using a scanning function. When outputting the read primary document using the printer function, the document (herein referred to as a "secondary document") may be output by monochrome printing in order to reduce printing costs. For example, if the primary manuscript contains two bar graphs, a red bar graph and a blue bar graph, in the secondary manuscript, these two bar graphs differ only in shades, and their identifiability is not achieved by color printing. is inferior to the case of In order to address such a problem, the image forming apparatus disclosed in Japanese Patent Application Laid-Open No. 2002-200313 can apply a pattern (hatching) that is easy to identify even in monochrome printing to each bar graph. Further, in the image forming apparatus disclosed in
しかしながら、特許文献1に記載の画像形成装置では、1次原稿内に、色が施された矩形または扇形の領域が存在していれば、当該領域を全てグラフとして誤検出してしまう。また、1次原稿内に、線グラフや3Dグラフ等のように、矩形または扇形とは異なるグラフが存在している場合、当該グラフを検出することはできない。 However, in the image forming apparatus disclosed in Japanese Patent Application Laid-Open No. 2002-200311, if a colored rectangular or fan-shaped area exists in the primary document, the entire area is erroneously detected as a graph. Also, if the primary document includes a graph that is not rectangular or fan-shaped, such as a line graph or a 3D graph, the graph cannot be detected.
本発明は、原稿内にグラフや表が存在している場合、当該グラフや表の種類に関わらず、グラフや表の存在を高精度に推定することができる画像形成装置、画像形成装置の制御方法およびプログラムを提供することを目的とする。 INDUSTRIAL APPLICABILITY The present invention is an image forming apparatus capable of estimating the existence of a graph or a table with high accuracy regardless of the type of the graph or the table when the document contains the graph or the table, and control of the image forming apparatus. It aims at providing a method and a program.
上記目的を達成するために、本発明の画像形成装置は、画像を処理する画像形成装置であって、原稿を読み取る読取手段と、原稿内のグラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方の図表領域を推定するための機械学習が行われた学習済みモデルを用いて、前記読取手段で読み取られた原稿内の前記図表領域を推定する推定処理手段と、を備えることを特徴とする。 To achieve the above object, an image forming apparatus of the present invention is an image forming apparatus for processing an image, comprising reading means for reading a document, a graph area including a graph in the document, and a table area including a table. estimation processing means for estimating the graphic area in the document read by the reading means using a learned model subjected to machine learning for estimating the graphic area of at least one of characterized by
本発明によれば、原稿内にグラフや表が存在している場合、当該グラフの種類や表に関わらず、グラフと表の存在を高精度に推定することができる。 According to the present invention, when a document contains graphs and tables, the existence of the graphs and tables can be estimated with high accuracy regardless of the types of graphs and tables.
以下、本発明の実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.
<画像形成システムの全体構成>
図1は、画像形成システムの全体構成を示す図である。図1に示すように、画像形成システム(画像処理システム)1000は、画像形成装置(画像処理装置)101、機械学習サーバ102、汎用コンピュータ103、データサーバ105を有する。また、画像形成装置101、機械学習サーバ102、汎用コンピュータ103、データサーバ105は、有線LAN等のネットワーク104を介して互いに通信可能に接続されている。画像形成装置101は、例えば、プリンタ、複合機、FAX等で構成されており、用紙等の記録材に画像を形成することができる。画像形成装置101は、AI機能が搭載されており、随時、機械学習サーバ102から学習済みモデルを受信して、AI機能を実現することができる。機械学習サーバ102は、AI機能を実現するための学習済みモデルの機械学習に必要な学習データを、主にデータサーバ105から受信する。なお、機械学習サーバ102は、データサーバ105以外の装置からも学習データを受信することができる。データサーバ105は、機械学習サーバ102で機械学習を行うために使用される学習データを、例えば、画像形成装置101、汎用コンピュータ103等の外部機器から収集して、機械学習サーバ102に送信する。汎用コンピュータ103は、例えば、パーソナルコンピュータであり、画像形成装置101に対するプリントデータの送信等を行う。
<Overall Configuration of Image Forming System>
FIG. 1 is a diagram showing the overall configuration of an image forming system. As shown in FIG. 1 , an image forming system (image processing system) 1000 has an image forming apparatus (image processing apparatus) 101 , a
画像形成システム1000では、画像形成装置101で読み取った原稿のデータをデータサーバ105で収集して、そのデータを機械学習サーバ102で機械学習することにより、学習モデルを生成する。この学習モデルは、機械学習サーバ102からロードした原稿内のグラフや表の有無を推定するための学習モデルである。画像形成装置101は、学習モデルを活用するAI機能を有する。このような画像形成システム1000により、画像形成装置101で読み込んだ原稿内にグラフや表があるか否かを判断して、ユーザにその後の処理(例えば原稿データの変更等)を促すことが可能となっている。
In the
<画像形成装置のハードウェア構成(画像形成装置のコントローラ構成)>
図2は、画像形成装置のハードウェア構成を示すブロック図である。図2に示すように、画像形成装置101は、操作部(操作手段)140、スキャナ部(読取手段)10、プリンタ部(印刷手段)20を有する。操作部140は、例えばマルチタッチセンサ等を備えた液晶ディスプレイ等を有し、画像形成装置101を使用するユーザからの各種の操作を受け付ける。スキャナ部10は、操作部140を介したユーザからの操作に応じて作動して、原稿に形成された画像(画像情報)を読み取ることができる(読取工程)。スキャナ部10は、スキャナ部10を制御するCPU、原稿読取を行う際に光を照射する照明ランプ、光を反射させる走査ミラー等を有する。プリンタ部20は、画像を用紙に印刷することができる。これにより、カラー印刷された原稿や、モノクロ印刷された原稿を得ることができる。プリンタ部20は、プリンタ部20の制御を行うCPU、用紙への画像形成を行う感光体ドラム、用紙への画像定着を行う定着器等を有する。
<Hardware Configuration of Image Forming Apparatus (Controller Configuration of Image Forming Apparatus)>
FIG. 2 is a block diagram showing the hardware configuration of the image forming apparatus. As shown in FIG. 2 , the
また、画像形成装置101は、コントローラ1200を有する。コントローラ1200は、スキャナ部10、プリンタ部20、ネットワーク104、無線LAN106、公衆回線(WAN)3001と通信可能に接続されており、画像形成装置101の動作を統括的に制御する。コントローラ1200は、ラスタイメージプロセッサ(RIP)1260、スキャナ画像処理部1280、プリンタ画像処理部1290、画像回転部1230、画像圧縮部1240、デバイスI/F1220、画像バス2008を有する。ラスタイメージプロセッサ(RIP)1260は、ネットワーク104を介して汎用コンピュータ103から受信した印刷ジョブに含まれるPDLコードをビットマップイメージに展開する。スキャナ画像処理部1280は、スキャナ部10から入力された画像データに対し補正、加工、編集を行う。プリンタ画像処理部1290は、プリンタ部20で出力(印刷)される画像データに対して補正、解像度変換等を行う。画像回転部1230は、画像データの回転を行う。画像圧縮部1240は、多値画像データについてはJPEG、2値画像データについてはJBIG、MMRまたはMHの圧縮伸張処理を行う。デバイスI/F1220は、スキャナ部10およびプリンタ部20と、コントローラ1200とを接続して、画像データの同期系/非同期系の変換を行う。画像バス2008は、これらを互いに接続して画像データを高速で転送する。
The
また、コントローラ1200は、CPU1201、RAM1202、操作部I/F1206、ネットワーク部1210、モデム部1211、無線通信I/F1270を有する。CPU1201は、画像形成装置101を統括的に制御する制御部である。RAM1202は、CPU1201が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリとしても機能する。操作部I/F1206は、操作部140に表示する画像データを操作部140に対して出力する。また、操作部I/F1206は、操作部140からユーザが入力した情報をCPU1201に伝える役割を有する。ネットワーク部1210は、ネットワーク104に接続され、汎用コンピュータ103やネットワーク104上の図示しないその他のコンピュータ端末との通信(送受信)を行う。モデム部1211は、公衆回線3001に接続され、図示しない外部のファクシミリ装置とのデータの通信(送受信)を行う。無線通信I/F1270は、無線LAN106により外部の端末と接続する。
また、コントローラ1200は、ROM1203、HDD(ハードディスクドライブ)1204、システムバス1207、内部通信I/F1208、画像バス1212、ImageBusI/F1205を有する。ROM1203には、プログラムが格納されている。このプログラムとしては、例えば、画像形成装置101の各部や各手段等の作動(画像形成装置の制御方法)をCPU1201(コンピュータ)に実行させるためのプログラムがある。ハードディスクドライブ(HDD)1204には、システムソフトウェア、画像データ、ソフトウェアカウンタ値等が格納されている。コントローラ1200は、印刷やコピージョブ実行時の、ユーザ名、印刷部数、カラー印刷等、出力属性情報等をジョブ実行時の履歴を、ジョブログ情報としてHDD1204またはRAM1202に記録管理している。内部通信I/F1208は、スキャナ部10およびプリンタ部20と通信を行う。ImageBusI/F1205は、システムバス1207および画像バス1212を接続し、データ構造を変換するバスブリッジとして機能する。
The
また、コントローラ1200は、GPU1291を有する。GPU1291は、データをより多く並列処理することで効率的な演算を行うことができる。そのため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPU1291で処理を行うことが有効である。本実施形態では、後述の機械学習部414による処理には、CPU1201に加えてGPU1291を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU1201とGPU1291とが協働して演算を行うことで学習を行う。なお、機械学習部414の処理は、CPU1201またはGPU1291のみにより行われてもよい。また、後述の推定処理部(推定処理手段)405の処理についても、機械学習部414と同様に、GPU1291を用いてもよい。
Also, the
<機械学習サーバのハードウェア構成>
図3は、機械学習サーバのハードウェア構成を示すブロック図である。図3に示すように、機械学習サーバ102は、CPU1301、RAM1302、ROM1303、HDD(ハードディスクドライブ)1304、ネットワーク部1310、IO部1305、GPU1306を有する。また、これらは、システムバス1207を介して互いに接続されている。CPU1301は、OS(Operating System)やアプリケーションソフト等のプログラムをHDD1304から読み出して実行することで、種々の機能を提供する。RAM1302は、CPU1301がプログラムを実行する際のシステムワークメモリである。ROM1303は、BIOS(Basic Input Output System)やOSを起動するためのプログラム、設定ファイルが記憶されている。HDD1304は、ハードディスクドライブであって、システムソフトウェア等が記憶されている。ネットワーク部1310は、ネットワーク104に接続され、画像形成装置101等の外部機器と通信(送受信)を行う。IO部1305は、マルチタッチセンサ等を有する液晶ディスプレイ入出力デバイスとで操作部(図示せず)を構成する。そして、IO部1305は、操作部に対して、情報を入出力するインタフェースとして機能する。この操作部には、プログラムが指示する画面情報に基づいて、所定の解像度や色数等で所定の情報が描画される。例えば、操作部には、GUI(Graphical User Interface)画面が形成され、操作に必要な各種ウィンドウやデータ等が表示される。
<Hardware configuration of machine learning server>
FIG. 3 is a block diagram showing the hardware configuration of the machine learning server. As shown in FIG. 3, the
GPU1306は、データをより多く並列処理することで効率的な演算を行うことができる。そのため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPU1306で処理を行うことが有効である。本実施形態では、機械学習部414による処理には、CPU1301に加えてGPU1306を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU1301とGPU1306とが協働して演算を行うことで学習を行う。なお、機械学習部414の処理は、CPU1301またはGPU1306のみにより行われてもよい。また、推定処理部405の処理についても、機械学習部414と同様に、GPU1306を用いてもよい。ここで、画像形成装置101のGPU1291との使い分けについて説明する。画像形成システム1000では、ネットワーク104を介した通信やGPUの処理に要する負荷、画像形成装置101の省電力モード等に応じて、GPUの計算資源を有効活用がされるようになっている。例えば、画像形成装置101が省電力モードに移行する場合、優先的に(積極的に)機械学習サーバ102側のGPU1301が活用されるよう構成されている。
The
<画像形成システムのソフトウェア構成>
図4は、画像形成システムのソフトウェア構成を示すブロック図である。図4に示すソフトウェア構成400は、画像形成装置101を構成するハードウェア(図2参照)と、プログラムとを利用することにより実現される。ソフトウェア構成400を実現するためのプログラムは、その構成要素ごとにストレージに格納されており、RAMに読み出されて、CPUで実行されるものである。例えば、画像形成装置101では、プログラムは、HDD1204に格納されており、RAM1202に読み出されて、CPU1201で実行される。機械学習サーバ102やデータサーバ105についても同様である。ソフトウェア構成400は、画像形成システム1000において、画像形成装置101が読み取った学習データを用いて、グラフや表の有無を推定処理する機能を実現可能にするためのものである。
<Software Configuration of Image Forming System>
FIG. 4 is a block diagram showing the software configuration of the image forming system. A
図4に示すように、画像形成装置101のソフトウェアは、UI表示部(表示手段)401、データ記憶部(記憶手段)402、JOB制御部403、画像読取部404、推定処理部405で構成される。データ記憶部402は、画像形成装置101のRAM1202やHDD1204に対して、画像データ、学習データ、学習モデル等の各種のデータの記録を行わせる機能的役割を有する。JOB制御部403は、画像形成装置101の操作部140を介したユーザの指示に基づいて、コピー、ファックス、プリント等の画像形成装置101の基本機能の実行を中心的に行う機能的役割を有する。なお、JOB制御部403は、基本機能の実行の他に、当該基本機能の実行に伴う他のソフト構成要素間の指示、データの送受信等も中心的に行う機能的役割を有する。UI表示部401は、操作部140が有する画面に対して、ユーザへのメッセージを通知するための通知画面を表示させる機能的役割を有している。メッセージとしては、例えば、ユーザからの操作設定の受け付け、その操作受付画面の提供、推定処理部405による推定結果等が挙げられる。画像読取部404は、JOB制御部403の指示に基づいてコピーやスキャンを実行する制御を行う場合に、スキャナ部10により原稿を光学的に読み取らせる機能的役割を有する。推定処理部405は、画像形成装置101のCPU1201やGPU1291により実行される。推定処理部405は、画像形成装置101が入出力を行うデータに対して、AI機能を実現するための推定処理や分類処理等を行う機能的役割を有する。この推定処理は、JOB制御部403の指示に基づいて行われる。また、推定処理部405の結果は、JOB制御部403に送信されて、UI表示部401にメッセージとして表示される。これにより、ユーザは、推定処理部405の結果を把握することができる。
As shown in FIG. 4, the software of the
データサーバ105のソフトウェアは、データ収集・提供部410、データ記憶部412で構成される。データ収集・提供部410は、機械学習サーバ102において機械学習するための学習データの収集と提供とを行う機能的役割を有する。具体的には、画像形成システム1000では、画像形成装置101が操作された操作情報を含む学習データが画像形成装置101から送信される。データ収集・提供部410は、画像形成装置101からの学習データを受信して、当該学習データを機械学習サーバ102に提供する。また、収集先は、画像形成装置101以外の他の画像形成装置、汎用コンピュータ103、データサーバ105以外の他のデータサーバであってもよい。これにより、目的の機械学習をさせるために必要なデータの収集が可能となる。データ記憶部412は、データ収集・提供部410で収集した学習データの記録管理を行う機能的役割を有する。
The software of the
機械学習サーバ102のソフトウェアは、学習データ生成部413、機械学習部414、データ記憶部415で構成される。学習データ生成部413は、データサーバ105から学習データを含む種々のデータを受信する。そして、学習データ生成部413は、このデータに対し、機械学習のノイズになる不要なデータの除去を行う等の効果的学習結果が得られる形に加工する。このように、学習データ生成部413は、学習データの最適化を行う機能的役割を有する。学習データ生成部413は、機械学習サーバ102のCPU1301により実行される。データ記憶部415は、データサーバ105から受信したデータ、学習データ生成部413で生成された学習データ、機械学習部414における学習済みモデルを、機械学習サーバ102のRAM1302やHDD1304に一時的に記録させる。機械学習部414は、学習データ生成部413で生成された学習データを入力データとして、機械学習サーバ102のハードウェアリソースであるGPU1306やCPU1301と、図5A(図5Bも同様)に示す学習モデルWを活用して機械学習を行う。
The software of the
<学習モデル>
図5A、図5Bおよび図5Cは、それぞれ、学習モデルにおける入出力の構造を示す概念図である。前述したように、スキャナ部10により、原稿が読み取られる。そして、図5Aに示す学習モデルWは、後述の学習工程を経て調整されて学習済みモデルとなり、スキャナ部10で読み取られた原稿(原稿データA)内の図表領域を推定するための機械学習が行われる。図表領域としては、グラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方が含まれる。また、学習モデルWは、例えば、誤差逆伝搬法等によりパラメータが調整されたニューラルネットワークを用いた学習モデルである。これにより、学習モデルWは、例えば、学習するための特徴量、重み(結合重み付け係数)等の各種パラメータを自ら生成するディープラーニング(深層学習)を行うことができる。なお、機械学習としては、ディープラーニングに限定されず、例えば、サポートベクターマシン、ロジスティクス回帰、決定木、最近傍法、ナイーブベイズ法等の任意の機械学習アルゴリズムを用いた機械学習であってもよい。また、学習モデルWは、ニューラルネットワーク以外を用いたモデルであってもよい。
<Learning model>
5A, 5B, and 5C are conceptual diagrams showing input/output structures in the learning model, respectively. As described above, the document is read by the
学習モデルW(学習済みモデル)は、図表領域であるグラフ領域や表領域の推定対象となる原稿、すなわち、原稿データA内のグラフや表に関する情報を入力データとする。この入力データとしては、例えば本実施形態では、図5Aに示すように、グラフ関しては、データ要素X0、軸X1、図番号X2、タイトルX3、凡例X4、目盛り線X5、本文X6が挙げられる。図5Bに示すように、表に関しては、データ要素X10、表番号X11、セルX12、罫線X13、行X14、列X15、本文X16が挙げられる。 The learning model W (learned model) uses, as input data, a manuscript to be estimated for a graph area or a table area, that is, information about a graph or a table in the manuscript data A. FIG. For example, in this embodiment, as shown in FIG. 5A, the input data includes data element X0, axis X1, figure number X2, title X3, legend X4, scale line X5, and text X6. . As shown in FIG. 5B, the table includes data element X10, table number X11, cell X12, ruled line X13, row X14, column X15, and text X16.
データ要素X0は、グラフ自体であり、本実施形態では、グラフ領域には、複数のグラフが含まれている。例えば、図5Aでは、2月分のグラフとして、3本の棒グラフがあり、3月分のグラフとして、3本の棒グラフがあり、4月分のグラフとして、3本の棒グラフがある。また、原稿(原稿データA)では、少なくともグラフがカラー印刷されている。この場合、各月の3本の棒グラフは、それぞれ、異なる色が施されている。また、各月の左側に位置する棒グラフ同士、中央に位置する棒グラフ同士、右側に位置する棒グラフ同士は、それぞれ、同じ色が施されている。例えば、各月の左側に位置する棒グラフ同士は、青色、中央に位置する棒グラフ同士は、赤色、右側に位置する棒グラフ同士は、グレー色が施されている。軸X1は、縦軸や横軸である。また、軸X1には、各軸が何を表すかのラベル、各軸の単位等も含まれていてもよい。図番号X2は、グラフの通し番号、グラフの名称である。タイトルX3は、グラフの名称である。凡例X4は、各グラフが何を表すグラフであるのかを説明する項目である。図5Aでは、凡例X4は、各月の3本の棒グラフがそれぞれ何を表すグラフであるのかを説明しており、左側のグラフが「a」、中央のグラフが「b」、右側のグラフが「c」であることを表している。目盛り線X5は、グラフの量を示す目盛り線である。本文X6は、名詞「グラフ」が含まれる文章である。 Data element X0 is the graph itself, and in this embodiment the graph area contains multiple graphs. For example, in FIG. 5A, there are three bar graphs for February, three bar graphs for March, and three bar graphs for April. Also, in the manuscript (manuscript data A), at least the graph is printed in color. In this case, the three bar graphs for each month are colored differently. The bar graphs positioned on the left side of each month, the bar graphs positioned in the center, and the bar graphs positioned on the right side of each month are colored in the same color. For example, the bar graphs positioned on the left side of each month are colored blue, the bar graphs positioned in the center are colored red, and the bar graphs positioned on the right side are colored gray. Axis X1 is a vertical axis or a horizontal axis. Axis X1 may also include a label indicating what each axis represents, a unit for each axis, and the like. The figure number X2 is the serial number of the graph and the name of the graph. Title X3 is the name of the graph. The legend X4 is an item explaining what each graph represents. In FIG. 5A, the legend X4 explains what each of the three bar graphs for each month represents. It represents that it is "c". A scale line X5 is a scale line indicating the amount of the graph. Text X6 is a sentence that includes the noun "graph".
データ要素X10は、表自体であり、表領域には、本実施形態では1つの表が含まれているが、これに限定されず、複数の表が含まれていてもよい。また、表は、グラフ同様にカラー印刷で表示されている。この場合、複数のセルX12に色が施されている。セルX12は、表のデータ要素を表す要素である。2月の「e」、3月の「h」および4月の「h」の各セルX12と、2月の「g」、3月の「f」および4月の「e」の各セルX12とは、互いに異なる色が施されている。例えば、2月の「e」、3月の「h」、4月の「h」の各セルX12は橙色が施され、2月の「g」、3月の「f」、4月の「e」の各セルX12は緑色が施されている。図5B中、2月の「e」、3月の「h」、4月の「h」の各セルX12には、それぞれの月の最小出荷数が示され、2月の「g」、3月の「f」、4月の「e」の各セルX12には、最大出荷数が示されている。表番号X11は、表の通し番号および表の名称である。罫線X13は、表の各セルX12を構成する区切りを示す。行X14、列X15は、表のデータ要素を縦横に並べたものを示す。本文X16は、名詞「表」が含まれる文章である。 The data element X10 is the table itself, and the table area includes one table in this embodiment, but is not limited to this and may include multiple tables. Also, the table is displayed in color printing in the same manner as the graph. In this case, a plurality of cells X12 are colored. Cell X12 is an element representing a data element of the table. Each cell X12 of "e" in February, "h" in March and "h" in April, and each cell X12 of "g" in February, "f" in March and "e" in April are colored differently from each other. For example, each cell X12 of "e" in February, "h" in March, and "h" in April is colored orange, and "g" in February, "f" in March, and "h" in April. Each cell X12 of "e" is colored green. In FIG. 5B, each cell X12 of "e" in February, "h" in March, and "h" in April indicates the minimum number of shipments for each month, and "g" in February, 3 The maximum number of shipments is shown in each cell X12 of "f" for month and "e" for April. The table number X11 is the serial number of the table and the name of the table. A ruled line X13 indicates a break that constitutes each cell X12 of the table. Row X14 and column X15 indicate the data elements of the table arranged vertically and horizontally. Text X16 is a sentence that includes the noun "table".
また、学習モデルW(学習済みモデル)は、図表領域としてのグラフ領域や表領域の有無を出力データとする。出力データとしては、例えば本実施形態では、グラフや表が有る場合には「出力データY1」とし、グラフや表が無い場合には「出力データY2」とする。このような構成の学習モデルWにより、グラフ領域や表領域をより正確に推定することができる、すなわち、グラフ領域や表領域の推定正解率が向上する。そして、画像形成装置101の推定処理部405は、学習モデルW(学習済みモデル)を用いて、スキャナ部10で読み取られた原稿内のグラフ領域や表領域を推定することができる(推定処理工程)。
Also, the learning model W (learned model) uses the presence/absence of graph areas and table areas as figure/table areas as output data. For example, in this embodiment, the output data is "output data Y1" when there is a graph or table, and "output data Y2" when there is no graph or table. The learning model W having such a configuration enables more accurate estimation of the graph area and the table area, that is, the estimation accuracy rate of the graph area and the table area is improved. Using the learning model W (learned model), the
図5Cに示す構造では、学習モデルWは、「正解値が既知の入力データ」と「正解値」とをセットにした(組にした)学習データが多数用意されている(B1参照)。この学習モデルWは、誤差検出部と更新部とを有していてもよい。誤差検出部は、入力層に入力される入力データX(B2参照)に応じて、出力層から出力される出力データY(B3参照)を演算して、当該出力データY(B4参照)を出力する。そして、誤差検出部は、出力データYと教師データTとの誤差を得る。誤差検出部は、損失関数を用いて、出力データYと教師データTとの誤差を表す損失Lを計算する(B5参照)。更新部は、誤差検出部で得られた損失Lに基づいて、その損失が小さくなるように、ニューラルネットワーク(学習モデルW)のノード間の結合重み付け係数等を更新する(B6参照)。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を調整する方法である。 In the structure shown in FIG. 5C, the learning model W is prepared with a large number of learning data sets (sets) of "input data with known correct values" and "correct values" (see B1). This learning model W may have an error detector and an updater. The error detection unit calculates the output data Y (see B3) output from the output layer according to the input data X (see B2) input to the input layer, and outputs the output data Y (see B4). do. Then, the error detection section obtains the error between the output data Y and the teacher data T. FIG. The error detector uses a loss function to calculate a loss L representing the error between the output data Y and the teacher data T (see B5). Based on the loss L obtained by the error detection unit, the update unit updates the weighting coefficients for coupling between nodes of the neural network (learning model W) so as to reduce the loss (see B6). This updating unit updates the connection weighting coefficients and the like using, for example, the error backpropagation method. The error backpropagation method is a method of adjusting connection weighting coefficients and the like between nodes of a neural network so as to reduce the above error.
前述したように、学習モデルWは、「正解値が既知の入力データ」と「正解値」をセットにした学習データが多数用意されている。そして、学習モデルWでは、この正解値に対応する入力データXを入力した場合の出力データYが正解値に極力近づくように、学習モデルW内の重み付け係数が調整される。これにより、正解の精度の高い学習モデルWが得られる。このような学習モデルWを得る工程を「学習工程」と言い、学習工程を経て調整された学習モデルを「学習済みモデル」と言う。また、用意する教師データ、すなわち、「正解値が既知の入力データ」と「正解値」とのセットは、例えば、以下のようなものとすることができる。 As described above, the learning model W is prepared with a large number of learning data sets of "input data with known correct values" and "correct values". Then, in the learning model W, the weighting coefficients in the learning model W are adjusted so that the output data Y when inputting the input data X corresponding to this correct value approaches the correct value as much as possible. As a result, a learning model W with a high accuracy of correct answer is obtained. The process of obtaining such a learning model W is called a "learning process", and the learning model adjusted through the learning process is called a "learned model". Also, the training data to be prepared, that is, the set of "input data with known correct values" and "correct values" can be, for example, as follows.
正解値が既知の入力データX:グラフや表が存在する原稿のデータにおけるグラフや表に関する情報。この情報としては、特に限定されず、例えば、前述した軸X1、図番号X2、タイトルX3、凡例X4、目盛り線X5、本文X6等が挙げられる。
期待値(T):A(グラフや表あり)=1、B(グラフや表なし)=0
期待値(T)とは、「正解値が既知の入力データ」を入力した場合の「正解値」を示す出力データYの値である。期待値(T)は、グラフや表が有る場合には「出力データY1」とし、グラフや表が無い場合には「出力データY2」とする。各教師データTの入力データXを入力し算出された出力データYと、期待値(T)とを所定の損失関数に従って、損失Lを求める。本実施形態での損失関数は、「損失L=1-出力データYの推定確率」とする。この損失Lが0に近づくように、学習モデルWの各層間の重み付けを調整する。そして、この調整を行った学習モデルWを学習済みモデルとして、当該学習済みモデルを機械学習部414に実装する。
Input data X for which correct values are known: Information about graphs and tables in manuscript data in which graphs and tables exist. This information is not particularly limited, and includes, for example, the aforementioned axis X1, figure number X2, title X3, legend X4, scale line X5, text X6, and the like.
Expected value (T): A (with graphs and tables) = 1, B (without graphs and tables) = 0
The expected value (T) is the value of the output data Y indicating the "correct value" when "the input data whose correct value is known" is input. The expected value (T) is "output data Y1" when there is a graph or table, and "output data Y2" when there is no graph or table. A loss L is obtained from the output data Y calculated by inputting the input data X of each teacher data T and the expected value (T) according to a predetermined loss function. The loss function in this embodiment is assumed to be "loss L=1-estimated probability of output data Y". The weighting between each layer of the learning model W is adjusted so that the loss L approaches zero. Then, the adjusted learning model W is used as a learned model, and the learned model is implemented in the
<画像形成システムで行われる動作(処理の流れ)>
図6は、画像形成システムで行われる動作(処理の流れ)を説明するための図である。図6に示すように、画像形成システム1000では、動作I~動作Vが順に実行される。
I:画像形成装置101は、操作部140を介してユーザから原稿に対するスキャン動作を受け付けると、そのスキャン動作後に、機械学習サーバ102に対して、スキャンデータを送信する。また、画像形成装置101は、この送信とともに、スキャンデータに対するグラフ領域や表領域(図表領域)推定を要求する。
II:動作Iでグラフ領域や表領域推定が要求された機械学習サーバ102は、学習モデルにより、スキャンデータ内のグラフ領域や表領域の有無を推定する。なお、動作IIでは、画像形成装置101が機械学習サーバ102から学習モデルを受信して、当該学習モデルにより、スキャンデータ内のグラフ領域や表領域の有無を推定してもよい。
III:機械学習サーバ102は、動作IIで得られたグラフ領域や表領域の有無の推定結果を画像形成装置101に送信する。
IV:画像形成装置101は、動作IIIで機械学習サーバ102から送信された推定結果を有する原稿の中のグラフや表について、モノクロ印刷した場合に、そのグラフや表の識別性(視認性)を維持可能な修正例(サンプル画像)を操作部140に表示する。これにより、ユーザに対し、修正例を提案することができる。
V:画像形成装置101は、グラフや表を修正例どおりに修正する場合には、その修正例のデータを保存する。
<Operations (Processing Flow) Performed by the Image Forming System>
FIG. 6 is a diagram for explaining the operation (process flow) performed in the image forming system. As shown in FIG. 6, in the
I: When the
II: The
III: The
IV: When the
V: When the
図6に示す動作I~動作Vが順に実行されることにより、スキャンデータ内のグラフや表の有無を推定して、その結果、グラフや表が存在し、かつ、モノクロ印刷時にグラフや表の識別性が悪化する場合には、修正例をユーザに提案することができる。そして、修正例に基づいて、スキャンデータを修正することが可能となる。 By executing the operations I to V shown in FIG. 6 in order, the presence/absence of graphs and tables in the scan data is estimated. If the identifiability deteriorates, a correction example can be suggested to the user. Then, it becomes possible to correct the scan data based on the correction example.
<スキャナ部で読み取られる原稿の構成例(教師データの収集)>
図7Aは、スキャナ部で読み取られる原稿の構成例および推定結果(グラフ関係)を示す図である。図7B、スキャナ部で読み取られる原稿の構成例および推定結果(表関係)を示す図である。図8Aは、図7Aに対応させた表である。図8Bは、図7Bに対応させた表である。
<Example of composition of manuscript read by scanner unit (collection of training data)>
FIG. 7A is a diagram showing a configuration example of a document read by the scanner unit and an estimation result (graph relation). FIG. 7B is a diagram showing a configuration example of a document read by the scanner unit and an estimation result (table relationship); FIG. 8A is a table corresponding to FIG. 7A. FIG. 8B is a table corresponding to FIG. 7B.
図7A(a)に示す原稿は、矩形もしくは扇型のグラフ(図7A(a)では棒グラフ)を含むグラフ領域が画像として形成された原稿である。図7A(a-1)、図8Aに示すように、図7A(a)に示す原稿では、入力データXとして、データ要素X0、軸X1、タイトルX3、凡例X4、目盛り線X5、本文X6が有り、図番号X2が無い。 The document shown in FIG. 7A(a) is a document in which a graph area including a rectangular or fan-shaped graph (a bar graph in FIG. 7A(a)) is formed as an image. As shown in FIGS. 7A(a-1) and 8A, in the manuscript shown in FIG. 7A(a), input data X includes data element X0, axis X1, title X3, legend X4, scale line X5, and text X6. Yes, but no figure number X2.
図7A(b)に示す原稿は、矩形もしくは扇型のグラフ(図7A(b)では円グラフ)を含むグラフ領域が画像として形成された原稿である。図7A(b-1)、図8Aに示すように、図7A(b)に示す原稿では、入力データXとして、データ要素X0、図番号X2、タイトルX3、凡例X4が有り、軸X1、目盛り線X5、本文X6が無い。 The document shown in FIG. 7A(b) is a document in which a graph area including a rectangular or fan-shaped graph (circular graph in FIG. 7A(b)) is formed as an image. As shown in FIGS. 7A(b-1) and 8A, in the document shown in FIG. 7A(b), input data X includes data element X0, figure number X2, title X3, legend X4, axis X1, scale There is no line X5 and text X6.
図7A(c)に示す原稿は、矩形もしくは扇型ではないグラフ(図7A(c)では折れ線グラフ)を含むグラフ領域が画像として形成された原稿である。図7A(c-1)、図8Aに示すように、図7A(c)に示す原稿では、入力データXとして、データ要素X0、軸X1、タイトルX3~目盛り線X5が有り、図番号X2、本文X6が無い。 The document shown in FIG. 7A(c) is a document in which a graph area including a non-rectangular or fan-shaped graph (line graph in FIG. 7A(c)) is formed as an image. As shown in FIGS. 7A(c-1) and 8A, in the document shown in FIG. 7A(c), there are data element X0, axis X1, title X3 to scale line X5 as input data X, and figure numbers X2, There is no text X6.
図7A(d)に示す原稿は、矩形もしくは扇型でないグラフ(図7A(d)では3D折れ線グラフ)を含むグラフ領域が画像として形成された原稿である。図7A(d-1)、図8Aに示すように、図7A(d)に示す原稿では、入力データXとして、データ要素X0~目盛り線X5が有り、本文X6が無い。 The document shown in FIG. 7A(d) is a document in which a graph area including a non-rectangular or fan-shaped graph (a 3D line graph in FIG. 7A(d)) is formed as an image. As shown in FIGS. 7A(d-1) and 8A, in the document shown in FIG. 7A(d), the input data X includes the data elements X0 to the scale line X5 and does not include the text X6.
図7A(e)に示す原稿は、グラフではない矩形もしくは扇型の図形を含む領域が画像として形成された原稿である。図7A(e-1)、図8Aに示すように、図7A(e)に示す原稿では、入力データXとして、データ要素X0~本文X6の全てが無い。 The document shown in FIG. 7A(e) is a document in which an area including a rectangular or fan-shaped figure that is not a graph is formed as an image. As shown in FIGS. 7A(e-1) and 8A, in the document shown in FIG. 7A(e), as the input data X, all of the data elements X0 to X6 are absent.
図7A(f)に示す原稿は、矩形もしくは扇型でないグラフ(図7A(f)では円環グラフ)を含むグラフ領域が画像として形成された原稿である。図7A(f-1)、図8Aに示すように、図7A(f)に示す原稿では、入力データXとして、凡例X4が有り、データ要素X0~タイトルX3、目盛り線X5、本文X6が無い。 The document shown in FIG. 7A(f) is a document in which a graph area including a non-rectangular or fan-shaped graph (an annular graph in FIG. 7A(f)) is formed as an image. As shown in FIGS. 7A(f-1) and 8A, the manuscript shown in FIG. 7A(f) has legend X4 as input data X, and does not have data elements X0 to title X3, scale lines X5, and text X6. .
図7B(g)に示す原稿は、表(図7B(g)では全てのセルに罫線を含む表)を含む表領域が画像として形成された原稿である。図7B(g-1)、図8Aに示すように、図7B(g)に示す原稿では、入力データXとして、データ要素X10、表番号X11、セルX12、罫線X13、行X14、列X15が有り、本文X16が無い。 The document shown in FIG. 7B(g) is a document in which a table area including a table (in FIG. 7B(g), a table including ruled lines in all cells) is formed as an image. As shown in FIGS. 7B(g-1) and 8A, in the document shown in FIG. 7B(g), the input data X includes data element X10, table number X11, cell X12, ruled line X13, row X14, and column X15. Yes, but no text X16.
図7B(h)に示す原稿は、表(図7B(h)ではセルの罫線の一部が無い表)を含む表領域が画像として形成された原稿である。図7B(h-1)、図8Aに示すように、図7B(h)に示す原稿では、入力データXとして、データ要素X10、セルX12、罫線X13、行X14、列X15が有り、表番号X11、本文X16が無い。 The document shown in FIG. 7B(h) is a document in which a table area including a table (in FIG. 7B(h), a table without some of the cell ruled lines) is formed as an image. As shown in FIG. 7B(h-1) and FIG. 8A, in the document shown in FIG. 7B(h), input data X includes data element X10, cell X12, ruled line X13, row X14, and column X15. There is no X11 and text X16.
例えば学習モデルが未学習状態である場合の推定処理について説明する。ここで、「未学習状態」とは、学習が全く行われていない初期状態の他、学習が行われてはいるものの、不十分である状態も含む。この場合、学習モデルは、データ要素X0として、棒グラフ、円グラフ、折れ線グラフのみ学習した状態となっている。 For example, an estimation process when the learning model is in an unlearned state will be described. Here, the "unlearned state" includes not only an initial state in which learning is not performed at all, but also a state in which learning is performed but is insufficient. In this case, the learning model is in a state where only bar graphs, pie charts, and line graphs have been learned as the data element X0.
図7A(a)に示す原稿の場合、データ要素X0については、学習済みであり、他の入力データXについても、「グラフ領域有り」と推定できる程度に十分に揃っている。従って、図7A(a)に示す原稿に対しては、「グラフ領域有り」と推定することができる。図8Aに示すように、この推定結果は、教師データTとなる、すなわち、期待値(T)として「T1=1、T2=0」となる。 In the case of the manuscript shown in FIG. 7A(a), the data element X0 has already been learned, and the other input data X are sufficiently complete to be able to estimate that "there is a graph area". Therefore, it can be estimated that "there is a graph area" for the document shown in FIG. 7A(a). As shown in FIG. 8A, this estimation result becomes teacher data T, that is, "T1=1, T2=0" as the expected value (T).
図7A(b)に示す原稿の場合、データ要素X0については、学習済みであるが、他の入力データXについては、グラフ領域を推定できる程度には、不十分である。従って、図7A(b)に示す原稿に対しては、「グラフ領域無し」と推定されてしまう。そこで、このような場合には、ユーザが「グラフ領域有り」と訂正して、学習済みモデルを更新する。これにより、図7A(b)に示す原稿に対しては、「グラフ領域有り」と正確に推定することができる。図8Aに示すように、この推定結果は、「T1=1、T2=0」の教師データTとなる。 In the case of the manuscript shown in FIG. 7A(b), the data element X0 has been learned, but the other input data X is insufficient to estimate the graph area. Therefore, the manuscript shown in FIG. 7A(b) is estimated to have "no graph area". Therefore, in such a case, the user corrects "there is a graph area" and updates the learned model. As a result, it can be accurately estimated that "there is a graph area" for the document shown in FIG. 7A(b). As shown in FIG. 8A, this estimation result becomes teacher data T of "T1=1, T2=0".
図7A(c)に示す原稿の場合、図7A(a)に示す原稿の場合と同様に、「グラフ領域有り」と推定される。図8Aに示すように、この推定結果は、「T1=1、T2=0」の教師データTとなる。 In the case of the document shown in FIG. 7A(c), it is estimated that "there is a graph area" as in the case of the document shown in FIG. 7A(a). As shown in FIG. 8A, this estimation result becomes teacher data T of "T1=1, T2=0".
図7A(d)に示す原稿の場合、データ要素X0については、全くの学習されていないが、他の入力データXについては、「グラフ領域有り」と推定できる程度に十分に揃っている。従って、図7A(d)に示す原稿に対しては、「グラフ領域有り」と推定することができる。図8Aに示すように、この推定結果は、「T1=1、T2=0」の教師データTとなる。このように未学習のグラフについても、グラフ領域が有る原稿については、正しく推定可能である。 In the case of the manuscript shown in FIG. 7A(d), the data element X0 has not been learned at all, but the other input data X are sufficiently prepared so that it can be estimated that "there is a graph area". Therefore, it can be estimated that "there is a graph area" for the document shown in FIG. 7A(d). As shown in FIG. 8A, this estimation result becomes teacher data T of "T1=1, T2=0". As described above, even unlearned graphs can be correctly estimated for a manuscript having a graph area.
図7A(e)に示す原稿の場合、当該原稿内の図形がデータ要素X0に近似する形状を有するものの、入力データXとして、軸X1~本文X6の全てが無い。従って、図7A(e)に示す原稿に対しては、「グラフ領域無し」と推定される。図8Aに示すように、この推定結果は、教師データTとなる、すなわち、期待値(T)として「T1=0、T2=1」となる。また、前記特許文献1に記載の画像形成装置では、図7A(e)に示す原稿に対しては、「グラフ領域有り」と誤判定してしまう。
In the case of the manuscript shown in FIG. 7A(e), although the figure in the manuscript has a shape similar to the data element X0, the input data X does not have all of the axis X1 to the text X6. Therefore, the manuscript shown in FIG. 7A(e) is presumed to have "no graph area". As shown in FIG. 8A, this estimation result becomes teacher data T, that is, "T1=0, T2=1" as the expected value (T). Further, in the image forming apparatus described in
図7A(f)に示す原稿の場合、データ要素X0については、全くの学習されておらず、他の入力データXについては、凡例X4が有るのみである。従って、図7A(f)に示す原稿に対しては、「グラフ領域無し」と推定されてしまう。このような場合には、図7A(b)に示す原稿の場合と同様に、ユーザが「グラフ領域有り」と訂正して、学習済みモデルを更新する。これにより、図7A(f)に示す原稿に対しては、「グラフ領域有り」と正確に推定することができる。図8Aに示すように、この推定結果は、「T1=1、T2=0」の教師データTとなる。 In the case of the document shown in FIG. 7A(f), the data element X0 has not been learned at all, and the other input data X has only the legend X4. Therefore, the manuscript shown in FIG. 7A(f) is estimated to have "no graph area". In such a case, as in the case of the manuscript shown in FIG. 7A(b), the user corrects "there is a graph area" and updates the learned model. As a result, it can be accurately estimated that "there is a graph area" for the document shown in FIG. 7A(f). As shown in FIG. 8A, this estimation result becomes teacher data T of "T1=1, T2=0".
図7B(g)に示す原稿の場合、データ要素X10については、学習済みであり、他の入力データXについても、「表領域有り」と推定する程度に十分に揃っている。図8Aに示すように、この推定結果は、教師データTとなる、すなわち、期待値(T)として「T1=1、T2=0」となる。 In the case of the manuscript shown in FIG. 7B(g), the data element X10 has already been learned, and the other input data X are sufficiently prepared to be estimated as "with table area". As shown in FIG. 8A, this estimation result becomes teacher data T, that is, "T1=1, T2=0" as the expected value (T).
図7B(h)に示す原稿の場合、データ要素X10については、学習済みであるが、他の入力データXのうち、例えば表番号X11や罫線X13が不十分であるが、「表領域有り」と推定できる程度には十分に揃っている。従って、図7B(h)に示す原稿に対しては、「表領域有り」と推定することができる。このように、既に学習した表と多少要素が異なる表についても、表領域を正しく推定可能である。 In the case of the document shown in FIG. 7B(h), the data element X10 has already been learned, but among the other input data X, for example, the table number X11 and the ruled line X13 are insufficient. It is sufficient enough to be estimated. Therefore, it can be estimated that the document shown in FIG. 7B(h) has "a front area". In this way, it is possible to correctly estimate the table area even for a table whose elements are slightly different from the already learned table.
以上のように、未学習のデータ要素X0についても、その他の入力データXが十分に存在していれば、グラフ領域や表領域を正確に推定することができる。また、既に学習しているデータ要素X0でも、その他の入力データXが不十分の場合には、グラフ領域や表領域を誤推定してしまうおそれがある。しかしながら、画像形成装置101では、誤推定の結果を訂正することにより、学習モデルを更新して、グラフ領域や表領域の有無推定の精度を向上させることができる。このように、画像形成装置101によれば、原稿内にグラフや表が存在している場合、当該グラフや表の種類に関わらず、グラフや表の存在を高精度に推定することができる。
As described above, even for an unlearned data element X0, if enough other input data X exist, the graph area or table area can be accurately estimated. Moreover, even with the data element X0 that has already been learned, if the other input data X is insufficient, there is a risk that the graph area or the table area will be erroneously estimated. However, in the
<スキャン系のジョブの流れ>
図9は、スキャン系のジョブの流れを示すフローチャートである。なお、「スキャン系のジョブ」とは、コピーやスキャンBOX等のスキャナを用いたジョブ全般のことである。
<Flow of scan-related jobs>
FIG. 9 is a flow chart showing the flow of a scan-related job. Note that the “scan-related jobs” refer to all jobs using a scanner, such as copying and scanning BOX.
ステップS1101では、JOB制御部403は、ユーザからスキャン系のジョブの開始を操作部140が受け付けたか否かを判断する。ステップS1101での判断の結果、JOB制御部403が、ジョブの開始を操作部140が受け付けたと判断した場合には、処理はステップS1102に進む。一方、ステップS1101での判断の結果、JOB制御部403は、ジョブの開始を操作部140が受け付けていないと判断した場合には、ジョブの開始を操作部140が受け付けるまで待機する。
In step S1101, the
ステップS1102では、JOB制御部403は、スキャナ部10(画像読取部404)を作動させて、当該スキャナ部10に原稿(以下この原稿を「1次原稿」と言う)を読み取らせる。1次原稿は、ADF(Automatic Document Feeder)または原稿台ガラス(いずれも図示せず)に載置された状態で、スキャナ部10に読み取られる。
In step S1102, the
ステップS1103では、JOB制御部403は、スキャナ部10が全ての原稿の読み取りが終了したか否かを判断する。ステップS1103での判断の結果、JOB制御部403が、原稿の読み取りが終了したと判断した場合には、処理はステップS1104に進む。一方、ステップS1103での判断の結果、JOB制御部403が、原稿の読み取りが終了していないと判断した場合には、全ての原稿の読み取りが終了するまで、その処理を実行する。
In step S1103, the
ステップS1104では、JOB制御部403は、ステップS1103で読み取った1次原稿のデータをデータ記憶部402に保存する。
In step S1104, the
ステップS1105では、JOB制御部403は、機械学習サーバ102の機械学習部414を作動させて、当該機械学習部414に学習処理を行わせる。ステップS1105は、サブルーチンであり、これについては、図10に示す学習フェーズのフローチャートを参照して後述する。
In step S1105, the
ステップS1106では、JOB制御部403は、推定処理部405を作動させて、当該推定処理部405に、グラフ領域や表領域を推定する推定処理を行わせる。ステップS1106は、サブルーチンであり、これについては、図10に示す推定フェーズのフローチャートを参照して後述する。
In step S1106, the
ステップS1107では、JOB制御部403は、読み取り後の処理を実行して、処理が終了する。読み取り後の処理としては、例えば、推定処理の結果を反映させた原稿(以下この原稿を「2次原稿」と言う)の印刷や、2次原稿のデータの保存等が挙げられる。なお、2次原稿の印刷は、プリンタ部20で行われる。また、2次原稿のデータの保存は、データ記憶部402で行われる。
In step S1107, the
<機械学習部および推定処理部の処理の流れ>
図10は、機械学習部および推定処理部の処理の流れを示すフローチャートである。図10中、ステップS901~ステップS906が学習フェーズで行われる機械学習部の処理であり、ステップS907~ステップS912が推定フェーズで行われる推定処理部の処理である。機械学習部414は、学習データが更新されたか否かを一定期間毎に確認する。そして、機械学習部414は、学習データが更新されていると判断したタイミングで、学習フェーズを開始する。
<Processing Flow of Machine Learning Unit and Estimation Processing Unit>
FIG. 10 is a flow chart showing the processing flow of the machine learning unit and the estimation processing unit. In FIG. 10, steps S901 to S906 are the processing of the machine learning unit performed in the learning phase, and steps S907 to S912 are the processing of the estimation processing unit performed in the estimation phase. The
ステップS901では、機械学習部414は、学習データ生成部413を介して、学習データを受信する。学習データとは、前述した原稿データAである。
In step S<b>901 , the
ステップS902では、機械学習部414は、ステップS901で受信した原稿データAの入力データXが学習モデルWに入力されて、当該学習モデルWで機械学習が行われる。
In step S902, the
ステップS903では、機械学習部414は、機械学習が終了したか否かを判断する。ステップS903での判断の結果、機械学習部414が、機械学習が終了したと判断した場合には、処理はステップS904に進む。一方、ステップS903での判断の結果、機械学習部414が、機械学習が終了していないと判断した場合には、ステップS902の実行を継続する。
In step S903, the
ステップS904では、機械学習部414は、学習済みモデルの更新を推定処理部405に通知する。
In step S904, the
ステップS905では、機械学習部414は、推定処理部405からの学習済みモデルの送信要求の有無を判断する。ステップS905での判断の結果、機械学習部414が、学習済みモデルの送信要求が有ったと判断した場合には、処理はステップS906に進む。一方、ステップS905での判断の結果、機械学習部414が、学習済みモデルの送信要求が無いと判断した場合には、処理はステップS905に戻り、推定処理部405からの送信要求を待つ。
In step S<b>905 , the
ステップS906では、機械学習部414は、学習済みモデルを推定処理部405に送信する。
In step S<b>906 , the
ステップS907では、推定処理部405は、JOB制御部403がユーザからのスキャン系のジョブを受け付けたか否かを判断する。このスキャン系のジョブは、1次原稿の読み取りである。ここでの1次原稿は、一例として、図7A(a)に示す原稿ものとする。ステップS907での判断の結果、推定処理部405が、JOB制御部403がスキャン系のジョブを受け付けたと判断した場合には、処理はステップS908に進む。一方、ステップS907での判断の結果、推定処理部405は、JOB制御部403がスキャン系のジョブを受け付けていないと判断した場合には、JOB制御部403がスキャン系のジョブを受け付けるまで待機する。
In step S907, the
ステップS908では、推定処理部405は、JOB制御部403を介して、機械学習部414へ学習済みモデルの送信要求を行い、学習済みモデルを受信する。
In step S908, the
ステップS909では、JOB制御部403は、ステップS907でスキャン系のジョブが有った判断された1次原稿がカラースキャンされたか否かを判断する。ステップS909での判断の結果、JOB制御部403が、1次原稿がカラースキャンされたと判断した場合には、処理はステップS910に進む。一方、ステップS909での判断の結果、JOB制御部403が、1次原稿がカラースキャンされていないと判断した場合には、処理は終了する。
In step S909, the
ステップS910では、推定処理部405は、カラースキャンされた1次原稿内のグラフ領域や表領域、すなわち、図表領域を学習済みモデルを用いて推定する。なお、ステップS910で1次原稿内にグラフ領域や表領域が無いと推定された場合には、処理は終了となる。
In step S910, the
ステップS911では、推定処理部405は、グラフ領域内の各棒グラフ(データ要素X0)や表領域内のデータ要素X10を公知の画像処理によって抽出する。そして、推定処理部405は、グラフ領域内の当該各棒グラフについて、塗りつぶしパターンが同じ、すなわち、単色が施されているか否かを判断する。また、推定処理部405は、表領域内の当該データ要素X10について、塗りつぶしパターンが同じ、すなわち、単色が施されているか否かを判断する。ステップS911での判断の結果、推定処理部405が、塗りつぶしパターンが同じと判断した場合には、処理はステップS912に進む。一方、ステップS911での判断の結果、推定処理部405が、塗りつぶしパターンが同じではないと判断した場合には、処理は終了する。塗りつぶしパターンが同じではない場合には、1次原稿をモノクロ印刷で印刷して2次原稿を得たとしても、当該2次原稿での各棒グラフ同士の識別性(視認性)は、カラー印刷の1次原稿での各棒グラフ同士の識別性(視認性)とほぼ同等に維持されている。
In step S911, the
推定処理部405は、各棒グラフや表の視認性を変更することができる。このグラフや表の視認性の変更には、少なくとも色の変更、濃淡の変更、ハッチングの変更のうちの少なくとも1つが含まれ、これらを組み合わせるのが好ましい。また、推定処理部405は、棒グラフや表のセルごとに視認性を異ならせることができる。例えば、図7A(a-2)に示すように、各月の左側に位置する棒グラフ同士は、ドットが施され、右側に位置する棒グラフ同士は、左側に位置する棒グラフよりも密度が高いドットが施され、中央に位置する棒グラフ同士は、中間密度のドットが施されている。これにより、塗りつぶしパターンが同じ場合に、1次原稿をモノクロ印刷で印刷して2次原稿を得たとしても、当該2次原稿での各棒グラフ同士の識別性は、カラー印刷の1次原稿での各棒グラフ同士の識別性とほぼ同等に維持される。なお、図7A(b-2)に示すように、円グラフでは、当該円グラフを構成する各扇型の部分に、密度が互いに異なるドットが施されている。図7A(c-2)に示すように、折れ線グラフでは、各折れ線グラフが異なる線で表されている。その線としては、特に限定されず、例えば、実線、破線、一点鎖線、二点鎖線等を用いることができる。図7A(d-2)に示すように、3D折れ線グラフでは、各3D折れ線グラフに、密度が互いに異なるドットが施されている。図7A(f-2)に示すように、円環グラフでは、当該円環グラフを構成する各円弧状の部分に、密度が互いに異なるドットが施されている。
The
そして、ステップS912では、推定処理部405は、JOB制御部403を介して、UI表示部401(操作部140)に、グラフや表の識別性(視認性)が変更された状態の図表領域のサンプル画像を修正候補として表示させることができる(図11参照)。また、UI表示部401は、この修正候補(サンプル画像)に並べて、グラフの視認性が変更される前の状態(1次原稿のスキャンデータ)のグラフ領域や表領域を表示することもできる。図11は、UI表示部での表示例を示す図である。図11に示すように、UI表示部401には、左側に配置された1次原稿(スキャンデータ)のグラフ領域と、右側に配置された識別性変更後(修正候補)のグラフ領域とが表示される。これにより、ユーザは、双方のグラフ領域を比較して(見比べて)、修正候補における棒グラフの識別性の良否を判断することができる。
Then, in step S912, the
また、図11に示すように、UI表示部401には、「修正候補に修正する」用のボタンと、「修正しない」用のボタンと、「手動で修正する」用のボタンとが表示させてもよい。ユーザが「修正候補に修正する」用のボタンを操作した場合には、UI表示部401は、スキャナ部10で読み取られた1次原稿のデータに対し、当該1次原稿のグラフ領域を、修正候補に置き換える決定を実行する。そして、この決定が実行された場合には、プリンタ部20は、修正候補を含む画像が形成された2次原稿をモノクロ印刷で印刷する。これにより、モノクロ印刷の2次原稿のグラフでも、カラー印刷の1次原稿のグラフと同程度の識別性が維持される。また、データ記憶部402は、修正候補に置き換える決定が実行された場合に、修正候補を含む画像が形成された2次原稿のデータを記憶可能である。これにより、ユーザは、任意のタイミングで、2次原稿を印刷することができる。ユーザが「修正しない」用のボタンを操作した場合には、上記の印刷や記憶は実行されない。また、ユーザが「手動で修正する」用のボタンを操作した場合には、ユーザは、各グラフに対して所望の視認性の変更を行うことができる。
Further, as shown in FIG. 11, the
なお、「修正候補に修正する」用のボタンが操作された際に、ステップS910での推定結果に関する情報を教師データとして学習モデルにフィードバックしてもよい。この場合、ステップS910での推定結果が正解であったことを意味する。そして、このフィードバックにより、学習モデルは、推定正解率を向上させることができる。フィードバックのタイミングとしては、特に限定されず、例えば、「修正候補に修正する」用のボタンの操作時とすることができる。フィードバックされる推定結果に関する情報としては、特に限定されず、例えば、入力データX等とすることができる。このようなグラフに関するUI表示部401上での処理は、表に関しても同様とすることができる。
It should be noted that information regarding the estimation result in step S910 may be fed back to the learning model as teacher data when the button for "correct to correction candidate" is operated. In this case, it means that the estimation result in step S910 was correct. This feedback allows the learning model to improve its estimated accuracy rate. The timing of the feedback is not particularly limited, and can be, for example, when the button for "correct to correction candidate" is operated. Information relating to the estimation result to be fed back is not particularly limited, and may be input data X or the like, for example. The processing on the
また、本実施形態では、1次原稿がカラー印刷の原稿であり、2次原稿がモノクロ印刷の原稿であったが、これに限定されない。例えば、1次原稿がカラー印刷の原稿であり、2次原稿もカラー印刷の原稿であってもよい。この場合、例えば、赤系統や緑系統の色の識別に困難が生じる色覚異常を有する人に対して、2次原稿でグラフや表の色を変更することにより、色の識別困難性を解消させることができる。また、1次原稿がモノクロ印刷の原稿であり、2次原稿もモノクロ印刷の原稿であってもよい。この場合、モノクロ印刷であるために1次原稿で識別が困難であったグラフや表に対して、2次原稿で各グラフや表のハッチング等を変更することにより、各グラフや表の識別性を向上させることができる。 Further, in the present embodiment, the primary document is a color-printed document and the secondary document is a monochrome-printed document, but the present invention is not limited to this. For example, the primary document may be a color printed document, and the secondary document may also be a color printed document. In this case, for example, for a person with color blindness who has difficulty in distinguishing between red and green colors, the difficulty in distinguishing colors can be resolved by changing the colors of the graphs and tables in the secondary manuscript. be able to. Also, the primary document may be a monochrome printed document, and the secondary document may also be a monochrome printed document. In this case, for graphs and tables that were difficult to identify in the primary manuscript due to monochrome printing, by changing the hatching of each graph and table in the secondary manuscript, each graph and table can be distinguished. can be improved.
本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(構成1) 画像を形成する画像形成装置であって、
原稿を読み取る読取手段と、
原稿内のグラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方の図表領域を推定するための機械学習が行われた学習済みモデルを用いて、前記読取手段で読み取られた原稿内の前記図表領域を推定する推定処理手段と、を備えることを特徴とする画像形成装置。
(構成2) 前記推定処理手段は、前記図表領域として前記グラフ領域を推定した場合には、該グラフ領域内の前記グラフを抽出して、該グラフの視認性を変更可能であり、前記図表領域として前記表領域を推定した場合には、該表領域内の前記表を抽出して、該表の視認性を変更可能であることを特徴とする構成1に記載の画像形成装置。
(構成3) 前記グラフ領域には、前記グラフが複数含まれ、前記表領域には、前記表が複数含まれており、
前記推定処理手段は、前記グラフごとに視認性を異ならせ、前記表ごとに視認性を異ならせることを特徴とする構成2に記載の画像形成装置。
(構成4) 前記グラフおよび前記表の視認性の変更には、少なくとも色の変更、濃淡の変更、ハッチングの変更のうちの少なくとも1つが含まれることを特徴とする構成2または3に記載の画像形成装置。
(構成5) 前記視認性が変更された状態の前記図表領域のサンプル画像を表示可能な表示手段を備えることを特徴とする構成2乃至の4いずれか一項に記載の画像形成装置。
(構成6) 前記表示手段は、前記サンプル画像に並べて、前記視認性が変更される前の状態の前記図表領域を表示可能であることを特徴とする構成5に記載の画像形成装置。
(構成7) 前記画像形成装置を使用するユーザからの操作を受け付ける操作手段を備え、
前記操作手段は、前記読取手段で読み取られた原稿のデータに対し、該原稿の前記図表領域を、前記サンプル画像に置き換える決定を実行可能であることを特徴とする構成6に記載の画像形成装置。
(構成8) 前記操作手段による前記決定が実行された場合に、前記サンプル画像を含む画像が形成された原稿を印刷可能な印刷手段を備えることを特徴とする構成7に記載の画像形成装置。
(構成9) 前記読取手段で読み取られた原稿は、少なくとも前記グラフおよび前記表のうちの一方がカラー印刷された原稿であり、
前記サンプル画像を含む画像が形成された原稿は、モノクロ印刷された原稿であることを特徴とする構成8に記載の画像形成装置。
(構成10) 前記操作手段による前記決定が実行された場合に、前記サンプル画像を含む画像が形成された原稿のデータを記憶可能な記憶手段を備えることを特徴とする構成7乃至9のいずれか一項に記載の画像形成装置。
(構成11) 前記学習済みモデルは、ニューラルネットワークであり、前記図表領域の推定対象となる原稿の前記グラフおよび前記表に関する情報を入力データとし、前記図表領域の有無を出力データとすることを特徴とする構成1乃至10のいずれか一項に記載の画像形成装置。
(構成12) 前記画像形成装置を使用するユーザからの操作を受け付ける操作手段を備え、
前記読取手段は、前記操作手段を介した前記ユーザからの操作に応じて作動することを特徴とする構成1乃至11のいずれか一項に記載の画像形成装置。
(構成13) 画像を形成する画像形成装置を制御する方法であって、
原稿を読み取る読取工程と、
原稿内のグラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方の図表領域を推定するための機械学習が行われた学習済みモデルを用いて、前記読取手段で読み取られた原稿内の前記図表領域を推定する推定処理工程と、を有することを特徴とする画像形成装置の制御方法。
(構成14) 構成1乃至12のいずれか一項に記載の画像形成装置の各手段をコンピュータに実行させるためのプログラム。
The disclosure of this embodiment includes the following configurations, methods and programs.
(Configuration 1) An image forming apparatus for forming an image,
reading means for reading an original;
A manuscript read by the reading means using a machine-learned trained model for estimating at least one of a graph area containing a graph and a table area containing a table in the manuscript. and estimation processing means for estimating the graphic area in the image forming apparatus.
(Arrangement 2) When the graph area is estimated as the diagram area, the estimation processing means can extract the graph within the graph area and change the visibility of the graph. The image forming apparatus according to
(Configuration 3) the graph area includes a plurality of the graphs, the table area includes a plurality of the tables,
The image forming apparatus according to
(Configuration 4) The image according to
(Arrangement 5) The image forming apparatus according to any one of
(Structure 6) The image forming apparatus according to
(Arrangement 7) Provided with operating means for receiving an operation from a user who uses the image forming apparatus,
The image forming apparatus according to
(Structure 8) The image forming apparatus according to
(Arrangement 9) The document read by the reading means is a document in which at least one of the graph and the table is printed in color,
The image forming apparatus according to
(Structure 10) Any one of
(Arrangement 11) The trained model is a neural network, and has as input data information relating to the graph and the table of the document from which the figure/table area is to be estimated, and output data as to whether or not the figure/table area exists. The image forming apparatus according to any one of
(Arrangement 12) Provided with operating means for receiving an operation from a user who uses the image forming apparatus,
12. The image forming apparatus according to any one of
(Structure 13) A method for controlling an image forming apparatus that forms an image, comprising:
a reading process for reading an original;
A manuscript read by the reading means using a machine-learned trained model for estimating at least one of a graph area containing a graph and a table area containing a table in the manuscript. and an estimation processing step of estimating the graphic area in the image forming apparatus.
(Arrangement 14) A program for causing a computer to execute each means of the image forming apparatus according to any one of
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications and changes are possible within the scope of the gist thereof. The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors of the computer of the system or device reads the program. It can also be realized by executing processing. The invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
10 スキャナ部(読取手段)
20 プリンタ部(印刷手段)
101 画像形成装置(画像処理装置)
102 機械学習サーバ
140 操作部(操作手段)
401 UI表示部
403 JOB制御部
404 画像読取部
405 推定処理部
414 機械学習部
10 scanner unit (reading means)
20 printer section (printing means)
101 image forming apparatus (image processing apparatus)
102
401
Claims (14)
原稿を読み取る読取手段と、
原稿内のグラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方の図表領域を推定するための機械学習が行われた学習済みモデルを用いて、前記読取手段で読み取られた原稿内の前記図表領域を推定する推定処理手段と、を備えることを特徴とする画像形成装置。 An image forming apparatus for forming an image,
reading means for reading an original;
A manuscript read by the reading means using a machine-learned trained model for estimating at least one of a graph area containing a graph and a table area containing a table in the manuscript. and estimation processing means for estimating the graphic area in the image forming apparatus.
前記推定処理手段は、前記グラフごとに視認性を異ならせ、前記表ごとに視認性を異ならせることを特徴とする請求項2に記載の画像形成装置。 the graph area includes a plurality of the graphs, the table area includes a plurality of the tables,
3. The image forming apparatus according to claim 2, wherein the estimation processing means makes the visibility different for each graph and makes the visibility different for each table.
前記操作手段は、前記読取手段で読み取られた原稿のデータに対し、該原稿の前記図表領域を、前記サンプル画像に置き換える決定を実行可能であることを特徴とする請求項6に記載の画像形成装置。 an operating means for receiving an operation from a user who uses the image forming apparatus;
7. The image forming apparatus according to claim 6, wherein said operation means can execute a decision to replace said graphic area of said original document read by said reading means with said sample image. Device.
前記サンプル画像を含む画像が形成された原稿は、モノクロ印刷された原稿であることを特徴とする請求項8に記載の画像形成装置。 The document read by the reading means is a document in which at least one of the graph and the table is printed in color,
9. The image forming apparatus according to claim 8, wherein the document on which the image including the sample image is formed is a document printed in monochrome.
前記読取手段は、前記操作手段を介した前記ユーザからの操作に応じて作動することを特徴とする請求項1に記載の画像形成装置。 an operating means for receiving an operation from a user who uses the image forming apparatus;
2. The image forming apparatus according to claim 1, wherein said reading means operates according to an operation by said user via said operation means.
原稿を読み取る読取工程と、
原稿内のグラフを含むグラフ領域と、表を含む表領域とのうちの少なくとも一方の図表領域を推定するための機械学習が行われた学習済みモデルを用いて、前記読取工程で読み取られた原稿内の前記図表領域を推定する推定処理工程と、を有することを特徴とする画像形成装置の制御方法。 A method of controlling an image forming apparatus for forming an image, comprising:
a reading process for reading an original;
A document read in the reading step using a trained model that has undergone machine learning for estimating at least one of a graph area including a graph and a table area including a table in the document. and an estimation processing step of estimating the graphic area in the image forming apparatus.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021194629 | 2021-11-30 | ||
JP2021194629 | 2021-11-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023081269A true JP2023081269A (en) | 2023-06-09 |
Family
ID=86656640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022090350A Pending JP2023081269A (en) | 2021-11-30 | 2022-06-02 | Image forming device, method for controlling image forming device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023081269A (en) |
-
2022
- 2022-06-02 JP JP2022090350A patent/JP2023081269A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101227874B1 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP5338802B2 (en) | Image processing system, image forming apparatus, image processing method, and image processing program | |
JP7338002B2 (en) | Image processing device, image processing method, and program | |
JP5699851B2 (en) | Two-dimensional barcode providing device, two-dimensional barcode analyzing device, two-dimensional barcode providing method, two-dimensional barcode analyzing method, computer program, two-dimensional barcode, and paper | |
JP2019145030A (en) | Image processing device, image formation apparatus, image processing method and program | |
JP5724793B2 (en) | Color two-dimensional barcode generation device, color two-dimensional barcode separation device, color two-dimensional barcode generation method, color two-dimensional barcode separation method, and computer program | |
JP2021179686A (en) | Image forming apparatus, control method of the same, and program | |
US10863039B2 (en) | Information processing apparatus that outputs parameter on basis of learning result | |
JP2013041496A (en) | Color two-dimensional barcode generation apparatus, color two-dimensional barcode reading device, method for generating color two-dimensional barcode, method for reading color two-dimensional barcode, and computer program | |
CN101090433A (en) | Image forming apparatus and image forming method | |
JP2023081269A (en) | Image forming device, method for controlling image forming device, and program | |
JP2021013149A (en) | Image processing system, image processing device, control method of the same, and program | |
JP4680642B2 (en) | Image forming apparatus, image forming method, and image forming program | |
JP2019140538A (en) | Image processing system, image formation device, image processing method, and program | |
JP7003568B2 (en) | Image processing device, image processing method | |
JP6413450B2 (en) | Image processing apparatus, image forming apparatus, and program | |
JP6575110B2 (en) | Information processing apparatus and program | |
JP2019153061A (en) | Image processing device, control method of the same and program thereof | |
JP7452059B2 (en) | Information processing device and program | |
JP5910292B2 (en) | Attribute data generation device, image processing device, server, attribute data generation method, and computer program | |
US11095792B2 (en) | Information-processing device importing therein setting information stored in removable storage medium in accordance with setting instruction information stored therein together with setting information | |
JP5595141B2 (en) | Image processing apparatus, control method therefor, and computer program | |
JP5523042B2 (en) | Image processing apparatus, control method therefor, and program | |
JP4926030B2 (en) | Image forming apparatus, image forming method, and image forming program | |
JP2022157436A (en) | Communication system, communication device and control method for the same, and program |