JP2022158579A - 画像形成装置、制御方法、及びプログラム - Google Patents

画像形成装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2022158579A
JP2022158579A JP2021063578A JP2021063578A JP2022158579A JP 2022158579 A JP2022158579 A JP 2022158579A JP 2021063578 A JP2021063578 A JP 2021063578A JP 2021063578 A JP2021063578 A JP 2021063578A JP 2022158579 A JP2022158579 A JP 2022158579A
Authority
JP
Japan
Prior art keywords
page
pages
data
document
forming apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021063578A
Other languages
English (en)
Inventor
雄哉 長谷川
Yuya Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021063578A priority Critical patent/JP2022158579A/ja
Publication of JP2022158579A publication Critical patent/JP2022158579A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

【課題】意図しないページが誤混載された原稿において、誤混載と推定するための特徴をユーザが指定することなく、容易に意図しないページを除外して画像形成装置の機能を使用できる画像形成装置、制御方法及びプログラムを提供する。【解決手段】各種ハードウェア資源とプログラムを利用するソフトウェア構成400であって、学習データ生成部413は、画像読み取り部404で取得した複数ページの原稿のスキャンデータから入力データを生成する。機械学習部414は、その入力データを学習データとする機械学習により原稿のページ間の相関性を推定する学習済みモデルを生成する。また、原稿のスキャンデータをスキャン系ジョブの開始に伴って画像読み取り部404で取得した場合、推定処理部405は、入力データを学習済みモデルに入力することでページ間の相関性を推定し、且つ、推定したページ間の相関性が閾値より低いページを対象ページとして抽出する。【選択図】図4

Description

本発明は、画像形成装置、制御方法、及びプログラムに関し、特に、複数ページからなる原稿の読み取りを行う画像形成装置、制御方法、及びプログラムに関する。
紙などの記録材に画像を形成する機能を備えた画像形成装置として、プリンタ機能、ファクシミリ機能、コピー機能等を併せ持った複合機が知られている。また近年の複合機では、ADF(Auto Document Feeder)に紙原稿を設置することで、ページ数の多い原稿においても高速で読み取りを行うことができる。しかし、読み取りたい原稿に意図しない原稿が誤って混入(誤混載)されたまま上述の各機能を使用した場合、誤混載された原稿のデータが含まれた成果物が形成され、情報の流出につながる。また、誤混載された原稿によって成果物のページ順序が入れ替わってしまうため、再度の機能実行を必要としてしまい、ユーザの作業負荷が増加してしまう。
そこで、特許文献1では、OCRで検出した定型文字やページ色、背景、原稿サイズなどの条件で読み取った原稿を分類し、分類されたページの中からページ数が少ないグループを、誤混載の可能性がある原稿としてユーザに通知する技術が提案されている。
特開2019-193059号公報
しかしながら、特許文献1では予め分類に用いる特徴を設定する必要があり、読み取りたい原稿と誤混載された原稿の特徴の差異を適切に設定できなければ、原稿を過剰に誤混載と検出したり、何も検出しなかったりしてしまう。特に、社内文書など共通のフォーマットで作成された原稿同士では、特徴量が近くなるために誤混載された原稿の検出が難しい。
そこで本発明は、意図しないページが誤混載された原稿において、誤混載と推定するための特徴をユーザが指定することなく、容易に意図しないページを除外して画像形成装置の機能を使用できる画像形成装置、制御方法、及びプログラムを提供する。
本発明の請求項1に係る画像形成装置は、複数ページからなる原稿のスキャンデータを取得する取得手段と、前記原稿のスキャンデータから入力データを生成する生成手段と、前記入力データを学習データとする機械学習により、前記原稿のページ間の相関性を推定する学習済みモデルを生成する機械学習手段と、前記原稿のスキャンデータがスキャン系ジョブの開始に伴って前記取得手段で取得された場合、前記入力データを前記学習済みモデルに入力することで前記ページ間の相関性を推定する推定処理手段と、を備え、前記推定処理手段は、前記推定された前記ページ間の相関性が閾値より低いページを対象ページとして抽出することを特徴とする。
意図しないページが誤混載された原稿において、誤混載と推定するための特徴をユーザが指定することなく、容易に意図しないページを除外して画像形成装置の機能を使用できる。
本発明に係る画像形成装置を含むシステムの全体構成図である。 画像形成装置のハードウェア構成を示すブロック図である。 機械学習サーバーのハードウェア構成を示すブロック図である。 図1に示すシステムの各種ハードウェア資源とプログラムを利用することで実現されるソフトウェア構成を示す図である。 図4における機械学習部における学習モデルを用いた入出力の構造を示す概念図である。 図4における学習データ生成部において実行されるマスク処理を説明するための図である。 学習データであるスキャンデータのページ群が、互いに相関のあるページ群と相関が無いページを含むページ群である場合の構成例を示す図である。 教師データの詳細を示す図である。 スキャン系ジョブの実行処理のフローチャートである。 機械学習部による学習処理のフローチャートである。 図9のステップS905の推定処理のフローチャートである。 図10BのステップS1013で表示される通知画面の例を示す図である。 図10BのステップS1014のページ処理のフローチャートである。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
<第1の実施例>
以下、本発明を実施するための第1の実施例について図面を用いて説明する。
<システム構成図>
図1は、本実施形態に係る画像形成装置101を含むシステム1の全体構成図である。
図1において、システム1は、画像形成装置101、機械学習サーバー102、汎用コンピュータ103、及びデータサーバー105を有し、これらの機器は、LAN104等のネットワークによって互いに接続されている。
画像形成装置101は、ADF及びAI機能を搭載する複合機である。尚、画像形成装置101は、ADFにより複数の原稿(原稿群)を読み取って画像データを形成でき、且つAI機能により上記複数の原稿中に誤混載された原稿を推定できる装置であれば、特に限定されず、例えば、コピー機、FAXなどであってもよい。
汎用コンピュータ103は、画像形成装置101に対する印刷ジョブの送信等を行う。
機械学習サーバー102は、画像形成装置101に搭載されるAI機能を実現するための学習済みモデルを中心的に生成する。
データサーバー105は、機械学習サーバー102において機械学習を行うために使用される学習データを外部機器から収集して機械学習サーバー102へ提供する。
すなわち、画像形成装置101は、随時、生成された学習済みモデルを機械学習サーバー102から受信して特定のAI機能を実現する。また、機械学習サーバー102は、特定のAI機能実現するための学習済みモデルの学習に必要な学習データをデータサーバー105や画像形成装置101、汎用コンピュータ103等の外部機器から受信し、その一部または全部を用いて学習処理を行う。
本実施例では、システム1においてまず、画像形成装置101で形成された複数ページからなる原稿の画像データをデータサーバー105に収集する。次に、機械学習サーバー102でその画像データから学習データを生成し、機械学習を行うことで原稿のページ間の相関性を推定する学習済モデルを生成する。その後、機械学習サーバー102で生成された学習済モデルを画像形成装置101にロードし、画像形成装置101でこの学習済モデルを用いたAI機能を実現する。
このような構成により、画像形成装置101は、ADFにより読み取られた原稿に混入された意図しないページを推定し、そのページをユーザに通知することで、容易に意図しないページを除外することが可能になっている。
図2は、画像形成装置101のハードウェア構成を示すブロック図である。
図2において、画像形成装置101は、操作部140、スキャナ部10、プリンタ部20、コントローラ1200、LAN104や、公衆回線(WAN)3001、及び無線LAN106を備える。
操作部140は、画像形成装置101を使用するユーザからの各種の操作を受け付けるボタンやタッチパネルディスプレイからなる。
スキャナ部10は、ADF(不図示)を有し、操作部140からの指示に従って、ADFに載置された複数の原稿を順に読み取って画像データ(スキャンデータ)を形成する。また、スキャナ部10は、スキャナ部10を制御するCPUや原稿読取を行うための図示しない照明ランプや走査ミラーなどを有する。
プリンタ部20は、スキャナ部10で形成された画像データを用紙に印刷する。また、プリンタ部20は、プリンタ部20の制御を行うCPUや画像形成や定着を行うための図示しない感光体ドラムや定着器を有する。
コントローラ1200は、スキャナ部10、プリンタ部20、LAN104、WAN3001、無線LAN106と接続し、画像形成装置101の動作を統括的に制御する。
<画像形成装置-コントローラ構成>
図2を用いてコントローラ1200の内部について詳細に説明する。
コントローラ1200は、RIP1260、スキャナ画像処理部1280、プリンタ画像処理部1290、画像回転部1230、画像圧縮部1240、及びデバイスI/F1220を備える。これらのデバイスは画像バス1212を介して互いに接続して画像データを高速で転送する。
RIP1260は、LAN104を介してLAN104上の汎用コンピュータ103から受信した印刷ジョブに含まれるPDLコードをビットマップイメージに展開するラスタイメージプロセッサである。
スキャナ画像処理部1280は、スキャナ部10から入力された画像データに対し補正、加工、編集を行う。
プリンタ画像処理部1290は、プリンタ部20で出力(印刷)される画像データに対して補正、解像度変換等を行う。
画像回転部1230は、画像データの回転を行う。
画像圧縮部1240は、多値画像データはJPEG、2値画像データはJBIG、MMR、又はMHの圧縮伸張処理を行う。
デバイスI/F1220は、スキャナ部10及びプリンタ部20とコントローラ1200を接続して画像データの同期系/非同期系の変換を行う。更に、これらを互いに接続して画像データを高速で転送する画像バス1212を備えている。
また、コントローラ1200は、CPU1201、RAM1202、操作部I/F1206、ネットワーク部1210、モデム部1211、無線通信I/F1270、ROM1203、及びHDD1204を備える。更に、コントローラ1200は、内部通信I/F1208、Image Bus I/F1205、及びGPU1291を備える。これらを互いにシステムバス1207を介して接続する。
RAM1202は、CPU1201が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリでもある。
操作部I/F1206は、操作部140に表示する画像データを操作部140に対して出力する。また操作部I/F1206は、操作部140から画像形成装置101を使用するユーザが入力した情報をCPU1201に伝える役割を有する。
ネットワーク部1210は、LAN104に接続され、LAN104上にある汎用コンピュータ103その他のコンピュータ端末(不図示)との通信(送受信)を行う。
モデム部1211は、公衆回線3001に接続され、公衆回線3001上の外部のファクシミリ装置(不図示)とのデータの通信(送受信)を行う。
無線通信I/F1270は、無線LAN106により外部の端末(不図示)と接続し、その外部の端末とのデータの通信(送受信)を行う。
ROM1203は、CPU1201が実行するブートプログラムが格納する。
HDD1204は、システムソフトウェア、画像データ、ソフトウェアカウンタ値などを格納するハードディスクドライブである。
内部通信I/F1208は、スキャナ部10及びプリンタ部20と夫々通信を行う。
Image Bus I/F1205は、システムバス1207及び画像バス1212を接続しデータ構造を変換するバスブリッジとして機能する。
コントローラ1200は、印刷やコピージョブ実行時の、ユーザ名や印刷部数、カラー印刷等、出力属性情報等をジョブ実行時の履歴をジョブログ情報としてHDD1204あるいはRAM1202にて記録管理している。
GPU1291は、CPU1201と比べてデータをより多く並列処理することで効率的な演算を行うことができる。すなわち、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う処理は、GPU1291で処理を行うことが有効である。そこで本実施例では、後述する機械学習部414による処理を画像形成装置101においても実行する場合はCPU1201に加えてGPU1291を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU1201とGPU1291が協働して演算を行うことで学習を行う。尚、機械学習部414の処理はCPU1201またはGPU1291のみにより演算が行われても良い。尚、本実施例では、後述する推定処理部405の処理は、機械学習部414と同様にGPU1291により演算が行われる。
<機械学習サーバー>
図3は、機械学習サーバー102のハードウェア構成を示すブロック図である。
図3において、機械学習サーバー102は、CPU1301、RAM1302、ROM1303、HDD1304、ネットワーク部1310、IO部1305、及びGPU1306を備える。これらはそれぞれシステムバス1207で相互に接続される。
CPU1301は、OS(Operating System)やアプリケーションソフトなどのプログラムをHDD1304から読み出して実行することで種々の機能を提供する。
RAM1302は、CPU1301がプログラムを実行する際のシステムワークメモリである。
ROM1303は、BIOS(Basic Input Output System)やOSを起動するためのプログラム、設定ファイルを記憶する。
HDD1304はハードディスクドライブであって、システムソフトウェアなどを記憶する。
ネットワーク部1310は、LAN104に接続され、画像形成装置101などの外部機器と通信(送受信)を行う。
IO部1305は、マルチタッチセンサ等を備えた液晶ディスプレイ入出力デバイス等により構成される不図示の操作部との間で情報を送受信するインターフェースである。この操作部にはプログラムが指示する画面情報に基づき所定の解像度や色数等で所定の情報が描画される。例えば、この操作部にはGUI(Graphical User Interface)画面が形成され、そのGUI画面上に操作に必要な各種ウィンドウやデータ等が表示される。
GPU1306は、CPU1301と比べてデータをより多く並列処理することで効率的な演算を行うことができる。すなわち、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う処理は、GPU1306で処理を行うことが有効である。そこで本実施例では、後述する機械学習部414による処理にはCPU1301に加えてGPU1306を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU1301とGPU1306が協働して演算を行うことで学習を行う。尚、機械学習部414の処理はCPU1301またはGPU1306のみにより演算が行われても良い。また、推定処理部405を機械学習サーバー102において実行する場合も機械学習部414と同様にGPU1306を用いても良い。
次にGPU1306と画像形成装置101のGPU1291との使い分けについて記載する。
ネットワークの通信やGPU1306の処理に要する負荷、画像形成装置101の省電力モード等に応じてGPU1306の計算資源を有効活用がされるようになっている。例えば、画像形成装置101が省電力モードに移行する場合、積極的に機械学習サーバー102側のGPU1306を活用できるようになっている。
<本発明のシステムにおけるソフトウェア構成>
図4は、図1に示すシステム1の各種ハードウェア資源とプログラムを利用することで実現されるソフトウェア構成400を示す図である。
図4に示すソフトウェア構成400に含まれる構成要素を実現するためのプログラムは、その構成要素ごとにストレージに格納されており、RAMによみだされてCPUにて実行されるものである。例えば、画像形成装置101において実現するためのプログラムは、HDD1204に格納されていてRAM1202に読みだされてCPU1201にて実行される。機械学習サーバー102やデータサーバー105も同様である。
尚、ソフトウェア構成400は、システム1において画像形成装置101の読み取った学習データを用いて、スキャナ部10のADFに載置された複数の原稿中に誤混載された原稿の推定処理を行う機能を実現可能にするためのものである。
図4のソフトウェア構成400における、画像形成装置101にある構成要素は、データ記憶部402、JOB制御部403、UI表示部401、画像読み取り部404、及び推定処理部405から構成される。
データ記憶部402は、図2に示したハードウェア構成におけるRAM1202やHDD1204に対して、画像データ、学習データ、及び学習モデル等の画像形成装置101が入出力を行うデータの記録を行う機能的役割を有する。
JOB制御部403は、ユーザの指示に基づきコピーやファックス、プリント等の画像形成装置101の基本機能の実行や基本機能の実行に伴い、ソフトウェア構成400の他の構成要素間の指示やデータの送受信を中心的に行う機能的役割を有する。
UI表示部401(表示手段)は、図2に示す操作部I/F1206を介した、操作部140のタッチパネルディスプレイへの操作受付画面の表示、その操作受付画面に対するユーザ操作の受付を行う機能的役割を有する。尚、操作受付画面には、推定処理部405による推定結果等のユーザへのメッセージを通知する通知画面も含まれる。
画像読み取り部404(取得手段)は、JOB制御部403の指示に基づきコピーやスキャン機能を実行する制御を行う場合に図2に示すスキャナ部10により原稿を光学的に読み取る動作を行う機能的役割を有する。
推定処理部405(推定処理手段)は、図2に示すCPU1201やGPU1291により実行され、画像形成装置101が入出力を行うデータに対してAI機能を実現するための推定処理や分類処理等を行う機能的役割がある。推定処理部405は、JOB制御部403の指示に基づき処理が行われて、その処理結果は、JOB制御部403に送信されUI表示部401に通知メッセージの表示を行う等、ユーザに対してフィードバックを行うことが可能になっている。
図4のソフトウェア構成400における、データサーバー105にある構成要素は、データ収集・提供部410及びデータ記憶部412から構成される。
データ収集・提供部410は、機械学習サーバー102において学習するための学習データの収集と提供を行う機能的役割を有している。具体的には、データ収集・提供部410は、画像形成装置101からUI表示部401で受け付けたユーザ操作の内容を含む学習データの受信を行って、機械学習サーバー102へ提供する機能的役割を有する。また、学習データの収集先は、画像形成装置101に限定されない。例えば、他の画像形成装置(不図示)、汎用コンピュータ103、他のデータサーバー(不図示)から学習データを収集してもよい。これにより、後述の機械学習部414で目的の機械学習をさせるために必要なデータの収集が可能となる。
データ記憶部412は、収集した学習データの記録管理を行う機能的役割を有する。
図4のソフトウェア構成400における、機械学習サーバー102にある構成要素は、学習データ生成部413、機械学習部414、及びデータ記憶部415から構成される。
学習データ生成部413(生成手段)は、図3に示すCPU1301により実行され、データサーバー105から受信した学習データを、目的の学習効果を得るために最適化する機能的役割を有する。学習データ生成部413による学習データの最適化処理は、推定に用いる特徴により異なる。例えばデータサーバー105から学習データとして受信したスキャンデータから、ページ番号が印字されていると推定される領域以外をマスクする処理や、ノイズになる不要なデータを除去する処理などが挙げられる。
データ記憶部415は、データサーバー105から受信したデータ、及び学習データ生成部413で最適化された学習データを図3に示すRAM1302やHDD1304へ一時記録を行う機能的役割を有する。尚、データ記憶部415は、後述する機械学習部414から受信した学習済みモデルも図3に示すRAM1302やHDD1304へ一時記録を行うようにしてもよい。
機械学習部414(機械学習手段)は、図2に示すGPU1306やCPU1301をハードウェアリソースとし、学習データ生成部413で最適化された学習データで後述する図5に示す学習方法により学習モデルの機械学習を行う機能的役割を有する。
<学習モデルの概念図>
図5は、機械学習部414における学習モデルを用いた入出力の構造を示す概念図である。以下本実施例では、学習モデルにニューラルネットワークが用いられる例について説明する。
また、システム1の特徴を説明するための一例として、このニューラルネットワークの機械学習により複数ページからなる原稿のページ間の相関性を推定するための学習済みモデルを生成する際、学習データとして用いられる入力データXを示す。すなわち、機械学習部414は、入力層に入力データXが入力されると、その出力層から、ページ間の相関性の推定結果である出力データYが出力される学習済みモデルを生成する。
入力データXは、複数ページからなる原稿の各ページ原稿の特徴量である説明変数X1~X11からなる。ここで、ページ原稿とは、少なくとも1つのページ番号を含む1枚の原稿を指す。例えば、図6(c)に示す、4in1で印刷されているページ原稿には、4つのページ番号が含まれる。
本実施例では、2種のページ群からなる原稿のページ間の相関性が推定される。一方は、互いに相関のある連続したページ群Aからなる原稿、すなわちページ順の正しい原稿である。他方は、ページ群Aに相関が無いページbが混ざったページ群Bからなる原稿、すなわちページ順が一部間違っている原稿である。
説明変数X1は、各ページ原稿のページ番号を示す数値である。
説明変数X2は、各ページ原稿のページ番号の印字位置が真ん中下であることを示す情報である。
説明変数X3は、各ページ原稿のページ番号の印字位置が左下であることを示す情報である。
説明変数X4は、各ページ原稿のページ番号の印字位置が右下であることを示す情報である。
説明変数X5は、各ページ原稿のNin1情報である。
説明変数X6は、各ページ原稿に含まれる章/段落の番号を示す数値である。
説明変数X7は、各ページ原稿の先頭文字列とそれ以外の文字列との行間距離の値である。
説明変数X8は、各ページ原稿に含まれる図表番号を示す数値である。
説明変数X9は、各ページ原稿に含まれる図表番号の印字位置の座標値である。
説明変数X10は、各ページ原稿のページ先頭の文字列である。
説明変数X11は、各ページ原稿のページ末尾の文字列である。
尚、説明変数X1~X11以外の特徴量を用いて、ページ間の相関性を推定してもよい。また、説明変数X1~X11の特徴量及びそれ以外の特徴量を組み合わせて、ページ間の相関性を推定してもよい。なぜなら、各ページ原稿の特徴量が同一となりえないからである。例えば、章/段落番号を示す数値(説明変数X6)は、章/段落の先頭に、図表番号は章/段落の途中に配置されることが多いが、複数ページにわたる文章においては章/段落番号や図表の無いページが存在するためである。よって本実施例で挙げた説明変数X1~X11の特徴量は、本発明の推定方法に用いる特徴量を限定するものではない。
出力データYは、ページ間の相関性、すなわち各ページ原稿とその次のページ原稿との間の相関性(以下、ページ相関という)の推定結果であり、ページ相関ありの推定確率Y1、及びページ相関なしの推定確率Y2の2つの目的変数から構成される。
以下本実施例では、各ページ原稿において最も特徴量として含まれている可能性が高いページ番号の数値(説明変数X1)、及びその印字位置(説明変数X2~X4)を機械学習で用いる場合について説明する。
尚、本実施例では、ページ番号の印字位置は、真ん中下(説明変数X2)、左下(説明変数X3)、右下(説明変数X4)のいずれかであるがこれに限定されない。例えば、ページ番号の印字され得る位置は他の場所であってもよいので、座標値(X,Y)をページ番号の印字位置を示す説明変数を、特徴量としてもよいことは言うまでもない。
本実施例のように、ページ番号とその印字位置を入力データXの説明変数とする場合、学習データ生成部413は、各ページ原稿のページ番号が印字されていると推定される領域以外をマスクするマスク処理を行う。マスク処理の詳細は図6を用いて後述する。
機械学習の具体的なアルゴリズムは、本実施例に係るニューラルネットワークに限定されない。例えば、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどを用いてもよい。また、ニューラルネットワークを利用して、学習するための特徴量や結合重み付け係数を自ら生成する深層学習(ディープラーニング)を用いてもよい。また適宜、上記アルゴリズムのうち利用できるものを用いて本実施例に適用してもよい。
更に学習モデルは、誤差検出部及び更新部を備えてもよい。
誤差検出部は、出力データY、期待値、及び損失関数を用いて、出力データYと期待値との誤差を表す損失(L)を計算する。
更新部は、誤差検出部で計算された損失(L)に基づいて、その損失が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
ニューラルネットワークにより構成される学習モデル(W)は、「正解値が既知の入力データ」と「期待値」をセットにした教師データTを学習データとして更に用意する。学習工程では、この正解値が既知の入力データが入力層に入力された場合の出力データYが正解値に極力近づくように学習モデル(W)内の重み付け係数を調整し、精度の高い学習モデル(W)を得る。出力データYと正解値の誤差が閾値以下となるまでかかる調整が行われた学習モデルを学習済モデルと呼ぶ。本実施例においては、教師データTは、以下に示す2種の教師データTa,Tbを有する。
教師データTaは、互いに相関のあるページ群Aからなる原稿の各ページ原稿の特徴量である入力データX及びその期待値からなる教師データである。具体的には、教師データTaの入力データXは、スキャナ部10で取得されたページ群Aのスキャンデータにある連続する「原稿データ1」と「原稿データ2」の夫々のページ番号、ページ番号位置、Nin1情報からなる説明変数である。また、教師データTaの期待値は、PA(ページ相関あり)=1、PB(ページ相関なし)=0である。
教師データTbは、一部に相関が無いページ群Bからなる原稿の各ページ原稿の特徴量である入力データX及びその期待値からなる教師データである。具体的には、教師データTbの入力データXは、スキャナ部10で取得されたページ群Bのスキャンデータにある連続する「原稿データ1」と「原稿データ2」の夫々のページ番号、ページ番号位置、Nin1情報からなる説明変数である。また、教師データTbの期待値は、「原稿データ1」及び「原稿データ2」の一方が、相関がないページb1である場合、PA(ページ相関あり)=0、PB(ページ相関なし)=1である。それ以外の場合の期待値は、PA(ページ相関あり)=1、PB(ページ相関なし)=0である。
期待値とは、「正解値が既知の入力データ」を学習済モデルに入力した場合の出力データYの「正解値」の推定確率である。
各教師データTa,Tbの入力データXを学習中の学習モデルに入力し算出された出力データYとその期待値とを所定の損失関数に従い損失(L)を求める。
本実施例では、互いに相関のあるページ群Aからなる原稿の各ページ原稿の特徴量を入力データXとする教師データTaの損失関数は、以下の通りとなる。
損失(L)= 1-「ページ相関ありの推定確率Y1」
また、一部に相関が無いページ群Bからなる原稿の各ページ原稿の特徴量を入力データとする教師データTbの損失関数は、以下の通りとなる。
損失(L)= 1-「ページ相関なしの推定確率Y2」
この損失(L)が0に近づくように中間層の学習モデル(W)の各層間の重み付け調整する。
この調整を行った学習モデル(W)を学習済モデルとし機械学習部414にこのモデルを実装する。
尚、ページ群Bは、相関が無いページb1をページ群Aのどのページ間に挿入するかを変更することで、同じ学習モデルでも学習量を増やすことができる。
<前処理の説明図>
図6を用いて、学習データとして受信したスキャンデータに対して、機械学習部414で学習する前に学習データ生成部413において実行される前処理であるマスク処理について説明を行う。
上述の通り、入力データXとして、各ページ原稿のスキャンデータからページ番号、及びその印字位置等を抽出する必要がある。このため、既知のOCR(Optical Character Recognition/Reader)等を用いて各ページ原稿のスキャンデータからページ番号の文字認識を行う。この際、ページ番号のみを認識するため、各ページ原稿のスキャンデータのページ番号が印字され得る領域(以下「ページ番号抽出領域」という)以外の領域(マスク領域)に対してマスク処理を行う。
まずスキャナ部10より各ページ原稿のNin1情報を取得し、これを説明変数X5とする。
次に、取得した説明変数X5及び各ページ原稿の文字の向きに応じて、各ページ原稿のマスク処理を実行した後、ページ番号抽出領域からページ番号を抽出し、説明変数X1とする。以下、このマスク処理及びページ番号の抽出処理の具体例を示す。
図6(a)は、各ページ原稿が1in1の原稿の例である。この場合、まず、各ページ原稿の全体の文字認識を行い、文字の向きから原稿の方向(縦原稿、横原稿)かを判定する。通常、ページ番号は原稿の下部に印字されることが多いため、各ページ原稿の下部の任意の領域をページ番号抽出領域とし、それ以外をマスク領域とする。その後、ページ番号抽出領域にある文字列をページ番号として抽出し、これを学習データである説明変数X1とする。
図6(b)は、各ページ原稿が2in1の原稿の例である。2in1の場合、ページ番号抽出領域は図6(a)同様原稿の下部になるが、そこから抽出されるページ番号は2ページ分となる。この場合、抽出された2ページ分のページ番号のそれぞれを学習データである説明変数X1とする。
図6(c)は、各ページ原稿が4in1の原稿の例である。4in1の場合、ページ番号抽出領域は、原稿の中央部及び下部になり、その2つのページ番号抽出領域から夫々2ページ分のページ番号が抽出される。この場合、抽出された4ページ分のページ番号のそれぞれを学習データである説明変数X1とする。
Nin1設定は図示しないが他の設定もあり、ページ番号の印字位置や、ページ番号の数も設定によって変わってくる。このため、それぞれの設定で最適となるよう、マスク処理において文字抽出領域を設定し、ページ番号の抽出を行う。
<原稿の構成例>
次にページ群Bの構成例、すなわち、互いに相関のあるページ群Aと相関が無いページb1を含むページ群である場合の構成例について図7を用いて説明する。
図7に示すように、ページ群Aの各ページ原稿は、1in1の原稿であり、通常はページ下中央部にページ番号が印字されている。しかし、ページ番号の印字位置がレイアウトの都合で移動していたり、ページ番号以外の数字がページ番号抽出領域にあったりするケースが考えられる。
図7に示すNo.3のページ原稿は、ページ下中央部にページ番号が印字されているが、ページ番号印字領域にページ番号以外の数字も含まれている例である。
図7に示すNo.6,8のページ原稿は、図を大きく印刷するためページ番号の位置をページ右下に移動した例である。
このようにページ群Aに含まれるページ原稿では、そのレイアウト次第で、ページ番号の位置を右下に移動し、また、ページ番号印字領域にページ番号以外の数字を含ませる。よって、これらのページ原稿の特徴量も入力データの説明変数として蓄積し学習を行う。
ページ群Aとは相関がないページb1のページ原稿は、図7に示すように、ページ番号印字領域にページ番号以外の情報は無いが、ページ番号は、ページ群Aのようにページ下中央部やページ右下には印字されておらず、ページ左下に印字されている。また、ページb1のページ原稿にはページ群AのNo.7と同じページ番号である「7」が印字されている。そのため、ページ群Aにページb1が混入すると、ページ番号間の連続性が崩れて相関が無くなる事象や、ページ番号の連続性は保てるがページ番号の印字位置が異なることにより相関が無くなる事象が発生する。つまり、ページb1の混入個所によって、相関が崩れる要因が変化する。従って、ページ群Bは、相関が無いページb1をページ群Aのどのページ間に挿入するかを変更することで、同じ学習モデルでも学習量を増やすことができる。
図8は、教師データの詳細を示す図である。
教師データの生成のため予め互いに相関のあるページ群Aと相関がないページb1を用意する。
互いに相関のあるページ群Aを入力データXとする教師データTaの生成には、入力データXとして「原稿データ1」及び「原稿データ2」を設定する。
「原稿データ1」は、スキャナ部10で連続して取得されたページ群Aのスキャンデータから抽出された、任意のページ原稿のスキャンデータである。
また「原稿データ2」は、「原稿データ1」の次にスキャナ部10で取得されたページ原稿のスキャンデータである。また、その期待値は、PA(ページ相関あり)=1、PB(ページ相関なし)=0と設定する。
一部に相関が無いページ群Bを入力データXとする教師データTbの生成にも、入力データXとして、「原稿データ1」及び「原稿データ2」を設定する。
「原稿データ1」は、スキャナ部10で連続して取得されたページ群Bのスキャンデータから抽出された、任意のページ原稿のスキャンデータである。
また「原稿データ2」は、「原稿データ1」の次にスキャナ部10で取得されたページ原稿のスキャンデータである。また、その期待値は、「原稿データ1」及び「原稿データ2」の一方が、相関がないページb1である場合、相関が無いページ間の期待値として、PA(ページ相関あり)=0、PB(ページ相関なし)=1を設定する。一方、それ以外の場合は、相関があるページ間の期待値として、PA(ページ相関あり)=1、PB(ページ相関なし)=0を設定する。
図9のフローチャートを用いて、JOB制御部403によるスキャン系のジョブの実行処理を説明する。尚、スキャン系ジョブとはコピーやスキャンBOX等のスキャナ部10による原稿読取処理を含むジョブ全般のことである。また、本処理を実行する時点では、すでに学習済モデルが機械学習部414により生成済であり、推定処理部405の中間層にその学習済モデルが設定されている。
図9において、まずステップS901で、JOB制御部403は、ユーザからスキャン系ジョブの開始の操作を操作部140が受け付けたか否かを判定する。
操作を受け付けていない場合(ステップS901でNO)、操作を受け付けるまで待機をする一方、操作を受け付けた場合(ステップS901でYES)、ステップS902に遷移する。
ステップS902で、JOB制御部403は、スキャン系ジョブを開始し、ADFもしくは原稿台ガラスに設置された原稿を読み取るようスキャナ部10(画像読み取り部404)を制御する。
ステップS903で、JOB制御部403は、スキャナ部10がすべての原稿の読取が終了したか否かを判定する。
すべての原稿の読取はまだ終了していない場合(ステップS903でNO)、ステップS902に戻り、JOB制御部403は、まだ読取が終了していない原稿を読み取るようスキャナ部10を制御する。一方、すべての原稿の読取が終了した場合(ステップS903でYES)、ステップS904に遷移する。
ステップS904で、JOB制御部403は、読みとった全ての原稿のスキャンデータをデータ収集・提供部410を介してデータ記憶部412に保存する。これにより、JOB制御部403(設定手段)は、読取が終了した全ての原稿を、ステップS902で開始したスキャン系ジョブの読み取り後の処理の対象となる原稿に設定する。
ステップS905で、JOB制御部403は、推定処理部405にページ間の相関性を推定する推定処理を行わせる。推定処理の詳細は図10Bにて後述する。
ステップS906で、JOB制御部403は、読み取り後の処理(プリント、データ保存、データ送信等)を実行した後、本処理を終了する。
図10Aのフローチャートを用いて、機械学習部414による追加学習処理(学習フェーズ)を説明する。尚、本処理を実行する時点では、すでに学習済モデルが機械学習部414により生成済である。
機械学習部414は、データ記憶部412に保存されている原稿のスキャンデータが更新されたかどうかを一定期間毎に確認する。更新されていると判断したタイミングで、図10Aの処理を開始する。
まず、ステップS1001で、機械学習部414は更新された原稿のスキャンデータをデータ記憶部412から受信する。
その後、ステップS1002で、機械学習部414は、まず、受信したスキャンデータからの入力データの生成を学習データ生成部413に行わせる。その後、その入力データを学習データに用いたニューラルネットワークの機械学習(学習済モデルの追加学習)を開始する。
その後、ステップS1003で、機械学習部414は、ステップS1002で開始した追加学習が終わったかどうか判断する。
追加学習がまだ終わっていない場合(ステップS1003でNO)、ステップS1002に戻り、追加学習を続行する。一方、追加学習が終わっている場合(ステップS1003でYES)、ステップS1004に進む。
ステップS1004で、機械学習部414は学習済みモデルの更新を推定処理部405へ通知する。
その後、ステップS1005で、機械学習部414は推定処理部405からの学習済みモデルの送信要求があったかどうか判断する。
学習済みモデルの送信要求が無い場合(ステップS1005でNO)、ステップS1005に戻り、推定処理部405からの送信要求を待つ。一方、学習済みモデルの送信要求があった場合(ステップS1005でYES)、ステップS1006に遷移する。
ステップS1006で、機械学習部414は追加学習の終了により更新された学習済みモデルを推定処理部405へ送信し、本処理を終了する。
次に、図10Bのフローチャートを用いて、図9のステップS905の推定処理を説明する。本処理は、推定処理部405に対してJOB制御部403により推定処理を行うよう指示があったときに開始する。
ステップS1007で、ステップS904で設定された読み取り後の処理の対象となる原稿から、先頭ページの原稿を除外する。このステップは、ステップS905の推定処理の処理時間を短縮するために実行される。
ステップS1008で、推定処理部405は、機械学習部414へ学習済みモデルの送信要求を行い、学習済みモデルを受信する。
その後、ステップS1009で、推定処理部405は、学習データ生成部413に対し、ステップS904でデータ記憶部412に保存されたスキャンデータのマスク処理を行わせる。これにより、スキャンデータのページ番号抽出領域以外の領域はマスクされる。
ステップS1010で、推定処理部405は、学習データ生成部413に対し、入力データのページ番号抽出領域からページ番号の数値を抽出させ、その数値及びその印字位置を入力データXの説明変数として設定する。
ステップS1011で、推定処理部405は、ステップ1010で設定された説明変数からなる入力データXとステップS1008で受信した学習済モデルとを用いて、ステップS902で読み取られた原稿のページ間の相関性を推定する。
ステップS1012で、推定処理部405はページ間の相関が無い原稿データであるか否かを判断する。具体的には、推定された各ページ間の相関性の平均値が第1の閾値(例えば80%)未満であれば、ページ間の相関が無い原稿データと判断し(ステップS1012でYES)、ステップS1013に遷移する。一方、ページ相関ありの推定確率の平均値が第1の閾値以上であれば、本処理を終了する。
ステップS1013で、推定処理部405は相関性の低い最初のページを対象ページとして抽出し、その画像をUI表示部401に表示させる。具体的には、ページ相関ありの推定確率が第2の閾値(例えば66%)以下の最も若いページを対象ページとして抽出し、対象ページの画像を含む通知画面をUI表示部401に表示させる。これにより、対象ページがページ間の相関が無い可能性がある旨をユーザに知らせる。ここでUI表示部401が表示する通知画面については、図11で後述する。
尚、ページ間の相関が無い可能性があるページをより確実にユーザに知らせる設定とする場合は、ステップS1012を無くし、ステップS1011からステップS1013に直接進むようにしてもよい。
ステップS1014で、JOB制御部403はUI表示部401が表示する通知画面へのユーザ操作に応じて、その画面上に画像が表示されたページ原稿のデータを削除する処理や、画像表示するページ原稿を変更する処理を選択的に実行するページ処理を行う。ページ処理の詳細は図12で後述する。その後、本処理を終了する。
尚、ステップS1012で用いられた、ページ間の相関が無い原稿データであるか否かを判断するための第1の閾値は、事前に任意の値に設定しても良い。また、ステップS1013で用いられた、相関性が低い最初のページ(通知画面に画像表示する対象ページ)を決定するための第2の閾値についても、事前に任意の値に設定しても良い。
図11を用いて、図10BのステップS1013で表示される通知画面を説明する。
UI表示部401は、ステップS1013で、操作部140のタッチパネルディスプレイに図11に示す通知画面を表示する。
具体的には、通知画面には、ページ表示領域4010、相関性表示部4015、表示範囲変更ボタン4016、及び入力ボタン群が表示される。
ページ表示領域4010は、ページ相関ありの推定確率が第2の閾値以下と推定された最も若いページである対象ページ、及びその前後のページの画像を表示する。
相関性表示部4015は、対象ページの相関性(ページ相関ありの推定確率)を表示する。
表示範囲変更ボタン4016(閾値設定操作部)は、通知画面に画像表示する対象ページを決定するための第2の閾値を変更するボタンである。
入力ボタン群は、ユーザが対象ページの処理を入力するためのボタン群であり、「元に戻す」ボタン4011、「対象ページを削除する」ボタン4012(第1の操作部)、「手動で修正する」ボタン4013、「修正しない」ボタン4014を含む。
ページ表示領域4010は、対象ページの画像を強調してユーザに示すために、対象ページの画像の周囲を点線で囲っているが、この方法に限定されない。例えば、対象ページの画像の周囲を模様で囲っても良いし、対象ページの画像を同時表示された前後のページの画像よりも大きく表示してもよいし、それ以外の方法を用いて強調表示してよい。
例えば、図11(a)の通知画面で画像表示される対象ページは誤混載された原稿であると判断した場合、ユーザは「対象ページを削除する」ボタン4012を押す。そうすると、後述するページ処理にて対象ページ(5ページ目)がステップS904で設定された読み取り後の処理の対象となる原稿から削除される。この場合、ページ相関ありの推定確率が第2の閾値以下と推定されたページのうち、対象ページ(5ページ目)の次に若いページを新たに対象ページとしてUI表示部401に画像表示する。尚、ユーザは、誤って「対象ページを削除する」ボタン4012を押してしまった場合、「元に戻す」ボタン4011を押すことで、「対象ページを削除する」ボタン4012を押す前の状態までUI表示部401の表示を戻すことができる。
また、別の例として、図11(b)の通知画面で画像表示される対象ページは相関があるページであり、誤って推定されたページが対象ページとして画像表示されていると判断した場合、ユーザは「修正しない」4014ボタンを押す。そうすると、後述するページ処理にて対象ページ(7ページ目)はステップS904で設定された読み取り後の処理の対象となる原稿から削除されることなく維持される。この場合、ページ相関ありの推定確率が第2の閾値以下と推定されたページのうち、対象ページ(7ページ目)の次に若いページを新たに対象ページとしてUI表示部401に画像表示する。
その他に、ユーザは、「手動で修正する」4013ボタンを押すことで、通知画面を不図示の手動編集画面に遷移させることができる。手動編集画面では、相関性が低い全てのページのプレビュー画面が表示されるため、ユーザは各ページの画像を確認しながら、削除するページを選択することができる。
尚、本実施例では、相関性表示部4015で表示される、対象ページの相関性を、ページ相関ありの推定確率を示す数値(パーセンテージ)で表示したがこれに限定されない。例えば、対象ページの相関性をより分かりやすくユーザに示すために、数値ではなく「大」「中」「小」といったグループに分けて表示しても良いし、対象ページの相関性に対応した色(例えば相関性が高ければ赤く、低ければ青く)で表示しても良い。
また、本実施例では、表示範囲変更ボタン4016は、その押下により第2の閾値の値を切り替える。例えば、図11(a)に示すように、表示範囲変更ボタン4016が押下によりその表示が「相関がとても低いページのみ表示」となった場合、第2の閾値の値を33%とする。また、図11(b)に示すように、表示範囲変更ボタン4016が押下によりその表示が「相関が少し低いページまで表示」となっている場合、第2の閾値の値を66%とする。このように第2の閾値を変更することで、通知画面に画像表示された対象ページが誤混載されたページであるか否かをユーザが判断する作業量と、通知画面に画像表示される対象ページの相関性の程度を、ユーザが調整でき、作業の効率化が狙える。尚、表示範囲変更ボタン4016は、本実施例のように2つの設定の一方に切り替える構成に限定をする必要はなく、例えば、3つ以上の設定の一つに切り替える構成としても良いし、上記第2の閾値の数値を連続的に変化させる構成でもよい。
また、本実施例では、第2の閾値の値に応じて、「対象ページを削除する」ボタン4012に対するユーザの操作を促すメッセージを変更している。具体的には、図11(a)の通知画面のように、第2の閾値が33%に設定されている場合は、「関連性のないページが検出されました。削除しますか?」というメッセージを表示する。また、図11(b)の通知画面のように、第2の閾値が66%に設定されている場合は、「意図しないページが入り込んでいませんか?」というメッセージを表示する。
尚、推定処理部405により第2の閾値以下のページであると推定されたページが連続して抽出される場合がある。このような場合、対象ページの両端には、対象ページの前後のページではなく、ページ相関ありの推定確率が第2の閾値より大きいページの画像が表示されるようにする。
図12は、図10BのステップS1014のページ処理のフローチャートである。
まず、ステップS1201でUI表示部401に画像表示する必要があるページ(対象ページ)があるか否かを判定する。尚、本処理は、ステップS1013で対象ページの画像を通知画面に表示した直後に開始する処理である。よって、本処理が開始して最初に実行されるステップS1201の処理では、「対象ページがある」と判定され(ステップS1201でYes)、ステップS1202に進む。反対に、相関性が初期値より低い全てのページの対象ページとしての処理が完了すると、「対象ページが無い」と判定され(ステップS1201でNo)、後述するステップS1214に進む。
ステップS1202で、通知画面に表示するボタンのいずれかが押下されたか判定する。
ボタンのいずれかが押下された場合であって(ステップS1202でYes)、押下されたボタンが「修正しない」ボタン4014である場合(ステップS1203でYes)、ステップS1204に進む。
ステップS1204では、通知画面に対象ページとして画像表示されているページを「削除しない」ページに指定する。
その後、次にページ番号が若い相関性が低いページを通知画面に対象ページとして画像表示し(ステップS1205)、ステップS1201に戻る。
一方、ボタンが押下された場合であって(ステップS1202でYes)、押下されたボタンが「修正しない」ボタン4014以外である場合(ステップS1203でNo)、ステップS1206に進む。
ステップS1206では、押下されたボタンが「対象ページを削除する」ボタン4012であるか確認する。
押下されたボタンが「対象ページを削除する」ボタン4012である場合(ステップS1206でYes)、通知画面に対象ページとして画像表示されるページを「削除する」ページに指定し(ステップS1207)、ステップS1205に進む。
一方、押下されたボタンが「対象ページを削除する」ボタン4012でない場合(ステップS1206でNo)、ステップS1208に進み、押下されたボタンが「元に戻す」ボタン4011であるか確認する。
押下されたボタンが「元に戻す」ボタン4011である場合(ステップS1208でYes)、ステップS1209に進む。
ステップS1209で、現在通知画面に対象ページとして画像表示されているページの直前に対象ページであったページ(1つ前の表示ページ)に対する「削除しない」または「削除する」の指定を解除する。その後、指定を解除したページを通知画面に対象ページとして画像表示(ステップS1210)し、ステップS1201に戻る。
一方、押下されたボタンが「元に戻す」ボタン4011でない場合(ステップS1208でNo)、ステップS1211に進み、押下されたボタンが表示範囲変更ボタン4016であるか確認する。
押下されたボタンが表示範囲変更ボタン4016である場合(ステップS1211でYes)、通知画面に画像表示する対象ページを決定する第2の閾値を、表示範囲変更ボタンの押下により切り替えられた設定における値に変更し、ステップS1201に戻る。
一方、押下されたボタンが表示範囲変更ボタン4016でない場合(ステップS1211でNo)、押下されたボタンが「手動で修正する」ボタン4013であると判断し、ステップS1213に進む。
ステップS1213では、手動編集処理を実行する。具体的には、通知画面を手動編集画面に遷移させ、相関性が低いページを全て手動編集画面に表示し、各ページについて、ユーザに「削除する」又は「削除しない」の指定を入力するよう促す。手動編集画面に表示される全てページに対しどちらかの指定が入力されると、手動編集処理を終了してステップS1214に進む。
ステップS1214では、相関性が第2の閾値以下と推定されたページの内、ユーザにより「削除する」の指定がされたページのデータの全てを、ステップS904で設定された読み取り後の処理の対象となる原稿から削除し、本処理を終了する。
一方、通知画面に表示するボタンがいずれも押下されないまま(ステップS1202でNo)、所定時間(例えば3分間)が経過したか確認する(ステップS1215)。所定時間が経過していないと判定された場合(ステップS1215でNo)、ステップS1201に戻る一方、所定時間が経過したと判定された場合(ステップS1215でYes)、ステップS1216に進む。
ステップS1216で、ステップS901で開始の操作を受け付けたスキャン系のジョブが、SENDやFAXといった送信系ジョブか、COPYジョブか判断する。
送信系ジョブの場合(ステップS1216でYes)、送信先がジョブを実行したユーザのみの場合に限り(ステップS1217でYes)、ステップS1218に進み、相関性が第2の閾値以下と推定されたページを全て「削除しない」と指定する。その後、ステップS1214に進み、相関性が第2の閾値以下と推定されたページであってもステップS904で設定された読み取り後の処理の対象となる原稿から削除することなく維持し、本処理を終了する。送信先がジョブを実行したユーザのみであれば、誤混載されたページのデータが誤って第三者に送信されるリスクは無いからである。
反対に、送信系ジョブの場合に(ステップS1216でYes)、送信先がジョブを実行したユーザのみでない場合(ステップS1217でNo)、誤混載されたページのデータが誤って第三者に送信されるリスクがある。よってこの場合はステップS1201に戻り、ユーザの操作を待つ。
一方、COPYジョブの場合(ステップS1216でNo)、詳細設定があるジョブか片面シンプルコピー設定のジョブであるかを判定する(ステップS1219)。ここで詳細設定があるジョブとは、その印刷設定として、両面印刷やNin1割付、ステープル設定などの設定があるジョブである。また片面シンプルコピー設定のジョブとは、その印刷設定として、片面印刷が設定される一方、ページまとめ設定やステープル設定がされていないジョブである。
片面シンプルコピー設定の場合(ステップS1219でYes)、ステップS1218に進み、相関性が第2の閾値以下と推定されたページを全て「削除しない」と指定する。その後、ステップS1214に進み、相関性が第2の閾値以下と推定されたページであってもステップS904で設定された読み取り後の処理の対象となる原稿から削除することなく維持し、本処理を終了する。片面シンプルコピー設定であれば、誤混載されたページがあってもCOPYジョブの終了後にユーザがそのページを簡単に除外することができ、再度、COPYジョブを実行させる必要はないからである。
反対に、COPYジョブの場合(ステップS1216でNo)、片面シンプルコピー設定でない場合(ステップS1219でNo)、誤混載されたページのデータによって崩れた印刷物の順序を修正できない。よってこの場合は、再度、COPYジョブを実行させる必要が生じるため、ステップS1201に戻り、ユーザの操作を待つ。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実行可能である。
1 システム
10 スキャナ部
20 プリンタ部
101 画像形成装置
102 機械学習サーバー
104 LAN
105 データサーバー
140 操作部
1200 コントローラ
403 JOB制御部
405 推定処理部
410 データ収集・提供部
413 学習データ生成部
414 機械学習部

Claims (14)

  1. 複数ページからなる原稿のスキャンデータを取得する取得手段と、
    前記原稿のスキャンデータから入力データを生成する生成手段と、
    前記入力データを学習データとする機械学習により、前記原稿のページ間の相関性を推定する学習済みモデルを生成する機械学習手段と、
    前記原稿のスキャンデータがスキャン系ジョブの開始に伴って前記取得手段で取得された場合、前記入力データを前記学習済みモデルに入力することで前記ページ間の相関性を推定する推定処理手段と、
    を備え、
    前記推定処理手段は、前記推定された前記ページ間の相関性が閾値より低いページを対象ページとして抽出することを特徴とする画像形成装置。
  2. 前記生成手段は、
    前記原稿の夫々における、ページ番号が印字されていると推定される領域をページ番号抽出領域に、それ以外の領域をマスクする領域に設定し、
    前記ページ番号抽出領域からページ番号を抽出して、前記入力データとすることを特徴とする請求項1記載の画像形成装置。
  3. 前記生成手段は、前記複数ページからなる原稿の夫々のNin1情報に応じて、前記マスクする領域と前記ページ番号抽出領域を設定することを特徴とする請求項2に記載の画像形成装置。
  4. 前記推定処理手段による前記ページ間の相関性の推定の結果をユーザに通知する通知画面を表示する表示手段と、
    前記複数ページからなる原稿を前記スキャン系ジョブの読み取り後の処理の対象となる原稿に設定する設定手段とを更に備え、
    前記通知画面には、前記対象ページの画像、及び前記対象ページを前記読み取り後の処理の対象となる原稿から削除する操作をユーザから受け付ける第1の操作部を含む複数の操作部が表示されることを特徴とする請求項1乃至3のいずれか1項に記載の画像形成装置。
  5. 前記通知画面には、前記対象ページに対して推定されたページ間の相関性が更に表示されることを特徴とする請求項4記載の画像形成装置。
  6. 前記通知画面に前記対象ページの画像が表示された後、所定の時間まで前記複数の操作部のいずれに対しても前記ユーザの操作が無い場合であって、
    前記スキャン系ジョブが、送信系ジョブであり、且つその送信先が前記ユーザのみに限定されている場合、
    前記読み取り後の処理の対象となる原稿から前記対象ページを削除することなく維持することを特徴とする請求項4又は5記載の画像形成装置。
  7. 前記通知画面に前記対象ページの画像が表示された後、所定の時間まで前記複数の操作部のいずれに対しても前記ユーザの操作が無い場合であって、
    前記スキャン系ジョブが、COPYジョブであり、且つその印刷設定として、片面印刷が設定される一方、ページまとめ設定及びステープル設定がされていない場合、
    前記読み取り後の処理の対象となる原稿から前記対象ページを削除することなく維持することを特徴とする請求項4又は5に記載の画像形成装置。
  8. 前記複数の操作部の一つは、前記閾値を変更する操作を前記ユーザより受ける付ける閾値設定操作部であることを特徴とする請求項4乃至7のいずれか1項に記載の画像形成装置。
  9. 前記通知画面には、前記第1の操作部に対する前記ユーザの操作を促すメッセージが更に表示され、
    前記閾値設定操作部に対する前記ユーザの操作により変更された前記閾値に応じて、前記メッセージを変更することを特徴とする請求項8記載の画像形成装置。
  10. 前記通知画面には、前記対象ページの前後のページの画像が、前記対象ページの画像の両端にさらに表示されることを特徴とする請求項4乃至9のいずれか1項に記載の画像形成装置。
  11. 前記対象ページが連続して抽出された場合、前記通知画面には、前記連続して抽出されたページの最も若いページの画像が前記対象ページの画像として表示され、前記対象ページの画像の両端には、前記推定された前記ページ間の相関性が前記閾値以上であるページが表示されることを特徴とする請求項10記載の画像形成装置。
  12. 前記推定処理手段は、前記読み取り後の処理の対象となる原稿から先頭ページを除外して、前記入力データを前記生成手段に生成させることを特徴とする請求項4乃至11のいずれか1項に記載の画像形成装置。
  13. 画像形成装置の制御方法であって、
    複数ページからなる原稿のスキャンデータを取得する取得ステップと、
    前記原稿のスキャンデータから入力データを生成する生成ステップと、
    前記入力データを学習データとする機械学習により、前記原稿のページ間の相関性を推定する学習済みモデルを生成する機械学習ステップと、
    前記原稿のスキャンデータがスキャン系ジョブの開始に伴って前記取得ステップにおいて取得された場合、前記入力データを前記学習済みモデルに入力することで前記ページ間の相関性を推定する推定処理ステップと、
    を有し、
    前記推定処理ステップにおいて、前記推定された前記ページ間の相関性が閾値より低いページが対象ページとして抽出されることを特徴とする制御方法。
  14. コンピュータを、請求項1乃至12のいずれか1項に記載の画像形成装置の各手段として機能させる、コンピュータにより実行可能なプログラム。
JP2021063578A 2021-04-02 2021-04-02 画像形成装置、制御方法、及びプログラム Pending JP2022158579A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021063578A JP2022158579A (ja) 2021-04-02 2021-04-02 画像形成装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021063578A JP2022158579A (ja) 2021-04-02 2021-04-02 画像形成装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022158579A true JP2022158579A (ja) 2022-10-17

Family

ID=83638947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021063578A Pending JP2022158579A (ja) 2021-04-02 2021-04-02 画像形成装置、制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2022158579A (ja)

Similar Documents

Publication Publication Date Title
US7710592B2 (en) Storage medium for managing job log, job log management method, image processing apparatus, and image processing system
US8498003B2 (en) Job log control method, computer readable medium for the same, image processing device, and image processing system
JP4789516B2 (ja) 文書変換装置、文書変換方法並びに記憶媒体
JP4617328B2 (ja) 画像処理装置及びその処理方法
US8233173B2 (en) Computer readable medium for image processing, image processing method, image processing device, and image processing system
JP3486452B2 (ja) 複合画像処理装置
JP2008193682A (ja) 画像処理装置、画像処理方法
US20070143361A1 (en) Image processing program, image processing method, image processing device, and image processing system
US20090303508A1 (en) Image reading apparatus and image forming apparatus
JPH1083263A (ja) 画像形成装置及び画像処理方法
KR20210122147A (ko) 문자열을 취득하기 위한 정보 처리 장치
JP6855268B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2021179686A (ja) 画像形成装置、その制御方法、及びプログラム
CN101005552A (zh) 图像形成系统、图像读取装置及控制装置
JP2023164539A (ja) 画像処理装置、その制御方法及びプログラム
JP2022158579A (ja) 画像形成装置、制御方法、及びプログラム
JP2001169069A (ja) デジタル複合機、デジタル複合機におけるファイル蓄積方法及び該ファイル蓄積方法を実施するためのプログラムを記録した記録媒体
JP2023072812A (ja) 情報処理装置、情報処理装置の制御方法、そのプログラム及び画像処理システム
JP2021164132A (ja) 画像処理システム、及びプログラム
JP2002232617A (ja) 文書入出力装置およびファイリングシステム
JP2022024880A (ja) 画像形成装置、その制御方法、プログラム
JP2022090536A (ja) 画像処理システム、画像処理装置、制御方法
JP5094551B2 (ja) 画像形成装置およびその制御方法ならびにそのプログラムおよび記憶媒体
JP2021150856A (ja) 画像処理システム、画像処理装置、制御方法及びプログラム
JP2007189351A (ja) 画像処理装置及びプログラム