JP2022090536A - 画像処理システム、画像処理装置、制御方法 - Google Patents

画像処理システム、画像処理装置、制御方法 Download PDF

Info

Publication number
JP2022090536A
JP2022090536A JP2020202982A JP2020202982A JP2022090536A JP 2022090536 A JP2022090536 A JP 2022090536A JP 2020202982 A JP2020202982 A JP 2020202982A JP 2020202982 A JP2020202982 A JP 2020202982A JP 2022090536 A JP2022090536 A JP 2022090536A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
information
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020202982A
Other languages
English (en)
Inventor
諭 池田
Satoshi Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020202982A priority Critical patent/JP2022090536A/ja
Priority to US17/540,760 priority patent/US20220182497A1/en
Publication of JP2022090536A publication Critical patent/JP2022090536A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1463Orientation detection or correction, e.g. rotation of multiples of 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00005Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00037Detecting, i.e. determining the occurrence of a predetermined state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • H04N1/00456Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails for layout preview, e.g. page layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00461Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet marking or otherwise tagging one or more displayed image, e.g. for selective reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3877Image rotation

Abstract

【課題】 文字を含まない原稿の天地を識別可能な画像処理装置を提供する。【解決手段】 画像処理装置(101)は、情報を表示する操作部(140)と、原稿を読み取るスキャナ(10)と、を有し、文字を含まない画像およびその画像の向き情報に基づき学習した学習済みモデルにスキャナで読み取られた画像を入力し(S652)、学習済みモデルの出力結果に少なくとも基づいてスキャナで読み取られた画像の情報を前記表示部に表示させる(S657)。【選択図】 図6

Description

本発明は、読取画像の天地推定をおこなう画像処理装置に関する。この画像処理装置は、複写機、スキャナおよびこれらの複合機として用いられる。
従来、原稿から画像情報を読み取るスキャナ等の画像処理装置が知られている。こうした画像処理装置では、ユーザの作業ミスにより、原稿の天地を誤った状態で画像が読み取られてしまうといった事態が発生し得る。特許文献1では、OCR(Optical character recognition)技術を利用して画像の天地を検知し、画像向きの修正に利用する技術が開示されている。
特開2010-219895公報
特許文献1の技術によれば、原稿文字が含まれていればOCRを用いて天地修正が可能であるが、文字を含まない画のみの原稿の天地を識別することができない。
本発明の目的は、文字を含まない原稿の天地を識別可能な画像処理装置を提供することである。
本発明は、画像処理装置において、情報を表示する表示部と、原稿を読み取る読取部と、文字を含まない画像およびその画像の向き情報に基づき学習した学習済みモデルに前記読取部で読み取られた画像を入力する手段と、前記学習済みモデルの出力結果に少なくとも基づいて、前記読取部で読み取られた画像の情報を前記表示部に表示させる手段と、を有することを特徴とするものである。
本発明によれば、文字を含まない原稿の天地を識別可能な画像処理装置を提供することができる。
システム構成を示す図である。 画像形成装置のハードウェア構成を示す図である。 図3(a)は学習サーバのハードウェア構成を示す図である。図3(a)はデータサーバのハードウェア構成を示す図である。図3(a)は汎用コンピュータのハードウェア構成を示す図である。 システムのソフトウェア構成を示す図である。 学習モデルについて説明する図である。 利用シーケンスを説明する図である。 学習データを示す図である。 教師データを示す図である。 学習に関する処理フローの図である。 図10(a)は読取画像の一覧画面を示す図である。図10(b)は読取画像の修正案提示画面を示す図である。図10(c)は読取画像の一覧画面を示す図である。 図11(a)は読取処理のフローを示す図である。図11(b)は推定処理のフローを示す図である。 図12(a)は風景画像の一例を示す図である。図12(b)は風景画像の一例を示す図である。図12(c)は風景画像の一例を示す図である。図12(d)は風景画像の一例を示す図である。 図13(a)は天地推定の設定画面を示す図である。図13(b)は読取画像の一覧画面を示す図である。 推定処理のフローを示す図である。
以下、本発明の実施するための形態について、実施例を挙げ図面を用いて具体的に説明する。なお、本発明の範囲は実施例に記載の構成には限定されない。構成の一部を均等物へ置き換えたり、一部処理を省略したりといった改変を、同様の効果が得られる範囲においておこなってもよい。
(実施例1)
<システム構成>
図1は、画像処理システムを示す図である。画像処理システム100は、画像形成装置101、機械学習サーバ102から構成されている。
画像形成装置101は読取画像の天地推定をおこなうためのAI機能を搭載しており、ユーザからの原稿入力に対して天地推定に基づく結果を出力することができる。このAI機能を実現するための学習済みモデルは、機械学習サーバ102から受信している。
機械学習サーバ102は、AI機能実現するための学習モデルの学習処理をおこなう。この学習処理に必要なデータはデータサーバ105から都度、送信されてくる。
データサーバ105は、機械学習サーバ102に提供するためのデータの収集、生成を行っている。例えば、データサーバ105は、画像形成装置からも随時データの提供を受け付けている。
図6は、システムの利用シーケンスを説明する図である。
ステップ601(以降S601等と表記する)において、データサーバ105は、画像形成装置101を含むネットワーク上の装置から学習に利用できるデータの収集をおこなう。学習に利用できるデータとは、後述する天地推定処理に対してユーザが修正した結果およびその画像があげられる。また、汎用コンピュータ103から送信されたPDLデータを画像形成装置101が画像に変換した結果を学習に利用できるデータとしてもよい。この場合、PDLデータに基づく画像はすべて天地が正しい画像として扱われる。
S602において、データサーバ105は、収集したデータの中から学習の用途に適したデータを機械学習サーバ102に送信する。
S603において、機械学習サーバは、データサーバ105から受信したデータを基に学習データを生成し、生成された学習データを用いて学習モデルの学習をおこなう。なお、学習データの生成はあらかじめデータサーバ105側でおこなっておいてもよい。
S604において、天地推定に用いる学習済みモデルの更新を画像形成装置101に指示する。
S605において、画像形成装置101は、機械学習サーバ102に対して最新の学習済みモデルの要求をおこなう。
S606において、機械学習サーバ102は画像形成装置101に対して学習済みモデルの送信をおこなう。
S651において、ユーザは画像形成装置の原稿読取部に原稿をセットし、読取指示をおこなう。
S652において、画像形成装置101は、セットされた原稿から画像情報を読み取る処理を実行する。
S653において、画像形成装置101は、取得した画像に対して天地推定処理をおこなう。
S654において、画像形成装置101は、推定の結果をユーザに提示する。
S655において、ユーザは、天地推定結果に基づく画像の修正を指示する。
S656において、画像形成装置101は、画像の修正を行ったうえでジョブを実行する。ここで、ジョブとは、コピージョブや保存ジョブや送信ジョブがある。コピージョブでは、プリンタ20を用いて画像の印刷がおこなわれる。保存ジョブでは、装置内部のストレージであるHDD204やUSBメモリ等の外付けのストレージに画像が記憶される。送信ジョブでは、FAX宛先、Eメール宛先、シェアフォルダ、クラウドサービス等の外部の宛先に画像が送信される。
S657において、画像形成装置101は、ユーザに成果物を提供する。例えば、コピージョブでは印刷されたシートを提供し、保存ジョブや送信ジョブでは処理の実行結果をユーザに提示する。
<画像形成装置>
図2は、画像形成装置101のハードウェア構成を示す図である。
画像形成装置101は、シートに画像を形成する画像形成機能、および原稿を読み取る読取機能を備える複合機(画像処理装置)である。画像形成装置101は、ネットワーク104を介して、画像処理システムを構成する機械学習サーバおよびデータサーバ105と通信可能に接続されている。また、画像形成装置101は、ネットワーク104を介して汎用コンピュータからプリントデータを受信し、これに基づく画像形成処理を実行することができる。本実施例では、画像形成装置101を電子写真方式の装置として説明する。しかしながら、インクジェット方式等、他の画像形成方式の装置であってもよい。
画像形成装置101は、操作部140と、スキャナ10と、プリンタ20と、コントローラ200を備える。
操作部140は、ユーザが各種の操作を行うため操作デバイスである。操作部140は、情報を表示する表示部としてのディスプレイと、ユーザの情報入力を受け付ける入力部としてタッチパネルやハードキーを備える。
スキャナ10は、原稿から画像情報を読み取る読取部である。スキャナ10は、スキャナ10の各構成を制御するCPUや、原稿読取を行うための照明ランプや走査ミラーなど(不図示)を有する。
プリンタ20は、シートに画像を形成するための画像形成部である。プリンタ20は、プリンタ部の各構成を制御するCPUや、画像形成や定着を行うための感光体ドラムや定着器など(不図示)を有する。
コントローラ200は、画像形成装置の動作を統括的に制御する制御部である。コントローラ200は、システムバス207に接続された構成と、画像バス212に接続された構成とを備え、システムバス207と画像バス212はバスブリッジとして機能するImage Bus I/F205を介して互いに通信可能に接続されている。
コントローラ200は、システムバス207に接続された構成として、GPU291、CPU201、RAM202、ROM203、HDD204、操作部I/F206、スキャナプリンタ通信I/F208、Network I/F210、無線通信I/F270、モデム211を備える。
CPU201は、各種演算処理をおこなうプロセッサである。RAM202は、CPU201が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリでもある。ROM203はCPU201が実行するブートプログラムを格納するメモリである。HDD204は、システムソフトウェア、画像データ、ソフトウェアカウンタ値などを格納するデータストレージである。コントローラ200は、印刷やコピージョブ実行時の、ユーザ名や印刷部数、カラー印刷等、出力属性の情報等をジョブ実行時の履歴をジョブログ情報としてHDD204あるいはRAM202に記録管理している。操作部I/F206は、操作部140から本画像形成装置を使用するユーザが入力した情報をCPU201に伝える役割を有する。ネットワークI/F210は、ネットワーク104に接続され、汎用コンピュータ103やネットワーク104上の図示しないその他のコンピュータ端末との通信(送受信)を行う。モデム211は、公衆回線に接続され、図示しない外部のファクシミリ装置とのデータの通信(送受信)を行う。無線通信I/F270は、無線によりネットワーク104に接続する。内部通信I/F208は、スキャナ10及びプリンタ20とそれぞれ通信を行う。
GPU291はデータをより多く並列処理することのできるプロセッサである。GPU291、ディープラーニングのように複数回に渡り学習を行う用途に有効利用できる。本実施例では、学習モデルを用いる処理に対して、CPU201に加えてGPU291を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU201とGPU291が協働して演算を行うことで学習を行う。なお、機械学習部414の処理はCPU201またはGPU291のみにより演算が行われても良い。また、推定処理部405の処理も機械学習部414の処理と同様に、GPU291を用いても良い。
コントローラ200は、画像バス212に接続された構成として、RIP260、スキャナ画像処理部280、プリンタ画像処理部290、画像回転部230、画像圧縮部240、デバイスI/F220を備える。
RIP260は、PDLコードをビットマップイメージに展開するためのプロセッサである。スキャナ画像処理部280は、スキャナ10から入力された画像データに対し補正、加工、編集を行う。画像回転部230は、画像データの回転を行う。プリンタ画像処理部290は、プリンタ20で出力(印刷)される画像データに対して補正、解像度変換等を行う。
画像圧縮部240は、多値画像データはJPEG、2値画像データはJBIG、MMR、又はMHの圧縮伸張処理を行う。デバイスI/F220は、スキャナ10およびプリンタ20との通信をおこなう。
<機械学習サーバ>
図3(a)は、機械学習サーバの構成を示す図である。
機械学習サーバ102は、学習モデルの学習および配布をおこなうサーバである。
機械学習サーバ102は、CPU301、ROM302、RAM304、ストレージ305、入力デバイス306、表示デバイス307、ネットワークI/F 308、GPU309を備える。各構成は、システムバス303を介して相互にデータを送受信することができる。
CPU301は、機械学習サーバ102の全体を制御する演算をおこなうためのプロセッサである。 CPU301は、OS(Operating System)やアプリケーションソフトなどのプログラムをストレージ305から読み出して実行することで種々の機能を提供する。RAM304はCPU301がプログラムを実行する際のシステムワークメモリである。ROM302はBIOS(Basic Input Output System)やOSを起動するためのプログラム、設定ファイルを記憶している。ストレージ305は、ハードディスクドライブ等の情報を記憶する記憶部であって、システムソフトウェアなどが記憶されている。
入力デバイス306は、マウスやキーボードなどの入力装置である。表示デバイス307は、ディスプレイ等の情報を表示する表示装置である。
GPU309は、画像処理プロセッサである。GPU309は、ディープラーニングのように複数回に渡り学習を行う用途に有効利用できる。そこで実施例1では、機械学習部414による処理にはCPU301に加えてGPU309を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU301とGPU309が協働して演算を行うことで学習を行う。なお、機械学習部414の処理はCPU301またはGPU309のみにより演算が行われても良い。また、推定処理部405も機械学習部414と同様にGPU309を用いても良い。また、学習などの計算処理は、機械学習サーバ102だけでなく、他の装置と協調しておこなってもよい。
<データサーバ、汎用コンピュータ>
図3(b)は、汎用コンピュータの構成を示す図である。
汎用コンピュータ103は、CPU331、ROM332、RAM334、ストレージ335、入力デバイス336、表示デバイス337、ネットワークI/F 338、GPU339を備える。各構成は、システムバス333を介して相互にデータを送受信することができる。各構成は機械学習サーバ102の構成と同様であるため、その説明を省略する。
図3(b)は、データサーバの構成を示す図である。
データサーバ105は、CPU361、ROM362、RAM364、ストレージ365、入力デバイス366、表示デバイス367、ネットワークI/F 368、GPU369を備える。各構成は、システムバス363を介して相互にデータを送受信することができる。各構成は機械学習サーバ102の構成と同様であるため、その説明を省略する。
<システムにおけるソフトウェア構成>
図4は、図2のハードウェア構成図で示したハードウェア資源とプログラムを利用することで実現されるソフトウェア構成(400)を示す図である。図に示したソフトウェア構成を実現するためのプログラムは、その構成要素ごとにストレージに格納されており、RAMに読みだされてCPUにて実行されるものである。例えば、画像形成装置101では、HDD204に格納されRAM202に読みだされたプログラムがCPU201にて実行される。機械学習サーバ102やデータサーバ105についても同様である。
図4のソフトウェア構成はシステムにおいて画像形成装置101の読み取った学習データを用いて、天地の誤り推定処理を行う機能を実現可能にするためのものである。図4において構成要素の機能的役割を説明する。
画像形成装置101のソフトウェアは、データ記憶部402、JOB制御部403、UI表示部401、画像読み取り部404、推定処理部405から構成される。機械学習サーバ102のソフトウェアは、学習データ生成部413、機械学習部414、データ記憶部415から構成される。データサーバ105のソフトウェアは、データ収集・提供部410とデータ記憶部412とから構成される。
データ記憶部402は、図2に示したハードウェア構成におけるRAM202やHDD204に対して、画像データや学習データ、学習モデル等、画像形成装置101が入出力を行うデータの記録を行う機能的役割を有する。
JOB制御部403は、ユーザの指示に基づきコピーやファックス、プリント等の画像形成装置101の基本機能の実行や基本機能の実行に伴い他のソフト構成要素間の指示やデータの送受信を中心的に行う機能的役割を有する。
UI表示部401は、図2に示す操作部I/F206を介して操作部140に備える画面に対してユーザからの操作設定を受け付けやその操作受付画面の提供する機能的役割を有している。UI表示部401は、システムにおける推定処理部405による推定結果等のユーザへのメッセージを通知するための通知画面を表示する機能的役割を有している。
画像読み取り部404は、JOB制御部403の指示に基づきコピーやスキャン機能を実行する制御を行う場合に図2に示したスキャナ10により原稿を光学的に読み取る動作を行う機能的役割を有している。
推定処理部405は、図2に示したCPU201やGPU291により実行されるものであり、画像形成装置101が入出力を行うデータに対してAI機能を実現するための推定処理や分類処理等を行う機能的役割がある。この推定処理は、JOB制御部403の指示に基づき処理が行われて、その推定処理部405の結果出力は、JOB制御部403に送信されUI表示部に通知メッセージの表示を行う等、ユーザに対してフィードバックを行うことが可能になっている。
データ収集・提供部410は、機械学習サーバ102において学習するための学習データの収集と提供を行う機能的役割を有している。システムにおいては画像形成装置101から画像形成装置101の操作情報を含む学習データの受信を行って、機械学習サーバ102へ提供する機能的役割を有している。また、収集先は、画像形成装置101の他の画像形成装置、汎用コンピュータ103や他のデータサーバから収集してもよく、目的の機械学習をさせるために必要なデータの収集が可能になっている。データ記憶部412は、収集した学習データの記録管理を行う機能的役割を有している。
学習データ生成部413は、データサーバ105から受信を行ったデータを目的の学習効果を得るためにノイズになる不要なデータを除去するなど効果的学習結果が得られる形に加工して学習データの最適化を行う機能的役割を有する。図3に示すCPU301により実行される。
データ記憶部415は、データサーバ105から受信したデータや生成された学習データ、機械学習部414における学習済みモデルを図3に示すRAM304やストレージ305へ一時記録を行う。
機械学習部414は、学習データ生成部413によって生成された学習データを入力として、図3に示したハードウェアリソースであるGPU309やCPU301と図5に示す学習モデルによる学習方法を活用して機械学習を行う。
<学習モデル>
図5は、実施例1の機械学習部414における学習モデルを用いた入出力の構造を示す概念図であり、ニューラルネットワークを用いた学習モデルを例に図示している。また、システムの特徴を説明するための一例としてこのニューラルネットワークによりスキャン原稿の情報を入力として天地の誤りを予測するための学習モデルの生成にかかわる、学習データXを示している。学習データXとしては、画のみの原稿、文字のみの原稿、画と文字の両方が含まれる原稿に分けられる。入力データとしては、オブジェクトの向きや構図、文字等が入力される。
機械学習の具体的なアルゴリズムとしては、ニューラルネットの他、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施例に適用することができる。
学習モデルは、誤差検出部と、更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データX(2)に応じてニューラルネットワークの出力層から出力される出力データY(4)と、教師データTとの誤差を得る。そして、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を表す損失(L)を計算する。
更新部は、誤差検出部で得られた損失(L)に基づいて、その損失が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
学習モデル(W)は「正解値が既知の入力データ」と「正解値」をセットにした学習データを多数用意する。そして、この正解値に対応する入力データを入力した場合の出力が正解値に極力近づくように学習モデル(W)内の重み付け係数を調整することで精度の高い学習モデル(W)を得る作業を行う。これを学習工程と呼び、学習工程を経て調整された学習モデルを学習済モデルと呼ぶ。用意する教師データ(「正解値が既知の入力データ」と「正解値」のセット)は以下のようなものとする。
A、教師データ
入力データ(X):天地が正しい原稿データのオブジェクト、構図、文字情報
期待値(T):A(天地誤りなし)=1、B(天地誤りあり)=0
期待値(T)とは「正解値が既知の入力データ」を入力した場合の「正解値」を示す出力(Y)の値である。
向きが正しい場合にはY1、正しくない場合にはY2とする。また、本実施例では、天地が逆であることのみを記載しているが、90°回転している原稿に対しても適用可能であることは言うまでもない。
各教師データの入力データ(X)を入力し算出された出力(Y)と期待値(T)とを所定の損失関数に従い損失(L)を求める。
本実施例での損失関数は
A、 教師データ
損失(L)= 1-「出力(Y)のAの推定確率」
とする。
この損失(L)が0に近づくように中間層の学習モデル(W)の各層間の重み付け調整する。
この調整を行った学習モデル(W)を学習済モデルとし機械学習部414にこのモデルを実装する。
<入力データ、教師データ>
図7は、図5で示した入力データの構成例を図示したものである。入力される原稿のタイプは大きく3種類に分けられる。文字だけの原稿、画だけの原稿、文字と画の両方を含む原稿(c)である。本実施例では、1つの学習モデルでこれらすべての画像の天地を判定できるように、これらすべてのタイプの画像を学習しておく。
No.2の原稿は文字だけを含む原稿で逆さまの例である。No.4は画だけを含む原稿であり、逆さまの例である。No.6は文字と画の両方を含む原稿であり、逆さまの例である。No.8はNo.4と同様である。画のみ画像について天地を判別できるよう、大きくわけて2種類の画像を入力して学習をおこなう。1つは車などの被写体(オブジェクト)を含む種類の画像である。車が下側にタイヤを備えている構造上の特徴や陰影を学習することで、天地を判別できるようになる。もう1つは、風景のようにオブジェクトを含まない種類の画像である。こうした画像は構図から判定できるように学習をしておく。
図8は教師データの例を示す図である。
入力(X)として任意のページを「原稿データa」、期待値(T)として「T1(天地誤りなし)=1、T2(天地誤りあり)=0」とする。学習項目はオブジェクトの向きと構図と文字である。入力データに対応する情報としてこうした教師データを用いることで、学習モデルの学習をおこなうことができる。
<機械学習サーバの処理フロー>
図9のフローチャートを用いて、機械学習部414と推定処理部405の処理の流れを説明する。このフローは、CPU301がROM302またはストレージ305に記憶されたプログラムをRAM304に展開して実行することで実現される。
機械学習部414は学習データが更新されたかどうかを一定期間毎に確認する。機械学習部414は、更新されていると判断したタイミングで、学習フェーズを開始する。機械学習部414は、まず、学習データを受信する(S901)。学習データとは前述した原稿データである。その後、機械学習部414は、受信したデータに基づく機械学習を実施する(S902)。その後、機械学習部414は、機械学習が終わったかどうか判断する(S903)。終わっていない場合、機械学習部414はS902の処理を繰り返す。終わっている場合、機械学習部414は、学習済みモデルの更新を推定処理部405へ通知する(S904)。その後、機械学習部414は、学習済みモデルの送信要求があるかどうか判断する(S905)。無い場合、機械学習部414はS905の処理を繰り返し行い推定処理部405からの送信要求を待つ。送信要求がある場合、機械学習部414は学習済みモデルを推定処理装置へ送信する(S906)。
<画像形成装置の処理フロー>
図11(a)は読取処理のフローを示す図である。図11(b)は推定処理のフローを示す図である。
図11(a)および図11(b)のフローチャートを用いて、スキャン系のジョブの流れを説明する。このフローは、CPU201がROM203またはHDD204に記憶されたプログラムをRAM202に展開して実行することで実現される。
JOB制御部403は、ユーザからスキャン系のジョブの開始を操作部が受け付けたか否かを判定する(S1101)。操作を受け付けていない場合、操作を受け付けるまで待機をする。操作を受け付けた場合、S1102に遷移する。スキャナ10はADFもしくは原稿台ガラスに設置された原稿を読み取る(S1102)。JOB制御部403は、スキャナ10がすべての原稿の読取が終了したか否かを判定する。すべて読み取っていない場合、すべての原稿の読み取りが終わるまで処理を繰り返す。すべての原稿を読み取ったあと、JOB制御部403は読みとったデータをデータ記憶部に保存する(S1104)。読み取りデータを一時保存したあと、CPU201は、ページ順の誤りを判定するための推定処理を行う(S1105)。推定処理の詳細は後述する。推定処理終了後、読み取り後の処理(プリント、データ保存、データ送信等)を実行し(S1107)、処理を終了する。
S1105における推定処理の詳細について説明する。
推定処理部405は、S1102で読み取られた画像を先頭ページから順次、学習済みモデルに入力していく(S1153)。推定処理部405は、学習済みモデルから、原稿の天地が誤っているか否かを示す情報(出力結果)を取得する。天地が誤っている場合、すなわち、修正の必要がある場合(S1154:YES)、推定処理部405は対象の画像を修正候補に追加する(S1155)。天地が誤っていない場合、すなわち、修正の必要がない場合(S1154:NO)、推定処理部405はS1155の処理をスキップする。その後、推定処理部405は全ページを学習済みモデルに入力したか否かを確認する(S1156)。まだ未入力のページがある場合(S1156:NO)、推定処理部405はS1157へ処理を進める。S1157において、推定処理部405は処理したページの次の画像を学習済みモデルに入力し、S1154へ処理を戻す。全ページの入力が終了している場合(S1156:YES)、推定処理部405はS1158へ処理を進める。S1158において、推定処理部405は、推定結果を加味した操作画面を操作部140に表示する。
<推定後画面>
図10(a)は読取画像の一覧画面を示す図である。図10(b)は読取画像の修正案提示画面を示す図である。図10(c)は読取画像の一覧画面を示す図である。
S1158では、例えば図10(a)に示すような画面が操作部140に表示される。
画面1000は、読取画像の一覧画面である。画面1000は、情報1001、一覧1002、アイコン1003、選択枠1004、ボタン1005、ボタン1006、ボタン1007を備える。
一覧1002は、読取処理によって読み取られた画像の一覧情報である。本実施例では、サムネイル形式で複数ページの画像を一覧可能に表示しているが、リスト形式で表示してもよい。本実施例では、推定処理によって修正候補に指定された画像に対してアイコン1003が付与される。アイコン1003は、天地の修正候補を示すアイコンである。また、本実施例では、一覧1002を表示する際に、修正候補をあらかじめ選択状態にしておく。修正候補が選択状態であることは、情報1001のメッセージによってユーザに通知される。選択状態の画像は、選択枠1004が重畳表示される。各画像は、各画像は、選択操作をおこなう度に選択状態、非選択状態が切り替わるものとする。
ボタン1005は、選択状態の画像について、推定処理で得られた修正案に一括で修正するための選択オブジェクトである。修正候補の画像が選択された状態でボタン1005が選択されると図10(c)の画面に遷移する。
ボタン1006は、選択状態の画像について、修正案の確認をおこなう画面に遷移するための選択オブジェクトである。修正候補が選択された状態で、ボタン1006が選択されると修正案を確認する画面に遷移する。
ボタン1007は、修正を行わずに処理を続行するための選択オブジェクトである。ボタン1007が選択されると、ジョブを完了させるための画面(不図示)に遷移する。
画面1010は、修正案を確認するための画面である。ここでは、修正候補のうちの2つめの画像について確認する画面を例示している。修正候補が選択された状態で、ボタン1006が選択され、その後、修正候補のうちの1つめの画像について確認が済むと画面1010が表示される。
画面1010は、情報1011、情報1012、情報1013、ボタン1014、ボタン1015、ボタン1016を備える。
情報1011は、原稿向きの修正をユーザに促すメッセージである。
情報1012は、修正案の提示をおこなう情報領域である。情報1012では、学習済みモデルの出力結果に基づいて回転処理がなされた状態の画像が修正案として配置される。
情報1013は、修正候補を確認する作業の進捗をしめす情報である、図の例では4件中の2件目の修正候補を確認中であることを示している。
ボタン1014は、情報1012で提示された修正案に修正することを決定するための選択オブジェクトである。ボタン1014が選択されると、修正候補のうちの3つめの画像について確認する画面に遷移する。同様に、修正候補のうちの3つめ、4つめの画像まで確認が済むと、図10(c)の画面に遷移する。
ボタン1015は、情報1012で提示された修正案とは別の方法で修正することを決定するための選択オブジェクトである。ボタン1015が選択されたことに従って、図を回転させる編集が可能の編集画面(不図示)が表示される。
ボタン1016は、修正案を提示されている修正候補について修正しないことを決定するための選択オブジェクトである。
画面1020、修正反映後の読取画像の一覧を表示する画面である。画面1020は、情報1021、一覧1022、アイコン1023、ボタン1024、ボタン1025を備える。
情報1021は、修正を終了し、ジョブを完了させるか否かをユーザに確認するメッセージである。
一覧1022は、修正処理が施された後の画像の一覧である。本実施例では、修正処理が施された画像に対しアイコン1023が付与される。
アイコン1023は、天地を修正済みであることを示すアイコンである。
ボタン1024は、修正をやり直すための選択オブジェクトである。ボタン1024が選択されると、画面1000の状態に戻す処理がおこなわれる。
ボタン1025は、ジョブを完了させるための選択オブジェクトである。ボタン1025が選択されると、図面の修正が反映された状態でジョブが実行される。例えば、画像を保存するジョブの場合は、修正された画像が保存される。画像を送信するジョブの場合は修正された画像が送信される。画像を印刷するジョブの場合は修正された画像が印刷される。
<備考>
以上で説明したように、本実施例のシステムによれば、読取画像のなかに向きが正しくないと推定されるものが含まれている場合に、これをユーザに提示することができる。また、提示された修正案を確認するだけで容易に画像の修正をおこなうことができる。そして、修正した画像を印刷、保存、送信等の多様な用途に利用することができる。また、向きに誤りがあると推定される画像、および、修正済みの画像に対してアイコンが付与されるため、一覧の中から容易に識別することができる。
(実施例2)
実施例1では、一つの学習済みモデルを用いて文字原稿および画の原稿の天地について推定し、一律で修正候補として定時する例ついて説明した。実施例2では、原稿をタイプ毎に分類し、原稿タイプ毎の推定をおこなったうえで、原稿タイプごと処理をおこなう例について説明する。なお、システムの各構成は、上述したポイントとなる部分に関わる構成を除き、実施例1と同様である。そのため、同様の構成については同様の符号を付し、その詳細な説明を省略する。
<推定精度>
図12(a)~(d)は風景画像の一例を示す図である。
原稿の天地を推定しようとした場合、原稿の種類によって天地の推定精度に差があることが確認されている。例えば、文字を含む原稿の場合は推定精度が高いが、文字を含まない原稿は推定精度が低い傾向にある。特に、文字を含まない原稿のなかでも、風景写真のような画のみの原稿は推定精度が低い。
図12(a)は風景画像の一例を示す図であり、図12(b)はその鏡像を示す図である。図12(c)は風景画像の一例を示す図であり、図12(d)はその鏡像を示す図である。
図12(a)、図12(c)のように、水面に光が反射するような構図の風景写真の場合、天地を判別する材料が少ないため、推定精度が低くなりやすい。彩度、明度、色相が高いものを上部と推定するような学習を行えば図12(a)、図12(b)の天地の推定はできるが、図12(c)図12(d)の天地の推定は難しい。
<タイプ別設定>
図13(a)は天地推定の設定画面を示す図である。
画面1300は、天地推定の設定画面である。
画面1300は、情報1301、設定領域1302、設定領域1303、設定領域1304、ボタン1305を備える。
情報1301は、推定精度の目安を示す情報である。情報1301によれば、文字・表等の原稿は推定精度が高く、非風景の原稿はその次に推定精度が高く、風景の原稿は最も推定精度が低い。ユーザはこの情報を基に、推定誤の処理を決定する。
設定領域1302、設定領域1303は、設定領域1304は、各原稿タイプそれぞれに対して天地推定後の処理を設定する領域である。設定項目はそれぞれ「推定する」「自動選択する」「何もしない」の3種類である。図13(a)では、設定領域1302には「修正する」が設定されており、設定領域1303には「自動選択する」が設定されており、設定領域1304には「何もしない」が設定されている。
図13(a)のように設定された状態で、天地推定処理が行われると図13(b)に示すような画面が表示される。
画面1310は、読取画像の一覧画面である。画面1310は、情報1311、一覧1312を備える。
一覧1312は、読取処理によって読み取られた画像の一覧である。推定処理によって修正候補になり、且つ「修正する」処理の対象の場合は、アイコン1023に対応するアイコンが付与される。推定処理によって修正候補になり、且つ「修正する」処理の対象でない場合は、アイコン1003に対応するアイコンが付与される。また、本実施例では、一覧1312を表示する際に、修正候補で且つ「自動選択する」処理の対象の場合は、画像が自動で選択され、選択枠1004が重畳表示される。すなわち、画面1300の設定を変更することで、画面1310を表示する際の修正候補の処理状態を異ならせることができる。
<画像形成装置の処理フロー>
図14は推定処理のフローを示す図である。
S1105において、実施例2では次のように推定処理がおこなわれる。
推定処理部405は、S1102で読み取られた読取画像を先頭ページから順次、学習済みモデル(分類)に入力していく(S1401)。学習済みモデル(分類)は、図5で説明した学習モデルと同様に、様々な画像を入力して学習した学習済みモデルだが、画像の種類を分類可能となるように学習がなされている。そのため、教師データとして、画像の種類「文字」「非風景」「風景」「その他」といったラベル情報が用いられている点が異なる。
推定処理部405は、学習済みモデル(分類)から、画像に対応するラベル情報を取得する。
画像を入力した結果「文字」のラベル情報が取得された場合(S1402:YES)、推定処理部405は、読取画像を更に学習済みモデル(文字)に入力する。学習済みモデル(文字)は、文字を含む様々な画像と向き情報に基づき学習した学習済みモデルである。学習済みモデル(文字)から天地に誤りがあることを示す結果が取得された場合(S1404:YES)、推定処理部405は、画面1300で設定された文字画像用の処理設定を読取画像に対して紐づける。天地に正しいことを示す結果が取得された場合(S1404:NO)、推定処理部405は、S1414へと処理を進める。
読取画像を入力した結果「非風景」のラベル情報が取得された場合(S1402:NO、S1406:YES)、推定処理部405は、読取画像を更に学習済みモデル(非風景)に入力する。学習済みモデル(非風景)は、様々な非風景画像と向き情報に基づき学習した学習済みモデルである。学習済みモデル(非風景)から天地に誤りがあることを示す結果が取得された場合(S1407:YES)、推定処理部405は、画面1300で設定された非風景画像用の処理設定を読取画像に対して紐づける。天地に正しいことを示す結果が取得された場合(S1407:NO)、推定処理部405は、S1414へと処理を進める。
読取画像を入力した結果「風景」のラベル情報が取得された場合(S1402:NO、S1406:NO、S1410:YES)、推定処理部405は、読取画像を更に学習済みモデル(風景)に入力する。学習済みモデル(風景)は、様々な風景画像と向き情報に基づき学習した学習済みモデルである。
学習済みモデル(風景)から天地に誤りがあることを示す結果が取得された場合(S1404:YES)、推定処理部405は、画面1300で設定された風景画像用の処理設定を読取画像に対して紐づける。天地に正しいことを示す結果が取得された場合(S1404:NO)、推定処理部405は、S1414へと処理を進める。
画像を入力した結果「その他」のラベル情報が取得された場合(S1402:NO、S1406:NO、S1410:NO、S1410:NO)、推定処理部405は、S1414へと処理を進める。
その後、推定処理部405は全ページを学習済みモデルに入力したか否かを確認する(S1414)。
まだ未入力のページがある場合(S1414:NO)、推定処理部405はS1415へ処理を進める。S1415において、推定処理部405は処理したページの次の読取画像を学習済みモデル(分類)に入力し、S1402へ処理を戻す。全ページの入力が終了している場合(S1415:YES)、推定処理部405はS1416へ処理を進める。
S1416において、推定処理部405は、推定結果を加味した操作画面を操作部140に表示する。
<備考>
以上で説明したように、本実施例のシステムによれば、読取画像のなかに向きが正しくないと推定されるものが含まれている場合に、これをユーザに提示することができる。特に、原稿をタイプ毎に分類し、原稿タイプ毎の学習モデルを用いて天地の推定をおこなうため、推定精度の向上が望める。また、原稿タイプごとに推定後の処理を設定できるため、推定精度に応じた対応を容易におこなうことができる。
(その他の実施例)
本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
実施例1、2では、各画面について操作部140に表示する例を説明したが、情報の表示先は操作部140には限らない。例えば、VNCを使ってモバイル端末やPCに同様の画面を表示させてもよい。また、モバイル端末やPCのWEBブラウザからアクセス可能なWEBページを提供することで、同内容の情報をモバイル端末やPCに表示させてもよい。
実施例2では、原稿から読み取った画像の分類方法として「文字」「非風景」「風景」の3つを記載したが、他の分類方法や、分類数、組み合わせであってもよい。たとえば、「文字」「画」と単純に分類してもよい。その際、分類は、OCRの結果、文字が含まれていれば「文字」、含まれていなければ「画」といった分類をおこなってもよい。
実施例2では、学習済みモデル(文字)を用いたが、既存のOCR技術を流用し、OCRによって文字が最も多く検出される画像向きを正しい向きと判定してもよい。
また、実施例2では、学習済みモデル(文字)を用いたが、既存のOCR技術を流用し、OCRによって文字が最も多く検出される画像向きを正しい向きと判定してもよい。
また、本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。例えば、ソフトウェアモジュールの一部を外部サーバで実行するように構成し、外部サーバで処理された結果を取得することで、機能を実現してもよい。
実施例ではソフトウェア構成400の役割を、画像形成装置101、機械学習サーバ102、データサーバ105の3つの装置で分担したが、1つの装置でソフトウェア構成400を実現してもよいし、他の装置数でソフトウェア構成400の役割を実現してもよい。
なお、実施例中に登場する略称はそれぞれ次の意味である。
ADFとは、Auto Document Feederのことである。
ASICとは、Application Specific Integrated Circuitのことである。
BIOSとは、Basic Input/Output Systemのことである。
CPUとは、Central Processing Unitである。
FAXとはFACSIMILEのことである。OSとは、Operating Systemのことである。
IFとはInterfaceのことである。
GPUとは、Graphics Processing Unitのことである。
HDDとは、Hard Disk Driveのことである。
JBIGとは、Joint Bi-level Image Experts Groupのことである。
JPEGとは、Joint Photographic Experts Groupのことである。
MFPとは、Multi Function Peripheralのことである。
MHとは、Modified Huffmanのことである。
MMRとは、Modified Modified Readのことである。
OCRとは、Optical character recognitionのことである。
OSとは、Operating Systemのことである。
PCとは、Personal Computerのことである。
PDLとは、Page Description Languageのことである。
RAMとは、Random‐Access Memoryのことである。
RIPとは、Raster Image Processorのことである。
ROMとは、Read Only Memoryのことである。
UIとは、User Interfaceのことである。
USBとは、Universal Serial Busのことである。
VNCとは、Virtual Network Computingのことである。
10 スキャナ
20 プリンタ
101 画像形成装置
102 機械学習サーバ
400 ソフトウェア構成
405 推定処理部
414 機械学習部

Claims (19)

  1. 情報を表示する表示部と、
    原稿を読み取る読取部と、
    文字を含まない画像およびその画像の向き情報に基づき学習した学習済みモデルに前記読取部で読み取られた画像を入力する手段と、
    前記学習済みモデルの出力結果に少なくとも基づいて、前記読取部で読み取られた画像の情報を前記表示部に表示させる手段と、を有することを特徴とする画像処理装置。
  2. 前記出力結果に基づき回転された画像を前記表示部に表示させる手段を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記出力結果に基づき回転された画像と前記回転がなされる前の画像を並べて表示させる手段を有することを特徴とする請求項2に記載の画像処理装置。
  4. 前記出力結果に基づき回転された画像は、修正案を提示するための画像であることを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記読取部で読み取られた画像の一覧情報を表示する画面において、前記出力結果に基づき少なくとも1つの画像の情報を選択状態にする手段を有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記読取部で読み取られた画像の一覧情報を表示する画面において、前記出力結果に基づき少なくとも1つの画像の向きを回転させて配置する手段を有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記読取部で読み取られた画像の一覧情報を表示する画面において、前記出力結果に基づき少なくとも1つの画像に所定のアイコンを紐づける手段を有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  8. 前記所定のアイコンは、画像向きに誤りのある画像を識別するためのアイコンであることを特徴とする請求項7に記載の画像処理装置。
  9. 前記所定のアイコンは、前記出力結果に基づき画像向きが回転された画像を識別するためのアイコンであることを特徴とする請求項7に記載の画像処理装置。
  10. 前記読取部で読み取られた画像の一覧情報を表示する画面において、画像向きに誤りのある画像を一括で修正する手段を有することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 画像の種類を分類する更なる学習済みモデルを備えることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記更なる学習済みモデルは、文字を含む画像、風景画像、非風景画像のうちの少なくとも1つを分類可能であることを特徴とする請求項11に記載の画像処理装置。
  13. 画像向きに誤りのある画像に対して施す処理を、画像の種類に応じてあらかじめ設定する手段と有することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記読取部で読み取られた画像は、保存する目的で読み取られた画像であることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記読取部で読み取られた画像は、外部に送信する目的で読み取られた画像であることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  16. 前記読取部で読み取られた画像は、印刷する目的で読み取られた画像であることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  17. シートに画像を形成する画像形成部を備えることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
  18. 情報を表示する表示部と原稿を読み取る読取部とを有する画像処理装置の制御方法であって、
    文字を含まない画像およびその画像の向き情報に基づき学習した学習済みモデルに前記読取部で読み取られた画像を入力する工程と、
    前記学習済みモデルの出力結果に少なくとも基づいて、前記読取部で読み取られた画像の情報を前記表示部に表示させる工程と、を有することを特徴とする制御方法。
  19. 情報を表示する表示部と、
    原稿を読み取る読取部と、
    文字を含まない画像およびその画像の向き情報に基づき学習した学習済みモデルに前記読取部で読み取られた画像を入力する手段と、
    前記学習済みモデルの出力結果に少なくとも基づいて、前記読取部で読み取られた画像の情報を前記表示部に表示させる手段と、を有することを特徴とする画像処理システム。
JP2020202982A 2020-12-07 2020-12-07 画像処理システム、画像処理装置、制御方法 Pending JP2022090536A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020202982A JP2022090536A (ja) 2020-12-07 2020-12-07 画像処理システム、画像処理装置、制御方法
US17/540,760 US20220182497A1 (en) 2020-12-07 2021-12-02 Image processing system, image processing apparatus, control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020202982A JP2022090536A (ja) 2020-12-07 2020-12-07 画像処理システム、画像処理装置、制御方法

Publications (1)

Publication Number Publication Date
JP2022090536A true JP2022090536A (ja) 2022-06-17

Family

ID=81848361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020202982A Pending JP2022090536A (ja) 2020-12-07 2020-12-07 画像処理システム、画像処理装置、制御方法

Country Status (2)

Country Link
US (1) US20220182497A1 (ja)
JP (1) JP2022090536A (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305846A (ja) * 1995-03-07 1996-11-22 Matsushita Electric Ind Co Ltd ニューロフィルターと像域分割方法とフィルター装置
US7215828B2 (en) * 2002-02-13 2007-05-08 Eastman Kodak Company Method and system for determining image orientation
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
WO2010052830A1 (ja) * 2008-11-06 2010-05-14 日本電気株式会社 画像向き判定装置、画像向き判定方法及び画像向き判定プログラム
US10803617B2 (en) * 2018-03-21 2020-10-13 Wipro Limited Method and system for detecting and correcting an orientation of an image
US10783400B2 (en) * 2018-04-06 2020-09-22 Dropbox, Inc. Generating searchable text for documents portrayed in a repository of digital images utilizing orientation and text prediction neural networks
WO2020040012A1 (ja) * 2018-08-23 2020-02-27 大日本印刷株式会社 特定装置、特定システム、特定方法、生成方法、コンピュータプログラム及び学習モデル
WO2020198381A1 (en) * 2019-03-25 2020-10-01 Mx Technologies, Inc. Accessible remote deposit capture
US11449960B2 (en) * 2019-03-27 2022-09-20 Uber Technologies, Inc. Neural network based identification document processing system
US11948078B2 (en) * 2019-08-23 2024-04-02 Nvidia Corporation Joint representation learning from images and text

Also Published As

Publication number Publication date
US20220182497A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
US8730548B2 (en) Image forming apparatus including setting unit for setting recommended function
JP6001008B2 (ja) 画像読取装置、画像読取装置の制御方法、プログラム、及び記憶媒体
US20070146791A1 (en) Printing apparatus, printing system, printing method, program, and storage medium
JP5502042B2 (ja) 画像データ処理システム
JP2011166748A (ja) 画像処理装置、その制御方法、及びプログラム
US20090009806A1 (en) Image processing apparatus
JP4111462B2 (ja) 画像形成装置
US10070001B2 (en) Document reading apparatus, method for controlling document reading apparatus, and storage medium
JP4941463B2 (ja) 情報処理装置および印刷装置
JP4748785B2 (ja) 情報処理装置、データ処理方法、記憶媒体、コンピュータプログラム
JP5724793B2 (ja) カラー二次元バーコード生成装置、カラー二次元バーコード分離装置、カラー二次元バーコード生成方法、カラー二次元バーコード分離方法、およびコンピュータープログラム
JP2021179686A (ja) 画像形成装置、その制御方法、及びプログラム
US20050038919A1 (en) User-friendly image forming apparatus and image forming method
JP2015080104A (ja) 画像読取装置、画像読取装置の制御方法、プログラム、及び記憶媒体
JP2021013149A (ja) 画像処理システム、画像処理装置とその制御方法、及びプログラム
JP2022090536A (ja) 画像処理システム、画像処理装置、制御方法
JP2012209665A (ja) 情報処理装置、ワークフロー設定方法、及びプログラム
JP2020119255A (ja) 画像変換システムおよび情報処理装置
JP2007249546A (ja) データ処理装置、データ処理方法、プログラム、記憶媒体
JP6946932B2 (ja) 画像処理システム、処理装置及びプログラム
JP5309805B2 (ja) 画像処理装置、画像データ蓄積方法、画像データ蓄積プログラム及び記録媒体
JP6490257B2 (ja) 画像読取装置、画像読取装置の制御方法、プログラム、及び記憶媒体
JP2021150856A (ja) 画像処理システム、画像処理装置、制御方法及びプログラム
JP2022158579A (ja) 画像形成装置、制御方法、及びプログラム
JP2006205442A (ja) 画像形成装置、情報処理方法、ならびにプログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213