JP2009277093A - 画像処理装置、方法、及び、プログラム - Google Patents

画像処理装置、方法、及び、プログラム Download PDF

Info

Publication number
JP2009277093A
JP2009277093A JP2008128791A JP2008128791A JP2009277093A JP 2009277093 A JP2009277093 A JP 2009277093A JP 2008128791 A JP2008128791 A JP 2008128791A JP 2008128791 A JP2008128791 A JP 2008128791A JP 2009277093 A JP2009277093 A JP 2009277093A
Authority
JP
Japan
Prior art keywords
intermediate data
character recognition
data
image processing
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008128791A
Other languages
English (en)
Inventor
Hitoshi Imai
仁 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008128791A priority Critical patent/JP2009277093A/ja
Priority to US12/433,870 priority patent/US8259313B2/en
Publication of JP2009277093A publication Critical patent/JP2009277093A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Character Discrimination (AREA)

Abstract

【課題】入力されたページ記述言語のデータに対して、柔軟に、かつ、高速に文字認識処理を行うことができる画像処理装置を提供する。
【解決手段】ページ記述データを受信する受信手段と、ページ記述データを変換しオブジェクトごとに記述される第1の中間データを生成する第1の中間データ生成手段と、第1の中間データを変換しオブジェクトのエッジ情報で記述された第2の中間データを生成する第2の中間データ生成手段と、オブジェクトの描画位置情報を示すデータを記憶領域に格納する第1の格納手段と、オブジェクトが他のオブジェクトと重なって背面に位置しているか否かを判定する第1の判定手段と、背面に位置していると判定された場合に、第1の中間データに対して文字認識処理を行い、背面に位置していないと判定された場合に、第2の中間データに対して文字認識処理を行う文字認識手段とを備える。
【選択図】図15

Description

本発明は、文字認識処理を行う画像処理装置に関する。
近年、ページ記述データを元に画像処理を行う画像処理装置が広く用いられている。また、そのような画像処理装置を用いた画像処理システムにおいては、画像処理装置に投入されたページ記述データやスキャンデータを、情報管理の容易なファイル形式で、画像処理装置内やネットワーク接続されたサーバに保持することができる。また、逆に画像処理装置内やネットワーク接続されたサーバに保持されている目的のファイルや印刷ジョブ等を必要に応じて用いることができる。
そのような様々な画像処理システムの使用形態において、例えば、複数のファイルから目的のファイルを検索する必要がある場合が考えられる。一般的に、そのような場合には、ファイル中の特徴を検索条件として指定して検索が行われる。例えば、ファイル内に含まれる文字列が検索時に指定されるファイルの特徴(ヒント情報ともいう)として用いられる場合が多い。
従来、そのようなヒント情報に用いられる文字列をファイルから認識する処理について、様々な技術が開発されている。特許文献1には、印刷ジョブのレンダリングを行い、レンダリングされたビットマップデータに対して文字認識処理を行う方法が記載されている。
しかしながら、レンダリングしたビットマップデータに対する文字認識処理について、下記のような課題点がある。一つには、文字の大きさが小さくなる程、1文字当りの情報量(ピクセル数)が減少し、文字の認識率が悪くなってしまうことが考えられる。例えば、カタログの注意書き等の細かい文字については、文字の認識率が悪くなってしまう。
また、他のオブジェクトの背面に回り込んだ文字に対して、文字認識が行えなくなってしまうことが考えられる。ここで、スキャンデータが入力された場合には、そのような問題は起きないが、例えば、電子文書上で注釈をつけた際に、文字の一部が注釈の後ろに隠れた状態でその電子文書の印刷を行う場合に問題となる。また、レンダリング処理を行う必要があるので、ビットマップデータを生成するまでの時間を考えると、結果的に、文字認識処理を行うための処理時間が長くなってしまう。
入力がスキャンデータである場合には、以上のような課題点を回避することは難しい。ここで、入力がページ記述言語である場合には、ビットマップ化する前の種々のデータに対して文字認識処理を行い、上記の課題点を回避することが考えられる。
一般的に、入力されたページ記述言語から生成されるデータとして、主に、ベクタデータ、フィルマップデータがあることが知られている。
ベクタデータに対する文字認識処理は、文字認識処理の成功率が高く、文字がオブジェクトの背後に存在しても認識が可能であり、文字の区切りの認識が容易であるという長所がある。しかしながら、文字認識処理の速度が遅いという短所がある。
フィルマップデータに対する文字認識処理は、文字認識処理の成功率が高く、文字認識処理の速度が速いという長所がある。しかしながら、オブジェクトの後ろに回り込んだ文字の認識が行えず、文字の区切りの認識が難しいという短所がある。
以上のように、入力されたページ記述言語から生成される種々のデータに対して行う文字認識処理はそれぞれの特徴を有しているので、データに応じて柔軟に文字認識処理を行うことが望ましい。
特開2006−202197号公報(段落0137)
そこで、上記の点に鑑み、本発明は、入力されたページ記述言語のデータに対して、柔軟に、かつ、高速に文字認識処理を行うことができる画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、ドキュメントに含まれる文字を認識する文字認識処理を行う画像処理装置であって、ドキュメントのページ記述データを受信する受信手段と、受信手段によって受信したページ記述データを変換し、オブジェクトごとに記述される第1の中間データを生成する第1の中間データ生成手段と、第1の中間データ生成手段によって生成された第1の中間データを変換し、オブジェクトのエッジ情報で記述された第2の中間データを生成する第2の中間データ生成手段と、ドキュメントに含まれるオブジェクトの描画位置情報を示すデータを記憶領域に格納する第1の格納手段と、第1の格納手段によって格納されたオブジェクトの描画位置情報を示すデータを参照し、該オブジェクトが、他のオブジェクトと重なって背面に位置しているか否かを判定する第1の判定手段と、第1の判定手段によって判定された結果、他のオブジェクトと重なって背面に位置していると判定された場合に、第1の中間データ生成手段によって生成された第1の中間データに対して文字認識処理を行って文字を認識し、一方、他のオブジェクトと重なって背面に位置していないと判定された場合に、第2の中間データ生成手段によって生成された第2の中間データに対して文字認識処理を行って文字を認識する文字認識手段とを備える。
本発明によれば、入力されたページ記述言語のデータに対して、柔軟に、かつ、高速に文字認識処理を行うことができる。
以下に、本発明を実施するための最良の形態について、図面を参照しながら詳しく説明する。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
<画像処理装置の構成>
図1は、本発明に係る実施形態における画像処理装置の構成を示す図である。以下、本実施形態を適用するに好適な1Dカラー系MFP(Multi Function Peripheral:マルチファンクション周辺機器)の構成について説明する。1Dカラー系MFPは、スキャナ部、レーザ露光部、感光ドラム、作像部、定着部、給紙/搬送部、及び、これらを制御する不図示のプリンタ制御部から構成される。
スキャナ部は、原稿台に置かれた原稿に対して、照明を当てて原稿画像を光学的に読み取り、その像を電気信号に変換して画像データを作成する。レーザ露光部は、画像データに応じて変調されたレーザ光などの光線を等角速度で回転する回転多面鏡(ポリゴンミラー)に入射させ、反射走査光を感光ドラムに照射させる。
作像部は、感光ドラムを回転駆動し、帯電器によって帯電させ、レーザ露光部によって感光ドラム上に形成された潜像をトナーによって現像化し、現像化されたトナー像をシートに転写する。また、転写されずに感光ドラム上に残った微小トナーは回収される。以上のような一連の電子写真プロセスを実行して作像が行われる。シートが転写ベルトの所定位置に巻きついて4回転する間に、マゼンタ(M)、シアン(C)、イエロー(Y)、ブラック(K)のトナーを持つそれぞれの現像ユニット(現像ステーション)が、入れ替わりで順次前述の電子写真プロセスを繰り返し実行する。4回転の後、4色のフルカラートナー像を転写されたシートは、転写ドラムを離れ、定着部に搬送される。
定着部は、ローラやベルトの組み合わせによって構成され、ハロゲンヒータなどの熱源を内蔵している。また、定着部は、作像部によってトナー像が転写されたシート上のトナーを、熱と圧力によって溶解し定着させる。給紙/搬送部は、シートカセットやペーパーデッキに代表されるシート収納庫を1つ以上有する。また、給紙/搬送部は、プリンタ制御部の指示に応じてシート収納庫に収納された複数のシートから1枚を分離し、作像部・定着部に搬送する。シートは、作像部の転写ドラムに巻きつけられ、4回転した後に定着部に搬送される。シートが4回転する間に、前述のYMCK各色のトナー像がシートに転写される。また、給紙/搬送部は、シートの両面に画像形成する場合に、定着部を通過したシートを、再度作像部に搬送する搬送経路を通るように制御する。
プリンタ制御部は、MFP全体を制御するMFP制御部と通信し、MFP制御部の指示に応じて、上述のスキャナ、レーザ露光、作像部、定着部、給紙/搬送部の各部の状態を管理しながら、全体が調和を保って円滑に動作するように制御する。
<コントローラユニットの構成>
図2は、本実施形態におけるMFPのコントロールユニット(コントローラ)のブロック構成を示す図である。図2に示すコントロールユニット200は、画像入力デバイスであるスキャナ201や画像出力デバイスであるプリンタエンジン202と接続され、内部の各ブロックを制御して、画像データの読み取りやプリント出力を行う。また、コントロールユニット200は、LAN10や公衆回線204と接続され、内部の各ブロックを制御して、画像情報やデバイス情報をLAN10や公衆回線204経由で入出力する。
CPU205は、MFP全体を制御するための中央処理装置である。RAM206は、CPU205が動作する際に用いられるシステムワークメモリであり、入力された画像データを一時記憶するための画像メモリとしても機能する。更に、ROM207は、ブートROMであり、システムのブートプログラムが格納されている。HDD208はハードディスクドライブであり、各種処理のためのシステムソフトウェア及び入力された画像データ等を格納する。操作部I/F209は、画像データ等を表示する表示画面を有する操作部210に対するインタフェース部であり、操作部210に対して操作画面のデータを出力する。また、操作部I/F209は、操作部210により操作者が入力した情報をCPU205に伝える。ネットワークインタフェース211は、例えばLANカードで構成され、LAN10に接続されて、外部装置との間で情報の入出力を行う。更に、モデム212は公衆回線204に接続され、外部装置との間で情報の入出力を行う。以上説明したブロックは、システムバス213上に配置され、CPU205によって制御される。
イメージバスI/F214は、システムバス213と画像データを高速で転送する画像バス215とを接続するためのインタフェースであり、また、データ構造を変換するバスブリッジである。画像バス215上には、ラスタイメージプロセッサ216、デバイスI/F217、スキャナ画像処理部218、プリンタ画像処理部219、画像編集用画像処理部220、カラーマネージメントモジュールであるCMM230が接続される。ラスタイメージプロセッサ216(図2において「RIP」と図示)は、ページ記述言語(PDL)コードや後述するベクトルデータをイメージに展開する。デバイスI/F217は、スキャナ201やプリンタエンジン202とコントロールユニット200とを接続し、画像データの同期系/非同期系の変換を行う。また、スキャナ画像処理部218は、スキャナ201から入力された画像データに対して、補正、加工、編集等の各種処理を行う。プリンタ画像処理部219は、プリント出力する画像データに対して、プリンタエンジンに応じた補正、解像度変換等の処理を行う。画像編集用画像処理部220は、画像データの回転や、圧縮伸長処理等の各種画像処理を行う。CMM230は、画像データに対して、プロファイルやキャリブレーションデータに基づいた、色変換処理(色空間変換処理ともいう)を施すための専用ハードウェアモジュールである。ここで、プロファイルとは、機器に依存した色空間で表現したカラー画像データを機器に依存しない色空間(例えば、Lab)に変換するための関数のような情報をいう。また、キャリブレーションデータとは、カラー複合機において、スキャナ201やプリンタエンジン202の色再現特性を修正するためのデータである。
<コントローラソフトウェア構成>
図3は、MFPの動作を制御するコントローラソフトウェアのブロック構成を示す図である。プリンタインタフェース301は、外部との入出力を行う。プロトコル制御部302は、ネットワークプロトコルを解析することによって外部との通信を行う。PDL/ベクタ変換部303は、ページ記述データ(以降、「PDLデータ」と呼ぶ)を解釈し、解像度に依存しない描画記述であるベクタデータを生成(ベクタライズ)する。ベクタ/フィルマップ変換部304は、生成されたベクタデータを解釈し、解像度に依存しない塗り領域データであるフィルマップデータを生成する。フィルマップデータは、ベクタデータから生成される中間データであり、図10において説明する。レンダリング部305は、フィルマップデータで指示される塗り領域情報に基づいて画像形成を行い、ビットマップデータを生成(レンダリング)する。生成されたビットマップデータはワークメモリ315に格納される。
ベクタデータ文字認識部306は、ベクタデータを分析することにより文字認識を行う。フィルマップ文字認識部307は、フィルマップデータを分析することにより文字認識を行う。ビットマップデータ文字認識部308は、ビットマップデータを分析することにより文字認識を行う。ベクタデータヒント情報生成部309は、ベクタデータ文字認識部306、フィルマップ文字認識部307、ビットマップデータ文字認識部308で得られた文字列とベクタデータを関連付けてベクタデータヒント情報を生成する。ベクタデータヒント情報については、後述する。
パネル入出力制御部310は、操作パネルからの入力及び操作パネルへの出力を制御する。ドキュメント記憶部311は、ベクタデータとベクタデータヒント情報を格納し、ハードディスク等の記憶装置によって構成される。印刷制御部313は、記録紙に永久可視画像を形成する際に、ワークメモリ315にページごとに格納されているレンダリングデータをビデオ信号に変換処理し、プリンタエンジン部314に画像転送する。
プリンタエンジン部314は、画像転送されたビデオ信号を記録紙に永久可視画像形成するための印刷機構部である。スキャン制御部312は、スキャナの動作を制御する。ワークメモリ315は、MFPで行われるソフトウェア処理で扱う様々なデータを一時的に格納し、DRAM等の記憶装置によって構成される。
<システム構成>
図4は、本実施形態における画像処理装置を含む画像処理システムの全体構成を示す図である。図4に示すように、ホストPC、MFP1、MFP2がネットワークを介して接続されている。基本的な使用形態として、ユーザが所望するドキュメントの印刷を行いたい場合に、ユーザは、ホストPC又はMFP上で出力を所望するMFPに対して印刷指示を行う。印刷指示を受けたホストPC又はMFPは、ドキュメントからPDLデータを生成し、そのPDLデータを印刷に使用するMFPに転送して印刷を行う。
一方、高度な使用形態として、ユーザがドキュメントをMFP(サーバやホストPCでも良い)上に保存し、必要に応じて印刷する。本実施形態において、ドキュメントをMFP上に保存する方法(以降、「ボックス」機能と呼ぶ)について説明する。ボックスへの保存を行いたい場合に、ユーザは、基本的な使用形態と同様の方法を用いて、ドキュメントをボックスに保存する必要がある。即ち、ユーザがボックス保存先にするMFPに対して、ボックス保存指示を行う。ボックス保存指示を受けたホストPC又はMFPは、ドキュメントからPDLデータを生成し、生成されたPDLデータをボックス保存を行うMFPに転送する。PDLデータを受信したMFPは、PDLデータを保存に適したデータに変換し、ドキュメント記憶部311に格納する。ユーザが格納したドキュメントの印刷を行いたい場合には、ユーザが、ドキュメントのファイル名を指定するか、又は、ドキュメントに含まれる文字列で検索を行い、対象となるドキュメントの印刷を実行する。
<文字認識処理のデータフロー>
以下、本実施形態における文字認識処理までのデータフローの概略について説明する。本実施形態においては、場合に応じて、3種類の文字認識処理を行うことができる。まず、それぞれの文字認識処理を行う場合のデータフローの概略について個別に説明する。
図5は、フィルマップデータに対する文字認識処理を行う場合を説明する図である。図5に示すように、ベクタデータから生成されたフィルマップデータに対して文字認識処理が行われる。フィルマップデータについては、図10において説明する。
まず、画像処理装置は、受信したPDLデータに対してPDL/ベクタ変換処理を行って、ベクタデータを生成する。更に、画像処理装置は、生成されたベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成するとともに、ベクタデータから「オブジェクト描画位置情報」を抽出する。ベクタデータもフィルマップデータもPDLデータから生成される中間データである。ベクタデータは、本実施形態における第1の中間データの一例であり、フィルマップデータは、本実施形態における第2の中間データの一例である。オブジェクト描画位置情報については、後述する。画像処理装置は、オブジェクト描画位置情報を参照して、フィルマップデータに対して文字認識処理を行って文字列を抽出する。
図6は、ベクタデータに対する文字認識処理を行う場合を説明する図である。図6に示すように、ベクタデータに対して文字認識処理が行われる。
まず、画像処理装置は、受信したPDLデータに対してPDL/ベクタ変換処理を行って、ベクタデータを生成する。更に、画像処理装置は、生成されたベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成するとともに、ベクタデータからオブジェクト描画位置情報を抽出する。
ここで、オブジェクト描画位置情報を参照し、対象としているオブジェクトが他のオブジェクトの背面に回り込んでいるか否かを判定し、他のオブジェクトの背面に回り込んでいると判定されれば、ベクタデータに対して文字認識処理を行って文字列を抽出する。
図7は、ビットマップデータに対する文字認識処理を行う場合を説明する図である。図7に示すように、ビットマップデータに対して文字認識処理が行われる。
まず、画像処理装置は、受信したPDLデータに対してPDL/ベクタ変換処理を行って、ベクタデータを生成する。更に、画像処理装置は、生成されたベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成するとともに、ベクタデータからオブジェクト描画位置情報を抽出する。
ここで、フィルマップデータを参照し、テキストとイメージについての描画命令が混在している場合には、フィルマップデータに対してレンダリングを行ってビットマップデータを生成し、ビットマップデータに対して文字認識処理を行って文字列を抽出する。
<データ構造の説明>
ここで、本実施形態において生成される各データについて説明する。
図8は、本実施形態におけるPDLデータの一例を示す図である。PDLデータは、人間が編集しやすい高水準言語で記述されたデータであり、画像処理装置の行うべき処理手続きが記述されている。また、PDLデータは、解像度に依存しない解像度非依存のデータである。
図8の(a)に示すように、最初にグラフィックス属性を有する楕円の描画命令が記述され、次に、テキスト属性を有する「A」「B」「C」が順に上書きされるように、描画命令が記述される。ここで、「上書き」とは後に描画されるものが、必ず前面に描画されることをいう。PDLデータはオブジェクトごとに情報が存在するので、図8の(b)に示すように、オブジェクトが重なっていても、隠れている部分がどのようなオブジェクトであるかを、分解して知ることができる。図8の(a)に示される「(X0,Y0)−(X1,Y1)」等は、後述するオブジェクト描画位置情報である。
図9は、本実施形態におけるベクタデータの一例を示す図である。ベクタデータは、PDLデータで指示された内容をデバイスが実行し易い形にフォーマット変換され、冗長部の間引き等が行われた低水準言語で記述されたデータである。また、ベクタデータは、解像度に依存しない解像度非依存のデータである。ベクタデータも、PDLデータと同じく、オブジェクトごとに情報が存在するので、図9の(b)に示すように、オブジェクトが重なっていても、隠れている部分がどのようなオブジェクトであるかを、分解して知ることができる。図9の(a)に示すように、例えば、「A」というテキストについては、「文字ID=0」の記述によって、「A」というフォントのデータ列が指定される。また、各テキストと楕円について、オブジェクト描画位置情報も示されている。
図10は、本実施形態におけるフィルマップデータの一例を示す図である。フィルマップデータは、PDLデータやベクタデータとは異なり、オブジェクトの重なりを示さない1階層のデータ構造である。従って、オブジェクト毎の情報は存在せず、レンダリング時に、ピクセルをどのような配置でマッピングするかをエッジ情報として指示する解像度非依存のデータである。
従って、図10の(c)に示すように、オブジェクトが重なっている場合には、他のオブジェクトの下に回り込んだオブジェクトについて、オブジェクト全体を復元することはできない。しかしながら、フィルマップデータは1階層のデータ構造であるので、フィルマップを用いた各種処理(文字認識、レンダリング等)を高速に行えるという特徴がある。図10の(a)に示すように、エッジ情報として、例えば「(X2,X3)」のように、1つのy座標における左端と右端の座標が記述されている。また、座標で示されたエッジ情報で示される部分がテキスト情報、又は、グラフィックス情報であることが記述されている。図10に示されるようなフィルマップデータ対してレンダリングが行われる際には、矢印で示されるように、上段から下段のフィルマップデータに向けて順にレンダリングが行われる。
<文字認識処理のアルゴリズム>
以下、本実施形態における文字認識処理のアルゴリズムの概要について説明する。
図11は、フィルマップデータに対して行われる文字認識処理のアルゴリズムの概要を説明する図である。フィルマップデータは、まず、ステップS1101において、レンダリング時の塗りつぶし領域を左右の座標で示したエッジリストの集合が生成される。これは、図10における説明と同様である。次に、ステップS1102において、エッジリストのx軸方向の中点を導出し、ステップS1103において、存在するべきx軸方向の線を補間する。
次に、ステップS1104において、存在するべき交点と線とを補間し、ステップS1105において、線分と線分の傾きを量子化して文字の特徴(成分)を抽出する。次に、ステップS1106において、文字の成分を分解して、抽出された成分の特性に最も近い文字を選択することによって文字認識を行う。
図12は、ビットマップデータに対して行われる文字認識処理のアルゴリズムの概要を説明する図である。ビットマップデータに書かれている文字については、どこが1文字であるかを判定する必要がある。従って、画像処理装置は、まず、ステップS1201において、文字領域を切り出す。文字領域の切り出しについては、ヒストグラムを用いて孤立文字を抽出する方法を始めとした一般的なアルゴリズムが用いられる。次に、ステップS1202において、認識対象の文字を切り出し、ステップS1203において、文字のエッジのベクトルを抽出する。抽出されたベクトルに対して、ステップS1204において、線分と線分の傾きを量子化して文字の特徴(成分)を抽出する。ステップS1205において、文字の成分を分解し、ステップS1206において、抽出された成分の特性に最も近い文字を選択することによって文字認識を行う。
<オブジェクト描画位置情報に関して>
以下、本実施形態において用いられるオブジェクト描画位置情報について説明する。
図13は、オブジェクト描画位置情報について説明する図である。図13の(a)に、「ABC」という文字列が描画され、「B」のみ楕円の上に描かれていることが、PDLデータとして記述されている。そのような場合に、PDLデータとして、グラフィックス属性で楕円を上書き描画し、続いてテキスト属性で「ABC」を上書き描画するというように記述される。
図8においても説明したように、各オブジェクト毎に、オブジェクト描画位置情報が定義される。ここで、オブジェクト描画位置情報は、各オブジェクトの描画領域を示す座標情報を含んでいる。描画位置情報は、デバイスが各オブジェクトごとに確保するメモリサイズの算出を目的とし、無駄なメモリを使用しないように、基本的にオブジェクトの上下左右に外接する矩形領域として表現される。図13の(b)に、描画位置情報が図示されている。本実施形態においては、この描画位置情報の重なりを見ることによって、オブジェクト同士で重なりがあるか否かを判定する。
また、複数のオブジェクト間で、どのオブジェクトが前面にくるかは、PDLデータに記述された各オブジェクトの描画順番と、上書き等の描画方法の指定によって判定することができる。例えば、図13の(a)に示す例においては、前面から「C」、「B」、「A」、楕円の順番となる。図13の(c)に示すように、ユーザから見て、「C」、「B」、「A」、楕円の順に、階層が深くなっている。以上のように、本実施形態においては、オブジェクトが他のオブジェクトの背面に回り込んでいるか否かを判定することができる。
図14は、オブジェクト描画位置情報について説明する他の図である。図14の(a)に、「ABC」という文字列が描画され、「B」の上に楕円が描かれ、更に、「EFG」が描画されていることが、PDLデータとして記述されている。ここで、「EFG」は、手書き文字をスキャンすることによって取り込まれたオブジェクトであり、「EFG」全体で1つのビットマップデータのオブジェクトとして扱われる。図14の(a)の場合に、PDLデータとして、テキスト属性で「ABC」を上書き描画し、続いてグラフィックス属性で楕円を上書き描画し、続いてテキスト属性で「EFG」のビットマップデータを上書き描画するというように記述される。図14の(b)に、図14の(a)の場合についての描画位置情報が図示されている。
ビットマップデータのオブジェクトである「EFG」も、「ABC」と同様に、オブジェクトの上下左右に外接する矩形領域として表現される。従って、ビットマップデータのオブジェクトが混在している場合においても、この描画位置情報の重なりを見ることによって、オブジェクト同士で重なりがあるか否かを判定することができる。また、ビットマップデータのオブジェクトが混在している場合においても、複数のオブジェクト間で、どのオブジェクトが前面にくるかを、PDLデータに記述された各オブジェクトの描画順番と、上書き等の描画方法の指定によって判定することができる。例えば、図14の(a)に示す例においては、前面から「EFG」、楕円、「C」、「B」、「A」の順番となる。図14の(c)に示すように、ユーザから見て「EFG」、楕円、「C」、「B」、「A」の順に、階層が深くなっている。以上のように、オブジェクトが他のオブジェクトの背面に回り込んでいるか否かを判定することができる。
<PDLデータ文字認識処理の流れ>
図15は、本実施形態における文字認識処理の手順を示すフローチャートである。
まず、画像処理装置は、ステップS1501において、図8に示すようなPDLデータを受信し、ステップS1502に進む。ステップS1502において、PDLコマンドを解釈して図9に示すようなベクタデータに変換し、ステップS1503に進む(第1の中間データ生成)。ステップS1503において、ベクタデータを解釈して図10に示すようなフィルマップデータに変換し、ステップS1504に進む(第2の中間データ生成)。ここで、変換されたベクタデータ及びフィルマップデータは、メモリ等の記憶領域に格納されるようにしても良い。
ステップS1504において、テキスト属性を有するオブジェクトが存在するか否かを判定する。ここで、存在すると判定された場合には、ステップS1505に進み、一方、存在しないと判定された場合には、本処理を終了する。ステップS1504における判定は、図8に示すようなPDLデータから判定しても良いし、又は、図9に示すようなベクタデータから判定しても良い。ステップS1504の判定処理は、本実施形態における第2の判定手段の一例である。
次に、ステップS1505において、テキスト属性のオブジェクトの描画位置情報を抽出してワークメモリに格納し、ステップS1506に進む。ステップS1505の処理は、本実施形態における第1の格納手段の一例である。ここで、オブジェクトの描画位置情報は、例えば、PDLデータから抽出しても良いし、又は、ベクタデータから抽出しても良い。ステップS1506において、ステップS1503において変換されたフィルマップデータからテキスト属性のフィルマップデータを抽出し、ステップS1507に進む。
ステップS1507において、抽出されたテキスト属性のフィルマップデータを参照し、テキスト描画命令とイメージ描画命令とが混在しているか否かを判定する。テキスト属性を有するオブジェクトには、テキスト描画オブジェクトとイメージ描画オブジェクトとがある。テキスト描画オブジェクトとは、「ABC」等の文字列の描画を指示するテキスト描画命令によって記述されたオブジェクトである。また、イメージ描画オブジェクトとは、ワードアート等の飾り文字の描画を指示するイメージ描画命令によって記述されたオブジェクトである。例えば、通常のテキスト文字と飾り文字とが一体化したオブジェクトは、テキスト属性を有するが、描画命令としては、テキスト描画命令とイメージ描画命令とが混在する。本実施形態において、そのようなテキスト属性のオブジェクトについては、ステップS1512においてフィルマップデータに対してレンダリングを行い、ビットマップデータを生成して文字認識処理を行う。
ステップS1512の処理は、本実施形態におけるビットマップデータ生成手段の一例である。一方、抽出された1つのテキスト属性のフィルマップデータ(描画命令群)においてテキスト描画命令とイメージ描画命令とが混在していないと判定された場合には、ステップS1508に進む。ステップS1507の処理は、ドキュメント内における、全てのテキスト属性のフィルマップデータについて行われる。ステップS1507の判定処理は、本実施形態における第3の判定手段の一例である。
ステップS1508において、格納されたテキスト属性のオブジェクトの描画位置情報をワークメモリから読み出し、ステップS1509に進む。
ステップS1509において、読み出されたテキスト属性のオブジェクトの描画位置情報を参照して、他のオブジェクトの背面に回り込んでいるか否かを判定する。ここで、存在すると判定された場合には、ステップS1510に進み、そのオブジェクトについてのみ、図16に示すベクタデータに対する文字認識処理を行う。一方、回り込んでいないと判定された場合には、ステップS1511に進み、図17に示すフィルマップデータに対する文字認識処理を行う。ステップS1509の処理は、ドキュメント内における、全てのテキスト属性のオブジェクトについて行われる。以上のように、受信したPDLデータで記述されたドキュメントに対して、各条件に応じた文字認識処理が行われ、本処理を終了する。ステップS1509の判定処理は、第1の判定手段の一例である。
図16は、図15のステップS1510に示すベクタデータに対する文字認識処理の手順を示すフローチャートである。まず、画像処理装置は、ステップS1601において、他のオブジェクトの背面に回り込んでいるテキスト属性を有するオブジェクトを検索し、ステップS1602に進む。ステップS1602において、検索されたオブジェクトに対してのみ、ベクタデータからフィルマップデータに変換し、ステップS1603に進む。ステップS1603において、図17に示すフィルマップデータに対する文字認識処理を行い、本処理を終了する。
図17は、図16のステップS1603に示すフィルマップデータに対する文字認識処理の手順を示すフローチャートである。画像処理装置は、ステップS1701において、テキスト属性を有するオブジェクトの描画位置情報をワークメモリから読み出し、ステップS1702に進む。ステップS1702において、テキスト属性を有するオブジェクトの描画位置情報から文字領域を取得し、ステップS1703に進む。ステップS1703において、取得された文字領域中のフィルマップデータを分析して文字の構成成分を取得し、ステップS1704に進む。ステップS1703における処理は、図11における説明と同じである。ステップS1704において、文字の構成成分から文字を特定し、本処理を終了する。
図18は、図15のステップS1512に示すビットマップデータに対する文字認識処理の手順を示すフローチャートである。画像処理装置は、ステップS1801において、対象のオブジェクトに対してのみ、レンダリング処理を行い、ステップS1802に進む。ステップS1802において、ビットマップデータに対して文字領域切り出しを行い、ステップS1803に進む。ステップS1803において、対象の文字領域中のビットマップデータを分析して文字の構成成分を取得し、ステップS1804に進む。ステップS1803における処理は、図12における説明と同じである。ステップS1804において、文字の構成成分から文字を特定し、本処理を終了する。
以上のように、本実施形態においては、ドキュメントに含まれるテキスト属性を有するオブジェクトについて、PDLデータから生成されたエッジ情報を有する中間データ(フィルマップデータ)に対して文字認識処理を行う。また、オブジェクト間に重なりがある場合や、テキスト属性を有するイメージ描画命令を含む場合には、適宜、その対象となる部分についてのみ、ベクタデータ又はビットマップデータに対して文字認識処理を行う。
即ち、本実施形態における画像処理装置は、受信したPDLデータから中間データ(ベクタデータとフィルマップデータ)を生成する。また、テキスト属性を有するオブジェクトがテキスト属性を有するイメージ描画命令を含んでいるかということと、テキスト属性を有するオブジェクトが他のオブジェクトの背後に回り込んでいるかということを判定する。テキスト属性を有するオブジェクトがテキスト属性を有するイメージ描画命令を含まず、他のオブジェクトに回り込んでいない場合には、エッジ情報を有するフィルマップデータに対して文字認識処理を行う。また、他のオブジェクトに回り込んでいる場合においては、重なりのあるオブジェクトについてのみ、ベクタデータに対して文字認識処理を行う。また、テキスト属性を有するオブジェクトがテキスト属性を有するイメージ描画命令を含む場合には、そのオブジェクトについてのみ、レンダリング処理を行って文字認識処理を行う。その結果、全体として、文字認識処理を高速化することができる。
次に、図15に示す文字認識処理を用いて得られた文字列情報をヒント情報として付加した印刷ドキュメントをボックス格納する例について説明する。
<ボックス格納のデータフロー>
図19は、フィルマップデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。図5において説明したように、画像処理装置は、PDLデータに対してPDL/ベクタ変換処理を行い、ベクタデータを生成する。次に、ベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成し、同時に、オブジェクト描画位置情報を生成する。次に、オブジェクト描画位置情報を参照し、フィルマップデータに対して文字認識処理を行って文字列を生成する。
画像処理装置は、更に、生成された文字列をベクタデータに関連付けたベクタデータヒント情報を生成し、ベクタデータとベクタデータヒント情報を組としてドキュメント記憶部311に格納する。図19においては、ベクタデータとベクタデータヒント情報との組がフィルマップデータとともにドキュメント記憶部311に格納されている様子が示されている。
図20は、ベクタデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。図6において説明したように、画像処理装置は、PDLデータに対してPDL/ベクタ変換処理を行い、ベクタデータを生成する。次に、ベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成し、同時に、オブジェクト描画位置情報を生成する。次に、オブジェクト描画位置情報を参照し、他のオブジェクトの背面に回りこんでいるテキスト属性を有するオブジェクトが存在するか、又は、イメージ描画命令とテキスト描画命令が混在したテキスト属性のオブジェクトでないかを判定する。ここで、両方を満たしていると判定された場合には、ベクタデータから対応するオブジェクトを抽出し文字認識処理を行い、文字列を生成する。
画像処理装置は、更に、生成された文字列をベクタデータに関連付けたベクタデータヒント情報を生成し、ベクタデータとベクタデータヒント情報を組としてドキュメント記憶部311に格納する。図20においては、ベクタデータとベクタデータヒント情報との組がフィルマップデータとともにドキュメント記憶部311に格納されている様子が示されている。
図21は、ビットマップデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。図7において説明したように、画像処理装置は、PDLデータに対してPDL/ベクタ変換処理を行い、ベクタデータを生成する。次に、ベクタデータに対してベクタ/フィルマップ変換処理を行ってフィルマップデータを生成し、同時に、オブジェクト描画位置情報を生成する。次に、オブジェクト描画位置情報を参照し、イメージ描画命令とテキスト描画命令が混在したテキスト属性のオブジェクトであるかを判定する。ここで、イメージ描画命令とテキスト描画命令が混在したテキスト属性のオブジェクトと判定された場合には、そのテキスト属性のフィルマップデータについてレンダリングを行う。次に、生成されたビットマップデータに対して文字認識処理を行って文字列を生成する。
画像処理装置は、更に、生成された文字列をベクタデータに関連付けたベクタデータヒント情報を生成し、ベクタデータとベクタデータヒント情報を組としてドキュメント記憶部311に格納する。図21においては、ベクタデータとベクタデータヒント情報との組がフィルマップデータとともにドキュメント記憶部311に格納されている様子が示されている。
<ボックス格納の処理の流れ>
図22は、本実施形態におけるボックス格納処理の手順を示すフローチャートである。まず、画像処理装置は、ステップS2201において、図15に示す文字認識処理を行って、ステップS2202に進む。ステップS2202において、文字認識処理で得られた文字列をベクタデータに関連付けてベクタデータヒント情報を生成し、ステップS2203に進む。ステップS2203において、ベクタデータとベクタデータヒント情報とを組として、ドキュメント記憶部311に格納し、本処理を終了する。ステップS2203は、本実施形態における第2の格納手段の一例である。
<ベクタデータヒント情報の概要>
図23は、本実施形態におけるベクタデータヒント情報の概要を示す図である。例えば、図23の(a)に示すようなデータを例に挙げる。文字列2301は、テキスト属性のフィルマップデータに対して文字認識処理することによって得られる。一方、文字列2302は、図15のステップS1507においてイメージ属性のテキスト描画命令と判定され、ビットマップデータに対して文字認識処理することによって得られる。
文字認識されたそれぞれのデータについて図19〜図21に示すように、ベクタデータヒント情報が生成され、ドキュメント記憶部311に格納される。図23の(b)は、ベクタデータヒント情報が格納された一例を示している。図23の(b)に示すように、文字列2301と文字列2302は、ベクタデータのファイル名と関連付けられて、ドキュメント記憶部311において別々に格納されている。従って、ボックスに格納されたドキュメントを文字列を用いて検索する場合に、文書内に元々存在していた活字部分と、それ以外の部分(署名等)とを別々に検索することができる。
本発明には、プログラム(画像処理プログラム)コードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた場合についても、本発明は適用される。その場合に、書き込まれたプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される。
本発明に係る実施形態における画像処理装置の構成を示す図である。 本実施形態におけるMFPのコントロールユニット(コントローラ)のブロック構成を示す図である。 MFPの動作を制御するコントローラソフトウェアのブロック構成を示す図である。 本実施形態における画像処理装置を含む画像処理システムの全体構成を示す図である。 フィルマップデータに対する文字認識処理を行う場合を説明する図である。 ベクタデータに対する文字認識処理を行う場合を説明する図である。 ビットマップデータに対する文字認識処理を行う場合を説明する図である。 本実施形態におけるPDLデータの一例を説明する図である。 本実施形態におけるベクタデータの一例を説明する図である。 本実施形態におけるフィルマップデータの一例を説明する図である。 フィルマップデータに対して行われる文字認識処理のアルゴリズムの概要を説明する図である。 ビットマップデータに対して行われる文字認識処理のアルゴリズムの概要を説明する図である。 オブジェクト描画位置情報について説明する図である。 オブジェクト描画位置情報について説明する他の図である。 本実施形態における文字認識処理の手順を示すフローチャートである。 図15のステップS1510に示すベクタデータに対する文字認識処理の手順を示すフローチャートである。 図16のステップS1603に示すフィルマップデータに対する文字認識処理の手順を示すフローチャートである。 図15のステップS1512に示すビットマップデータに対する文字認識処理の手順を示すフローチャートである。 フィルマップデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。 ベクタデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。 ビットマップデータに対する文字認識処理で得られた文字列をヒント情報とする場合を説明する図である。 本実施形態におけるボックス格納処理の手順を示すフローチャートである。 本実施形態におけるベクタデータヒント情報の概要を示す図である。
符号の説明
10 LAN
200 コントロールユニット
204 公衆回線
2301、2302 文字列

Claims (8)

  1. ドキュメントに含まれる文字を認識する文字認識処理を行う画像処理装置であって、
    前記ドキュメントのページ記述データを受信する受信手段と、
    前記受信手段によって受信したページ記述データを変換し、オブジェクトごとに記述された第1の中間データを生成する第1の中間データ生成手段と、
    前記第1の中間データ生成手段によって生成された第1の中間データを変換し、オブジェクトのエッジ情報で記述された第2の中間データを生成する第2の中間データ生成手段と、
    前記ドキュメントに含まれるオブジェクトの描画位置情報を示すデータを記憶領域に格納する第1の格納手段と、
    前記第1の格納手段によって格納されたオブジェクトの描画位置情報を示すデータを参照し、該オブジェクトが、他のオブジェクトと重なって背面に位置しているか否かを判定する第1の判定手段と、
    前記第1の判定手段によって判定された結果、他のオブジェクトと重なって背面に位置していると判定された場合に、前記第1の中間データ生成手段によって生成された第1の中間データに対して文字認識処理を行って該オブジェクトの文字を認識し、一方、他のオブジェクトと重なって背面に位置していないと判定された場合に、前記第2の中間データ生成手段によって生成された第2の中間データに対して文字認識処理を行って該オブジェクトの文字を認識する文字認識手段と
    を備えることを特徴とする画像処理装置。
  2. 前記描画位置情報は、オブジェクトに外接する矩形領域の座標を示す情報であることを特徴とする請求項1に記載の画像処理装置。
  3. ドキュメントにおいて、テキスト属性を有するオブジェクトが存在するか否かを判定する第2の判定手段を更に備え、
    前記第2の判定手段によって判定された結果、テキスト属性を有するオブジェクトが存在すると判定された場合に、前記文字認識手段によって文字認識処理を行い、一方、テキスト属性を有するオブジェクトが存在しないと判定された場合に、前記文字認識手段によって文字認識処理を行わないことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記テキスト属性を有するオブジェクトには、テキスト描画命令で記述されたテキスト描画オブジェクトと、イメージ描画命令で記述されたイメージ描画オブジェクトとの内、少なくともいずれかが含まれ、
    前記第2の中間データ生成手段によって生成された第2の中間データを参照し、前記テキスト属性を有するオブジェクトが、前記イメージ描画オブジェクトを含んでいるか否かを判定する第3の判定手段と、
    前記第3の判定手段によって判定された結果、前記イメージ描画オブジェクトを含んでいると判定された場合に、前記第2の中間データをレンダリングして、ビットマップデータを生成するビットマップデータ生成手段とを更に備え、
    前記文字認識手段は、前記ビットマップデータ生成手段によって生成されたビットマップデータに対して文字認識処理を行い、
    前記第3の判定手段によって判定された結果、前記イメージ描画オブジェクトを含んでいないと判定された場合に、前記第1の中間データ生成手段によって生成された第1の中間データ、又は、前記第2の中間データ生成手段によって生成された第2の中間データに対して文字認識処理を行うことを特徴とする請求項3に記載の画像処理装置。
  5. 前記文字認識手段は、生成された前記第2の中間データ、又は、生成された前記ビットマップデータから文字を構成する成分を抽出することによって、文字を認識することを特徴とする請求項4に記載の画像処理装置。
  6. 前記文字認識手段によって認識された文字を含む文字列を前記第1の中間データとともに、ドキュメントと関連付けて記憶領域に格納する第2の格納手段を更に備えることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. ドキュメントに含まれる文字を認識する文字認識処理を行う画像処理装置において実行される画像処理方法であって、
    前記画像処理装置の受信手段が、ドキュメントのページ記述データを受信する受信工程と、
    前記画像処理装置の第1の中間データ生成手段が、前記受信工程において受信したページ記述データを変換し、オブジェクトごとに記述された第1の中間データを生成する第1の中間データ生成工程と、
    前記画像処理装置の第2の中間データ生成手段が、前記第1の中間データ生成工程において生成された第1の中間データを変換し、オブジェクトのエッジ情報で記述された第2の中間データを生成する第2の中間データ生成工程と、
    前記画像処理装置の第1の判定手段が、前記ドキュメントに含まれるオブジェクトの描画位置情報を示すデータを参照し、該オブジェクトが、他のオブジェクトと重なって背面に位置しているか否かを判定する第1の判定工程と、
    前記画像処理装置の文字認識手段が、前記第1の判定工程において判定された結果、他のオブジェクトと重なって背面に位置していると判定された場合に、前記第1の中間データ生成工程において生成された第1の中間データに対して文字認識処理を行って該オブジェクトの文字を認識し、一方、他のオブジェクトと重なって背面に位置していないと判定された場合に、前記第2の中間データ生成工程において生成された第2の中間データに対して文字認識処理を行って該オブジェクトの文字を認識する文字認識工程と
    を備えることを特徴とする画像処理方法。
  8. ドキュメントに含まれる文字を認識する文字認識処理を行うための画像処理プログラムであって、
    ドキュメントのページ記述データを受信する受信手段と、
    前記受信手段によって受信したページ記述データを変換し、オブジェクトごとに記述された第1の中間データを生成する第1の中間データ生成手段と、
    前記第1の中間データ生成手段によって生成された第1の中間データを変換し、オブジェクトのエッジ情報で記述された第2の中間データを生成する第2の中間データ生成手段と、
    前記ドキュメントに含まれるオブジェクトの描画位置情報を示すデータを参照し、該オブジェクトが、他のオブジェクトと重なって背面に位置しているか否かを判定する第1の判定手段と、
    前記第1の判定手段によって判定された結果、他のオブジェクトと重なって背面に位置していると判定された場合に、前記第1の中間データ生成手段によって生成された第1の中間データに対して文字認識処理を行って該オブジェクトの文字を認識し、一方、他のオブジェクトと重なって背面に位置していないと判定された場合に、前記第2の中間データ生成手段によって生成された第2の中間データに対して文字認識処理を行って該オブジェクトの文字を認識する文字認識手段と
    してコンピュータを機能させることを特徴とする画像処理プログラム。
JP2008128791A 2008-05-15 2008-05-15 画像処理装置、方法、及び、プログラム Withdrawn JP2009277093A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008128791A JP2009277093A (ja) 2008-05-15 2008-05-15 画像処理装置、方法、及び、プログラム
US12/433,870 US8259313B2 (en) 2008-05-15 2009-04-30 Image processing apparatus, method, and computer-readable medium storing the program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008128791A JP2009277093A (ja) 2008-05-15 2008-05-15 画像処理装置、方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2009277093A true JP2009277093A (ja) 2009-11-26

Family

ID=41315867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008128791A Withdrawn JP2009277093A (ja) 2008-05-15 2008-05-15 画像処理装置、方法、及び、プログラム

Country Status (2)

Country Link
US (1) US8259313B2 (ja)
JP (1) JP2009277093A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069766A (ja) * 2018-11-02 2020-05-07 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166403A (ja) * 2010-02-09 2011-08-25 Seiko Epson Corp 画像処理装置、方法及びコンピュータプログラム
US8799769B2 (en) * 2011-02-08 2014-08-05 Ebay Inc. Application above-the-fold rendering measurements
JP2012178042A (ja) * 2011-02-25 2012-09-13 Canon Inc 画像形成装置、画像形成方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5552903A (en) * 1991-05-01 1996-09-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method
KR940001047B1 (ko) * 1992-02-14 1994-02-08 주식회사 금성사 온라인 필기체 인식시스템 및 방법.
US5379130A (en) * 1992-12-02 1995-01-03 Industrial Technology Research Institute Text/image separation method
JP2006202197A (ja) 2005-01-24 2006-08-03 Canon Inc 画像管理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069766A (ja) * 2018-11-02 2020-05-07 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP7224856B2 (ja) 2018-11-02 2023-02-20 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム

Also Published As

Publication number Publication date
US8259313B2 (en) 2012-09-04
US20090284777A1 (en) 2009-11-19

Similar Documents

Publication Publication Date Title
JP5038229B2 (ja) 画像処理装置、画像処理方法並びに画像処理プログラム及びそれを記録する記録媒体
JP5043715B2 (ja) 画像処理装置
JP4928373B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP5058904B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP5188201B2 (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
US20080180707A1 (en) Image processing apparatus, image processing system, and image processing method
US8458139B2 (en) Image processing apparatus, control method thereof, program, and storage medium
JP5006764B2 (ja) 画像処理装置、画像処理方法、プログラム、および記憶媒体
JP5426843B2 (ja) 情報処理装置、情報処理方法、プログラムおよびプログラムを格納する記憶媒体
JP4892427B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP5288879B2 (ja) 印刷装置及びその制御方法、プログラム、並びに、コンピュータ読み取り可能な記憶媒体
JP2009277093A (ja) 画像処理装置、方法、及び、プログラム
US8224091B2 (en) Image processing apparatus, method of controlling the same, and program for extracting information usable for a search
US8179560B2 (en) Image processing apparatus and image processing method
JP2009301294A (ja) 画像処理装置、方法、及び、プログラム
JP5247394B2 (ja) メタデータ決定方法及び画像形成装置
JP5265042B2 (ja) 画像処理装置、画像処理方法並びに画像処理プログラム及びそれを記録する記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110510

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120730