JP2009271779A - 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体 - Google Patents

画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体 Download PDF

Info

Publication number
JP2009271779A
JP2009271779A JP2008122561A JP2008122561A JP2009271779A JP 2009271779 A JP2009271779 A JP 2009271779A JP 2008122561 A JP2008122561 A JP 2008122561A JP 2008122561 A JP2008122561 A JP 2008122561A JP 2009271779 A JP2009271779 A JP 2009271779A
Authority
JP
Japan
Prior art keywords
metadata
image
image processing
character
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008122561A
Other languages
English (en)
Other versions
JP5188260B2 (ja
JP2009271779A5 (ja
Inventor
Yoichi Kashibuchi
洋一 橿渕
Hiroshi Kaburagi
浩 蕪木
Tsutomu Sakagami
努 坂上
Takeshi Namigata
健 波潟
Manabu Takebayashi
学 竹林
Reiji Misawa
玲司 三沢
Osamu Iinuma
修 飯沼
Naoki Ito
直樹 伊藤
Junya Arakawa
純也 荒川
Shinji Sano
真治 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008122561A priority Critical patent/JP5188260B2/ja
Priority to US12/427,403 priority patent/US8181108B2/en
Publication of JP2009271779A publication Critical patent/JP2009271779A/ja
Publication of JP2009271779A5 publication Critical patent/JP2009271779A5/ja
Application granted granted Critical
Publication of JP5188260B2 publication Critical patent/JP5188260B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/912Applications of a database
    • Y10S707/913Multimedia

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】原稿のオブジェクト分離を行い、メタデータを付与するシステムにおいて、適切なメタデータがつかない、あるいは、メタデータを追加で増やしたい場合に、直感的な操作によってメタデータを編集できる方法を提供する。
【解決手段】入力手段により得られた原稿を複数のオブジェクトに分離し、メタデータを付与する画像処理装置において、オブジェクトのメタデータを編集するためのユーザーインターフェースを備え、第1と第2のオブジェクトを選択した後、第1のオブジェクトと第2のオブジェクトの夫々のメタデータの内容に基づいて、メタデータの修整方法を切り替える。
【選択図】図28

Description

本発明は、例えば、複合複写装置等の画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体に関する。
近年、環境問題が叫ばれる中、オフィスでのペーパーレス化が急速に進んでいる。このペーパーレス化を実現する従来技術として、次のような文書管理システムや画像通信システムなどを挙げることができる。文書管理システムでは、まず、バインダー等で蓄積された紙文書をスキャナで読み取る。その読み取った画像を、例えば、Portable Document Format(以下、PDF)に変換して、画像記憶装置に蓄積して管理することが行われる。画像通信システムでは、PDF等に変換したデータを遠隔地に送信することが行われる(特許文献1)。
一方、電子化された情報として保存した文書を有効に活用するために、保存した大量の情報の中から必要な情報を検索する技術が重要となってきている。例えば、図,表,写真等の画像および文字列が混在した文書中の画像を検索するための方法が提案されている(特許文献2)。特許文献2に開示の技術では、文書中の画像およびその画像について記述した文字列を抽出し、かつ、それらを関連づけて格納している。そして、検索の際には、ユーザーにより指定された任意の検索語に基づいて、格納済みの文字列を検索して、該当する文字列に関連づけられた画像を出力することができるものとなっている。
さらに、画像に対する注釈情報の付与を容易に行なう方法が提案されている(特許文献3)。これは、画像(例えば、人物画像)と、各々がメタデータ(例えば、人名のメタデータ)と関連している複数のアイコンとを表示し、画像にアイコンをドラッグ&ドロップすることで、画像に対してアイコンと関連するメタデータを注釈としてつける方法である。
特開2001−358857号公報 特願平9−181610号公報 特開2002−055748号公報
しかしながら、特許文献2に示されるように、文書中の文字列を検索のためのメタデータとして画像に付与する方法では、適切なメタデータがつかない場合がある。さらには、適切なメタデータがついていたとしても、追加、削除など、メタデータの編集を行いたい場合がある。
このような時、ユーザーは、画像とメタデータが表示されているメタデータ編集画面を見ながら、キーボード入力より、所望のメタデータに編集することが一般的であるが、編集しようとするメタデータの数が多いと、ユーザーの負担になるという課題がある。
また、特許文献3の、画像にアイコンをドラッグ&ドロップして、この画像に対してアイコンと関連するメタデータを注釈としてつける方法では、注釈のつき方が常に一方向で、固定であるため、ユーザーの操作を制限してしまうという課題があった。
即ち、画像に対してアイコンという画像をドラッグ&ドロップする方法しかないため、逆に、アイコンに対して画像をドラッグ&ドロップして注釈をつけることはできなかった。
また、別の課題として、写真画像に対して文字画像を、文字画像に対して写真画像を、文字画像に対して文字画像をドラッグ&ドロップして注釈をつけることもできなかった。
さらに、この方法では、写真画像に対して写真画像、写真画像に対して文字画像、文字画像に対して写真画像、文字画像に対して文字画像をドラッグ&ドロップした時の注釈の付き方を各々変更させることができない。そのため、注釈の付き方がユーザーにとって直感的に理解しづらいという課題があった。
上記課題を解決するために本発明の画像処理装置は、イメージデータを入力する入力手段と、イメージデータを複数のオブジェクトに分割するためのオブジェクト分割手段と、該オブジェクト分割手段により得られた各オブジェクトへメタデータを付与するメタデータ付与手段と、ユーザーの選択指示に基づいてメタデータの編集対象となる第1のオブジェクトと第2のオブジェクトとを選択する選択手段と、該選択手段で選択された前記第1のオブジェクトと第2のオブジェクトそれぞれのメタデータを解析するメタデータ解析手段と、該メタデータ解析手段の解析結果に基づいて、前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータの更新手順を決定する決定手段と、前記決定手段により決定した更新手順で前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータとの少なくともいずれかを更新する更新手段とを備えることを特徴とする。
本発明によれば、メタデータの編集が容易であり、ユーザーにとって直感的に理解がしやすく、かつ後で再利用・検索がしやすいメタデータの付与が可能となる。
例えば、写真画像に対して写真画像のメタデータを付与することができるだけでなく、写真画像に対して文字画像のメタデータを、また文字画像に対して写真画像のメタデータを、また文字画像に対して文字画像のメタデータを付与することが可能である。
さらに、写真画像に対して写真画像を、写真画像に対して文字画像を、文字画像に対して写真画像を、文字画像に対して文字画像を関連付けした時のメタデータの付き方を各々変更することが可能である。これにより、写真画像に対して、写真画像を関連付けする場合、前者の写真画像に後者の写真画像のリンク先をメタデータとして追加しておき、前者の写真画像を検索した場合、容易に後者の写真画像を辿ることができる。
さらに、文字画像に対して、文字画像を関連付けする場合、キャプション文字数の少ない方の文字画像に対して、キャプション文字数の多い方の文字画像のメタデータを付与することで、ユーザーが直感的に利用しやすくなる。
また、写真画像に対して、写真画像を関連付けした場合に、ユーザーに応じて処理を切り替え、同一ユーザーならば前者の写真画像に後者の写真画像のリンク先を付加させ、異なるユーザーならば後者の写真画像を付加させる。これによって、後日、後者の写真画像のメタデータが別のユーザーによって不測のものに書き換えられたとしても、前者の写真画像の検索性を損なわないという利点がある。
[実施形態1]
次に本発明に係る画像処理方法の第1の実施形態を図面に基づいて説明する。
本実施形態1では、関連付けされた第1と第2のオブジェクトの属性に基づいて、メタデータのマージ方法を切り替える方法について説明する。
本実施形態で参照する図面は以下のとおりである。
図1は、本発明を適用できる画像処理システムを示すブロック図であり、図2は、図1におけるMFPを示すブロック図、また図3は本実施形態1で説明する第1のデータ処理フローである。また図7は、ベクトル化処理の中で実施するオブジェクト分割処理で領域分割情報した結果の一例を表し、図8は、オブジェクト分割したときの各属性のブロック情報および入力ファイル情報を表す。図9は、再利用可能なデータへの変換で重要なベクトル化処理のフロー図である。図10は、ベクトル化の処理における角抽出の処理を示す図であり、図11は、ベクトル化の処理における輪郭線まとめの処理を示す図である。図12は、図9で生成されたベクトルデータのグループ化の処理を示すフローチャートであり、図13は、図12の処理でグループ化されたベクトルデータに対する図形要素検出の処理を示すフローチャートである。また図14は、本実施形態1に係るベクトル化処理結果のデータを示すマップであり、図15は、アプリデータ変換の処理を示すフローチャートである。図16は、図15の文書構造ツリー生成の処理を示すフローチャートであり、図17は、文書構造ツリー生成処理の対象となる文書を示す図である。図18は、図16の処理によって生成される文書構造ツリーを示す図であり、図19は、本実施形態1で説明するScalable Vector Graphics(以下、SVG)形式の一例である。
[画像処理システム]
はじめに、本実施形態で使用可能画像処理システムについて図1を用いて説明する。
図1において、本実施形態における画像処理システムは、オフィス10とオフィス20とをインターネット104で接続した環境において使用される。
オフィス10内に構築されたLAN107には、記録装置としてのマルチファンクション複合機(以下、MFP)100が接続されている。また、MFP100を制御するマネージメントPC101、ローカルPC102、文書管理サーバ106、文書管理サーバ106のためのデータベース105が接続されている。
オフィス20内にはLAN108が構築され、LAN108には文書管理サーバ106、および文書管理サーバ106のためのデータベース105が接続されている。
LAN107、108にはプロキシサーバ103が接続され、LAN107、108はプロキシサーバ103を介してインターネットに接続される。
MFP100は、原稿から読み取った入力画像に対する画像処理の一部を担当し、処理結果としての画像データはLAN109を通じてマネージメントPC101に入力する機能がある。加えて、ローカルPC102、もしくは不図示の汎用PCから送信されるPage Discription Language(以下、PDL)言語を解釈して、プリンタとして作用する。さらには、原稿から読み取った画像をローカルPC102もしくは、不図示の汎用PCに送信する機能をもつ。マネージメントPC101は、画像記憶手段、画像処理手段、表示手段、入力手段等を含む通常のコンピュータであり、機能的にはこれら構成要素の一部がMFP100と一体化して、画像処理システムの構成要素となっている。なお、本実施形態では、マネージメントPCを介してデータベース105において、下記に記載する登録処理などが実行されるものとするが、マネージメントPCで行われる処理をMFPで実行するようにしても構わない。
さらにMFP100は、LAN109によってマネージメントPC101に直接接続されている。
[MFP]
図2において、MFP100は、図示しないAuto Document Feeder(以下、ADF)を有する画像読み取り部110を備える。画像読み取り部110は束状の或いは1枚の原稿の画像を光源で照射し、反射画像をレンズで固体撮像素子上に結像する。固体撮像素子は所定解像度(例えば600dpi)および所定輝度レベル(例えば8ビット)の画像読み取り信号を生成し、画像読み取り信号からラスターデータよりなる画像データが構成される。
MFP100は、記憶装置(以下、BOX)111および記録装置112を有し、通常の複写機能を実行する際には、イメージデータをデータ処理装置115によって、複写用の画像処理をして記録信号に変換する。複数枚複写の場合には、1頁分の記録信号を一旦BOX111に記憶保持した後、記録装置112に順次出力して、記録紙上に記録画像を形成する。
MFP100は、LAN107との接続のためのネットワークI/F114を有し、ローカルPC102、もしくは他の汎用PC(不図示)からドライバーを利用して出力するPDL言語によるPDLデータを、記録装置112によって記録し得る。ローカルPC102からドライバーを経由して出力されるPDLデータは、LAN107からネットワークI/F114を経てデータ処理装置115に入力される。その後、PDLの言語を解釈・処理することで記録可能な記録信号に変換された後、MFP100において、記録紙上に記録画像として記録される。
BOX111は、画像読み取り部110からのデータやローカルPC102からドライバーを経由して出力されるPDLデータをレンダリングしたデータを保存できる機能を有している。
MFP100は、MFP100に設けられたキー操作部(入力装置113)、あるいはマネージメントPC101の入力装置(キーボード、ポインティングデバイス等)を通じて操作される。これらの操作のために、データ処理装置115 は内部の制御部(図示せず。)によって所定の制御を実行する。
MFP100は表示装置116を有し、操作入力の状態と、処理すべきイメージデータとを、表示装置116によって表示し得る。
BOX111はI/F117を介して、マネージメントPC101から直接制御し得る。LAN109は、MFP100とマネージメントPC101との間のデータの授受、制御信号授受に用いられる。
[データ処理装置115の詳細]
次に、図2のデータ処理装置115の詳細について、図41を用いて説明する。
尚、図41の110〜116については、図2の説明において前述しているため説明を一部省略する。
データ処理装置115は、CPU、メモリ等で構成される制御ユニットであり、画像情報やデバイス情報の入出力を行うコントローラである。ここで、CPU120はシステム全体を制御するコントローラである。RAM123はCPU120が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリでもある。ROM122はブートROMであり、システムのブートプログラムが格納されている。
操作部I/F121は操作部133とのインターフェース部で、操作部133に表示するための画像データを操作部133に対して出力する。また、操作部133から本画像処理装置の使用者が入力した情報を、CPU120に伝える役割をする。以上のデバイスがシステムバス124上に配置される。イメージバスインターフェース(Image Bus I/F)125はシステムバス124と画像データを高速で転送する画像バス126とを接続し、データ構造を変換するバスブリッジである。
画像バス126は、例えば、PCIバスやIEEE1394で構成される。画像バス126上には以下のデバイスが配置される。ラスターイメージプロセッサ(RIP)127はPDLコードを解析し、ビットマップイメージに展開する。デバイスI/F部128は、信号線131を介して画像入出力デバイスである画像読み取り部110、信号線132を介して記録装置112、をそれぞれ制御ユニット204に接続し、画像データの同期系/非同期系の変換を行う。
スキャナ画像処理部129は、入力画像データに対し補正、加工、編集を行う。プリンタ画像処理部130は、記録装置112に出力すべきプリント出力画像データに対して、記録装置112に応じた補正、解像度変換等を行う。
オブジェクト分割部134は、後述するオブジェクト毎の保存において、後述するオブジェクト分割を行う。オブジェクト別画像処理部135は、前記オブジェクト分割部134で分割したオブジェクトの属性に応じた画像処理を適用的に切り替えて実施する。処理の詳細は後述する。メタデータ付与部136は、前記オブジェクト別画像処理部135で画像処理が行われたオブジェクトに対し、後述するメタデータの付与を行う。
選択部137は、後述するメタデータの編集処理において、操作部133でユーザーにより選択指示された編集対象となる後述の送オブジェクトと受オブジェクトとを選択する。前記選択部137で選択されたオブジェクトは、メタデータ解析部138においてメタデータの解析を行い、メタデータ更新手順決定部139においてメタデータの更新手順を決定し、メタデータ更新部140においてメタデータの編集を行う。
[オブジェクト毎の保存]
次に、図3を用いて、図41に示すオブジェクト分割部134、オブジェクト別画像処理部135、メタデータ付与部136で行われるオブジェクト毎の保存について詳細に説明する。
図3は、MFP100のビットマップ画像データをオブジェクト毎に保存するためのフローチャートである。
MFP100において、前記ビットマップ画像データは、画像読み取り部110により取得される。または、ローカルPC102上において、アプリケーションソフトで作成されたドキュメントをMFP100内部でレンダリングして生成される。
まず、ステップS301において、オブジェクト分割が行われる。ここでオブジェクト分割後のオブジェクトの種類は、文字、写真、グラフィック(図面、線画、表)、背景、であるものとする。分割された各々のオブジェクトは、ビットマップデータのままで、ステップS302において、オブジェクトの種類(文字、写真、グラフィック、背景)を判定する。写真の場合、ステップS303において、ビットマップのままJPEG圧縮される。また、背景の場合も同様に、ステップS303において、ビットマップのままJPEG圧縮される。
次に、オブジェクト判定の結果が、グラフィックの場合、ステップS304において、ベクトル化処理され、パス化されたデータに変換される。最後に、オブジェクト判定の結果が、文字の場合も、ステップS304において、グラフィックと同様にベクトル化処理され、パス化されたデータに変換される。
更に、文字の場合には、ステップS308において、ベクトル化処理またはOCR処理が施される。このベクトル化処理はS304で用いられたものと同じものである。OCR処理が施されたデータに関しては文字コード化されたデータに変換される。全てのオブジェクトデータと、文字コード化されたデータが一つのファイルとしてまとめられる。
次に、ステップS305において、各オブジェクトに対して、最適なメタデータが付与される。メタデータが付与された各々のオブジェクトは、ステップS306において、MFP100に内蔵されているBOXに保存される。保存されたデータは、ステップS307において、UI画面に表示される。
[ビットマップ画像データの作成]
ここで、図3のS301にてオブジェクト分割されるイメージデータの入力方法について述べる。
以下のように2つのケースがあるビットマップ画像データ作成について図5、6を用いて説明する。
(a)MFP100の画像読み取り部入力の場合
MFP100の画像読み取り部を使用した場合には、図5のステップS501において、画像を読み込む。読み込まれた画像は、既にビットマップ画像データである。そのビットマップ画像データをステップS502において、スキャナに依存する画像処理を行う。スキャナに依存する画像処理とは、例えば、色処理やフィルタ処理を指す。
(b)PC102上のアプリケーションソフトを使用した場合
PC102上のアプリケーションソフトを使用して作成したアプリデータは、図6のステップS601において、PC102上にあるプリントドライバを介して、プリントデータに変換され、MFP100に送信される。ここで言うプリントデータとは、PDLデータを意味し、例えば、LIPS、Postscript等によるものを指す。
次にステップS602において、MFP100内部に存在するインタープリタを介して、ディスプレイリストが生成される。そのディスプレイリストをステップ603において、レンダリングすることにより、ビットマップ画像データが生成される。
上記2つの例により生成されたビットマップ画像データは、前述のステップ301において、オブジェクト分割される。
〔メタデータ付け(ステップS305)〕
ここでは前述のステップS305におけるメタデータ付けの詳細を、図4を用いて説明する。
図4は、ステップS305のメタデータ付けに関するフローチャートである。
まず、ステップS401において、そのオブジェクトの周囲で一番近くに存在する文字オブジェクトを選択する。
次に、ステップS402において、選択された文字オブジェクトに対して、ステップ402において、形態素解析を行う。その形態素解析結果により抽出された単語をメタデータとして、ステップ403において、各オブジェクトに付加する。なお、メタデータの作成には、形態素解析だけではなく、画像特徴量抽出、構文解析等により、作成できることは言うまでもない。
[ベクトル化されたデータの詳細]
ここでは図3のベクトル化処理S304でベクトル化されたデータの具体例として、ベクトル化されたデータのフォーマットの一例を図19に示す。なお、本実施形態では、SVG形式で表記しているが、これに限定されるものではない。
図19では説明のため、オブジェクトの表記を枠で囲っている。枠:1901はイメージ属性を示し、そこには、イメージオブジェクトの領域を示す領域情報とこのイメージオブジェクトのビットマップ情報が示されている。枠:1902はテキストオブジェクトの情報が示され、枠:1903では、枠:1902で示した内容をベクターオブジェクトとして表現している。続く、枠:1904は、表オブジェクトなどのラインアートを表す。
[オブジェクト分割ステップ]
次に、前述のステップS301におけるオブジェクト分割の詳細について説明する。
ステップS301(オブジェクト分割ステップ)においては、図7右半部の画像702に示すように、入力画像を属性ごとに矩形ブロックに分割する。前述のように、矩形ブロックの属性としては、文字、写真、グラフィック(図面、線画、表など)がある。
オブジェクト分割ステップにおいては、まず、RAM(不図示)に格納されたイメージデータを白黒に2値化し、黒画素輪郭で囲まれる画素塊を抽出する。
さらに、このように抽出された黒画素塊の大きさを評価し、大きさが所定値以上の黒画素塊の内部にある白画素塊に対する輪郭追跡を行う。白画素塊に対する大きさ評価、内部黒画素塊の追跡というように、内部の画素塊が所定値以上である限り、再帰的に内部画素塊の抽出、輪郭追跡を行う。画素塊の大きさは、例えば画素塊の面積によって評価される。
このようにして得られた画素塊に外接する矩形ブロックを生成し、矩形ブロックの大きさ、形状に基づき属性を判定する。
例えば、縦横比が1に近く、大きさが一定の範囲の矩形ブロックは文字領域矩形ブロックの可能性がある文字相当ブロックとする。近接する文字相当ブロックが規則正しく整列しているときに、これら文字相当ブロックを纏めた新たな矩形ブロックを生成し、新たな矩形ブロックを文字領域矩形ブロックとする。
また扁平な画素塊を、もしくは一定大きさ以上でかつ四角形の白画素塊を整列よく内包する黒画素塊をグラフィック領域矩形ブロック、それ以外の不定形の画素塊を写真領域矩形ブロックとする。
オブジェクト分割ステップでは、このようにして生成された矩形ブロックのそれぞれについて、図8に示すような、属性等のブロック情報および入力ファイル情報を生成する。
図8において、ブロック情報には各ブロックの属性、位置の座標X、座標Y、幅W、高さH、OCR情報が含まれる。属性は1〜3の数値で与えられ、1は文字領域矩形ブロック、2は写真領域矩形ブロック、3はグラフィック領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は入力画像におけるポインタ情報の有無を示す。さらに入力ファイル情報として矩形ブロックの個数を示すブロック総数Nが含まれる。
これらの矩形ブロックごとのブロック情報は、特定領域でのベクトル化に利用される。またブロック情報によって、特定領域とその他の領域を合成する際の相対位置関係を特定でき、入力画像のレイアウトを損なわずにベクトル化領域とラスターデータ領域を合成することが可能となる。
[ベクトル化ステップ]
次いで、前述のステップS304におけるベクトル化処理の詳細について、図9を用いて説明する。このステップS304(ベクトル化ステップ)の処理は、具体的には図9の各ステップによって実行される。
ステップS901:特定領域が文字領域矩形ブロックであるか否か判断し、文字領域矩形ブロックであればステップS902以下のステップに進み、周知のパターンマッチングの一手法を用いて認識を行い、対応する文字コードを得る。特定領域が文字領域矩形ブロックでないときは、ステップS912に移行する。
ステップS902:特定領域に対し横書き、縦書きの判定(組み方向判定)をおこなうために、特定領域内で画素値に対する水平・垂直の射影を取る。
ステップS903:ステップS902で求めた射影の分散を評価する。水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判断する。
ステップS904:ステップS903の評価結果に基づき、組み方向を判定し、行の切り出しを行い、その後切出した行からさらに文字を切り出して文字画像を得る。
文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、切り出された行に対する垂直方向の射影から、文字を切り出す。縦書きの文字領域に対しては、水平と垂直について逆の処理を行う。行、文字切り出しに際して、文字のサイズも検出し得る。
ステップS905:ステップS904で切り出された各文字について、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルを生成する。この観測特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴ベクトルとする方法がある。
ステップS906:ステップS905で得られた観測特徴ベクトルと、あらかじめフォントの種類ごとに求められている辞書特徴ベクトルとを比較し、観測特徴ベクトルと辞書特徴ベクトルとの距離を算出する。
ステップS907:ステップS906で算出された各特徴ベクトル間の距離を評価し、最も距離の近いフォントの種類を認識結果とする。
ステップS908:ステップS907における距離評価において、最短距離が所定値よりも大きいか否か、類似度を判断する。類似度が所定値以上の場合は、辞書特徴ベクトルにおいて、形状が類似する他の文字に誤認識している可能性が高い。そこで類似度が所定値以上の場合は、ステップS907の認識結果を採用せず、ステップS911に進む。類似度が所定値より低い(小さい)ときは、ステップS907の認識結果を採用し、ステップ909に進む。
ステップS909(フォント認識ステップ):文字認識の際に用いる、フォントの種類数分の辞書特徴ベクトルを、文字形状種すなわちフォント種に対して複数用意しておく。パターンマッチングの際に、文字コードとともに前記辞書特徴ベクトルのフォント種を出力することで、文字フォントを認識し得る。
ステップS910:文字認識およびフォント認識よって得られた文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、各文字をベクトルデータに変換する。なお、入力画像がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。
ステップS911:文字を一般的なグラフィックと同様に扱い、この文字をアウトライン化する。すなわち誤認識を起こす可能性の高い文字については、イメージデータに可視的に忠実なアウトラインのベクトルデータを生成する。
ステップS912:特定領域が文字領域矩形ブロックでないときは、画像の輪郭に基づいてベクトル化の処理を実行する。
以上の処理により、文字領域矩形ブロックに属するイメージ情報をほぼ形状、大きさ、色が忠実なベクトルデータに変換出来る。
[グラフィック領域のベクトル化]
ステップS302にて、文字領域矩形ブロック以外の領域、すなわちグラフィック領域矩形ブロックと判断されたときは、特定領域内で抽出された黒画素の塊の輪郭をベクトルデータに変換する。
文字領域以外の領域のベクトル化においては、まず線画等を直線および/または曲線の組み合わせとして表現するために、曲線を複数の区間(画素列)に区切る「角」を検出する。角とは曲率が極大となる点であり、例えば図10に示す曲線上の画素Piが角か否かの判断は以下のように行う。
すなわち、Piを起点とし、曲線に沿ってPiから両方向に所定画素(ここではk個とする)ずつ離れた画素Pi−k、Pi+kを線分Lで結ぶ。画素Pi−k、P i+k間の距離をd1、線分Lと画素Piとの距離をd2、曲線の画素Pi−k 、Pi+k間の弧の長さをAとする。d2が極大となるとき、あるいは比(d1/A)が閾値以下となるときに画素Piを角と判断する。
角によって分割された画素列を、直線あるいは曲線で近似する。直線への近似は最小二乗法等により実行し、曲線への近似は3次スプライン関数などを用いる。画素列を分割する角の画素は近似直線あるいは近似直線における、始端または終端となる。
さらにベクトル化された輪郭内に白画素塊の内輪郭が存在するか否かを判断し、内輪郭が存在するときはその輪郭をベクトル化し、内輪郭の内輪郭というように、再帰的に反転画素の内輪郭をベクトル化する。
以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出して抽出した色情報をベクトルデータとともに記録する。
図11に示すように、ある注目区間で外輪郭PRjと、内輪郭PRj+1あるいは別の外輪郭が近接している場合、2個あるいは複数の輪郭線をひとまとめにし、太さを持った線として表現することができる。例えば、輪郭PRj+1の各画素Piから輪郭PRj上で最短距離となる画素Qiまでの距離PQiを算出し、PQiのばらつきがわずかである場合には、注目区間を画素Pi、Qiの中点Miの点列に沿った直線または曲線で近似し得る。近似直線、近似曲線の太さは、例えば距離PQiの平均値とする。
線や線の集合体である表罫線は、太さを持つ線の集合とすることにより、効率よくベクトル表現することができる。
輪郭まとめの処理の後、全体の処理を終了する。
なお写真領域矩形ブロックについては、ベクトル化せず、イメージデータのままとする。
[図形認識]
以上のように線図形等のアウトラインをベクトル化した後、ベクトル化された区分線を図形オブジェクトごとにグループ化する。
以下に説明する図12の各ステップは、ベクトルデータを図形オブジェクトごとにグループ化する処理を示す。
ステップS1201:まず各ベクトルデータの始点、終点を算出する。
ステップS1202(図形要素検出):ステップS1201で求められた始点、終点情報を用いて、図形要素を検出する。図形要素とは、区分線が構成している閉図形であり、検出に際しては、始点、終端となっている共通の角の画素においてベクトルを連結する。すなわち、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用する。
ステップS1203:次に図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとする。また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。
[図形要素の検出]
上記ステップS1202(図形要素検出)の処理は、具体的には図13の各ステップによって実行される。
ステップS1301:まず、ベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形を構成するベクトルを抽出する。
ステップS1302:次に閉図形を構成するベクトルについて、いずれかのベクトルの端点(始点または終点)を開始点とし、一定方向、例えば時計回りに、順にベクトルを探索する。すなわち、他端点において他のベクトルの端点を探索し、所定距離内の最近接端点を連結ベクトルの端点とする。閉図形を構成するベクトルを1まわりして開始点に戻ったとき、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する。また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。
ステップS1303:最後に、ステップS1301で除去された不要ベクトルのうち、ステップS1302で閉図形としてグループ化されたベクトルに端点が近接しているベクトルを検出し、一つの図形要素としてグループ化する。
以上の処理によって図形ブロックを、再利用可能な個別の図形オブジェクトとして扱うことが可能になる。
[BOX保存処理]
次いで、前述したステップS306のBOX保存の詳細について説明する。
図3のオブジェクト分割ステップ(ステップS301)の後、ベクトル化(ステップS304)した結果のデータを用いて、BOX保存データへの変換処理が実行される。本実施形態では、ステップS304のベクトル化処理結果は図14に示す中間データの形式、いわゆるドキュメント・アナリシス・アウトプット・フォーマット(以下、DAOF)と呼ばれる形式で保存されている。
図14において、DAOFは、ヘッダ1401、レイアウト記述データ部1402、文字認識記述データ部1403、表記述データ部1404、画像記述データ部1405よりなる。
ヘッダ1401には、処理対象の入力画像に関する情報が保持される。
レイアウト記述データ部1402には、入力画像中の矩形ブロックの属性である文字、線画、図面、表、写真等の情報と、これら属性が認識された各矩形ブロックの位置情報が保持される。
文字認識記述データ部1403には、文字領域矩形ブロックのうち、文字認識して得られる文字認識結果が保持される。
表記述データ部1404には、表の属性を持つグラフィック領域矩形ブロックの表構造の詳細が格納される。
画像記述データ部1405には、グラフィック領域矩形ブロックにおけるイメージデータが、入力画像データから切り出して保持される。
ベクトル化処理を指示された特定領域においては、ベクトル化処理により得られたブロックに対して、画像記述データ部1405には、そのブロックの内部構造や、画像の形状や文字コード等を表すデータの集合が保持される。
一方、ベクトル化処理の対象ではない、特定領域以外の矩形ブロックでは、入力画像データそのものが保持される。
ここで、BOX保存データへの変換処理について図15〜18を用いて説明する。
BOX保存データへの変換処理は図15に示す各ステップにより実行される。
ステップS1501(図15):DAOF形式のデータを入力する。
ステップS1502:アプリデータの元となる文書構造ツリー生成を行う。
ステップS1503:文書構造ツリーを元に、DAOF内の実データを取得し、実際のアプリデータを生成する。
このステップS1502の文書構造ツリー生成処理は、図16の各ステップにより実行される。図16の処理における全体制御の基本ルールとして、処理の流れはミクロブロック(単一矩形ブロック)からマクロブロック(矩形ブロックの集合体)へ移行する。以後「矩形ブロック」は、ミクロブロックおよびマクロブロック両者を意味するものとする。
ステップS1601(図16):矩形ブロック単位で、縦方向の関連性に基づいて、矩形ブロックを再グループ化する。図16の処理は繰り返し実行されることがあるが、処理開始直後はミクロブロック単位での判定となる。
ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどの特徴によって定義される。また、距離、幅、高さなどの情報はDAOFを参照し、抽出する。
一例として示す図17のイメージデータでは、最上部で、矩形ブロックT1、T2が横方向に並列されている。矩形ブロックT1、T2の下には横方向セパレータS1が存在し、横方向セパレータS1の下に矩形ブロックT3、T4、T5、T6、T7が存在する。
矩形ブロックT3、T4、T5は、横方向セパレータS1下側の領域における左半部において上から下に、縦方向に配列され、矩形ブロックT6、T7は、横方向セパレータS1下側の領域における右半部において上下に配列されている。
このようなイメージデータに対し、ステップS1601の縦方向の関連性に基づくグルーピングの処理を実行する。これによって、矩形ブロックT3、T4、T5が1個のグループ(矩形ブロック)V1にまとめられ、矩形ブロックT6、T7が1個のグループ(矩形ブロック)V2にまとめられる。グループV1、V2は同一階層となる。
ステップS1602:縦方向のセパレータの有無をチェックする。セパレータは、DAOF中でライン属性を持つオブジェクトであり、アプリケーションソフトウエア中で明示的にブロックを分割する機能をもつ。セパレータを検出すると、処理対象の階層において、入力画像の領域を、セパレータを境界として左右に分割する。図17の例では縦方向のセパレータは存在しない。
ステップS1603:縦方向のグループ高さの合計が入力画像の高さに等しくなったか否か判断する。すなわち縦方向(例えば上から下へ。)に処理対象の領域を移動しながら、横方向のグルーピングを行うとき、入力画像全体の処理が終了したときには、グループ高さ合計が入力画像高さになることを利用し、処理の終了判断を行う。グルーピングが終了したときはそのまま処理終了し、グルーピングが終了していなかったときはステップS1604に進む。
ステップS1604:横方向の関連位に基づくグルーピングの処理を実行する。これによって、矩形ブロックT1、T2が1個のグループ(矩形ブロック)H 1にまとめられ、矩形ブロックV1、V2が1個のグループ(矩形ブロック)H 2にまとめられる。グループH1、H2は同一階層となる。ここでも、処理開始直後はミクロブロック単位での判定となる。
ステップS1605:横方向のセパレータの有無をチェックする。セパレータを検出すると、処理対象の階層において、入力画像の領域を、セパレータを境界として上下に分割する。図17では横方向のセパレータS1が存在する。
以上の処理結果は図18に示すツリーとして登録される。
図18において、入力画像V0は、最上位階層にグループH1、H2、セパレータS1を有し、グループH1には第2階層の矩形ブロックT1、T2が属する。グループH2には、第2階層のグループV1、V2が属し、グループV1には、第3階層の矩形ブロックT3、T4、T5が属し、グループV2には、第3階層の矩形ブロックT6、T7が属する。
ステップS1606:横方向のグループ長合計が入力画像の幅に等しくなったか否か判断する。これによって横方向のグルーピングに関する終了判断を行う。横方向のグループ長がページ幅となっている場合は、文書構造ツリー生成の処理を終了する。横方向のグループ長がページ幅となっていないときは、ステップS1601に戻り、再びもう一段上の階層で、縦方向の関連性チェックから繰り返す。
[表示方法]
次に、図3のS307に示したUIに表示に関して、図20〜24を用いて詳細な説明を行う。
図20にユーザーインターフェースの一例を示す。このユーザーインターフェースは、MFP100が有する表示装置116の例である。しかしながら、ユーザーインターフェースはこれに限るものではなく、マネージメントPC101、または、ネットワークで接続されたローカルPC102が有するアプリケーションを用いて表示するRemoteUIのような表示装置によるものでもよい。
図20において、2001にはBOX内に保存されているデータが表示されている。2002に示すように一つ一つの文章には名前がついており、入力された時間などの情報も表示される。オブジェクト分割表示を行う場合には、2001で原稿を選択して、オブジェクト表示ボタン2003を押すことで表示が変わる。これに関しては、後述する。また、2001で原稿を選択して、ページ表示ボタン2004を押すことでも表示が変わる。これに関しても後述する。
図21にユーザーインターフェースの他の例を示す。図21の2101は、前述のステップS306でBOX保存されたデータの内容を表示する。このユーザーインターフェースでは、ラスタ画像を縮小した画像を表示することや、前述したSVGを使って表示をさせることも可能である。つまり、前述してきたデータを基にページ全体を表示していれば良い。
2102は、MFPの機能を選択するためのタブで、このタブの押下により、コピーや送信、リモート操作、ブラウザー、BOXといったMFPが持っている機能を選択できるものである。これ以外の機能に対しても同様の表示を行うことが出来ることは示すまでもない。
2103は、原稿モードを選択するためのリスト表示であり、原稿を読み取る場合の原稿モードを選択することが出来る。これは原稿タイプによって、画像処理を切り替えるために選択をするものでここに示した以外のモードも同様に表示選択をすることが出来る。2104には、原稿読み取りのスタートのボタンを2104に示している。このボタンの押下により、スキャナが動作して、画像を読み込むことになる。この例では、読込みスタートを画面内に設けているが、別途設けたスタートボタンによって読み込みを開始してもよい。
図22に示すユーザーインターフェースの例は、オブジェクト分割した結果が分かるように、各オブジェクトに枠を表示させるようにしたものである。2201のボタンを押すことにより、ページ表示画面2202に対してそれぞれオブジェクトの枠が表示される。枠には色付けをすることにより、オブジェクトの違いを分かるように表示することや、線の太さ、あるいは、点線、破線の違いなどにより、オブジェクトの違いを分かるように表示を行う。ここでオブジェクトの種類としては、前述したように文字、図面、線画、表、写真等である。
2203は検索を行うための文字を入力するのに用いる表示である。ここに文字列を入力して、検索を行うことで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索手法を用いることで、オブジェクトあるいはページの検索を行う。そして検索されたオブジェクトあるいはページを表示する。
図23は、2302のオブジェクト表示を押すことによりページ内のオブジェクトが表示される例である。2301に示すように、ページという概念ではなく、一つ一つのオブジェクトが部品として表示が行われる。また、2304のページ表示を押すことで1ページの画像として見えるように切替表示も行える。
さらに、2303は検索を行うための文字を入力するのに用いる表示である。ここに文字列を入力して、検索を行うことで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索手法を用いることで、オブジェクトあるいはページの検索を行う。また検索されたオブジェクトあるいはページを表示する。
図24は、オブジェクトのメタデータを表示した画面の例である。ある一つのオブジェクトを選択するとそのオブジェクトの画像2403と前述したメタデータ2402が表示される。メタデータは、オブジェクトの情報として、エリアID、幅、高さ、属性、ユーザー情報、MFPの設置場所の情報、入力した時間、キャプションなどの情報を表示する。ここで、この例では、写真属性のオブジェクトであり、オブジェクトの近くにあった文字オブジェクトのOCR情報から形態素解析を用いて名詞のみを取り出して表示を行っている、それが図示したTEXTという文字列にあたる。
また、メタデータに対しては、2404に示す各ボタンにより編集や追加、削除を行うことを可能としている。さらに、2405は検索を行うための文字を入力するのに用いる表示である。ここに文字列を入力して、検索を行うことで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索手法を用いることで、オブジェクトあるいはページの検索を行う。また検索されたオブジェクトあるいはページを表示する。
[メタデータの編集]
次に、前記図41で示した選択部137、メタデータ解析部138、メタデータ更新手順決定部139、メタデータ更新部140で行うメタデータの編集について、図25〜34を用いて以下に詳細に説明する。
図25は、本実施形態におけるキーボード入力を必要としない、メタデータの編集画面の例である。前述した図21〜23の何れの画面においても、メタデータの編集は可能であるが、ユーザーが理解しやすい画面としては、オブジェクト分割した結果を分かるように各オブジェクトに枠を表示させている図22が望ましい。そのため、図25は、図22と同じ構成でオブジェクトに枠を表示させている。
ユーザーはこの画面上で、1つのオブジェクトをタッチペン、または、マウスを用いて選択し、選択したオブジェクトを他のオブジェクトにドラッグアンドドロップすることで、メタデータの編集を行う。
図26は、図25の2501の画面の拡大図である。まず、図27の2701〜2706を用いて2601〜2606のオブジェクトのメタデータの説明を行う。
図27の2701〜2706は、2601〜2606のオブジェクトの各々のメタデータのデータ形式を示す図である。ここで、メタデータのデータ形式は、前述したSVGのデータ形式、または、XMLのデータ形式のように「タグ」を用いるマークアップ言語が一般的であるため、本実施形態においても、メタデータのデータ形式をマークアップ言語で示している。これらのメタデータのデータ形式は、図24を用いて前述したように、表示用のデータ形式に変換して画面で表示することが可能である。
以下、メタデータのデータ形式に関する説明を、図27の2701を用いて説明する。
<id>1</id>は、オブジェクト2601のエリアIDを示すデータであり、図24に示されるエリアIDを表示するためのデータである。
<attribute>写真</attribute>は、オブジェクト2601の属性を示すデータであり、オブジェクト2601は、写真属性であることを示している。その他、文字や写真やグラフィック等の属性があり、これらは、前述したステップS301にて決定される。
<width>W1</width>は、オブジェクト2601の幅を示すデータであり、図24に示される幅を表示するためのデータである。
<height>H1</height>は、オブジェクト2601の高さを示すデータであり、図24に示される高さを表示するためのデータである。
<job>PDL</job>は、オブジェクト2601のジョブ種であり、前述したようにビットマップデータの生成において、MFP100の画像読み取り部入力の場合は、ジョブ種はSCANとなる。また、PC102上のアプリケーションソフトを使用した場合は、ジョブ種はPDLとなる。
<user>USER1</user>は、オブジェクト2601のユーザー情報を示すデータであり、図24に示されるユーザーを表示するためのデータである。
<place>F社G階</place>は、MFPの設置場所の情報を示すデータであり、図24に示される場所を表示するためのデータである。
<time>2007/03/19 17:09</time>は、入力した時間を示すデータであり、図24に示される時間を表示するためのデータである。
<caption>一眼レフカメラ</caption>は、オブジェクト2601のキャプションを示すデータであり、図24に示されるキャプションを表示するためのデータである。
ここで、図28を用いて、ユーザーが図25の画面上で、1つのオブジェクトを選択し、さらに、該オブジェクトを他のオブジェクトにドラッグアンドドロップしたときの各々のオブジェクトのメタデータの付き方に関して説明する。
ここで、前述した選択部137において、操作部133でユーザーが最初に選択したオブジェクトを送オブジェクトとし、ドラッグアンドドロップされた他のオブジェクトを受オブジェクトとして選択する。
また、以下では、送オブジェクトを受オブジェクトにドラッグアンドドロップを行う場合について説明する。しかしながら、図29に示すように最初に選択されたオブジェクトを2901で示すように(1)の番号を付けて表示し、次に選択されたオブジェクトを2902で示すように(2)の番号を付けて表示してもよい。そのようにして、送オブジェクトを(1)、受オブジェクトを(2)とし、互いの関係が明示的に表示できるようなユーザーインターフェース(オブジェクト関連付け手段)であれば、ドラッグアンドドロップに限るものではない。
まず、ユーザーが、2603のオブジェクトを2601のオブジェクトへドラッグアンドドロップした場合について説明を行う。この場合、前述したように、2603は、送オブジェクト、2601は、受オブジェクトとなる。
まず、ステップS2801にて、送オブジェクトとして、2603を選択する。
次に、ステップS2802にて、ステップS2801において選択された送オブジェクトのメタデータ解析を行う。このメタデータ解析により、2703のメタデータのデータ形式が参照され、2603は、<attribute>文字</attribute>の属性をもっていることがわかる。
次に、ステップS2803にて、送オブジェクトの属性を判別する。ここで、送オブジェクトの属性は、文字であるためステップS2804へ進む。
次に、ステップS2804にて、受オブジェクトとして、2601が選択される。正確には、2603のオブジェクトを2601のオブジェクトへドラッグアンドドロップしているため、2601が受オブジェクトとなる。
次に、ステップS2805にて、受オブジェクトのメタデータ解析を行う。このメタデータ解析により、2701のメタデータのデータ形式が参照され、2601は、<attribute>写真</attribute>の属性をもっていることがわかる。
次に、ステップS2806にて、受オブジェクトの属性を判別する。ここで、受オブジェクトの属性は、写真であるためステップS2808へ進む。
次に、ステップS2808にて、受メタデータマージ処理を行う。ここでは、送オブジェクトとして、文字属性のオブジェクト2603が選択され、受オブジェクトとして、写真属性のオブジェクト2601が選択されているため、2601のメタデータ2701のみを図30の3001のように更新する。ここで、2701と比較して、3001は、2703の<caption>豊かな階調性と高彩度な色再現性。高画質へのこだわりに応えます。</caption>部分のメタデータが追記されていることがわかる。
次に、ユーザーが、2601のオブジェクトを2603のオブジェクトへドラッグアンドドロップした場合について説明を行う。この場合、前述したように、2601は、送オブジェクト、2603は、受オブジェクトとなる。送オブジェクトの属性は、写真であり受オブジェクトの属性は、文字であるため、前述した処理を経て、ステップS2812に進む。
ステップS2812にて、送メタデータマージ処理を行う。ここでは、送オブジェクトとして、写真属性のオブジェクト2601が選択され、受オブジェクトとして、文字属性のオブジェクト2603が選択されているため、2601のメタデータ2701のみを図30の3001のように更新する。
このように、メタデータの編集を行う際に、文字のオブジェクトを写真のオブジェクトへドラッグアンドドロップした場合と、写真のオブジェクトを文字のオブジェクトへドラッグアンドドロップした場合で、同様のメタデータ編集結果を得ることが可能である。
次に、ユーザーが、2603のオブジェクトを2602のオブジェクトへドラッグアンドドロップした場合について説明を行う。この場合、前述したように、2603は、送オブジェクト、2602は、受オブジェクトとなる。送オブジェクトの属性は文字であり、受オブジェクトの属性も文字であるため、前述した処理を経て、ステップS2807に進む。
次いで、ステップS2807にて、後述する文字用マージ処理を行う。ここでは、文字用マージ処理によって、2602のメタデータ2702が図31の3101のように更新される。
図32は、送オブジェクト、受オブジェクト共に属性が文字だった場合に行われる、前述の文字用マージ処理のフローチャートである。前述の送オブジェクトが2603であり、受けオブジェクトが2602であった場合を例にとって以下に文字用マージ処理の詳細を説明する。
まず、ステップS3201にて、送オブジェクトとして2603が、受オブジェクトとして2602が選択されているため、送オブジェクト2603のメタデータ2703と、受オブジェクト2602のメタデータ2702のメタデータ文字数解析を行う。このメタデータ文字数解析により、メタデータ2703のキャプションに含まれる文字数を送文字数として、メタデータ2702に含まれる文字数を受文字数として、それぞれ取得する。具体的には、メタデータ2703のキャプション<caption>豊かな階調性と高彩度な色再現性。高画質へのこだわりに応えます。</caption>から、送文字数が31であるとわかる。さらに、メタデータ2702のキャプション<caption>一眼レフカメラ</caption>から、送文字数が7であるとわかる。
次に、ステップ3202にて、前述の送文字数と受文字数の大小比較を行う。送文字数は31、受文字数は7であるからステップS3205に進む。
次に、ステップS3205にて、受オブジェクト2602のメタデータ2702を、図31のメタデータ3101のように更新する。
次に、送オブジェクトが文字の属性であるオブジェクト2606、受オブジェクトが文字の属性であるオブジェクト2604である場合を例に、前述の文字用マージ処理の動作をさらに説明する。
この場合、前述したようにステップS3201にて、送オブジェクト2606のメタデータ2706と受オブジェクト2604のメタデータ2704とから送文字数と受文字数をそれぞれ取得する。メタデータ2706のキャプションは<caption>コンパクトカメラ</caption>であるから、送文字数は8となる。また、メタデータ2704のキャプションは<caption>優れた携帯性と高画質の両立を実現。小さくても実力派です。</caption>であるから、受文字数は28となる。
次に、ステップS3202にて、送文字数と受文字数との大小比較を行う。送文字数は8、受文字数は28であるからステップS3203へ進む。
次に、ステップ3203にて、送文字数と予め設定する文字数閾値との比較を行う。本実施形態では、一例として文字数閾値を10とする。送文字数は8であり、文字数閾値よりも小さいため、ステップS3204へ進む。このとき、送文字数が文字数閾値以上の場合にはステップS3205へと進むことになる。
次に、ステップS3204にて、送オブジェクト2606のメタデータ2706を、図33のメタデータ3301のように更新する。
このように、文字と文字のオブジェクトでメタデータの編集を行う場合に、送オブジェクトであっても文字数の大小から判定を行いメタデータの編集を行うことで、再利用の可能性が高い、少ない文字数の文字オブジェクトを優先して編集することが可能となる。
次に、ユーザーが、2601のオブジェクトを2605のオブジェクトへドラッグアンドドロップした場合について説明を行う。
この場合、前述したように、2601は、送オブジェクト、2605は、受オブジェクトとなる。送オブジェクトの属性は写真であり、受オブジェクトの属性も写真であるため、前述した処理を経て、ステップS2813に進む。ステップS2813にて、後述する受メタデータリンク処理を行う。ここでは、受メタデータリンク処理によって、2605のメタデータ2705が図34の3401のように更新される。
ここで、上記受メタデータリンク処理について説明する。
ステップS2813の受メタデータリンク処理は、受オブジェクトに送オブジェクトのメタデータをリンク情報として保持させるものである。前述のメタデータ3401に示すように、<link>ADDRESS1</link>として送オブジェクト2601へのリンク情報を示すアドレスが保持される。ADDRESS1は、オブジェクト2601のメタデータ2701を示し、MFP100内のBOX111に保存されたオブジェクト2601のメタデータ2701を示すディレクトリ及びファイル名で構成される。また、MFP100外、例えばデータベース105に保存されているオブジェクトをリンクさせる場合には、データベース105のネットワーク上の位置を示すIPアドレスなどを含んでも良い。
このように、写真と写真のオブジェクト同士でメタデータの編集を行う場合に、リンク情報としてメタデータの関連付けを行えば、リンクした送オブジェクトのメタデータが編集された場合においても、ユーザーが意識することなく最新の状態を保つことができる。さらに、前述の検索手段を用いて検索を行った場合において、メタデータ内にリンク情報を含んでいれば、リンクされた写真オブジェクトのメタデータを検索に用いることはもちろん、リンクされたオブジェクトの写真画像をも容易に閲覧することが出来る。また、受オブジェクトに送オブジェクトのメタデータをリンク情報として保持させる、送メタデータリンク処理を行っても良い。
以上説明したように、本実施形態の画像処理方法はメタデータの編集が容易であり、ユーザーにとって直感的に理解がしやすく、かつ後で検索がしやすいメタデータの付与が可能となる。
[実施形態2]
次に本発明に係る画像処理方法の第2の実施形態を図面に基づいて説明する。
本実施形態2では、関連付けされた第1と第2のオブジェクトのユーザー情報に基づいて、メタデータのマージ方法を切り替える方法について説明する。
図35、および図36は、本実施形態2におけるキーボード入力を必要としない、メタデータの編集画面の例である。なお、本実施形態は、前述した実施形態1と同じ構成を有し、その構成についての説明は省略する。
[メタデータの編集]
本実施形態2では、前述の実施形態1と同様に、図21〜23の何れの画面においても、本実施形態で説明するメタデータの編集は可能である。しかしながら、ユーザーが理解しやすい画面としては、オブジェクト分割した結果を分かるように各オブジェクトに枠を表示させている図22が望ましいため、図35は、図22と同じ構成でオブジェクトに枠を表示させている。
ユーザーはこの画面上で、1つのオブジェクトをタッチペン、または、マウスを用いて選択し、選択したオブジェクトを他のオブジェクトにドラッグアンドドロップすることで、メタデータの編集を行う。さらに、図35において、3501のボタンを押すことで図36の視覚的なメタデータ編集画面が可能な画面へと移動することができる。
図36は図35と同様に、ユーザーがタッチペン、または、マウスを用いてドラッグアンドドロップすることでメタデータの編集を行うことができる。3601は、後述する3602の検索方法にて検索されたページ、あるいはオブジェクトを表示する画面である。前述の3602は、検索を行うための文字を入力するのに用いる表示である。ここに文字列を入力して検索を行うことで、オブジェクトあるいはオブジェクトが含まれるページが検索される。検索方法に関しては、前述したメタデータにより、周知の検索方法を用いることで、オブジェクトあるいはページの検索を行う。また、3603のボタンを押すことで図35の編集画面へと戻ることも可能である。
図37は、図36の3601の画面の拡大図であり、図38は、図37のオブジェクト3701、3702、3703それぞれのメタデータ3801、3802、3803である。オブジェクト3601〜3603は、メタデータ3701〜3703の<user>USER2</user>から、オブジェクト2601〜2606とは異なるユーザーが作成したことがわかる。
次に、本実施形態における、第1のオブジェクトを第2のオブジェクトへドラッグアンドドロップした場合の動作を、図28と図39を用いて以下に説明する。
本実施形態では、写真属性のオブジェクト同士のドラッグアンドドロップ動作においてのみ実施形態1と異なるため、この動作以外の詳細な説明は省略する。
まず、ユーザーが、2601のオブジェクトを2605のオブジェクトへドラッグアンドドロップした場合について説明を行う。この場合、前述したように、2601は、送オブジェクト、2605は、受オブジェクトとなる。送オブジェクトの属性は写真であり、受オブジェクトの属性も写真であるため、実施形態1で述べた処理を経て、ステップS2813に進む。ステップS2813にて、図39の受メタデータリンク処理に進む。
次に、図39のステップS3901にて、送オブジェクト2601のメタデータ2701からユーザー情報を送ユーザーとして、受オブジェクト2605のメタデータ2705からユーザー情報を受ユーザーとして取得する。ここでは、メタデータ2701のユーザー情報は<user>USER1</user>であるから、送ユーザーはUSER1となり、メタデータ2705のユーザー情報は<user>USER1</user>であるから、受ユーザーはUSER1となる。
次に、ステップS3902にて、送ユーザーと受ユーザーが同一かを判断する。送ユーザー、受ユーザー共にUSER1であるから、ステップS3903に進む。
次に、ステップS3903にて、受オブジェクトに送オブジェクトのメタデータをリンク情報として保持させ、メタデータ2605は、図34の3401のように更新される。具体的には、メタデータ3401に示すように、<link>ADDRESS1</link>として送オブジェクト2601へのリンク情報を示すアドレスが保持される。ADDRESS1は、オブジェクト2601のメタデータ2701を示し、MFP100内のBOX111に保存されたオブジェクト2601のメタデータ2701を示すディレクトリ及びファイル名で構成される。また、MFP100外、例えばデータベース105に保存されているオブジェクトをリンクさせる場合には、データベース105のネットワーク上の位置を示すIPアドレスなどを含んでも良い。
次に、ユーザーが、3702のオブジェクトを2601のオブジェクトへドラッグアンドドロップした場合について説明を行う。この場合、3702は、送オブジェクト、2601は、受オブジェクトとなる。送オブジェクトの属性は写真であり、受オブジェクトの属性も写真であるため、前述した処理を経て、ステップ2813に進む。ステップ2813にて、図39の受メタデータリンク処理に進む。
次に、図39のステップS3901にて、送オブジェクト3702のメタデータ3802からユーザー情報を送ユーザーとして、受オブジェクト2601のメタデータ2701からユーザー情報を受ユーザーとして取得する。ここでは、メタデータ3802のユーザー情報は<user>USER2</user>であるから、送ユーザーはUSER2となり、メタデータ2701のユーザー情報は<user>USER1</user>であるから、受ユーザーはUSER1となる。
次に、ステップS3902にて、送ユーザーと受ユーザーが同一かを判断する。送ユーザーはUSER2、受ユーザーはUSER1であるから、ステップS3904に進む。
次に、ステップS3904にて、受オブジェクトに送オブジェクトのメタデータをマージする。すなわち、2601のメタデータ2701は、図40の4001のように更新される。ここで、2701と比較して、4001には、3802の<caption>デジタル一眼レフカメラ</caption>部分のメタデータが追記されていることがわかる。
このように、第1のユーザーが、写真と写真のオブジェクト同士でメタデータの編集を行う場合に、第2のユーザーによって作成された可能性のあるオブジェクトについては、リンク情報としてメタデータの関連付けを行うことをさける。すなわち、後に第2のユーザーよってメタデータが改変されても、オブジェクトのユーザーを判定して編集動作を切り替えることによって、第1のユーザーがメタデータの編集を行った時の情報を保つことが可能となる。
以上説明したように、本実施形態の画像処理方法はメタデータの編集が容易であり、ユーザーにとって直感的に理解がしやすく、かつ後で再利用・検索がしやすいメタデータの付与が可能となる。
[実施形態3]
前述した実施形態1では、関連付けされた第1と第2のオブジェクトの属性に基づいて、メタデータのマージ方法を切り替える方法について説明した。また、上記実施形態2では、関連付けされた第1と第2のオブジェクトのユーザー情報に基づいて、メタデータのマージ方法を切り替える方法について説明した。しかしながら、切り替えの起点となるメタデータは、オブジェクトの属性やユーザー情報に限るものではない。エリアID、オブジェクトの幅、オブジェクトの高さ、オブジェクトのジョブ種、オブジェクトのセキュリティレベル、場所、時間、キャプション等、メタデータとして付与されるその他の情報をマージ方法の切り替えの起点としてもよい。
また、マージ方法の切り替えの起点を単一に設けることに限るものではない。オブジェクトの属性とユーザー情報を複合的にマージ方法の切り替えの起点とし、オブジェクトの属性とユーザー情報に基づいて、メタデータのマージ方法を切り替えるようにしてもよい。
尚、マージ方法についても、実施形態1、2で前述したものに限るものではない。メタデータの編集が容易であり、ユーザーにとって直感的に理解がしやすく、かつ後で再利用・検索がしやすいマージ方法であれば、ユーザーがマージ方法を個別にカスタマイズできることは言うまでもない。
[実施形態4]
本発明は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、上述した実施形態で示したフローチャートの手順を実現するプログラムコードを記憶した記憶媒体から、システムあるいは装置のコンピュータ(またはCPUやMPU)がそのプログラムコードを読出し実行することによっても達成される。
この場合、記憶媒体から読み出されたプログラムコード自体が、コンピュータに、上述した実施形態の機能を実現させることになる。そのため、このプログラムコード及びプログラムコードを記憶/記録したコンピュータ読み取り可能な記憶媒体も本発明の一つを構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、前述した実施形態の機能は、コンピュータが、読み出したプログラムを実行することによって実現される。また、このプログラムの実行とは、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行う場合も含まれる。
さらに、前述した実施形態の機能は、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによっても実現することもできる。この場合、まず、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。こうした機能拡張ボードや機能拡張ユニットによる処理によっても前述した実施形態の機能が実現される。
本発明を適用できる画像処理システムを示すブロック図である。 図1におけるMFPを示すブロック図である。 実施形態1で説明する第1のデータ処理フローである。 実施形態1で説明するメタ情報を付加する処理フローである。 実施形態1で説明するスキャナからの読み込みを示すフローである。 実施形態1で説明するPCからのデータをビットマップにするフローである。 オブジェクト分割した結果の一例を示す図である。 オブジェクト分割情報したときの各属性のブロック情報および入力ファイル情報を示す図である。 実施形態1で説明するベクトル化処理のフロー図である。 ベクトル化の処理における角抽出の処理を示す図である。 ベクトル化の処理における輪郭線まとめの処理を示す図である。 図9で生成されたベクトルデータのグループ化の処理を示すフローチャートである。 図12の処理でグループ化されたベクトルデータに対する図形要素検出の処理を示すフローチャートである。 実施形態1におけるベクトル化処理結果のデータを示すマップである。 アプリデータ変換の処理を示すフローチャートである。 図15の文書構造ツリー生成の処理を示すフローチャートである。 文書構造ツリー生成処理の対象となる文書を示す図である。 図16の処理によって生成される文書構造ツリーを示す図である。 実施形態1で用いられるSVG(Scalable Vector Graphics)形式の一例を示す図である。 実施形態1で説明する図3のステップS307のUI表示の例を示した図である。 実施形態1で説明する図3のステップS307のUI表示のページ表示の例を示した図である。 実施形態1で説明する図3のステップS307のUI表示のオブジェクト属性表示の例を示した図である。 実施形態1で説明する図3のステップS307のUI表示のオブジェクト分割された一つのオブジェクトが表示される例を示した図である。 実施形態1で説明する図3のステップS307のUI表示のオブジェクトとメタ情報を表示される例を示した図である。 実施形態1で説明するメタデータ編集のUI画面の第1の例を示した図である。 実施形態1で説明するメタデータ編集のUI画面の拡大図を示した図である。 実施形態1で説明するメタデータのデータ形式を示した図である。 実施形態1で説明するメタデータ編集のフローチャートを示した図である。 実施形態1で説明するメタデータ編集のUI画面の第2の例を示した図である。 実施形態1で説明する編集後のメタデータのデータ形式の例を示した図である。 実施形態1で説明する編集後のメタデータのデータ形式の例を示した図である。 実施形態1で説明する文字用メタデータ編集のフローチャートを示した図である。 実施形態1で説明する編集後のメタデータのデータ形式の例を示した図である。 実施形態1で説明する編集後のメタデータのデータ形式の例を示した図である。 実施形態2で説明するメタデータ編集のUI画面の第1の例を示した図である。 実施形態2で説明するメタデータ編集のUI画面の第1の例を示した図である。 実施形態2で説明するメタデータ編集のUI画面の拡大図を示した図である。 実施形態2で説明するメタデータのデータ形式を示した図である。 実施形態2で説明するメタデータ編集のフローチャートを示した図である。 実施形態2で説明する編集後のメタデータのデータ形式の例を示した図である。 実施形態1で説明するデータ処理装置115の詳細を示すブロック図である。
符号の説明
100 MFP
101 マネージメントPC
102 ローカルPC
103 プロキシサーバ(proxyサーバ)
104 インターネット
105 データベース
106 文書管理サーバ
107,108,109 LAN
110 画像読み取り部
111 記憶装置
112 記録装置
113 入力装置
114 ネットワークI/F
115 データ処理装置
116 表示装置
117 I/F
120 CPU
121 操作部I/F
122 ROM
123 RAM
124 システムバス
125 イメージバスインターフェース(Image Bus I/F)
126 画像バス
127 RIP
128 デバイスI/F
129 スキャナ画像処理部
130 プリンタ画像処理部
133 操作部
134 オブジェクト分割部
135 オブジェクト別画像処理部
136 メタデータ付与部
137 選択部
138 メタデータ解析部
139 メタデータ更新手順決定部
140 メタデータ更新部

Claims (13)

  1. イメージデータを入力する入力手段と、
    前記イメージデータを複数のオブジェクトに分割するためのオブジェクト分割手段と、
    該オブジェクト分割手段により得られた各オブジェクトへメタデータを付与するメタデータ付与手段と、
    ユーザーの選択指示に基づいてメタデータの編集対象となる第1のオブジェクトと第2のオブジェクトとを選択する選択手段と、
    該選択手段で選択された前記第1のオブジェクトと第2のオブジェクトそれぞれのメタデータを解析するメタデータ解析手段と、
    該メタデータ解析手段の解析結果に基づいて、前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータの更新手順を決定する決定手段と、
    前記決定手段により決定した更新手順で前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータとの少なくともいずれかを更新する更新手段とを備えることを特徴とする画像処理装置。
  2. 前記選択手段により選択された前記第1のオブジェクトと第2のオブジェクトとを関連付けるオブジェクト関連付け手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記オブジェクト関連付け手段は、前記第1のオブジェクトを前記第2のオブジェクトにドラッグアンドドロップする手段であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記オブジェクト分割手段は、前記イメージデータを、文字、写真、グラフィック(図面、線画、表)、背景の属性に分割することを特徴とする請求項1に記載の画像処理装置。
  5. 前記メタデータ付与手段は、前記オブジェクト分割手段により、分割された各々のオブジェクトに対して、オブジェクトのエリアID、オブジェクトの属性、オブジェクトの幅、オブジェクトの高さ、オブジェクトのジョブ種、ユーザー情報、場所、時間、キャプションを示すメタデータを付与することを特徴とする請求項1に記載の画像処理装置。
  6. 前記キャプションは、オブジェクトの属性が写真、グラフィックであるオブジェクトの場合は、該オブジェクトの周囲で最も近くに存在するオブジェクトの文字認識結果となり、オブジェクトの属性が文字であるオブジェクトの場合は、該オブジェクトの文字認識結果となることを特徴とする請求項4に記載の画像処理装置。
  7. 前記メタデータ解析手段は、前記第1のオブジェクトと第2のオブジェクトのメタデータを解析し、前記メタデータ付与手段により付与されたメタデータの内、対象となるメタデータの情報を出力する手段であることを特徴とする請求項1に記載の画像処理装置。
  8. 前記更新手段は、前記決定手段により決定した更新手順で、前記第1のオブジェクトに対し、または第2のオブジェクトに対し、または第1、第2のオブジェクトを共に、そのメタデータを更新することを特徴とする請求項1に記載の画像処理装置。
  9. 前記決定手段は、
    前記第1のオブジェクトの属性が文字であり、前記第2のオブジェクトの属性が写真、またはグラフィック(図面、線画、表)である場合、前記第1のオブジェクトのキャプションを前記第2のオブジェクトのキャプションへ追加し、
    前記第1のオブジェクトの属性が文字であり、前記第2のオブジェクトの属性が文字である場合、前記第1のオブジェクトと前記第2のオブジェクトのキャプションの文字数の大小比較を行い、該大小比較の結果、少ない文字数を有するオブジェクトに、多い文字数を有するオブジェクトのキャプションを追加し、
    前記第1のオブジェクトの属性が写真、またはグラフィック(図面、線画、表)であり、前記第2のオブジェクトの属性が写真、またはグラフィック(図面、線画、表)である場合、前記第1のオブジェクトのリンク情報を示すアドレスを前記第2のオブジェクトのメタデータへ追加し、
    前記第1と第2のオブジェクトの属性に基づいて、前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータの更新手順を決定することを特徴とする請求項1に記載の画像処理装置。
  10. 前記決定手段は、
    前記第1のオブジェクトのユーザー情報と、前記第2のオブジェクトのユーザー情報が同じである場合、第1のオブジェクトのリンク情報を示すアドレスを第2のオブジェクトのメタデータへ追加し、
    前記第1のオブジェクトのユーザー情報と、前記第2のオブジェクトのユーザー情報が異なる場合、前記第1のオブジェクトのメタデータを前記第2のオブジェクトのメタデータへ追加し、
    前記第1と第2のオブジェクトのユーザー情報に基づいて、前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータの更新手順を決定することを特徴とする請求項1に記載の画像処理装置。
  11. 画像処理装置により実行される画像処理方法であって、
    イメージデータを入力する入力ステップ、
    前記イメージデータを複数のオブジェクトに分割するためのオブジェクト分割ステップと、
    該オブジェクト分割ステップにより得られた各オブジェクトへメタデータを付与するメタデータ付与ステップと、
    ユーザーの選択指示に基づいてメタデータの編集対象となる第1のオブジェクトと第2のオブジェクトとを選択する選択ステップと、
    該選択ステップで選択された前記第1のオブジェクトと第2のオブジェクトそれぞれのメタデータを解析するメタデータ解析ステップと、
    該メタデータ解析ステップによる解析結果に基づいて、前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータの更新手順を決定する決定ステップと、
    前記決定ステップにより決定した更新手順で前記第1のオブジェクトのメタデータと前記第2のオブジェクトのメタデータとの少なくともいずれかを更新する更新ステップとを含むことを特徴とする画像処理方法。
  12. 請求項11に記載の方法をコンピュータに実行させるためのプログラム。
  13. 請求項12に記載のプログラムを記憶させたコンピュータ読み取り可能な記憶媒体。
JP2008122561A 2008-05-08 2008-05-08 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体 Expired - Fee Related JP5188260B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008122561A JP5188260B2 (ja) 2008-05-08 2008-05-08 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体
US12/427,403 US8181108B2 (en) 2008-05-08 2009-04-21 Device for editing metadata of divided object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122561A JP5188260B2 (ja) 2008-05-08 2008-05-08 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体

Publications (3)

Publication Number Publication Date
JP2009271779A true JP2009271779A (ja) 2009-11-19
JP2009271779A5 JP2009271779A5 (ja) 2011-06-23
JP5188260B2 JP5188260B2 (ja) 2013-04-24

Family

ID=41438261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122561A Expired - Fee Related JP5188260B2 (ja) 2008-05-08 2008-05-08 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体

Country Status (2)

Country Link
US (1) US8181108B2 (ja)
JP (1) JP5188260B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039129A1 (ja) * 2019-08-29 2021-03-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102455997A (zh) * 2010-10-27 2012-05-16 鸿富锦精密工业(深圳)有限公司 元件名称提取系统及方法
CN102609606A (zh) * 2011-01-25 2012-07-25 鸿富锦精密工业(深圳)有限公司 标识元件的方法及系统
JP5966368B2 (ja) * 2012-01-11 2016-08-10 株式会社リコー 情報処理装置、機器管理システム及びプログラム
US9159115B1 (en) * 2013-09-30 2015-10-13 Emc Corporation Processing vectorized elements associated with IT system images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260569A (ja) * 2005-03-16 2006-09-28 Toshiba Corp 画像処理装置
JP2007310501A (ja) * 2006-05-16 2007-11-29 Canon Inc 情報処理装置、その制御方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3694149B2 (ja) 1997-07-07 2005-09-14 株式会社リコー 画像検索装置、画像検索用キーテキストの生成方法、並びにその装置としてコンピュータを機能させるためのプログラムおよびその方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4497733B2 (ja) 2000-02-22 2010-07-07 キヤノン株式会社 データ処理装置及びデータ処理方法
AUPQ717700A0 (en) 2000-04-28 2000-05-18 Canon Kabushiki Kaisha A method of annotating an image
EP2202979A1 (en) * 2002-04-12 2010-06-30 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata
US7809722B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for enabling search and retrieval from image files based on recognized information
JP2007060446A (ja) * 2005-08-26 2007-03-08 Sony Corp メタデータ生成装置、情報処理装置、撮像装置、テレビ会議システム、セキュリティシステム、メタデータ生成方法及びプログラム
JP4645498B2 (ja) * 2006-03-27 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2007299321A (ja) * 2006-05-02 2007-11-15 Ricoh Co Ltd 情報処理装置、情報処理方法、情報処理プログラム、及び、情報記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260569A (ja) * 2005-03-16 2006-09-28 Toshiba Corp 画像処理装置
JP2007310501A (ja) * 2006-05-16 2007-11-29 Canon Inc 情報処理装置、その制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039129A1 (ja) * 2019-08-29 2021-03-04 ソニー株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP5188260B2 (ja) 2013-04-24
US20100070854A1 (en) 2010-03-18
US8181108B2 (en) 2012-05-15

Similar Documents

Publication Publication Date Title
JP5111268B2 (ja) 画像処理装置、画像処理方法、そのプログラムおよび記憶媒体
JP3796500B2 (ja) 画像処理装置及びその制御方法、プログラム
JP4181892B2 (ja) 画像処理方法
JP4251629B2 (ja) 画像処理システム及び情報処理装置、並びに制御方法及びコンピュータプログラム及びコンピュータ可読記憶媒体
JP4502385B2 (ja) 画像処理装置およびその制御方法
JP3962721B2 (ja) 文書処理装置及び文書処理方法
JP4546291B2 (ja) 画像処理装置およびその制御方法
JP4533273B2 (ja) 画像処理装置及び画像処理方法、プログラム
JP2009193356A (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP5247601B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2006023945A (ja) 画像処理システム及び画像処理方法
JP4208780B2 (ja) 画像処理システム及び画像処理装置の制御方法並びにプログラム
JP4785655B2 (ja) 文書処理装置及び文書処理方法
JP4738857B2 (ja) 画像処理装置およびその方法
JP2006270418A (ja) 画像処理装置およびその方法
JP2005352696A (ja) 画像処理装置及びその制御方法、プログラム
US8090728B2 (en) Image processing apparatus, control method thereof, and storage medium that stores program thereof
JP5188260B2 (ja) 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体
JP5053722B2 (ja) 画像処理装置及び画像処理方法、コンピュータプログラム及び記憶媒体
JP2006025129A (ja) 画像処理システム及び画像処理方法
JP2009211554A (ja) 画像処理装置、画像処理方法、コンピュータプログラム、および記憶媒体
JP4179977B2 (ja) スタンプ処理装置、電子承認システム、プログラム、及び記録媒体
EP2166467B1 (en) Information processing apparatus, control method thereof, computer program, and storage medium
JP4323856B2 (ja) 画像処理方法
JP2005149210A (ja) 画像処理装置及びその制御方法、プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5188260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees