JP4155051B2 - Document processing device - Google Patents

Document processing device Download PDF

Info

Publication number
JP4155051B2
JP4155051B2 JP2003037443A JP2003037443A JP4155051B2 JP 4155051 B2 JP4155051 B2 JP 4155051B2 JP 2003037443 A JP2003037443 A JP 2003037443A JP 2003037443 A JP2003037443 A JP 2003037443A JP 4155051 B2 JP4155051 B2 JP 4155051B2
Authority
JP
Japan
Prior art keywords
color
information
color information
area
confusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003037443A
Other languages
Japanese (ja)
Other versions
JP2004246739A (en
JP2004246739A5 (en
Inventor
俊哉 小山
照花 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2003037443A priority Critical patent/JP4155051B2/en
Publication of JP2004246739A publication Critical patent/JP2004246739A/en
Publication of JP2004246739A5 publication Critical patent/JP2004246739A5/ja
Application granted granted Critical
Publication of JP4155051B2 publication Critical patent/JP4155051B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、色覚障碍を持つ人々が見やすいようドキュメントデータを調整するドキュメント処理装置に関する。
【0002】
【従来の技術】
現代の社会には情報が溢れている。人々は情報をわかりやすく、視認性を高める目的でさまざまな色を用いて情報を区分し、又は表現している。例えば交通信号機は赤・黄・青という三色を利用して交通を整理しているし、東京の地下鉄等は複数の路線のそれぞれを互いに異なる色で表現する。またこうした公的部分でなくとも、社内で用いられる資料としてのグラフ等はカラープリンタを用いて項目別が分かりやすく着色され、あるいはプレゼンテーション・ソフトウエアを用いて作成されるスライドには、背景画像にまで数多くの色が用いられている。
【0003】
こうした色の利用は、色覚が正常な者に対しては、たしかに情報を理解しやすくさせる効果がある。しかし色覚に障碍を持つ人々にとっては必ずしも分かりやすいとは言えない場合もある。例えば赤と緑との識別が困難である型の色覚障碍の場合、赤と緑とによって塗りわけられたグラフは見づらくなる。
【0004】
また、人間の色覚に関する生理的、医学的研究によると、色覚障碍にはP,D,Tの3種あることが知られている。これらの色覚障碍の状態は、生理光学的見地から定義されているCIE XYZ表色系xy色度図によって表される色成分空間を用いるとよりよく理解される(非特許文献1)。すなわち、各色覚障碍とも、xy色度図上の一点(後の説明の便宜のため、以下「交点」と呼ぶ)から放射状に線分(混同色線、あるいは混同色軌跡と呼ばれる)を引いたとき、同一線分上にある色同士(混同色と呼ばれる)が同じ明度を有するとき、それらを互いに識別できなくなっているのである。この交点位置は、P,D,Tのそれぞれによって異なるが、Pに対する交点と、Dに対する交点とは、いずれもCIE色度図上で右下部分に位置するのに対して、Tに対する交点は、左下部分に位置している。なおTの種類の色覚異常は比較的稀であることも知られている。
【0005】
そこで特許文献1に記載されているように混同色が隣接している場合に、その境界の輝度信号を調整し、境界を目立たせる技術がある。
【0006】
【非特許文献1】
太田登著,「色彩工学」,東京電機大学出版局,1993年12月20日第一版発行
【0007】
【特許文献1】
特開2002−44678号公報
【0008】
【発明が解決しようとする課題】
しかしながら、上記従来の技術のように、境界部分を目立たせれば色分けがある部分は了解できるものの、それが色分けされているのか、単に境界線が引かれているだけなのかも区別できない。
【0009】
本発明は上記実情に鑑みて為されたもので、互いに混同する色の部分について、互いに異なる色が用いられていることを識別可能に調整するドキュメント処理装置を提供することをその目的の一つとする。
【0010】
【課題を解決するための手段】
請求項1記載の発明は、ドキュメント処理装置であって、ドキュメントデータを入力するドキュメント入力手段と、色覚障碍のタイプを入力する色覚障碍タイプ入力手段と、前記ドキュメントデータで用いられている色情報を特定する色情報特定手段と、前記色情報特定手段によって特定された色情報のうち、前記色覚障碍のタイプにおいて互いに混同を生じる色を表していると判断される色情報を検索する検索手段と、前記検索手段により検出された色情報が、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更する変更手段と、前記変更手段によって変更されたドキュメントデータを出力する手段と、前記変更手段が変更した色に関する情報を保持する保持手段と、を有し、前記色情報特定手段は、互いに塗り分けられている領域のうち、所定の基準以上の面積を有しているか、又は所定の長さ以上に連続している領域ごとに、該領域を特定する領域特定情報と領域の輪郭を表す輪郭特定情報と該領域の内部の色の情報の少なくとも一つにより、色情報を特定し、前記変更手段は、前記保持手段に保持されている、過去に変更した色に関する情報がある場合は、当該保持されている情報を利用して、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更することとしたものである。
【0011】
請求項2記載の発明は、請求項1記載のドキュメント処理装置であって、前記保持手段は、少なくとも一定期間、前記過去に変更した色に関する情報を保持することとしたものである。
【0012】
請求項3記載の発明は、プログラムであって、コンピュータを、ドキュメントデータを入力するドキュメント入力手段と、色覚障碍のタイプを入力する色覚障碍タイプ入力手段と、前記ドキュメントデータで用いられている色情報を特定する色情報特定手段と、前記色情報特定手段によって特定された色情報のうち、前記色覚障碍のタイプにおいて互いに混同を生じる色を表していると判断される色情報を検索する検索手段と、前記検索手段により検出された色情報が、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更する変更手段と、前記変更手段によって変更されたドキュメントデータを出力する手段と、前記変更手段が変更した色に関する情報を保持する保持手段と、として機能させ、前記色情報特定手段では、互いに塗り分けられている領域のうち、所定の基準以上の面積を有しているか、又は所定の長さ以上に連続している領域ごとに、該領域を特定する領域特定情報と領域の輪郭を表す輪郭特定情報と該領域の内部の色の情報の少なくとも一つにより、色情報を特定させ、前記変更手段では、前記保持手段に保持されている、過去に変更した色に関する情報がある場合は、当該保持されている情報を利用して、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更させることとしたものである。
【0016】
【発明の実施の形態】
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係るドキュメント処理装置は、図1に示すように、制御部11と、記憶部12と、操作部13と、表示部14と、外部インタフェース15と、ディスク装置部16とを含んで構成されている。制御部11は、記憶部12に格納されているプログラムに従って動作し、外部インタフェース15から入力される処理対象のドキュメントデータに対して、所定の処理を実行して出力する。この制御部11が行う処理の具体的内容については後に詳しく述べる。
【0017】
記憶部12は、制御部11によって実行されるプログラムを格納している。また、この記憶部12は、制御部11のワークメモリとしても動作する。操作部13は、マウスやキーボードなどであり、ユーザが行った指示操作の内容を制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11から入力される指示に従って、ドキュメントデータに基づいて生成された表示画像を表示する。また、この表示部14は、例えば外部の装置に対してドキュメントデータを送出し、当該外部の装置にドキュメントデータに基づいて表示画像を生成させ、その生成させた表示画像を表示させるようにしてもよい。外部インタフェース部15は、外部から入力されるドキュメントデータを制御部11に出力する。
【0018】
ディスク装置部16は、例えばハードディスクであり、制御部11が実行するプログラムを、外部のコンピュータ可読な記憶媒体から受け入れて保持している。このプログラムは制御部11やメモリコントローラによって、プログラムの実行時点で読み出されて、記憶部12に複写されて用いられる。また、このディスク装置部16は、制御部11から入力される指示に従って、様々な情報を保持する。なお、このディスク装置部16自体、コンピュータ可読な記憶媒体である。
【0019】
ここで制御部11が行う処理の内容について具体的に説明する。この制御部11の処理の内容は基本的に次の4つの段階に分かれている。すなわち、入力されたドキュメントデータから、検索対象となる色を特定する処理(検索対象色特定処理)、検索対象として特定された色から、色覚障碍を持つ人にとって混同しやすい色のセットを検索する処理(検索処理)、検索された色のセットに含まれる色のうち、調整の対象となる色を特定する処理(処理色決定処理)、並びに調整の対象となった色に実際に所定の調整処理を施し、その結果を出力する処理(調整処理)である。以下、これらの処理について順次説明する。
【0020】
[ドキュメントデータの入力]
まず、上記の各処理に先立って、制御部11は、外部インタフェース部15を介して入力されたドキュメントデータを記憶部12に格納する。なお、以下の説明でドキュメントデータは、制御部11がその内容を処理可能なデータであれば、JPEG(Joint Picture Experts Group)形式等の画像データであっても、また、マイクロソフト社のPowerPoint(登録商標)や、アドビ社のacrobat(登録商標)等のアプリケーションソフトウエアで作成されたデータであってもよい。
【0021】
[検索対象色特定処理]
制御部11は、ドキュメントデータを用いられている色の領域ごとに分割する。具体的にドキュメントデータが画像データである場合は、広く知られた方法を用いることができる。例えば、高木幹雄ほか監修,東京大学出版会発行の「画像解析ハンドブック」、1991年1月17日初版の689ページ以下の「領域分割」の章に記載されている方法を用いることができ、これらについての詳細な説明は省略する。
【0022】
また、ドキュメントデータがアプリケーションソフトウエアで作成されたデータである場合、そのデータ構造に従って領域ごとに分割する。例えばアドビ社のacrobat(登録商標)の場合、内部のデータはPostScript(登録商標)と同様に、表示画像に示される図形要素を規定する情報の連続を含んでなるデータ構造を有している。そこで図形要素ごとに、図形を塗りつぶすコマンドである「fill」や、色を規定する「setrgbcolor」のようなコマンドを見いだして、用いられている色と、当該色で塗られている図形要素が表示画像上で占める領域を特定し、それぞれを分割していけばよい。
【0023】
制御部11は、具体的には互いに異なる色で塗り分けられている領域ごとに、その領域を特定する情報(領域特定情報)と、領域の輪郭を表す少なくとも一つの座標情報(輪郭特定情報)と、当該領域の内部の色の情報(色特定情報、例えばそのRGB値等)とを含んでなる領域情報を生成して、記憶部12に格納する。制御部11は、これら領域情報を参照し、所定の基準以上の面積を有しているか、所定の長さ以上に連続しているなど、ドキュメントデータに基づいて表示画像を生成したときに、一定の範囲を占める領域を表す領域情報を特定する。なお、所定の基準以上の面積を有しているか否かは、例えば画像データであれば、色ごとのヒストグラムを演算して、その頻度が予め定めたしきい値を超えているか否かを用いて判断してもよいし、アプリケーションソフトウエアで作成されたデータの場合、表示画像を一旦生成した上で、当該表示画像上での色ごとのヒストグラムを演算して、その頻度が予め定めたしきい値を超えているか否かを用いて判断してもよい。また、上述のPostScript(登録商標)と同様の場合、図形要素の面積を、ドキュメントデータに含まれる、図形要素に関する座標情報を用いて演算し、当該面積が予め定めたしきい値を超えているか否かによって判断をしてもよい。
【0024】
制御部11は、当該特定した領域情報に含まれる色情報を組とした情報を、特定色群情報として記憶部12に格納する。
【0025】
[検索処理]
次に、制御部11は記憶部12に格納された特定色群の情報を参照して、特定色群に含まれる色情報のうち、人間の目の色覚障碍に関連して互いに混同する色を表していると判断される色情報を検索し、それら互いに混同する色情報のセット(混同色セット)を少なくとも一つ生成する。ただし、互いに混同する色がない場合には混同色セットを生成せず、これ以降の処理を省略する。この検索処理の具体的手法としては、次に説明するように混同色軌跡を用いる方法と、混同色ブロックを用いる方法とがあるので、以下、それぞれの方法に分けて説明する。なお、実際の処理では、以下のどの方法で検索処理を行うかを、ユーザが選択可能となっていても好ましい。
【0026】
[混同色軌跡を用いる方法]
まず、混同色軌跡を用いる方法について説明する。混同色軌跡は、CIE XYZ表色系xy色度図の色成分空間(xy空間)上で定義される混同色線等であり、所定の色成分空間内で、色覚障碍時に混同する色同士を含むよう定義される点、線、面などである。以下では、説明を容易にするため、xy色度図に対応する色成分空間(x,yで張られる空間)内で定義される混同色軌跡を用いて説明する。上述のように、これは混同色線となる。
【0027】
既に説明したように、混同色線は、図2(a)〜(c)に示すように、x,yで張られる色成分空間においては、P,D,Tの各タイプの色覚障碍に対応して、それぞれ互いに異なる位置にある交点Oから放射状に引いた線分の各々であり、本来無数に引くことができる。従って混同色線は、無数の線分の群(本発明でいう混同色軌跡群)の一つであるということができる。
【0028】
制御部11は、記憶部12に格納された特定色群に含まれる色情報の各々を、混同色軌跡群が定義できる色成分空間、例えばこの例のようにx,yで張られる色成分空間の成分(x,y)で表現した色情報に変換する。具体的に特定色群に含まれる色情報がRGBで表現されていれば、それをx,y値に変換する。この変換方法は、広く知られたものであるので、その説明は省略する。
【0029】
そして制御部11は、特定色群に含まれる色情報の中から、所定のルール(例えば記憶部12に格納されている順などで構わない)で一つの色情報(注目色情報)を選択する。さらにこの注目色情報以外の色情報について、次のように処理する。すなわち、注目色情報C1と、注目色情報以外の色情報のうち、比較の対象となる色情報C2を一つ選択し、C1とC2との中点座標P(Xc,Yc)を求める。そして、中点座標と交点Oの座標O(Xo,Yo)とを結んでできる線分を表す式のパラメータ(例えば傾きと、y軸との交点座標と)を生成する。
【0030】
次に、このパラメータで規定される線分(混同色軌跡群のうち、一つの注目混同色軌跡に相当する)と、注目色情報C1(又は比較対照の色情報C2)との距離d(C1,C2のどちらからの距離も同じdとなる)を求め、当該距離dが予め定めたしきい値w未満であるか否かを調べる。ここでw<dであれば、C1とC2とは互いに混同する色であるとして、C1とC2とを組とした混同色セットを生成し、記憶部12に格納する。
【0031】
制御部11は、さらに比較対照として選択していない色情報であって、注目色情報以外の色情報が特定色群にまだ含まれているか否かを調べ、含まれていれば、それらのうち一つを次の比較対照として選択し、上記中点座標Pを求める処理から繰り返す。比較対照として選択していない色情報であって、注目色情報以外の色情報が特定色群に含まれないこととなれば、色情報C1についての処理を完了し、記憶部12に格納されている特定色群から色情報C1を削除して、次の注目色情報を選択して処理を繰り返し行う。こうして特定色群に含まれる色情報が一つになるまで繰り返す。
【0032】
すると記憶部12には、例えば図3に示すように、特定色群に含められた色情報をそれぞれ注目色情報としたときに、当該注目色情報と、それと混同する色情報とを組とした混同色セットが生成される。
【0033】
なお、ここでは図4(a)に示すように、比較しようとする2つの色情報の座標の中点と、交点座標とを用いたが、混同色軌跡を用いる方法としては、これに限られるものではない。例えば図4(b)に示すように、比較しようとする2つの色情報C1,C2の各座標を結ぶ線分と、交点Oとの距離dを演算し、これが予め定めたしきい値未満か否かによって混同するか否かを判断してもよいし、図4(c)に示すように、比較しようとする2つの色情報C1,C2のそれぞれの座標と交点Oとを結ぶ2本の線のなす角αが予め定めたしきい値未満か否かによって混同するか否かを判断してもよい。さらに、図4(d)に示すように、比較しようとする2つの色情報C1,C2のいずれか一方の座標と、交点Oとを結ぶ線分と、他方の色の座標との距離dが予め定めたしきい値未満か否かによって混同するか否かを判断してもよい。この場合、線分(交点Oを通る線分なので、図4(d)の線分は混同色軌跡となる)の傾きがなるべく精確に決定できるよう、C1,C2のうち、交点Oから遠い方をCf、近い方をCnとして、Cf−Oを結ぶ線分と、Cnとの距離dを演算することとするのも好ましい。
【0034】
このようにすると、厳密には一つの混同色軌跡上にはないが、一つの混同色軌跡近傍の所定範囲内(上記それぞれのしきい値で定められる範囲)にある色情報同士が互いに混同する色情報として記憶されるため、混同の蓋然性が高い色情報同士が後に示すように処理され、互いに識別可能な態様に変換される。すなわち、必ずしも混同色線上にない2色によって実際に発生する色の混同についても配慮がされている。
【0035】
[マクアダム楕円の配慮]
ここまでの説明では、色情報によって表現される色、すなわち例えばxy空間上の一点で表される色は混同軌跡方向の色と混同を生じるとして説明してきたが、実際には人間の色覚特性上、混同軌跡方向でなくとも、混同を生じる色がある。具体的に特定色群に含まれている色の一つを選ぶと、その選んだ色を中心とした一定範囲に含まれる色は、見る人が色覚障碍を有しているか否かに関わらず当該選んだ色と互いに混同することが知られている。こうした色の範囲は、デイビッド・マクアダム(David MacAdam)によって詳しく調べられ、その外形状は楕円形で規定できることから、マクアダム楕円(MacAdam ellipsis)と呼ばれている。このマクアダム楕円については、太田登著,「色彩工学」,東京電機大学出版局,1993年12月20日第一版発行(非特許文献1としたもの)の第115ページから121ページにかけて詳しい説明があるので、ここでの詳細な説明を省略する。
【0036】
そこで制御部11は、このマクアダム楕円に配慮して次のような処理をすることとしてもよい。すなわち、特定色群に含まれる色情報の各々を所定色成分空間の値(例えばx,y座標の値)に変換した後、各色情報ごとにマクアダム楕円を画定するパラメータ(中心座標(すなわち特定色群のうちの一色の座標)、長軸、短軸の長さ、楕円の傾きなど)を生成して記憶部12に格納する。このマクアダム楕円を導き出すには、例えば楕円をやや均等なものとして規定できるUCS色度図(uniform-chromaticity-scale diagram)を用いて楕円を規定した後、当該UCS色度図上の楕円をx,y座標に変換して求めてもよいし、また特定色群中の各色情報を予めUCS色度図上の座標(u,v)や、(u′,v′)など(上述の非特許文献1の118から120ページを参照)に変換しておいてもよい。後者のように特定色群の各色情報を予めUCS色度図の空間に変換する場合、当該UCS色度図の空間上で、定義される混同色軌跡を用いる。
【0037】
制御部11は、特定色群に含まれる各色情報C1,…,Cnについてそれぞれ規定されたマクアダム楕円EC1,…,ECnを特定するパラメータ情報を生成して記憶部12に格納する。これらのマクアダム楕円によって表される色成分空間上の領域が、人間の色覚特性等を利用して得られる近傍混同領域に相当する。そして制御部11は、混同色軌跡の交点Oから、これらマクアダム楕円に引いた接線の式(各マクアダム楕円に接する混同軌跡)を演算して、当該接線の式を規定するパラメータ(傾きと、Y軸との交点座標となど)を記憶部12に格納する。この接線は、図5(a)に示すように、一つのマクアダム楕円について一つの交点から2つ引かれる。以下の説明では、色情報Ckについて規定されたマクアダム楕円をCEkと表し、このマクアダム楕円CEkに対して引かれた2本の接線のそれぞれをLka、Lkbと表す。
【0038】
制御部11は、図5(b)に示すように、交点から可視光範囲外の方向に向かって引かれた基準線L0と、各色情報ごとに2本ずつ引かれた接線Lka,Lkbの各々との角度αka,αkbを演算する。そしてCk=C1,…,Cnについて所定の順序で、αka,αkbの間にある、αma,αmbを検索する(ここでm≠k)。もし、そのようなαma,αmbが見いだされれば、色情報CkとCmとによって表される色は互いに混同するとして、これらの色情報を同じ混同色セットに含める。具体的に図5(b)においては、α1aとα1bとの間にα2bが含まれており、C1とC2とが互いに混同する色を表す色情報であるとして同じ混同色セットに含められる。一方α3aとα3bとの間にはα1a〜α2bのいずれも含まれていないので、C3によって表される色と混同する色はないことになり、C3はどの混同色セットにも含まれないこととなる。
【0039】
要するに、色情報Ckに対応するマクアダム楕円CEkについて交点Oから引いた接線Lka,Lkbで作られる範囲内に、他の色情報Cmに対応するマクアダム楕円CEmの一部でも含まれれば、CkとCmとは互いに混同する色を表す色情報であるとして、同じ混同色セットに含めるのである。
【0040】
[混同色ブロックを用いる方法]
また、制御部11の検索処理は、次のような方法によっても実現できる。この例においては、記憶部12には、予め図6(a)又は図6(b)に示すように、所定色成分空間(ここではx,yによって張られる空間であるとする)内の少なくとも可視光範囲を複数のブロックに分割する。ここで分割の態様は、例えば図6(a)に示すように、P,D,Tのいずれかに対する交点Oから放射状に引いた複数の線分と、交点Oを中心とした同心円で仕切られるブロックとしてもよいし、図6(b)に示すようにx軸、y軸に平行な複数の線分で仕切られるブロックとしてもよい。また、各ブロックは均等に分割しなくてもよい。例えば図6(c)や図6(d)に示すように、マクアダム楕円の面積が大きくなるほど(すなわち、xの値が小さく、yの値が大きいほど)ブロックの面積が大きくなるように設定してもよい。
【0041】
また記憶部12には、これら仕切られたブロック間で互いに混同する色を含むブロック同士を関連づける、ブロック関連付け情報が記憶されている。このブロック関連付け情報は、具体的には次に示すようなものである。すなわち各ブロックに、図7に示すようにブロックに固有の識別子等、ブロックを識別する情報(ブロック識別情報)を割り当てておけば、ブロック関連付け情報は、互いに混同する色を含むブロックの識別情報同士を関連づけた情報(図8)とすることができる。なお、図8では、J1〜J9,I1〜I9,…A1〜A6といったように、アルファベット部分が共通するものごとに関連づけがなされている状態が示されている。
【0042】
どのブロックの組が互いに混同する色を含むブロックであるかは、例えば混同色軌跡に沿ったブロック同士としてもよいし、注目ブロックとその周囲のブロックとしてもよい。後者は例えば図7においてE3に対して、D2,E2,F2,D3,F3,D4,E4,F4を関連付ける等である。
【0043】
こうしたブロックを設定する情報と、ブロック関連付け情報とを用いて、制御部11は、次のようにして互いに混同する色を検索する。すなわち、特定色群の各色を、ブロックの設定に用いられる色成分空間上の座標値に変換し、各色がそれぞれどのブロックに属しているかを決定して、その結果(ブロック所属情報)を記憶部12に格納する。そして特定色群に含まれる各色を順次選択し、選択した色が属するブロックを注目ブロックとして、当該注目ブロックをキーとしてブロック関連付け情報を検索する。そして注目ブロックに関連付けられたブロック(注目ブロックそのものを含む)を特定し、記憶部12に格納されたブロック所属情報から、特定したブロックに属している色があるか否かを調べる。そしてそのような色があれば、当該色と、上記選択した色とを互いに混同する色として同じ混同色セットに含めて、記憶部12に格納する。
【0044】
例えば、特定色群に含まれる色情報C1によって表される色が属するブロックがE3であるとし、記憶部12に格納されたブロック関連付け情報に、E1,E2,E3…E7を互いに関連付ける情報が含まれているとする。このとき、特定色群に含まれる別の色情報C2によって表される色がブロックE7に属しているとすると、注目ブロックE3とブロックE7とはブロック関連付け情報によって関連付けられているため、ブロックE7に属する色情報C2は、色情報C1と同じ混同色セットに含めて記憶部12に格納される。
【0045】
さらにブロックは、重複を許しながら設定されてもよい。例えば図9に示すように、図6(a)で設定したブロックに対し、半分の幅で放射状の線分(破線で示す)を設定し、隣り合う破線と図6(a)の同心円とで仕切られたブロックを、図6(a)のブロックとともに設定してもよい。このようにブロックを定義すると、境界付近にある色をより精密に処理できる。この場合、各色は、2つのブロックに属する場合がある(例えば図9において点tは、D5のブロックとN5のブロックとの双方に属している)が、そのような場合は、当該2つのブロックのいずれか一方に関連付けられているブロックに属している色との間で互いに混同するとしてそれぞれを表す色情報を同じ混同色セットに含めて記憶部12に格納する。
【0046】
[処理の効率化]
ここまで、例を用いて説明したように、制御部11は、混同色軌跡の情報を用いる方法や色成分空間をブロックに分割する等の方法によってドキュメントデータ内で用いられている色の少なくとも一部(特定色群に含まれる色情報)について、混同色セットの情報を少なくとも一つ生成して記憶部12に格納する。ただし、互いに混同する色がない場合には、混同色セットを生成せず、以下の処理及びそれ以降の処理を省略する。
【0047】
また制御部11は、これらの処理をP,D,Tのそれぞれの色覚障碍のタイプに対する交点ごとにそれぞれ行い、それぞれから得られる混同色セットを生成する。あるいは、操作部13や外部インタフェース15を介して入力される指示に従って、P,D,Tのうち、指示された少なくとも1つの色覚障碍のタイプに対する交点のみにこれらの処理を行ってもよい。
【0048】
[明度を用いた処理の効率化]
既に説明したように、同一混同色軌跡上の2色(混同色)であっても、それらの明度が異なれば、どのタイプの色覚障碍を有していても、それらを互いに異なる色として認識できる。制御部11は、そこで、互いに混同すると判断した2つの色情報のそれぞれの明度を調べ、それらの明度が異なる場合は、混同色セットに含めないこととする。このようにすると、混同色セットに含まれる色情報の数が低減するので、後の処理負荷が軽減される。
【0049】
また検索処理の際に、注目色情報を選択した段階で、特定色群のうち、当該注目色情報と明度が異なる色を表す色情報については検索処理の対象としない、すなわち、人間の色覚特性上、明度の差がある色同士については、互いに混同するか否かの判断を行わずに、混同しないものとして扱うようにしてもよい。このようにすると、検索処理の負荷が軽減される。
【0050】
[P,Dの交点を平均化することによる効率化]
さらに、制御部11は、検索処理として混同色軌跡を用いる場合、次のようにしてもよい。すなわちPに対する交点と、Dに対する交点とは比較的近い位置にあるので、Pに対する交点の座標と、Dに対する交点の座標とに基づいてそれらの中間的位置として定められる座標に仮想的な交点を置き、当該仮想的交点から放射状に引いた線分を混同色軌跡とする。このようにすると、PとDとのそれぞれについて個別に処理を行う必要がないので、処理負荷を軽減できる。
【0051】
[処理色決定処理]
制御部11は、上記検索処理の結果として記憶部12に格納される混同色セットの情報を参照して、混同色セットのうち、実際に次の調整処理を行うべき色情報(処理対象色)を決定する。これは実際には、制御部11は混同色セットに含まれるすべての色情報についてそれぞれ調整処理を行ってもよい。
【0052】
しかしながら必ずしもすべての色情報について調整処理をする必要がない場合もある。そこで制御部11は、各色を処理対象とするか否かのパターン(C1,C2,C3について、C1のみを処理するパターンと、C1とC2とを処理するパターンと、…といった処理対象とする色情報の組み合わせ)のうち、処理対象とする色の数が最小となるパターンを検索し、当該パターンに基づいて処理対象となる色を決定する。この処理色決定処理によって処理対象色が絞り込まれ、処理負荷が軽減される。また予め定めた特定の色情報、例えば白や黒といった色情報については、処理対象色としない。
【0053】
以下、処理色決定処理の具体的内容の例について説明する。以下では、ドキュメントデータ上で互いに異なる色で表される領域同士がどのように配置されているかに基づき、処理対象色を決定する方法と、混同色セットの状態に基づいて処理対象色を決定する方法とを例として説明する。なお、実際の処理においては、以下のどの方法によって処理対象色を決定するかをユーザが選択可能となっていても好ましい。
【0054】
[配置に基づく処理色決定処理]
制御部11は、処理対象色をドキュメントデータ上の色の配置に基づいて決定することができる。すなわち、記憶部12に格納された混同色セットに色情報C1とC2とが含まれ、C3が含まれていない場合に、図10(a)に示すように、ドキュメントデータ上、色情報C1を含んだ領域情報とC2を含んだ領域情報とを抽出し、C1で表される色の領域と、C2で表される色の領域とが隣接して配置されている場合は、これらC1とC2との少なくとも一方を処理対象色とする必要がある。しかし、図10(b)に示すように、ドキュメントデータ上、C1で表される色の領域とC2で表される色の領域とが直接隣接せず、C3で表される色の領域がそれらの間に配置されている場合、C1とC2とがC3によって塗り分けられているため、C1とC2とを処理対象色とする必要は必ずしもなくなる。
【0055】
そこで制御部11は、ドキュメントデータ上で、同じ混同色セットに含まれる色同士の隣接状態に基づき、処理対象となる色を決定する。具体的に隣接状態を参照する処理の例は次のようになる。
【0056】
制御部11は、混同色セットの各々について、次の処理を行う。まず、混同色セットの一つを注目混同色セットとして、当該注目混同色セットに含まれている色情報のすべてを処理対象色として仮に決定する。そして仮に決定された処理対象色に含まれる色情報の各々について、各色情報を含んでいる領域情報を、記憶部12に格納されている領域情報のうちから検索して参照し、当該検索された領域情報を注目領域情報として、この注目領域情報に対応する領域(注目領域)に隣接する領域の領域情報(隣接領域情報)をさらに検索する。
【0057】
そして隣接領域情報(複数ある場合は、それぞれの隣接領域情報)に含まれる色情報を参照して、それらが注目混同色セットに含まれているかを調べ、どの色情報も注目混同色セットに含まれていない場合には、注目領域情報に含まれている色情報を、仮に決定された処理対象色から取り除く。
【0058】
こうした処理を各混同色セットのそれぞれを順次注目混同色セットとして繰り返し行うと、それぞれについて処理対象色が仮に決定される。制御部11は、これら仮に決定された処理対象色のうち、いずれかに含まれている色情報を、本処理対象色として決定し、記憶部12に格納する。
【0059】
これによると、互いに混同するとされた色情報のすべてが一旦処理対象色として仮決定され、仮決定された処理対象色のうち、それが用いられている領域に隣接した、それと混同する色情報が用いられている領域がない場合は、処理対象色から取り除かれる。従って、互いに混同する色のうち、それらが隣接しており、いずれかについて調整処理を要するという場合にのみ、当該色が処理の対象となるので、処理負荷が軽減される。
【0060】
なお、この処理色決定処理の過程では、一旦、本処理対象色とされたものについては、仮に決定された処理対象色から取り除くか否かの処理を省略することとすれば、さらに処理効率が向上する。
【0061】
[配置に基づく処理色決定処理の別の例]
また制御部11は、別の方法によって配置に基づく処理色決定処理を行うこともできる。すなわち制御部11は、検索対象色特定処理によって生成され、記憶部12に格納されている領域情報のそれぞれに対応するカウンタを記憶する領域を記憶部12内に確保し、それぞれの領域情報に対応するカウンタの値を「0」に初期化する。
【0062】
次に、制御部11は記憶部12に格納されている混同色セット(又は後に説明する仮セット)の一つを注目混同色セットとし、当該注目混同色セットに含まれる色情報の一つを選択色情報として選択する。そして記憶部12に格納されている領域情報のうちから、選択色情報を含む領域情報を抽出する。ここでそのような領域情報が複数あれば、制御部11は、当該複数の領域情報をすべて抽出する。
【0063】
さらに制御部11は、当該抽出した領域情報のそれぞれに対応する領域に隣接する領域を検索し、当該検索の結果として得られた領域に対応する領域情報(隣接領域情報)から色情報を取り出す。そしてこの取り出した色情報のうち注目混同色セットに含まれているものがいくつあるかを調べ、その結果を隣接混同色数として、各領域情報に対応するカウンタに加算する。
【0064】
そして制御部11は、注目混同色セットに含まれる色情報のうち、未選択のものを選択して、領域情報を抽出する処理から繰り返す。そしてこれを未選択の色情報がなくなるまで繰り返して行う。
【0065】
ここで、例えば図11(a)に示すように領域R1〜R5が作られ、各領域に対応する領域情報が色情報C1〜C5となっている場合であって、注目混同色セットにC1とC2とC4とが含まれ、C3とC5とが含まれていないときのカウンタの状態を例示すると、図11の領域R1(色情報C1)を選択したときに、隣接する4つの領域(R2〜R5)のうち、色情報C2,C4のものをカウントするので、領域R1に対応するカウンタは「2」となる。また、色情報がC2,C4である領域R2,R4のそれぞれを選択したときに、隣接した領域のうち、色情報がC1である領域R1をカウントするだけなので、それぞれに対応するカウンタは「1」となる。また、色情報C3,C5に対応する領域R3,R5については、カウンタは「0」のままである(図11(b))。
【0066】
制御部11は、さらに記憶部12に格納された混同色セットのうち、まだ注目混同色セットとなっていない混同色セットがなくなるまで、各混同色セットを順次注目混同色セットとしながら繰り返して処理する。この結果、各領域情報ごとに、その領域情報によって表される領域の周囲にある領域のうち、互いに混同する色の領域がいくつあるかがカウンタの値として記憶部12に保持された状態となる。
【0067】
制御部11は、各領域情報に対応するカウンタの値のうち、最大の値のものを一つ選択し、当該選択した値に対応する領域情報の色情報を参照して、当該色情報を処理対象色として決定し、当該処理対象色を記憶部12に格納する。そして制御部11は、当該色情報を各混同色セットから取り除いた仮の混同色セット(仮セット)を生成して、上記隣接状態を参照する処理を繰り返す。そしてどのカウンタも「0」となったところで処理を終了する。
【0068】
例えば図11(a)に示した例の場合、領域R1に対応するカウンタ「2」が最大の値となっているので、当該領域R1に対する色情報C1を処理対象色として、混同色セットから色情報C1を除いた仮セットを生成する。この仮セットにはC2,C4が含まれていることとなるが、R2とR4とは隣接していないので、隣接状態を参照する処理を繰り返すと、領域R1〜R5のどの領域情報に対応するカウンタも「0」のままとなる。従って、処理対象色はC1だけとなる。これにより、例えばC1とC2の双方に対して処理を行う場合に比べて処理負荷を低減できる。
【0069】
また隣接状態を参照する処理はより単純にカウンタではなく「0」又は「1」の2値状態のフラグとし、隣接混同色数が「1」以上となった領域情報に対応するフラグを「1」に変更するようにし、フラグが「1」となった領域情報のうち、いずれかの領域情報に含まれる色情報を所定の方法で(例えばランダムに)選択し、選択した色情報を処理対象色として決定し、当該処理対象色を記憶部12に格納してもよい。この場合、制御部11は、当該色情報を各混同色セットから取り除いた仮の混同色セット(仮セット)を生成して、上記隣接状態を参照する処理を繰り返す。そしてどのフラグも「0」のままとなったところで処理を終了する。
【0070】
さらに、このようにフラグを用いる場合は、フラグが「1」となっているすべての領域情報の各々に含まれる色情報を処理対象色として決定し、当該処理対象色を記憶部12に格納してもよい。このようにすべての領域情報の各々に含まれる色情報を処理対象色とする場合、調整処理の負荷は低減できないが、処理色決定処理自体の負荷を低減できる。
【0071】
[混同色セットの状態に基づく処理色決定処理]
また処理色決定処理の別の例として、混同色セットの状態に基づいて処理対象色を生成してもよい。これは例えば、検索処理で生成された2つの混同色セットのうち、第1の混同色セットに色C1とC2とが含まれ、第2の混同色セットに色C1とC3とが含まれている場合、色C1の明度を色C2、C3のどちらとも異なるように調整処理すれば、他のC2,C3に対する調整処理は不要となることに基づくものである。
【0072】
この場合、制御部11は、記憶部12に格納されている各混同色セット(又は後に説明する仮セット)について、次の、混同色セットの状態に基づく処理色決定処理を行う。すなわち、混同色セットの一つを選択し、当該選択した混同色セットに含まれている各色情報に対応するカウンタを記憶部12に確保してそれぞれの値を「1」にリセットする。
【0073】
次に、未だ選択していない混同色セットの一つを選択して、当該選択した混同色セットに含まれている各色情報に対応するカウンタが記憶部12に格納されていればそれをインクリメントし、格納されていなければ、新たに記憶部12に当該色情報に対応するカウンタを設定してその値を「1」にリセットする。
【0074】
そして未だ選択していない混同色セットがなくなるまで、未だ選択していない混同色セットの一つを選択する処理から繰り返して行う。すると、いずれかの混同色セットに含まれている色情報の各々について、その色情報がいくつの混同色セットに含まれているかを表す頻度の情報が得られるので、制御部11は、その頻度が最も多いもの(最も多いものが複数あればそのうちの一つ)を処理対象色として決定し、記憶部12に格納する。
【0075】
制御部11は、各混同色セットから、当該処理対象色として決定された色情報を取り除いた仮セットを生成し、当該仮セットに含まれる色情報の数が1つ以下になるまで、上記、混同色セットの状態に基づく処理色決定処理を繰り返して行う。
【0076】
こうして、共通して2以上の混同色セットに含まれている色情報が優先的に処理対象色となる。
【0077】
[調整処理]
次に、処理色決定処理によって決定された処理対象色について、人間の目の色覚障碍に関する知見からみて他の色と識別可能な状態に調整する処理について説明する。すなわち処理対象色の明度・彩度・色相などといった色成分空間上の位置を変更するか、又は処理対象色となった色が含まれる領域について、色ごとに定めた模様(パターン)を重畳し、またはパターンで色を置き換えるなど、模様を用いた処理を行うことで、互いに異なる色が用いられていることが容易に認識できるとする研究が為されている。そこで本実施の形態では、調整処理の例として、色成分空間上の位置を変更したり、模様を用いたりすることで、色の識別性を向上させる。以下ではそれぞれの例に分けて説明する。なお、実際の処理においては、以下に説明する処理例のどの処理を用いるかをユーザが選択できるようにしてもよいし、色成分を変更するとともに、模様を用いた処理を行うなど、複数の調整処理を施してもよい。
【0078】
[色成分空間上の位置を変更する例]
既に説明したように、一つの混同色軌跡上にある2色であっても、明度が異なれば識別可能な状態となる。そこで、制御部11は、処理対象色となった色情報について、明度の情報を変更する。ここで変更後の明度の値をどのようにするかは次のようにして決めればよい。なお、以下の説明では、混同色セットに含まれている各色情報については、その明度が所定範囲内に近接しているものとする(すなわち既に説明した明度を用いた効率化の処理が行われているとする)。
【0079】
すなわち、予め人間の視覚特性上、識別可能とされる互いに異なる明度の情報を予めモデル明度情報として記憶部12に格納しておく。そして、変更の対象となる色情報を処理対象色から一つ選択し、当該変更の対象となった色情報の現在の明度を参照し、当該記憶部12に格納されているモデル明度情報の中から、所定の方法で(例えばランダムに、あるいは当該現在の明度に最も近いもの、あるいは当該現在の明度に二番目に近いもの、あるいは当該現在の明度から最も遠いもの等、処理色決定処理の処理方法によって異なる方法で)一つ選び、変更の対象となった色情報の明度の情報を、その選んだ明度の情報に変更するとともに、当該選んだ明度の情報を「使用済み」として記憶する。制御部11は、同じ混同色セットに含まれている色情報の明度を上述の方法で変更する場合は、モデル明度情報のうち、「使用済み」となっているもの以外から所定の方法で明度の情報を一つ選び、変更の対象となった色情報の明度の情報を、その選んだ明度の情報に変更するとともに、当該選んだ明度の情報を「使用済み」として記憶する。
【0080】
なお、明度を用いた効率化の処理を行う際に、明度が異なるとして混同色セットから取り除いた色情報に配慮するため、当該取り除いた色情報の明度の情報に最も近いモデル明度情報は予め「使用済み」として記憶しておくことも好適である。
【0081】
これにより、同じ混同色セットに含まれている各色情報が互いに異なる明度を有するよう(すなわち調整量を異ならせて)調整される。
【0082】
また、混同色セットに含まれている色情報が2つの場合は、一方は明るく(高明度や高輝度)に、もう片方は暗く(低明度や低輝度)なるよう調整することも好ましい。これはモデル明度情報の一つを選択する際に、一方については現在の明度より大きい明度を選択し、他方については、現在の明度より小さい明度を選択するようにすれば実現できる。
【0083】
さらに、明度ではなく彩度の成分を変換してもよい。この場合も同様に、同じ混同色セットに含まれている色の間で互いに異なる調整量となるよう、彩度が調整される。また同じ混同色セットに含まれている色情報が2つの場合に、一方は高彩度に、他方は低彩度になるよう調整するのも同様に行うことができる。
【0084】
さらに、色相成分についても、同じ混同色セットに含まれている色の間で互いに異なる調整量となるよう、色相が調整される。また同じ混同色セットに含まれている色情報が2つの場合に、一方はプラス方向(時計廻り)に、他方はマイナス方向(反時計廻り)に調整する。
【0085】
またここでは、明度・彩度・色相で張られる色成分空間において調整を行う例について示したが、x,yによって張られる色成分空間において調整してもよい。この場合、例えば同じ混同色セットに含まれている色情報について、そのうちの少なくとも一つの色情報の成分を、当該混同色セットの元となった混同色軌跡に対する法線方向に調整する。また、同じ混同色セットに含まれている色情報について、そのうちの2つの色情報について、それぞれが法線方向に対して逆向きに調整されるようにするなど、調整後の各色情報の一部が別の混同色軌跡近傍の所定範囲に入らないようにしなければならない。
【0086】
また、これらのように明度などを調整する場合、色情報を一旦、調整の対象となる色成分を含む色成分空間に変換しなければならない。しかしながら、その後の処理においては、別の色成分空間が好ましい場合もある。そこで、本実施の形態の制御部11は、こうした明度などを調整する際には、その前に調整対象となる色成分を含む色成分空間内の値に色情報を変換し、色成分の調整を行ったのち、元の色成分空間の値に、調整後の色情報を逆変換する。また、後段の処理においてより好適な色成分空間があれば、当該好適な色成分空間に、調整後の色情報を変換してもよい。
【0087】
[模様を用いる例]
また制御部11は、模様を用いて調整処理を行ってもよい。この場合は、記憶部12に予め複数の模様の情報(パターン情報)を記憶させておき、各処理対象色に対して互いに異なるパターン情報、又は各処理対象色のそれぞれについて所定の方法で決定したパターン情報を用いて処理を行う。これらのパターン情報の例としては、ハッチングや、繰り返し模様などがある。また、パターン情報の決定の方法としては、色ごとに異なるものを割り当てるよう定めてもよいし、ドキュメント上、隣接しない色同士については同じパターン情報を割り当てる方法でも構わない。すなわち、各色について、常にそれぞれ異なるパターンが用いられるわけではない。
【0088】
パターン情報を用いた(模様を用いた)処理の例を次に列挙して述べる。
【0089】
[パターンに置換する例]
制御部11は、処理対象色となった各色情報について、それぞれ互いに異なるパターン情報を関連付ける。次に、ドキュメントデータのうち、処理対象色となった色情報の部分を、その色情報に関連付けたパターン情報に示される模様に置き換える。
【0090】
さらにこの場合、上記色情報とパターン情報との関連付けにおいては、色情報の濃度が濃くなる順に、パターン情報も濃くなるように関連付ける。これによって、処理対象色となった色情報が濃くなるほど、置き換えられたときのパターン情報も濃いものとなることとになって、視覚的な印象がある程度維持される。
【0091】
[パターンを重畳する例]
また制御部11は、パターンに置換するのではなく、処理対象色となった色情報の部分にパターンを重畳してもよい。この場合は、処理対象色となった色情報にパターンを乗じる。この場合も、上記色情報とパターン情報との関連付けにおいては、色情報の濃度が濃くなる順に、パターン情報も濃くなるように関連付けることで、視覚的な印象がある程度維持される。
【0092】
さらにこのようにパターンを重畳する場合は、その重畳の割合を処理対象色となった色情報の色の濃さに応じて変化させることで、視覚的な印象をある程度保持することができる。これは例えば、ドキュメントデータで用いられる色情報に対応付けて、予め重畳の割合を関連付けたテーブルを参照して行ってもよい。
【0093】
さらに制御部11は、パターン情報を重畳する際に、処理対象色となった色情報の明度・彩度・色相やR・G・B値など、色成分の少なくとも一つに対してパターン情報を重畳するようにしてもよい。
【0094】
[調整後の情報の保持]
制御部11は、さらに、こうして調整された後の色情報を、元の(調整前の)色情報に関連付けて記憶部12又はディスク装置部16に格納して保持させてもよい。こうして保持させた情報は、後に入力されるドキュメントデータにおいて利用するようにする。なお、この場合において、後から入力されたドキュメントデータにおいて、この保持されている情報に含まれていない色情報がさらに調整された場合は、当該色情報と、その調整後の色情報とを関連付けて、この保持されている情報に追記して格納することも好ましい。これにより、処理の結果がキャッシュされているのと同様の状態となって、処理負荷を低減させることができる。
【0095】
なお、こうした、いわばキャッシュされた情報を少なくとも一定期間保持させることによって、連続して入力されるドキュメントデータに含まれる色情報について均質な調整が行われるため、例えばプレゼンテーションで利用される一連の資料について同様の調整がなされ、視認性が向上する。
【0096】
[モデル情報の利用]
さらに、ドキュメントデータにおいて利用される色情報のうち、代表的な色についての色情報については、予め調整後の色情報を関連付けて記憶部12やディスク装置部16にモデル報として格納しておき、制御部11が調整処理の際に当該格納されているモデル情報を利用するようにしてもよい。
【0097】
[変形例]
ここまでの説明においては、混同色セットを検索するための色成分空間として、x,yの2次元の空間としていたが、これに明度や輝度を加えた3次元の色成分空間を用いてもよい。さらに、他の色成分を含めてN次元の空間を用いてもよい。
【0098】
[動作]
次に、本発明の実施の形態に係るドキュメント処理装置の動作について、ここでまとめておく。本実施の形態のドキュメント処理装置は、図12に示すように、入力されたドキュメントデータについて、その中から互いに混同する色を検索する処理の対象とする色を特定し(S1;検索対象色特定処理)、次に、当該検索対象として特定された色から、色覚障碍を持つ人にとって混同する色のセットを検索する(S2;検索処理)。そして、検索された色のセットに含まれる色のうち、調整の対象となる色情報を特定し(S3;処理色決定処理)、その結果である処理対象色の色情報を記憶部12に格納して保持する(S4)。
【0099】
さらにドキュメント処理装置は、処理S4で記憶部12に格納された処理対象色について、その色成分を調整し、又は/及び、模様を重ね合わせるなど、模様を用いた処理を施して(S5;調整処理)、色情報を調整した後のドキュメントデータを生成し(S6)、この生成したドキュメントデータを記憶部12に格納して処理を終了する。
【0100】
また、処理S4において、処理対象色の色情報を、入力されたドキュメントデータに関連付けて保持させておき、ドキュメントデータに基づく表示画像を生成する際(つまり、ドキュメントデータを表示部14に表示したり、プロジェクタを用いて投射したり、外部インタフェース15を介して外部の装置に送信したりする際)に、処理S5以下の処理を行うようにしてもよい。こうした例としては、例えばWebサーバ側でHTML文書や画像データとともに処理対象色の色情報を保持しておき、ユーザ側であるブラウザ側からの指示に応じて、当該HTML文書などとともに処理対象色の色情報を送信し、ブラウザ側で、処理S5以下の処理を行ってHTML文書や画像データを表示出力してもよい。こうした場合、例えば処理S4で保持させる処理対象色は、P,D,Tの各色覚障碍ごとに分けておき、ユーザ側の事情に応じて、いずれかを選択的に送信させることとしてもよい。またここでは処理S6において色調整後のドキュメントデータを生成することとしているが、ドキュメントデータから得られる表示画像のデータに対して色調整処理を行ってもよい。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係るドキュメント処理装置の構成ブロック図である。
【図2】 混同色軌跡の例を表す説明図である。
【図3】 混同色セットの例を表す説明図である。
【図4】 検索処理の概要を表す説明図である。
【図5】 マクアダム楕円に配慮した検索処理の例を表す説明図である。
【図6】 色成分空間をブロックにわけた例を表す説明図である。
【図7】 色成分空間をブロックにわけた際の、ブロックを特定する情報の例を表す説明図である。
【図8】 ブロック同士を関連づけた情報の例を表す説明図である。
【図9】 互いに重複を許して画定されたブロックの例を表す説明図である。
【図10】 色情報の配置の態様の例を表す説明図である。
【図11】 色情報の配置の態様の別の例と、それに基づく処理対象色の決定処理の例を表す説明図である。
【図12】 本発明の実施の形態に係るドキュメント処理装置の全体的な処理の流れの例を表すフローチャート図である。
【符号の説明】
11 制御部、12 記憶部、13 操作部、14 表示部、15 外部インタフェース部、16 ディスク装置部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a document processing apparatus that adjusts document data so that people with color blindness can easily see.
[0002]
[Prior art]
The modern society is full of information. People use different colors to distinguish or express information for the purpose of making information easy to understand and improving visibility. For example, traffic lights use three colors, red, yellow, and blue to organize traffic, and Tokyo subways and the like express each of a plurality of routes in different colors. Even if it is not such a public part, graphs as materials used in the company are colored in an easy-to-understand manner using color printers, or on slides created using presentation software, the background image Many colors are used.
[0003]
The use of such colors has the effect of making information easier to understand for those with normal color vision. However, it may not always be easy for people with color vision disabilities. For example, in the case of a type of color blindness in which it is difficult to distinguish between red and green, it is difficult to see a graph drawn with red and green.
[0004]
In addition, according to physiological and medical studies on human color vision, it is known that there are three types of color vision impairment: P, D, and T. These states of color blindness are better understood by using a color component space represented by a CIE XYZ color system xy chromaticity diagram defined from a physiological optical viewpoint (Non-Patent Document 1). That is, for each color blindness, a line segment (referred to as a confusion color line or a confusion color trajectory) is drawn radially from one point on the xy chromaticity diagram (hereinafter referred to as “intersection” for convenience of explanation). When colors on the same line segment (called confusion colors) have the same brightness, they cannot be distinguished from each other. The intersection position varies depending on each of P, D, and T. The intersection point for P and the intersection point for D are both located in the lower right part of the CIE chromaticity diagram, whereas the intersection point for T is , Located in the lower left part. It is also known that T-type color vision abnormalities are relatively rare.
[0005]
Therefore, as described in Patent Document 1, when confusion colors are adjacent to each other, there is a technique for making the boundary noticeable by adjusting the luminance signal at the boundary.
[0006]
[Non-Patent Document 1]
Ota Noboru, “Color Engineering”, Tokyo Denki University Press, December 20, 1993, first edition published
[0007]
[Patent Document 1]
JP 2002-44678 A
[0008]
[Problems to be solved by the invention]
However, as in the above-described prior art, if the boundary portion is made conspicuous, the portion with the color coding can be understood, but it cannot be distinguished whether it is color-coded or simply the boundary line is drawn.
[0009]
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a document processing apparatus that adjusts in a distinguishable manner that different colors are used for color portions that are confused with each other. To do.
[0010]
[Means for Solving the Problems]
The invention described in claim 1 is a document processing apparatus, wherein document input means for inputting document data, color blindness type input means for inputting a type of color blindness, and color information used in the document data. Color information specifying means for specifying; search means for searching for color information determined to represent colors that are confused with each other in the type of color blindness among the color information specified by the color information specifying means; Color information detected by the search means, changing means for changing the color of at least one portion used on the document data, means for outputting the document data changed by the changing means, Holding means for holding information on the color changed by the changing means, and the color information specifying means are mutually connected. For each region that has an area greater than or equal to a predetermined reference or is continuous for a predetermined length or more, the region specifying information for specifying the region and the contour of the region are expressed. Color information is specified by at least one of contour specifying information and color information inside the area, and the changing means has information about a color that has been changed in the past and is held in the holding means. Using the stored information, the color of at least one of the parts used on the document data is changed.
[0011]
A second aspect of the present invention is the document processing apparatus according to the first aspect, wherein the holding unit holds information about the color changed in the past at least for a predetermined period.
[0012]
The invention according to claim 3 is a program, wherein the computer uses document input means for inputting document data, color blindness type input means for inputting a type of color blindness, and color information used in the document data. Color information specifying means for specifying color, and search means for searching for color information determined to represent colors that are confused with each other in the type of color blindness among the color information specified by the color information specifying means; The color information detected by the search means is a change means for changing the color of at least one of the parts used on the document data; a means for outputting the document data changed by the change means; Functioning as holding means for holding information on the color changed by the changing means, and In the means, the area specifying information and the area for specifying the area for each area that has an area equal to or greater than a predetermined reference or is continuous for a predetermined length or more among areas that are separately painted. The color information is specified by at least one of the contour specifying information representing the contour of the image and the color information inside the area, and the changing means has information on the color changed in the past held in the holding means. In some cases, the color is changed for at least one of the parts used on the document data using the stored information.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the document processing apparatus according to the embodiment of the present invention includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, an external interface 15, and a disk device unit 16. It is comprised including. The control unit 11 operates according to a program stored in the storage unit 12, executes predetermined processing on the document data to be processed input from the external interface 15, and outputs it. Specific contents of the processing performed by the control unit 11 will be described in detail later.
[0017]
The storage unit 12 stores a program executed by the control unit 11. The storage unit 12 also operates as a work memory for the control unit 11. The operation unit 13 is a mouse, a keyboard, or the like, and outputs the contents of the instruction operation performed by the user to the control unit 11. The display unit 14 is a display or the like, and displays a display image generated based on document data in accordance with an instruction input from the control unit 11. In addition, the display unit 14 may send document data to an external device, for example, cause the external device to generate a display image based on the document data, and display the generated display image. Good. The external interface unit 15 outputs document data input from the outside to the control unit 11.
[0018]
The disk device unit 16 is, for example, a hard disk, and holds a program executed by the control unit 11 from an external computer-readable storage medium. This program is read by the control unit 11 and the memory controller at the time of execution of the program, and is copied to the storage unit 12 for use. Further, the disk device unit 16 holds various information according to instructions input from the control unit 11. The disk device unit 16 itself is a computer-readable storage medium.
[0019]
Here, the content of the process performed by the control unit 11 will be specifically described. The contents of the processing of the control unit 11 are basically divided into the following four stages. That is, a process for specifying a search target color (search target color specifying process) from the input document data, and a color set that is easily confused for a person with color blindness is searched from the color specified as the search target. Processing (search processing), processing for specifying a color to be adjusted (process color determination processing) out of colors included in the set of searched colors, and actual adjustment to the color to be adjusted It is a process (adjustment process) which performs a process and outputs the result. Hereinafter, these processes will be sequentially described.
[0020]
[Enter document data]
First, prior to each processing described above, the control unit 11 stores document data input via the external interface unit 15 in the storage unit 12. In the following description, document data may be image data in JPEG (Joint Picture Experts Group) format, etc., as long as the control unit 11 can process the contents thereof, or Microsoft PowerPoint (registered) Trademark data) or data created by application software such as Adobe Acrobat (registered trademark).
[0021]
[Search target color identification process]
The control unit 11 divides the document data for each color area used. Specifically, when the document data is image data, a widely known method can be used. For example, the methods described in “Image Analysis Handbook”, supervised by Mikio Takagi et al., Published by the University of Tokyo Press, and the chapter “Region Segmentation” on page 689 on the first edition of January 17, 1991 can be used. The detailed description about is omitted.
[0022]
Further, when the document data is data created by application software, the document data is divided for each area according to the data structure. For example, in the case of Adobe Acrobat (registered trademark), the internal data has a data structure including a series of information defining graphic elements shown in the display image, as in PostScript (registered trademark). Therefore, for each graphic element, find a command such as “fill”, which is a command to fill the graphic, or “setrgbcolor”, which specifies the color, and display the color used and the graphic element painted in that color. What is necessary is just to identify the area which occupies on an image, and to divide each.
[0023]
Specifically, for each region that is painted with different colors, the control unit 11 specifies information for specifying the region (region specifying information) and at least one coordinate information (contour specifying information) that represents the contour of the region. And region information including color information (color identification information, for example, RGB values thereof) inside the region is generated and stored in the storage unit 12. The control unit 11 refers to these area information, and when the display image is generated based on the document data, such as having an area larger than a predetermined standard or continuous longer than a predetermined length, the control unit 11 The area information representing the area that occupies the range is specified. Whether or not the area has a predetermined standard or more is calculated by, for example, calculating the histogram for each color in the case of image data, and using whether or not the frequency exceeds a predetermined threshold. In the case of data created by application software, once a display image is generated, a histogram for each color on the display image is calculated, and the frequency is determined in advance. The determination may be made using whether or not the threshold value is exceeded. In the same way as the above-mentioned PostScript (registered trademark), the area of the graphic element is calculated using the coordinate information related to the graphic element included in the document data, and the area exceeds a predetermined threshold value. Judgment may be made depending on whether or not.
[0024]
The control unit 11 stores information obtained by combining color information included in the specified area information in the storage unit 12 as specific color group information.
[0025]
[Search processing]
Next, the control unit 11 refers to the information on the specific color group stored in the storage unit 12, and among the color information included in the specific color group, the colors that are confused with each other in relation to the color blindness of the human eye. The color information determined to be represented is searched, and at least one set of color information that is confused with each other (confused color set) is generated. However, when there are no colors that are confused with each other, a confused color set is not generated, and the subsequent processing is omitted. As a specific method of this search process, there are a method using a confusion color locus and a method using a confusion color block as will be described below. In actual processing, it is preferable that the user can select which of the following methods is used for search processing.
[0026]
[Method of using confusion color locus]
First, a method using a confusion color locus will be described. The confusion color locus is a confusion color line or the like defined on the color component space (xy space) of the CIE XYZ color system xy chromaticity diagram, and in the predetermined color component space, colors that are confused at the time of color blindness are displayed. A point, line, surface, etc. that is defined to contain. In the following, for ease of explanation, explanation will be made using a confusion color locus defined in a color component space (a space spanned by x and y) corresponding to the xy chromaticity diagram. As mentioned above, this is a confusing color line.
[0027]
As described above, the confusion color line corresponds to each type of color blindness of P, D, and T in the color component space spanned by x and y, as shown in FIGS. Each of the line segments drawn radially from the intersections O at different positions can be drawn innumerably. Therefore, it can be said that the confusion color line is one of a group of innumerable line segments (a confusion color locus group referred to in the present invention).
[0028]
The control unit 11 is a color component space in which a confusion color locus group can be defined for each piece of color information included in the specific color group stored in the storage unit 12, for example, a color component space spanned by x and y as in this example. To color information expressed by the component (x, y). Specifically, if the color information included in the specific color group is expressed in RGB, it is converted into x and y values. Since this conversion method is widely known, its description is omitted.
[0029]
Then, the control unit 11 selects one color information (target color information) from the color information included in the specific color group according to a predetermined rule (for example, the order stored in the storage unit 12). . Further, color information other than the noticed color information is processed as follows. That is, one color information C2 to be compared is selected from the target color information C1 and the color information other than the target color information, and the midpoint coordinate P (Xc, Yc) between C1 and C2 is obtained. Then, parameters of an expression representing a line segment formed by connecting the midpoint coordinates and the coordinates O (Xo, Yo) of the intersection O (for example, the inclination and the intersection coordinates of the y axis) are generated.
[0030]
Next, the distance d (C1) between the line segment defined by this parameter (corresponding to one noticed confusion color locus in the confusion color locus group) and notice color information C1 (or comparison color information C2). , C2 is the same d), and it is checked whether or not the distance d is less than a predetermined threshold value w. Here, if w <d, it is assumed that C1 and C2 are colors that are confused with each other, and a confusion color set including C1 and C2 as a pair is generated and stored in the storage unit 12.
[0031]
The control unit 11 further checks whether color information that has not been selected as a comparison reference and color information other than the color information of interest is still included in the specific color group. One is selected as the next comparison control, and the process of obtaining the midpoint coordinate P is repeated. If the color information is not selected as a comparison and color information other than the color information of interest is not included in the specific color group, the processing for the color information C1 is completed and stored in the storage unit 12. The color information C1 is deleted from the specific color group, the next noticed color information is selected, and the process is repeated. This is repeated until the color information included in the specific color group becomes one.
[0032]
Then, in the storage unit 12, for example, as shown in FIG. 3, when the color information included in the specific color group is set as the target color information, the target color information and the color information confused with the target color information are paired. A confusion color set is generated.
[0033]
Here, as shown in FIG. 4A, the midpoint of the coordinates of the two color information to be compared and the intersection coordinates are used, but the method of using the confusion color locus is limited to this. It is not a thing. For example, as shown in FIG. 4B, a distance d between the line segment connecting the coordinates of the two color information C1 and C2 to be compared and the intersection point O is calculated, and is this less than a predetermined threshold value? It may be determined whether or not they are confused depending on whether or not, and as shown in FIG. 4C, two coordinates connecting the respective coordinates of the two pieces of color information C1 and C2 to be compared with the intersection O It may be determined whether or not the angle α formed by the line is confused depending on whether or not it is less than a predetermined threshold value. Further, as shown in FIG. 4D, the distance d between the coordinates of one of the two pieces of color information C1 and C2 to be compared with the line connecting the intersection O and the coordinate of the other color is It may be determined whether or not to confuse depending on whether or not it is less than a predetermined threshold value. In this case, one of C1 and C2 that is farther from the intersection point O so that the inclination of the line segment (the line segment in FIG. 4 (d) becomes a confusion color locus because it is a line segment that passes through the intersection point O) can be determined as accurately as possible. It is also preferable to calculate the distance d between the line segment connecting Cf-O and Cn, where Cf is the closer and Cn is the closer.
[0034]
In this way, although not strictly on one confusion color locus, the color information within a predetermined range (range determined by the respective threshold values) in the vicinity of one confusion color locus is confused with each other. Since it is stored as color information, color information having a high probability of confusion is processed as will be described later, and converted into a form that can be distinguished from each other. That is, consideration is given to color confusion actually generated by two colors that are not necessarily on the confusion color line.
[0035]
[Consideration of McAdam ellipse]
In the above description, the color represented by the color information, that is, the color represented by one point in the xy space, for example, is confused with the color in the confusion locus direction. There are colors that cause confusion even if they are not in the confusion trajectory direction. Specifically, when one of the colors included in the specific color group is selected, the colors included in a certain range centered on the selected color are displayed regardless of whether or not the viewer has color blindness. It is known to be confused with the selected color. These color ranges have been examined in detail by David MacAdam and their outer shape can be defined by an ellipse, so it is called the MacAdam ellipsis. This McAdam ellipse is explained in detail from page 115 to page 121 of Toshi Ota, “Color Engineering”, Tokyo Denki University Press, published on December 20, 1993 (non-patent document 1). Therefore, detailed description is omitted here.
[0036]
Therefore, the control unit 11 may perform the following processing in consideration of the McAdam ellipse. That is, after converting each piece of color information included in a specific color group into a value of a predetermined color component space (for example, x and y coordinate values), a parameter (center coordinate (that is, a specific color) that defines a Macadam ellipse for each color information. The coordinates of one color of the group), the long axis, the length of the short axis, the inclination of the ellipse, etc.) are generated and stored in the storage unit 12. In order to derive this McAdam ellipse, for example, after defining an ellipse using a UCS-chromaticity diagram (uniform-chromaticity-scale diagram) that can define the ellipse as being somewhat uniform, the ellipse on the UCS chromaticity diagram is represented by x, The color information in the specific color group may be obtained by converting into y-coordinates, and coordinates (u, v), (u ′, v ′) on the UCS chromaticity diagram, etc. 1 (see pages 118 to 120). When the color information of the specific color group is converted into the UCS chromaticity diagram space in advance as in the latter case, the confusion color locus defined is used on the UCS chromaticity diagram space.
[0037]
The control unit 11 generates parameter information for specifying the MacAdam ellipses EC1,..., ECn respectively defined for the color information C1,..., Cn included in the specific color group, and stores them in the storage unit 12. A region on the color component space represented by these MacAdam ellipses corresponds to a neighborhood confusion region obtained by utilizing human color vision characteristics and the like. Then, the control unit 11 calculates a tangent expression (confusion locus in contact with each MacAdam ellipse) drawn from the intersection O of the confusion color locus, and parameters (inclination and Y) defining the tangent equation. And the coordinates of the intersection with the axis) are stored in the storage unit 12. As shown in FIG. 5A, two tangent lines are drawn from one intersection point for one MacAdam ellipse. In the following description, the McAdam ellipse defined for the color information Ck is represented as CEk, and two tangent lines drawn with respect to the McAdam ellipse CEk are represented as Lka and Lkb, respectively.
[0038]
As shown in FIG. 5B, the control unit 11 includes a reference line L0 drawn from the intersection point toward the direction outside the visible light range, and tangent lines Lka and Lkb drawn two by two for each color information. And angles αka and αkb are calculated. Then, αma and αmb located between αka and αkb are searched in a predetermined order for Ck = C1,..., Cn (where m ≠ k). If such αma and αmb are found, the colors represented by the color information Ck and Cm are confused with each other, and these color information are included in the same confusion color set. Specifically, in FIG. 5B, α2b is included between α1a and α1b, and C1 and C2 are included in the same confusion color set as color information representing colors that are confused with each other. On the other hand, since none of α1a to α2b is included between α3a and α3b, there is no color confused with the color represented by C3, and C3 is not included in any confusion color set. Become.
[0039]
In short, if a part of the MacAdam ellipse CEm corresponding to the other color information Cm is included in the range formed by the tangents Lka and Lkb drawn from the intersection point O for the MacAdam ellipse CEk corresponding to the color information Ck, Ck and Cm Is color information representing colors that are confused with each other, and is included in the same confused color set.
[0040]
[Method of using confusion color block]
Moreover, the search process of the control part 11 is realizable also with the following methods. In this example, the storage unit 12 stores in advance at least a predetermined color component space (here, a space spanned by x and y) as shown in FIG. The visible light range is divided into a plurality of blocks. Here, for example, as shown in FIG. 6A, the division mode is partitioned by a plurality of line segments drawn radially from the intersection point O with respect to any of P, D, and T, and a concentric circle centered on the intersection point O. It is good also as a block, and it is good also as a block partitioned off with the some line segment parallel to an x-axis and a y-axis as shown in FIG.6 (b). Each block may not be divided equally. For example, as shown in FIGS. 6C and 6D, the block area is set to be larger as the area of the MacAdam ellipse is larger (that is, the value of x is smaller and the value of y is larger). May be.
[0041]
The storage unit 12 stores block association information for associating blocks including colors confused with each other between the partitioned blocks. The block association information is specifically as shown below. That is, if information (block identification information) for identifying a block, such as a unique identifier as shown in FIG. 7, is assigned to each block, the block association information includes identification information of blocks including colors that are confused with each other. Can be used as information (FIG. 8). Note that FIG. 8 shows a state in which association is made for each item having a common alphabet part, such as J1 to J9, I1 to I9,... A1 to A6.
[0042]
Which block set is a block including colors that are confused with each other may be, for example, blocks along a confused color locus, or a block of interest and its surrounding blocks. The latter is, for example, associating D2, E2, F2, D3, F3, D4, E4, and F4 with E3 in FIG.
[0043]
Using such block setting information and block association information, the control unit 11 searches for colors that are confused with each other as follows. That is, each color of the specific color group is converted into a coordinate value on the color component space used for setting the block, and it is determined which block each color belongs to, and the result (block affiliation information) is stored in the storage unit. 12. Then, each color included in the specific color group is sequentially selected, and the block association information is searched using the block to which the selected color belongs as a target block and using the target block as a key. Then, a block (including the target block itself) associated with the target block is specified, and it is checked from the block affiliation information stored in the storage unit 12 whether there is a color belonging to the specified block. If there is such a color, the color and the selected color are included in the same confusion color set as a color to be confused with each other and stored in the storage unit 12.
[0044]
For example, assuming that the block to which the color represented by the color information C1 included in the specific color group belongs is E3, the block association information stored in the storage unit 12 includes information associating E1, E2, E3. Suppose that At this time, if a color represented by another color information C2 included in the specific color group belongs to the block E7, the block of interest E3 and the block E7 are associated with each other by the block association information. The color information C2 to which it belongs is included in the same confusion color set as the color information C1 and stored in the storage unit 12.
[0045]
Further, the block may be set while allowing duplication. For example, as shown in FIG. 9, a radial line segment (shown by a broken line) is set with a half width for the block set in FIG. 6 (a), and the adjacent broken line and the concentric circle in FIG. 6 (a). You may set the block divided with the block of Fig.6 (a). By defining blocks in this way, colors near the boundary can be processed more precisely. In this case, each color may belong to two blocks (for example, point t in FIG. 9 belongs to both the D5 block and the N5 block). In such a case, the two blocks Color information representing each of them as being confused with each other belonging to a block associated with one of the two is included in the same confused color set and stored in the storage unit 12.
[0046]
[Efficient processing]
So far, as described with reference to the example, the control unit 11 uses at least one of the colors used in the document data by a method of using information on the confusion color locus or a method of dividing the color component space into blocks. For the unit (color information included in the specific color group), at least one piece of confusion color set information is generated and stored in the storage unit 12. However, when there are no colors that are confused with each other, a confused color set is not generated, and the following processing and subsequent processing are omitted.
[0047]
Further, the control unit 11 performs these processes for each intersection point for each of the types of color blindness of P, D, and T, and generates a confusion color set obtained from each. Alternatively, in accordance with an instruction input via the operation unit 13 or the external interface 15, these processes may be performed only on an intersection of at least one type of color blindness indicated among P, D, and T.
[0048]
[Efficient processing using brightness]
As already described, even if there are two colors (confusion colors) on the same confusion color locus, they can be recognized as different colors regardless of the type of color blindness as long as their lightness is different. . Therefore, the control unit 11 examines the lightness of each of the two color information determined to be confused with each other, and if the lightness is different, it is not included in the confusion color set. This reduces the number of color information included in the confusion color set, thereby reducing the subsequent processing load.
[0049]
In addition, when the target color information is selected during the search process, color information representing a color whose brightness is different from the target color information in the specific color group is not subjected to the search process. That is, human color vision characteristics In addition, colors having a difference in brightness may be handled as not being confused without determining whether or not they are confused with each other. In this way, the search processing load is reduced.
[0050]
[Efficiency by averaging the intersection of P and D]
Further, the control unit 11 may perform the following when using the confusion color locus as the search process. That is, since the intersection point with respect to P and the intersection point with respect to D are relatively close to each other, a virtual intersection point is set at a coordinate determined as an intermediate position based on the coordinates of the intersection point with respect to P and the coordinates of the intersection point with respect to D. A line segment drawn radially from the virtual intersection is used as a confusion color locus. In this way, since it is not necessary to individually process each of P and D, the processing load can be reduced.
[0051]
[Process color decision process]
The control unit 11 refers to the confusion color set information stored in the storage unit 12 as a result of the search process, and among the confusion color sets, the color information (processing target color) to be actually subjected to the next adjustment process. To decide. In practice, the control unit 11 may perform adjustment processing for all color information included in the confusion color set.
[0052]
However, there are cases where it is not always necessary to perform adjustment processing for all color information. Therefore, the control unit 11 determines whether or not each color is a processing target (for C1, C2, and C3, a pattern that processes only C1, a pattern that processes C1 and C2, and a color that is a processing target, such as: Among the combinations of information), a pattern having the smallest number of colors to be processed is searched, and a color to be processed is determined based on the pattern. The processing color determination process narrows down the processing target colors and reduces the processing load. Also, predetermined specific color information, for example, color information such as white and black, is not set as a processing target color.
[0053]
Hereinafter, an example of specific contents of the process color determination process will be described. In the following, a method for determining the processing target color based on how the regions represented by different colors on the document data are arranged, and a processing target color based on the state of the confusion color set are determined. The method will be described as an example. In actual processing, it is preferable that the user can select which method to determine the color to be processed by the following method.
[0054]
[Processing color decision processing based on layout]
The control unit 11 can determine the processing target color based on the color arrangement on the document data. That is, when the color information C1 and C2 are included in the confusion color set stored in the storage unit 12 and C3 is not included, the color information C1 is displayed on the document data as shown in FIG. When the area information including C2 and the area information including C2 are extracted and the color area represented by C1 and the color area represented by C2 are arranged adjacent to each other, C1 and C2 It is necessary to set at least one of the colors to be processed. However, as shown in FIG. 10B, in the document data, the color area represented by C1 and the color area represented by C2 are not directly adjacent to each other, and the color area represented by C3 is the same. When C1 and C2 are arranged between the two, C1 and C2 are separately painted by C3, so that it is not always necessary to set C1 and C2 as processing target colors.
[0055]
Therefore, the control unit 11 determines a color to be processed based on the adjacent state of colors included in the same confusion color set on the document data. A specific example of processing for referring to the adjacent state is as follows.
[0056]
The control unit 11 performs the following process for each confusion color set. First, one of the confusion color sets is set as a target confusion color set, and all of the color information included in the target confusion color set is temporarily determined as a processing target color. Then, for each piece of color information included in the processing target color determined, the area information including each color information is searched from the area information stored in the storage unit 12 and referred to. Using area information as attention area information, area information (adjacent area information) of an area adjacent to the area (attention area) corresponding to the attention area information is further searched.
[0057]
Then, by referring to the color information included in the adjacent area information (if there are multiple adjacent area information), it is checked whether they are included in the noticeable confusion color set, and any color information is included in the noticeable confusion color set. If not, the color information included in the attention area information is removed from the temporarily determined process target color.
[0058]
When such a process is repeatedly performed for each confusion color set as an attention confusion color set in sequence, a processing target color is temporarily determined for each. The control unit 11 determines the color information included in any of the temporarily determined processing target colors as the main processing target color and stores it in the storage unit 12.
[0059]
According to this, all of the color information that is supposed to be confused with each other is temporarily determined as a processing target color, and among the temporarily determined processing target colors, color information adjacent to the area in which the color information is used is confused with it. If there is no area used, it is removed from the process target color. Therefore, only when colors that are confused with each other are adjacent to each other and adjustment processing is required for any one of the colors, the processing load is reduced.
[0060]
In this process color determination process, if the process target color is once removed, the process efficiency is further improved if the process of whether or not to remove the process target color from the determined process target color is omitted. improves.
[0061]
[Another example of processing color determination processing based on layout]
Moreover, the control part 11 can also perform the process color determination process based on arrangement | positioning by another method. That is, the control unit 11 secures an area in the storage unit 12 for storing a counter corresponding to each of the area information generated by the search target color specifying process and stored in the storage unit 12, and corresponds to each area information. The counter value to be initialized is initialized to “0”.
[0062]
Next, the control unit 11 sets one of the confusion color sets (or a temporary set described later) stored in the storage unit 12 as a target confusion color set, and sets one piece of color information included in the target confusion color set. Select as selection color information. Then, area information including selected color information is extracted from the area information stored in the storage unit 12. If there is a plurality of such region information, the control unit 11 extracts all the plurality of region information.
[0063]
Further, the control unit 11 searches for an area adjacent to the area corresponding to each of the extracted area information, and extracts color information from the area information (adjacent area information) corresponding to the area obtained as a result of the search. Then, it is checked how many pieces of the extracted color information are included in the target confusion color set, and the result is added to the counter corresponding to each area information as the number of adjacent confusion colors.
[0064]
And the control part 11 repeats from the process which selects an unselected thing among the color information contained in an attention confusion color set, and extracts area | region information. This is repeated until there is no unselected color information.
[0065]
Here, for example, as shown in FIG. 11A, areas R1 to R5 are created, and the area information corresponding to each area is color information C1 to C5. When the state of the counter when C2 and C4 are included and C3 and C5 are not included is illustrated, when the region R1 (color information C1) in FIG. 11 is selected, four adjacent regions (R2 to R2) are selected. Since the color information C2 and C4 of R5) are counted, the counter corresponding to the region R1 is “2”. In addition, when each of the regions R2 and R4 whose color information is C2 and C4 is selected, only the region R1 whose color information is C1 among the adjacent regions is counted. " In addition, for the areas R3 and R5 corresponding to the color information C3 and C5, the counter remains “0” (FIG. 11B).
[0066]
Further, the control unit 11 repeatedly processes each confusion color set as the target confusion color set sequentially until there is no confusion color set that is not yet the target confusion color set among the confusion color sets stored in the storage unit 12. To do. As a result, for each area information, among the areas around the area represented by the area information, how many color areas are confused with each other is stored in the storage unit 12 as a counter value. .
[0067]
The control unit 11 selects one of the counter values corresponding to each area information with the maximum value, and processes the color information with reference to the color information of the area information corresponding to the selected value. The target color is determined and the processing target color is stored in the storage unit 12. Then, the control unit 11 generates a temporary confusion color set (temporary set) in which the color information is removed from each confusion color set, and repeats the process of referring to the adjacent state. Then, when any counter becomes “0”, the process is terminated.
[0068]
For example, in the example shown in FIG. 11A, since the counter “2” corresponding to the region R1 has the maximum value, the color information C1 for the region R1 is used as the processing target color, and the color from the confusion color set is displayed. A temporary set excluding the information C1 is generated. This temporary set includes C2 and C4. However, since R2 and R4 are not adjacent to each other, if the process of referring to the adjacent state is repeated, which area information in the areas R1 to R5 corresponds to The counter also remains “0”. Accordingly, the processing target color is only C1. Thereby, for example, the processing load can be reduced as compared with the case where processing is performed on both C1 and C2.
[0069]
Further, the process of referring to the adjacent state is not simply a counter but a binary state flag of “0” or “1”, and a flag corresponding to the area information whose adjacent confusion color number is “1” or more is set to “1”. The color information included in any one of the region information among the region information whose flag is “1” is selected by a predetermined method (for example, randomly), and the selected color information is processed. The color to be processed may be determined and stored in the storage unit 12. In this case, the control unit 11 generates a temporary confusion color set (temporary set) in which the color information is removed from each confusion color set, and repeats the process of referring to the adjacent state. Then, when any flag remains “0”, the process is terminated.
[0070]
Further, when the flag is used in this way, the color information included in each of all the area information for which the flag is “1” is determined as the processing target color, and the processing target color is stored in the storage unit 12. May be. As described above, when the color information included in each of all the area information is set as the processing target color, the load of the adjustment process cannot be reduced, but the load of the process color determination process itself can be reduced.
[0071]
[Processing color decision processing based on confusion color set status]
As another example of the process color determination process, the process target color may be generated based on the state of the confusion color set. For example, among the two confusion color sets generated by the search process, the first confusion color set includes the colors C1 and C2, and the second confusion color set includes the colors C1 and C3. If the color C1 is adjusted so that the brightness of the color C1 is different from both the colors C2 and C3, the adjustment processing for the other C2 and C3 is not necessary.
[0072]
In this case, the control unit 11 performs the following process color determination process based on the state of the confusion color set for each confusion color set (or a temporary set described later) stored in the storage unit 12. That is, one of the confusion color sets is selected, a counter corresponding to each color information included in the selected confusion color set is secured in the storage unit 12, and each value is reset to “1”.
[0073]
Next, one of the confusion color sets that have not yet been selected is selected, and if a counter corresponding to each color information included in the selected confusion color set is stored in the storage unit 12, it is incremented. If not stored, a counter corresponding to the color information is newly set in the storage unit 12, and the value is reset to "1".
[0074]
The process is repeated from the process of selecting one of the confusion color sets not yet selected until there is no confusion color set that has not yet been selected. Then, for each piece of color information included in one of the confusion color sets, frequency information indicating how many confusion color sets the color information is included in is obtained. Is determined as the color to be processed and stored in the storage unit 12.
[0075]
The control unit 11 generates a temporary set obtained by removing the color information determined as the processing target color from each confusion color set, and until the number of color information included in the temporary set becomes 1 or less, The process color determination process based on the state of the confusion color set is repeated.
[0076]
In this way, the color information included in two or more confusion color sets in common becomes the processing target color preferentially.
[0077]
[Adjustment process]
Next, the process of adjusting the process target color determined by the process color determination process to a state in which it can be distinguished from other colors in view of knowledge about color blindness of human eyes will be described. In other words, the position in the color component space such as brightness, saturation, hue, etc. of the processing target color is changed, or a pattern (pattern) defined for each color is superimposed on the area including the color that has become the processing target color. Studies have been made that it is possible to easily recognize that different colors are used by performing a process using a pattern, such as replacing a color with a pattern. Therefore, in the present embodiment, as an example of the adjustment process, the color discrimination is improved by changing the position in the color component space or using a pattern. Hereinafter, each example will be described separately. In the actual process, the user may be able to select which process in the process example described below, or change the color component and perform a process using a pattern. Adjustment processing may be performed.
[0078]
[Example of changing the position in the color component space]
As already described, even two colors on one confusion color locus can be discriminated if their brightness is different. Therefore, the control unit 11 changes the brightness information for the color information that has become the processing target color. Here, how to change the brightness value after the change may be determined as follows. In the following description, it is assumed that the brightness of each color information included in the confusion color set is close to a predetermined range (that is, the efficiency process using the brightness described above is performed). Suppose)
[0079]
That is, different brightness information that can be identified in advance in terms of human visual characteristics is stored in advance in the storage unit 12 as model brightness information. Then, one color information to be changed is selected from the colors to be processed, the current brightness of the color information to be changed is referred to, and the model brightness information stored in the storage unit 12 is selected. To a predetermined method (for example, randomly, or closest to the current brightness, second closest to the current brightness, or farthest from the current brightness) One is selected (depending on the method), and the brightness information of the color information to be changed is changed to the selected brightness information, and the selected brightness information is stored as “used”. When changing the lightness of the color information included in the same confusion color set by the above method, the control unit 11 uses a predetermined method from the model lightness information other than “used”. Is selected, the brightness information of the color information to be changed is changed to the selected brightness information, and the selected brightness information is stored as “used”.
[0080]
In order to consider the color information removed from the confusion color set because the lightness is different when performing the efficiency improvement process using the lightness, the model lightness information closest to the lightness information of the removed color information is preliminarily “ It is also preferable to store it as “used”.
[0081]
As a result, each color information included in the same confusion color set is adjusted to have different brightness (that is, with different adjustment amounts).
[0082]
In addition, when there are two pieces of color information included in the confusion color set, it is also preferable to adjust so that one is bright (high brightness and high brightness) and the other is dark (low brightness and low brightness). This can be realized when selecting one of the model brightness information, selecting a brightness greater than the current brightness for one and selecting a brightness less than the current brightness for the other.
[0083]
Further, not the lightness but the saturation component may be converted. In this case as well, the saturation is adjusted so that the adjustment amounts differ between the colors included in the same confusion color set. Further, when there are two pieces of color information included in the same confusion color set, the adjustment can be performed in such a manner that one is set to high saturation and the other is set to low saturation.
[0084]
Further, with respect to the hue component, the hue is adjusted so that the adjustment amount differs between colors included in the same confusion color set. When two pieces of color information are included in the same confusion color set, one is adjusted in the plus direction (clockwise) and the other is adjusted in the minus direction (counterclockwise).
[0085]
Further, although an example in which adjustment is performed in a color component space stretched by lightness, saturation, and hue has been described here, adjustment may be performed in a color component space stretched by x and y. In this case, for example, for color information included in the same confusion color set, at least one of the color information components is adjusted in the normal direction with respect to the confusion color locus that is the source of the confusion color set. In addition, for the color information included in the same confusion color set, a part of each color information after adjustment such that two of the color information are adjusted in the opposite direction to the normal direction. Must not fall within a predetermined range near another confusion color locus.
[0086]
Further, when adjusting the brightness or the like as described above, the color information must be once converted into a color component space including a color component to be adjusted. However, in subsequent processing, a different color component space may be preferred. Therefore, before adjusting the lightness or the like, the control unit 11 according to the present embodiment converts the color information into a value in the color component space including the color component to be adjusted, and adjusts the color component. Then, the adjusted color information is inversely converted to the original color component space value. Further, if there is a more suitable color component space in the subsequent processing, the adjusted color information may be converted into the suitable color component space.
[0087]
[Example using pattern]
The control unit 11 may perform adjustment processing using a pattern. In this case, information of a plurality of patterns (pattern information) is stored in the storage unit 12 in advance, and different pattern information for each processing target color or each processing target color is determined by a predetermined method. Processing is performed using pattern information. Examples of such pattern information include hatching and repetitive patterns. Also, as a method for determining pattern information, a different one may be assigned for each color, or the same pattern information may be assigned for colors that are not adjacent to each other on the document. That is, different patterns are not always used for each color.
[0088]
Examples of processing using pattern information (using patterns) will be listed and described below.
[0089]
[Example of replacing with a pattern]
The control unit 11 associates different pieces of pattern information with each color information that has become the processing target color. Next, in the document data, the portion of the color information that has become the processing target color is replaced with the pattern indicated by the pattern information associated with the color information.
[0090]
Furthermore, in this case, in the association between the color information and the pattern information, the pattern information is associated with the darker in the order of the darkness of the color information. As a result, the darker the color information that is the color to be processed, the darker the pattern information when replaced, and the visual impression is maintained to some extent.
[0091]
[Example of overlapping patterns]
Further, the control unit 11 may superimpose the pattern on the portion of the color information that has become the processing target color, instead of replacing the pattern. In this case, the color information that is the processing target color is multiplied by the pattern. Also in this case, in the association between the color information and the pattern information, the visual impression is maintained to some extent by associating the pattern information so that the pattern information becomes darker in the order of the darkness of the color information.
[0092]
Furthermore, in the case of superimposing patterns in this way, a visual impression can be maintained to some extent by changing the superposition ratio according to the color intensity of the color information that is the processing target color. For example, this may be performed by referring to a table in which the ratio of superimposition is associated in advance in association with color information used in the document data.
[0093]
Furthermore, when superimposing the pattern information, the control unit 11 sets the pattern information for at least one of the color components such as the brightness, saturation, hue, R, G, B value of the color information that is the processing target color. You may make it superimpose.
[0094]
[Retention after adjustment]
The control unit 11 may store the color information after the adjustment in this way in the storage unit 12 or the disk device unit 16 in association with the original (before the adjustment) color information. The information held in this way is used in document data to be input later. In this case, if the color information not included in the stored information is further adjusted in the document data input later, the color information and the color information after the adjustment are associated with each other. In addition, it is also preferable to add the information stored and store it. As a result, the processing result can be reduced to a state similar to that in which the processing result is cached.
[0095]
In addition, since the cached information is retained for at least a certain period, color information included in continuously input document data is uniformly adjusted. For example, a series of materials used in a presentation is used. Similar adjustments are made to improve visibility.
[0096]
[Use of model information]
Further, among the color information used in the document data, color information about a representative color is stored in advance as model information in the storage unit 12 or the disk device unit 16 in association with the color information after adjustment. The control unit 11 may use the stored model information during the adjustment process.
[0097]
[Modification]
In the description so far, the two-dimensional space of x and y is used as the color component space for searching the confusion color set. However, a three-dimensional color component space obtained by adding brightness and luminance to this space may be used. Good. Furthermore, an N-dimensional space including other color components may be used.
[0098]
[Operation]
Next, the operation of the document processing apparatus according to the embodiment of the present invention will be summarized here. As shown in FIG. 12, the document processing apparatus according to the present embodiment specifies colors to be processed for searching for confusion colors among the input document data (S1; search target color specification). Process) Next, a color set that is confused for a person with color blindness is searched from the color specified as the search target (S2; search process). Then, color information to be adjusted is specified from the colors included in the retrieved color set (S3; processing color determination processing), and the color information of the processing target color as a result is stored in the storage unit 12. (S4).
[0099]
Further, the document processing apparatus performs a process using the pattern such as adjusting the color component or / and superimposing the pattern on the process target color stored in the storage unit 12 in the process S4 (S5; adjustment). Processing), the document data after adjusting the color information is generated (S6), the generated document data is stored in the storage unit 12, and the processing is terminated.
[0100]
In process S4, the color information of the color to be processed is stored in association with the input document data, and a display image based on the document data is generated (that is, the document data is displayed on the display unit 14). When projecting using a projector or transmitting to an external device via the external interface 15), the processing from step S <b> 5 may be performed. As an example of this, for example, the color information of the processing target color is stored together with the HTML document and image data on the Web server side, and the processing target color is displayed together with the HTML document etc. in accordance with an instruction from the browser side on the user side. The color information may be transmitted, and the HTML document or the image data may be displayed and output by performing processing from step S5 onward on the browser side. In such a case, for example, the color to be processed to be held in step S4 may be divided for each color blindness of P, D, and T, and either one may be selectively transmitted according to the circumstances on the user side. Here, document data after color adjustment is generated in step S6, but color adjustment processing may be performed on display image data obtained from the document data.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a document processing apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram illustrating an example of a confusion color locus.
FIG. 3 is an explanatory diagram illustrating an example of a confusion color set.
FIG. 4 is an explanatory diagram showing an outline of search processing.
FIG. 5 is an explanatory diagram illustrating an example of search processing in consideration of a MacAdam ellipse.
FIG. 6 is an explanatory diagram illustrating an example in which a color component space is divided into blocks.
FIG. 7 is an explanatory diagram illustrating an example of information specifying a block when the color component space is divided into blocks.
FIG. 8 is an explanatory diagram illustrating an example of information in which blocks are associated with each other.
FIG. 9 is an explanatory diagram illustrating an example of blocks defined to allow overlap with each other.
FIG. 10 is an explanatory diagram illustrating an example of an arrangement mode of color information.
FIG. 11 is an explanatory diagram illustrating another example of an arrangement mode of color information and an example of processing target color determination processing based thereon.
FIG. 12 is a flowchart showing an example of the overall processing flow of the document processing apparatus according to the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 External interface part, 16 Disk apparatus part.

Claims (3)

ドキュメントデータを入力するドキュメント入力手段と、
色覚障碍のタイプを入力する色覚障碍タイプ入力手段と、
前記ドキュメントデータで用いられている色情報を特定する色情報特定手段と、
前記色情報特定手段によって特定された色情報のうち、前記色覚障碍のタイプにおいて互いに混同を生じる色を表していると判断される色情報を検索する検索手段と、
前記検索手段により検出された色情報が前記ドキュメントデータ上で用いられている部分の少なくとも一つについて、色を変更する変更手段と、
前記変更手段によって変更されたドキュメントデータを出力する手段と、
前記変更手段が変更した色に関する情報を保持する保持手段と、
を有し、
前記色情報特定手段は、互いに塗り分けられている領域のうち、所定の基準以上の面積を有しているか、又は所定の長さ以上に連続している領域ごとに、該領域を特定する領域特定情報と領域の輪郭を表す輪郭特定情報と該領域の内部の色の情報の少なくとも一つにより、色情報を特定し、
前記変更手段は、前記保持手段に保持されている、過去に変更した色に関する情報がある場合は、当該保持されている情報を利用して、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更することを特徴とするドキュメント処理装置。
A document input means for inputting document data;
Color blindness type input means for inputting the type of color blindness;
Color information specifying means for specifying color information used in the document data;
Search means of the color information specified, to search for color information is determined to represent the color produced mutually confusion Oite the type of the color vision disabilities by the color information specifying means,
Change means for changing the color of at least one of the parts where the color information detected by the search means is used on the document data;
Means for outputting the document data changed by the changing means;
Holding means for holding information on the color changed by the changing means;
Have
The color information specifying unit specifies an area for each area that has an area that is greater than or equal to a predetermined reference, or that is continuous over a predetermined length, among areas that are separately painted. The color information is specified by at least one of the specification information and the outline specification information indicating the outline of the area and the color information inside the area,
If there is information about a color that has been changed in the past and is held in the holding unit, the changing unit uses at least one of the parts used on the document data by using the held information. Document processing apparatus characterized in that the color is changed for one of the two .
前記保持手段は、少なくとも一定期間、前記過去に変更した色に関する情報を保持することを特徴とする請求項1記載のドキュメント処理装置。 The document processing apparatus according to claim 1, wherein the holding unit holds information about the color changed in the past for at least a predetermined period . コンピュータを、Computer
ドキュメントデータを入力するドキュメント入力手段と、  A document input means for inputting document data;
色覚障碍のタイプを入力する色覚障碍タイプ入力手段と、  Color blindness type input means for inputting the type of color blindness;
前記ドキュメントデータで用いられている色情報を特定する色情報特定手段と、  Color information specifying means for specifying color information used in the document data;
前記色情報特定手段によって特定された色情報のうち、前記色覚障碍のタイプにおいて互いに混同を生じる色を表していると判断される色情報を検索する検索手段と、  Search means for searching for color information determined to represent colors that cause confusion among the types of color blindness among the color information specified by the color information specifying means;
前記検索手段により検出された色情報が、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更する変更手段と、  Change means for changing the color of at least one of the portions of the color information detected by the search means used on the document data;
前記変更手段によって変更されたドキュメントデータを出力する手段と、  Means for outputting the document data changed by the changing means;
前記変更手段が変更した色に関する情報を保持する保持手段と、  Holding means for holding information on the color changed by the changing means;
として機能させ、  Function as
前記色情報特定手段では、互いに塗り分けられている領域のうち、所定の基準以上の面積を有しているか、又は所定の長さ以上に連続している領域ごとに、該領域を特定する領域特定情報と領域の輪郭を表す輪郭特定情報と該領域の内部の色の情報の少なくとも一つにより、色情報を特定させ、  In the color information specifying means, an area that specifies an area for each area that has an area greater than or equal to a predetermined reference or is continuous for a predetermined length or more among areas that are separately painted The color information is specified by at least one of the specification information and the outline specification information indicating the outline of the area and the color information inside the area,
前記変更手段では、前記保持手段に保持されている、過去に変更した色に関する情報がある場合は、当該保持されている情報を利用して、前記ドキュメントデータ上で用いられている部分の少なくとも一つについて色を変更させることを特徴とするプログラム。  In the change unit, when there is information about a color that has been changed in the past and is held in the holding unit, at least one of the parts used on the document data is stored using the held information. A program characterized by changing the color of one.
JP2003037443A 2003-02-14 2003-02-14 Document processing device Expired - Fee Related JP4155051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003037443A JP4155051B2 (en) 2003-02-14 2003-02-14 Document processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003037443A JP4155051B2 (en) 2003-02-14 2003-02-14 Document processing device

Publications (3)

Publication Number Publication Date
JP2004246739A JP2004246739A (en) 2004-09-02
JP2004246739A5 JP2004246739A5 (en) 2006-06-08
JP4155051B2 true JP4155051B2 (en) 2008-09-24

Family

ID=33022253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003037443A Expired - Fee Related JP4155051B2 (en) 2003-02-14 2003-02-14 Document processing device

Country Status (1)

Country Link
JP (1) JP4155051B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8514239B2 (en) 2009-06-17 2013-08-20 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154982A (en) * 2004-11-26 2006-06-15 Fuji Xerox Co Ltd Image processing device, image processing method, and program
JP4747762B2 (en) * 2005-09-27 2011-08-17 富士ゼロックス株式会社 Image processing apparatus, method, and program
JP5159331B2 (en) * 2008-01-17 2013-03-06 株式会社東芝 Information processing device
JP5022966B2 (en) * 2008-03-28 2012-09-12 京セラドキュメントソリューションズ株式会社 Color image forming apparatus and color image forming processing program
JP5019474B2 (en) * 2008-08-08 2012-09-05 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
JP2010272910A (en) * 2009-05-19 2010-12-02 Konica Minolta Business Technologies Inc Control program, image processing apparatus and image forming apparatus
JP2011250167A (en) * 2010-05-27 2011-12-08 Sony Corp Color conversion apparatus, color conversion method and program
JP6016164B2 (en) * 2013-05-10 2016-10-26 独立行政法人 国立印刷局 Color universal design printed matter

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8514239B2 (en) 2009-06-17 2013-08-20 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product

Also Published As

Publication number Publication date
JP2004246739A (en) 2004-09-02

Similar Documents

Publication Publication Date Title
EP1764742B1 (en) Image processing apparatus, image processing method, and program product
JP4155049B2 (en) Document processing device
JP2004080401A (en) Image processing method, device, storage medium, and program
JPH1132227A (en) Image-processing method and unit and storage medium
JP4155051B2 (en) Document processing device
JP2004320723A (en) Image processor, image processing method, and program
JP2005167970A (en) Trapping method, program, and apparatus, and printing system
US9043009B2 (en) Non-transitory computer-readable medium and device
US9875555B2 (en) Partitioning an image
JP7067262B2 (en) Information processing equipment and programs
JP4155050B2 (en) Document processing device
JP2007094585A (en) Image processing device, method and program
JP2009065532A (en) Image processor, image processing method, and computer-readable storage medium stored with image processing program
US8660354B2 (en) Image processing apparatus including an obtaining unit, an isolating unit, a classifying unit, information processing apparatus, and image reading apparatus
CN106027829B (en) Image processing equipment and image processing method
JP2005189333A (en) Image processing apparatus
JP7364381B2 (en) Image processing device
JP2013114660A (en) Hand area detection device, hand area detection method, program, and storage medium
JP2009225247A (en) Image display and image display method
JP2005242709A (en) Image processing device
JP6572180B2 (en) Image processing method, image processing apparatus, and program
JP2987169B2 (en) How to make a cutout mask
JP2802115B2 (en) Information output device
JP3230272B2 (en) Image processing device
JP2019213098A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060414

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4155051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees