JP6553239B2 - 情報処理装置、画像変更方法及びプログラム - Google Patents

情報処理装置、画像変更方法及びプログラム Download PDF

Info

Publication number
JP6553239B2
JP6553239B2 JP2018075390A JP2018075390A JP6553239B2 JP 6553239 B2 JP6553239 B2 JP 6553239B2 JP 2018075390 A JP2018075390 A JP 2018075390A JP 2018075390 A JP2018075390 A JP 2018075390A JP 6553239 B2 JP6553239 B2 JP 6553239B2
Authority
JP
Japan
Prior art keywords
character
area
difference
color
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018075390A
Other languages
English (en)
Other versions
JP2018106769A (ja
Inventor
梓帆美 高橋
梓帆美 高橋
智行 柴田
智行 柴田
鈴木 薫
薫 鈴木
洋次郎 登内
洋次郎 登内
和範 井本
和範 井本
三原 功雄
功雄 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018075390A priority Critical patent/JP6553239B2/ja
Publication of JP2018106769A publication Critical patent/JP2018106769A/ja
Application granted granted Critical
Publication of JP6553239B2 publication Critical patent/JP6553239B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、情報処理装置、画像変更方法及びプログラムに関する。
従来から、文字を含有する文字含有領域を含む画像に対し、カーソルを表示し、当該カーソルを文字含有領域へ移動させることにより、文字含有領域へのユーザの注意を引く技術が知られている。
特開2012−79076号公報
しかしながら、上述したような従来技術では、画像内の文字への引き付け方が間接的であるため、画像内の文字への引き付け方が直接的である場合に比べ、ユーザの文字の認知が遅れてしまう。
本発明は、上記事情に鑑みてなされたものであり、画像上の文字に対するユーザの認知を速めることが可能な情報処理装置、画像変更方法及びプログラムを提供することを目的とする。
実施形態の情報処理装置は、取得部と、第1分割部と、第2分割部と、算出部と、変更部と、出力部と、を備える。取得部は、画像を取得する。第1分割部は、前記画像を、1以上の文字を含有する文字含有領域と当該文字含有領域以外の背景領域とに分割する。第2分割部は、前記文字含有領域を、文字を構成する線分から成る文字領域と当該文字領域以外の文字背景領域とに分割する。算出部は、前記文字領域の所定属性の第1代表値、前記文字背景領域の前記所定属性の第2代表値、及び前記背景領域の前記所定属性の第3代表値を算出する。変更部は、前記第1代表値と前記第3代表値とに基づく第1差、前記第1代表値と前記第2代表値とに基づく第2差、及び前記第2代表値と前記第3代表値に基づく第3差が大きくなるように、前記第1代表値、前記第2代表値、及び前記第3代表値の少なくともいずれかの値を変更する。出力部は、前記第1代表値が変更された場合、前記文字領域の前記所定属性の値を変更後の第1代表値、前記第2代表値が変更された場合、前記文字背景領域の前記所定属性での値を変更後の第2代表値、前記第3代表値が変更された場合、前記背景領域の前記所定属性での値を変更後の第3代表値に変更した変更画像を出力する。
第1実施形態の情報処理装置の例を示す構成図。 第1実施形態の文字含有領域と背景領域との例の説明図。 画像から1以上の文字が映る領域を検出する公知手法の例の説明図。 画像から文字成分を抽出する公知手法の例の説明図。 第1実施形態の文字領域と文字背景領域との例の説明図。 第1実施形態の視認距離テーブルの例を示す図。 第1実施形態の変更画像の例を示す図。 第1実施形態の処理例を示すフローチャート。 第1実施形態のLab色空間における第1代表値の変更前及び変更後の位置の例を示す図。 第1実施形態のab平面における第1代表値の変更前及び変更後の位置の例を示す図。 第2実施形態の情報処理装置の例を示す構成図。 変形例7の文字領域の外接矩形の長辺の周囲に線が含まれているか否かの判定手法の例の説明図。 変形例7の文字領域の外接矩形の長辺の周囲に線が含まれているか否かの判定手法の例の説明図。 変形例7の文字領域の外接矩形の長辺の周囲に線が含まれているか否かの判定手法の例の説明図。 変形例7の文字領域の外接矩形の長辺の周囲に線が含まれているか否かの判定手法の例の説明図。 変形例8の文字領域の外接矩形の周囲にルビが含まれているか否かの判定手法の例の説明図。 変形例8の文字領域の外接矩形の周囲にルビが含まれているか否かの判定手法の例の説明図。 変形例8の文字領域の外接矩形の周囲にルビが含まれているか否かの判定手法の例の説明図。 第3実施形態の情報処理システムの例を示す構成図。 第3実施形態の情報処理システムの使用例を示す説明図。 第3実施形態の情報処理システムの使用例を示す説明図。 第4実施形態の情報処理システムの例を示す構成図。 第4実施形態の合成手法の例の説明図。 第4実施形態の合成画像の例を示す図。 各実施形態及び各変形例の情報処理装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の情報処理装置10の一例を示す構成図である。図1に示すように、情報処理装置10は、撮像部9と、取得部11と、第1分割部12と、第2分割部13と、算出部14と、記憶部15と、変更部16と、出力部17と、表示部18とを、備える。
情報処理装置10は、第1実施形態では、眼鏡型のウェラブル端末を想定しているが、これに限定されず、例えば、眼鏡型以外のウェラブル端末、スマートフォン、タブレット端末、及びPC(Personal Computer)などであってもよい。
撮像部9は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)を画像センサに用いた撮像装置により実現できる。
取得部11、第1分割部12、第2分割部13、算出部14、変更部16、及び出力部17は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
記憶部15は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、RAM(Random Access Memory)、及びROM(Read Only Memory)などの磁気的、光学的、又は電気的に記憶可能な記憶装置により実現できる。
表示部18は、例えば、液晶ディスプレイやタッチパネルディスプレイなどの表示装置により実現できる。
撮像部9は、画像を撮像する。第1実施形態では、情報処理装置10が眼鏡型のウェラブル端末であることを想定しているため、撮像部9は、ユーザが情報処理装置10を通して視認している画像を撮像する。
取得部11は、撮像部9により撮像された画像を取得する。
第1分割部12は、取得部11により取得された画像を、1以上の文字を含有する文字含有領域と当該文字含有領域以外の背景領域とに分割する。
なお、文字含有領域の数は、取得部11により取得された画像に依存する。つまり、取得部11により取得された画像に含まれる文字含有領域が1つであれば、第1分割部12は、当該画像から1つの文字含有領域を分割し、取得部11により取得された画像に含まれる文字含有領域が複数であれば、第1分割部12は、当該画像から複数の文字含有領域を分割する。
具体的には、第1分割部12は、取得部11により取得された画像から1以上の文字が映る領域を検出し、当該画像から当該領域が外接する領域を抽出し、抽出した領域を文字含有領域、抽出しなかった領域を背景領域とする。
図2は、第1実施形態の文字含有領域と背景領域との一例の説明図である。図2に示す例の場合、「STOP」という文字を含有する8角形の領域が文字含有領域106となり、文字含有領域106以外の領域が背景領域となる。但し、実際には、画像上部のハングル文字列を含有する領域も文字含有領域となるが、ここでは、説明を省略し、背景領域として扱う。
なお、画像から1以上の文字が映る領域を検出する手法は、公知の手法を用いればよい。
図3は、画像から1以上の文字が映る領域を検出する公知の手法の一例の説明図である。図3に示す例では、図2に示す画像から文字の全部又は一部を構成する文字成分121〜125(1以上の連続する画素)を抽出し、抽出した文字成分121〜125の中から、同一の文字列に含まれると推定される文字成分を選択し(ここでは、文字成分121〜125を選択)、選択した文字成分121〜125に基づいて文字列の方向及び高さの情報を取得することで、画像から1以上の文字が映る領域126を検出している(詳細は、例えば、特開2005−309771号公報を参照)。なお、領域126を文字含有領域としてもよい。
図4は、画像から文字成分を抽出する公知の手法の一例の説明図である。図4に示す例では、画像101を一定比率r(但し、0<r<1)で順次縮小し、1以上のリサイズ画像102−1〜102−2を生成し、画像101とリサイズ画像102−1〜102−2を、中心を合わせて上下方向に並べることで、解像度ピラミッド画像103とし、解像度ピラミッド画像103に含まれる画像101及びリサイズ画像102−1〜102−2の対応箇所を所定サイズの検出窓104で切り取り、3つの部分画像を生成している。そして、予め文字・非文字画像を学習した文字検出辞書を用いて、3つの部分画像それぞれを照合し、文字らしさを表すスコアが文字成分抽出用の閾値を超えていれば、文字成分として抽出する。文字らしさを表すスコアは、部分空間法やサポートベクトルマシンなどを用いたパターン識別など公知の手法で求めることができる。
第2分割部13は、第1分割部12により分割された文字含有領域を、文字を構成する線分から成る文字領域と当該文字領域以外の文字背景領域とに分割する。
図5は、第1実施形態の文字領域と文字背景領域との一例の説明図である。図5に示す例の場合、第2分割部13は、文字含有領域106を、「STOP」という文字で構成される文字領域107と、文字含有領域106から文字領域107を除外した文字背景領域108とに分割している。
具体的には、第2分割部13は、文字含有領域を構成する各画素を二値化して解析し、特徴が類似する隣接する画素同士を連結することで複数の連結成分を生成し、生成した連結成分の連結成分間の位置関係と連結成分の類似度とに応じて、ほぼ同一直線上に並んでいる連結成分を組み合わせ、文字を構成する線分を抽出し、抽出した線分の領域を文字領域、抽出しなかった領域を文字背景領域とする。
なお、文字が文字背景よりも濃色で記載されていることが分かっている場合には、連結する画素は黒色の画素であり、文字が文字背景よりも薄色で記載されていることが分かっている場合には、連結する画素は白色の画素である。また、文字が文字背景よりも濃いか薄いか分かっていない場合には、文字含有領域を構成する画素において、白色の画素の方が多ければ、文字が文字背景よりも濃色で記載されていると判断できるため、連結する画素は黒色の画素であり、文字含有領域を構成する画素において、黒色の画素の方が多ければ、文字が文字背景よりも薄色で記載されていると判断できるため、連結する画素は白色の画素である。
但し、文字領域と文字背景領域との分割手法は、上述の手法に限定されず、他の公知の手法などを用いてもよい。なお、第2分割部13は、上述の手法で文字含有領域を文字領域と文字背景領域とに分割するので、OCR(Optical Character Recognition)等に比べ、処理負荷(例えば、処理時間や処理に必要なデータ量)を削減できるとともに、言語の種類に依存せずに文字領域と文字背景領域とを分割できるという利点がある。
算出部14は、第2分割部13により分割された文字領域の所定属性の第1代表値、第2分割部13により分割された文字背景領域の所定属性の第2代表値、及び第1分割部12により分割された背景領域の所定属性の第3代表値を算出する。
所定属性は、人間の認知のし易さを表現可能な属性、即ち、人の目の惹きつけやすさや認知容易性を表現できる属性であればよく、例えば、色相、明度、及び彩度などが挙げられる。第1実施形態では、所定属性が色相である場合を例に取り説明するが、これに限定されるものではない。
また第1実施形態では、第1代表値は、文字領域における色相の代表色であり、より詳細には、文字領域において、最も顕著性を有する色である。第2代表値は、文字背景領域における色相の代表色であり、より詳細には、文字背景領域において、最も顕著性を有する色である。第3代表値は、背景領域における色相の代表色であり、より詳細には、背景領域において、最も顕著性を有する色である。
最も顕著性を有する色は、例えば、文字領域の場合、文字領域において最も多い色とすることができる。また例えば、文字領域の場合、文字領域の顕著性マップを生成し、顕著性マップにおいて最も顕著性が高い画素の色とすることができる。なお、文字背景領域や背景領域においても同様である。
顕著性マップは、領域の各画素の注意を惹く強度(確率)を表したマップであり、例えば、領域を色、輝度、及びエッジに分解し、各成分の多重スケール画像における隣接特徴との差分を算出し、統合することで生成できる(詳細は、例えば、L.Itti,C.Koch, and E.Niebur,“A model of saliency-based visual attention for rapid scene analysis,” IEEE Trans.Pattern Anal. Mach. Intell.,vol.20, no.11, pp.1254-1259,1998.を参照)。
記憶部15は、視認距離テーブルを記憶する。図6は、第1実施形態の視認距離テーブルの一例を示す図である。図6に示す視認距離テーブルは、図柄の色と図柄の背景の色との組み合わせ毎の視認距離を示すテーブルであり、大島の調査(1953)によるものである。視認距離は、図柄を視認可能な距離であり、値が大きいほど、背景の色に対して図柄の色が目立ち、人間が認知し易いことを表す。但し、視認距離テーブルは、これに限定されるものではない。
変更部16は、算出部14により算出された第1代表値と第3代表値とに基づく第1差、第1代表値と第2代表値とに基づく第2差、及び第2代表値と第3代表値に基づく第3差が大きくなるように、第1代表値、第2代表値、及び第3代表値の少なくともいずれかの値を変更する。
第1実施形態では、前述のとおり、所定属性が色相である。また第1実施形態では、第1差は、第1代表値を図柄(対象物の一例)の色、第3代表値を図柄の背景の色とした場合の視認距離であり、第2差は、第1代表値を図柄の色、第2代表値を図柄の背景の色とした場合の視認距離であり、第3差は、第2代表値を図柄の色、第3代表値を図柄の背景の色とした場合の視認距離とする。
そして、変更部16は、記憶部15に記憶された視認距離テーブルを参照して、第1差、第2差、及び第3差が大きくなるように、第1代表値、第2代表値、及び第3代表値の少なくともいずれかの値を変更する。
より詳細には、変更部16は、図6に示す視認距離テーブルを参照して、第1差が最大となり、第2差及び第3差が大きくなり、更に、第2差と第3差との合算値が最大となるように、第1代表値及び第2代表値を変更する。
例えば、図5に示す状態において、文字領域107の第1代表値が「橙」、文字背景領域108の第2代表値が「赤」、及び背景領域の第3代表値が「赤」であるとする。
この場合、変更部16は、まず、図6に示す視認距離テーブルを参照して、第1差が最大となるように、第1代表値を変更する。このため、文字領域107の第1代表値が「黄」に変更される。
次に、変更部16は、図6に示す視認距離テーブルを参照して、第2差及び第3差が大きくなり、更に、第2差と第3差との合算値が最大となるように、第2代表値を変更する。このため、文字背景領域108の第2代表値が「紫」に変更される。
出力部17は、変更部16により第1代表値が変更された場合、文字領域の所定属性の値を変更後の第1代表値、変更部16により第2代表値が変更された場合、文字背景領域の所定属性での値を変更後の第2代表値、変更部16により第3代表値が変更された場合、背景領域の所定属性での値を変更後の第3代表値に変更した変更画像を出力する。具体的には、出力部17は、変更画像を表示部18に表示出力する。
図6に示す視認距離テーブルを参照した例では、変更部16により、第1代表値が「橙」から「黄」に変更され、第2代表値が「赤」から「紫」に変更されているため、出力部17は、図7に示すように、文字領域107全体の色を「黄」に変更し、文字背景領域108全体の色を「紫」に変更した変更画像を表示部18に表示出力する。
図8は、第1実施形態の情報処理装置10で行われる処理の手順の流れの一例を示すフローチャートである。
まず、取得部11は、撮像部9により撮像された画像を取得し、第1分割部12は、取得部11により取得された画像を、文字含有領域と背景領域とに分割する(ステップS1)。
続いて、文字含有領域については(ステップS2でYes)、第2分割部13は、文字領域と文字背景領域とに分割する(ステップS4)。
続いて、算出部14は、背景領域については(ステップS2でNo)、背景領域の所定属性の代表値である第3代表値を算出し(ステップS3)、文字背景領域については(ステップS5でNo)、文字背景領域の所定属性の代表値である第2代表値を算出し(ステップS6)、文字領域については(ステップS5でYes)、文字領域の所定属性の代表値である第1代表値を算出する(ステップS7)。
続いて、変更部16は、第1差、第2差、及び第3差が大きくなるように、第1代表値、第2代表値、及び第3代表値の少なくともいずれかの値を変更する(ステップS8)。
続いて、出力部17は、変更部16により第1代表値が変更された場合、文字領域の所定属性の値を変更後の第1代表値、変更部16により第2代表値が変更された場合、文字背景領域の所定属性での値を変更後の第2代表値、変更部16により第3代表値が変更された場合、背景領域の所定属性での値を変更後の第3代表値に変更した変更画像を出力する(ステップS9)。
以上のように第1実施形態によれば、文字領域、文字背景領域、及び背景領域間における人間の認知のし易さを表現可能な属性の差が大きくなるような変更を行うため、画像上の文字に対するユーザの認知を速めることができる。
特に第1実施形態によれば、背景領域の色は変化せず、文字領域及び文字背景領域の色が変化するため、ユーザが持っている元の画像に対するイメージを大きく変えずに、画像上の文字に対するユーザの認知を速めることができる。
(変形例1)
上記第1実施形態において、文字領域、文字背景領域、及び背景領域の色をL*a*b*色空間(以下、「Lab色空間」とする)で表し、所定属性をLab色空間の明度とし、第1代表値を文字領域における明度の代表値、第2代表値を文字背景領域における明度の代表値、第3代表値を背景領域における明度の代表値としてもよい。
文字領域の場合、第1代表値は、文字領域において、最も顕著性を有する明度の値であり、文字領域において最も多い明度や文字領域の顕著性マップにおいて最も顕著性が高い画素の明度とすることができる。なお、文字背景領域や背景領域においても同様である。
この場合、第1差は、第1代表値と第3代表値との差(明度差)、第2差は、第1代表値と第2代表値との差(明度差)、第3差は、第2代表値と第3代表値との差(明度差)となる。
なお、Lab色空間における明度差は、数式(1)で求められる。
このため、算出部14は、第1差を求める場合には、数式(1)のL1に第1代表値、L2に第3代表値を代入し、第2差を求める場合には、数式(1)のL1に第1代表値、L2に第2代表値を代入し、第3差を求める場合には、数式(1)のL1に第2代表値、L2に第3代表値を代入すればよい。
そして、第1差をΔL1、第2差をΔL2、第3差をΔL3、変更後の第1差をΔL1_new、変更後の第2差をΔL2_new、変更後の第3差をΔL3_newとすると、変更部16は、数式(2)を満たすように、第1代表値、第2代表値、及び第3代表値のいずれかの値を変更すればよい。
ΔL1_new>ΔL1 かつ ΔL2_new>ΔL2 かつ ΔL3_new>ΔL3 …(2)
変形例1によれば、文字領域、文字背景領域、及び背景領域間における明度差が大きくなるような変更を行うため、画像上の文字に対するユーザの認知を速めることができる。
(変形例2)
変形例1において、所定属性にLab色空間の彩度を加え、第1代表値に文字領域における彩度の代表値、第2代表値に文字背景領域における彩度の代表値、第3代表値に背景領域における彩度の代表値を更に加えるようにしてもよい。なお、彩度の代表値は、aの値とbの値とのペアで表される。また、明度については、変形例1で既に説明したため、変形例2では、明度に関する説明を省略し、彩度に特化して説明する。
文字領域の場合、第1代表値は、文字領域において、最も顕著性を有する彩度の値が加わる。最も顕著性を有する彩度の値は、文字領域において最も多い彩度や文字領域の顕著性マップにおいて最も顕著性が高い画素の彩度とすることができる。なお、文字背景領域や背景領域においても同様である。
この場合、第1差は、第1代表値と第3代表値との差(明度差及び彩度差)、第2差は、第1代表値と第2代表値との差(明度差及び彩度差)、第3差は、第2代表値と第3代表値との差(明度差及び彩度差)となる。
なお、Lab色空間における彩度は、数式(3)で定義されるため、Lab色空間における彩度差は、数式(4)で求められる。
このため、算出部14は、第1差の彩度差を求める場合には、数式(4)のa1及びb1に第1代表値、a2及びb2に第3代表値を代入し、第2差の彩度差を求める場合には、数式(4)のa1及びb1に第1代表値、a2及びb2に第2代表値を代入し、第3差の彩度差を求める場合には、数式(4)のa1及びb1に第2代表値、a2及びb2に第3代表値を代入すればよい。
そして、第1差の彩度差をΔC1、第2差の彩度差をΔC2、第3差の彩度差をΔC3、変更後の第1差の彩度差をΔC1_new、変更後の第2差の彩度差をΔC2_new、変更後の第3差の彩度差をΔC3_newとすると、変更部16は、数式(5)を満たすように、第1代表値、第2代表値、及び第3代表値のいずれかの値を変更すればよい。
ΔC1_new>ΔC1 かつ ΔC2_new>ΔC2 かつ ΔC3_new>ΔC3 …(5)
変形例2によれば、文字領域、文字背景領域、及び背景領域間における明度差及び彩度差が大きくなるような変更を行うため、画像上の文字に対するユーザの認知を速めることができる。
なお、変形例2では、所定属性にLab色空間の明度及び彩度の双方を用いる例について説明したが、明度を用いずに彩度を用いるようにしてもよい。
(変形例3)
上記第1実施形態において、文字領域、文字背景領域、及び背景領域の色をLab色空間で表し、所定属性をLab色空間の色とし、第1代表値を文字領域における色の代表値、第2代表値を文字背景領域における色の代表値、第3代表値を背景領域における色の代表値としてもよい。なお、色の代表値は、Lの値とaの値とbの値との組で表される。
文字領域の場合、第1代表値は、文字領域において、最も顕著性を有する色の値であり、文字領域において最も多い色や文字領域の顕著性マップにおいて最も顕著性が高い画素の色とすることができる。なお、文字背景領域や背景領域においても同様である。
この場合、第1差は、第1代表値と第3代表値との差(色差)、第2差は、第1代表値と第2代表値との差(色差)、第3差は、第2代表値と第3代表値との差(色差)となる。
なお、Lab色空間における色差は、数式(6)で求められる。
このため、算出部14は、第1差を求める場合には、数式(6)のL1、a1、b1に第1代表値、L2、a2、b2に第3代表値を代入し、第2差を求める場合には、数式(6)のL1、a1、b1に第1代表値、L2、a2、b2に第2代表値を代入し、第3差を求める場合には、数式(6)のL1、a1、b1に第2代表値、L2、a2、b2に第3代表値を代入すればよい。
そして、第1差をΔd1、第2差をΔd2、第3差をΔd3、変更後の第1差をΔd1_new、変更後の第2差をΔd2_new、変更後の第3差をΔd3_newとすると、変更部16は、以下のいずれかの条件を満たすように、第1代表値、第2代表値、及び第3代表値のいずれかの値を変更すればよい。
ここで、Lab色空間は、等色色空間であり、色差が色の近さを表すため、色差が大きい配色ほど、人間は認知し易い。このため、変更部16は、第1代表値を誘目性の高い色の値へ変更する。誘目性の高い色は、例えば、ISO 3864−1:2002(JIS z 9101−2001)に示される安全彩色が挙げられる。
具体的には、変更部16は、第1代表値を、安全彩色の値のうち、Δd1_newとΔd2_newとの差が最も大きくなる色の値に変更する。この際、変更部16は、Δd1_new及びΔd2_newの値は、3以上の値となるように第1代表値を変更する。
なお、誘目性の高い色を暖色としてもよい。この場合、変更部16は、図9及び図10に示すように、第1代表値のaの値及びbの値をプラス方向(暖色方向)、かつ、第1代表値のaの値及びbの値の絶対値が大きくなるように変更することで、ab平面上において、第1代表値が原点と成す角が大きくなるように第1代表値のaの値及びbの値を変更する。なお、図9は、第1実施形態のLab色空間における第1代表値の変更前及び変更後の位置の一例を示す図であり、図10は、第1実施形態のab平面における第1代表値の変更前及び変更後の位置の一例を示す図である。
変形例3によれば、文字領域と文字背景領域との色差、及び文字領域と背景領域間との色差が大きくなるような変更を行うため、画像上の文字に対するユーザの認知を速めることができる。
(変形例4)
上記第1実施形態において、所定属性を領域の短辺又は領域に含まれる線分の太さとし(以下、まとめて「線分の太さ」とする)、第1代表値を文字領域における線分の太さ、第2代表値を文字背景領域における線分の太さ、第3代表値を背景領域における線分の太さとし、第1差、第2差、及び第3差を、線分の太さの差としてもよい。
(第2実施形態)
第2実施形態では、文字含有領域の重要度を更に用いて、文字含有領域をそのまま文字含有領域として扱うか背景領域として扱うかを判定する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図11は、第2実施形態の情報処理装置210の一例を示す構成図である。図11に示すように、第2実施形態の情報処理装置210は、記憶部215及び判定部219が、第1実施形態と相違する。
なお第2実施形態では、取得部11により取得された画像に含まれる文字含有領域が複数であり、第1分割部12は、当該画像から複数の文字含有領域を分割し、第2分割部13は、複数の文字含有領域それぞれ毎に、文字領域と文字背景領域とに分割するものとする。
記憶部215は、ISO 3864−1:2002に示される安全彩色を定義した安全彩色テーブルを更に記憶する。
判定部219は、第2分割部13により分割された複数の文字領域それぞれの重要度を判定し、重要度が閾値以下の文字領域及び当該文字領域の文字背景領域を背景領域とする。具体的には、判定部219は、記憶部215に記憶されている図6に示す視認距離テーブルや安全彩色テーブルを用いて、文字領域の重要度を判定する。
例えば、判定部219は、図6に示す視認距離テーブルを参照し、文字領域の視認距離が視認距離用の閾値を超えていれば、当該文字領域をそのまま文字領域とし、文字領域の視認距離が視認距離用の閾値以下であれば、当該文字領域及び当該文字領域の文字背景領域を背景領域とする。この場合、重要度は、視認距離である。
また例えば、判定部219は、安全彩色テーブルを参照し、文字領域が安全彩色を含めば、当該文字領域をそのまま文字領域とし、文字領域が安全彩色を含まなければ、当該文字領域及び当該文字領域の文字背景領域を背景領域とする。この場合、重要度及び閾値は、安全彩色の有無である。
第2実施形態によれば、文字領域が複数存在する場合に、画像上の重要度が高い文字領域の文字に対するユーザの認知を速めることができる。
(変形例5)
上記第2実施形態において、判定部219は、文字領域の線分の太さが線分の太さ用の閾値を超えていれば、当該文字領域をそのまま文字領域とし、文字領域の線分の太さが線分の太さ用の閾値以下であれば、当該文字領域及び当該文字領域の文字背景領域を背景領域としてもよい。この場合、重要度は、線分の太さである。
(変形例6)
上記第2実施形態において、判定部219は、文字領域の複数の線分から第1主方向成分と第2主方向成分とを算出し、第1主方向成分と第2主方向成分とが非直行であれば、当該文字領域をそのまま文字領域とし、第1主方向成分と第2主方向成分とが直行すれば、当該文字領域及び当該文字領域の文字背景領域を背景領域としてもよい。この場合、重要度及び閾値は、第1主方向成分と第2主方向成分との直交の有無である。なお、第1主方向成分は、文字領域の複数の線分それぞれの方向成分のうち、最も多い方向成分であり、第2主方向成分は、文字領域の複数の線分それぞれの方向成分のうち、2番目に多い方向成分である。
変形例6によれば、文字領域が複数存在する場合に、斜体文字の文字領域の文字に対するユーザの認知を速めることができる。
(変形例7)
上記第2実施形態において、判定部219は、文字領域の外接矩形の長辺の周囲に線が含まれていれば、当該文字領域をそのまま文字領域とし、文字領域の外接矩形の長辺の周囲に線が含まれていなければ、当該文字領域及び当該文字領域の文字背景領域を背景領域としてもよい。この場合、重要度及び閾値は、文字領域の外接矩形の長辺の周囲における線の有無である。
例えば、取得部11により図12に示す画像が取得された場合、判定部219は、図13に示すように外接矩形311の長辺の周囲に線が含まれているため、外接矩形311の文字領域をそのまま文字領域とし、外接矩形312の長辺の周囲に線が含まれていないため、外接矩形312の文字領域及び当該文字領域の文字背景領域を背景領域とする。
具体的には、判定部219は、外接矩形を、上部、中部、下部に3等分し、下部に外接矩形の短辺の2倍以上の長さの線分があれば、外接矩形の長辺の周囲に線が含まれていると判定する。従って、図14に示すように、外接矩形311の長辺の周囲に線が含まれていると判定され、図15に示すように、外接矩形312の長辺の周囲に線が含まれていないと判定される。
変形例7によれば、文字領域が複数存在する場合に、下線が使用されている文字領域の文字に対するユーザの認知を速めることができる。
(変形例8)
上記第2実施形態において、判定部219は、文字領域の外接矩形の周囲にルビが含まれていれば、当該文字領域をそのまま文字領域とし、文字領域の外接矩形の周囲にルビが含まれていなければ、当該文字領域及び当該文字領域の文字背景領域を背景領域としてもよい。この場合、重要度及び閾値は、文字領域の外接矩形の周囲のルビの有無である。
例えば、取得部11により図16に示す画像が取得された場合、判定部219は、図17に示す例の場合、外接矩形331の周囲にルビの外接矩形332が含まれているため、外接矩形331の文字領域をそのまま文字領域とし、図18に示す例の場合、外接矩形341、342の周囲にルビの外接矩形が含まれていないため、外接矩形341の文字領域及び当該文字領域の文字背景領域を背景領域とし、外接矩形342の文字領域及び当該文字領域の文字背景領域を背景領域とする。
具体的には、判定部219は、外接矩形の上部に当該外接矩形と同じ大きさの領域を設定し、当該領域に当該領域の短辺の2/3倍以下の短辺を有する外接矩形があれば、外接矩形の周囲にルビが含まれていると判定する。従って、図17に示すように、外接矩形331の周囲にルビがあると判定され、図18に示すように、外接矩形341、342の周囲にルビが含まれていないと判定される。
(第3実施形態)
第3実施形態では、画像の取得を外部から行い及び変更画像の出力を外部に行う例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図19は、第3実施形態の情報処理システム400の一例を示す構成図である。図19に示すように、情報処理システム400は、撮像装置401と、情報処理装置410と、表示装置402とを、備える。
なお、情報処理装置410は、撮像装置401及び表示装置402とネットワーク(図示省略)を介して接続されている。ネットワークは、例えば、インターネット、VPN(Virtual Private Network)、及びLAN(Local Area Network)などが挙げられる。
情報処理装置410は、撮像部9及び表示部18を含まない点、並びに取得部411及び出力部417が第1実施形態と相違する。
撮像装置401は、画像を撮像するものであり、例えば、CCDやCMOSを画像センサに用いた撮像装置により実現できる。
取得部411は、撮像装置401からネットワークを介して画像を取得する。
出力部417は、ネットワークを介して変更画像を表示装置402に表示出力する。
表示装置402は、変更画像を表示するものであり、例えば、液晶ディスプレイやタッチパネルディスプレイなどの表示装置により実現できる。
第3実施形態によれば、図20に示すように、作業現場に設置された撮像装置401が撮像した画像501を、情報処理装置410が取得し、情報処理装置410が第1実施形態で説明した手法で変更画像を生成し、図21に示すように、作業員が有する表示装置402に、文字領域522及び文字背景領域521の色が変更された変更画像520を表示できる。
これにより、ユーザの視野外の領域や、ユーザとの間に遮蔽物が置かれた領域にある文字領域が含まれる画像をユーザに提示し、その中にある文字に対するユーザの認知を速めることができる。
特に、遠隔地を監視しているユーザに対し、遠隔地の文字情報に対するユーザの認知を速めることができる。例えば、遠隔地にある測定計の数値を監視しているユーザ対し、測定計の数値に対するユーザの認知を速めることができる。
(第4実施形態)
第4実施形態では、取得した画像を合成する例について説明する。以下では、第3実施形態との相違点の説明を主に行い、第3実施形態と同様の機能を有する構成要素については、第3実施形態と同様の名称・符号を付し、その説明を省略する。
図22は、第4実施形態の情報処理システム600の一例を示す構成図である。図22に示すように、情報処理システム600は、情報処理装置610が補整部619を備える点で第3実施形態と相違する。
第4実施形態では、取得部411は、同一時刻に撮影された複数の画像を取得するものとする。
補整部619は、取得部411により取得された複数の画像を合成する。具体的には、補整部619は、図23に示すように、取得部411により取得された画像701、702において、回転・拡大縮小によって変化しない、安定した特徴を持つ点の領域を表現する局所特徴量を算出し、各画像の局所特徴量間で最も類似した点同士を対応点として決定する。そして補整部619は、決定した複数の対応点から、2画像の移動量と変形量を推定し、推定した移動量・変形量に沿って画像の対応点同士を重ね合わせ、図24に示すような合成画像703に補正する。
(ハードウェア構成)
図25は、上記各実施形態及び各変形例の情報処理装置のハードウェア構成の一例を示すブロック図である。図25に示すように、上記各実施形態及び各変形例の情報処理装置は、CPUなどの制御装置901と、ROMやRAMなどの記憶装置902と、HDDやSSDなどの外部記憶装置903と、ディスプレイなどの表示装置904と、マウスやキーボードなどの入力装置905と、通信I/F906と、カメラなどの撮像装置907とを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。但し、第3実施形態及び第4実施形態の情報処理装置は、撮像装置907を備える必要はない。
上記各実施形態及び各変形例の情報処理装置で実行されるプログラムは、ROM等に予め組み込んで提供される。
また、上記各実施形態及び各変形例の情報処理装置で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。
また、上記各実施形態及び各変形例の情報処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態及び各変形例の情報処理装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
上記各実施形態及び各変形例の情報処理装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置901が外部記憶装置903からプログラムを記憶装置902上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、上記各実施形態及び各変形例によれば、画像上の文字に対するユーザの認知を速めることが可能である。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
また例えば、上記第2実施形態を上記第3実施形態や上記第4実施形態に組み合わせてもよい。
9 撮像部
10、210、410、610 情報処理装置
11、411 取得部
12 第1分割部
13 第2分割部
14 算出部
15、215 記憶部
16 変更部
17、417 出力部
18 表示部
219 判定部
400、600 情報処理システム
401 撮像装置
402 表示装置
619 補整部

Claims (12)

  1. 画像を、文字を構成する線分から成る文字領域、当該文字を含有する文字含有領域のうち当該文字領域以外の文字背景領域、及び、当該文字含有領域以外の背景領域に分割し、
    前記文字領域の所定属性、前記文字背景領域の所定属性、及び、前記背景領域の所定属性の差が大きくなるように、少なくともいずれかの所定属性を変更し、
    変更された前記所定属性に応じて変更した変更画像を出力する
    情報処理装置。
  2. 前記所定属性は、人間の認知のし易さを表現可能な属性である請求項1に記載の情報処理装置。
  3. 前記所定属性は、色相であり、
    前記文字領域の色と前記背景領域の色との差である第1差は視認距離であり、
    前記文字領域の色と前記文字背景領域の色との差である第2差は視認距離であり、
    前記文字背景領域の色と前記背景領域の色との差である第3差は視認距離である
    請求項2に記載の情報処理装置。
  4. 更に、前記第2差と前記第3差との合算値が最大となるように、前記文字領域の色及び前記文字背景領域の色を変更する
    請求項3に記載の情報処理装置。
  5. 前記所定属性は、明度であり、
    前記文字領域の明度と前記背景領域の明度との差、前記文字領域の明度と前記文字背景領域の明度との差、及び前記文字背景領域の明度と前記背景領域の明度との差は、明度差である
    請求項2に記載の情報処理装置。
  6. 前記所定属性は、彩度であり、
    前記文字領域の彩度と前記背景領域の彩度との差、前記文字領域の彩度と前記文字背景領域の彩度との差、及び前記文字背景領域の彩度と前記背景領域の彩度との差は、彩度差である
    請求項2に記載の情報処理装置。
  7. 前記所定属性は、色であり、
    前記文字領域の色と前記背景領域の色との差、前記文字領域の色と前記文字背景領域の色との差、及び前記文字背景領域の色と前記背景領域の色との差は、色差である
    請求項2に記載の情報処理装置。
  8. 複数の文字含有領域それぞれ毎に、前記文字領域と前記文字背景領域とに分割し、
    複数の文字領域それぞれの重要度を判定し、前記重要度が閾値以下の文字領域及び当該文字領域の文字背景領域を背景領域とする
    請求項1に記載の情報処理装置。
  9. 前記変更画像を表示装置に表示出力する
    請求項1に記載の情報処理装置。
  10. 前記変更画像を外部装置に出力する
    請求項1に記載の情報処理装置。
  11. 画像を、文字を構成する線分から成る文字領域、当該文字を含有する文字含有領域のうち当該文字領域以外の文字背景領域、及び、当該文字含有領域以外の背景領域に分割するステップと、
    前記文字領域の所定属性、前記文字背景領域の所定属性、及び、前記背景領域の所定属性の差が大きくなるように、少なくともいずれかの所定属性を変更するステップと、
    変更された前記所定属性に応じて変更した変更画像を出力するステップと、
    を含む画像変更方法。
  12. 画像を、文字を構成する線分から成る文字領域、当該文字を含有する文字含有領域のうち当該文字領域以外の文字背景領域、及び、当該文字含有領域以外の背景領域に分割するステップと、
    前記文字領域の所定属性、前記文字背景領域の所定属性、及び、前記背景領域の所定属性の差が大きくなるように、少なくともいずれかの所定属性を変更するステップと、
    変更された前記所定属性に応じて変更した変更画像を出力するステップと、
    をコンピュータに実行させるためのプログラム。
JP2018075390A 2018-04-10 2018-04-10 情報処理装置、画像変更方法及びプログラム Active JP6553239B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018075390A JP6553239B2 (ja) 2018-04-10 2018-04-10 情報処理装置、画像変更方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018075390A JP6553239B2 (ja) 2018-04-10 2018-04-10 情報処理装置、画像変更方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014189286A Division JP6325401B2 (ja) 2014-09-17 2014-09-17 情報処理装置、画像変更方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018106769A JP2018106769A (ja) 2018-07-05
JP6553239B2 true JP6553239B2 (ja) 2019-07-31

Family

ID=62785876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075390A Active JP6553239B2 (ja) 2018-04-10 2018-04-10 情報処理装置、画像変更方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6553239B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076355A (ja) * 2001-08-31 2003-03-14 Sharp Corp 画像表示装置、画像表示方法、記録媒体およびプログラム
JP2004070659A (ja) * 2002-08-06 2004-03-04 Canon Inc 記録装置、記録方法、プログラム並びに記憶媒体
JP2005260404A (ja) * 2004-03-10 2005-09-22 Fuji Xerox Co Ltd 画像処理装置
JP4710672B2 (ja) * 2006-03-17 2011-06-29 コニカミノルタビジネステクノロジーズ株式会社 文字色判別装置、文字色判別方法、およびコンピュータプログラム
JP4779743B2 (ja) * 2006-03-24 2011-09-28 セイコーエプソン株式会社 デジタルコンテンツ編集装置およびプログラム
JP2009296545A (ja) * 2008-06-09 2009-12-17 Canon Inc 画像処理装置およびその方法
JP2012205133A (ja) * 2011-03-25 2012-10-22 Canon Inc 画像処理装置およびその制御方法

Also Published As

Publication number Publication date
JP2018106769A (ja) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6325401B2 (ja) 情報処理装置、画像変更方法及びプログラム
JP5972468B2 (ja) 画像からのラベルの検出
JP5826081B2 (ja) 画像処理装置、文字認識方法及びコンピュータプログラム
EP3319041B1 (en) Image processing apparatus, image processing method, and storage medium
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
CN105303156B (zh) 字符检测装置、方法及程序
EP3113112A1 (en) Apparatus for and method of processing image based on object region
US20150116349A1 (en) Image display apparatus, image display method, and computer program product
US8938117B2 (en) Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
CN110706295A (zh) 人脸检测方法、装置及计算机可读存储介质
WO2017215156A1 (zh) 壁纸处理方法及装置
KR101044652B1 (ko) 터치스크린을 통한 카메라 영상의 문자열 인식 시스템 및 그 방법
JP6553239B2 (ja) 情報処理装置、画像変更方法及びプログラム
US20220383616A1 (en) Information processing apparatus and image processing method
JP5857634B2 (ja) 単語間空白検出装置、単語間空白検出方法及び単語間空白検出用コンピュータプログラム
US20180276458A1 (en) Information processing device, method and storage medium
US9990532B2 (en) Fingerprint data registering method and fingerprint data registering apparatus
JP6467817B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10497103B2 (en) Information processing apparatus, information processing system, information processing method, and recording medium
EP4287112A1 (en) Determination method, determination program, and information processing device
JP5561102B2 (ja) 文字認識装置、文字認識プログラムおよび文字認識方法
JP2021005128A (ja) 物体検出プログラム、物体検出方法、及び、物体検出装置
CN113703901A (zh) 图形码显示方法、装置及电子设备
CN113705496A (zh) 海报选择方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190703

R151 Written notification of patent or utility model registration

Ref document number: 6553239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151