JP5512903B1 - 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム - Google Patents

画像処理装置、画像処理方法、情報記憶媒体、及びプログラム Download PDF

Info

Publication number
JP5512903B1
JP5512903B1 JP2013550700A JP2013550700A JP5512903B1 JP 5512903 B1 JP5512903 B1 JP 5512903B1 JP 2013550700 A JP2013550700 A JP 2013550700A JP 2013550700 A JP2013550700 A JP 2013550700A JP 5512903 B1 JP5512903 B1 JP 5512903B1
Authority
JP
Japan
Prior art keywords
image
text
character
correction target
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013550700A
Other languages
English (en)
Other versions
JPWO2014155745A1 (ja
Inventor
宗 益子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP5512903B1 publication Critical patent/JP5512903B1/ja
Publication of JPWO2014155745A1 publication Critical patent/JPWO2014155745A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本発明の画像処理装置は、画像(30)に表される第1のテキストと文字画像(60)に表される第2のテキストとが重なるように画像(30)上に文字画像(60)が重畳された合成画像(30),(60)において、翻訳前文字列を構成する文字部分(33)のうち、翻訳後文字列を構成する非透明画素(61)により被覆されない部分を欠損画素Dとし、合成画像(30),(60)内の欠損画素Dの色属性を、合成画像(30),(60)内又は画像(30)内の一部の色属性を利用して補正する。

Description

本発明は、画像処理装置、画像処理方法、情報記憶媒体、及びプログラムに関し、特にはテキストと一体化した画像の処理に関する。
画像処理の分野では、テキストと一体化した画像からテキストを除去したい場合がある。
例えば、仮想商店街サイトでは、バーゲンなどで用いられる「最終日」等のテキストを、注意を喚起するための図形等の要素を含む背景画像に重畳させた画像が用いられることがある。こうした画像からテキストを読み取り、他の言語に翻訳した上で、翻訳後のテキストを上記背景画像に重畳させた新たな画像を生成する際に、画像と一体化している翻訳前のテキストを除去することができれば便利である。
特許文献1には、単一色の用紙に黒で文字が印字された文書をスキャンして得たビットマップ画像から文字を認識した後、その文字を描画していた画素を用紙と同じ属性の画素で埋め戻し、その後、認識した文字を翻訳して別の新たな文字を取得し、画素の埋め戻された箇所に書き込む技術が開示されている。
特開2006−251902号公報
特許文献1に開示された技術では、後の工程で翻訳後の文字を書き込むにも関わらず、翻訳前の文字を描画していた全ての画素を用紙と同じ属性の画素で埋め戻していることから、効率が悪い。なお、背景が単一色でない場合に翻訳前の文字を描画していた全ての画素を埋め戻してから翻訳後の文字を書き込むのだとすれば、背景が複雑になって埋め戻しのための処理が複雑化すればするほど負担が増し、効率が下がるおそれがある。
本発明が解決しようとする課題は、画像と一体化しているテキストを他のテキストに置換する一連の処理において、画像と一体化しているテキストを該画像から除去する処理の効率を高める、という点である。
上記課題を解決するため、本発明の画像処理装置は、原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段と、画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段と、を備える。
また、本発明の画像処理方法は、原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定し、画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する。
また、本発明のプログラムは、原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段、及び、画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段、としてコンピュータを機能させる。
また、本発明の情報記憶媒体は、原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段、及び、画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段、としてコンピュータを機能させるプログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
また、本発明の一態様では、前記第2のテキストを構成する部分の少なくとも一部の色属性が前記第1のテキストを構成する部分の少なくとも一部の色属性と同一又は略同一である前記被覆画像を前記原画像上に重畳して前記合成画像を生成する合成手段をさらに備え、前記対象特定手段は、前記生成された合成画像において前記補正対象部分を特定し、前記補正手段は、前記補正対象部分とその隣接部分とを含む対象領域と隣接部分の色属性パターンが近似する近似領域における該補正対象部分に対応する部分の色属性を利用して、該補正対象部分の色属性を決定する。
また、本発明の一態様では、前記補正手段は、前記近似領域を前記合成画像内又は前記原画像内で特定する。
また、本発明の一態様では、前記第1のテキストを構成する部分と前記第2のテキストを構成する部分との少なくとも一方を含み、かつ前記合成画像の全体よりも狭い探索範囲を、該合成画像内において特定する範囲特定手段をさらに備え、前記補正手段は、前記特定された探索範囲内において前記近似領域を特定する。
また、本発明の一態様では、前記範囲特定手段は、前記第1のテキストを構成する部分と前記第2のテキストを構成する部分とを含む外接矩形の内部を前記探索範囲として特定する。
また、本発明の一態様では、前記第1のテキストを構成する部分を含み、かつ前記原画像の全体よりも狭い探索範囲を、該原画像内において特定する範囲特定手段をさらに備え、前記補正手段は、前記特定された探索範囲内において前記近似領域を特定する。
また、本発明の一態様では、前記合成手段は、前記第2のテキストを構成する部分により前記第1のテキストを構成する部分が被覆される度合いに関する所定の条件を満たすように、前記被覆画像を前記原画像上に重畳させる位置を決定する。
また、本発明の一態様では、前記第2のテキストを構成する部分により前記第1のテキストを構成する部分が被覆される割合を表す被覆率を算出する算出手段をさらに備え、前記合成手段は、前記算出された被覆率が所定の閾値以上又は超過の場合に、前記所定の条件を満たすと判定する。
また、本発明の一態様では、前記特定された補正対象部分の色属性を消去する消去手段をさらに備え、前記出力手段は、補正対象の画像内における色属性が欠落した部分を前記補正対象部分として認識する前記補正手段に、前記補正対象部分の色属性が消去された前記合成画像を出力する。
また、本発明の一態様では、前記補正手段をさらに備える。
本発明によると、補正する必要のない部分が補正の対象から除外されるため、画像と一体化しているテキストを該画像から除去する補正処理の効率が高めることが可能である。
本発明の実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。 画像の一例を示す図である。 画像処理後の画像の一例を示す図である。 画像処理装置で実現される機能の一例を示す機能ブロック図である。 画像処理装置で実行される処理の一例を示すフローチャートである。 文字認識処理により特定される文字領域の一例を示す図である。 画像に含まれる翻訳前文字列の一例を示す図である。 翻訳前文字列の構成画素マップの一例を示す図である。 翻訳後文字列の文字画像の一例を示す図である。 画像と文字画像の合成(又は、構成画素マップと文字画像の比較)の一例を示す図である。 対象パッチの特定の一例を示す図である。 類似パッチの特定の一例を示す図である。 類似パッチの特定の他の一例を示す図である。 類似パッチを探索する領域の一例を示す図である。
以下、本発明の実施形態の例について図面に基づき詳細に説明する。
図1は、本発明の実施形態に係る画像処理装置10のハードウェア構成の一例を示す図である。画像処理装置10は、例えばサーバコンピュータ、デスクトップ型コンピュータ、ラップトップ型コンピュータ、又はタブレット型コンピュータ等によって実現される。
図1に示されるように、画像処理装置10は、制御部11、記憶部12、光ディスクドライブ部13、通信インタフェース部14、操作部15、表示部16、及び音声出力部17を含んでいる。
制御部11は、例えば1又は複数のマイクロプロセッサを含み、記憶部12に記憶されたオペレーティングシステム又はプログラムに従って情報処理を実行する。記憶部12は、例えばRAM、ハードディスク、又はソリッドステートドライブを含んでいる。光ディスクドライブ部13は、光ディスク(情報記憶媒体)に記憶されたプログラムやデータを読み取る。
プログラムやデータは、光ディスクを介して記憶部12に供給される。すなわち、プログラムやデータは、光ディスクドライブ部13によって光ディスクから読み出され、記憶部12に記憶される。なお、光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み取るための構成要素が画像処理装置10に含まれていてもよい。そして、光ディスク以外の情報記憶媒体を介してプログラムやデータが記憶部12に供給されるようにしてもよい。
通信インタフェース部14は、画像処理装置10を通信ネットワークに接続するためのインタフェースである。画像処理装置10は、通信ネットワークを介して他の装置とデータを授受できるようになっている。なお、プログラム及びデータは、通信ネットワークを介して記憶部12に供給されるようにしてもよい。
操作部15は、ユーザが操作を行うためのものである。例えば、キーボード、マウス、タッチパッド、タッチパネル、又はスティック(レバー)等が操作部15に相当する。表示部16は、例えば液晶表示ディスプレイ又は有機ELディスプレイ等である。音声出力部17は、例えばスピーカ又はヘッドホン端子等である。
画像処理装置10は、データベース20にアクセスできるようになっている。データベース20は、画像処理装置10以外の装置(例えばサーバ)において実現されていてもよいし、画像処理装置10において実現されていてもよい。
データベース20には画像が記憶されている。例えば、図示しないWebサーバによって提供される仮想商店街サイトにおいて利用される画像が、データベース20に記憶されている。すなわち、仮想商店街に出店している店舗の担当者によって用意された画像がデータベース20に記憶されている。
図2は、データベース20に記憶される画像30の一例を示す図である。図2に示される画像30は、文字列32が背景画像34上に表された、文字列32と背景画像34が一体化した画像である。文字列32は、例えばバーゲンなどで用いられる「最終日」という日本語の文字列を表している。また、背景画像34は、例えば注意を喚起するための図形を含んでおり、2種類以上の色を含んでいる。また、背景画像34は、実写された画像など、幾何学的な図形に比して複雑な要素を含んでいてもよい。
なお、こうした画像30では、一般的に、文字列32が背景画像34とは異なる目立つ色で書かれていることが多い。また、文字列32は単色で書かれることが多く、横方向、縦方向、又は斜め方向に整列している場合が多い。
図3は、画像処理装置10による画像処理後の画像39の一例を示す図である。図3に示される画像39は、上記画像30の文字列32が変換された文字列37が、上記画像30と同じ背景画像34上に表された、文字列37と背景画像34が一体化した画像である。文字列37は、例えば「最終日」という日本語の文字列が翻訳された「FINAL DAY」という英語の文字列を表している。
以下、図2に示されるような画像30から変換前の文字列32を読み取り、他の言語などに変換した上で、変換後の文字列37と背景画像34とを含む新たな画像39を生成する技術について説明する。
図4は、画像処理装置10で実現される機能のうち、本発明に関連する機能を示す機能ブロック図である。図4に示されるように、画像処理装置10は、原画像取得部41、文字認識部42、文字列変換部43、文字画像取得部44、合成位置決定部45、画像合成部46、及び欠損補完部47を含んでいる。また、文字認識部42は、構成画素特定部42a、及び文字情報取得部42bを含んでいる。また、欠損補完部47は、欠損画素指定部47a、対象パッチ特定部47b、類似パッチ特定部47c、及び画素値決定部47dを含んでいる。図4に示される機能ブロックは、画像処理装置10の制御部11によって実現される。
原画像取得部41は、データベース20から画像30を取得し、文字認識部42、画像合成部46、及び欠損補完部47に出力する。
文字認識部42は、画像30に含まれる変換前の文字列32を認識する。画像30に含まれる変換前の文字列32は、第1のテキストの一例である。文字認識部42が実行する文字認識処理としては、例えばOCR(Optical Character Recognition)とも呼ばれる公知の文字認識処理が適用される。具体的には、文字認識部42は、図6に示されるように文字列32の各文字に対応する文字領域36を特定し、文字領域36内のパターンを予め登録されたパターンと照合することで、文字列32の各文字を認識する。
文字認識部42に含まれる構成画素特定部42aは、画像30に含まれる変換前の文字列32を構成する構成画素を特定し、構成画素の位置を表す構成画素マップを合成位置決定部45及び欠損補完部47に出力する。変換前の文字列32を構成する構成画素は、例えば、図6に示される文字領域36内を2値化することで特定される。構成画素のパターンは、文字認識処理に利用される。
文字認識部42に含まれる文字情報取得部42bは、文字認識処理により変換前の文字列32を表す文字情報を取得し、文字列変換部43に出力する。文字情報は、例えば文字列32に含まれる各文字の文字コードを含んでいる。
なお、本実施形態では、文字認識処理により変換前の文字列32を表す文字情報を取得しているが、この態様に限られず、例えば、変換前の文字列32を表す文字情報が画像30に読み取り可能に埋め込まれていて、それを取得する態様であってもよい。
文字列変換部43は、変換前の文字列32を表す文字情報が入力されると、変換前の文字列32を変換して、変換後の文字列37を表す文字情報を文字画像取得部44に出力する。文字列変換部43によって変換された変換後の文字列37は、第2のテキストの一例である。本実施形態では、文字列32は他の言語に翻訳される。例えば、「最終日」という日本語の文字列32は、「FINAL DAY」という英語の文字列37に翻訳される。
この態様に限られず、文字列32は同一言語の異なる種類の文字に変換されてもよい。例えば「最終日」という漢字の文字列32は、「さいしゅうび」という平仮名の文字列に変換されてもよいし、「サイシュウビ」という片仮名の文字列に変換されてもよい。なお、文字列に含まれる文字の数は、複数に限られず1つであってもよい。
また、例えば文字列32が日付や金額などの内容を表す場合、文字列32は、その内容に対応する新たな内容を表す文字列に更新されてもよい。例えば、制御部11は、文字列32が日付又は金額であることを認識すると、現在の日付又は金額などの情報を取得して、文字列32を当該日付又は金額を表す文字列に更新する。
文字画像取得部44は、変換後の文字列37を表す文字情報が入力されると、不図示のフォントデータベースから変換後の文字列37を表す文字画像を取得し、合成位置決定部45及び画像合成部46に出力する。アウトラインフォントの場合、変換後の文字列37を表す文字画像はラスタライズされた上で出力される。ビットマップフォントの場合、変換後の文字列37を表す文字画像はそのまま出力される。
合成位置決定部45は、算出手段の一例であり、変換後の文字列37を構成する部分としての、文字画像の非透明画素が、画像30に含まれる変換前の文字列32を構成する部分としての構成画素を被覆する度合いが所定の条件を満たすように、変換後の文字列37を表す文字画像の合成位置を決定する。
画像合成部46は、合成手段の一例であり、変換後の文字列37を表す文字画像を、画像30の変換前の文字列32上に合成する。具体的には、変換後の文字列37を表す文字画像は、画像30上の合成位置決定部45により決定された位置に合成される。
欠損補完部47は、画像30の変換前の文字列32を構成する部分のうち、変換後の文字列37を構成する部分に被覆されない部分を補正対象部分とみなして、補正対象部分の色属性を補正する。具体的には、欠損補完部47は、画像30の変換前の文字列32を構成する構成画素のうち、変換後の文字列37を表す文字画像に被覆されない画素を欠損画素とみなして、欠損画素の画素値を他の画素の画素値に基づいて補完する。欠損画素は補正対象部分の一例であり、画素値は色属性の一例である。欠損画素の補完方法については、後に詳しく述べる。
欠損補完部47に含まれる欠損画素指定部47aは、対象特定手段、出力手段、及び消去手段の一例であり、変換後の文字列37を表す文字画像が合成された後の画像30内の欠損画素を指定する。欠損画素指定部47aは、欠損画素を指定するデータを、合成後の画像30と関連付けて、対象パッチ特定部47b及び画素値決定部47dに出力する。欠損画素を指定するデータは、例えば、合成後の画像30内における欠損画素の位置を表す座標データを含んでいる。
欠損補完部47に含まれる対象パッチ特定部47bは、変換後の文字列37を表す文字画像が合成された後の画像30内で対象パッチを特定する。対象パッチは、対象領域の一例であり、補正対象部分としての欠損画素と、その隣接部分としての隣接画素と、を含む。
欠損補完部47に含まれる類似パッチ特定部47cは、範囲特定手段の一例であり、変換後の文字列37を表す文字画像が合成された後の画像30内、又は変換後の文字列37を表す文字画像が合成される前の画像30内で、対象パッチに対応する類似パッチを特定する。類似パッチは、近似領域の一例である。なお、類似パッチ特定部47cは、合成された後又は前の画像30内で類似パッチを探索するための探索範囲を絞り込んでもよい。
ここで、類似パッチとは、画像30内で特定される複数の候補パッチの中で、対象パッチと類似するものを指す。類似するとは、対象パッチに含まれる隣接画素の画素値と、それら隣接画素に対応する候補パッチ内の画素の画素値と、が近いことを指す。
欠損補完部47に含まれる画素値決定部47dは、補正手段の一例であり、類似パッチに含まれる画素の画素値に基づいて、欠損画素の画素値を決定する。具体的には、対象パッチに含まれる欠損画素の画素値が、その欠損画素に対応する類似パッチ内の画素の画素値に基づいて決定される。
なお、図4に示される機能ブロックは、複数の装置に分散させてもよい。例えば、文字認識部42による文字認識処理と、画像合成部46による画像合成処理と、欠損補完部47による欠陥処理と、が別々の装置で実行されてもよい。また、これらの処理が時間的に離れていてもよく、この場合、文字認識処理や画像合成処理で生成されるデータがデータベースに一時的に保持されてもよい。また、クライアントサーバシステムにおいて、サーバからの指令に応じてクライアントが一部の処理を実行してもよい。
図5は、欠損補完部47は、欠損画素指定部47a、対象パッチ特定部47b、類似パッチ特定部47c、及び画素値決定部47dを実現するために、画像処理装置10で実行される処理の一例を示すフローチャートである。制御部11が図5に示す処理をプログラムに従って実行することによって、制御部11が欠損補完部47、欠損画素指定部47a、対象パッチ特定部47b、類似パッチ特定部47c、及び画素値決定部47dとして機能するようになる。以下、図5を参照しながら、欠損補完部47、欠損画素指定部47a、対象パッチ特定部47b、類似パッチ特定部47c、及び画素値決定部47dの詳細について説明する。
図5のS1において、制御部11は、翻訳前文字列32の構成画素マップ50を取得する。
翻訳前文字列32の構成画素マップ50を説明する前に、画像30に含まれる翻訳前文字列32について説明する。図7は、画像30に含まれる翻訳前文字列32の一例を示す図である。同図では、理解を容易にするため、翻訳前文字列32に含まれる文字として「あ」の文字を表している。また、同図では、理解を容易にするため「あ」の文字の背景を無色にしているが、実際には背景画像34は1又は複数種類の色を有している。同図に示されるように、画像30は、翻訳前文字列32に係る文字部分33と、背景画像34に係る背景部分35と、を有している。また、翻訳前文字列32の各文字にアンチエイリアスが施されている場合、文字部分33のうち、背景部分35との境界付近には、明度が互いに異なる複数種類の画素が存在する。こうした画像30に含まれる文字部分33の画素が、翻訳前文字列32を構成する構成画素として特定される。なお、文字部分33は、翻訳前文字列32を構成する1又は複数の構成画素を含む画素集合である。
図8は、翻訳前文字列32の構成画素マップ50の一例を示す図である。構成画素マップ50は、翻訳前文字列32の各文字を構成する構成画素52と、文字を構成しない背景の画素である非構成画素54と、を有している。図中の×印が付された画素は構成画素52を表し、×印が付されていない画素は非構成画素54を表している。同図に示される構成画素マップ50の構成画素52は、上記図7に示される画像30の「あ」の文字を表す文字部分33の画素に対応している。
図5のS2において、制御部11は、翻訳後文字列37の文字画像60を取得する。
図9は、翻訳後文字列37の文字画像60の一例を示す図である。同図では、理解を容易にするため、翻訳後文字列37に含まれる文字として「A」の文字を表している。文字画像60は、翻訳後文字列37の各文字を構成する非透明画素61と、文字を構成しない透明画素63と、を有している。また、翻訳後文字列37の各文字にアンチエイリアスが施されている場合、非透明画素61は、明度が互いに異なる複数種類の画素からなる。
図7及び図9に示されるように、文字画像60の翻訳後文字列37を構成する部分(非透明画素61の集合)の各部は、画像30の翻訳前文字列32に係る文字部分33の各部と同一又は略同一の色属性を有している。
なお、翻訳後文字列37の文字画像60の大きさは、画像30内に特定される文字領域36(図6及び図7を参照)の大きさ又は一連の複数の文字領域36を連結した領域の大きさに応じて決定される。
ここで、翻訳後文字列の文字画像60は、被覆画像の一例である。被覆画像は、例えば、原画像30と同じ大きさの透明画像に文字画像60を合成した画像であってもよい。
図5のS3において、制御部11は、変換後文字列37を表す文字画像60を画像30上に合成する合成位置を取得する。
合成位置は、上記図4に示される合成位置決定部45により、翻訳前文字列32の構成画素マップ50と、翻訳後文字列37の文字画像60とに基づいて決定されている。具体的には、合成位置決定部45は、文字画像60の非透明画素61が構成画素マップ50の構成画素52を被覆する被覆率が所定の閾値以上又は超過となるように合成位置を決定する。被覆率は、構成画素マップ50の構成画素52の全数に対する、文字画像60の非透明画素61により被覆される構成画素52の数の割合として表される。例えば、合成位置決定部45は、構成画素マップ50上で文字画像60を1又は複数画素分ずつ移動させながら、その度に被覆率を算出し、被覆率が最も高い位置を合成位置として決定する。
図5のS4において、制御部11は、翻訳前文字列32の構成画素マップ50と、翻訳後文字列37の文字画像60とを比較する。構成画素マップ50と比較する際の文字画像60の位置としては、上記S3で取得した合成位置が用いられる。
図10は、構成画素マップ50と文字画像60の比較の一例を示す図である(なお、図10は、後述する画像30と文字画像60の合成の一例を示す図でもある)。この比較により、構成画素マップデータ50に含まれる構成画素52のうち、文字画像60の非透明画素61に被覆されない構成画素52の位置(すなわち、画像30上に文字画像60を合成したときに、文字画像60の非透明画素61に被覆されない文字部分33の位置)が特定される。
図5のS5において、制御部11は、上記S4の比較により特定される、文字画像60の非透明画素61に被覆されない構成画素52の位置を、欠損画素Dの位置として決定する。
図5のS6において、制御部11は、文字画像60が合成された画像30を取得する。図10に示されるように、文字画像60が合成された画像30では、文字画像60の非透明画素61で表される文字の外縁近傍に、非透明画素61に被覆されなかった画像30の文字部分33が残されている。
図5のS7において、制御部11は、文字画像60が合成された画像30において、非透明画素61に被覆されなかった画像30の文字部分33の画素を欠損画素Dとみなして指定する。例えば、このとき、欠損画素Dとして指定される画素の画素値が消去される(すなわち0とされる)。このように欠損画素Dとして指定される画素の画素値を消去した場合、以下に説明する補完処理の簡易化を図ることが可能である。なお、欠損画素Dの指定は、このような画素値の消去に限られない。例えば、合成後の画像30内における欠損画素Dの位置を表す座標データを生成してもよい。
以下のS8〜S16では、文字画像60が合成された画像30における欠損画素Dの画素値を、他の画素の画素値に基づいて補完する補完処理が実行される。補完処理には、例えば公知のインペインティングなどの補完手法が適用される。なお、これに限られず、線形補間などの他の補完手法であってもよい。
図5のS8において、制御部11は、複数の欠損画素Dの中から、補完対象となる欠損画素Dを1つ選択する。補完対象となる欠損画素Dを選択する際、画素値を有する隣接画素の数が多い欠損画素Dから優先的に補完対象として選択される。例えば、複数の欠損画素Dが集合している場合には、周縁に近い欠損画素Dから優先的に補完対象として選択される。
補完対象となる欠損画素Dが選択されると、文字画像60が合成された画像30内で対象パッチ7が特定される。図11は、対象パッチ7の特定の一例を示す図である。対象パッチ7は、中央に形成された欠損画素領域72と、その周囲に形成された隣接画素領域74と、を有している。欠損画素領域72は、補完対象として選択された欠損画素Dのための領域である。隣接画素領域74は、その欠損画素Dと隣接する隣接画素のための領域である。図11の例では、隣接画素には、4つの非透明画素61と、3つの背景部分35の画素と、1つの欠損画素Dと、が含まれている。特に、対象パッチ7の右半分に非透明画素61が集中し、対象パッチ7の左半分に背景部分35の画素が集中している。なお、本実施形態では、対象パッチ7の大きさは3×3画素分であるが、これよりも大きくてもよい。
図5のS9において、制御部11は、文字画像60が合成された画像30内で特定された対象パッチ7の画素の画素値を取得する。具体的には、制御部11は、対象パッチ7の隣接画素領域74に含まれる各画素の画素値を取得する。
図5のS10において、制御部11は、文字画像60が合成された画像30内で候補パッチ8を特定して、図12に示されるような候補パッチ8の画素の画素値を取得する。具体的には、制御部11は、候補パッチ8の隣接対応領域83に含まれる各画素の画素値を取得する。
候補パッチ8は、対象パッチ7に類似する類似パッチ9を決定するための、対象パッチ7に対応するパッチである。図12は、類似パッチ9の特定の一例を示す図である。候補パッチ8は、中央に形成された欠損対応領域81と、その周囲に形成された隣接対応領域83と、を有している。欠損対応領域81は、対象パッチ7の欠損画素領域72に対応する領域である。隣接対応領域83は、対象パッチ7の隣接画素領域74に対応する領域である。
図5のS11において、制御部11は、対象パッチ7の画素の画素値と候補パッチ8の画素の画素値との類似度を算出する。類似度は、例えば、対象パッチ7の隣接画素領域74に含まれる各画素の画素値と、候補パッチ8の隣接対応領域83に含まれる各画素の画素値との差の二乗和などである。
当該S10及びS11の処理は、文字画像60が合成された画像30内で候補パッチ8を1又は複数画素分ずつずらしながら、その度に繰り返される(S12及びS13)。これにより、候補パッチ8の各位置での類似度が算出される。
図5のS14において、制御部11は、候補パッチ8の各位置での類似度に基づいて、類似パッチ9を決定する。具体的には、最も類似度が高い候補パッチ8が、類似パッチ9として決定される。図12の例では、図11で示された対象パッチ7と同様に、類似パッチ9の右半分に非透明画素61が集中し、類似パッチ9の左半分に背景部分35の画素が集中している。
図5のS15において、制御部11は、類似パッチ9の画素の画素値に基づいて欠損画素Dの画素値を決定する。具体的には、類似パッチ9の欠損対応領域92内の画素の画素値に基づいて、対象パッチ7の欠損画素領域72内の欠損画素Dの画素値が決定される。例えば、欠損対応領域92内の画素の画素値と同じ値が、欠損画素領域72内の欠損画素Dの画素値として適用される。このようにして、補完対象となる欠損画素Dの画素値が補完される。
以上のS8〜S15の処理は、補完対象となる欠損画素Dを順番に選択しながら、その度に繰り返される(S16)。そして、全ての欠損画素Dで画素値が決定されると、一連の処理が終了する(S16:YES)。例えば、複数の欠損画素Dが集合している場合には、周縁に近い欠損画素Dから順番に画素値が補完されていく。換言すると、欠損画素Dの集合の周縁が徐々に内側にシフトし、集合の大きさが徐々に小さくなって、最終的に消滅する。
以上のように、本実施形態によると、文字画像60が合成された画像30において、非透明画素61に被覆されなかった画像30の文字部分33の画素を欠損画素Dとみなして、欠損画素Dの画素値を補完することで、画像30の文字部分33の全ての画素の画素値を補完する場合よりも、欠損画素Dの数を低減することができるので、補完処理の処理負担を軽減して、効率を向上させることが可能である。また、本実施形態によると、欠損画素Dの集合を分散させたり、大きさを小さくできるので、補完精度の向上を図ることが可能である。
また、本実施形態によると、文字画像60の非透明画素61で表される文字の外縁近傍に欠損画素Dが生成されやすいことから、対象パッチ7内に非透明画素61で表される文字の外縁が含まれやすい(すなわち、対象パッチ7内に非透明画素61と背景部分35の画素とが混在しやすい)。これに伴い、類似パッチ9も、非透明画素61で表される文字の外縁近傍において決定されることから、文字の外縁近傍における補完精度の向上を図ることも可能である。すなわち、翻訳前文字列32を表す画像30上に翻訳後文字列37を表す文字画像60を重畳させることで、類似パッチ9が出現しやすい状況が作り出されるので、補完処理の処理負担を軽減して、効率を向上させることが可能である。
また、本実施形態は、文字画像60の非透明画素61で表される文字にアンチエイリアスが施されている場合や、画像30の背景部分35が2種類以上の色の細かな模様である場合に、特に有効である。
なお、上記S10〜S14における類似パッチ9の特定は、文字画像60が合成されていない画像30内で行われてもよい。すなわち、制御部11は、図13に示されるように、翻訳前文字列32を含む画像30内で候補パッチ8をそれぞれ特定し、類似度を算出し、翻訳前文字列32を含む画像30内で類似パッチ9を決定してもよい。これによると、翻訳前文字列32を含む画像30内で決定された類似パッチ9の画素の画素値に基づいて、文字画像60が合成された画像30内で特定された対象パッチ7(図11を参照)の欠損画素Dの画素値が決定される。
このように、文字画像60が合成されていない、翻訳前文字列32を含む画像30内で類似パッチ9が決定されることにより、上述の効果に加えて、文字画像60が合成される前の元の画像30内の画素の状態、特に文字部分33の外縁近傍の画素の状態をより再現しやすいという効果が期待できる。
また、上記S10〜S13における類似パッチ9の特定は、画像30内の翻訳前文字列32に対応する一部の領域(探索領域38)の中で行われるようにしてもよい。例えば、図14に示されるように、合成前の画像30内に翻訳前文字列32を含むように探索領域38が設定される。
また、合成後の画像30内で類似パッチ9を特定する場合は、合成後の画像30内に翻訳前文字列32及び翻訳後文字列37の少なくとも一方を含むように探索領域38が設定される。このとき、翻訳前文字列32及び翻訳後文字列37の両方を含む外接矩形の内部を探索領域38とすることが好ましい。
類似度を算出する候補パッチ8の移動を探索領域38内に限定することで、類似パッチ9を決定する計算処理の処理負担を軽減することが可能である。なお、上述したように、類似パッチ9は非透明画素61で表される文字の外縁近傍(画像30であれば、文字部分33の外縁近傍)で決定されやすいことから、探索領域38を限定しても補完精度への影響は少ない。すなわち、上記のように探索領域38を設定することで、類似パッチ9が出現する可能性が高い領域に探索領域38が絞られるので、補完処理の処理負担をより軽減して、効率をより向上させることが可能である。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々の変形実施が当業者にとって可能であるのはもちろんである。
上記実施形態では、欠損画素Dとして指定される画素の画素値を消去した上で、欠損画素Dの画素値を0から新たな値に補完していたが、この態様に限られず、例えば、欠損画素Dとして指定される画素の画素値を消去することなく、その画素値を増減等する補正を行ってもよい。
10 画像処理装置、11 制御部、12 記憶部、13 光ディスクドライブ部、14 通信インタフェース部、15 操作部、16 表示部、17 音声出力部、20 データベース、30 画像(原画像の一例)、32 文字列(翻訳前文字列)、33 文字部分、34 背景画像、35 背景部分、36 文字領域、37 文字列(翻訳後文字列)、38 探索領域、39 画像、41 原画像取得部、42 文字認識部、42a 構成画素特定部、42b 文字情報取得部、43 文字列変換部、44 文字画像取得部、45 合成位置決定部(算出手段の一例)、46 画像合成部(合成手段の一例)、47 欠損補完部、47a 欠損画素指定部(対象特定手段、出力手段、及び消去手段の一例)、47b 対象パッチ特定部、47c 類似パッチ特定部(範囲特定手段の一例)、47d 画素値決定部(補正手段の一例)、50 構成画素マップ、52 構成画素、54 非構成画素、60 文字画像、61 非透明画素、63 透明画素、7 対象パッチ、72 欠損画素領域、74 隣接画素領域、8 候補パッチ、81 欠損対応領域、83 隣接対応領域、9 類似パッチ、92 欠損対応領域、D 欠損画素。

Claims (13)

  1. 原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段と、
    画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段と、
    を備える画像処理装置。
  2. 前記補正手段は、前記補正対象部分及びその隣接部分を含む対象領域における前記隣接部分と、複数の候補パッチにおける前記隣接部分に対応する部分との色属性の類似度をそれぞれ算出し、当該算出された各類似度に基づいて前記複数の候補パッチの中から1つの類似パッチを特定し、該類似パッチにおける前記補正対象部分に対応する部分の色属性を利用して、該補正対象部分の色属性を決定する、
    請求項1に記載の画像処理装置。
  3. 前記補正手段は、前記候補パッチを前記合成画像内又は前記原画像内で特定する、
    請求項2に記載の画像処理装置。
  4. 前記第1のテキストを構成する部分と前記第2のテキストを構成する部分との少なくとも一方を含み、かつ前記合成画像の全体よりも狭い探索範囲を、該合成画像内において特定する範囲特定手段をさらに備え、
    前記補正手段は、前記特定された探索範囲内において前記候補パッチを特定する、
    請求項2または3に記載の画像処理装置。
  5. 前記範囲特定手段は、前記第1のテキストを構成する部分と前記第2のテキストを構成する部分とを含む外接矩形の内部を前記探索範囲として特定する、
    請求項4に記載の画像処理装置。
  6. 前記第1のテキストを構成する部分を含み、かつ前記原画像の全体よりも狭い探索範囲を、該原画像内において特定する範囲特定手段をさらに備え、
    前記補正手段は、前記特定された探索範囲内において前記候補パッチを特定する、
    請求項2または3に記載の画像処理装置。
  7. 前記被覆画像を前記原画像上に重畳して前記合成画像を生成する合成手段をさらに備え、
    前記合成手段は、前記第2のテキストを構成する部分により前記第1のテキストを構成する部分が被覆される度合いに関する所定の条件を満たすように、前記被覆画像を前記原画像上に重畳させる位置を決定する、
    請求項2ないし6の何れかに記載の画像処理装置。
  8. 前記第2のテキストを構成する部分により前記第1のテキストを構成する部分が被覆される割合を表す被覆率を算出する算出手段をさらに備え、
    前記合成手段は、前記算出された被覆率が所定の閾値以上又は超過の場合に、前記所定の条件を満たすと判定する、
    請求項7に記載の画像処理装置。
  9. 前記特定された補正対象部分の色属性を消去する消去手段をさらに備え、
    前記出力手段は、補正対象の画像内における色属性が欠落した部分を前記補正対象部分として認識する前記補正手段に、前記補正対象部分の色属性が消去された前記合成画像を出力する、
    請求項1ないし8の何れかに記載の画像処理装置。
  10. 前記補正手段をさらに備える、
    請求項1ないし9の何れかに記載の画像処理装置。
  11. 原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定し、
    画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する、
    画像処理方法。
  12. 原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段、及び、
    画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段、
    としてコンピュータを機能させるプログラム。
  13. 原画像に表される第1のテキストと被覆画像に表される第2のテキストとが重なるように前記原画像上に前記被覆画像が重畳された合成画像において、前記第1のテキストを構成する部分のうち、前記第2のテキストを構成する部分により被覆されない補正対象部分を特定する対象特定手段、及び、
    画像内の補正対象部分の色属性を補正する補正手段に、前記特定された補正対象部分を指定するデータを前記合成画像に関連付けて出力する出力手段、
    としてコンピュータを機能させるプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
JP2013550700A 2013-03-29 2013-03-29 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム Active JP5512903B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/059768 WO2014155745A1 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム

Publications (2)

Publication Number Publication Date
JP5512903B1 true JP5512903B1 (ja) 2014-06-04
JPWO2014155745A1 JPWO2014155745A1 (ja) 2017-02-16

Family

ID=51031164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550700A Active JP5512903B1 (ja) 2013-03-29 2013-03-29 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム

Country Status (3)

Country Link
US (1) US9519984B2 (ja)
JP (1) JP5512903B1 (ja)
WO (1) WO2014155745A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160265A (zh) * 2019-12-30 2020-05-15 Oppo(重庆)智能科技有限公司 文件转换方法、装置、存储介质及电子设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110032997B (zh) * 2019-01-07 2021-02-19 武汉大学 一种基于图像分割的自然场景文本定位方法
US11347381B2 (en) * 2019-06-13 2022-05-31 International Business Machines Corporation Dynamic synchronized image text localization
US11145119B2 (en) * 2019-10-18 2021-10-12 Omniscient Neurotechnology Pty Limited Differential brain network analysis
CN114520875B (zh) * 2022-01-28 2024-04-02 西安维沃软件技术有限公司 视频处理方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251902A (ja) * 2005-03-08 2006-09-21 Fuji Xerox Co Ltd 翻訳文書画像生成装置、翻訳文書画像生成プログラム及び翻訳文書画像生成方法
JP2009053838A (ja) * 2007-08-24 2009-03-12 Fuji Xerox Co Ltd 翻訳装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030200078A1 (en) * 2002-04-19 2003-10-23 Huitao Luo System and method for language translation of character strings occurring in captured image data
JP2008084286A (ja) * 2006-09-01 2008-04-10 Toshiba Corp 電子漫画配信サーバ、および翻訳電子漫画作成装置
US8144990B2 (en) * 2007-03-22 2012-03-27 Sony Ericsson Mobile Communications Ab Translation and display of text in picture
US9104661B1 (en) * 2011-06-29 2015-08-11 Amazon Technologies, Inc. Translation of applications

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251902A (ja) * 2005-03-08 2006-09-21 Fuji Xerox Co Ltd 翻訳文書画像生成装置、翻訳文書画像生成プログラム及び翻訳文書画像生成方法
JP2009053838A (ja) * 2007-08-24 2009-03-12 Fuji Xerox Co Ltd 翻訳装置及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160265A (zh) * 2019-12-30 2020-05-15 Oppo(重庆)智能科技有限公司 文件转换方法、装置、存储介质及电子设备
CN111160265B (zh) * 2019-12-30 2023-01-10 Oppo(重庆)智能科技有限公司 文件转换方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
US20160035116A1 (en) 2016-02-04
US9519984B2 (en) 2016-12-13
JPWO2014155745A1 (ja) 2017-02-16
WO2014155745A1 (ja) 2014-10-02

Similar Documents

Publication Publication Date Title
US7729013B2 (en) Image processing apparatus, image processing method, and computer program product
JP5512903B1 (ja) 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム
JP2012203458A (ja) 画像処理装置及びプログラム
US20080137961A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium storing related program
US20190361907A1 (en) Method for providing e-book service and computer program therefor
JP5858188B1 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP4125273B2 (ja) 画像処理装置及びその方法、プログラム
JP2017228838A (ja) 画像処理装置、画像処理方法及びプログラム
CN112927314A (zh) 一种图像数据处理方法、装置以及计算机设备
JP5826966B2 (ja) 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム
JP6337680B2 (ja) 画像処理システム、画像処理装置、プログラム及び画像処理方法
JP2007179261A (ja) 画像処理装置、画像処理方法及び制御プログラム
JP6194781B2 (ja) 画像処理装置及びプログラム
JPH10312407A (ja) 図面表示装置
JP2016139360A (ja) コンピュータプログラム及び制御装置
JP5672168B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5226542B2 (ja) 描画編集方法及び描画編集装置
JP5080297B2 (ja) 画像表示装置
JP3111971B2 (ja) 画像データ補間装置、画像データ補間方法および画像データ補間プログラムを記録した媒体
JP2007180930A (ja) 画像結合装置および画像結合方法およびプログラムおよび記録媒体
US20120159292A1 (en) Method of processing an object-based image file with content type dependent image processing algorithms
JP2000076432A (ja) 画像デ―タ補間装置、画像デ―タ補間方法および画像デ―タ補間プログラムを記録した媒体
CN111091606B (zh) 基于地图覆盖物渐变的解决方法
JP5862370B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2008092125A (ja) 情報処理装置および褪色補正方法およびプログラムおよび記録媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140326

R150 Certificate of patent or registration of utility model

Ref document number: 5512903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250