JP2012194705A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- JP2012194705A JP2012194705A JP2011057262A JP2011057262A JP2012194705A JP 2012194705 A JP2012194705 A JP 2012194705A JP 2011057262 A JP2011057262 A JP 2011057262A JP 2011057262 A JP2011057262 A JP 2011057262A JP 2012194705 A JP2012194705 A JP 2012194705A
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- image processing
- processing apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/16—Image preprocessing
- G06V30/166—Normalisation of pattern dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
【課題】教師データに含まれる文字に通常の縦横比とは異なるものが多数含まれている場合でも、文字などを的確に認識可能な画像処理装置、画像処理方法および画像処理プログラムを提供する。
【解決手段】固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理方法であって、検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換工程S103と、前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索工程S104と、前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合工程S105と、統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接工程S107とを含む。
【選択図】図4
【解決手段】固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理方法であって、検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換工程S103と、前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索工程S104と、前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合工程S105と、統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接工程S107とを含む。
【選択図】図4
Description
本発明は、商品サンプルなどに印刷されている文字などの検出を行う画像処理装置、画像処理方法および画像処理プログラムに関し、特に、固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理装置、画像処理方法および画像処理プログラムに関する。
従来、統計的学習手法を用いた文字検出を行う技術として、通常の2値化処理などでは1文字毎に正しく切り出せない状態の文字であっても、各文字を正しく認識することができる画像処理方法およびその装置が提案されている(例えば、特許文献1参照)。
この特許文献1に記載の技術では、文字切り出し後に認識処理をするのではなく、各要素の組み合わせ毎に文字認識処理を繰り返すため、処理に時間がかかる。
また、ブースティング学習により形成したカスケード型識別器を用いて、現実世界のカラー画像中の文字を検出するシステムおよび方法も提案されている(例えば、特許文献2参照)。
この特許文献2に記載の技術では、識別器によって文字列を検出した後、1文字ずつ切り分ける処理が必要となり、やはり処理に時間がかかる。
さらに、学習の容易な統計的手法を用いて、小領域毎に文字領域とそれ以外の領域を分離し、その結果を統合することで、信頼性の高い文字領域抽出結果を得ることができる文字画像分離装置、文字画像分離方法、文字画像分離プログラム、およびこのプログラムを格納した記録媒体も提案されている(例えば、特許文献3参照)
この特許文献3に記載の技術では、判定および結果統合処理を画素単位で行っているため、やはり処理に時間がかかる。
この特許文献3に記載の技術では、判定および結果統合処理を画素単位で行っているため、やはり処理に時間がかかる。
このような統計的学習手法を用いた文字検出を行う技術では、固定サイズの画像サンプル(教師データ)と学習フレームワークによって生成される識別器を用いた文字抽出において、教師データとして極端な縦長文字を付加すると、画像中に現れる縦長なパターンを誤って文字として抽出しまうことが多くなる傾向があった。
例えば、図15(a)に示すような通常の縦横比の「1」や「8」などの文字を専ら教師データとして用いていれば、これらの文字の検出に特に問題が生じることはない。ところが、図15(b)に示すような縦長の「1」や「8」などの文字も教師データに加えた場合、文字と文字以外の縦長なパターンとの特徴の差が小さくなり、誤検出率が高くなることがある。
従来技術のこのような課題に鑑み、本発明の目的は、たとえ認識対象画像に含まれる文字に通常の縦横比とは異なるものが多数含まれている場合であっても、それらの影響を極力抑制して、商品サンプルなどに印刷されている文字などを的確に認識することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することである。
上記目的を達成するため、本発明の画像処理装置は、固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理装置であって、検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換手段と、前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索手段と、この探索手段によって探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合手段と、この統合手段によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接手段とを備えることを特徴とする。
ここで、前記識別器は、例えば、複数の弱識別器をカスケード構造をなすように組み合わせて強識別器としたカスケード型識別器が挙げられるが、必ずしもこれに限らない。
このような構成の画像処理装置によれば、たとえ教師データに含まれる文字に通常の縦横比とは異なるものが多数含まれている場合であっても、それらの影響を極力抑制して、商品サンプルなどに印刷されている文字などを的確に認識することが可能となる。
また、本発明の画像処理装置において、前記変換手段で前記対象画像の前記アスペクト比を定める前記所定比の外部からの設定入力を受け付ける設定入力手段をさらに備えることを特徴としてもよい。
また、本発明の画像処理装置において、前記外接手段によって矩形が外接された文字以外の領域から記号に相当する領域を抽出する記号検出手段をさらに備えることを特徴としてもよい。
また、本発明の画像処理装置において、前記外接手段によって矩形が外接された文字の認識を行う文字認識手段をさらに備えることを特徴としてもよい。
あるいは、上記目的を達成するため、本発明の画像処理装置は、固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理装置であって、検出すべき文字が含まれる対象画像の幾何学的特徴を示すパラメータが予め設定された値となるように前記対象画像を幾何学的に変換して変換後画像を得る変換手段と、この変換手段によって得られた前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索手段とを備えることを特徴とする。
また、本発明の画像処理装置において、前記パラメータは前記対象画像のアスペクト比であることを特徴としてもよい。
また、本発明の画像処理装置において、前記探索手段によって探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合手段をさらに備えることを特徴としてもよい。
また、本発明の画像処理装置において、前記統合手段によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接手段をさらに備えることを特徴としてもよい。
あるいは、上記目的を達成するため、本発明の画像処理方法は、固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理方法であって、検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換工程と、前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索工程と、この探索工程で探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合工程と、この統合工程によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接工程とを含むことを特徴とする。
このような構成の画像処理方法によれば、たとえ教師データに含まれる文字に通常の縦横比とは異なるものが多数含まれている場合であっても、それらの影響を極力抑制して、商品サンプルなどに印刷されている文字などを的確に認識することが可能となる。
あるいは、上記目的を達成するため、本発明の画像処理プログラムは、上記の画像処理方法をコンピュータに実行させることを特徴とする。
このような構成の画像処理プログラムによれば、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明の画像処理方法を実現することができる。さらに、この画像処理プログラムを汎用的なコンピュータで実行可能なものにしておけば、本発明の画像処理方法を実現するために専用のコンピュータ環境を準備する必要もなくなり、本発明の画像処理プログラムの有用性が高まる。
本発明の画像処理装置および画像処理方法によれば、たとえ認識対象画像に含まれる文字に通常の縦横比とは異なるものが多数含まれている場合であっても、それらの影響を極力抑制して、商品サンプルなどに印刷されている文字などを的確に認識することが可能となる。
また、本発明の画像処理プログラムによれば、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明の画像処理方法を実現することができる。さらに、この画像処理プログラムを汎用的なコンピュータで実行可能なものにしておけば、本発明の画像処理方法を実現するために専用のコンピュータ環境を準備する必要もなくなり、本発明の画像処理プログラムの有用性が高まる。
以下、本発明に係る画像処理装置、画像処理方法および画像処理プログラムの実施形態を図面に基づいて説明する。
<画像処理装置100の配設状態>
まず、図1を参照して、本発明に係る画像処理装置100が配設されている状態の一例について説明する。図1は、本発明に係る画像処理装置100の配設状態の一例を示す斜視図である。画像処理装置100は、例えば、製品5を製造する工場などにおいて、製品5の表面(本実施形態では、CCDカメラ2と対向する側の面)に形成された複数の文字(例えば、アルファベット3文字)からなる文字列を含む画像に対して画像処理を施して、前記文字列を構成する各文字を認識するものである。ここで、製品5は、特許請求の範囲に記載の物体に相当する。
まず、図1を参照して、本発明に係る画像処理装置100が配設されている状態の一例について説明する。図1は、本発明に係る画像処理装置100の配設状態の一例を示す斜視図である。画像処理装置100は、例えば、製品5を製造する工場などにおいて、製品5の表面(本実施形態では、CCDカメラ2と対向する側の面)に形成された複数の文字(例えば、アルファベット3文字)からなる文字列を含む画像に対して画像処理を施して、前記文字列を構成する各文字を認識するものである。ここで、製品5は、特許請求の範囲に記載の物体に相当する。
本実施形態においては、製品5の表面に文字列が形成されている場合について説明するが、物体の表面に文字列が形成されている形態であればよい。例えば、果物、野菜などの農産物、魚介類などの海産物、IC(Integrated Circuit)、抵抗、コンデンサなどの部品、原材料、半製品などの表面に文字列が形成されている形態でもよい。
また、本実施形態においては、文字列が形成されている面が、平面状である場合について説明するが、文字列が形成されている面は、曲面であっても、凹凸があってもよい。
図1に示すように、画像処理装置100は、画像処理装置本体1、CCDカメラ2、モニタ3、及び、入力装置4を備え、ここでは、製品5を搬送するコンベア6の近傍に配設されている。なお、画像処理装置100のうち、CCDカメラ2は、製品5の表面に形成された文字列を含む画像を生成するものであるから、コンベア6の近傍に配設することが好ましい。一方、画像処理装置本体1、モニタ3、及び、入力装置4は、コンベア6の近傍に配設する必要はない。例えば、画像処理装置本体1、モニタ3、及び、入力装置4は、画像処理装置100を操作するオペレータの部屋などの粉塵が少なく、且つ、温度が常温近傍に維持される場所に配設することが好ましい。
画像処理装置本体1は、画像処理装置100全体の動作を制御するものである。画像処理装置本体1の具体的な構成については、図2を用いて後述する。
CCD(Charge Coupled Device)カメラ2(以下、単に「カメラ2」ともいう)は、コンベア6上を搬送される各製品5の表面に形成された文字列を含む画像を順に撮像するものであって、レンズをコンベア6上の製品5に向けて配設されている。また、カメラ2によって生成された画像情報は、順次、画像処理装置本体1へ出力される。
モニタ3は、画像処理装置本体1からの指示に従って、種々の画像を外部から視認可能に表示するものであって、例えば、LCD(Liquid Crystal Display)などを備えている。ここで、モニタ3は、特許請求の範囲に記載の画像表示手段に相当する。モニタ3には、例えば、カメラ2によって生成された画像情報、図8を参照して後述する結果表示画面800、810、及び、種々のガイダンス情報などが表示される。
入力装置4は、オペレータなどからの操作を受け付ける装置であって、キーボード、マウスなどを備えている。ここでは、入力装置4は、特許請求の範囲に記載の操作受付手段に相当する。なお、入力装置4によって受け付けられたオペレータの操作入力情報は、画像処理装置本体1へ出力される。
<画像処理装置本体1の構成>
次に、図2を参照して、画像処理装置本体1の構成について説明する。図2は、本発明に係る画像処理装置本体1の構成の一例を示す構成図である。図2に示すように、画像処理装置本体1は、CPU11、EEPROM12、RAM13、画像メモリ14、A/D変換器15、D/A変換器16、及び、入出力部17を備えている。
次に、図2を参照して、画像処理装置本体1の構成について説明する。図2は、本発明に係る画像処理装置本体1の構成の一例を示す構成図である。図2に示すように、画像処理装置本体1は、CPU11、EEPROM12、RAM13、画像メモリ14、A/D変換器15、D/A変換器16、及び、入出力部17を備えている。
CPU(Central Processing Unit)11は、画像処理装置本体1全体の動作を制御するものであって、図略のROM(Read Only Memory)又は、EEPROM12などに格納される制御プログラムを実行することによって、種々の処理を実行する。なお、本発明に係る画像処理プログラムは、上記の制御プログラムの一部に相当する。また、CPU11は、特許請求の範囲に記載のコンピュータに相当する。
EEPROM(Electrically Erasable Programmable Read-Only Memory)12は、書き換え可能な不揮発性メモリであって、カメラ2によって生成された画像情報から文字を認識する画像処理に用いられる各種パラメータの値などを記憶するものである。RAM(Random Access Memory)は、CPU11での処理の結果、入力装置4から入力されたデータなどを一時的に記憶するメモリである。
A/D変換器15は、カメラ2からのアナログの画像信号を取り込んで、ディジタルの画像情報に変換するものである。変換された濃淡画像情報は、画像メモリ14に記録される。ここでは、濃淡画像情報の各画素には、それぞれ、白色から黒色までの輝度の範囲に対応して、例えば、256階調の濃淡を示す値(諧調情報ともいう)が割り当てられている。すなわち、濃淡画像情報とは、画素毎に対応付けられた諧調情報である。
画像メモリ14は、種々の画像情報を記憶するメモリであって、A/D変換器15から出力された画像情報を記憶すると共に、文字認識の画像処理において2値化処理された画像情報(以下、二値画像ともいう)などを記憶する。D/A変換器16は、画像メモリ14に格納された画像情報を、アナログの表示用画像信号に変換してモニタ3に出力するものである。
入出力部17は、CPU11と入力装置4との間、及び、CPU11とモニタ3との間のデータの入出力処理を行うインターフェースである。
<CPU11の機能構成>
次に、図3を参照して、CPU11などの構成について説明する。図3は、図2に示すCPU11などの機能構成の一例を示す機能構成図である。CPU11は、図略のROMなどに記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、画像圧縮部111、文字候補探索部112、文字候補統合部113、統合矩形外接部114、記号検出部115、文字認識部116などとして機能する。
次に、図3を参照して、CPU11などの構成について説明する。図3は、図2に示すCPU11などの機能構成の一例を示す機能構成図である。CPU11は、図略のROMなどに記憶された制御プログラム(本発明に係る画像処理プログラム)を読み出して実行することによって、画像圧縮部111、文字候補探索部112、文字候補統合部113、統合矩形外接部114、記号検出部115、文字認識部116などとして機能する。
画像圧縮部111は、画像メモリ14に格納されていて検出すべき文字が含まれる対象画像を読み出し、そのアスペクト比が所定比となるように対象画像を圧縮して圧縮後画像得を得る(詳細は図4のステップS103を参照して後述)。なお、対象画像のアスペクト比を定める所定比は、予め設定した上でEEPROM12などに記憶させておいてもよいし、例えば、入力装置4でのユーザー操作など、外部からの設定入力を受け付けることで設定や変更ができるようにしてもよい(図14を参照して後述)。
文字候補探索部112は、画像圧縮部111によって得られた圧縮後画像において文字らしい領域である1つ以上の文字候補を探索する(詳細は図4のステップS104を参照して後述)。
文字候補統合部113は、文字候補探索部112によって探索された文字候補をクラスタリングして統合するとともに、信頼性の低い文字候補を削除する(詳細は図4のステップS105を参照して後述)。
統合矩形外接部114は、文字候補統合部113によって統合されるとともに削除はされなかった文字候補から含まれる文字を切り出し、その文字に矩形を外接させる(詳細は図4のステップS107を参照して後述)。
記号検出部115は、統合矩形外接部114によって矩形が外接された文字以外の領域から記号に相当する領域を抽出する(詳細は図4のステップS108を参照して後述)。
文字認識部116は、統合矩形外接部114によって矩形が外接された文字の認識を行うが、これには既知の文字認識技術を適用することが可能である。
<文字検出アルゴリズムの処理フロー>
図4はCPU11で実行される文字検出アルゴリズムの概略処理を示すフローチャートである。例えば、このような文字検出アルゴリズムをソフトウェアライブラリなどに関数として登録しておいてもよい。図5(a)〜図5(d)は図4のフローチャートのステップS104、S105、S107およびS108で得られる画像をそれぞれ例示する図である。
図4はCPU11で実行される文字検出アルゴリズムの概略処理を示すフローチャートである。例えば、このような文字検出アルゴリズムをソフトウェアライブラリなどに関数として登録しておいてもよい。図5(a)〜図5(d)は図4のフローチャートのステップS104、S105、S107およびS108で得られる画像をそれぞれ例示する図である。
なお、この文字検出アルゴリズムの実行に先立って、検出すべき文字が含まれる画像がカメラ2(図1、図2参照)によって取得されて画像メモリ14に格納されているものとする。また、この文字検出アルゴリズムの実行後には、既知の文字認識技術を適用することになる。
ステップS101:各種パラメータチェック
まず、引数で与えたられた各パラメータ値が使用範囲内かどうかを確認し、
問題がなければ与えられた各引数の値に従って各パラメータを設定する。具体的には、画像サイズ確認/設定、および処理領域サイズ確認/設定を順次行う。
まず、引数で与えたられた各パラメータ値が使用範囲内かどうかを確認し、
問題がなければ与えられた各引数の値に従って各パラメータを設定する。具体的には、画像サイズ確認/設定、および処理領域サイズ確認/設定を順次行う。
ステップS102:検出器(学習結果)情報取得
次に、検出器の情報(学習結果)を取得する。
次に、検出器の情報(学習結果)を取得する。
ステップS103:対象画像の変換
対象画像を文字探索用フォーマットに変換する。具体的には、画像グレースケール変換を行った後、次のようなアスペクト変換を行う。ここで、図6(a)および図6(b)はこのステップS103の前後での各画像を例示する図である。
対象画像を文字探索用フォーマットに変換する。具体的には、画像グレースケール変換を行った後、次のようなアスペクト変換を行う。ここで、図6(a)および図6(b)はこのステップS103の前後での各画像を例示する図である。
カメラ2(図1、図2参照)によって取得され画像メモリ14に格納された検出すべき文字が含まれる画像(原画像)を対象画像とし、縦横比(アスペクト比)が、図6(a)に示すように、H:Wであるとする。ここで、例えば、パラメータaを導入し、
H:W=a:1
または
H/W=a
となるように対象画像をアスペクト変換する。これにより、図6(b)に示すように、縦横比(アスペクト比)がW×a:Wである画像(変換後画像)が得られることになる。この変換後画像を、対象画像とは別に画像メモリ14に格納する。
H:W=a:1
または
H/W=a
となるように対象画像をアスペクト変換する。これにより、図6(b)に示すように、縦横比(アスペクト比)がW×a:Wである画像(変換後画像)が得られることになる。この変換後画像を、対象画像とは別に画像メモリ14に格納する。
なお、画像変換方法については、例えば、周辺の2×2画素(4画素)を使って輝度値を直線的に補間するバイリニア補間(Bilinear補間、双一次補間ともいう)や、周辺の4×4画素(16画素)を使って輝度値を三次式で補間するバイキュビック補間(Bicubic補間、双三次補間ともいう)など、一般的な補間技術を用いればよい。
ステップS104:文字探索
統計的学習手法によって生成された識別器を用いて、画像メモリ14に格納された変換後画像において文字探索、つまり、文字らしい領域の抽出を行う。ここで、図7はこのステップS104の説明に用いる画像を例示する図である。図8はこのステップS104で用いられるカスケード型識別器7によって行われる判定の流れを示す概略図である。
統計的学習手法によって生成された識別器を用いて、画像メモリ14に格納された変換後画像において文字探索、つまり、文字らしい領域の抽出を行う。ここで、図7はこのステップS104の説明に用いる画像を例示する図である。図8はこのステップS104で用いられるカスケード型識別器7によって行われる判定の流れを示す概略図である。
より具体的には、例えば、図7に例示した画像に対して、図8に示すように、文字探索処理を行う。ここでは、ブースティング学習による識別器を用いて文字検出を行うが、より具体的には、Haar-like 特徴を用いたAdaBoostベース識別器による文字検出を行うとともにカスケード型としている。図8に示すように、カスケード型識別器7は、5つの弱識別器71〜75をカスケード構造をなすように組み合わせて強識別器としたものである。このようなカスケード型識別器は、学習には多くの時間を必要とするものの、識別時には非検出対象がカスケードの初期に除外されるため,単一の識別対象に対してはより高速な処理が可能となる。
この文字探索処理は、複数のレイヤによって実行される。各レイヤには、異なる組み合わせの文字矩形が割り当てられる。ここで、「文字矩形」とは、文字のサンプル画像と同じ大きさの領域を囲む矩形のことである。図8では、各レイヤに割り当てられる文字矩形の数も異なる。また、各レイヤには判定を実施する順番が割り当てられており、各レイヤはその順番に従って処理を行う。すなわち、例えば、図8において、レイヤ1(Layer 1)の次にレイヤ2(Layer 2)が判定を実施し、その次にレイヤ3(Layer 3)が判定を実施する。
各レイヤは、自身に割り当てられた順番に、自身に割り当てられたパターンの文字矩形を用いて、注目領域内に文字が含まれるか否かを判定する。あるレイヤにおいて、注目領域内に文字が含まれないと判定された場合、それ以降の順番のレイヤでは、この注目領域についての判定は実施されない。そして、最後の順番のレイヤによる判定で、注目領域内に文字が含まれると判定された場合に、最終的に文字探索処理において注目領域内に文字が含まれると判定される。
なお、統計的学習によって生成される識別器としては、上記の構成に限らず、例えばバックプロパゲーションによって学習させたニューラルネットワークや、ベイズ識別器等を用いてもよい。
ステップS105:探索結果統合
探索結果、すなわち文字探索(ステップS104)で抽出された複数の文字らしい領域を交差判定によってクラスタリングし、1つの矩形に統合する。その後、再度交差判定を行って信頼度の低い矩形を削除する。ここで、図9(a)は交差判定によるクラスタリングの説明図であり、図9(b)は交差判定による矩形削除の説明図である。
探索結果、すなわち文字探索(ステップS104)で抽出された複数の文字らしい領域を交差判定によってクラスタリングし、1つの矩形に統合する。その後、再度交差判定を行って信頼度の低い矩形を削除する。ここで、図9(a)は交差判定によるクラスタリングの説明図であり、図9(b)は交差判定による矩形削除の説明図である。
交差判定によるクラスタリングでは、図9(a)に示すように、探索矩形SRが一定距離以上接近している場合に同一グループとする。例えば、次のような判定式を考えると、
(R1+R2)× Threshold < L1
これがYesの場合には別グループとし、Noの場合には同一グループとすればよい。
(R1+R2)× Threshold < L1
これがYesの場合には別グループとし、Noの場合には同一グループとすればよい。
また、交差判定による矩形削除では、図9(b)に示すように、探索矩形SRが一定距離以上接近している場合に信頼度の低い矩形を削除する。例えば、図9(a)の場合と同様の判定式を考えると、これがYesの場合には何もせず、Noの場合には信頼度の低い矩形を削除すればよい。
ステップS106:統合結果のアスペクト比復元
対象画像の変換(ステップS103)でアスペクト変換した画像から得られた検出結果を元のアスペクト比に戻す。すなわち、統合された文字候補領域の縦横比をh:wとすると、前述のパラメータaを用い、h/w=1/aとなるように、文字候補領域をアスペクト変換する。これにより、この後の外接処理および記号検出処理を元の対象画像の上で行うことができるため、文字の切り出し結果を対象画像に重ねて表示することができる。
対象画像の変換(ステップS103)でアスペクト変換した画像から得られた検出結果を元のアスペクト比に戻す。すなわち、統合された文字候補領域の縦横比をh:wとすると、前述のパラメータaを用い、h/w=1/aとなるように、文字候補領域をアスペクト変換する。これにより、この後の外接処理および記号検出処理を元の対象画像の上で行うことができるため、文字の切り出し結果を対象画像に重ねて表示することができる。
ステップS107:統合矩形の外接
アスペクト比が復元された統合結果をもとに、画像メモリ14に格納された元の対象画像から文字の切り出しを行い、矩形を文字に外接させる。具体的には、矩形間の重なりの調整、矩形毎の画像切り抜き、2値化、ラベリング、矩形枠線上ノイズ除去、およびフィッティングを順次行う。ここで、図10(a)は矩形間の重なり調整の説明図であり、図10(b)は矩形毎の画像切り抜きの説明図であり、図10(c)は2値化の説明図である。図11(a)はラベリングの説明図であり、図11(b)は矩形枠線上ノイズ除去の説明図であり、図11(c)はフィッティングの説明図である。
アスペクト比が復元された統合結果をもとに、画像メモリ14に格納された元の対象画像から文字の切り出しを行い、矩形を文字に外接させる。具体的には、矩形間の重なりの調整、矩形毎の画像切り抜き、2値化、ラベリング、矩形枠線上ノイズ除去、およびフィッティングを順次行う。ここで、図10(a)は矩形間の重なり調整の説明図であり、図10(b)は矩形毎の画像切り抜きの説明図であり、図10(c)は2値化の説明図である。図11(a)はラベリングの説明図であり、図11(b)は矩形枠線上ノイズ除去の説明図であり、図11(c)はフィッティングの説明図である。
まず、図10(a)左側に示すように、例えば、文字「A」とともに汚れ(から生じた小点)Bを含む矩形SR1と文字「L」を含む矩形SR2とを切り分ける矩形間の重なり調整を行い、図10(a)右側に示すように、両方の矩形が重ならないようにする。
次に、図10(b)に示すように、矩形毎に画像切り抜きを行う。ここでは、文字「A」や汚れを含む画像を「画像G1」、文字「L」を含む画像を「画像G2」と呼ぶことにする。
次に、判別分析法など公知の手法を利用した2値化を行うと、例えば、図10(c)に示すような2値化された画像Gb1が得られる。
次に、2値化された画像Gb1にラベリング(領域化)を行う。例えば、図11(a)に示すように、画像Gb1内の文字「A」に相当する領域には「X1」というラベルを付けるとともに、汚れに相当する領域には「X2」というラベルを付ける。
次に、矩形枠線上にある領域面積が閾値より小さい場合はノイズとみなして除去する。これにより、例えば、図11(b)に示すように、汚れに相当する領域X2は除去対象Dとなるが、文字「A]を含む領域X1は除去対象Dとはならずにそのまま残る。
最後に、ラベル付けされている位置まで矩形を縮小してフィッティングする。これにより、例えば、図11(c)左側に示すような画像Gb1の矩形は領域X1というラベルが付いている位置まで縮小されて、図11(c)右側に示すように、文字「A」にちょうど外接するサイズとなる。
ステップS108:記号検出
2値化・投影によって記号に相当する領域を抽出する記号検出を行う。ここで、図12は記号探索領域の推定の説明図である。図13は2値化・投影による記号検出の説明図である。
2値化・投影によって記号に相当する領域を抽出する記号検出を行う。ここで、図12は記号探索領域の推定の説明図である。図13は2値化・投影による記号検出の説明図である。
記号探索領域の推定については、図12に示すように、文字検出結果CDの最大高さを利用する。文字列先頭C1、文字間C2および文字列末尾C3が記号探索領域R14となる。そして、図13に示すように、2値化やx方向およびy方向への投影によって記号を検出する。
なお、この記号検出(ステップS111)も、統合矩形の外接(ステップS109)同様、アスペクト比が復元された統合結果をもとに、画像メモリ14に格納された元の対象画像の上で行う。文字探索(ステップS104)とは違い、変換後画像を処理対象とはしないことで、アスペクト変換処理による記号の潰れ等の悪影響を回避することができる。
<ユーザーインターフェイス画面>
図14は画像圧縮部111で対象画像のアスペクト比を定める所定比を入力装置4でのユーザー操作で入力可能とする場合にモニタ3に表示させるユーザーインターフェイス画面30を例示する説明図である。
図14は画像圧縮部111で対象画像のアスペクト比を定める所定比を入力装置4でのユーザー操作で入力可能とする場合にモニタ3に表示させるユーザーインターフェイス画面30を例示する説明図である。
この図14に示すように、ユーザーインターフェイス画面30は、その左側上寄りに配置されて入力された画像を表示する入力画像表示部31と、この入力画像表示部の下側左寄りに配置されて文字検出結果を表示する結果表示部32と、右側の最上部に配置されて画像入力のトリガとして利用可能な画像入力用ボタン33と、その下に配置されて対象画像のアスペクト比を定める所定比を入力可能な縦横比入力部34と、その下に配置されて文字色を指定可能な文字色入力部35と、その下に配置されて回転角度を入力可能な回転角度入力部36と、その下に配置される処理領域設定ボタン37とを含む。
縦横比入力部34としては、例えば、縦横比として1:10〜10:1を入力可能なスクロールバーが挙げられる。
文字色入力部35は様々な文字色に対応して高速に認識を実施するためのものであり、例えば、ラジオボタンが挙げられる。
回転角度入力部36は画像を回転させることで斜めなどに映る文字の認識を容易にするためのものである。
処理領域設定ボタン37は処理領域を限定(例えば、タッチパネル操作や座標入力などで対応)することで処理を高速化したり、認識対象外の文字を除外したりできるものである。
なお、画像入力用ボタン33、文字色入力部35、回転角度入力部36および処理領域設定ボタン37は不可欠なものではない。
なお、本発明は、その主旨または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、上述の実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈してはならない。本発明の範囲は特許請求の範囲によって示すものであって、明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
本発明は、文字などの検出を行う画像処理装置、画像処理方法および画像処理プログラムなどに適用可能である。
100 画像処理装置
1 画像処理装置本体
11 CPU
111 画像圧縮部
112 文字候補探索部
113 文字候補統合部
114 統合矩形外接部
115 記号検出部
116 文字認識部
12 EEPROM
13 RAM
14 画像メモリ
15 A/D変換器
16 D/A変換器
17 入出力部
2 CCDカメラ
3 モニタ
30 ユーザーインターフェイス画面
31 入力画像表示部
32 結果表示部
33 画像入力用ボタン
34 縦横比入力部
35 文字色入力部
36 回転角度入力部
37 処理領域設定ボタン
4 入力装置
5 製品
6 コンベア
7 カスケード型識別器
1 画像処理装置本体
11 CPU
111 画像圧縮部
112 文字候補探索部
113 文字候補統合部
114 統合矩形外接部
115 記号検出部
116 文字認識部
12 EEPROM
13 RAM
14 画像メモリ
15 A/D変換器
16 D/A変換器
17 入出力部
2 CCDカメラ
3 モニタ
30 ユーザーインターフェイス画面
31 入力画像表示部
32 結果表示部
33 画像入力用ボタン
34 縦横比入力部
35 文字色入力部
36 回転角度入力部
37 処理領域設定ボタン
4 入力装置
5 製品
6 コンベア
7 カスケード型識別器
Claims (11)
- 固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理装置であって、
検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換手段と、
前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索手段と、
この探索手段によって探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合手段と、
この統合手段によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接手段と
を備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記変換手段で前記対象画像の前記アスペクト比を定める前記所定比の外部からの設定入力を受け付ける設定入力手段をさらに備えることを特徴とする画像処理装置。 - 請求項1または2に記載の画像処理装置において、
前記文字候補領域を、前記所定比の逆数の比でアスペクト変換する第二変換手段をさらに備えることを特徴とする画像処理装置。 - 請求項3に記載の画像処理装置において、
前記外接手段によって矩形が外接された文字以外の領域から記号に相当する領域を抽出する記号検出手段をさらに備えることを特徴とする画像処理装置。 - 請求項1または2に記載の画像処理装置において、
前記外接手段によって矩形が外接された文字の認識を行う文字認識手段をさらに備えることを特徴とする画像処理装置。 - 固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理装置であって、
検出すべき文字が含まれる対象画像の幾何学的特徴を示すパラメータが予め設定された値となるように前記対象画像を幾何学的に変換する変換手段と、
この変換手段によって得られた前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補領域を探索する探索手段と
を備えることを特徴とする画像処理装置。 - 請求項6に記載の画像処理装置において、
前記パラメータは前記対象画像のアスペクト比であることを特徴とする画像処理装置。 - 請求項6または7に記載の画像処理装置において、
前記探索手段によって探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合手段をさらに備えることを特徴とする画像処理装置。 - 請求項8に記載の画像処理装置において、
前記統合手段によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接手段をさらに備えることを特徴とする画像処理装置。 - 固定サイズのサンプル画像を教師データとする統計的学習によって生成される識別器を用いて文字検出を行う画像処理方法であって、
検出すべき文字が含まれる対象画像のアスペクト比が予め設定された所定比となるように前記対象画像を幾何学的に変換して変換後画像を得る変換工程と、
前記変換後画像において前記識別器によって文字らしい領域である1つ以上の文字候補を探索する探索工程と、
この探索工程で探索された前記文字候補をクラスタリングして統合するとともに、信頼性の低い前記文字候補を削除する統合工程と、
この統合工程によって統合されるとともに削除はされなかった前記文字候補から含まれる文字を切り出し、その文字に矩形を外接させる外接工程と
を含むことを特徴とする画像処理方法。 - 請求項10に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011057262A JP2012194705A (ja) | 2011-03-15 | 2011-03-15 | 画像処理装置、画像処理方法および画像処理プログラム |
US13/295,557 US20120237118A1 (en) | 2011-03-15 | 2011-11-14 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011057262A JP2012194705A (ja) | 2011-03-15 | 2011-03-15 | 画像処理装置、画像処理方法および画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012194705A true JP2012194705A (ja) | 2012-10-11 |
Family
ID=46828496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011057262A Pending JP2012194705A (ja) | 2011-03-15 | 2011-03-15 | 画像処理装置、画像処理方法および画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120237118A1 (ja) |
JP (1) | JP2012194705A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211207A (ja) * | 2016-05-23 | 2017-11-30 | 住友ゴム工業株式会社 | 物品の汚損検出方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258216A (zh) * | 2013-05-15 | 2013-08-21 | 中国科学院自动化研究所 | 一种基于在线学习的局部可形变目标检测方法及其系统 |
CN106506931A (zh) * | 2015-09-07 | 2017-03-15 | 富泰华工业(深圳)有限公司 | 电子装置及其拍照控制方法和系统 |
US10740912B2 (en) | 2016-05-19 | 2020-08-11 | Intel Corporation | Detection of humans in images using depth information |
KR20190011722A (ko) | 2016-06-02 | 2019-02-07 | 인텔 코포레이션 | 심도 정보를 이용한 이미지에서의 사람의 방향 추정 |
CN107403198B (zh) * | 2017-07-31 | 2020-12-22 | 广州探迹科技有限公司 | 一种基于级联分类器的官网识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07192083A (ja) * | 1993-12-27 | 1995-07-28 | Nec Corp | 文書画像レイアウト解析装置 |
JPH08190689A (ja) * | 1995-01-05 | 1996-07-23 | Japan Radio Co Ltd | 車番読取り装置 |
JPH11296617A (ja) * | 1998-04-10 | 1999-10-29 | Nippon Telegr & Teleph Corp <Ntt> | ファクシミリの文字認識装置および方法と該方法を格納した記録媒体 |
JP2003168076A (ja) * | 2001-11-30 | 2003-06-13 | Matsushita Electric Works Ltd | 画像処理方法およびその装置 |
JP2004139428A (ja) * | 2002-10-18 | 2004-05-13 | Toshiba Corp | 文字認識装置 |
JP2006023983A (ja) * | 2004-07-08 | 2006-01-26 | Ricoh Co Ltd | 文字画像分離装置、文字画像分離方法、文字画像分離プログラム、およびこのプログラムを格納した記録媒体 |
JP2009259030A (ja) * | 2008-04-17 | 2009-11-05 | Nippon Telegr & Teleph Corp <Ntt> | 画像識別装置、画像識別方法、プログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5048097A (en) * | 1990-02-02 | 1991-09-10 | Eastman Kodak Company | Optical character recognition neural network system for machine-printed characters |
US5321768A (en) * | 1992-09-22 | 1994-06-14 | The Research Foundation, State University Of New York At Buffalo | System for recognizing handwritten character strings containing overlapping and/or broken characters |
JP2933801B2 (ja) * | 1993-06-11 | 1999-08-16 | 富士通株式会社 | 文字の切り出し方法及びその装置 |
US5999647A (en) * | 1995-04-21 | 1999-12-07 | Matsushita Electric Industrial Co., Ltd. | Character extraction apparatus for extracting character data from a text image |
JP3216983B2 (ja) * | 1996-02-27 | 2001-10-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 文字認識装置および文字認識方法 |
US6188790B1 (en) * | 1996-02-29 | 2001-02-13 | Tottori Sanyo Electric Ltd. | Method and apparatus for pre-recognition character processing |
US5915039A (en) * | 1996-11-12 | 1999-06-22 | International Business Machines Corporation | Method and means for extracting fixed-pitch characters on noisy images with complex background prior to character recognition |
SG71018A1 (en) * | 1997-03-01 | 2000-03-21 | Inst Of Systems Science Nat Un | Robust identification code recognition system |
JP4170441B2 (ja) * | 1997-11-28 | 2008-10-22 | 富士通株式会社 | 文書画像傾き検出装置および文書画像傾き検出プログラムの記憶媒体 |
JP3639126B2 (ja) * | 1998-01-22 | 2005-04-20 | 富士通株式会社 | 住所認識装置及び住所認識方法 |
US6249605B1 (en) * | 1998-09-14 | 2001-06-19 | International Business Machines Corporation | Key character extraction and lexicon reduction for cursive text recognition |
US6728391B1 (en) * | 1999-12-03 | 2004-04-27 | United Parcel Service Of America, Inc. | Multi-resolution label locator |
AU2001229639A1 (en) * | 2000-01-19 | 2001-07-31 | California Institute Of Technology | Word recognition using silhouette bar codes |
US7929767B2 (en) * | 2004-09-22 | 2011-04-19 | Microsoft Corporation | Analyzing subordinate sub-expressions in expression recognition |
JP4958497B2 (ja) * | 2006-08-07 | 2012-06-20 | キヤノン株式会社 | 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体 |
US7697758B2 (en) * | 2006-09-11 | 2010-04-13 | Google Inc. | Shape clustering and cluster-level manual identification in post optical character recognition processing |
US7650035B2 (en) * | 2006-09-11 | 2010-01-19 | Google Inc. | Optical character recognition based on shape clustering and multiple optical character recognition processes |
JP4928310B2 (ja) * | 2007-03-02 | 2012-05-09 | キヤノン株式会社 | ナンバープレート認識装置、その制御方法、コンピュータプログラム |
US8014603B2 (en) * | 2007-08-30 | 2011-09-06 | Xerox Corporation | System and method for characterizing handwritten or typed words in a document |
JP4569622B2 (ja) * | 2007-12-18 | 2010-10-27 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
US8340428B2 (en) * | 2008-04-02 | 2012-12-25 | Xerox Corporation | Unsupervised writer style adaptation for handwritten word spotting |
US8463041B2 (en) * | 2010-01-26 | 2013-06-11 | Hewlett-Packard Development Company, L.P. | Word-based document image compression |
US8391602B2 (en) * | 2010-04-08 | 2013-03-05 | University Of Calcutta | Character recognition |
US8867828B2 (en) * | 2011-03-04 | 2014-10-21 | Qualcomm Incorporated | Text region detection system and method |
-
2011
- 2011-03-15 JP JP2011057262A patent/JP2012194705A/ja active Pending
- 2011-11-14 US US13/295,557 patent/US20120237118A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07192083A (ja) * | 1993-12-27 | 1995-07-28 | Nec Corp | 文書画像レイアウト解析装置 |
JPH08190689A (ja) * | 1995-01-05 | 1996-07-23 | Japan Radio Co Ltd | 車番読取り装置 |
JPH11296617A (ja) * | 1998-04-10 | 1999-10-29 | Nippon Telegr & Teleph Corp <Ntt> | ファクシミリの文字認識装置および方法と該方法を格納した記録媒体 |
JP2003168076A (ja) * | 2001-11-30 | 2003-06-13 | Matsushita Electric Works Ltd | 画像処理方法およびその装置 |
US20040071345A1 (en) * | 2001-11-30 | 2004-04-15 | Yoshihito Hashimoto | Image recognition method and apparatus for the same method |
JP2004139428A (ja) * | 2002-10-18 | 2004-05-13 | Toshiba Corp | 文字認識装置 |
JP2006023983A (ja) * | 2004-07-08 | 2006-01-26 | Ricoh Co Ltd | 文字画像分離装置、文字画像分離方法、文字画像分離プログラム、およびこのプログラムを格納した記録媒体 |
JP2009259030A (ja) * | 2008-04-17 | 2009-11-05 | Nippon Telegr & Teleph Corp <Ntt> | 画像識別装置、画像識別方法、プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211207A (ja) * | 2016-05-23 | 2017-11-30 | 住友ゴム工業株式会社 | 物品の汚損検出方法 |
Also Published As
Publication number | Publication date |
---|---|
US20120237118A1 (en) | 2012-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11853347B2 (en) | Product auditing in point-of-sale images | |
EP2038843B1 (en) | Object detection apparatus, method and program | |
EP1970839B1 (en) | Apparatus, method, and program for face feature point detection | |
KR101763891B1 (ko) | 영역 추출 방법, 모델 트레이닝 방법 및 장치 | |
US9760789B2 (en) | Robust cropping of license plate images | |
US8588466B2 (en) | Object area detection system, device, method, and program for detecting an object | |
US8238605B2 (en) | Digital video target moving object segmentation method and system | |
TW201737134A (zh) | 用於藉由機器學習訓練物件分類器之系統及方法 | |
TW201926140A (zh) | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 | |
JP4877374B2 (ja) | 画像処理装置及びプログラム | |
JP2012194705A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN107403128B (zh) | 一种物品识别方法及装置 | |
TWI254891B (en) | Face image detection method, face image detection system, and face image detection program | |
KR20190059083A (ko) | 영상 분할 기반의 해양 상황 인식 장치 및 그 방법 | |
JP2008011484A (ja) | 文字図形列抽出装置,文字図形列抽出方法,その方法を実行するプログラム,そのプログラムを記録した記録媒体 | |
JP2010152800A (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN116324911A (zh) | 用于从车辆牌照中提取字符的方法和用于执行方法的牌照字符提取装置 | |
US11308352B2 (en) | Apparatus for processing labeled data to be used in learning of discriminator, method of controlling the apparatus, and non-transitory computer-readable recording medium | |
JP2010186246A (ja) | 画像処理装置、方法、及び、プログラム | |
JP6546385B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
CN113449629B (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 | |
JP2007219899A (ja) | 個人識別装置、個人識別方法および個人識別プログラム | |
US8300926B2 (en) | Image processing apparatus and image processing method | |
JP2004094427A (ja) | 帳票画像処理装置及び該装置を実現するためのプログラム | |
KR101689705B1 (ko) | 픽셀 방향정보를 사용한 영상정보 내 패턴정보영역 검출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150507 |