JP5707570B2 - 物体識別装置、物体識別方法、及び、物体識別装置の学習方法 - Google Patents

物体識別装置、物体識別方法、及び、物体識別装置の学習方法 Download PDF

Info

Publication number
JP5707570B2
JP5707570B2 JP2010228728A JP2010228728A JP5707570B2 JP 5707570 B2 JP5707570 B2 JP 5707570B2 JP 2010228728 A JP2010228728 A JP 2010228728A JP 2010228728 A JP2010228728 A JP 2010228728A JP 5707570 B2 JP5707570 B2 JP 5707570B2
Authority
JP
Japan
Prior art keywords
image
identification
strong
learning
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010228728A
Other languages
English (en)
Other versions
JP2011216069A (ja
Inventor
芸芸 曹
芸芸 曹
竹内 大介
大介 竹内
西村 洋文
洋文 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2010228728A priority Critical patent/JP5707570B2/ja
Publication of JP2011216069A publication Critical patent/JP2011216069A/ja
Application granted granted Critical
Publication of JP5707570B2 publication Critical patent/JP5707570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体識別装置、物体識別方法、及び、物体識別装置の学習方法に関する。
画像に含まれる検出対象物体(例えば、人物、車両など)を検出する技術では、機械学習を用いたパターン認識技術が幅広く知られている。一方、検出対象物体が人物の場合には、姿勢が変化することなどにより、検出対象物体の外観(appearance)が変化する。従って、従来から、検出対象物体のポーズ(例えば、人の姿勢、車両の各側面)ごとに識別器を構築する方法が提案されている。
図16は、特許文献1に記載された従来の物体識別装置である。図16において、従来方法の物体識別装置800においては、検出対象物体のポーズごとに識別器801が構築されていた。識別器801は、複数の強識別器802を含む。
図17は、従来の物体識別装置800における強識別器802を示す。強識別器802は、複数の弱識別器901、結合部902、閾値判定部903を含み、複数の弱識別器を並列に結合させたものである。
ここで、弱識別器901は、検出対象物体(例えば、人物)の各特徴部(例えば、頭部、脚部、胸部など)を識別するための比較的性能の低い識別器であり、弱識別器を並列に結合(Σ)させた識別器が強識別器802である。強識別器802に含まれる弱識別器は、事前に行われる機械学習によって構成が決定される。
従来の機械学習においては、検出対象物体を含む画像データであるポジティブサンプルが画像データ収集者によってポーズごとに分類され、分類されたポジティブサンプルと、検出対象物体を含まない画像データであるネガティブサンプルとに基づいて機械学習されて、学習の結果として複数の弱識別器が生成される。
人物画像のように外観や背景が複雑な画像を識別する場合など、大規模のネガティブサンプルを必要とする場合には、識別器を直列状(物体識別装置はAND、ORに対して並列接続、学習においては直列接続=カスケード接続)(カスケード接続:Cascading Connection)構造にして、ブートストラップ(bootstrap)法を用いる機械学習が従来から用いられる。
ブートストラップ法においては、予め定めた種類のポーズごとに、収集されたポジティブサンプルが収集者によって分類され、各ポーズのポジティブサンプルと、例えば、カスケード構造のi段目を学習する場合、初段である1段目から(i−1)段目までにTrue(Yes)の結果が出されたネガティブサンプルを集めたネガティブサンプルデータセットと基づいて、後述する弱識別器の「特徴情報」及び「識別情報」など弱識別器を構成する数値パラメータが算出され、カスケード構造の識別器が構築される。なお、ブートストラップ法は公知技術であるため、詳細な説明は省略する。
以下、ブートストラップ法でネガティブサンプルを収集して、ブースティング機械学習で構成された、従来の物体識別装置について説明する。
物体識別装置800には、識別対象画像データの部分画像である窓画像が入力される。窓画像(部分画像)は、当該画像データにおいて、スキャンされた画像データである。
各識別器801に入力された窓画像(部分画像)は、強識別器802を介して、各弱識別器901へ入力される。各弱識別器901は、入力された窓画像(部分画像)から、弱識別器901に対応して保持された「特徴情報」(HoG:位置情報とサイズ情報、CoHoG:エッジのペア)に基づいて、「特徴量」(HoG:ベクトル情報、CoHoG:ベクトル情報、ウェーブレット:浮点数)を算出する。
例えば、特徴量としてHoG(Histgrams of Oriented Gradients)を用いた場合においては、画像データの特徴情報である“位置情報およびサイズ情報”に基づいて、特徴情報に該当する画像データの部分について、特徴量である“ベクトル情報”が算出される。また、特徴量としてCoHoG(Co−occurrence Histgrams of Oriented Gradients)を用いた場合においては、画像データの特徴情報である“位置情報”および“エッジのペア”に基づいて、特徴量である“ベクトル情報”が算出される。
各弱識別器901は、算出された特徴量と、検出対象か否かを判定するために予め保持された「識別情報」(例えば、HoG:識別面ベイシスベクター(basis Vector))とに基づいて、検出対象らしさを表す「推定値」hi(i:1からnの整数)が算出され、弱識別器901から出力される。なお、数値“n”は弱識別器の数である。
例えば、特徴量としてHoGを用いた場合においては、算出された特徴量と識別情報との内積が算出され、算出された内積値を正規化し、予め保持された規格化テーブル(Look Up Table)との対比により推定値hiが算出される。
結合部902は、各弱識別器901から出力された推定値hiを取得し、並列結合された推定値Hを出力する。閾値判定部903は、入力された推定値Hが、予め保持された所定の閾値以上か否かを判定し、閾値以上である場合には、Yes(True)としてデジタル信号“1”を出力し、閾値以上でない場合には、No(False)としてデジタル信号“0”を出力する。なお、以下の説明ではYesが“1”、Noが“0”として説明するが、Yesが“0”、Noが“1”でもよい。
なお、推定値hiは弱識別器901から出力され、推定値Hは強識別器802から出力される。
以上の動作が強識別器802−1i〜Ti(i:1からKの整数)において実施され、識別器801−iにおいて論理積(AND)演算される。従って、強識別器802−1i〜Tiの出力が何れか1つでも非検出対象物体であると判定すれば、出力はNo(False)として“0”が出力される。
なお、所定の識別器801において強識別器がT個存在するのは、ブートストラップ学習過程において、ネガティブサンプルを使い切るのに十分な段数として確保されるためである。
識別器801−i(i:1からKの整数)から出力された1/0データは、論理和(OR)演算されて判定部803に出力される。すなわち、何れか1つのポーズについての識別器の出力がYes(True)であれば、判定部803において検出対象物体であると判定される。
以上のようにして、複数の強識別器802によって検出対象物体の画像データが含まれているか否かが判定され、ポーズごとに得られた判定結果に基づいて、入力された画像データに含まれる物体が識別される。
特開2004−145818号公報
しかしながら、上記従来の物体識別装置においては、各ポーズに関して、複数の強識別器を用いて得られた検出対象物体画像の判定結果を、全てのポーズに関してまとめることにより、物体の識別結果として評価結果を出力していた。そのため、第1のポーズに関する識別処理経過を、第2のポーズに関する識別処理に対して反映させることができず、識別処理の最終段階まで、全てのポーズを用いた総合的な判定を行うことができなかった。また、従来の物体識別装置800においては、検出対象物体のポーズごとに構築された識別器801の識別精度が、ポジティブサンプルのデータ収集者の主観によって影響を受けた。
本発明は、従来の課題を解決するもので、ポジティブサンプルのデータ収集者の主観の影響を受けずに、且つ、全てのポーズを用いた総合的な判定を行うことができる物体識別装置、物体識別方法、及び、物体識別装置の学習方法を提供することを目的とする。
本発明の一態様の物体識別装置は、着目する特徴の異なる複数のクラスに基づいて、検出処理対象画像に映された物体を識別する物体識別装置であって、前記検出処理対象画像に識別対象物体画像が含まれているか否かを判定する複数の識別ユニットと、前記複数の識別ユニットから取得された判定結果の全てが「真」信号である場合に、前記検出処理対象画像に識別対象物体画像が含まれていると最終判定する最終判定部と、を具備し、前記識別ユニットは、並列に接続され、且つ前記複数のクラスに含まれる所定のクラスに其々対応する複数の強識別器と、前記複数の強識別器のうち少なくとも1つの前記強識別器が前記検出処理対象画像に識別対象物体画像が含まれていると判定する場合に、「真」信号を出力するOR演算部と、を有する。
本発明の一態様の物体識別方法は、着目する特徴の異なる複数のクラスに基づいて、検出処理対象画像に映された物体を識別する物体識別方法であって、前記検出処理対象画像に識別対象物体画像が含まれているか否かを判定する複数の識別ステップと、前記複数の識別ステップにおける判定結果が全て「真」信号である場合に、前記検出処理対象画像に識別対象物体画像が含まれていると最終判定する最終判定ステップと、を具備し、前記識別ステップは、前記複数のクラスに含まれる所定のクラスに其々対応する複数の強識別器が、前記検出処理対象画像に識別対象物体画像が含まれているか否かをする判定ステップと、前記複数の強識別器のうち少なくとも1つの前記強識別器が前記検出処理対象画像に識別対象物体画像が含まれていると判定する場合に、「真」信号を出力するOR演算ステップと、を有する。
本発明の一態様の物体識別装置の学習方法は、上記した物体識別装置の学習方法であって、k(kは、1より大きくT以下の自然数であり、Tは、識別ユニットの数であって2以上の自然数である)番目の識別ユニットに属する強識別器を学習する学習ステップでは、1番目からk−1番目の識別ユニットについて既に構築された強識別器を用いて、ポジティブサンプルであると誤検出されるネガティブサンプルが所定数だけ収集され、前記収集されたネガティブサンプル群及び事前収集したポジティブサンプル群を用いて、所定の学習検出率を満たし且つ最小の誤検出率となる強識別器候補の組み合わせが探索されると共に、当該探索された組み合わせの強識別器候補が、k番目の識別ユニットの強識別器として設定される。
本発明によれば、物体識別精度を向上する物体識別装置、物体識別方法、及び、物体識別装置の学習方法を提供することができる。
本発明の一実施の形態に係る物体識別装置の構成を示すブロック図 物体識別部の構成を示すブロック図 強識別器の構成を示すブロック図 特徴抽出領域が一つのブロックから構成されている場合において、ブロックから輝度勾配方向ヒストグラムを計算する計算方法の説明に供する図 図4におけるブロックの拡大図 エッジ方向の分類方法の説明に供する図 ヒストグラムの一例を示す図 一つの特徴抽出領域が二つのブロックを持つ場合において、ブロックから輝度勾配方向ヒストグラムを計算する計算方法の説明に供する図 図8におけるブロックの拡大図 ヒストグラムの一例を示す図 連結ヒストグラムを示す図 物体識別装置の動作説明に供するフロー図 物体識別部を獲得するための学習処理フロー図 3ポーズ識別器の最適な閾値の組み合わせ概念図 重み更新処理に係るフロー図 従来の物体識別装置の構成を示すブロック図 従来の物体識別装置における強識別器のブロック図
以下、本発明の一実施の形態について図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
[物体識別装置100の構成]
図1は、本発明の一実施の形態に係る物体識別装置100のブロック構成図を示す。図1において、物体識別装置100は、画像取得部101と、画像サイズ調整部102と、画像スキャン部103と、物体識別部104と、識別結果出力部105とを有する。
〈画像取得部101〉
画像取得部101は、例えばカメラなどの撮像部から画像を取得し、取得された画像を画像サイズ調整部102に出力する。
〈画像サイズ調整部102〉
画像サイズ調整部102は、画像取得部101から取得された画像を複数のスケールに縮小又は拡大して画像サイズの調整を行うことにより、互いにサイズの異なる複数の画像を生成し、縮小又は拡大された複数の画像を画像スキャン部103へ出力する。
通常、画像取得部101から取得された画像のサイズは一定であるが、取得された画像に含まれる対象物体画像のサイズは不定である。一方、後述する物体識別部においては、対象物体画像のサイズが一定であることを前提として、弱識別器に保持される特徴情報が定められているため、適切に特徴量を算出するためには対象物体画像のサイズを統一する必要がある。そのため、取得された画像を幾つかのサイズに縮小又は拡大することによって、対象物体画像のサイズを所定のサイズ又はその近傍のサイズに変更させる。
例えば、画像サイズ調整部102は、1.2の比率で、縮小3回、拡大3回を行い、元の入力画像と合わせて7個の画像を生成し、画像スキャン部103へ出力する。係る場合、対象物体画像のサイズは、取得された画像に含まれる対象物体画像のサイズに対する縮小拡大率が、(0.58、0.69、0.83、1、1.2、1.44、1.73)の7個の対象物体画像が生成される。生成された7個の画像は、全て画像スキャン部へ出力されて、全てスキャンの対象になる。なお、画像取得部101から取得される画像のサイズは、例えば640x480のサイズである。
〈画像スキャン部103〉
画像スキャン部103は、画像サイズ調整部102から取得された複数の画像の各々を、所定サイズ(例えば、7つ全ての画像に対して64x128)の窓でスキャンして、部分画像データとして切り取り、物体識別部104へ出力される。
〈物体識別部104〉
物体識別部104は、画像スキャン部103から取得された部分画像データに、識別対象物体の画像が含まれているか否かを判定する。この判定結果は、識別結果出力部105へ出力される。
具体的には、物体識別部104は、図2に示すように、識別ユニット111−1〜Tと、AND演算部112と、判定部113とを有する。なお、後述する機械学習手法による学習において、T段のカスケード構造を採るため、識別ユニットはT個存在する。
各識別ユニット111−1〜Tは、AND演算部112によって接続され、それぞれ強識別器121−s1〜sK(s:1からTの整数)と、OR演算部122−s(s:1からTの整数)とを有する。各識別ユニット111−1〜Tは、部分画像データを取得し、部分画像データに対象物体(例えば、人物)の画像データが含まれているか否かを多ポーズについて判定する。
強識別器121−s1〜sK(s:1からTの整数))は、識別ユニット111−s(s:1からTの整数)にK個含まれ、それぞれ並列にOR演算部122−s(s:1からTの整数)によって接続されている。各識別ユニット111に含まれる強識別器121の数“K”は、各識別ユニット111において識別される対象物体のポーズの数と同じである。なお、識別ユニット111に含まれる強識別器121の数“K”は、クラスとも言われる。すなわち、識別ユニット111においては、K個のポーズ(例えば、対象物体が人物の場合、正面又は側面など)を基準として、部分画像に対象物体の画像データが含まれているか否かを判定する。
ここで、強識別器121−11、強識別器121−21、…、強識別器121−T1のそれぞれのクラス(ポーズ)は同一となるわけではない。また、各識別ユニット111のクラス(ポーズ)の組み合わせが同一となるわけではない。すなわち、物体識別部104における各識別ユニット111は、相互に独立にクラス(ポーズ)の組み合わせが選択される。各識別ユニット111のクラス(ポーズ)の組み合わせは、後述する機械学習法の学習段階において設定され、カスケード構造の各段で学習する場合に、ポジティブサンプルセットは各段で同一だが、ネガティブサンプルセットは各段で異なるためである。
このように、物体識別部104における各識別ユニット111は、相互に独立にクラス(ポーズ)の組み合わせが選択されるために、本実施の形態1における物体識別部104は、所定のポーズに関する識別処理経過を、別のポーズに関する識別処理に対して反映させることができ、全てのポーズを用いた総合的な判定を行うことができる。
OR演算部122−s(s:1からTの整数)は、識別ユニット111−s(s:1からTの整数)に設けられた強識別器121−s1〜sK(s:1からTの整数)のうち何れか1つの強識別器が、取得された部分画像データに対象物体の画像データが含まれていると判定する場合に、Yes(True)としてデジタル信号“1”を出力する。
AND演算部112は、全ての識別ユニット111の判定結果を論理積(AND)演算する。すなわち、全ての識別ユニット111において、部分画像に対象物体の画像データが含まれていると識別した場合に、AND演算部112は、Yes(True)としてデジタル信号“1”を出力する。
判定部113は、識別ユニット111−1〜Tの全ての識別ユニット111からYes(True)信号を取得した場合にのみ、対象画像に対象物体の画像データが含まれていると判定し、判定結果を識別結果出力部105へ出力される。
このように、物体識別部104は、識別ユニット111−1〜Tが並列に接続された構造を有している。各識別ユニット111は、物体識別部104における全体処理に対して部分処理を行う。従って、各識別ユニット111は、物体識別部104の全体処理における「ステージ」と呼ばれることがある。
図3は、強識別器121の構成を示すブロック図である。図3において、強識別器121は、弱識別器131−1〜nと、結合部132と、閾値判定部133とを有する。
弱識別器131−1〜nは、後述する機械学習によって予め獲得された特徴情報1〜nを保持する。特徴情報1〜nは、例えば、特徴量としてHoGを用いた場合においては「位置情報とサイズ情報」を表し、特徴量としてCoHoGを用いた場合においてはエッジのペアを表す。
弱識別器131−1〜nは、画像スキャン部103で切り取られた部分画像を取得し、予め保持された各弱識別器131に対応する特徴情報1〜nに基づいて、各弱識別器131−1〜nに対応した特徴量を算出する。なお、弱識別器131−1〜nは、特徴量1〜nに対応した数だけ設けられており、数“n”は後述する機械学習において定まる。
ここで、特徴量の算出について、具体的に説明する。
(1)例えば、特徴量としてHoGを用いた場合においては、画像データの特徴情報である“位置情報およびサイズ情報”に基づいて、所定のブロックについて、特徴量である“輝度勾配方向ヒストグラムというベクトル情報”が算出される。ここで、ブロックとは、画像の部分領域である。すなわち、上記した、特徴量が算出される所定のブロックとは、特徴情報に該当する画像データにおいて区分けされた複数の部分領域の内のいずれかである。なお、複数のブロックからなる部分領域を特徴抽出領域とし、さらに、特徴抽出領域を構成する各ブロックに対応する特徴情報のすべてを纏めて一つの特徴情報として用いることにより、所定の特徴抽出領域について特徴量である“輝度勾配方向ヒストグラムというベクトル”を求めても良い。
(1−1)特徴抽出領域が一つのブロックから構成されている場合において、ブロックから輝度勾配方向ヒストグラムを計算する計算方法について、図4を用いて説明する。図4において、矩形領域A501は、画像スキャン部103によって部分画像データとして切り出された画像(例えば、64x128)に対してエッジ抽出を行った後の画像を示す概念図である。図4に示される例では、部分画像データに、人物の全身に対応する画像データが含まれている。エッジ抽出処理には、キャニー法又はLoG(Laplacian of Gaussian)フィルタ等の一般的なエッジ抽出方法が採用される。従って、エッジ抽出処理では、一定の閾値が設けられ、この閾値に基づいてエッジが存在すると判定される画素を1、エッジが存在しないと判定される画素を0とする、2値化処理が行われる。
特徴量としてHoGが用いられる場合、各特徴情報に対して「位置情報とサイズ情報」が対応する。従って、各特徴情報に対応する画像の領域を決定することができる。すなわち、図4に示される矩形領域(ブロック)A502は、座標(C503,C504)を位置情報とし、且つ、幅L505、高さL506をサイズ情報とする、ブロックである。ブロックA502には、人物の頭部左側のエッジが含まれている。
図5は、図4におけるブロックA502の拡大図である。図5では、ブロックA502の幅L505が8ピクセルに相当し、高さL506が9ピクセルに相当する。そして、図5において、黒く塗りつぶされた領域は、エッジが存在する画素を示している。
そして、エッジが存在する画素が1つ検出されると、次に、その画素(つまり、注目画素)に隣接する周りの8画素について、エッジが存在するか否かが判定される。これにより、連続するエッジの方向が調べられる。エッジ方向は、例えば、図6のように分類される。図6では、エッジ方向が4方向に分類されている。図5における画素P501に注目する場合、画素P501に対して左上の画素及び右下の画素にエッジが存在するので、方向4に2つのエッジが存在することになる。このエッジ方向の検出処理は、エッジが存在する全ての画素のそれぞれを注目画素として行われる。これにより、エッジの方向のヒストグラムが作成される。図7には、ヒストグラムの一例として、図5に示されるブロックA502について作成されたヒストグラムが示されている。図7に示されるヒストグラムは、方向1には2画素、方向2及び方向3のそれぞれには4画素、方向4には6画素のエッジが存在することを示している。これらの各方向の画素数を要素とする4次元ベクトル(2、4、4、6)が、特徴量として用いられる。なお、図4乃至7では、1つの特徴抽出領域が1つのブロックから構成される場合について説明したが、上述の通り、1つの特徴抽出領域は、複数のブロックから構成されていても良い。
(1−2)一つの特徴抽出領域が二つのブロックを持つ場合において、ブロックから輝度勾配方向ヒストグラムを計算する計算方法について、図8を用いて説明する。図8において、ブロックA502は、図4で説明したものと同様である。図8における2つ目のブロックでブロックA520は、座標(C521,C522)を位置情報とし、且つ、幅L523、高さL524をサイズ情報とする、ブロックである。
図9は、図8におけるブロックA520の拡大図である。ブロックA520においても、ブロックA502と同様に、エッジ方向のヒストグラムが導出される。図10には、ヒストグラムの一例として、図9に示されるブロックA520について作成されたヒストグラムが示されている。従って、図10に示されるヒストグラムからは、4次元ベクトル(0,0,12,0)が特徴量として抽出される。
ここでは、1つの特徴抽出領域が2つのブロックを持っているので、その1つの特徴抽出領域の全体の特徴量としては、単純に、ブロックA502の特徴量(2,4,4,6)とブロックA520の特徴量(0,0,12,0)とを加算することによって求められる、4次元ベクトル(2,4,16,6)が用いられても良い。又は、特徴量の次元を拡張し、8次元ベクトル(2,4,4,6,0,0,12,0)が、特徴量として用いられても良い。この特徴量は、図11に示す、ブロックA502についてのヒストグラムとブロックA520についてのヒストグラムとを連結した連結ヒストグラムから求められる特徴量に相当する。
なお、図4乃至図11を用いた上記説明では、説明を簡略化するために、エッジ抽出処理において2値化処理が用いられる場合を用いて説明した。しかしながら、これに限定されるものではなく、全ての画素においてエッジの強度を求め、エッジの強度を用いてエッジ方向を分類してヒストグラムを作成しても良い。又は、求めたヒストグラムに対して、さらに、正規化処理が施された後に、特徴量が求められても良い。また、1つの特徴抽出領域に含まれるブロック数は、2つまでに限定されるものではなく、3つ以上であっても良い。
(2)また、特徴量としてCoHoGを用いた場合においては、画像データの特徴情報である“位置とエッジのペア情報”に基づいて、特徴量である“ベクトル情報”が算出される。なお、ここではHoG、CoHoGについて説明したが、他の特徴量(例えば、Edgeletなど)を用いて画像認識した場合でも良く、本発明を限定するものではない。
以上が、特徴量の算出についての具体的な説明である。
図3に戻り、弱識別器131−1〜nは、予め学習によって獲得された特徴情報と、更に、それに対応する識別情報を有する。識別情報は、検出対象か否かを判定するために弱識別器131において予め保持された情報であり、後述する機械学習において算出される。識別情報は、例えば、特徴量としてHoGを用いた場合においては、識別面ベイシスベクター(basis Vector)を表す。なお、識別情報として、推定値を算出するための規格化テーブル(Look Up Table)を、更に含んでもよい。
ここで、弱識別器131を構成する識別情報などの数値パラメータは、事前に、後述する機械学習によって算出されることについて説明する。
物体識別装置100によって対象物体を識別しようとする場合には、事前に、トレーニング画像として大量の対象物体の画像(ポジティブサンプル)と対象物体が含まれない画像(ネガティブサンプル)を用いて、検出対象物体の特有の特徴情報を求め、後述する機械学習手法(ブースティング手法)により学習を行うことにより、各弱識別器131−1〜nが構築される。各弱識別器131には、対象物体(たとえば、人物)の画像の各特徴情報1〜n、及び、各特徴情報1〜nに対応した識別情報が保持される。
すなわち、特徴情報1〜nは、対象物体の特徴を特定するための情報であり(例えば、人物画像を、HoGを特徴量として用いて検出する場合には、画像の所定の位置における所定サイズのブロックにおいて、輝度勾配方向ヒストグラムの特徴が現れるため、「位置と大きさ」が特徴情報となる)、識別情報は、部分画像において対象物体の各特徴1〜nを識別するための情報である。なお、特徴1〜nは、例えば、人物画像であれば頭部、肩のライン、脚部などの部品のエッジ統計情報である。
そして、物体識別装置の画像識別時には、予め学習によって得られた特徴1〜nに対応する特徴情報1〜nに基づいて特徴量を求め、特徴量と、それに対応する「識別関数」とを用いて、各特徴情報に対応する検出対象物体であるらしさを示す推定値h〜hが出力される。「識別関数」は、推定値を算出するための関数である。
具体的には、算出された特徴量と識別情報のベイシスベクターとの内積が算出され、算出された内積値を正規化し、予め保持された規格化テーブルとの対比により推定値hiが算出される。
ここで、特徴1〜nに対応する弱識別関数は、学習過程で下記式(1)によって求められる。すなわち、式(1)によって、損失関数Lを最小にするhが、弱識別器として求められる。この学習処理については、後に詳しく説明する。
Figure 0005707570
結合部132は、推定値h〜hを足し合わせることにより、推定値Hを得る。この足し合わせは、下記式(2)を用いて行われる。
Figure 0005707570
ここで、nは、1つの強識別器121に含まれる弱識別器131の数であり、xは、識別対象画像を意味する。なお、各hi(x)に対して、重みαを積算した結果を足し合わせてもよい。
閾値判定部133は、推定値Hを閾値判定し、推定値Hが所定の閾値以上の場合には(等号含む)、入力画像が人物画像であると判定し、判定結果をOR演算部122へ出力する。当該所定の閾値は、学習過程において算出されるが、詳細は後述する。
〈識別結果出力部105〉
識別結果出力部105は、物体識別部104から判定結果を表示部(図示せず)へ表示させる。
[物体識別装置100の動作]
以上の構成を有する物体識別装置100の動作について説明する。図12は、物体識別装置の動作説明に供するフロー図である。
〈物体識別処理フロー〉
ステップS201で画像サイズ調整部102は、画像取得部101にて取得された画像を、一定のスケールで縮小又は拡大し、サイズ調整後の画像群を画像スキャン部103へ出力する。
ステップS202で画像スキャン部103は、画像サイズ調整部102から受け取る画像群のそれぞれを、所定サイズ(例えば、64x128)の窓でスキャンしつつ部分画像を切り取る。切り取った部分画像は、物体識別部104へ出力される。
ステップS203では、ステージ番号及びポーズ番号が初期設定される。ステージ番号は、上述の通り、識別ユニット111の番号(1〜T)に対応する。また、ポーズ番号は、上述の通り、各識別ユニット111に設けられる強識別器121の番号(1〜K)に対応する。こうして初期設定されることにより、識別ユニット111−1における強識別器121−11から、処理が開始される。
ステップS204で強識別器121−11は、推定値Hを算出する。
ステップS205で強識別器121−11は、ステップS204で算出した推定値Hと閾値とを比較する。
この比較の結果、算出した推定値Hが閾値以下の場合(ステップS205:NO)には、強識別器121−11は、ステップS206で識別ユニット111内の最終番号Kの強識別器121であるかを判定する。
最終番号Kでない場合(ステップS206:YES)には、ステップS207でポーズ番号を1つ増やされて、ステップS204で強識別器121−12の処理が開始される。
こうしてステップS204〜S207で構成されるループでは、任意の識別ユニット111において、その任意の識別ユニット111に設けられたK個の強識別器121の1つでも、算出した推定値Hが閾値より大きければ、次のステージに処理が進み(ステップS209)、算出した推定値Hが閾値より大きくならずに番号Kの強識別器121までの処理が完了した場合に「偽信号(False結果)」が出力され(ステップS208)、処理が終了する。
ステップS209でステージ番号が順次インクリメントされ、ステップS210で処理対象のステージ番号が実在するステージ番号Tを超えていなければ、ステップS211でポーズ番号が1に戻されることにより、次のステージのポーズ番号1の強識別器121から、再び処理が開始される(ステップS204)。ステップS204,S205,S209〜S211で構成されるループは、ステップS209で求められるステージ番号がTを超えるまで繰り替えされる。
そして、全てのステージで「偽」信号が出力されることなく、つまり、全てのステージで1つの強識別器121からでも「真」信号が出力されれば、物体識別部104は、「真信号(true結果)」を出力する(ステップS212)。
〈物体識別部104を獲得するための学習処理フロー〉
図13は、物体識別部104を獲得するための学習処理フロー図である。
本実施の形態において、基本学習手法として、Real−AdaBoostが採用される。すなわち、弱識別器を選ぶ基準である損失関数Lには、下記式(3)が用いられる。
Figure 0005707570

ただし、mはサンプル数であり、yは、i番目(i:1〜m、iはサンプル番号を示す)サンプルがポジティブサンプルの場合は“1”となり、ネガティブサンプルの場合は“−1”となる。また、Hkは、k番目ポーズの強識別器121で得られた推定値である。
また、各ステージにおける多クラスの識別器に関する学習方法は、「独自のMulti−Pose Learning」と呼ばれ、クラスはポーズ(pose)とも呼ばれる。
ステップS301では、ステージ番号t=1がセットされる。つまり、ステージ番号が初期化され、ステージ1から学習処理が開始される。
ステップS302では、先ず、所定数のネガティブサンプルが読み出される。具体的には、t=1の場合には、予め用意されているネガティブサンプルデータセットから所定数のネガティブサンプルが読み出され、これがステージ1のネガティブサンプルセットとして用いられる。一方、t>1の場合には、既に構築されているステージ(t−1)までの識別ユニット111を用いてネガティブサンプルセット中のサンプルが識別され、「真」と判定されたネガティブサンプル(つまり、誤認識されたネガティブサンプル)が所定数まで収集される。この収集されたネガティブサンプルが、ステージtの学習用ネガティブサンプルセットとして用いられる。
次に、ポジティブサンプルセットとネガティブサンプルセットとから、弱識別器131の候補となる全ての特徴が、抽出される。ここで弱識別器131の候補とは、特徴情報のことである。従って、一つの候補に対して、すべてのサンプルからの特徴量が計算される。
なお、上記(1−1)のように、特徴量がHoG特徴量で、特徴抽出領域が一つのブロックから構成されている場合には、一つの特徴情報(つまり、一つの”位置情報およびサイズ情報”)によって規定されるブロックが、候補になる。
また、上記(1−2)のように、特徴抽出領域が二つのブロックからなる場合には、二つのブロックの組み合わせが候補になる。この時、二つのブロックは、領域が重ならないように設定されても良い。また、二つのブロックについて位置及びサイズが全く同じになる場合には、その二つのブロックが候補から削除される等の条件が設けられても良い。
さらに、二つ以上のブロックの組み合わせの数が膨大になり、候補の数も膨大になる場合には、次の処理を行っても良い。すなわち、まず、一つのブロックを特徴抽出領域として予備的な学習を行い、この学習の結果から物体を識別するのに有望であったブロックを選別する。次に、これら選別したブロックに限定してブロックの組み合わせを設定する。これにより、特徴抽出領域の候補数を削減することができる。
ステップS303では、学習の初期化が行われる。具体的には、各サンプルの重みと各ポーズ推定値とが初期化される。サンプル数をm、ポーズ数をK、ステージ数をTとすると、t=1の時には、各サンプルの重みは、1/mとされ、各ポーズ推定値は、ゼロとされる。一方、t>1の時には、各サンプルの重みw と各ポーズ推定値H は、以下の式(4)で求められる。
Figure 0005707570
ステップS304では、弱識別器131の番号i=1が設定される。
ステップS305では、ポーズ番号k=1が設定される。
すなわち、ステップS301、S304及びステップS305の設定により、ステージ1のポーズ1に対応する1つ目の弱識別器131を、弱識別器候補群の中から選択する処理が開始される。
ステップS306では、ステージ1のポーズ1に対応する1番目の弱識別器131の候補が、弱識別器候補群の中から1つ選択される。この選択された弱識別器候補を用いて、全てのサンプルに対して推定値hが求められると共に、既に構築が完了しているポーズ(強識別器)で求められた推定値Hと足される。ここでは、ポーズ1に対する処理なので、弱識別器候補を用いて算出された推定値hが、ポーズ1の推定値Hとして求められる。この処理は、全ての弱識別器候補に関して行われる。
ステップS307では、ステップS306で全ての弱識別器候補について求められた推定値Hに基づいて、式(3)で損失関数が求められ、損失関数を最小にする推定値hが求められる弱識別器候補をステージ1のポーズ1に対応する1番目の弱識別器131に決定する。
ステップS308では、設定されているkがKであるか否か(つまり、現在の処理対象がポーズKに対する処理か否か)が判定される。ここでは、ポーズ1が処理対象であるので、ステップS309でkの設定値がインクリメントされる。これにより、ポーズ2に対するステップS306の処理が開始される。
ポーズ2に対するステップS306では、ステージ1のポーズ2に対応する1番目の弱識別器131の候補が、弱識別器候補群の中から1つ選択される。この選択された弱識別器候補を用いて、全てのサンプルに対して推定値hが求められると共に、ポーズ2の初期推定値と足される。この処理は、全ての弱識別器候補に関して行われる。
ポーズ2に対するステップS307では、仮の構築が完了しているポーズ1の強識別器131で求められた推定値H1と、ポーズ2に対するステップS306で全ての弱識別器候補について求められた推定値Hおよび他のポーズのHkに基づいて、式(3)で損失関数が求められ、損失関数を最小にする推定値Hが求められる弱識別器候補をステージ1のポーズ2に対応する1番目の弱識別器131に決定する。
こうして、ステップS306〜S309で構成されるループは、ポーズKの処理が完了するまで繰り返される。
こうして、ステージ1のポーズ1〜Kのそれぞれに対して、1番目の弱識別器131が仮決定される。ここで、同じ識別ユニットに属する強識別器間には、クラスの違いに拘わらず、同じポジティブ画像サンプル群が用いられている。
ステップS310では、ステージ1のポーズ1〜Kのそれぞれに対して、今回仮決定された1番目の弱識別器131が最適であるか否かが判断される。この最適であるか否かの判断では、例えば、前回仮決定した、ステージ1のポーズ1〜Kの1番目の弱識別器131の組み合わせと、今回仮決定した組み合わせとが一致するときに、最適であると判断される。
最適でない場合(ステップS310:NO)には、再度、ステップS305〜S309のループが繰り返される。このように、ステップS306〜S310のループによって、1つのステージのポーズ1〜Kの弱識別器131が、複数のポーズに跨った処理によって決定される。
一方、最適であると判定される場合(ステップS310:YES)には、そのステージ1のポーズ1〜KにおけるK個の1番目の弱識別器131のそれぞれに対する最適な閾値が決定される(ステップS311)。すなわち、そのステージ1のポーズ1〜KにおけるK個の1番目の弱識別器131に対して、最適な閾値の組み合わせが決定される。
具体的には、ステップS311では、ステージ1の全ての強識別器121における閾値のすべての組み合わせの中で、ステージ1に対して予め要求されているHit Rate精度を満たす組み合わせについて、誤識別率(False Positive Rate)を計算し、誤識別率が最小になる閾値の組み合わせを、最適な閾値の組み合わせとする。
詳細には、ステップS311における処理は、次のように説明することができる。図14は、閾値選択処理の説明に供する図である。図6では、説明を簡単にするために、ポーズが3つで、且つ、扱われる特徴量が2つの場合の特徴空間が、示されている。
ステップS310で最適な弱識別器の組み合わせが決定されることは、図14に示すように、各ポーズについての識別面の方向が決定されることと等価である。従って、ステップS311では、各ポーズの識別面を、移動量を変えつつ平行移動させることにより、要求されているHit Rate精度を満たし且つ誤識別率が最小となる移動量が、決定されている。この最適な移動量が、上記した最適なしきい値となる。
図13に戻り、ステップS312では、ステップS311で決定された最適な閾値の組み合わせに対して求めた誤識別率がチェックされ、予め規定された精度を満たしているか否かが判断される。
精度を満たす場合(ステップS312:YES)には、ステップS313で現在の処理対処のステージがステージTであるか否かが判定され、ここではステージ1なので、フローがステップS314へ進む。これにより、次のステージであるステージ2についての処理が開始される。このとき、現在のステージまでに設定された強識別器121を用いて、「真」であると誤検出されるネガティブサンプルが所定数だけ収集され、この収集されたネガティブサンプル群が、次のステージの学習処理に用いられる。
一方、精度を満たさない場合(ステップS312:NO)には、ステップS315でステージ1の強識別器121に第2の弱識別器131が追加される。さらに、ステップS316では、各サンプルの重みが更新される。
図15は、ステップS316における重み更新処理に係るフロー図である。この重み更新処理では、ポジティブサンプルとネガティブサンプルとが区別されて、ポジティブサンプルの重みとネガティブサンプルの重みとが、異なる方法で更新される。
まず、ステップS316における重み更新を式で表すと、例えば3ポースの場合、下記の式(5)で表される。
Figure 0005707570
次に、図15のフローを説明すると、ステップS401で処理対処サンプルが、サンプル番号j=1に設定される。
ステップS402では、番号1のサンプルがポジティブサンプルであるか否かが判定される。
ポジティブサンプルであると判定される場合(ステップS402:YES)には、ステップS403で番号1のサンプルの重みが、更新方法1によって更新される。ここでは、更新方法1には、上記した式(5−1)が用いられる。すなわち、ポーズ間での調整が行われる。一方、ネガティブサンプルであると判定される場合(ステップS402:NO)には、ステップS404で番号1のサンプルが、更新方法2によって更新される。ここでは、更新方法2には、上記した式(5−2)が用いられる。すなわち、ポーズごとの調整が行われる。
番号1のサンプルについて更新処理が終わると、処理対象サンプルの全てについて処理が完了したか否かについてステップS405で判定され、未だサンプルが残っている場合には、ステップS406で処理対象サンプルの番号が1つインクリメントされて、次のサンプル番号2のサンプルの処理に移行する。こうして、全てのサンプル(番号1〜m)について、重み更新処理が行われる。
以上のようにして、物体識別部104を獲得するための学習処理が実行される。
以上のように本実施の形態によれば、物体識別装置100において、複数の識別ユニット111が、検出処理対象画像に識別対象物体画像が含まれているか否かをそれぞれ事前判定し、判定部113が、全ての識別ユニットから「真」信号が出力される場合にのみ、検出処理対象画像に識別対象物体画像が含まれていると最終判定する。そして、各識別ユニット111は、並列に接続され且つそれぞれが複数のクラスの内の任意の組み合わせに対応する複数の強識別器121と、複数の強識別器121の内の1つでも検出処理対象画像に識別対象物体画像が含まれていると判定する場合に、「真」信号を出力するOR演算部122とを具備する。
こうすることで、各ステージ(つまり、各識別ユニット111)において、複数のクラスからなる組み合わせを勘案した事前判定処理を実行することができるので、物体識別精度を向上することができる。
なお、上記説明では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本発明の物体識別装置、物体識別方法、及び、物体識別装置の学習方法は、物体識別精度を向上するものとして有用である。
100 物体識別装置
101 画像取得部
102 画像サイズ調整部
103 画像スキャン部
104 物体識別部
105 識別結果出力部
111 識別ユニット
112 AND演算部
113 判定部
121 強識別器
122 OR演算部
131 弱識別器
132 結合部
133 閾値判定部

Claims (6)

  1. 処理対象である対象画像に含まれる所定の物体を識別する物体識別装置であって、
    前記所定の物体画像である物体画像前記対象画像に含まれているか否かを判定する複数の識別ユニットと、
    前記複数の識別ユニットから取得された判定結果の全てが「真」である場合に、前記対象画像に前記物体画像が含まれていると判定する最終判定部と、
    を具備し、
    前記識別ユニットは、
    前記所定の物体の複数のポーズのうち所定のポーズに其々対応し、並列に接続された複数の強識別器と、
    前記複数の強識別器のうち少なくとも1つの前記強識別器が前記対象画像に前記物体画像が含まれていると判定する場合に、「真」である旨を示す判定結果を出力するOR演算部と、
    を有する、
    物体識別装置。
  2. 前記複数の強識別器のそれぞれに、ブースティング(boosting)アルゴリズムによる学習によって得られた識別関数が設定され、
    前記ブースティングアルゴリズムでは、強識別器に適用される識別関数の算出時に、同じ識別ユニットに属する強識別器間には前記ポーズの違いに拘わらず同じポジティブサンプル画像群が用いられる、
    請求項1に記載の物体識別装置。
  3. 各強識別器は、
    少なくとも1つの弱識別器と、
    前記弱識別器によって算出された推定値を足し合わせる結合部と、
    前記足し合わされた推定値の合計と所定の閾値とを比較することにより、前記対象画像に前記物体画像が含まれているか否か判定する判定部と、
    を有する、
    請求項1に記載の物体識別装置。
  4. 象画像に含まれる所定の物体を識別する物体識別方法であって、
    前記所定の物体の画像である物体画像が記対象画像に含まれているか否かを判定する複数の識別ステップと、
    前記複数の識別ステップにおける判定結果全て「真」である場合に、前記対象画像に前記物体画像が含まれていると判定する最終判定ステップと、
    を具備し、
    前記識別ステップは、
    前記所定の物体の複数のポーズのうち所定のポーズに其々対応し、並列に接続された複数の強識別器が、前記対象画像に前記物体画像が含まれているか否かを判定
    前記複数の強識別器のうち少なくとも1つの前記強識別器が前記対象画像に前記物体画像が含まれていると判定する場合に、「真」である旨を示す判定結果を出力する、
    物体識別方法。
  5. 請求項1に記載の物体識別装置の学習方法であって、
    k番目の識別ユニットに属する強識別器を学習する学習ステップでは、
    1番目からk−1番目の識別ユニットについて既に構築された強識別器を用いて、ポジティブサンプルであると誤検出されるネガティブサンプルが所定数だけ収集され、
    前記収集されたネガティブサンプル群及びポジティブサンプル群を用いて、所定の学習検出率を満たし且つ最小の誤検出率となる強識別器候補の組み合わせが探索されると共に、当該探索された組み合わせの強識別器候補が、k番目の識別ユニットの強識別器として設定され、
    kは、1より大きくN以下の自然数であり、Nは、識別ユニットの数であって2以上の自然数である、
    学習方法
  6. 前記学習ステップには、アダブースト(AdaBoost)アルゴリズムが適用され、
    前記学習ステップでは、前記組み合わせの探索の前に、前記収集されたネガティブサンプル群及び前記ポジティブサンプル群に対応する重みが更新され、
    前記収集されたネガティブサンプル群に対応する重みの更新に適用される算出式と、前記ポジティブサンプル群に対応する重みの更新に適用される算出式とが、異なる、
    請求項5に記載の学習方法。
JP2010228728A 2010-03-16 2010-10-08 物体識別装置、物体識別方法、及び、物体識別装置の学習方法 Active JP5707570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010228728A JP5707570B2 (ja) 2010-03-16 2010-10-08 物体識別装置、物体識別方法、及び、物体識別装置の学習方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010059399 2010-03-16
JP2010059399 2010-03-16
JP2010228728A JP5707570B2 (ja) 2010-03-16 2010-10-08 物体識別装置、物体識別方法、及び、物体識別装置の学習方法

Publications (2)

Publication Number Publication Date
JP2011216069A JP2011216069A (ja) 2011-10-27
JP5707570B2 true JP5707570B2 (ja) 2015-04-30

Family

ID=44945689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010228728A Active JP5707570B2 (ja) 2010-03-16 2010-10-08 物体識別装置、物体識別方法、及び、物体識別装置の学習方法

Country Status (1)

Country Link
JP (1) JP5707570B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5879152B2 (ja) * 2012-02-24 2016-03-08 株式会社日立製作所 エレベータ到着時間推定装置、エレベータシステム
JP6151908B2 (ja) * 2012-11-14 2017-06-21 日本放送協会 学習装置、識別装置、およびそのプログラム
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
CN104636707B (zh) * 2013-11-07 2018-03-23 同方威视技术股份有限公司 自动检测香烟的方法
JP6224560B2 (ja) * 2014-09-12 2017-11-01 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 磁気共鳴装置およびプログラム
JP6632124B2 (ja) * 2015-12-10 2020-01-15 株式会社Screenホールディングス 画像分類方法および画像分類装置
CN113361588A (zh) * 2021-06-03 2021-09-07 北京文安智能技术股份有限公司 基于图像数据增强的图像训练集生成方法和模型训练方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4767595B2 (ja) * 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
JP2007080160A (ja) * 2005-09-16 2007-03-29 Konica Minolta Holdings Inc 特定物体判別装置、特定物体判別方法、及び特定物体判別装置の作成方法
CN100472556C (zh) * 2005-10-09 2009-03-25 欧姆龙株式会社 特定被摄体检测装置及方法
JP4997178B2 (ja) * 2008-06-10 2012-08-08 学校法人中部大学 物体検出装置
JP5376906B2 (ja) * 2008-11-11 2013-12-25 パナソニック株式会社 特徴量抽出装置、物体識別装置及び特徴量抽出方法
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法

Also Published As

Publication number Publication date
JP2011216069A (ja) 2011-10-27

Similar Documents

Publication Publication Date Title
JP5707570B2 (ja) 物体識別装置、物体識別方法、及び、物体識別装置の学習方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
TWI651662B (zh) 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體
JP6050223B2 (ja) 画像認識装置、画像認識方法、及び集積回路
JP6395481B2 (ja) 画像認識装置、方法及びプログラム
US8737740B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US20150054824A1 (en) Object detection method, object detection device, and image pickup device
US20070274584A1 (en) Method and System for Detection of Bone Fractures
US20040086161A1 (en) Automated detection of lung nodules from multi-slice CT image data
CN108537751B (zh) 一种基于径向基神经网络的甲状腺超声图像自动分割方法
US7643674B2 (en) Classification methods, classifier determination methods, classifiers, classifier determination devices, and articles of manufacture
US9501823B2 (en) Methods and systems for characterizing angle closure glaucoma for risk assessment or screening
US9349207B2 (en) Apparatus and method for parsing human body image
JP6166705B2 (ja) 対象識別装置
KR101449744B1 (ko) 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법
CN112364873A (zh) 弯曲文本图像的文字识别方法、装置及计算机设备
CN109003275A (zh) 焊缝缺陷图像的分割方法
JP2009211138A (ja) 対象領域抽出方法および装置ならびにプログラム
JP2007048006A (ja) 画像処理装置および画像処理プログラム
CN111815582A (zh) 改进背景先验和前景先验的二维码区域检测方法
JP5155250B2 (ja) 対象物検出装置
CN111476074A (zh) 基于毫米波图像的人体异物检测方法
Chen et al. Image segmentation based on mathematical morphological operator
CN111612749B (zh) 基于肺部影像的病灶检测方法和装置
CN116363583A (zh) 一种用于顶视角的人体识别方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141007

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20141023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150106

R151 Written notification of patent or utility model registration

Ref document number: 5707570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151