JP7341962B2 - 学習データ収集装置、学習装置、学習データ収集方法およびプログラム - Google Patents

学習データ収集装置、学習装置、学習データ収集方法およびプログラム Download PDF

Info

Publication number
JP7341962B2
JP7341962B2 JP2020143678A JP2020143678A JP7341962B2 JP 7341962 B2 JP7341962 B2 JP 7341962B2 JP 2020143678 A JP2020143678 A JP 2020143678A JP 2020143678 A JP2020143678 A JP 2020143678A JP 7341962 B2 JP7341962 B2 JP 7341962B2
Authority
JP
Japan
Prior art keywords
image
query
learning data
candidate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020143678A
Other languages
English (en)
Other versions
JP2022038941A (ja
Inventor
廣大 齊藤
智行 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020143678A priority Critical patent/JP7341962B2/ja
Priority to US17/249,359 priority patent/US11741153B2/en
Publication of JP2022038941A publication Critical patent/JP2022038941A/ja
Application granted granted Critical
Publication of JP7341962B2 publication Critical patent/JP7341962B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施形態は、学習データ収集装置、学習装置、学習データ収集方法およびプログラムに関する。
機械学習に基づいて画像から物体を検出する技術が提案されている。従来、そのような機械学習に用いられる学習データは、人力で検出対象の物体を含む画像を収集し、画像内の物体の領域を手作業で教示することによって作成され、高いコストを要する。
このようなコストを低減するために、例えば、一部のデータに対して人力で教示を行って学習を行い、その学習結果のモデルで推論することにより、最終的な学習データを得る手法が考えられる。
特開2020-35095号公報
しかしながら、従来の方法では、検出対象の物体を含む画像を事前に収集する必要があり、また依然として人力での教示を要し、認識結果を手作業で修正する必要もある。
本発明が解決しようとする課題は、物体検出モデルの学習に用いられる学習データを自動的に収集可能な技術を提供することにある。
一実施形態によれば、学習データ収集装置は、第1取得部と、第2取得部と、特定部と、学習データ出力部とを有する。第1取得部は、対象物体に関するクエリ画像およびクエリテキストを取得する。第2取得部は、上記クエリテキストを用いて上記対象物体の候補画像を取得する。特定部は、上記クエリ画像を用いて、上記候補画像からクエリ画像との類似度が閾値以上の領域を含む正例画像と、当該正例画像内の当該領域の位置とを特定する。学習データ出力部は、上記正例画像内の上記対象物体の位置を表す情報と、上記正例画像と、上記クエリテキストに基づく正解ラベルとを含む学習データを出力する。
図1は、第1の実施形態に係る学習データ収集装置の機能構成の一例を示すブロック図である。 図2は、図1に示した学習データ収集装置による処理全体の概要を示すフローチャートである。 図3は、図2に示した処理のうち、候補画像群の取得処理を示すフローチャートである。 図4は、図2に示した処理のうち、正例画像と負例画像の特定処理の前半部分を示すフローチャートである。 図5は、図2に示した処理のうち、正例画像と負例画像の特定処理の後半部分を示すフローチャートである。 図6は、分類処理において候補画像から物体領域の候補が抽出されるイメージを示す図である。 図7は、領域特定処理において候補画像から物体領域の候補が抽出されるイメージを示す図である。 図8は、物体領域が特定されるイメージを示す図である。 図9は、第2の実施形態に係る学習装置の機能構成の一例を示すブロック図である。 図10は、図9に示した学習装置による処理全体の概要を示すフローチャートである。 図11は、実施形態に係る学習データ収集装置および学習装置のハードウェア構成の一例を示すブロック図である。
以下、図面を参照しながら本実施の形態について詳細に説明する。
[第1の実施形態]
(1)構成
図1は、第1の実施形態に係る学習データ収集装置100の構成の一例を示す。
学習データ収集装置100は、物体検出モデルの学習に用いられる学習データを収集し出力する。学習データ収集装置100は、例えば、パーソナルコンピュータやサーバコンピュータ等のコンピュータであるが、これに限られない。
学習データ収集装置100は、クエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14および画像データベース15を備える。
クエリ取得部11は、第1の取得部として、例えば学習データ収集装置100のユーザにより入力されるデータに基づき、検出対象の物体(「対象物体」とも言う)を特定するための文字情報および画像情報を取得する。例えば対象物体が飲料メーカーの特定の商品である場合、クエリ取得部11によって、当該商品を示すロゴの画像と、メーカー名または商品名等のキーワードとが取得される。
クエリ取得部11は、クエリテキスト取得部111と、クエリ画像取得部112とを含み得る。クエリテキスト取得部111は、ユーザにより入力されるテキストデータとして、対象物体の検索クエリとなる文字情報(以下、「クエリテキスト」と言う)を取得する。クエリ画像取得部112は、ユーザにより入力される画像データとして、対象物体の検索クエリとなる画像情報(以下、「クエリ画像」と言う)を取得する。
クエリテキスト取得部111は、必ずしもテキストデータの入力を必要とするものではなく、クエリ画像取得部112によって取得されるクエリ画像から文字情報を抽出することによって、クエリテキストを取得してもよい。クエリテキスト取得部111は、例えば、クエリ画像から文字認識技術を用いて文字情報を抽出し得る。同様に、クエリテキスト取得部111は、ユーザにより入力された他の画像データまたは音声データから文字情報を抽出することによって、クエリテキストを取得してもよい。
画像データベース15は、例えば、あらかじめキーワードと画像とが対応付けられた画像検索データベースである。画像データベース15は、例えばWWW(World Wide Web)などからあらかじめ収集された画像を蓄積する。なお、ここでは、「画像」には静止画および動画の両方が含まれ得る。画像データベース15は、学習データ収集装置100の必須の構成ではなく、学習データ収集装置100内に設けられてもよいし、学習データ収集装置100からネットワークを介してアクセス可能なデータベースとして設けられてもよい。
候補画像取得部12は、第2の取得部として、クエリテキスト取得部111によって取得されたクエリテキストを用いて対象物体の候補画像を取得する。例えば、候補画像取得部12は、クエリテキストを検索クエリとして用いて、画像データベース15から当該クエリテキストに対応する画像を検索することによって、対象物体の候補画像として第1の候補画像群を取得する。実施形態では、候補画像取得部12は、さらに、対象物体を含まないと想定される画像の候補も取得する。一例として、候補画像取得部12は、取得されたクエリテキスト以外の任意のクエリを用いて画像データベース15から検索することによって、対象物体を含まないと想定される画像の候補としての第2の候補画像群を取得する。候補画像取得部12は、第1の候補画像群と第2の候補画像群の両方を特定部13に渡す。
特定部13は、クエリ画像取得部112によって取得されたクエリ画像を用いて、候補画像群から、学習データとして用いられ得る、クエリ画像との類似度が所定の閾値以上の領域を含む正例画像を特定する。特定部13はまた、正例画像内の上記領域の位置も特定する。実施形態では、特定部13はさらに、候補画像群から、クエリ画像との類似度が所定の閾値以上の領域を含まない負例画像も特定する。負例画像は、正例画像と組み合わせて学習データとして用いられ得る。特定部13は、分類部131と、領域特定部132とを含み得る。
分類部131は、候補画像取得部12によって取得された候補画像群を、クエリ画像との類似度に応じて正例候補画像と負例候補画像とに分類する。上述のように、候補画像取得部12によって取得される候補画像群は、対象物体を含む画像の候補としての第1の候補画像群と、対象物体を含まない画像の候補としての第2の候補画像群とを含む。これらの候補画像群は、画像データベース15から画像に対応付けられたキーワードをもとに検索されたものであるので、第1の候補画像群には、対象物体を含まない候補画像が含まれる可能性もあり、第2の候補画像群には、対象物体を含む候補画像が含まれる可能性もある。そこで分類部131は、クエリ画像との類似度に応じて候補画像群を分類する処理を行う。
実施形態によれば、分類部131は、まず、候補画像ごとに、何らかの物体が映っている領域(以下、「物体領域の候補」と言う)を抽出する。次いで分類部131は、抽出された物体領域の候補を画像から切り出し、クエリ画像との類似度を算出する。分類部131は、画像内に第1の閾値以上の類似度を有する領域が1つでもあれば、その画像を正例候補画像と分類し、画像内に第1の閾値以上の類似度を有する領域がなければ、その画像を負例候補画像と分類する。分類部131の動作についてはさらに後述する。
領域特定部132は、分類部131によって正例候補画像と分類された候補画像から、クエリ画像との類似度が所定の閾値以上の領域(以下、「物体領域」と言う)を含む画像を特定するとともに、当該画像内の物体領域の位置を特定する。領域特定部132は、例えば、まず正例候補画像から物体領域の候補を検出し、検出された物体領域の候補のうち、クエリ画像との類似度が第2の閾値以上の領域を物体領域と判定する。そして、領域特定部132は、正例候補画像のうち物体領域を含む画像を正例画像として、物体領域の位置情報とともに出力する。第2の閾値は、上記第1の閾値と同じ値でもよいし、異なる値でもよい。領域特定部132はまた、分類部131によって負例候補画像と分類された候補画像から、同様に物体領域の候補を検出し、クエリ画像との類似度が第3の閾値以上の領域を含まない画像を特定し、特定された画像を負例画像として出力することができる。第3の閾値は、第2の閾値以下の値に設定される。
実施形態では、領域特定部132は、検出部133と、識別部134とを含み得る。
検出部133は、学習済みの検出器を用いて、候補画像ごとに物体領域の候補を抽出する機能を有する。検出器は、例えばラベル付きの大量の学習データで事前に学習されたものである。ここで、実施形態に係る学習データ収集装置100が収集しようとする学習データの対象物体は、検出器の学習に使用された学習データには含まれないカテゴリである可能性がある。そこで、検出部133は、検出結果の評価値の閾値を下げるなどの調整を行って物体領域の候補を抽出するように構成される。これにより、検出対象の物体以外の物体も含む多数の領域が抽出される。
識別部134は、学習済みの識別器を用いて、抽出された物体領域の候補から、対象物体の領域(物体領域)を選別する機能を有する。識別部134は、検出部133により抽出された物体領域の候補を画像から切り出し、切り出した画像を学習済みの識別器に入力して得られる特徴ベクトルを用いる。識別器は、例えばラベル付きの大量の学習データで事前に学習されたものである。識別部134は、物体領域の候補から得られる特徴ベクトルと、クエリ画像から同様に得られる特徴ベクトルとの類似度を算出することによって、物体領域の候補が物体領域であるか否かを判定することができる。識別部134は、物体領域を含む画像を正例画像と特定し、正例画像内の物体領域の位置を、例えば座標情報として特定し、正例画像とともに出力する。
領域特定部132の動作についてもさらに後述する。
なお、分類部131と領域特定部132は、必ずしも別個の機能部として設けられる必要はない。後述するように、分類部131と領域特定部132の処理には類似の処理が含まれ得る。これは、この実施形態が、分類部131では多数の候補画像から処理速度を重視したアルゴリズムを用いて分類処理を行い、領域特定部132では分類処理によって絞り込まれた候補画像から精度を重視したアルゴリズムを用いて領域特定処理を行うという、2段階処理を採用するからである。しかし、これは単なる一例であり、分類部131と領域特定部132が同じアルゴリズムを用いて重複する処理を行ってもよいし、重複する処理のうちのいずれかを省略してもよい。
学習データ出力部14は、特定部13から出力される、特定された正例画像と、当該正例画像内の物体領域の位置情報とに対し、クエリテキストに基づいた正解ラベルを付与して、正例の学習データとして出力する。特定部13によって負例画像も特定される場合、学習データ出力部14は、負例画像に正解ラベルとは異なるラベルを付与して、負例データとして出力することができる。負例データについては位置情報は出力されない。学習データ出力部14によって出力される学習データは、少なくとも正例データを含み、さらに負例データを含み得る。
以上、概要を述べたとおり、第1の実施形態に係る学習データ収集装置100は、まず、少なくとも検出対象の物体(対象物体)を特定するためにユーザ等によって入力されるデータに基づき、クエリ画像およびクエリテキストを取得する。学習データ収集装置100は、対象物体を特定するために少なくともクエリ画像の入力を受け付ける必要があるが、入力されるクエリ画像の数は、学習データ収集装置100によって収集される学習データに比べて少数でよい。
次いで、学習データ収集装置100は、クエリテキストを検索クエリとして用いて、あらかじめキーワードと画像とが対応付けられた画像検索データベースから候補画像を抽出する。次に学習データ収集装置100は、クエリ画像を用いて、類似した領域を見つけることによって、候補画像から正例画像と負例画像とを特定する。ここで、正例画像については、さらに対象物体の領域を自動的に検出する。そして、学習データ収集装置100は、対象物体の領域に関する位置情報を含む正例画像と、負例画像とをもとに、正例データと負例データを含む学習データを出力する。
(2)動作
次に、以上のように構成された学習データ収集装置100による情報処理動作の一例を説明する。
(2-1)概要
図2は、学習データ収集装置100の処理全体の概要を示すフローチャートである。
まずステップS10において、学習データ収集装置100は、クエリ取得部11により、検出対象の物体を特定するためのクエリ画像およびクエリテキストを取得する。クエリ画像およびクエリテキストは、例えば学習データ収集装置100のユーザにより入力デバイス等を介して入力される、画像データとテキストデータの組合せに基づいて取得される。ステップS10では、検出対象の物体を特定するために少なくとも1つのクエリ画像が取得されればよく、複数の画像が取得されてもよい。クエリ取得部11によって取得されるクエリ画像の数は、一般に物体検出器の学習に用いられる画像の数に比べてはるかに少数でよい。
同様に、クエリテキストとして、検出対象の物体を表す少なくとも1つの語が取得されればよく、同義語や類義語を含む複数の語が取得されてもよい。クエリテキストは、ユーザによりキーボード等を介して入力されたテキストデータに基づいて取得されてもよいし、マイク等を介して入力された音声データに基づいて取得されてもよいし、外部メモリ等を介して入力された画像データに基づいて取得されてもよい。例えば、音声データからのテキストデータの抽出には、公知の音声認識技術や言語解析技術が使用され得る。同様に、画像データからのテキストデータの抽出には、例えばOCR(Optical Character Reader)などの公知の文字認識技術や、学習済みの物体検出器が使用され得る。クエリテキストは、クエリ画像から取得されてもよい。この場合、学習データ収集装置100は、少なくともユーザから検出対象の物体を特定するためのクエリ画像データの入力を受け付ける必要がある。
以下では、クエリ取得部11により、クエリ画像として「デスクトップ型パーソナルコンピュータ」(以下、単に「パソコン」と言う)の画像が取得されるものとする。この場合、クエリテキストは、例えば、「パソコン」、「デスクトップPC」、「コンピュータ」等であり得る。
ステップS20において、学習データ収集装置100は、候補画像取得部12により、クエリテキストを用いて画像データベース15から候補画像群を取得する。実施形態では、候補画像取得部12によって取得される候補画像群は、クエリテキストを用いて検索される第1の候補画像群と、クエリテキスト以外の任意のクエリを用いて検索される第2の候補画像群とを含む。ステップS20の詳細な処理についてはさらに後述する。候補画像取得部12は、取得した第1の候補画像群と第2の候補画像群の両方を特定部13に渡す。
ステップS30において、学習データ収集装置100は、特定部13により、クエリ画像を用いて、候補画像取得部12から受け取った候補画像群から正例画像と負例画像とを特定する。特定部13が候補画像取得部12から受け取る候補画像群は、上述したように、クエリテキストを用いて検索された第1の候補画像群と、クエリテキスト以外のクエリを用いて検索された第2の候補画像群とを含み得る。ただし、第1の候補画像群の画像は、必ずしもクエリテキストによって特定される物体を含むとは限らず、同様に、第2の候補画像群の画像は、必ずしもクエリテキストによって特定される物体を含まないとも限らない。そこで、特定部13は、クエリ画像との類似度が所定の閾値以上の領域(物体領域)を含むか否かによって、候補画像群から正例画像と負例画像とを特定する。特定部13はさらに、特定された正例画像については、物体領域の位置を特定し、正例画像内の当該物体領域の位置を表す情報、例えば座標情報を出力する。ステップS30の詳細な処理についてもさらに後述する。
最後に、ステップS40において、学習データ収集装置100は、学習データ出力部14により、特定された正例画像および負例画像に基づいて正例データと負例データとを含む学習データを生成し、出力する。正例データは、特定された正例画像と、当該正例画像内の物体領域の位置を表す情報と、クエリテキストに基づく正解ラベルとを含む。学習データ出力部14は、クエリ取得部11によって取得されたクエリテキストをそのまま正解ラベルとして使用し得る。負例データは、負例画像と、クエリテキストによって特定される物体を含まないことを示す任意のラベルとを含む。負例データに付されるラベルは、正解ラベルとは異なるものであれば任意に選択されてよい。学習データ出力部14から出力される学習データは、例えば、図示しない記憶部に記憶され、または出力装置を介してユーザに提示され、または通信装置を介して他の装置に送信され得る。
(2-2)候補画像群の取得
図3は、図2のステップS20に示した、候補画像取得部12による候補画像群の取得処理の詳細を示すフローチャートである。
ステップS201において、候補画像取得部12は、対象物体を含む画像の候補として、クエリテキストを用いて画像データベース15から画像を検索する。
ステップS202において、候補画像取得部12は、クエリテキストを用いて検索された画像群を第1の候補画像群とする。
次いでステップS203において、候補画像取得部12は、対象物体を含まない画像の候補として、クエリテキスト以外の任意のクエリを用いて画像データベース15から画像を検索する。候補画像取得部12は、例えば、ランダムに作成したキーワードや既存のデータからランダムに選んだ画像をクエリとしたときの出力結果を用いることができる。
ステップS204において、候補画像取得部12は、クエリテキスト以外のクエリを用いて検索された画像群を第2の候補画像群とする。
ステップS205において、候補画像取得部12は、第1の候補画像群および第2の候補画像群の両方を特定部13に出力する。第1の候補画像群と第2の候補画像群は、例えば検索に用いたキーワードなど、互いに識別可能な情報を付与されてもよい。
(2-3)正例画像と負例画像の特定
図4~図5は、図2のステップS30に示した、特定部13による正例画像と負例画像の特定処理の一例を示すフローチャートである。
一実施形態では、候補画像群からの正例画像と負例画像の特定処理は、分類部131による分類処理と、領域特定部132による領域特定処理とを含む。分類部131は、主に、クエリ画像との類似度に基づいて、候補画像群の画像を正例候補画像と負例候補画像に分類する処理を行う。領域特定部132は、正例候補画像から、クエリ画像との類似度が所定の閾値以上の領域を含む正例画像を特定し、さらに当該領域の位置情報を特定する。さらに領域特定部132は、負例候補画像から、クエリ画像との類似度が所定の閾値以上の領域を含まない負例画像を特定する。
以下の説明では、特定部13が異なるアルゴリズムを用いた2段階処理を採用する結果、分類処理と領域特定処理が、いずれも、候補画像から物体領域の候補を抽出し、物体領域の候補を画像から切り出してクエリ画像との類似度を算出するという、類似のステップを含む。ただしこれは一例にすぎず、ステップS30の特定処理が、必ずしも以下に示すような分類部131による処理と領域特定部132による処理とに区別される必要はない。また特定部13が2段階処理を採用する必要もなく、単一の処理で代替されてもよい。
(2-3-1)分類処理
図4は、図2のステップS30の処理のうち、分類部131による分類処理の一例を示すフローチャートである。
まずステップS301において、分類部131は、候補画像取得部12から候補画像群を取得する。分類部131が処理の対象とする候補画像群は、上述したように、クエリテキストを用いて検索された第1の候補画像群と、クエリテキスト以外のクエリを用いて検索された第2の候補画像群とを含み得る。分類部131は、処理対象の画像が第1の候補画像群のものか第2の候補画像群のものかを問わず、以下の処理を同様に行うことができる。
ステップS302において、分類部131は、候補画像ごとに物体領域の候補を抽出する。物体領域の候補の抽出は、任意の方法で行われてよいが、例えば、物体らしさ(Objectness)や顕著性(Saliency)に基づく技術(例えば、B. Alexe et al., “Measuring the Objectness of Image Windows”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 34 , Issue 11 , Nov. 2012参照)を用いて実施され得る。
図6は、Objectnessに基づいて画像から物体領域の候補が抽出されるイメージを示す。図6の左側の画像IM1は、例えば、候補画像取得部12によってクエリテキスト「パソコン」を用いて画像データベース15から検索された、部屋の中を撮影した画像である。画像IM1は、部屋の中に置かれたパソコン、窓、および椅子を含む。図6の右側に示されるように、ステップS302では、パソコン、窓、および椅子の位置に、物体らしさの高い領域OB01~OB03が検出される。画像IM1は、撮影画像に限らず、イラストや絵画等であってもよい。
ステップS303において、分類部131は、抽出された物体領域の候補を画像から切り出し、切り出した画像領域とクエリ画像との類似度を算出する。類似度の算出は、例えば、輝度値や、あらかじめ別の学習データで学習した物体認識用の深層学習モデルの出力を特徴量として、ユークリッド距離やコサイン類似度を計算することによって実施される。
ステップS304において、分類部131は、候補画像から切り出された全領域についてクエリ画像との類似度の算出が終了したか否か判定する。全領域について類似度の算出が終了するまでステップS303を繰り返し、終了したらステップS305に進む。
ステップS305において、分類部131は、候補画像について、あらかじめ設定された第1の閾値T以上の類似度を有する領域があるか否かを判定する。クエリ画像との類似度が第1の閾値T以上の領域が少なくとも1つある場合(YES)、ステップS306に移行し、クエリ画像との類似度が第1の閾値T以上の領域がない場合(NO)、ステップS307に移行する。
ステップS306では、分類部131は、当該画像を、検出対象の物体が含まれる可能性が高い正例候補画像として領域特定部132に出力する(A)。
一方、ステップS307では、分類部131は、当該画像を、検出対象の物体が含まれない可能性が高い負例候補画像として領域特定部132に出力する(B)。
分類部131は、上記の分類処理を、候補画像取得部12から受け取った全候補画像に対して行うことができる。分類部131は、ステップS305~S307に示すように、あらかじめ設定された単一の閾値Tとの比較によって、クエリ画像との類似度が閾値T以上の領域の有無に応じて正例候補画像と負例候補画像とに分類する。しかしこれは一例にすぎず、分類処理において複数の閾値が用いられてもよい。例えば、ステップS305で、第1の候補画像群については閾値TA1との比較を行い、第2の候補画像群については閾値TA2との比較を行うようにしてもよい(TA1≠TA2)。
(2-3-2)領域特定処理
図5は、正例画像と負例画像の特定処理のうち、領域特定部132による領域特定処理の一例を示すフローチャートである。
領域特定部132は、正例候補画像について、物体領域の候補を抽出し、検出対象の物体に対応する物体領域を選別し、最終的な正例画像を特定する処理を行う(ステップS351~S357)。領域特定部132は、負例候補画像についても同様に、物体領域の候補を抽出し、最終的な負例画像を特定する処理を行う(ステップS361~S367)。
(2-3-2-1)正例画像の特定
まずステップS351において、領域特定部132は、分類部131から正例候補画像を取得する。
ステップS352において、領域特定部132は、検出部133により、正例候補画像ごとに物体領域の候補を抽出する。これは、例えば、ラベル付きの大量の学習データで事前に学習した検出器を用いることによって実現される(例えば、上述したW. Liu et al. “SSD: Single Shot MultiBox Detector”, ECCV 2016参照)。
図7は、図6の左側に示したのと同様の画像IM1から、物体領域の候補が抽出されるイメージを示す。図7では、物体領域の候補として6つの領域BB1~BB6が抽出されている。このように、ステップS352では、検出対象であるパソコン以外の物体も含む物体領域の候補が抽出される。ここでは、検出対象の物体として、上記検出器の学習に用いられた学習データには含まれないカテゴリの物体を想定しているので、検出部133は、検出結果の評価値の閾値を下げることによって物体領域の候補を出力する。閾値を下げたことから検出対象以外の領域を含む多数の領域が出力されるので、領域特定部132は、次に、上記の物体領域の候補から、検出対象である物体の領域を選別する。
ステップS353において、領域特定部132は、識別部134により、抽出された物体領域の候補の画像を切り出して、切り出した画像の特徴ベクトルを得る。これは、例えば、ラベル付きの大量の学習データで事前に学習した識別器の出力を用いることによって実現される(例えば、上述したA. Krizhevsky et al., “ImageNet Classification with Deep Convolutional Neural Networks”, NIPS 2012参照)。
ステップS354において、領域特定部132は、候補画像から切り出された全領域について特徴ベクトルの算出処理を終了したか否か判定する。全領域について特徴ベクトルの算出が終了するまでステップS353を繰り返し、終了したらステップS355に進む。
ステップS355において、領域特定部132は、識別部134により、正例候補画像について、クエリ画像から同様に得られる特徴ベクトルとの類似度があらかじめ設定された第2の閾値T以上の領域(物体領域)があるか否かを判定する。第2の閾値Tは、分類処理で用いた第1の閾値Tと同じ値であってもよいし異なる値でもよい。物体領域が少なくとも1つあれば(YES)、ステップS356に移行し、物体領域がなければ(NO)、ステップS357に移行する。
ステップS356において、領域特定部132は、当該画像を正例画像として学習データ出力部14に出力する。このとき、領域特定部132は、画像内の物体領域の位置情報を算出し、位置情報も出力する。
図8は、領域特定部132から出力される正例画像IM1のイメージを示す。正例画像IM1は、検出対象の物体であるパソコンTGを含み、パソコンTGの位置情報が矩形領域BB1として示されている。領域特定部132によって、特定された正例画像とともに、正例画像内の矩形領域BB1の位置を表す情報、例えば、矩形領域BB1の各頂点の座標や、矩形領域BB1の中心座標と幅および高さの情報などが出力される。
一方、ステップS355において正例候補画像内に類似度が閾値T以上の領域が1つもないと判定された場合、ステップS357において、領域特定部132は、当該画像を学習データに適した画像ではないと判定し、破棄する。
(2-3-2-2)負例画像の特定
領域特定部132は、負例画像についても、正例画像の特定と同様の処理を行う。
まずステップS361において、領域特定部132は、分類部131から、検出対象の物体が含まれる可能性が低いと判定された負例候補画像を取得する。
ステップS362において、領域特定部132は、ステップS352と同様に、検出部133により、負例候補画像ごとに物体領域の候補を抽出する。物体領域の候補の抽出は、やはり、学習済みの検出器を用いて実施することができる(例えば、上述したW. Liu et al. “SSD: Single Shot MultiBox Detector”, ECCV 2016参照)。
次いでステップS363において、領域特定部132は、ステップS353と同様に、識別部134により、抽出された物体領域の候補の画像を切り出して、切り出した画像の特徴ベクトルを得る。特徴ベクトルの取得には、やはり、学習済みの識別器の出力を用いることができる(例えば、上述したA. Krizhevsky et al., “ImageNet Classification with Deep Convolutional Neural Networks”, NIPS 2012参照)。
ステップS364において、領域特定部132は、ステップS354と同様に、候補画像から切り出された全領域について特徴ベクトルの算出処理を終了したか否かを判定する。全領域について特徴ベクトルの算出が終了するまでステップS363を繰り返し、終了したらステップS365に進む。
ステップS365において、領域特定部132は、識別部134により、負例候補画像について、クエリ画像から同様に得られる特徴ベクトルとの類似度がすべての領域についてあらかじめ設定された第3の閾値T以下であるか否かを判定する。第3の閾値Tは、第2の閾値T以下の値である。すべての物体領域の候補についてクエリ画像との類似度が閾値T以下であれば(YES)、ステップS366に移行し、類似度が閾値T以下でない領域が1つでもあれば(NO)、ステップS367に移行する。
ステップS366において、領域特定部132は、当該画像を負例画像として学習データ出力部14に出力する。このとき、領域特定部132は、負例画像については物体領域の位置情報は出力しない。
一方、ステップS365において負例候補画像内に類似度が閾値Tを超える領域が少なくとも1つあると判定された場合、ステップS367において、領域特定部132は、当該画像を学習データに適した画像ではないと判定し、破棄する。
上述したように、特定部13によって特定された正例画像および負例画像は、正例画像内の物体領域の位置情報とともに、学習データ出力部14に渡される。そして、図2のステップS40において、学習データ収集装置100は、学習データ出力部14により、特定された正例画像および正例画像内の物体領域の位置情報と、クエリテキストに基づく正解ラベルとに基づいて、正例データを生成する。また同様に、学習データ収集装置100は、学習データ出力部14により、特定された負例画像と、任意のラベルとに基づいて、負例データを生成する。学習データ出力部14は、正例データと負例データとを含む学習データを任意のタイミングで任意の出力先に出力し得る。学習データ出力部14は、正例データのみを学習データとして出力してもよい。
(3)効果
以上詳述したように、第1の実施形態に係る学習データ収集装置100は、検出対象の物体に関するクエリ画像およびクエリテキストを取得し、クエリテキストを用いて検出対象の物体の候補画像を取得し、取得された候補画像からクエリ画像を用いて、クエリ画像との類似度が所定の閾値以上の領域を含む正例画像を特定するとともに、正例画像内の当該領域の位置を特定し、正例画像内の当該領域の位置を表す情報と、正例画像と、クエリテキストに基づく正解ラベルとを含む学習データを出力する。
このように、学習データ収集装置100は、ユーザ等によって検出対象の物体を特定するために入力されたクエリ画像および関連するクエリテキストをもとに、自動的に学習データを収集し出力することができる。学習データは、正例画像と、正例画像内の当該領域の位置情報と、正解ラベルとを含むので、物体検出モデルの学習に用いられることができる。これにより、学習データの収集に必要な事前の画像収集やラベル付けなどの教示作業の手間を大きく軽減することができる。
さらに、学習データ収集装置100は、候補画像として、クエリテキストを用いて検索を行うことによって第1の候補画像を取得し、クエリテキスト以外のクエリを用いて検索を行うことによって第2の候補画像を取得することもできる。これにより、正例画像の候補だけに偏ることなく、負例画像の候補も適切に収集することができる。さらに学習データ収集装置100は、これら第1および第2の候補画像の両方から、クエリ画像との類似度に応じて、検出対象の物体の正例画像と、検出対象の物体の負例画像とを特定し、正例画像と負例画像の両方を学習データに含めることもできる。これにより、学習データ収集装置100は、正例データのみならず負例データも含む学習データを自動的に収集し出力することができる。
また、学習データ収集装置100は、正例画像と負例画像との特定のために、分類処理と領域特定処理の2段階の処理を行うこともできる。例えば、分類処理にはより高速な検出アルゴリズムを用い、領域特定処理にはより高精度の識別が可能なアルゴリズムを用いることができる。これにより、処理速度と処理負荷の最適なバランスを保ちつつ、精度良く学習データの収集を行うことができる。
さらに、学習データとしては照明条件や撮影角度などの変動を有する画像を含むことが望ましいため、学習データ収集装置100は、閾値を適切に設けることによって、このような変動を有するデータの抽出と、検出対象以外のデータが誤って含まれることのトレードオフを制御することもできる。
[第2の実施形態]
第2の実施形態は、上述した学習データ収集装置100によって収集される学習データを用いて物体検出器(「物体検出モデル」とも言う)の学習を行う学習装置に関する。
(1)構成
図9は、第2の実施形態に係る学習装置1000の構成の一例を示す。
学習装置1000は、クエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14、画像データベース15および学習部16を備える。図9に示した学習装置1000の構成のうち、クエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14、および画像データベース15は、図1に関して説明した学習データ収集装置100のクエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14、および画像データベース15と同じ構成を採用できるので、詳細な説明は省略する。
学習部16は、学習データ出力部14から出力される学習データを用いて、教師付き学習により、物体検出器を学習する。学習部16は、例えば、学習データ出力部14から学習データを受け取るたびに、図示しない記憶部に記憶された物体検出器を読み出し、所定の学習処理後、物体検出器の更新されたパラメータを出力することができる。
(2)動作
図10は、図9に示した学習装置1000の処理全体の概要を示すフローチャートである。図10に示すステップS10~S40は、図2に示したステップS10~S40と同様の処理を採用できるので、詳細な説明は省略する。
図10のステップS50において、学習装置1000は、学習部16により、学習データ出力部14によって出力される学習データを用いて、物体検出器の学習を行う。学習部16は、例えば、画像の入力に対し、画像内の対象物体の位置情報と正解ラベルとを出力するように、検出器の学習を行うことができる。学習部16によって学習される物体検出器は、検出部133によって使用される検出器の一例として説明したものを採用し得る(上述したW. Liu et al. “SSD: Single Shot MultiBox Detector”, ECCV 2016参照)。
学習部16による学習のタイミングは、任意に設定されてよい。例えば、学習部16は、クエリ取得部11がユーザからのクエリの入力を受け付け、学習データ出力部14から学習データが出力されるたびに学習を行ってもよいし、学習データ出力部14から出力される学習データが一定量蓄積されるごとに、または一定期間ごとに学習を行ってもよい。
学習部16による学習処理の後、学習装置1000は、学習済みの検出器の各パラメータを、記憶部に格納し、またはディスプレイ等を通じてユーザに提示し、または通信装置等を介して他の装置に出力することができる。
(3)効果
このように、第2の実施形態に係る学習装置1000は、クエリ取得部11、候補画像取得部12、特定部13および学習データ出力部14を備えることにより、学習データを自動的に収集できるようになることに加え、学習データ出力部14から直接出力される学習データを使用して学習を行う学習部16を備えるので、学習データの追加または修正や、他の検出方法との比較実験が容易になるという利点がある。
学習装置1000のユーザが検出対象の物体を特定する少数のクエリ画像とクエリテキストを入力すれば、自動的に、当該物体の検出器を学習するための学習データの収集と学習処理とが実施されるので、ユーザの利便性が大きく向上する。
[ハードウェア構成例]
以上で説明した第1の実施形態に係る学習データ収集装置100および第2の実施形態に係る学習装置1000は、ハードウェアとソフトウェアであるプログラムとの協働によって実現され得る。
図11は、学習データ収集装置100および学習装置1000が採用し得るハードウェア構成の一例を示す。学習データ収集装置100および学習装置1000は同じハードウェア構成を採用し得る。
学習データ収集装置100または学習装置1000は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、補助記憶装置104、通信装置105、入力装置106、および出力装置107を備えており、これらがバス110を介して互いに接続される。
CPU101は、学習データ収集装置100または学習装置1000の全体的な動作を制御するプロセッサである。学習データ収集装置100の場合、CPU101は、ROM103または補助記憶装置104に記憶されたプログラムをRAM102に展開し、このプログラムを実行することにより、上述したクエリ取得部11、候補画像取得部12、特定部13、および学習データ出力部14として機能し得る。同様に、学習装置1000の場合、CPU101は、プログラムを実行することにより、クエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14および学習部16として機能し得る。
CPU101は、複数のプロセッサを含んでもよい。CPU101は、ASIC(Application Specific Integrated Circuit)やFPGA(field-programmable gate array)などの集積回路を含む、他の多様な形式で実現されてもよい。上記のクエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14または学習部16は、それぞれ専用回路を用いることで実現されてもよい。
補助記憶装置104は、例えば、HDD(Hard Disk Drive)またはSDD(Solid State Drive)であり得る。補助記憶装置104は、CPU101により実行されるプログラムや必要なデータなどを記憶する。補助記憶装置104は、上述した画像データベース15を記憶し得る。
通信装置105は、外部装置と通信するための装置であり、例えば無線または有線LAN(Local Area Network)通信のためのインタフェースを備える。通信装置105は、インターネットなどのネットワークを介して外部の装置と通信可能である。通信装置105はまた、USB(Universal Serial Bus)ポートやメモリカードスロットなど、外部装置と接続するためのインタフェースを含んでもよい。
入力装置106は、例えば、キーボード、マウス、タッチスクリーン、マイク、カメラ等であり、学習データ収集装置100または学習装置1000のユーザからのクエリテキストおよびクエリ画像の入力を受け付ける。入力装置106はまた、ユーザからの学習データ収集装置100または学習装置1000に対する操作も受け付けることができる。入力装置106は、入力された情報をCPU101に出力する。学習データ収集装置100または学習装置1000は、通信装置105を介してクエリテキストおよびクエリ画像を取得してもよい。
出力装置107は、例えば、ディスプレイ、スピーカ等であり、CPU101から受け取った出力情報をユーザに提示する。出力装置107は、学習データ出力部14から出力されるデータや、学習部16によって出力される学習済みの物体検出器のパラメータなどを、ユーザに提示し、または他のデバイスに出力することができる。学習データ収集装置100または学習装置1000から出力される種々のデータは、通信装置105を介して他の装置に送信されてもよい。
[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。
例えば、学習データ収集装置100または学習装置1000において、特定部13により候補画像から検出対象の領域(物体領域)を見出す処理には、上述したように、画像の物体らしさ(Objectness)や顕著性(Saliency)に基づく技術を用いることもできるし、あらかじめ収集された検出対象の物体に関する少数の画像をクエリ入力とするテンプレートマッチングなどを用いることもできる。
分類部131により用いられる閾値Tと、領域特定部132により用いられる閾値Tおよび閾値Tは、任意に設定されてよい。閾値Tの値を調整することによって、最終的に得られる学習データにおける正例データと負例データの比率を変化させることができる。また、閾値Tをより大きい値に設定すれば、正例候補画像と判定される基準がより厳しくなり、正例候補画像として分類される候補画像の数が減少する。これにより、領域特定部132による正例画像の特定処理の負荷が軽減される。この場合、正例画像の特定に用いられる閾値Tをより大きい値に設定して、正例画像の特定精度を向上させることもでき、反対に閾値Tをより小さい値に設定して、正例画像の取りこぼしを防ぐこともできる。
また、分類部131は、単一の閾値Tを用いて候補画像群を正例候補画像と負例候補画像の2つに分類するものとして説明したが、3以上の分類に分類してもよい。例えば、分類部131は、単一の閾値Tの代わりに2つの閾値T,T(T>T)を用いて候補画像を3グループに分類してもよい。一例として、図4のステップS305において、類似度がT以上の領域を1つでも含む画像は正例候補画像とし、類似度がT以上の領域を1つも含まない画像は負例候補画像とし、どちらにも当てはまらない(類似度T以上の領域は有しないが、類似度T以上の領域を有する)画像は破棄するようにしてもよい。これにより、後続の領域特定部132による処理負荷を軽減しつつ、判定精度を高めることができる。
あるいは、図4のステップS302において分類部131により画像内の物体領域の候補の位置情報が得られている場合、ステップS306において、その位置情報を正例候補画像とともに出力するようにしてもよい。この場合、さらに、領域特定部132の処理を省略し、ステップS306およびS307で得られる正例候補画像および負例候補画像をそのまま正例画像および負例画像として学習データ出力部14に出力してもよい。同様に、分類部131の処理を省略し、候補画像取得部12によって取得された第1の候補画像群を図5のステップS351に入力し、候補画像取得部12によって取得された第2の候補画像群を図5のステップS361に入力して、それぞれ正例画像と負例画像の特定処理を行ってもよい。
画像データベース15は、学習データ収集装置100に内蔵される必要はなく、学習データ収集装置100が通信装置105等を介してアクセス可能な外部のサーバに設けられてもよい。同様に、学習データ収集装置100が備えるクエリ取得部11、候補画像取得部12、特定部13、学習データ出力部14、および学習部16を複数の装置に分散配置し、これらの装置が互いに連携することにより処理を行うようにしてもよい。
第2の実施形態に係る学習装置1000が、第1の実施形態に係る学習データ収集装置100の構成を包含するものとして説明するが、これに限定されない。第2の実施形態に係る学習装置は、第1の実施形態に係る学習データ収集装置100とは別個の装置として実現されてもよい。
さらに、以上で説明した各処理の流れは、説明した手順に限定されるものではなく、いくつかのステップの順序が入れ替えられてもよいし、いくつかのステップが同時並行で実施されてもよい。例えば、複数のプロセッサを用いて、図5に示したAの正例候補画像に対する処理と、Bの負例候補画像に対する処理を並列に実行させてもよい。これにより、処理の高速化を図ることができる。同様に、図5のAの処理とBの処理を別個の装置に実行させて、処理分散を図ることも可能である。
以上で記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウェア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体(記憶媒体)に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブル、データ構造も含む)を計算機内に構成させる設定プログラムをも含む。上記装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスク、半導体メモリ等の記憶媒体を含むものである。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…学習データ収集装置、11…クエリ取得部、111…クエリテキスト取得部、112…クエリ画像取得部、12…候補画像取得部、13…特定部、131…分類部、132…領域特定部、133…検出部、134…識別部、14…学習データ出力部、15…画像データベース、1000…学習装置、16…学習部。

Claims (8)

  1. 対象物体に関するクエリ画像およびクエリテキストを取得する第1取得部と、
    前記クエリテキストを用いて前記対象物体の候補画像を取得する第2取得部と、
    前記クエリ画像を用いて、前記候補画像から前記クエリ画像との類似度が閾値以上の領域を含む正例画像と、当該正例画像内の前記領域の位置とを特定する特定部と、
    前記正例画像内の前記領域の位置を表す情報と、前記正例画像と、前記クエリテキストに基づく正解ラベルとを含む学習データを出力する、学習データ出力部と、
    を備える学習データ収集装置。
  2. 前記候補画像は、第1の候補画像と第2の候補画像とを含み、
    前記第2取得部は、画像群を蓄積するデータベースから、前記クエリテキストを用いて検索を行うことによって前記第1の候補画像を取得し、前記クエリテキスト以外のクエリを用いて検索を行うことによって前記第2の候補画像を取得する、
    請求項1に記載の学習データ収集装置。
  3. 前記特定部は、前記候補画像から前記クエリ画像との類似度が閾値以上の領域を含まない負例画像をさらに特定し、
    前記学習データ出力部は、前記負例画像と、前記正解ラベルとは異なるラベルとを含む負例データをさらに出力する、
    請求項2に記載の学習データ収集装置。
  4. 前記特定部は、
    前記候補画像を前記クエリ画像との類似度に応じて正例候補画像と負例候補画像とに分類する分類部と、
    前記正例候補画像から、前記クエリ画像との類似度が閾値以上の領域を含む画像を前記正例画像として特定するとともに、当該正例画像内の前記領域の位置を特定し、前記負例候補画像から、前記クエリ画像との類似度が閾値以上の領域を含まない画像を前記負例画像として特定する、領域特定部と
    を備える、請求項3に記載の学習データ収集装置。
  5. 前記第1取得部は、入力された文字、画像、音声、または前記クエリ画像のうちの少なくとも1つに基づいて前記クエリテキストを取得する、請求項1乃至4のいずれか一項に記載の学習データ収集装置。
  6. 対象物体に関するクエリ画像およびクエリテキストを取得する第1取得部と、
    前記クエリテキストを用いて前記対象物体の候補画像を取得する第2取得部と、
    前記クエリ画像を用いて、前記候補画像から前記クエリ画像との類似度が閾値以上の領域を含む正例画像と、当該正例画像内の前記領域の位置とを特定する特定部と、
    前記正例画像内の前記領域の位置を表す情報と、前記正例画像と、前記クエリテキストに基づく正解ラベルとを含む学習データを出力する、学習データ出力部と、
    前記学習データ出力部から出力される学習データを用いて、入力された画像から前記対象物体の位置を表す情報と前記正解ラベルとを出力する物体検出モデルの学習をする学習部と
    を備える学習装置。
  7. 対象物体に関するクエリ画像およびクエリテキストを取得することと、
    前記クエリテキストを用いて前記対象物体の候補画像を取得することと、
    前記クエリ画像を用いて、前記候補画像から前記クエリ画像との類似度が閾値以上の領域を含む正例画像と、当該正例画像内の前記領域の位置とを特定することと、
    前記正例画像内の前記領域の位置を表す情報と、前記正例画像と、前記クエリテキストに基づく正解ラベルとを含む学習データを出力することと、
    を備える学習データ収集方法。
  8. 請求項1乃至6のいずれか一項に記載の装置の各部による処理をコンピュータに実行させるプログラム。
JP2020143678A 2020-08-27 2020-08-27 学習データ収集装置、学習装置、学習データ収集方法およびプログラム Active JP7341962B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020143678A JP7341962B2 (ja) 2020-08-27 2020-08-27 学習データ収集装置、学習装置、学習データ収集方法およびプログラム
US17/249,359 US11741153B2 (en) 2020-08-27 2021-02-26 Training data acquisition apparatus, training apparatus, and training data acquiring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143678A JP7341962B2 (ja) 2020-08-27 2020-08-27 学習データ収集装置、学習装置、学習データ収集方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022038941A JP2022038941A (ja) 2022-03-10
JP7341962B2 true JP7341962B2 (ja) 2023-09-11

Family

ID=80358583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143678A Active JP7341962B2 (ja) 2020-08-27 2020-08-27 学習データ収集装置、学習装置、学習データ収集方法およびプログラム

Country Status (2)

Country Link
US (1) US11741153B2 (ja)
JP (1) JP7341962B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118038303A (zh) * 2022-11-02 2024-05-14 腾讯科技(深圳)有限公司 身份识别图像处理方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092413A (ja) 2008-10-10 2010-04-22 Ricoh Co Ltd 画像分類学習装置、画像分類学習方法、および画像分類学習システム
JP2019200496A (ja) 2018-05-14 2019-11-21 富士通株式会社 データ収集方法、データ収集プログラムおよび情報処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8478052B1 (en) * 2009-07-17 2013-07-02 Google Inc. Image classification
JP2013025398A (ja) 2011-07-15 2013-02-04 Tokyo Institute Of Technology 識別器生成装置、方法及びプログラム、並びにクラス認識器、方法及びプログラム
US20130212094A1 (en) * 2011-08-19 2013-08-15 Qualcomm Incorporated Visual signatures for indoor positioning
JP7195085B2 (ja) 2018-08-28 2022-12-23 オリンパス株式会社 アノテーション装置およびアノテーション方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092413A (ja) 2008-10-10 2010-04-22 Ricoh Co Ltd 画像分類学習装置、画像分類学習方法、および画像分類学習システム
JP2019200496A (ja) 2018-05-14 2019-11-21 富士通株式会社 データ収集方法、データ収集プログラムおよび情報処理装置

Also Published As

Publication number Publication date
JP2022038941A (ja) 2022-03-10
US20220067081A1 (en) 2022-03-03
US11741153B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
US11816888B2 (en) Accurate tag relevance prediction for image search
WO2020221298A1 (zh) 文本检测模型训练方法、文本区域、内容确定方法和装置
WO2019158015A1 (zh) 样本获取方法、目标检测模型生成方法、目标检测方法
JP6397986B2 (ja) 画像オブジェクト領域の認識方法及び装置
CN107209860B (zh) 用于处理弱监督图像的方法、系统和计算机存储介质
CN107833213B (zh) 一种基于伪真值自适应法的弱监督物体检测方法
US8649602B2 (en) Systems and methods for tagging photos
US10002290B2 (en) Learning device and learning method for object detection
JP5202148B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
WO2019200782A1 (zh) 样本数据分类方法、模型训练方法、电子设备及存储介质
JP2016529611A (ja) 画像を検索するための方法およびシステム
US11126827B2 (en) Method and system for image identification
KR101780676B1 (ko) 트레이닝 이미지를 이용하여 분류 트리를 구성함으로써 rejector를 학습하고 상기 rejector를 이용하여 테스트 이미지 상의 객체를 검출하는 방법
US20120287304A1 (en) Image recognition system
US20190205589A1 (en) Latent fingerprint ridge flow map improvement
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
CN113963303A (zh) 图像处理方法、视频识别方法、装置、设备及存储介质
US10755074B2 (en) Latent fingerprint pattern estimation
JP7341962B2 (ja) 学習データ収集装置、学習装置、学習データ収集方法およびプログラム
JP2012022419A (ja) 学習データ作成装置、学習データ作成方法及びプログラム
US11507780B2 (en) Image analysis device, image analysis method, and image analysis program
CN106557523B (zh) 代表性图像选择方法和设备以及对象图像检索方法和设备
CN112241470A (zh) 一种视频分类方法及系统
WO2020232697A1 (zh) 一种在线人脸聚类的方法及系统
Yang et al. Common action discovery and localization in unconstrained videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R151 Written notification of patent or utility model registration

Ref document number: 7341962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151