JP6787831B2 - 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 - Google Patents
検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 Download PDFInfo
- Publication number
- JP6787831B2 JP6787831B2 JP2017069170A JP2017069170A JP6787831B2 JP 6787831 B2 JP6787831 B2 JP 6787831B2 JP 2017069170 A JP2017069170 A JP 2017069170A JP 2017069170 A JP2017069170 A JP 2017069170A JP 6787831 B2 JP6787831 B2 JP 6787831B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- detection
- image
- search
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
当該検出対象に係る情報を検索キーとして実施された検索の結果としての複数の対象データと、当該対象データの検索順位とを含む検索結果情報を取得する検索結果取得手段と、
取得された複数の対象データを、類似の度合いに基づいて複数のクラスに分類するクラスタリング手段と、
当該対象データと該対象データの属するクラスとを前記対象検出器に入力し、該対象検出器を学習させる検出器学習手段と、
当該クラス毎に、前記対象検出器の出力に対する重みであって、当該クラスに属する対象データの検索順位の和について単調減少関数となる重みを決定する重み決定手段と
を有する対象検出装置が提供される。
また、この本発明による対象検出装置の一実施形態として、重み決定手段は、当該クラスに属する対象データの数について単調増加関数となる重みを決定することも好ましい。
図1は、本発明による対象検出装置の一実施形態における機能構成を示す機能ブロック図である。
(A)検出対象(犬)に係る文字列(例えば「犬」)等の情報を検索キー(例えば検索ワード)として実施された検索の結果としての複数の対象データ(画像データ)を含む「検索結果情報」を取得する検索結果取得部111と、
(B)取得された複数の対象データ(画像データ)を、類似の度合いに基づいて複数のクラスに分類するクラスタリング部112と、
(C)対象データ(画像データ)とこの対象データの属するクラスとを対象検出器に入力し、この対象検出器を学習させる検出器学習部114と、
(D)クラス毎に、当該クラスに属する対象データ(画像データ)に係る「検索結果情報」に基づいて、対象検出器の出力に対する「重み」を決定する重み決定部113と
を有することを特徴としている。
以下、同じく図1を用いて、本発明による対象検出装置の具体的構成について説明を行う。同図の機能ブロック図に示すように、対象検出装置(物体検出装置)である本実施形態のスマートフォン1は、通信インタフェース部101と、タッチパネル・ディスプレイ(TP・DP)102と、カメラ103と、画像データベース104と、検出結果保存部105と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、スマートフォン1のコンピュータを機能させるプログラムを実行することによって、対象検出機能(物体検出機能)を実現させる。
(a)タッチパネル・ディスプレイ102を介して入力された検出対象に係る文字列を取得し、
(b)通信インタフェース部101を介した通信によって、検索サーバ2の検索エンジンに対し、取得した文字列を検索ワードとした検索を実施させ、
(c)検索サーバ2から通信インタフェース部101を介して、実施させた検索処理の結果である検索結果情報を取得する。
(1) Σj=1 D Mj=N
を満たす。ここで、Σj=1 Dはj=1〜Dについての総和(summation)である。
(2) Sj=ΣCj Ri
によって算出される。ここで、ΣCj RiはクラスCjに含まれる全ての画像Ii(Ii∈Cj)についての検索順位Riの総和である。
(3) Σj=1 D Oj=1
(a)クラスCj(j=1, 2, ・・・, D)に含まれる画像の検索順位の和Sjと、
(b)クラスタリング部112で分類されたクラスCj(j=1, 2, ・・・, D)に含まれる画像の枚数Mjと
を用いて、クラスCjに対応する出力Ojの重みWj(j=1, 2, ・・・, D)を導出する。
(ア)検索順位が上位の画像を多く含むクラス(Sjがより小さいCj)ほど、検出対象を含む可能性が高い。
(イ)多くの類似画像を含むクラス(Mjがより大きいCj)ほど、検出対象を含む可能性が高い。
(4) Wj=(1/Sj)×Mj (j=1, 2, ・・・, D)
で定義された上で、この式を用いて算出することができる。
(判定処理1)画像管理部121から取得された検出判定対象の画像を対象検出部11に入力し、
(判定処理2)対象検出器11からのクラスCj毎の出力Oj(j=1, 2, ・・・, D)を、重み決定部113で決定された重みWjをもって重み付けした重み付き出力OWを算出し、
(判定処理3)算出された重み付き出力OWが所定閾値THよりも大きい値であれば、検出対象の検出を決定する。
(a)画像領域候補の位置情報と、
(b)当該画像領域候補についての(各クラスCjに対応する)D個の出力O1, O2, ・・・, ODと
の組を取得し、これらに基づいて当該画像領域候補についての重み付き出力OWを算出する。具体的には、重み決定部113で決定された各クラスCjに対応する出力Ojの重みWjを用い、当該画像領域候補毎に、次式
(5) OW=Σj=1 D Oj×Wj
によって重み付き出力OWを算出する。
(6) OW>TH
を満たせば、当該画像領域候補において検出対象の物体を検出したと判定する。検出判定部115は、当該画像領域候補の位置を対象検出位置とし、この対象検出位置と、重み付き出力OW値(と、検出対象(の種別))とを含む検出結果情報を生成し、出力する。
図4は、本発明による対象検出方法の一実施形態の概略を示すフローチャートである。本実施形態において、検出対象を含み得る対象データは画像データであって、検出対象は1つの画像データ内に複数含まれ得るとする。すなわち、検出対象の画像領域候補は1つの画像内に複数存在し得る。
(S102)対象検出器11は、入力された画像内において、検出対象の含まれている画像領域の候補を決定する。
(S103)検出判定部115は、対象検出器11から、現ループで対象となっている画像領域候補についてのD個の出力O1, O2, ・・・, ODを取得する。
(S104)検出判定部115は、取得された出力O1, O2, ・・・, ODと、重み決定部113で決定された重みW1, W2, ・・・, WDとを用いて、重み付き出力OWを算出する。
(S106)一方、ステップS105で真(OW>TH)の判定が行われた際、検出判定部115は、現ループで対象となっている画像領域候補に検出対象が含まれていると判断し、検出対象の検出を決定する。
(S108)一方、ステップS107で未処理の画像領域候補が残っていなければ、検出結果として、検出対象の検出された画像領域候補の位置(座標情報)と、重み付き出力OWと、検出対象の種別とを対応付けた検出結果情報を生成して出力し、本フローを終了する。ここで、何も検出されなかった場合、検出結果情報は、その旨を示す(−1等の)値を含むものであってもよい。
図5は、本発明に係る対象検出器に対する学習処理の一実施例を説明するための模式図である。また、図6は、本発明による対象検出方法の一実施例を説明するための模式図である。
OW=0.2*((1/1)*1)+0.4*((1/11)*3)+0.3*((1/9)*2)
+0.0*((1/99)*1)+0.1*((1/100)*1)
=0.376757576
図7は、本発明による対象検出方法における他の実施例を説明するための模式図である。上記の図6に示した実施例(実施例1)では検出対象である「犬」が検出されたが、以下、図7を用いて「犬」が検出されない実施例2を示す。
OW=0.2*((1/1)*1)+0.2*((1/11)*3)+0.2*((1/9)*2)
+0.2*((1/99)*1)+0.2*((1/100)*1)
=0.303010101
図8は、本発明による対象検出方法の更なる他の実施例を説明するための模式図である。以下、図8を用いて(上記の実施例2と同じく)「犬」が検出されない実施例3を示す。
OW=0.1*((1/1)*1)+0.0*((1/11)*3)+0.1*((1/9)*2)
+0.7*((1/99)*1)+0.1*((1/100)*1)
=0.130292929
図9は、本発明による検出モデル生成装置の一実施形態を示す機能ブロック図である。
101、301 通信インタフェース部
102 タッチパネル・ディスプレイ(TP・DP)
103 カメラ
104、304 画像データベース
105 検出結果保存部
11、31、41 対象検出器
111、311 検索結果取得部
112、312 クラスタリング部
113、313 重み決定部
114、314 検出器学習部
115、415 検出判定部
121 画像管理部
122、422 アプリケーション
123、323 入出力制御部
2 検索サーバ
3 検出モデル生成サーバ(検出モデル生成装置)
302 ディスプレイ・キーボード(DP・KB)
Claims (5)
- 検出すべき検出対象を含み得る対象データから、当該対象データの属するクラスに係る情報を出力する対象検出器を用いて、当該検出対象を検出可能な対象検出装置であって、
当該検出対象に係る情報を検索キーとして実施された検索の結果としての複数の対象データと、当該対象データの検索順位とを含む検索結果情報を取得する検索結果取得手段と、
取得された複数の対象データを、類似の度合いに基づいて複数のクラスに分類するクラスタリング手段と、
当該対象データと該対象データの属するクラスとを前記対象検出器に入力し、該対象検出器を学習させる検出器学習手段と、
当該クラス毎に、前記対象検出器の出力に対する重みであって、当該クラスに属する対象データの検索順位の和について単調減少関数となる重みを決定する重み決定手段と
を有することを特徴とする対象検出装置。 - 前記重み決定手段は、当該クラスに属する対象データの数について単調増加関数となる重みを決定することを特徴とする請求項1に記載の対象検出装置。
- 前記対象検出器から出力されるクラスに係る情報を、決定された重みをもって重み付けした重み付き出力を算出し、当該重み付き出力が所定条件を満たす場合に、当該検出対象の検出を決定する検出判定手段を更に有することを特徴とする請求項1又は2に記載の対象検出装置。
- 当該対象データは、当該検出対象に係る画像領域を含み得る画像データであり、
前記クラスタリング手段は、画像分類用に学習されたCNN(Convolutional Neural Network)に当該画像データを入力した際に、該CNNの隠れ層から出力される情報から生成される特徴量の間の類似度に基づいてクラスタリングを行う
ことを特徴とする請求項1から3のいずれか1項に記載の対象検出装置。 - 当該対象データは、当該検出対象に係る画像領域を含み得る画像データであり、
前記対象検出器は、入力された当該画像データから当該画像領域の候補を抽出し、当該画像領域の候補についてのクラスに係る情報を出力することを特徴とする請求項1から4のいずれか1項に記載の対象検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017069170A JP6787831B2 (ja) | 2017-03-30 | 2017-03-30 | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017069170A JP6787831B2 (ja) | 2017-03-30 | 2017-03-30 | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018169972A JP2018169972A (ja) | 2018-11-01 |
JP6787831B2 true JP6787831B2 (ja) | 2020-11-18 |
Family
ID=64018223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017069170A Active JP6787831B2 (ja) | 2017-03-30 | 2017-03-30 | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6787831B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11568324B2 (en) * | 2018-12-20 | 2023-01-31 | Samsung Display Co., Ltd. | Adversarial training method for noisy labels |
CN110084642A (zh) * | 2019-04-19 | 2019-08-02 | 哈尔滨新中新电子股份有限公司 | 基于目标检测和图像检索的菜品识别方法 |
JP2021110962A (ja) * | 2019-12-31 | 2021-08-02 | 株式会社テクノ・スクエア | 捜索支援システムにおける探索方法および装置 |
CN111461211B (zh) * | 2020-03-31 | 2023-07-21 | 中国科学院计算技术研究所 | 一种用于轻量级目标检测的特征提取方法及相应检测方法 |
JP7348150B2 (ja) * | 2020-09-17 | 2023-09-20 | ヤフー株式会社 | 学習装置、学習方法、及び学習プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4926266B2 (ja) * | 2010-07-13 | 2012-05-09 | ヤフー株式会社 | 学習データ作成装置、学習データ作成方法及びプログラム |
JP6377917B2 (ja) * | 2014-03-04 | 2018-08-22 | 日本放送協会 | 画像検索装置及び画像検索プログラム |
JP6448212B2 (ja) * | 2014-04-15 | 2019-01-09 | キヤノン株式会社 | 認識装置及び認識方法 |
JP6472621B2 (ja) * | 2014-08-12 | 2019-02-20 | 株式会社Screenホールディングス | 分類器構築方法、画像分類方法および画像分類装置 |
JP6440303B2 (ja) * | 2014-12-02 | 2018-12-19 | エヌ・ティ・ティ・コムウェア株式会社 | 対象認識装置、対象認識方法、およびプログラム |
-
2017
- 2017-03-30 JP JP2017069170A patent/JP6787831B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018169972A (ja) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shi et al. | Can a machine generate humanlike language descriptions for a remote sensing image? | |
JP6787831B2 (ja) | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 | |
EP3267362B1 (en) | Machine learning image processing | |
CN110046586B (zh) | 一种数据处理方法、设备及存储介质 | |
US10140508B2 (en) | Method and apparatus for annotating a video stream comprising a sequence of frames | |
JP5934653B2 (ja) | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 | |
JP5830784B2 (ja) | 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム | |
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
EP3493106B1 (en) | Optimizations for dynamic object instance detection, segmentation, and structure mapping | |
CN110245564B (zh) | 一种行人检测方法、系统及终端设备 | |
CN112348117A (zh) | 场景识别方法、装置、计算机设备和存储介质 | |
CN113807399A (zh) | 一种神经网络训练方法、检测方法以及装置 | |
EP3623998A1 (en) | Character recognition | |
CN110555420A (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
WO2020033345A1 (en) | Action localization using relational features | |
Werner et al. | DeepMoVIPS: Visual indoor positioning using transfer learning | |
CN114117128A (zh) | 视频标注的方法、系统及设备 | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
Mazzamuto et al. | Weakly supervised attended object detection using gaze data as annotations | |
Yadav et al. | DroneAttention: Sparse weighted temporal attention for drone-camera based activity recognition | |
Weng et al. | Trajectory-aware three-stream CNN for video action recognition | |
Ganga et al. | Object detection and crowd analysis using deep learning techniques: Comprehensive review and future directions | |
Tian et al. | Glance and stare: Trapping flying birds in aerial videos by adaptive deep spatio-temporal features | |
Palanimeera et al. | Transfer learning with deep representations is used to recognition yoga postures | |
Lu et al. | Optimized training of deep neural network for image analysis using synthetic objects and augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200219 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200323 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200713 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200916 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201028 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6787831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |