JP7338690B2 - 学習装置、学習方法、推論装置、推論方法、及び、プログラム - Google Patents
学習装置、学習方法、推論装置、推論方法、及び、プログラム Download PDFInfo
- Publication number
- JP7338690B2 JP7338690B2 JP2021546155A JP2021546155A JP7338690B2 JP 7338690 B2 JP7338690 B2 JP 7338690B2 JP 2021546155 A JP2021546155 A JP 2021546155A JP 2021546155 A JP2021546155 A JP 2021546155A JP 7338690 B2 JP7338690 B2 JP 7338690B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- metric
- metric space
- inference
- case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習する計量空間学習手段と、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する事例記憶手段と、を備える。
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する。
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する処理をコンピュータに実行させるプログラム。
異なる属性の組み合わせ毎に学習された複数の計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶手段と、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択する計量空間選択手段と、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別する識別手段と、
前記識別手段による識別結果を出力する結果出力手段と、を備える。
異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶部から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する。
異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶部から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する処理をコンピュータに実行させる。
[基本原理]
まず、実施形態の物体認識方法の基本原理を説明する。本実施形態では、それまで認識対象としていたクラス(以下、「既存クラス」と呼ぶ。)に加えて、新たなクラス(以下、「新クラス」と呼ぶ。)を認識する必要が生じた場合に、新クラスに対応する事例を登録した事例データ(以下、「事例辞書」とも呼ぶ。)を作成し、事例辞書を参照して新クラスの対象を認識する。また、既存クラスの認識対象についても、新たな環境での認識精度の低下を防止するため、複数の計量空間を用意し、最適な計量空間を用いて認識を行う。
図1は、新クラスを含む認識対象について事例辞書を作成する方法を示す。いま、既存クラスとして「警察官」及び「歩行者」があり、新クラスとして「消防士」の認識を行いたいと仮定する。まず、属性情報などが付与された画像データを用いて、計量空間を学習する。具体的には、様々な人物の公開画像データセットなどを利用して、属性情報が付与された人物の画像データを取得する。なお、「属性情報」とは、画像データに写っている人物属性であり、例えば、その人物の年齢、性別、身長、付帯物(持ち物や身に着けている物など)が挙げられる。図1の例では、認識対象となる「警察官」、「歩行者」及び「消防士」について、様々な属性の画像データを取得する。
さて、作成された事例辞書を利用して物体認識を行う際には、そのときの環境(ドメイン)に最も適した計量空間を選択し、その計量空間を用いて物体認識を行う。図2は、最適な計量空間を選択する方法を説明する図である。前述のように、事例辞書は、異なる人物属性の組み合わせに対応する複数の計量空間についての事例を含む。いま、事例辞書には、図2に示すように、属性「付帯物」及び「年齢」についての計量空間10aと、属性「付帯物」及び「性別」についての計量空間10bと、属性「付帯物」及び「身長」についての計量空間10cと、属性「身長」、「年齢」、「性別」についての計量空間10dのそれぞれについて事例が記憶されているものとする。
次に、本発明の第1実施形態について説明する。
(ハードウェア構成)
図3は、第1実施形態に係る物体認識装置のハードウェア構成を示すブロック図である。図示のように、物体認識装置100は、インタフェース102と、プロセッサ103と、メモリ104と、記録媒体105と、データベース(DB)106と、表示部107と、を備える。
次に、物体認識装置100の学習のための機能構成について説明する。図4は、学習のための物体認識装置100Aの機能構成を示すブロック図である。図示のように、物体認識装置100Aは、ラベル選択部111と、計量空間学習部112と、画像摂動部113と、計量算出部114と、特徴摂動部115と、事例埋め込み部116とを備える。
次に、上記の学習処理の流れを説明する。図5は、学習のための物体認識装置100Aによる学習処理のフローチャートである。この処理は、図3に示すプロセッサ103が、予め用意されたプログラムを実行することにより実施される。
次に、物体認識装置100の推論のための機能構成について説明する。図6は、推論のための物体認識装置100Bの機能構成を示すブロック図である。図示のように、物体認識装置100Bは、画像摂動部131と、計量算出部132と、特徴摂動部133と、計量空間選択部134と、画像摂動部135と、計量算出部136と、特徴摂動部137と、識別部138と、結果出力部139とを備える。
次に、推論のための物体認識装置100Bによる推論処理について説明する。図7は、推論のための物体認識装置による推論処理のフローチャートである。この処理は、図3に示すプロセッサ103が予め用意されたプログラムを実行することにより実施される。
(1)上記の推論処理では、計量空間選択部134は、既存クラスの画像データを評価用データとして用いて複数の計量空間を評価し、最適な計量空間を選択している。これに加えて、計量空間選択部134は、新クラスの画像データを評価用データとして使用してもよい。この場合、新クラスの画像データについては正解ラベル(正解クラス)が用意されていないことが考えられるが、その場合でも、新クラスの複数の事例が、計量空間上で他の既存クラスの事例と離れた位置でまとまりを形成しているような場合には、その計量空間が適切な性能を有していると評価することができる。よって、対象となる新クラスの事例の集合が計量空間上でより狭い領域に集まっており、さらに新クラス以外の集合との距離が遠いものを、最良の特等を持つ事例辞書として選択すればよい。より具体的には、例えば、新クラスの各事例毎に、当該事例と新クラスの他の事例との距離の平均値Aと、当該事例と既存クラスの事例との距離の平均値Bの比を求め、この比が小さいものを選択すればよい。
次に、本発明の第2実施形態について説明する。図8(A)は、第2実施形態に係る学習装置50の構成を示す。学習装置50は、計量空間学習部51と、事例記憶部52とを備える。計量空間学習部51は、属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、属性付画像データから抽出された特徴ベクトルを含む計量空間を学習する。事例記憶部52は、事例用画像データから特徴ベクトルを算出し、計量空間に関連付けた事例として記憶する。こうして、異なる属性の組み合わせ毎に計量空間が学習され、それに関連付けて事例が記憶される。
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習する計量空間学習部と、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する事例記憶部と、
を備える学習装置。
前記異なる属性の組み合わせを決定する属性決定部を備える付記1に記載の学習装置。
前記事例用画像データを摂動させる第1の画像摂動部を備え、
前記事例記憶部は、摂動後の事例用画像データから算出された特徴ベクトルを事例として記憶する付記1又は2に記載の学習装置。
前記事例用画像データについて算出された特徴ベクトルを摂動する第1の特徴摂動部を備え、
前記事例記憶部は、摂動後の特徴ベクトルを事例として記憶する付記1乃至3のいずれか一項に記載の学習装置。
前記事例記憶部は、前記事例用画像データの教師ラベル及び付加情報を前記事例に紐づけて記憶する付記1乃至4のいずれか一項に記載の学習装置。
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する学習方法。
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する処理をコンピュータに実行させるプログラムを記録した記録媒体。
異なる属性の組み合わせ毎に学習された複数の計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶部と、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択する計量空間選択部と、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別する識別部と、
前記識別部による識別結果を出力する結果出力部と、
を備える推論装置。
前記計量空間選択部は、前記複数の計量空間の各々を用いて既存クラスの選択用画像データを識別し、当該既存クラスの選択用画像データの教師ラベルと最も一致度の高い計量空間を前記一の計量空間と決定する付記8に記載の推論装置。
前記識別部は、前記事例記憶部に記憶されている事例のうち、前記一の計量空間において前記推論用画像データの特徴ベクトルと最も近い事例のクラスを前記識別結果とする付記8又は9に記載の推論装置。
前記結果出力部は、前記識別結果に加えて、前記最も近い事例の教師ラベル、付加情報及び画像データを推論結果として出力する10に記載の推論装置。
前記推論用画像データを摂動する第2の画像摂動部を備え、
前記識別部は、摂動後の推論用画像データの特徴ベクトルを用いて、当該推論用画像データを識別する付記8乃至11のいずれか一項に記載の推論装置。
前記推論用画像データの特徴ベクトルを摂動する第2の特徴摂動部を備え、
前記識別部は、摂動後の特徴ベクトルを用いて、前記推論用の画像データを識別する付記8乃至11のいずれか一項に記載の推論装置。
異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶部から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する推論方法。
異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶部から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する処理をコンピュータに実行させるプログラムを記録した記録媒体。
100 物体認識装置
103 プロセッサ
111 ラベル選択部
112 計量空間学習部
113、131、135 画像摂動部
114、132、135 計量算出部
115、133、136 特徴摂動部
116 事例埋め込み部
127 事例辞書
170 端末装置
138 識別部
129 結果出力部
Claims (15)
- 属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習する計量空間学習手段と、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する事例記憶手段と、
を備える学習装置。 - 前記異なる属性の組み合わせを決定する属性決定手段を備える請求項1に記載の学習装置。
- 前記事例用画像データを摂動させる第1の画像摂動手段を備え、
前記事例記憶手段は、摂動後の事例用画像データから算出された特徴ベクトルを事例として記憶する請求項1又は2に記載の学習装置。 - 前記事例用画像データについて算出された特徴ベクトルを摂動する第1の特徴摂動手段を備え、
前記事例記憶手段は、摂動後の特徴ベクトルを事例として記憶する請求項1乃至3のいずれか一項に記載の学習装置。 - 前記事例記憶手段は、前記事例用画像データの教師ラベル及び付加情報を前記事例に紐づけて記憶する請求項1乃至4のいずれか一項に記載の学習装置。
- コンピュータにより実行される学習方法であって、
属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶装置に記憶する学習方法。 - 属性情報が付与された属性付画像データを用いて、異なる属性の組み合わせ毎に、前記属性付画像データから抽出された特徴ベクトルを含む計量空間を学習し、
事例用画像データから特徴ベクトルを算出し、前記計量空間に関連付けた事例として記憶する処理をコンピュータに実行させるプログラム。 - 異なる属性の組み合わせ毎に学習された複数の計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶手段と、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択する計量空間選択手段と、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別する識別手段と、
前記識別手段による識別結果を出力する結果出力手段と、
を備える推論装置。 - 前記計量空間選択手段は、前記複数の計量空間の各々を用いて既存クラスの選択用画像データを識別し、識別結果と当該既存クラスの選択用画像データの教師ラベルとの一致度に基づいて前記複数の計量空間を評価して前記一の計量空間を選択する請求項8に記載の推論装置。
- 前記識別手段は、前記事例記憶手段に記憶されている事例のうち、前記一の計量空間において前記推論用画像データの特徴ベクトルと最も近い事例のクラスを前記識別結果とする請求項8又は9に記載の推論装置。
- 前記結果出力手段は、前記識別結果に加えて、前記最も近い事例の教師ラベル、付加情報及び画像データを推論結果として出力する請求項10に記載の推論装置。
- 前記推論用画像データを摂動する第2の画像摂動手段を備え、
前記識別手段は、摂動後の推論用画像データの特徴ベクトルを用いて、当該推論用画像データを識別する請求項8乃至11のいずれか一項に記載の推論装置。 - 前記推論用画像データの特徴ベクトルを摂動する第2の特徴摂動手段を備え、
前記識別手段は、摂動後の特徴ベクトルを用いて、前記推論用画像データを識別する請求項8乃至11のいずれか一項に記載の推論装置。 - コンピュータにより実行される推論方法であって、
異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶手段から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する推論方法。 - 異なる属性の組み合わせ毎に学習された計量空間に関連付けて、事例用画像データの特徴ベクトルを事例として記憶した事例記憶手段から複数の計量空間を取得し、
選択用画像データの特徴ベクトルを用いて前記複数の計量空間を評価して、一の計量空間を選択し、
推論用画像データから抽出された特徴ベクトルと、前記一の計量空間に関連付けられた事例とに基づいて、当該推論用画像データを識別し、識別結果を出力する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/037007 WO2021053815A1 (ja) | 2019-09-20 | 2019-09-20 | 学習装置、学習方法、推論装置、推論方法、及び、記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021053815A1 JPWO2021053815A1 (ja) | 2021-03-25 |
JPWO2021053815A5 JPWO2021053815A5 (ja) | 2022-05-19 |
JP7338690B2 true JP7338690B2 (ja) | 2023-09-05 |
Family
ID=74884422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021546155A Active JP7338690B2 (ja) | 2019-09-20 | 2019-09-20 | 学習装置、学習方法、推論装置、推論方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220335291A1 (ja) |
JP (1) | JP7338690B2 (ja) |
WO (1) | WO2021053815A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4016377B1 (en) * | 2020-12-21 | 2024-10-09 | Axis AB | A device and a method for associating object detections between frames using a neural network |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5378909B2 (ja) * | 2009-08-12 | 2013-12-25 | Kddi株式会社 | サポートベクトルマシンの再学習方法 |
US11238362B2 (en) * | 2016-01-15 | 2022-02-01 | Adobe Inc. | Modeling semantic concepts in an embedding space as distributions |
CN106803063B (zh) * | 2016-12-21 | 2019-06-28 | 华中科技大学 | 一种行人重识别的度量学习方法 |
US20240112447A1 (en) * | 2019-10-24 | 2024-04-04 | Nec Corporation | Learning device, learning method, inference device, inference method, and recording medium |
-
2019
- 2019-09-20 JP JP2021546155A patent/JP7338690B2/ja active Active
- 2019-09-20 US US17/640,926 patent/US20220335291A1/en active Pending
- 2019-09-20 WO PCT/JP2019/037007 patent/WO2021053815A1/ja active Application Filing
Non-Patent Citations (5)
Title |
---|
Christoph H. Lampert, et al.,"Learning To Detect Unseen Object Classes by Between-Class Attribute Transfer",Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition,2009年06月25日,Pages 951-958,ISBN: 978-1-4244-3991-1, <DOI: 10.1109/CVPR.2009.5206594>. |
Tetsu Matsukawa, et al.,"Person Re-Identification Using CNN Features Learned from Combination of Attributes",Proceedings of the 2016 23rd International Conference on Pattern Recognition (ICPR),2016年12月08日,Pages 2428-2433,ISBN: 978-1-5090-4847-2, <DOI: 10.1109/ICPR.2016.7900000>. |
中野 翔太(外5名),「身体と外見の共起属性を用いた人物対応付け」,電子情報通信学会論文誌D,日本,一般社団法人 電子情報通信学会,2017年01月01日,Vol. J100-D, No.1,第104~114頁,ISSN: 1881-0225. |
植田 覚(外2名),「適応的な距離学習による最近傍分類器に関する一考察」,FIT2011 第10回情報科学技術フォーラム講演論文集,第2分冊,日本,一般社団法人 情報処理学会,2011年08月22日,第429~432頁. |
櫻井 隆平(外2名),「深層距離学習におけるcontrastive lossの分析と高速化」,人工知能学会第31回全国大会論文集 [DVD-ROM],Session-ID: 3Q1-12in1,日本,一般社団法人 人工知能学会,2017年05月25日,全4頁. |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021053815A1 (ja) | 2021-03-25 |
WO2021053815A1 (ja) | 2021-03-25 |
US20220335291A1 (en) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993072B (zh) | 基于超分辨图像生成的低分辨率行人重识别系统和方法 | |
US10002308B2 (en) | Positioning method and apparatus using positioning models | |
CN107506761B (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
WO2018121690A1 (zh) | 对象属性检测、神经网络训练、区域检测方法和装置 | |
CN109165540B (zh) | 一种基于先验候选框选择策略的行人搜索方法和装置 | |
CN111523621A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN110348319A (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
US7783581B2 (en) | Data learning system for identifying, learning apparatus, identifying apparatus and learning method | |
CN113360701B (zh) | 一种基于知识蒸馏的素描图处理方法及其系统 | |
US20210397954A1 (en) | Training device and training method | |
CN111161254A (zh) | 一种骨龄预测方法 | |
JP2007128195A (ja) | 画像処理システム | |
Barman et al. | Shape: A novel graph theoretic algorithm for making consensus-based decisions in person re-identification systems | |
KR20180038169A (ko) | 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법 | |
CN112767447A (zh) | 基于深度霍夫优化投票的时敏单目标跟踪方法、存储介质和终端 | |
Zhang et al. | Second-and high-order graph matching for correspondence problems | |
CN114842343A (zh) | 一种基于ViT的航空图像识别方法 | |
JP7351344B2 (ja) | 学習装置、学習方法、推論装置、推論方法、及び、プログラム | |
CN112488128A (zh) | 一种基于贝塞尔曲线的任意畸变图像线段检测方法 | |
JPWO2014118978A1 (ja) | 学習方法、情報処理装置および学習プログラム | |
CN116934747A (zh) | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 | |
JP7338690B2 (ja) | 学習装置、学習方法、推論装置、推論方法、及び、プログラム | |
Lee et al. | Neuralfp: out-of-distribution detection using fingerprints of neural networks | |
Pang et al. | Salient object detection via effective background prior and novel graph | |
CN113032567B (zh) | 位置嵌入解释方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7338690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |