JPWO2020240808A1 - 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム - Google Patents
学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム Download PDFInfo
- Publication number
- JPWO2020240808A1 JPWO2020240808A1 JP2019552300A JP2019552300A JPWO2020240808A1 JP WO2020240808 A1 JPWO2020240808 A1 JP WO2020240808A1 JP 2019552300 A JP2019552300 A JP 2019552300A JP 2019552300 A JP2019552300 A JP 2019552300A JP WO2020240808 A1 JPWO2020240808 A1 JP WO2020240808A1
- Authority
- JP
- Japan
- Prior art keywords
- objects
- class
- feature map
- estimation unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000012549 training Methods 0.000 claims abstract description 215
- 238000000605 extraction Methods 0.000 claims abstract description 96
- 238000013500 data storage Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
Description
先ず、画像処理装置1の構成について、図1を用いて説明する。図1は、本実施形態に係る画像処理装置1の概要構成の一例を示すブロック図である。図1に示すように、画像処理装置1は、システム制御部11と、システムバス12と、入出力インターフェース13と、記憶部14と、通信部15と、入力部16と、表示部17と、GPU(Graphics Processing Unit)18と、GPUメモリ19(または、ビデオRAM)を備えている。システム制御部11と入出力インターフェース13とは、システムバス12を介して接続されている。画像処理装置1は、例えばサーバ装置であってもよいし、パーソナルコンピュータであってもよい。
次に、図2乃至図7を用いて、システム制御部11及びGPU18の機能概要について説明する。図2は、本実施形態に係る画像処理装置1のシステム制御部11及びGPU18の機能ブロックの一例を示す図である。システム制御部11及びGPU18は、CPU11aが、記憶部14に記憶されているプログラムに含まれる各種コード等を読み出し実行することにより、図2に示すように、第1訓練データ取得部111、第1訓練部112、第2訓練データ取得部113、第2訓練部114、モデル記憶制御部115、モデル読み出し部116、特徴マップ出力制御部117、クラス出力制御部118、座標出力制御部119等として機能する。
図3は、モデル2の構成例を示す図である。第1訓練データ取得部111第1訓練部112、第2訓練データ取得部113及び第2訓練部114は、機械学習によってモデル2を生成する。図3に示すように、モデル2は、特徴抽出部21と、クラス推定部22と、オブジェクト数推定部23と、座標推定部24と、を含む畳み込みニューラルネットワークである。モデル2のベースとなるネットワークモデルの例として、Reset、GoogleNet、AlexNet、VGGNetが挙げられる。
モデル読み出し部116は、記憶部14に記憶されたモデル2を読み出して、RAM14c又はGPUメモリ19にロードする。
次に、画像処理装置1の動作について、図8及び図9を用いて説明する。図8は、画像処理装置1のシステム制御部11及びGPU18による学習処理の一例を示すフローチャートである。モデル生成用のプログラムに含まれるプログラムコードに従って、システム制御部11及びGPU18は学習処理を実行する。
11 システム制御部
12 システムバス
13 入出力インターフェース
14 記憶部
15 通信部
16 入力部
17 表示部
18 GPU
19 GPUメモリ
111 第1訓練データ取得部
112 第1訓練部
113 第2訓練データ取得部
114 第2訓練部
115 モデル記憶制御部
116 モデル読み出し部
117 特徴マップ出力制御部
118 クラス出力制御部
119 座標出力制御部
2 モデル
21 特徴抽出部
22 クラス推定部
23 オブジェクト数推定部
24 座標推定部
241 閾値推定部
242 座標出力部
Claims (10)
- 複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが映る画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記1以上のオブジェクトのクラスを示すクラス情報を出力するクラス推定部と、前記特徴マップに基づいて、前記1以上のオブジェクトの数を出力するオブジェクト数推定部と、前記特徴マップに基づいて、前記画像における前記1以上のオブジェクトそれぞれの座標を出力する座標推定部と、を含むモデルを生成する生成手段と、
前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、
を備え、
前記生成手段は、
1以上のオブジェクトがそれぞれ映る複数の画像それぞれについて、前記画像と、前記1以上のオブジェクトそれぞれのクラスと、前記オブジェクトの数と、を含む第1訓練データを、訓練データ記憶手段から取得する第1取得手段と、
前記第1取得手段により取得された前記第1訓練データを用いて、前記特徴抽出部と、前記クラス推定部と、前記オブジェクト数推定部と、を訓練する第1訓練手段と、
前記複数の画像の数よりも少ない数の画像それぞれについて、前記画像と、前記画像における前記1以上のオブジェクトそれぞれの座標と、含む第2訓練データを、前記訓練データ記憶手段から取得する第2取得手段と、
前記第1訓練手段により訓練された前記特徴抽出部により、前記取得された第2訓練データに含まれる前記画像の特徴マップを出力させ、該特徴マップと、前記取得された第2訓練データに含まれる前記座標と、を用いて、前記座標推定部を訓練する第2訓練手段と、
を含むことを特徴とする学習装置。 - 前記座標推定部は、
前記特徴マップにおいて、前記オブジェクトが存在する領域と存在しない領域との境界部分の値であると推定される閾値を出力する全結合層と、
前記特徴マップを構成する複数の要素のうち、前記出力された閾値以上の値を有する要素で構成される領域に対応する座標を、前記オブジェクトの座標として出力する出力部と、を含み、
前記第2訓練手段は、前記座標推定部に含まれる前記全結合層に、前記閾値を学習させることを特徴とする請求項1に記載の学習装置。 - 前記第1訓練手段は、前記オブジェクト数推定部から前記特徴抽出部への誤差逆伝播により、前記特徴マップにおいて、前記第1訓練データに含まれる前記オブジェクトの数に相当する数の領域が強調されるように、前記特徴抽出部を訓練することを特徴とする請求項1又は2に記載の学習装置。
- 前記オブジェクト数推定部は、クラスごとに前記オブジェクトの数を出力し、
前記特徴抽出部は、クラスごとに前記特徴マップを出力し、
前記第2訓練手段は、前記特徴抽出部から出力された特徴マップのうち、前記取得された第1訓練データに含まれる前記1以上のクラスそれぞれに対応する特徴マップを用いて、前記座標推定部を訓練することを特徴とする請求項1乃至3の何れか一項に記載の学習装置。 - 前記オブジェクト数推定部は、前記1以上のオブジェクトの数を出力する全結合層を含むことを特徴とする請求項1乃至4の何れか一項に記載の学習装置。
- 請求項1乃至5の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、
前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが映る所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記クラス推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス出力制御手段と、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記座標推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれの座標を出力させる座標出力制御手段と、
を備えることを特徴とする分類装置。 - コンピュータにより実行される学習方法において、
複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが映る画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記1以上のオブジェクトのクラスを示すクラス情報を出力するクラス推定部と、前記特徴マップに基づいて、前記1以上のオブジェクトの数を出力するオブジェクト数推定部と、前記特徴マップに基づいて、前記画像における前記1以上のオブジェクトそれぞれの座標を出力する座標推定部と、を含むモデルを生成する生成ステップと、
前記生成されたモデルをモデル記憶手段に記憶させる記憶制御ステップと、
を含み、
前記生成ステップは、
1以上のオブジェクトがそれぞれ映る複数の画像それぞれについて、前記画像と、前記1以上のオブジェクトそれぞれのクラスと、前記オブジェクトの数と、を含む第1訓練データを、訓練データ記憶手段から取得する第1取得ステップと、
前記第1取得ステップにより取得された前記第1訓練データを用いて、前記特徴抽出部と、前記クラス推定部と、前記オブジェクト数推定部と、を訓練する第1訓練ステップと、
前記複数の画像の数よりも少ない数の画像それぞれについて、前記画像と、前記画像における前記1以上のオブジェクトそれぞれの座標と、含む第2訓練データを、前記訓練データ記憶手段から取得する第2取得ステップと、
前記第1訓練ステップにより訓練された前記特徴抽出部により、前記取得された第2訓練データに含まれる前記画像の特徴マップを出力させ、該特徴マップと、前記取得された第2訓練データに含まれる前記座標と、を用いて、前記座標推定部を訓練する第2訓練ステップと、
を含むことを特徴とする学習方法。 - コンピュータにより実行される分類方法において、
請求項1乃至5の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出しステップと、
前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが映る所与の画像の特徴マップを出力させる特徴マップ出力制御ステップと、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記クラス推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス出力制御ステップと、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記座標推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれの座標を出力させる座標出力制御ステップと、
を含むことを特徴とする分類方法。 - コンピュータにより実行される学習プログラムにおいて、
前記コンピュータを、
複数の畳み込み層を含む特徴抽出部であって、1以上のオブジェクトが映る画像の特徴マップを出力する特徴抽出部と、前記特徴マップに基づいて、前記1以上のオブジェクトのクラスを示すクラス情報を出力するクラス推定部と、前記特徴マップに基づいて、前記1以上のオブジェクトの数を出力するオブジェクト数推定部と、前記特徴マップに基づいて、前記画像における前記1以上のオブジェクトそれぞれの座標を出力する座標推定部と、を含むモデルを生成する生成手段と、
前記生成されたモデルをモデル記憶手段に記憶させる記憶制御手段と、
として機能させ、
前記生成手段は、
1以上のオブジェクトがそれぞれ映る複数の画像それぞれについて、前記画像と、前記1以上のオブジェクトそれぞれのクラスと、前記オブジェクトの数と、を含む第1訓練データを、訓練データ記憶手段から取得する第1取得手段と、
前記第1取得手段により取得された前記第1訓練データを用いて、前記特徴抽出部と、前記クラス推定部と、前記オブジェクト数推定部と、を訓練する第1訓練手段と、
前記複数の画像の数よりも少ない数の画像それぞれについて、前記画像と、前記画像における前記1以上のオブジェクトそれぞれの座標と、含む第2訓練データを、前記訓練データ記憶手段から取得する第2取得手段と、
前記第1訓練手段により訓練された前記特徴抽出部により、前記取得された第2訓練データに含まれる前記画像の特徴マップを出力させ、該特徴マップと、前記取得された第2訓練データに含まれる前記座標と、を用いて、前記座標推定部を訓練する第2訓練手段と、
を含むことを特徴とする学習プログラム。 - コンピュータを、
請求項1乃至5の何れか一項に記載の学習装置により生成された前記モデルを記憶する記憶手段から、前記モデルを読み出す読み出し手段と、
前記読み出されたモデルに含まれる前記特徴抽出部により、1以上のオブジェクトが映る所与の画像の特徴マップを出力させる特徴マップ出力制御手段と、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記クラス推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれのクラスを示すクラス情報を出力させるクラス出力制御手段と、
前記出力された所与の画像の特徴マップを、前記読み出されたモデルに含まれる前記座標推定部に入力して、前記所与の画像に映る前記1以上のオブジェクトそれぞれの座標を出力させる座標出力制御手段と、
として機能させることを特徴とする分類プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/021678 WO2020240808A1 (ja) | 2019-05-31 | 2019-05-31 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6612486B1 JP6612486B1 (ja) | 2019-11-27 |
JPWO2020240808A1 true JPWO2020240808A1 (ja) | 2021-09-13 |
Family
ID=68692080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019552300A Active JP6612486B1 (ja) | 2019-05-31 | 2019-05-31 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11314986B2 (ja) |
JP (1) | JP6612486B1 (ja) |
WO (1) | WO2020240808A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494616B2 (en) * | 2019-05-09 | 2022-11-08 | Shenzhen Malong Technologies Co., Ltd. | Decoupling category-wise independence and relevance with self-attention for multi-label image classification |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111294512A (zh) * | 2020-02-10 | 2020-06-16 | 深圳市铂岩科技有限公司 | 图像处理方法、装置、存储介质及摄像装置 |
JP6818961B1 (ja) * | 2020-04-08 | 2021-01-27 | 三菱電機株式会社 | 学習装置、学習方法、および推論装置 |
JP2022096379A (ja) * | 2020-12-17 | 2022-06-29 | 富士通株式会社 | 画像出力プログラム,画像出力方法および画像出力装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017059207A (ja) * | 2015-09-18 | 2017-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像認識方法 |
JP6441980B2 (ja) * | 2017-03-29 | 2018-12-19 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
KR102463175B1 (ko) * | 2017-09-04 | 2022-11-04 | 삼성전자주식회사 | 객체 인식 방법 및 장치 |
US11756291B2 (en) * | 2018-12-18 | 2023-09-12 | Slyce Acquisition Inc. | Scene and user-input context aided visual search |
US11003956B2 (en) * | 2019-05-16 | 2021-05-11 | Naver Corporation | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression |
-
2019
- 2019-05-31 WO PCT/JP2019/021678 patent/WO2020240808A1/ja active Application Filing
- 2019-05-31 JP JP2019552300A patent/JP6612486B1/ja active Active
- 2019-05-31 US US16/635,578 patent/US11314986B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2020240808A1 (ja) | 2020-12-03 |
JP6612486B1 (ja) | 2019-11-27 |
US11314986B2 (en) | 2022-04-26 |
US20210406600A1 (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019200270B2 (en) | Concept mask: large-scale segmentation from semantic concepts | |
JP6612486B1 (ja) | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム | |
US20220114705A1 (en) | Digital Image Fill | |
JP6612487B1 (ja) | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム | |
US10997464B2 (en) | Digital image layout training using wireframe rendering within a generative adversarial network (GAN) system | |
US11823443B2 (en) | Segmenting objects by refining shape priors | |
CN110163208B (zh) | 一种基于深度学习的场景文字检测方法和系统 | |
CN111488873B (zh) | 一种基于弱监督学习的字符级场景文字检测方法和装置 | |
CN112241784A (zh) | 训练生成模型和判别模型 | |
CN112949477B (zh) | 基于图卷积神经网络的信息识别方法、装置及存储介质 | |
JP2019153259A (ja) | 機械学習装置、予測システム、及び、プログラム | |
CN113569852A (zh) | 语义分割模型的训练方法、装置、电子设备及存储介质 | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
KR102401113B1 (ko) | 보상 가능성 정보 및 UX-bit를 이용한 자동 디자인 생성 인공신경망 장치 및 방법 | |
US20210150775A1 (en) | Weighted Color Palette Generation | |
CN110717405A (zh) | 人脸特征点定位方法、装置、介质及电子设备 | |
US8488183B2 (en) | Moving labels in graphical output to avoid overprinting | |
CN117423116B (zh) | 一种文本检测模型的训练方法、文本检测方法及装置 | |
KR102594173B1 (ko) | 타임 시리즈 데이터 예측을 위한 학습 이미지를 생성하는 방법 및 장치 | |
US20230154075A1 (en) | Vector Object Generation from Raster Objects using Semantic Vectorization | |
JP7365845B2 (ja) | 学習装置、学習方法、及びプログラム | |
US20240095982A1 (en) | Automated Digital Tool Identification from a Rasterized Image | |
Zhang et al. | Image Periodization for Convolutional Neural Networks | |
CN116415632A (zh) | 用于神经网络预测域的局部可解释性的方法和系统 | |
CN115471714A (zh) | 数据处理方法、装置、计算设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190920 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190920 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6612486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |