JP7195365B2 - 画像条件付きマスク言語モデリングを用いて画像認識のための畳み込みニューラルネットワークを訓練するための方法 - Google Patents
画像条件付きマスク言語モデリングを用いて画像認識のための畳み込みニューラルネットワークを訓練するための方法 Download PDFInfo
- Publication number
- JP7195365B2 JP7195365B2 JP2021064797A JP2021064797A JP7195365B2 JP 7195365 B2 JP7195365 B2 JP 7195365B2 JP 2021064797 A JP2021064797 A JP 2021064797A JP 2021064797 A JP2021064797 A JP 2021064797A JP 7195365 B2 JP7195365 B2 JP 7195365B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- visual
- tokens
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 51
- 238000012549 training Methods 0.000 title claims description 35
- 238000000034 method Methods 0.000 title claims description 27
- 230000000007 visual effect Effects 0.000 claims description 89
- 239000013598 vector Substances 0.000 claims description 45
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000001143 conditioned effect Effects 0.000 claims description 2
- 230000000873 masking effect Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 2
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 244000046151 Acer negundo Species 0.000 description 1
- 235000004422 Acer negundo Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
は、画像Iiに示す少なくとも一つの特定動作又はオブジェクトを記述する。換言すれば、キャプションCi,jには、画像Iiで視覚的対応を持つ少なくとも一つのトークンがあると仮定し得る。続いて、トークンのうちの一つがマスクされ、Iiから抽出された視覚的特徴ΦθCNN(Ii)を使用して、トークンのラベルを予測しようと試みることができる。このような方式により、トークン予測損失を視覚的埋め込みモデルΦθCNN( )に逆伝播することにより、パラメーターθCNNが調整できる。
Claims (5)
- マスク言語モデリングに基づき、画像認識のための畳み込みニューラルネットワークを事前訓練する方法であって、
(a)前記畳み込みニューラルネットワークに画像を入力するステップ;
(b)前記畳み込みニューラルネットワークからH×W×C次元画像埋め込みテンソルを出力するステップ、ここで、H及びWはC次元視覚的特徴ベクトルの空間グリッドの高さ及び幅を示す;
(c)トークンのリストを生成するためにキャプションをトークン化するステップであって、少なくとも一つの前記トークンは、前記畳み込みニューラルネットワークにより受信された前記画像に対する視覚的対応を持つ、ステップ;
(d)前記トークンのリスト内の前記トークンのうちの一つをマスクするステップ;
(e)前記H×W×C次元画像埋め込みテンソルの視覚的特徴ベクトルを用いて、前記マスクされたトークンを予測するステップ;
(f)前記マスクされたトークンと関連した予測損失を決定するステップ;及び、
(g)前記予測損失を前記畳み込みニューラルネットワークに逆伝播して、そのパラメーターを調整するステップ、を含む、方法。 - マスク言語モデリングに基づき、画像認識のための畳み込みニューラルネットワークを事前訓練する方法であって、
(a)前記畳み込みニューラルネットワークに画像を入力するステップ;
(b)前記畳み込みニューラルネットワークから視覚的埋め込みベクトルの視覚的埋め込みテンソルを出力するステップ;
(c)トークンのリストを生成するためにキャプションをトークン化するステップであって、少なくとも一つの前記トークンは、前記畳み込みニューラルネットワークにより受信された前記画像に対する視覚的対応を持つ、ステップ;
(d)マスクされる前記トークンのリスト内の前記トークンのうちの一つをランダムに選択するステップであって、選択された前記トークンは正解として見なされる、ステップ;
(e)言語モデルニューラルネットワークを用いて、前記トークンの潜在表現を計算するステップ;
(f)前記マスクされたトークンの潜在表現を質疑ベクトルとして使用して、前記視覚的埋め込みテンソルで前記視覚的埋め込みベクトルを注意深くプーリングするステップ;
(g)前記プーリングした視覚的埋め込みベクトルを前記トークンにマッピングすることにより、前記マスクされたトークンを予測するステップ;
(h)前記マスクされたトークンと関連した予測損失を決定するステップ;及び、
(i)前記予測損失を前記畳み込みニューラルネットワークに逆伝播して、そのパラメーターを調整するステップ、を含む、方法。 - 視覚的特徴ベクトルの前記視覚的埋め込みテンソルは、H×W×C次元画像埋め込みテンソルであり、H及びWはC次元視覚的埋め込みベクトルの空間グリッドの高さ及び幅を示す、請求項2に記載の方法。
- 前記プーリングされた視覚的特徴ベクトルは、コンテキストフィルタを用いてトークン語彙空間にマッピングされる、請求項2又は3に記載の方法。
- 前記マスクされたトークンを予測するステップは、前記視覚的埋め込みベクトルのグリッドにわたって空間注意メカニズムを使用し、注意点数は前記マスクされたトークンの前記潜在表現によって条件付けされる、請求項2乃至4の何れか一項に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/842,311 US11263753B2 (en) | 2020-04-07 | 2020-04-07 | Method for training a convolutional neural network for image recognition using image-conditioned masked language modeling |
US16/842,311 | 2020-04-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021166046A JP2021166046A (ja) | 2021-10-14 |
JP7195365B2 true JP7195365B2 (ja) | 2022-12-23 |
Family
ID=77921160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021064797A Active JP7195365B2 (ja) | 2020-04-07 | 2021-04-06 | 画像条件付きマスク言語モデリングを用いて画像認識のための畳み込みニューラルネットワークを訓練するための方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11263753B2 (ja) |
JP (1) | JP7195365B2 (ja) |
KR (1) | KR102458463B1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403700B2 (en) * | 2019-04-23 | 2022-08-02 | Target Brands, Inc. | Link prediction using Hebbian graph embeddings |
CN111427932B (zh) * | 2020-04-02 | 2022-10-04 | 南方科技大学 | 出行预测方法、装置、设备和存储介质 |
US11526678B2 (en) * | 2020-05-14 | 2022-12-13 | Naver Corporation | Attention over common-sense network for natural language inference |
US20220058477A1 (en) * | 2020-08-21 | 2022-02-24 | Microsoft Technology Licensing, Llc | Hyperparameter Transfer Via the Theory of Infinite-Width Neural Networks |
US11328172B2 (en) * | 2020-08-24 | 2022-05-10 | Huawei Technologies Co. Ltd. | Method for fine-grained sketch-based scene image retrieval |
US11978155B2 (en) * | 2020-09-25 | 2024-05-07 | Intel Corporation | Inferred shading mechanism |
US11475628B2 (en) * | 2021-01-12 | 2022-10-18 | Toyota Research Institute, Inc. | Monocular 3D vehicle modeling and auto-labeling using semantic keypoints |
CN112836110B (zh) * | 2021-02-07 | 2022-09-16 | 四川封面传媒有限责任公司 | 一种热点信息挖掘方法、装置、计算机设备及存储介质 |
US11790885B2 (en) * | 2021-05-06 | 2023-10-17 | International Business Machines Corporation | Semi-structured content aware bi-directional transformer |
US20220382978A1 (en) * | 2021-05-28 | 2022-12-01 | Microsoft Technology Licensing, Llc | Training masked language models based on partial sequences of tokens |
KR20230069780A (ko) | 2021-11-12 | 2023-05-19 | 삼성에스디에스 주식회사 | 멀티 모달 대화를 위한 언어 모델 학습 방법 및 장치 |
CN114049519A (zh) * | 2021-11-17 | 2022-02-15 | 江西航天鄱湖云科技有限公司 | 一种光学遥感图像场景分类方法 |
CN114238649B (zh) * | 2021-11-19 | 2024-08-09 | 中国人民解放军军事科学院军事科学信息研究中心 | 一种常识概念增强的语言模型预训练方法 |
KR102479817B1 (ko) * | 2021-11-25 | 2022-12-21 | 인하대학교 산학협력단 | 소규모 데이터세트를 위한 비전 트랜스포머 장치 및 그 동작 방법 |
CN113936647B (zh) * | 2021-12-17 | 2022-04-01 | 中国科学院自动化研究所 | 语音识别模型的训练方法、语音识别方法和系统 |
CN116486419A (zh) * | 2022-01-14 | 2023-07-25 | 中国科学院深圳先进技术研究院 | 一种基于孪生卷积神经网络的书法字识别方法 |
CN114996513B (zh) * | 2022-05-11 | 2024-06-28 | 湖南大学 | 基于跨模态提示学习的视频问答方法与系统 |
CN115049899B (zh) * | 2022-08-16 | 2022-11-11 | 粤港澳大湾区数字经济研究院(福田) | 模型训练方法、指代表达式生成方法及相关设备 |
CN116011505B (zh) * | 2023-03-15 | 2024-05-14 | 图灵人工智能研究院(南京)有限公司 | 基于特征对比的多模块动态模型训练方法、装置 |
KR102563550B1 (ko) * | 2023-04-14 | 2023-08-11 | 고려대학교산학협력단 | 읽기 전용 프롬프트 학습 방법 및 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268548A1 (en) | 2017-03-14 | 2018-09-20 | Adobe Systems Incorporated | Automatically segmenting images based on natural language phrases |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081089A1 (en) * | 2016-10-26 | 2018-05-03 | Deepmind Technologies Limited | Processing text sequences using neural networks |
US10366166B2 (en) * | 2017-09-07 | 2019-07-30 | Baidu Usa Llc | Deep compositional frameworks for human-like language acquisition in virtual environments |
US11017550B2 (en) * | 2017-11-15 | 2021-05-25 | Uatc, Llc | End-to-end tracking of objects |
US11030414B2 (en) * | 2017-12-26 | 2021-06-08 | The Allen Institute For Artificial Intelligence | System and methods for performing NLP related tasks using contextualized word representations |
US11983633B2 (en) * | 2018-03-01 | 2024-05-14 | Nec Corporation | Machine learning predictions by generating condition data and determining correct answers |
US11269870B2 (en) * | 2018-10-02 | 2022-03-08 | Adobe Inc. | Performing automatic segment expansion of user embeddings using multiple user embedding representation types |
US10873782B2 (en) * | 2018-10-02 | 2020-12-22 | Adobe Inc. | Generating user embedding representations that capture a history of changes to user trait data |
EP3660733B1 (en) * | 2018-11-30 | 2023-06-28 | Tata Consultancy Services Limited | Method and system for information extraction from document images using conversational interface and database querying |
US11550914B2 (en) * | 2019-06-26 | 2023-01-10 | Hrl Laboratories, Llc | System and method for detecting backdoor attacks in convolutional neural networks |
KR20210051343A (ko) * | 2019-10-30 | 2021-05-10 | 삼성에스디에스 주식회사 | 비지도 도메인 적응 장치 및 방법 |
US10949907B1 (en) * | 2020-06-23 | 2021-03-16 | Price Technologies Inc. | Systems and methods for deep learning model based product matching using multi modal data |
-
2020
- 2020-04-07 US US16/842,311 patent/US11263753B2/en active Active
-
2021
- 2021-03-12 KR KR1020210032668A patent/KR102458463B1/ko active IP Right Grant
- 2021-04-06 JP JP2021064797A patent/JP7195365B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268548A1 (en) | 2017-03-14 | 2018-09-20 | Adobe Systems Incorporated | Automatically segmenting images based on natural language phrases |
Non-Patent Citations (3)
Title |
---|
Jiasen Lu et al.,ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks, [online] Computer Vision and Pattern Recognition arXiv:1908.02265v1 [cs.CV],2019年08月06日,[2022.04.15検索], internet <URL: https://arxiv.org/pdf/1908.02265.pdf>,https://arxiv.org/pdf/1908.02265.pdf |
Nils Reimers, Iryna Gurevych,Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks,[online] Computation and Language (cs.CL) arXiv:1908.10084v1 [cs.CL],2019年08月27日,[2022.04.15検索], internet <URL: https://arxiv.org/pdf/1908.10084.pdf>,https://arxiv.org/pdf/1908.10084.pdf |
築山 将央 外3名,Visual Question Answeringのための多種質問回答生成とTransformerを用いたデータ拡張,電子情報通信学会技術研究報告 Vol.118 No.450 IE2018-89,日本,一般社団法人電子情報通信学会,2019年02月12日,pp. 91-96 |
Also Published As
Publication number | Publication date |
---|---|
KR102458463B1 (ko) | 2022-10-26 |
US11263753B2 (en) | 2022-03-01 |
US20210312628A1 (en) | 2021-10-07 |
KR20210124901A (ko) | 2021-10-15 |
JP2021166046A (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7195365B2 (ja) | 画像条件付きマスク言語モデリングを用いて画像認識のための畳み込みニューラルネットワークを訓練するための方法 | |
Logeswaran et al. | Sentence ordering and coherence modeling using recurrent neural networks | |
US11132512B2 (en) | Multi-perspective, multi-task neural network model for matching text to program code | |
CN108733792B (zh) | 一种实体关系抽取方法 | |
CN112084331B (zh) | 文本处理、模型训练方法、装置、计算机设备和存储介质 | |
US10691899B2 (en) | Captioning a region of an image | |
US20210286989A1 (en) | Multi-model, multi-task trained neural network for analyzing unstructured and semi-structured electronic documents | |
CN111738003B (zh) | 命名实体识别模型训练方法、命名实体识别方法和介质 | |
CN111159223A (zh) | 一种基于结构化嵌入的交互式代码搜索方法及装置 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
CN117529755A (zh) | 图像识别系统中的迁移学习 | |
US20230281400A1 (en) | Systems and Methods for Pretraining Image Processing Models | |
CN116304307A (zh) | 一种图文跨模态检索网络训练方法、应用方法及电子设备 | |
CN114547230A (zh) | 一种智能行政执法案例信息抽取和案由认定方法 | |
CN111582506A (zh) | 基于全局和局部标记关系的偏多标记学习方法 | |
Peng et al. | Image to LaTeX with graph neural network for mathematical formula recognition | |
CN114742069A (zh) | 一种代码相似度检测方法及装置 | |
CN116187349A (zh) | 一种基于场景图关系信息增强的视觉问答方法 | |
CN112069825A (zh) | 面向警情笔录数据的实体关系联合抽取方法 | |
CN111767388B (zh) | 一种候选池生成方法 | |
Lin | Deep neural networks for natural language processing and its acceleration | |
Herok et al. | Image Captioning Using Scene Graph and Language Decoder | |
Xiao | Neural-Symbolic Learning for Semantic Parsing | |
Denk et al. | Wordgrid: Extending Chargrid with Word-level Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7195365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |