JP2022013644A - 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム - Google Patents
画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム Download PDFInfo
- Publication number
- JP2022013644A JP2022013644A JP2021035343A JP2021035343A JP2022013644A JP 2022013644 A JP2022013644 A JP 2022013644A JP 2021035343 A JP2021035343 A JP 2021035343A JP 2021035343 A JP2021035343 A JP 2021035343A JP 2022013644 A JP2022013644 A JP 2022013644A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- image
- question
- features
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000000007 visual effect Effects 0.000 claims abstract description 81
- 230000004927 fusion Effects 0.000 claims abstract description 49
- 238000007499 fusion processing Methods 0.000 claims abstract description 16
- 238000010586 diagram Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 40
- 230000006870 function Effects 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012886 linear function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Library & Information Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
及び空間特徴
を抽出する。そのうち、表現特徴Fは、K1個の目標対象に対するK1個のサブ特徴を含め、各サブ特徴は、空間次元数2048であるのベクトルとして表すことができ、空間次元数は、需要に応じて設定することができる。ここでは、単に例である。空間特徴Sはまた、K1個の目標対象に対するK1個のサブ特徴を含め、各サブ特徴は、空間次元数が4であるベクトルとして表され得る。例えば、目標対象に対する外枠(Bounding Box)の高さ値、幅値、および中心点の座標を含む。表現特徴Fと空間特徴Sとを加えて視覚図G305のノード特徴V={F||S}として、併合方式は、例えば、連結併合であってもよい。
というバイナリ表現であり得る。エッジ特徴は、入力画像I304における任意の2つの目標対象間の位置関係により決定することができる。本開示の実施例によれば、上記任意の2つの目標対象は、異なる目標対象を含んでもよいし、同じ目標対象を含んでもよい。上記目標検出ネットワークの処理により、入力画像I304における各目標対象の位置座標、すなわち、各目標対象が占める位置領域を決定することができる。
具体的には、数(4)のように示している。
を学習更新し、例えば、数(6)に示されるような詳細な方法で計算される。
における各第2のサブ特徴を重み付け加算して、最終的に質問に回答するための自己適応特徴表現
を得て、推論特徴(Reasoning Feature)r309ともいう。計算方法は、数(7)のように表すことができる。
を予測する。本例では2層のMLPを用いており、処理の過程は数(8)のように表される。
Claims (15)
- 入力画像及び入力質問を取得することと、
前記入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築することと、
前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新して、更新視覚図を取得することと、
前記入力質問に基づいて質問特徴を決定することと、
前記更新視覚図と前記質問特徴とを融合処理して融合特徴を取得することと、
前記融合特徴に基づいて、前記入力画像及び前記入力質問に対する予測解答を生成することと、を含む
画像質問応答方法。 - 前記入力画像に基づいて視覚図を構築することは、
目標検出ネットワークの中間層から前記入力画像における複数の目標対象に対する表現特徴および空間特徴を抽出するように、前記目標検出ネットワークによって前記入力画像を処理することと、
前記表現特徴および前記空間特徴に基づいて前記ノード特徴を決定することと、
前記目標検出ネットワークの出力層により出力された処理結果に基づいて、前記複数の目標対象のそれぞれの位置情報を決定することと、
前記複数の目標対象のそれぞれの位置情報に基づいて、前記複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することと、
前記任意の2つの目標対象間の位置関係に基づいて前記エッジ特徴を決定することと、
前記ノード特徴および前記エッジ特徴から前記視覚図を構成することと、を含む
請求項1に記載の画像質問応答方法。 - 前記複数の目標対象のそれぞれの位置情報に基づいて、前記複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することは、
前記任意の2つの目標対象のそれぞれの位置情報に基づいて、前記任意の2つの目標対象の位置領域間の共通集合およびマージ集合を計算することと、
前記共通集合と前記マージ集合の比率を計算することと、
前記比率が所定の閾値よりも大きい場合、前記任意の2つの目標対象間の位置関係を1として表することと、
前記比率が所定の閾値以下である場合には、前記任意の2つの目標対象間の位置関係を0と表すことと、を含む
請求項2に記載の画像質問応答方法。 - 前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新することは、
完全接続層と、第1の画像畳み込み層と、第2の画像畳み込み層とを含む予定ニューラルネットワークによって、前記視覚図のノード特徴に対して、少なくとも1回の更新操作を実行することを含み、
前記少なくとも1回の更新操作の各々の更新操作は、
完全接続層によって、前記視覚図のノード特徴を、予定数に等しい空間次元数を有する第1の特徴にマッピングすることと、
第1の画像畳み込み層によって、前記第1の特徴を処理し、第2の特徴を取得することと、
第2の画像畳み込み層によって、前記第2の特徴を処理し、更新されたノード特徴を取得することと、
前記更新されたノード特徴と前記エッジ特徴とから前記更新視覚図を構成することと、を含む
請求項1に記載の画像質問応答方法。 - 前記少なくとも1回の更新操作の各々の更新操作は、前記エッジ特徴に基づいてラプラス行列を構築することをさらに含み、
第1の画像畳み込み層によって前記第1の特徴を処理することは、前記第1の画像畳み込み層によって、前記ラプラス行列に基づいて、前記第1の特徴を処理し、複数の第1のサブ特徴を含む前記第2の特徴を取得することを含む
請求項4に記載の画像質問応答方法。 - 前記予定ニューラルネットワークは関連層をさらに含み、
前記少なくとも1回の更新操作の各々の更新操作は、関連層によって、前記複数の第1のサブ特徴のうちの任意の2つのサブ特徴間の関連関係を計算し、前記任意の2つのサブ特徴間の関連関係に基づいて、関係行列を決定することをさらに含み、
第2の画像畳み込み層によって前記第2の特徴を処理することは、前記第2の画像畳み込み層によって、前記関係行列に基づいて、前記第2の特徴を処理し、前記更新されたノード特徴を取得することを含む
請求項5に記載の画像質問応答方法。 - 前記任意の2つの第1のサブ特徴間の関連関係は、
前記任意の2つの第1のサブ特徴間のユークリッド距離、又は
前記任意の2つの第1のサブ特徴間のコサイン類似度を含む
請求項6に記載の画像質問応答方法。 - 前記入力質問に基づいて質問特徴を決定することは、
単語符号化アルゴリズム及び特徴符号化アルゴリズムによって、前記入力質問を順次符号化処理して前記質問特徴を取得することを含む
請求項1に記載の画像質問応答方法。 - 前記更新視覚図は、複数の第2のサブ特徴を含む更新されたノード特徴を含み、
前記更新視覚図及び前記質問特徴を融合処理することは、
注意力メカニズムに基づいて、前記複数の第2のサブ特徴のそれぞれと前記質問特徴との間の注意力重みを決定することと、
前記複数の第2のサブ特徴のそれぞれと前記質問特徴との間の注意力重みによって、前記複数の第2のサブ特徴を加重加算して、自己適応特徴を取得することと、
前記自己適応特徴と前記質問特徴量とを融合処理して前記融合特徴を取得することと、を含む
請求項1に記載の画像質問応答方法。 - 前記自己適応特性および前記質問特徴を融合処理することは、
前記自己適応特徴と前記質問特徴とを要素毎に点乗算操作して前記融合特徴を取得することを含む
請求項9に記載の画像質問応答方法。 - 前記融合特徴に基づいて前記入力画像及び前記入力質問に対する予測解答を生成することは、
マルチレイヤ感知機によって前記融合特徴を処理し、前記融合特徴に対する予測解答を取得することを含む
請求項10に記載の画像質問応答方法。 - 入力画像及び入力質問を取得する取得モジュールと、
前記入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築する画像構築モジュールと、
前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新して、更新視覚図を取得する更新モジュールと、
前記入力質問に基づいて質問特徴を決定する質問特徴抽出モジュールと、
前記更新視覚図と前記質問特徴とを融合処理して融合特徴を取得する融合モジュールと、
前記融合特徴に基づいて、前記入力画像及び前記入力質問に対する予測解答を生成する予測モジュールと、を含む
画像質問応答装置。 - コンピュータ命令が記憶されたメモリと、
少なくとも1つのプロセッサと、を含み、
前記プロセッサは、前記コンピュータ命令を実行する場合、請求項1~11のいずれか一つ項による方法を実現する
コンピュータ装置。 - プロセッサによって実行される際に、請求項1~11のいずれか一つ項による方法を実現するコンピュータ命令が記憶された
非一時的なコンピュータ読み取り可能な記憶媒体。 - 実行される際に、請求項1~11のいずれか一つ項による方法を実現するコンピュータ命令を含むコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010616632.6A CN111782840B (zh) | 2020-06-30 | 2020-06-30 | 图像问答方法、装置、计算机设备和介质 |
CN202010616632.6 | 2020-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022013644A true JP2022013644A (ja) | 2022-01-18 |
JP7196218B2 JP7196218B2 (ja) | 2022-12-26 |
Family
ID=72761522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035343A Active JP7196218B2 (ja) | 2020-06-30 | 2021-03-05 | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11768876B2 (ja) |
EP (1) | EP3859560A3 (ja) |
JP (1) | JP7196218B2 (ja) |
KR (1) | KR20220002065A (ja) |
CN (1) | CN111782840B (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7481995B2 (ja) * | 2020-10-28 | 2024-05-13 | 株式会社東芝 | 状態判定装置、方法およびプログラム |
US20220189060A1 (en) * | 2020-12-10 | 2022-06-16 | Niantic, Inc. | Visual Camera Re-Localization using Graph Neural Networks and Relative Pose Supervision |
EP4099280B1 (en) * | 2021-06-04 | 2024-07-24 | Tata Consultancy Services Limited | Method and system for confidence level detection from eye features |
US20230106716A1 (en) * | 2021-10-05 | 2023-04-06 | Samsung Electronics Co., Ltd. | Multi-Granularity Alignment for Visual Question Answering |
CN114842368B (zh) * | 2022-05-07 | 2023-10-03 | 中国电信股份有限公司 | 基于场景的视觉辅助信息确定方法、系统、设备及存储介质 |
CN115017314B (zh) * | 2022-06-02 | 2024-08-16 | 电子科技大学 | 一种基于注意力机制的文本分类方法 |
CN115496976B (zh) * | 2022-08-29 | 2023-08-11 | 锋睿领创(珠海)科技有限公司 | 多源异构数据融合的视觉处理方法、装置、设备及介质 |
CN115310611B (zh) * | 2022-10-12 | 2023-03-24 | 苏州浪潮智能科技有限公司 | 一种人物意图推理方法及相关装置 |
US20240202551A1 (en) * | 2022-12-16 | 2024-06-20 | Intuit Inc. | Visual Question Answering for Discrete Document Field Extraction |
CN116542995B (zh) * | 2023-06-28 | 2023-09-22 | 吉林大学 | 一种基于区域表示和视觉表示的视觉问答方法及系统 |
CN116881427B (zh) * | 2023-09-05 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 问答处理方法、装置、电子设备及存储介质 |
CN117271818B (zh) * | 2023-11-22 | 2024-03-01 | 鹏城实验室 | 视觉问答方法、系统、电子设备及存储介质 |
CN118467707A (zh) * | 2024-07-10 | 2024-08-09 | 北京大学 | 一种医学视觉问答方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124432A1 (en) * | 2015-11-03 | 2017-05-04 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102039397B1 (ko) * | 2018-01-30 | 2019-11-01 | 연세대학교 산학협력단 | 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법 |
CN109255359B (zh) * | 2018-09-27 | 2021-11-12 | 南京邮电大学 | 一种基于复杂网络分析方法的视觉问答问题解决方法 |
US11544535B2 (en) * | 2019-03-08 | 2023-01-03 | Adobe Inc. | Graph convolutional networks with motif-based attention |
CN110222770B (zh) * | 2019-06-10 | 2023-06-02 | 成都澳海川科技有限公司 | 一种基于组合关系注意力网络的视觉问答方法 |
CN110348535B (zh) * | 2019-07-17 | 2022-05-31 | 北京金山数字娱乐科技有限公司 | 一种视觉问答模型训练方法及装置 |
CN110717024B (zh) * | 2019-10-08 | 2022-05-17 | 苏州派维斯信息科技有限公司 | 基于图像视觉到文本转换的视觉问答问题解决方法 |
-
2020
- 2020-06-30 CN CN202010616632.6A patent/CN111782840B/zh active Active
-
2021
- 2021-01-28 US US17/161,466 patent/US11768876B2/en active Active
- 2021-02-26 KR KR1020210026421A patent/KR20220002065A/ko active IP Right Grant
- 2021-03-05 JP JP2021035343A patent/JP7196218B2/ja active Active
- 2021-03-26 EP EP21165274.8A patent/EP3859560A3/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170124432A1 (en) * | 2015-11-03 | 2017-05-04 | Baidu Usa Llc | Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering |
JP2017091525A (ja) * | 2015-11-03 | 2017-05-25 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 |
Non-Patent Citations (2)
Title |
---|
DAMIEN TENEY、外2名: ""Graph-Structured Representations for Visual Question Answering"", ARXIV, JPN7022002209, 30 March 2017 (2017-03-30), ISSN: 0004774356 * |
LINJIE LI 、外3名: ""Relation-Aware Graph Attention Network for Visual Question Answering"", ARXIV, JPN7022002208, 9 October 2019 (2019-10-09), ISSN: 0004774357 * |
Also Published As
Publication number | Publication date |
---|---|
CN111782840B (zh) | 2023-08-22 |
JP7196218B2 (ja) | 2022-12-26 |
US20210406468A1 (en) | 2021-12-30 |
CN111782840A (zh) | 2020-10-16 |
EP3859560A3 (en) | 2021-10-20 |
EP3859560A2 (en) | 2021-08-04 |
KR20220002065A (ko) | 2022-01-06 |
US11768876B2 (en) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022013644A (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム | |
JP7167216B2 (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体およびプログラム | |
US11610115B2 (en) | Learning to generate synthetic datasets for training neural networks | |
JP7206309B2 (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム | |
WO2022042002A1 (zh) | 一种半监督学习模型的训练方法、图像处理方法及设备 | |
AU2019200270B2 (en) | Concept mask: large-scale segmentation from semantic concepts | |
CN111727441B (zh) | 实现用于高效学习的条件神经过程的神经网络系统 | |
TWI584206B (zh) | Inference Device and Inference Method | |
US20230095606A1 (en) | Method for training classifier, and data processing method, system, and device | |
TWI831016B (zh) | 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體 | |
Lin et al. | DiffConv: Analyzing irregular point clouds with an irregular view | |
US20220156524A1 (en) | Efficient Neural Networks via Ensembles and Cascades | |
US20220253698A1 (en) | Neural network-based memory system with variable recirculation of queries using memory content | |
JP7512416B2 (ja) | 少数ショット類似性決定および分類のためのクロストランスフォーマニューラルネットワークシステム | |
Ferguson et al. | A standardized PMML format for representing convolutional neural networks with application to defect detection | |
CN111062477B (zh) | 一种数据处理方法、装置及存储介质 | |
Han et al. | RD-NMSVM: neural mapping support vector machine based on parameter regularization and knowledge distillation | |
KR20210141150A (ko) | 이미지 분류 모델을 이용한 이미지 분석 방법 및 장치 | |
Bengana et al. | Seeking attention: Using full context transformers for better disparity estimation | |
US20240257504A1 (en) | Systems and methods for semantic image segmentation model learning new object classes | |
US20240242365A1 (en) | Method and apparatus with image processing | |
US20240070453A1 (en) | Method and apparatus with neural network training | |
Zhuang et al. | Learning an optimisable semantic segmentation map with image conditioned variational autoencoder | |
Hurtik et al. | Image Segmentation Losses with Modules Expressing a Relationship Between Predictions | |
KR20230071719A (ko) | 이미지 처리용 신경망 훈련 방법 및 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7196218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |