JP2022013644A - 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム - Google Patents

画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム Download PDF

Info

Publication number
JP2022013644A
JP2022013644A JP2021035343A JP2021035343A JP2022013644A JP 2022013644 A JP2022013644 A JP 2022013644A JP 2021035343 A JP2021035343 A JP 2021035343A JP 2021035343 A JP2021035343 A JP 2021035343A JP 2022013644 A JP2022013644 A JP 2022013644A
Authority
JP
Japan
Prior art keywords
feature
image
question
features
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021035343A
Other languages
English (en)
Other versions
JP7196218B2 (ja
Inventor
夏孟 欽
Xiameng Qin
▲ユウ▼林 李
Yulin Li
群義 謝
Qunyi Xie
聚 黄
Ju Huang
鈞宇 韓
Junyu Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022013644A publication Critical patent/JP2022013644A/ja
Application granted granted Critical
Publication of JP7196218B2 publication Critical patent/JP7196218B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Library & Information Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像と当該画像に関連する質問に対する解答を予測する画像質問応答方法、装置、コンピュータ装置及び媒体を提供する。【解決手段】方法は、入力画像及び入力質問を取得することと、入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築することと、ノード特徴およびエッジ特徴に基づいて、ノード特徴を更新して、更新視覚図を取得することと、入力質問に基づいて質問特徴を決定することと、更新視覚図と質問特徴とを融合処理して融合特徴を取得することと、融合特徴に基づいて、入力画像及び入力質問に対する予測解答を生成することと、を含む。【選択図】図2

Description

本開示は、コンピュータ視覚、自然言語処理の分野に関し、より具体的には、画像質問応答方法、装置、コンピュータ装置および媒体に関する。
画像質問応答(Visual Question Answering、VQA )は、コンピュータ視覚と自然言語処理を関連付けることを目的とした非常に困難なタスクである。画像質問応答タスクでは、例えば、画像および関連質問が与えられ、機械が画像の内容に基づいて幾つかの常識と組み合わせて質問に対する解答を推論することが要求される。この画像質問応答タスクを完成するために、機械は、視覚及び言語という2つの異なるモダリティ(Modality)でのデータを総合的に理解するように、クロスモーダル(Cross-Modal)の理解能力を有していなければならない。画像質問応答タスクは他の単一モダリティでのタスク(例えば画像識別、ドキュメント分類等)よりも高い要求を有する。
本発明は、上記課題に鑑みてなされたものであり、画像質問応答方法、装置、コンピュータ装置及び媒体を提供している。
本開示の一態様は、画像質問応答方法を提供し、入力画像及び入力質問を取得することと、入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築することと、上記ノード特徴およびエッジ特徴に基づいて、ノード特徴を更新して、更新視覚図を取得することと、入力質問に基づいて質問特徴を決定することと、更新視覚図と質問特徴とを融合処理して融合特徴を取得することと、融合特徴に基づいて、入力画像及び入力質問に対する予測解答を生成することと、を含む。
本開示の実施例によれば、前記入力画像に基づいて視覚図を構築することは、目標検出ネットワークの中間層から入力画像における複数の目標対象に対する表現特徴および空間特徴を抽出するように、目標検出ネットワークによって入力画像を処理することと、上記表現特徴および空間特徴に基づいてノード特徴を決定することと、目標検出ネットワークの出力層により出力された処理結果に基づいて、複数の目標対象のそれぞれの位置情報を決定することと、複数の目標対象のそれぞれの位置情報に基づいて、複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することと、任意の2つの目標対象間の位置関係に基づいてエッジ特徴を決定することと、ノード特徴およびエッジ特徴から視覚図を構成することと、を含む。
本開示の実施例によれば、前記複数の目標対象のそれぞれの位置情報に基づいて、複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することは、任意の2つの目標対象のそれぞれの位置情報に基づいて、任意の2つの目標対象の位置領域間の共通集合およびマージ集合を計算することと、共通集合とマージ集合の比率を計算することと、当該比率が所定の閾値よりも大きい場合、当該任意の2つの目標対象間の位置関係を1として表することと、当該比率が所定の閾値以下である場合には、当該任意の2つの目標対象間の位置関係を0と表すことと、を含む。
本開示の実施例によれば、ノード特徴およびエッジ特徴に基づいて、ノード特徴を更新することは、完全接続層と、第1の画像畳み込み層と、第2の画像畳み込み層を含む予定ニューラルネットワークによって、視覚図のノード特徴に対して、少なくとも1回の更新操作を実行することを含み、上記少なくとも1回の更新操作の各々の更新操作は、完全接続層によって、視覚図のノード特徴を、予定数に等しい空間次元数を有する第1の特徴にマッピングすることと、第1の画像畳み込み層によって、第1の特徴を処理し、第2の特徴を取得することと、第2の画像畳み込み層によって、第2の特徴を処理し、更新されたノード特徴を取得することと、更新されたノード特徴とエッジ特徴とから更新視覚図を構成することと、を含む。
本開示の実施例によれば、少なくとも1回の更新操作の各々の更新操作は、エッジ特徴に基づいてラプラス行列を構築することをさらに含む。第1の画像畳み込み層によって第1の特徴を処理することは、第1の画像畳み込み層によって、ラプラス行列に基づいて、第1の特徴を処理し、複数の第1のサブ特徴を含む第2の特徴を取得することを含む。
本開示の実施例によれば、予定ニューラルネットワークは関連層をさらに含む。少なくとも1回の更新操作の各々の更新操作は、関連層によって、複数の第1のサブ特徴のうちの任意の2つのサブ特徴間の関連関係を計算し、任意の2つのサブ特徴間の関連関係に基づいて、関係行列を決定することをさらに含む。第2の画像畳み込み層によって第2の特徴を処理することは、第2の画像畳み込み層によって、関係行列に基づいて、第2の特徴を処理し、更新されたノード特徴を取得することを含む。
本開示の実施例によれば、上記任意の2つの第1のサブ特徴間の関連関係は、当該任意の2つの第1のサブ特徴間のユークリッド距離、又は当該任意の2つの第1のサブ特徴間のコサイン類似度を含む。
本開示の実施例によれば、入力質問に基づいて質問特徴を決定することは、単語符号化アルゴリズム及び特徴符号化アルゴリズムによって、入力質問を順次符号化処理して質問特徴を取得することを含む。
本開示の実施例によれば、上記更新視覚図は、複数の第2のサブ特徴を含む更新されたノード特徴を含む。上記更新視覚図及び質問特徴を融合処理することは、注意力メカニズムに基づいて、複数の第2のサブ特徴のそれぞれと質問特徴との間の注意力重みを決定することと、複数の第2のサブ特徴のそれぞれと質問特徴との間の注意力重みによって、複数の第2のサブ特徴を加重加算して、自己適応特徴を取得することと、自己適応特徴と質問特徴量とを融合処理して融合特徴を取得することと、を含む。
本開示の実施例によれば、自己適応特性および質問特徴を融合処理することは、自己適応特徴と質問特徴とを要素毎に点乗算操作して前記融合特徴を取得することを含む。
本開示の実施例によれば、融合特徴に基づいて入力画像及び入力質問に対する予測解答を生成することは、マルチレイヤ感知機によって融合特徴を処理し、融合特徴に対する予測解答を取得することを含む。
本開示の別の態様は、画像質問応答装置を提供し、取得モジュール、画像構築モジュール、更新モジュール、質問特徴抽出モジュール、融合モジュールおよび予測モジュールを含む。取得モジュールは、入力画像及び入力質問を取得する。画像構築モジュールは、入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築する。更新モジュールは、ノード特徴およびエッジ特徴に基づいて、ノード特徴を更新して、更新視覚図を取得する。質問特徴抽出モジュールは、入力質問に基づいて質問特徴を決定する。融合モジュールは、更新視覚図と質問特徴とを融合処理して融合特徴を取得する。予測モジュールは、融合特徴に基づいて、入力画像及び入力質問に対する予測解答を生成する。
本開示の実施例によれば、画像構築モジュールは、目標検出ネットワークの中間層から入力画像における複数の目標対象に対する表現特徴および空間特徴を抽出するように、目標検出ネットワークによって入力画像を処理する検出サブモジュールと、上記表現特徴および空間特徴に基づいてノード特徴を決定するノード特徴決定サブモジュールと、目標検出ネットワークの出力層により出力された処理結果に基づいて、複数の目標対象のそれぞれの位置情報を決定し、複数の目標対象のそれぞれの位置情報に基づいて、複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定し、任意の2つの目標対象間の位置関係に基づいてエッジ特徴を決定するエッジ特徴決定サブモジュールと、ノード特徴およびエッジ特徴から視覚図を構成する図面構築サブモジュールと、を含む。
本開示の実施例によれば、エッジ特徴決定サブモジュールが、前記複数の目標対象のそれぞれの位置情報に基づいて、複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することは、エッジ特徴決定サブモジュールが、任意の2つの目標対象のそれぞれの位置情報に基づいて、当該任意の2つの目標対象の位置領域間の共通集合およびマージ集合を計算することと、共通集合とマージ集合の比率を計算することと、当該比率が所定の閾値よりも大きい場合、当該任意の2つの目標対象間の位置関係を1として表することと、当該比率が所定の閾値以下である場合には、当該任意の2つの目標対象間の位置関係を0と表すことと、を含む。
本開示の実施例によれば、更新モジュールは、完全接続層と、第1の画像畳み込み層と、第2の画像畳み込み層とを含む予定ニューラルネットワークによって、視覚図のノード特徴に対して、少なくとも1回の更新操作を実行する。更新モジュールは、完全接続層によって、視覚図のノード特徴を、予定数に等しい空間次元数を有する第1の特徴にマッピングするマッピングサブモジュールと、第1の画像畳み込み層によって、第1の特徴を処理し、第2の特徴を取得する第1の画像畳み込みサブモジュールと、第2の画像畳み込み層によって、第2の特徴を処理し、更新されたノード特徴を取得する第2の画像畳み込みサブモジュールと、更新されたノード特徴とエッジ特徴とから更新視覚図を構成する更新サブモジュールと、を含む。
本開示の実施例によれば、更新モジュールは、エッジ特徴に基づいてラプラス行列を構築する第1の構築サブモジュールをさらに含む。第1の画像畳み込みモジュールは、第1の画像畳み込み層によって、ラプラス行列に基づいて、第1の特徴を処理し、複数の第1のサブ特徴を含む第2の特徴を取得する。
本開示の実施例によれば、予定ニューラルネットワークは関連層をさらに含む。更新モジュールは、関連層によって、複数の第1のサブ特徴のうちの任意の2つのサブ特徴間の関連関係を計算し、任意の2つの第1のサブ特徴間の関連関係に基づいて、関係行列を決定する第2の構築サブモジュールをさらに含む。第2の画像畳み込みモジュールは、第2の画像畳み込み層によって、関係行列に基づいて、第2の特徴を処理し、更新されたノード特徴を取得する。
本開示の実施例によれば、上記任意の2つの第1のサブ特徴間の関連関係は、当該任意の2つの第1のサブ特徴間のユークリッド距離、又は当該任意の2つの第1のサブ特徴間のコサイン類似度を含む。
本開示の実施例によれば、質問特徴抽出モジュールは、単語符号化アルゴリズム及び特徴符号化アルゴリズムによって、入力質問を順次符号化処理して質問特徴を取得する。
本開示の実施例によれば、上記更新視覚図は、複数の第2のサブ特徴を含む更新されたノード特徴を含む。融合モジュールは、注意力メカニズムに基づいて、複数の第2のサブ特徴のそれぞれと質問特徴との間の注意力重みを決定する注意力サブモジュールと、複数の第2のサブ特徴のそれぞれと質問特徴との間の注意力重みによって、複数の第2のサブ特徴を加重加算して、自己適応特徴を取得する自己適応サブモジュールと、自己適応特徴と質問特徴量とを融合処理して融合特徴を取得する融合サブモジュールと、を含む。
本開示の実施例によれば、融合サブモジュールは、自己適応特徴と質問特徴とを要素毎に点乗算操作して融合特徴を取得する。
本開示の実施例によれば、予測モジュールは、マルチレイヤ感知機によって融合特徴を処理し、融合特徴に対する予測解答を取得する。
本開示の別の態様は、コンピュータ装置を提供しており、メモリと、プロセッサと、メモリに記憶されたプロセッサに実行されるコンピュータプログラムとを含み、前記プロセッサが前記プログラムを実行する場合、上記方法を実現する。
本開示の別の態様は、非一時的なコンピュータ読み取り可能な記憶媒体を提供しており、実行される際に、上記方法を実現するコンピュータ実行可能な命令が記憶される。
本開示の別の態様は、コンピュータプログラムを提供しており、実行される際に、上記方法を実現するコンピュータ実行可能な命令を含む。
本発明の実施例による画像質問応答方法は、入力画像及び入力質問を取得した後、入力画像のトポロジー(視覚図)を構築することにより、画像における目標対象の特徴情報と目標対象との間の潜在的な関係を表し、入力画像が複雑である場合のノイズの影響を低減する。視覚図におけるノード特徴によって更新することで、入力画像の浅いおよび深い語義特徴をより完全に正確に表現することができる更新視覚図を得る。これに基づいて、更新視覚図と質問特徴に対して融合処理を行い、融合処理で得られた融合特徴に基づいて最終解答の予測を行う。入力画像の特徴表現に対する前期の最適化の結果として、複雑な入力に対する画像質問応答過程の推論能力は効果的に高められ、本開示の実施例による画像質問応答過程はより解釈性が高くなる。
以下、図面を参照して本開示の実施例を説明することにより、本開示の上記および他の目的、特徴や利点は、より明らかになる。
図1は、本開示の実施例による画像質問応答方法及び装置を適用するための例示的なシステムアーキテクチャを概略的に示している。 図2は、本開示の実施例による画像質問応答方法のフローチャートを概略的に示している。 図3Aは、本開示の実施例による画像質問応答過程の例示的な概略図を概略的に示している。 図3Bは、本開示の別の実施例による画像質問応答過程の例示的な概略図を概略的に示している。 図3Cは、本開示の実施例による画像畳み込み符号化モジュールの例示的な構造図を概略的に示している。 図4は、本開示の実施例による画像質問応答装置のブロック図を概略的に示している。 図5は、本開示の実施例によるコンピュータ装置のブロック図を概略的に示している。
以下、本開示の実施例について、図面を参照しながら説明する。しかしながら、これらの説明が例示的なものであり、本開示の範囲を限定するものではないことを理解されたい。以下の詳細な説明では、説明を容易にするために、本開示の実施例に対する全面的な理解を提供するように、多数の具体的な詳細が記載される。しかしながら、これらの具体的な詳細なしに1つ以上の実施例が実施されてもよいことは明らかである。また、以下の説明において、本開示の概念を不必要に混乱させることを避けるように、周知の構造及び技術に対する説明は省略する。
ここで使用される用語は、具体的な実施例を説明するためのものに過ぎず、本開示を限定することを意図しない。「備える」、「含む」などのここで使用される用語は、前記特徴、ステップ、操作、および/または部品の存在を示すが、1つまたは複数の他の特徴、ステップ、操作または部品の存在または追加を除外しない。
ここで使用される全ての用語(技術的及び科学的用語を含む)は、別途定義されない限り、当業者によって一般的に理解される意味を有する。ここで使用される用語は、本明細書の文脈と一致する意味を有すると解釈されるべきであり、理想的または過度に形式的に解釈されるべきではないことに留意されたい。
「A、B及びCなどのうちの少なくとも1つ」に類似する表現を使用する場合、その表現の意味が当業者によって一般的に理解されるように解釈されるべきである(例えば、「A、B及びCのうちの少なくとも1つを有するシステム」は、Aを単独で有するシステム、Bを単独で有するシステム、Cを単独で有するシステム、A及びBを有するシステム、A及びCを有するシステム、B及びCを有するシステム、及び/又はA、B、Cを有するシステムなどを含むが、これらに限定されない)。「A、B及びCなどのうちの少なくとも1つ」に類似する表現を使用する場合、その表現の意味が当業者によって一般的に理解されるように解釈されるべきである(例えば、「A、B又はCのうちの少なくとも1つを有するシステム」は、Aを単独で有するシステム、Bを単独で有するシステム、Cを単独で有するシステム、A及びBを有するシステム、A及びCを有するシステム、B及びCを有するシステム、及び/又はA、B、Cを有するシステムなどを含むが、これらに限定されない)。
本開示の実施例は、画像質問応答方法、装置、コンピュータ装置、媒体及びプログラムを提供している。画像質問応答方法は、取得過程、画像構築過程、更新過程、問題特徴抽出過程、融合過程、及び予測過程を含むことができる。取得過程では、入力画像と入力質問とが取得される。入力画像に対して、ノード特徴とエッジ特徴を含む視覚図を構築する画像構築過程と、更新過程とを行う。更新過程では、視覚図におけるノード特徴及びエッジ特徴に基づいて、ノード特徴を更新し、更新視覚図を得る。入力質問に対して質問抽出過程を行い、質問特徴を決定する。次に、融合過程を行い、更新視覚図と質問特徴に対して融合処理を行って融合特徴を得る。融合特徴に基づいて予測過程を行い、入力画像及び入力質問に対する予測解答を生成することができる。
画像質問応答は、コンピュータ視覚と自然言語処理との関連付けを目標とする挑戦的なタスクである。画像質問応答タスクでは、例えば、画像および関連質問が与えられ、機械は、画像の内容に基づいて、幾つかの常識と組み合わせて、質問に対する解答を推論することが要求される。この画像の問答タスクを完成するために、機械は、視覚および言語という2つの異なるモダリティでのデータに対して総合的な理解を実現するように、クロスモーダルな理解能力を有していなければならない。画像質問応答タスクは、他の単一モダリティでのタスク(例えば画像識別、ドキュメント分類等)よりも高い要求を有する。現在、画像質問応答システムは、学術界及び産業界の両方で広く研究されており、画像質問応答システムは、任意の自然言語で記述された質問及び所与の画像に対して、十分な理解及び推論を行った後、自然言語で正確に回答するように、適切なモデルを設計することを目標とする。しかし、現在の画像質問応答システムは、例えばクロスモーダルデータの融合や効果的な関係推論などの課題がまだ解決されていない。
図1は、本開示の実施例による画像質問応答方法および装置を適用できる例示的なシステムアーキテクチャ100を概略的に示している。図1は、当業者が本開示の技術内容を理解させるように、本開示の実施例を適用できるシステムアーキテクチャの例示に過ぎず、本開示の実施例が他の装置、システム、環境又はシナリオで使用できないことを意味するものではないことに留意されたい。
図1に示すように、本実施例によるシステムアーキテクチャ100は、複数の端末装置110、ネットワーク120、及びサーバ130を含むことができる。ここで、端末装置110は、例えば、デスクトップ型コンピュータ、携帯型コンピュータ、スマートフォン、タブレット型コンピュータなどの各種端末装置であってもよいが、ここでは限定されない。サーバ130は、様々な計算能力を有する電子デバイスであってもよく、例えば、サーバまたはサーバクラスタであってもよく、ここでは限定されない。端末装置110は、様々な機能のソフトウェアクライアントをロードして、ソフトウェアクライアントを介してサーバ130と対話することができる。
なお、一実施例において、本開示の実施例による画像質問応答方法は、端末装置110によって実施されることができ、相応的には、画像質問応答装置は、端末装置110に設けられることができる。別の実施例において、本開示の実施例による画像質問応答方法は、サーバ130によって実施されることができ、相応的には、画像質問応答装置は、サーバ130に設けられることができる。さらに別の実施例において、本発明の実施例による画像質問応答方法は、端末装置110及び/又はサーバ130と相互通信可能な他の装置によって実施されることができ、相応的には、画像質問応答装置は、他の装置に設けられることができる。
近年、画像質問応答の進展は目覚ましく、コンピュータ視覚や自然言語処理の分野から注目を集めている。画像質問応答タスクを解決するための提案が各分野で数多くなされている。ほとんどの提案は、エンドツーエンドの手順を採用しており、例えば、事前にトレーニングされた畳み込みニューラルネットワークを用いて画像特徴を抽出し、再帰ニューラルネットワークを用いて質問を示し、そして、画像特徴と質問特徴を関連して解答を予測する。現在の画像質問応答提案は、(1)粗粒度クロスモーダル表現による画像質問応答モデル、(2)注意力メカニズムに基づく細粒度クロスモーダル表現モデル、(3)外部知識又は知識ネットワークに基づく画像質問応答モデルという3つのモデルを利用することが多い。
モデル(1)は、最も直接的な画像質問応答モデルである。クロスモーダル特徴融合がこのモデルの中心であるが、処理内容が比較的複雑で、主体が多数存在する画像である場合、解答予測の正確性に影響を与える可能性のあるノイズが必然的により多く導入される。質問テキストに対する処理においても同様な課題があり、質問が長く、画像に関連する単語が多数存在する場合、このモデルで、質問者が所望するキーワードを捕捉し難く、最終的に解答の予測の正確性が悪くなる。モデル(2)は、上記した粗粒度クロスモーダル表現モデルに基づいて、注意力メカニズムを導入したものであり、これは、細粒度クロスモーダルの表現能力を大きく向上させる。しかし、現在、画像質問応答モデルに用いられる注意力モデルは、質問の特徴に基づいて画像の注目領域を学習することが多く、質問自体の注目点学習を無視し、すなわち、質問におけるキーワード又はフレーズに対する注意力学習を無視しているため、解答の予測正確性が悪い。モデル(3)の難点は、従来のモデルは、外部知識と画像質問応答データセットにおけるすべての質問とをマッピングすることが困難であり、一部の問題しか解決できず、汎用性に乏しい点である。
上記分析から分かるように、従来の画像質問応答提案は、以下の問題がある。一、クロスモーダルの融合戦略が不十分であり、複雑な融合モデルを導入するとともに、モデルの計算効率も大きく低下している。そのため、如何にして効果的な特徴融合を保障するとともに計算コストを低減するかのアルゴリズムを検討することは、画像質問応答の重要な開発方向である。二、関係推論の能力が不足する。多くの実際な画像質問応答過程では、モデルが多段階の関係推論によって最終的な解答を見つける必要があるが、現在のモデルは、複数のモダリティ特徴融合によって質問に回答し、複雑な質問に対する理解および推論の効果を不十分にしている。
本開示の実施例によれば、画像質問応答方法が提供される。この方法を、図面を用いて例示的に説明する。なお、以下の方法における各操作の番号は、説明の便宜上、その操作を示したものであり、各操作の実行順序を示すものと解釈してはならない。特に明記しない限り、この方法は、示された順序で完全に実行される必要はない。
図2は、本開示の実施例による画像質問応答方法のフローチャートを概略的に示している。
図2に示すように、この方法は、操作S201~操作S206を含む。
操作S201において、入力画像及び入力質問を取得する。
操作S202において、入力画像に基づいて、視覚図(Visual Graph)を構築する。
本開示の実施例によれば、視覚図は、入力画像のトポロジー表現であり、入力画像の特徴情報をより完全に正確に示している。例示的に、視覚図は、ノード(Node)特徴及びエッジ(Edge)特徴を含むことができる。ノード特徴は、入力画像内の1つ以上の目標対象の特徴情報を示し、エッジ特徴は、入力画像における目標対象間の潜在的な関係を示している。
操作S203において、上述ノード特徴とエッジ特徴に基づいて、ノード特徴を更新し、更新視覚図を取得する。
本開示の実施例によれば、もともと構築されていたノード特徴およびエッジ特徴に基づいて、ノード特徴における明示的および暗黙的な関係を学習することができる。更新視覚図が入力画像におけるより深い意味的語義関係を示すように、明示的および暗黙的な関係を用いて、ノード特徴を更新する。
操作S204において、入力質問に基づいて質問特徴を決定する。
操作S205において、更新視覚図および質問特徴に対して融合処理を行って融合特徴を取得する。
操作S206において、融合特徴に基づいて入力画像及び入力質問に対する予測解答を生成する。
本開示の実施例による画像質問応答方法が、入力画像と入力質問を取得した後、入力画像のトポロジー(視覚図)を構築することにより、画像における目標対象の特徴情報と目標対象間の潜在的な関係を表し、入力画像が複雑である場合のノイズの影響を低減することが当業者に理解される。視覚図におけるノード特徴によって更新することで、入力画像の浅いおよび深い語義特徴をより完全に正確に表現することができる更新視覚図を得る。これに基づいて、更新視覚図と質問特徴に対して融合処理を行い、融合処理で得られた融合特徴に基づいて最終解答の予測を行う。入力画像の特徴表現に対する前期の最適化の結果として、複雑な入力に対する画像質問応答過程の推論能力は効果的に高められ、本開示の実施例による画像質問応答過程はより解釈性が高くなる。
以下、図3A、図3B及び図3Cを参照して、具体的な実施例を組み合わせ、本開示の実施例による画像質問応答方法を例示的に説明する。
図3Aは、本開示の実施例による画像質問応答過程の例示的な概略図を概略的に示している。図3Bは、本開示の別の実施例による画像質問応答過程の例示的な概略図を概略的に示している。
図3Aに示す例では、ネットワークモデル300を予め構築することができ、当該ネットワークモデル300は、順次に接続された画像構築モジュール301と、直列に接続された1つ以上の画像畳み込み符号化モジュール(GCN Encoder)302と、視覚図に基づく問答モジュール303とを含むことができる。本開示の実施例によれば、上記のネットワークモデル300を訓練することによって、当該ネットワークモデル300が図2に示すような画像質問応答タスクを実行する能力を有する必要がある。訓練過程では、サンプル画像及びサンプル質問を上記ネットワークモデル300に入力し、ネットワークモデル300の目的関数が収束するまで、ネットワークモデル300の出力とサンプルラベルとの差異に応じてネットワークモデル300のパラメータを最適化する。ここで、サンプルラベルは、サンプル画像及びサンプル質問に対する真実解答である。ネットワークモデル300に対する訓練を完了し、本開示の実施例による画像質問応答方法は、訓練されたネットワークモデル300によって実施することができる。以下、実施手順を例示的に説明する。
本開示の実施例によれば、図3Aに示すように、ネットワークモデル300における画像構築モジュール301は、入力画像I304を取得し、画像構築モジュール301は、上記操作S202における入力画像に基づいて、視覚図を構築する過程を実行することができる。例示的に、画像構築モジュール301は、目標検出ネットワーク(Object Detection)の中間層から入力画像における複数の目標対象に対する表現特徴及び空間特徴を抽出し、上記表現特徴及び空間特徴に基づいてノード特徴を決定するように、目標検出ネットワークによって入力画像I304を処理することができる。そして、目標検出ネットワークの出力層によって出力される処理結果に基づいて、複数の目標対象のそれぞれの位置情報を決定する。複数の目標対象のそれぞれの位置情報に基づいて、複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定する。任意の2つの目標対象間の位置関係に基づいて、エッジ特徴を決定する。上記ノード特徴とエッジ特徴とから視覚図を構成する。
図3Bに示す例において、画像構築モジュール301は、Faster RCNN(Faster Region Convolutional Neural Network、より高速領域畳み込みニューラルネットワーク)を利用して、入力画像I304におけるK個の目標対象を検出し、特徴マップ(Feature Map)全体にわたって関心領域プール化操作(ROI Pooling )を経た表現特徴
Figure 2022013644000002
及び空間特徴
Figure 2022013644000003
を抽出する。そのうち、表現特徴Fは、K個の目標対象に対するK個のサブ特徴を含め、各サブ特徴は、空間次元数2048であるのベクトルとして表すことができ、空間次元数は、需要に応じて設定することができる。ここでは、単に例である。空間特徴Sはまた、K個の目標対象に対するK個のサブ特徴を含め、各サブ特徴は、空間次元数が4であるベクトルとして表され得る。例えば、目標対象に対する外枠(Bounding Box)の高さ値、幅値、および中心点の座標を含む。表現特徴Fと空間特徴Sとを加えて視覚図G305のノード特徴V={F||S}として、併合方式は、例えば、連結併合であってもよい。
視覚マップG305のエッジ特徴は、例えば、
Figure 2022013644000004
というバイナリ表現であり得る。エッジ特徴は、入力画像I304における任意の2つの目標対象間の位置関係により決定することができる。本開示の実施例によれば、上記任意の2つの目標対象は、異なる目標対象を含んでもよいし、同じ目標対象を含んでもよい。上記目標検出ネットワークの処理により、入力画像I304における各目標対象の位置座標、すなわち、各目標対象が占める位置領域を決定することができる。
例示的には、任意の2つの目標対象の位置領域の重なり度合い(Intersection-over-Union,IoU )が所定の閾値よりも大きいか否かによって、エッジ特徴Eにおける各要素の値を判定してもよい。例えば、所定の閾値を0.3にし、入力画像におけるi番目の目標対象およびj番目の目標対象に対して、i番目の目標対象の位置領域とj番目の目標対象の位置領域との間のIoU値を計算し、当該IoU値が所定の閾値より大きい場合、エッジ特徴Eの要素eijを1として表し、当該IoU値が所定の閾値以下である場合、エッジ特徴Eの要素eijを0として表す。本例では、i及びjは、いずれも1以上K以下の正の整数であり、i及びjは、同一であっても異なっていてもよい。
上記例示的な実施形態により、視覚図G={V,E}を構築することができる。図3A及び図3Bに示すように、視覚図G305は、画像畳み込み符号化モジュール302に入力されて処理され、画像畳み込み符号化モジュール302は、画像畳み込み(Graph Convolution Network、GCN)方法に基づいて視覚図のノード間の関係の学習および特徴の更新を行う。以下、実施過程を例示的に説明する。
本発明の実施例によれば、上記操作S203は、ノード特徴及びエッジ特徴に基づいてノード特徴を更新する過程は、以下の方式に従って実施されることができる。所定のニューラルネットワークを用いて、視覚図のノード特徴に対して更新操作を少なくとも1回実行する。一例では、所定のニューラルネットワークは、1つまたは複数の画像畳み込み符号化モジュール302を含み得る。
図3Cは、本開示の実施例による画像畳み込み符号化モジュールの例示的な構造図を概略的に示している。図3Cに示すように、画像畳み込み符号化モジュール302は、完全接続層(Fully Connected Layer、FC )3021、第1の画像畳み込み層(Graph Convolutional Layer、Gconv)3022、及び第2の画像畳み込み層(Gconv)3023を含むことができる。例示的には、上述した少なくとも1回の更新操作の各更新操作は、完全接続層3021を用いて、視覚図G305のノード特徴V3051を所定数dと等しい空間次元数を有する第1の特徴X30511にマッピングすることを含む。第1の画像畳み込み層3022によって第1の特徴X30511を処理し、第2の特徴X’30512を取得する。第2の画像畳み込み層3023によって第2の特徴X’30512を処理し、更新されたノード特徴X’’を取得する。更新されたノード特徴X’’とエッジ特徴E3052から更新視覚図G’306を構成する。
例えば、上記した完全接続層3021によって視覚図G305のノード特徴V3051を空間次元数がdである第1の特徴X30511にマッピングする過程は、数(1)のように表現される。
Figure 2022013644000005
σは非線形関数であり、W完全接続層の重みパラメータである。
本開示の実施例によれば、視覚図G305のエッジ特徴量E3052に応じて、第1の画像畳み込み層3022を用いてノード特徴の更新及び明示的な関係の学習を行うことができる。図3Cに示すように、上記少なくとも1回の更新操作の各更新操作は、以下のことをさらに含んでもよい。エッジ特徴E3052に基づいて、ラプラス行列(Graph Laplacians)L30521を構築する。上記した第1の画像畳み込み層3022を用いて第1の特徴X30511を処理する過程は第1の画像畳み込み層3022を用いてラプラス行列L30521に基づいて第1の特徴X30511を処理して、第2の特徴X’30512を取得することを含むことができる。第2の特徴X’30512は複数の第1のサブ特徴x’を含み、iは1以上K以下の整数であり、x’はd個の空間次元を有するベクトルとして表現される。上記した第2の特徴X’を算出する過程およびラプラス行列を構築する過程は、それぞれ数(2)および数(3)のように表すことができる。
Figure 2022013644000006
Figure 2022013644000007
ただし、
Figure 2022013644000008
は対角行列であり、
Figure 2022013644000009

σは非線形関数であり、WおよびWは第1の画像畳み込み層の重みパラメータである。
入力画像における暗黙的な関係を更に学習するために、本開示の実施例によれば、図3Cに示すように、画像畳み込み符号化モジュール302は、関連層(Adj)3024を更に含むことができる。
第1の画像畳み込み層3022の処理が終了した後に、関連層3024を用いて、複数の第1のサブ特徴のうち任意の2つの第1のサブ特徴x’、x’間の関連関係を計算し、任意の2つの第1のサブ特徴間の関連関係に基づいて関係行列A’30512’を決定することができる。但し、
Figure 2022013644000010

具体的には、数(4)のように示している。
Figure 2022013644000011
数(4)から分かるように、本例では、x’とx’との間のL-2距離(ユークリッド距離)を算出することにより、x’とx’との間の関連関係を決定する。他の例では、任意の類似度計算方法を用いて、x’とx’との間の関連関係を決定することができ、例えばコサイン類似度などを用いることができるが、ここでは限定しない。本実施例によれば、関連層によって画像ノード間の暗黙的な関係行列を学習する。
これに基づき、第2の画像畳み込み層3023によって第2の特徴X’30512を処理することができる。例示的には、第2の画像畳み込み層3023により、学習した関係行列A’から深いノード特徴の更新および学習を行う。第2の画像畳み込み層3023の更新戦略は、数(5)のように定義することができる。
Figure 2022013644000012
ただし、Wは第2の画像畳み込み層の重みパラメータである。
2層の画像畳み込みネットワークを通過した後、図3Cに示すように、画像畳み込み符号化モジュール302全体の出力は更新視覚図G’306であり、G’={X’ ’,E}。X’ ’は、複数の第2のサブ特徴x’’を含む更新されたノード特徴であり、iは、1以上K以下の整数である。より良い更新効果を実現するために、本開示の実施例によるネットワークモデルでは、いくつかの画像畳み込み符号化モジュールが直列に接続されて、視覚図のノード特徴に対する複数の回の更新を実現することができ、これにより、より深い語義関係を学習することができる。例えば、n個の画像畳み込み符号化モジュールによってn回の更新を実行することができ、更新視覚図G306を取得し、nは正の整数である。
引き続き図3Aおよび図3Bを参照すると、画像畳み込み符号化モジュール302を説明した後、視覚図に基づく問答モジュール303の実装形態を例示的に説明する。いくつかの画像畳み込み符号化モジュールを経た後、視覚図における各ノード特徴は、学習した関係に基づいて、関連ノードの特徴を融合し、ある程度、深い語義特徴を含み、次に学習した特徴を最終質問の回答に用いる必要がある。
本開示の実施例によれば、視覚図に基づく問答モジュール303は、上記操作S204~ S206を実行することができる。一方、図3A及び図3Bに示すように、視覚図に基づく問答モジュール303は、入力質問Q307を取得し、単語符号化(Word Embedding、単語埋め込み)アルゴリズム3031及び特徴符号化アルゴリズム3032により、入力質問Q307を順次に符号化処理し、質問特徴q308を取得する。本例では、Glove語符号化アルゴリズムとBi-GRU特徴符号化アルゴリズムを用いて質問全体の特徴表現qを取得する。一方、図3Aに示すように、視覚図に基づく問答モジュール303は、画像畳み込み符号化モジュール302によって出力された更新視覚図306を取得し、更新視覚図と質問特徴とを融合する過程を実行することができる。
本開示の一実施例において、図3Bに示すように、視覚図に基づく問答モジュール303は、注意力メカニズム3033を利用して、視覚図における各第2のサブ特徴x’’∈X’’と質問特徴qとの間の注意力マップ重み(attention map)
Figure 2022013644000013

を学習更新し、例えば、数(6)に示されるような詳細な方法で計算される。
Figure 2022013644000014
そして、例えば、上記注意力マッピング重みは、更新視覚図におけるノード特徴
Figure 2022013644000015
における各第2のサブ特徴を重み付け加算して、最終的に質問に回答するための自己適応特徴表現
Figure 2022013644000016
を得て、推論特徴(Reasoning Feature)r309ともいう。計算方法は、数(7)のように表すことができる。
Figure 2022013644000017
本発明の実施例によれば、視覚図に基づく問答モジュール303は、多層感知機(Multi-Layer Perceptron、MLP) 3034をさらに含むことができる。図3Bに示すように、自己適応特徴と質問特徴とを融合処理する過程は、自己適応特徴rと質問特徴qとを要素(Element-wise)毎に点乗算操作して融合特徴を取得するを含むことができる。融合特徴をMLPに送って
Figure 2022013644000018
を予測する。本例では2層のMLPを用いており、処理の過程は数(8)のように表される。
Figure 2022013644000019
訓練済みのネットワークモデルを使用するとき、予測待ちの入力画像および入力質問を上記ネットワークモデルに入力して、ネットワークモデルから相応的な解答カテゴリおよび信頼度を出力し、最も信頼度の高い解答カテゴリを、予測待ちの入力画像および入力質問に対して得られる予測解答とすることが理解され得る。上記入力画像と入力問題に対する処理過程は、訓練段階のサンプル画像およびサンプル質問に対する処理過程と同様であるため、ここでは贅言しない。
上記各実施例から分かるように、本開示の実施例による画像質問応答方法は、画像のトポロジー(視覚図)を構築することにより画像における目標の特徴と目標との間の潜在的な関係を表し、さらに画像畳み込みニューラルネットワークによって画像における目標間の明示的および暗示的な関係を学習し、効果的な特徴符号化を行うことにより、モデルは、より推論特性を有する自己適応特徴表現を学習し、最後に学習した推論特徴と質問の特徴融合を利用して最終解答の予測を行うことができる。本開示の実施例による画像質問応答方法は、複雑な質問に対するモデルの推論能力を効果的に向上させることができ、問答過程全体の解釈性をより高めることができる。
図4は、本開示の実施例による画像質問応答装置のブロック図を概略的に示している。
図4に示すように、画像質問応答装置400は、取得モジュール410、画像構築モジュール420、更新モジュール430、質問特徴抽出モジュール440、融合モジュール450、及び予測モジュール460を含むことができる。
取得モジュール410は、入力画像及び入力質問を取得するために使用される。
画像構築モジュール420は、入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築するために使用される。
更新モジュール430は、更新視覚図を得るように、上記ノード特徴及びエッジ特徴に基づいてノード特徴を更新するために使用される。
質問特徴抽出モジュール440は、入力質問に基づいて質問特徴を決定するために使用される。
融合モジュール450は、更新視覚図と質問特徴とを融合処理して融合特徴を得るために使用される。
予測モジュール460は、融合特徴に基づいて入力画像及び入力質問に対する予測解答を生成するために使用される。
なお、装置部分の実施例における各モジュール/ユニット/サブユニット等の実施形態、解決された技術的課題、実現された機能、及び達成された技術効果は、それぞれ方法部分の実施例における各対応するステップの実施形態、解決された技術的課題、実現された機能、及び達成された技術的効果と同一又は類似であり、ここでは贅言しない。
本発明の実施例によるモジュール、サブモジュール、ユニット、サブユニットのうちのいずれか複数、またはこれらのうちの少なくとも一部の機能は、1つのモジュールで実現されることができる。本発明の実施例によるモジュール、サブモジュール、ユニット、サブユニットのうちのいずれか1つ以上は、複数のモジュールに分割して実現することができる。本開示の実施例によるモジュール、サブモジュール、ユニット、サブユニットのうちの任意の1つ以上は、少なくとも部分的に、例えばフィールドプログラマブルゲートアレイ(FPGA)、プログラマブル論理アレイ(PLA)、システムオンチップ、基板上システム、パッケージ上システム、特定用途向け集積回路(ASIC)などのハードウェア回路として実装されてもよく、または回路を集積またはパッケージ化する他の合理的な方式のハードウェアもしくはファームウェアによって、またはソフトウェア、ハードウェア、およびファームウェアの3つの実装形態のうちの任意の1つもしくはそれらのうちの任意のいくつかの適切な組み合わせによって実装されてもよい。あるいは、本開示の実施例によるモジュール、サブモジュール、ユニット、サブユニットのうちの1つ以上は、少なくとも部分的に、実行されたときに相応的な機能を実行可能なコンピュータプログラムモジュールとして実現されてもよい。
例えば、取得モジュール410、画像構築モジュール420、更新モジュール430、質問特徴抽出モジュール440、融合モジュール450および予測モジュール460のうちのいずれか複数を1つのモジュールに統合してもよいし、いずれか1つのモジュールを複数のモジュールに分割してもよい。あるいは、これらのモジュールのうちの1つ以上のモジュールの機能の少なくとも一部は、他のモジュールの機能の少なくとも一部と組み合わされて、1つのモジュールに実現され得る。本開示の実施例によれば、取得モジュール410、画像構築モジュール420、更新モジュール430、質問特徴抽出モジュール440、融合モジュール450及び予測モジュール460のうちの少なくとも1つは、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブル論理アレイ(PLA)、システムオンチップ、基板上システム、パッケージ上システム、特定用途向け集積回路(ASIC)などのハードウェア回路として少なくとも部分的に実現されてもよく、又は、回路を集積又はパッケージ化する任意の他の合理的な方法などのハードウェア若しくはファームウェア、又は、ソフトウェア、ハードウェア、及びファームウェアの3つの実現形態のうちの任意の1つ、又は、これらのうちの任意のいくつかの適切な組み合わせで実現されてもよい。あるいは、取得モジュール410、画像構築モジュール420、更新モジュール430、質問特徴抽出モジュール440、融合モジュール450及び予測モジュール460のうちの少なくとも1つは、少なくとも部分的に、実行されたときに相応的な機能を実行可能なコンピュータプログラムモジュールとして実装されてもよい。
図5は、本開示の実施例による、上記の方法を実施するように適合されたコンピュータ装置のブロック図を概略的に示している。図5に示すコンピュータ装置は一例に過ぎず、本開示の実施例の機能及び使用範囲に何ら制限を課すものではない。
図5に示すように、本開示の実施例によるコンピュータ装置500は、リードオンリーメモリ(ROM)502に記憶されたプログラム、又は記憶部分508からランダムアクセスメモリ(RAM)503にロードされたプログラムに従って様々な適切な操作及び処理を実行することができるプロセッサ501を含む。プロセッサ501は、例えば、汎用マイクロプロセッサ(例えば、CPU )、命令セットプロセッサ、および/または関連チップセット、および/または特定用途向けマイクロプロセッサ(例えば、特定用途向け集積回路(ASIC))などを含み得る。プロセッサ501は、キャッシュ用途のためのオンボードメモリも含み得る。プロセッサ501は、本開示の実施例による方法フローの異なる操作を実行するための単一の処理ユニット又は複数の処理ユニットを含んでもよい。
RAM503には、装置500の操作に必要な各種プログラムやデータが記憶される。プロセッサ501、ROM502、およびRAM503は、バス504を介して互いに接続されている。プロセッサ501は、ROM502及び/又はRAM503のプログラムを実行することにより、本発明の実施例による方法の流れによる様々な操作を実行する。なお、前記プログラムは、ROM502およびRAM503以外のメモリに格納されていてもよい。プロセッサ501は、前記1つ以上のメモリに記憶されたプログラムを実行することにより、本発明の実施例による方法フローの様々な操作を実行することもできる。
本開示の実施例によれば、装置500は、バス504に接続された入出力(I/O)インタフェース505をさらに含むことができる。また、装置500は、I/Oインタフェース505に接続された、キーボード、マウスなどを含む入力部分506、例えばカソード線管(CRT)、液晶ディスプレイ(LCD)などおよびスピーカなどを含む出力部分507、ハードディスクなどを含む記憶部分508、例えばLANカード、モデムなどのネットワークインタフェースカードを含む通信部分509のうちの1つ以上を含んでもよい。通信部分509は、インターネットなどのネットワークを介して通信処理を行う。ドライバ510は、必要に応じて、I/Oインタフェース505に接続される。読み出されたコンピュータプログラムが、必要に応じて記憶部分508にインストールされるように、例えば磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511は、需要に応じてドライブ510に実装される。
本開示の実施例によれば、本開示の実施例による方法のフローは、コンピュータソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例は、コンピュータ読み取り可能な記憶媒体にインストールされたコンピュータプログラムを含むコンピュータプログラム製品を含み、このコンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例で、このコンピュータプログラムは、通信部分509によってネットワークからダウンロードしてインストールされてもよいし、取り外し可能な媒体511からインストールされてもよい。このコンピュータプログラムがプロセッサ501によって実行されると、本開示の実施例のシステムにおいて限定した上記機能が実行される。本開示の実施例によれば、前述したシステム、デバイス、装置、モジュール、ユニット等は、コンピュータプログラムモジュールにより実現することができる。
本開示は、さらに、非一時的なコンピュータ読み取り可能な記憶媒体を提供しており、当該非一時的なコンピュータ読み取り可能な記憶媒体は、上記実施例に記載のデバイス/装置/システムに含まれてもよく、デバイス/装置/システムに組み込まれずに単独で存在してもよい。上記非一時的なコンピュータ読み取り可能な記憶媒体には、一つ又は複数のプログラムが記録されており、上記一つ又は複数のプログラムが実行されると、本開示の実施例による方法を実現する。
本開示の実施例によれば、非一時的なコンピュータ読み取り可能な記憶媒体は、不揮発性のコンピュータ読み取り可能な記憶媒体であってもよく、例えば、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、携帯型コンパクトディスクROM(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記の任意の適切な組み合わせを含み得るが、これらに限定されない。本開示において、非一時的なコンピュータ読み取り可能な記憶媒体は、プログラムを含む又は記憶する、任意の有形媒体であってもよく、このプログラムは、命令実行システム、装置又はデバイスによって又はそれらと関連して使用される。例えば、本開示の実施例によれば、非一時的なコンピュータ読み取り可能な記憶媒体は、前記したROM502および/またはRAM503およびRAM503以外の1つ以上のメモリを含むことができる。
図面におけるフローチャート及びブロック図は、本開示の様々な実施例によるシステム、方法、及びコンピュータプログラム製品の実現可能な構造、機能及び操作を示している。この点に関して、フローチャート又はブロック図における各ブロックは、モジュール、セグメント、又はコードの一部を表すことができ、モジュール、セグメント、又はコードの一部は、特定な論理機能を実現するための1つ又は複数の実行可能命令を含む。これに代えて、別の実現では、ブロックに表記された機能は、図面に示す順序とは異なる順序で生じ得ることにも留意すべきである。例えば、連続して示される2つのブロックは、実際には、機能に応じて、実質的に並列に実行されてもよく、逆順に実行されてもよい。ブロック図又はフローチャートの各ブロック、及びブロック図又はフローチャートのブロックの組合せは、特定な機能又は操作を実行する専用ハードウェアベースのシステムで実現されてもよく、又は専用ハードウェアとコンピュータ命令との組合せにより実現されてもよいことにも留意すべきである。
当業者は、本開示に明示的に記載されていなくても、本開示の様々な実施例及び/又は特許請求の範囲に記載された特徴について様々な組合せ及び/又は結合で実施してもよいことを理解するだろう。特に、本開示の様々な実施例及び/又は特許請求の範囲に記載された特徴は、本開示の精神及び教示から逸脱することなく、様々な組合せ及び/又は結合を行うことができる。これらの組合せ及び/又は結合はいずれも本開示の範囲に含まれる。
以上、本開示の実施例を説明した。しかしながら、これらの実施例は、説明のためのものであり、本開示の範囲を限定するものではない。以上、各実施例を個別に説明したが、各実施例における各手段を適宜組み合わせて用いることができないことを意味するわけではない。本開示の範囲は、添付の特許請求の範囲及びその均等物によって限定される。当業者は、本開示の範囲から逸脱することなく、様々な変更及び修正を行うことができ、これらの変更及び修正も本開示の範囲に属する。

Claims (15)

  1. 入力画像及び入力質問を取得することと、
    前記入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築することと、
    前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新して、更新視覚図を取得することと、
    前記入力質問に基づいて質問特徴を決定することと、
    前記更新視覚図と前記質問特徴とを融合処理して融合特徴を取得することと、
    前記融合特徴に基づいて、前記入力画像及び前記入力質問に対する予測解答を生成することと、を含む
    画像質問応答方法。
  2. 前記入力画像に基づいて視覚図を構築することは、
    目標検出ネットワークの中間層から前記入力画像における複数の目標対象に対する表現特徴および空間特徴を抽出するように、前記目標検出ネットワークによって前記入力画像を処理することと、
    前記表現特徴および前記空間特徴に基づいて前記ノード特徴を決定することと、
    前記目標検出ネットワークの出力層により出力された処理結果に基づいて、前記複数の目標対象のそれぞれの位置情報を決定することと、
    前記複数の目標対象のそれぞれの位置情報に基づいて、前記複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することと、
    前記任意の2つの目標対象間の位置関係に基づいて前記エッジ特徴を決定することと、
    前記ノード特徴および前記エッジ特徴から前記視覚図を構成することと、を含む
    請求項1に記載の画像質問応答方法。
  3. 前記複数の目標対象のそれぞれの位置情報に基づいて、前記複数の目標対象のうちの任意の2つの目標対象間の位置関係を決定することは、
    前記任意の2つの目標対象のそれぞれの位置情報に基づいて、前記任意の2つの目標対象の位置領域間の共通集合およびマージ集合を計算することと、
    前記共通集合と前記マージ集合の比率を計算することと、
    前記比率が所定の閾値よりも大きい場合、前記任意の2つの目標対象間の位置関係を1として表することと、
    前記比率が所定の閾値以下である場合には、前記任意の2つの目標対象間の位置関係を0と表すことと、を含む
    請求項2に記載の画像質問応答方法。
  4. 前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新することは、
    完全接続層と、第1の画像畳み込み層と、第2の画像畳み込み層とを含む予定ニューラルネットワークによって、前記視覚図のノード特徴に対して、少なくとも1回の更新操作を実行することを含み、
    前記少なくとも1回の更新操作の各々の更新操作は、
    完全接続層によって、前記視覚図のノード特徴を、予定数に等しい空間次元数を有する第1の特徴にマッピングすることと、
    第1の画像畳み込み層によって、前記第1の特徴を処理し、第2の特徴を取得することと、
    第2の画像畳み込み層によって、前記第2の特徴を処理し、更新されたノード特徴を取得することと、
    前記更新されたノード特徴と前記エッジ特徴とから前記更新視覚図を構成することと、を含む
    請求項1に記載の画像質問応答方法。
  5. 前記少なくとも1回の更新操作の各々の更新操作は、前記エッジ特徴に基づいてラプラス行列を構築することをさらに含み、
    第1の画像畳み込み層によって前記第1の特徴を処理することは、前記第1の画像畳み込み層によって、前記ラプラス行列に基づいて、前記第1の特徴を処理し、複数の第1のサブ特徴を含む前記第2の特徴を取得することを含む
    請求項4に記載の画像質問応答方法。
  6. 前記予定ニューラルネットワークは関連層をさらに含み、
    前記少なくとも1回の更新操作の各々の更新操作は、関連層によって、前記複数の第1のサブ特徴のうちの任意の2つのサブ特徴間の関連関係を計算し、前記任意の2つのサブ特徴間の関連関係に基づいて、関係行列を決定することをさらに含み、
    第2の画像畳み込み層によって前記第2の特徴を処理することは、前記第2の画像畳み込み層によって、前記関係行列に基づいて、前記第2の特徴を処理し、前記更新されたノード特徴を取得することを含む
    請求項5に記載の画像質問応答方法。
  7. 前記任意の2つの第1のサブ特徴間の関連関係は、
    前記任意の2つの第1のサブ特徴間のユークリッド距離、又は
    前記任意の2つの第1のサブ特徴間のコサイン類似度を含む
    請求項6に記載の画像質問応答方法。
  8. 前記入力質問に基づいて質問特徴を決定することは、
    単語符号化アルゴリズム及び特徴符号化アルゴリズムによって、前記入力質問を順次符号化処理して前記質問特徴を取得することを含む
    請求項1に記載の画像質問応答方法。
  9. 前記更新視覚図は、複数の第2のサブ特徴を含む更新されたノード特徴を含み、
    前記更新視覚図及び前記質問特徴を融合処理することは、
    注意力メカニズムに基づいて、前記複数の第2のサブ特徴のそれぞれと前記質問特徴との間の注意力重みを決定することと、
    前記複数の第2のサブ特徴のそれぞれと前記質問特徴との間の注意力重みによって、前記複数の第2のサブ特徴を加重加算して、自己適応特徴を取得することと、
    前記自己適応特徴と前記質問特徴量とを融合処理して前記融合特徴を取得することと、を含む
    請求項1に記載の画像質問応答方法。
  10. 前記自己適応特性および前記質問特徴を融合処理することは、
    前記自己適応特徴と前記質問特徴とを要素毎に点乗算操作して前記融合特徴を取得することを含む
    請求項9に記載の画像質問応答方法。
  11. 前記融合特徴に基づいて前記入力画像及び前記入力質問に対する予測解答を生成することは、
    マルチレイヤ感知機によって前記融合特徴を処理し、前記融合特徴に対する予測解答を取得することを含む
    請求項10に記載の画像質問応答方法。
  12. 入力画像及び入力質問を取得する取得モジュールと、
    前記入力画像に基づいて、ノード特徴及びエッジ特徴を含む視覚図を構築する画像構築モジュールと、
    前記ノード特徴および前記エッジ特徴に基づいて、前記ノード特徴を更新して、更新視覚図を取得する更新モジュールと、
    前記入力質問に基づいて質問特徴を決定する質問特徴抽出モジュールと、
    前記更新視覚図と前記質問特徴とを融合処理して融合特徴を取得する融合モジュールと、
    前記融合特徴に基づいて、前記入力画像及び前記入力質問に対する予測解答を生成する予測モジュールと、を含む
    画像質問応答装置。
  13. コンピュータ命令が記憶されたメモリと、
    少なくとも1つのプロセッサと、を含み、
    前記プロセッサは、前記コンピュータ命令を実行する場合、請求項1~11のいずれか一つ項による方法を実現する
    コンピュータ装置。
  14. プロセッサによって実行される際に、請求項1~11のいずれか一つ項による方法を実現するコンピュータ命令が記憶された
    非一時的なコンピュータ読み取り可能な記憶媒体。
  15. 実行される際に、請求項1~11のいずれか一つ項による方法を実現するコンピュータ命令を含むコンピュータプログラム。
JP2021035343A 2020-06-30 2021-03-05 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム Active JP7196218B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010616632.6A CN111782840B (zh) 2020-06-30 2020-06-30 图像问答方法、装置、计算机设备和介质
CN202010616632.6 2020-06-30

Publications (2)

Publication Number Publication Date
JP2022013644A true JP2022013644A (ja) 2022-01-18
JP7196218B2 JP7196218B2 (ja) 2022-12-26

Family

ID=72761522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035343A Active JP7196218B2 (ja) 2020-06-30 2021-03-05 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム

Country Status (5)

Country Link
US (1) US11768876B2 (ja)
EP (1) EP3859560A3 (ja)
JP (1) JP7196218B2 (ja)
KR (1) KR20220002065A (ja)
CN (1) CN111782840B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481995B2 (ja) * 2020-10-28 2024-05-13 株式会社東芝 状態判定装置、方法およびプログラム
US20220189060A1 (en) * 2020-12-10 2022-06-16 Niantic, Inc. Visual Camera Re-Localization using Graph Neural Networks and Relative Pose Supervision
EP4099280B1 (en) * 2021-06-04 2024-07-24 Tata Consultancy Services Limited Method and system for confidence level detection from eye features
US20230106716A1 (en) * 2021-10-05 2023-04-06 Samsung Electronics Co., Ltd. Multi-Granularity Alignment for Visual Question Answering
CN114842368B (zh) * 2022-05-07 2023-10-03 中国电信股份有限公司 基于场景的视觉辅助信息确定方法、系统、设备及存储介质
CN115017314B (zh) * 2022-06-02 2024-08-16 电子科技大学 一种基于注意力机制的文本分类方法
CN115496976B (zh) * 2022-08-29 2023-08-11 锋睿领创(珠海)科技有限公司 多源异构数据融合的视觉处理方法、装置、设备及介质
CN115310611B (zh) * 2022-10-12 2023-03-24 苏州浪潮智能科技有限公司 一种人物意图推理方法及相关装置
US20240202551A1 (en) * 2022-12-16 2024-06-20 Intuit Inc. Visual Question Answering for Discrete Document Field Extraction
CN116542995B (zh) * 2023-06-28 2023-09-22 吉林大学 一种基于区域表示和视觉表示的视觉问答方法及系统
CN116881427B (zh) * 2023-09-05 2023-12-01 腾讯科技(深圳)有限公司 问答处理方法、装置、电子设备及存储介质
CN117271818B (zh) * 2023-11-22 2024-03-01 鹏城实验室 视觉问答方法、系统、电子设备及存储介质
CN118467707A (zh) * 2024-07-10 2024-08-09 北京大学 一种医学视觉问答方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124432A1 (en) * 2015-11-03 2017-05-04 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039397B1 (ko) * 2018-01-30 2019-11-01 연세대학교 산학협력단 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법
CN109255359B (zh) * 2018-09-27 2021-11-12 南京邮电大学 一种基于复杂网络分析方法的视觉问答问题解决方法
US11544535B2 (en) * 2019-03-08 2023-01-03 Adobe Inc. Graph convolutional networks with motif-based attention
CN110222770B (zh) * 2019-06-10 2023-06-02 成都澳海川科技有限公司 一种基于组合关系注意力网络的视觉问答方法
CN110348535B (zh) * 2019-07-17 2022-05-31 北京金山数字娱乐科技有限公司 一种视觉问答模型训练方法及装置
CN110717024B (zh) * 2019-10-08 2022-05-17 苏州派维斯信息科技有限公司 基于图像视觉到文本转换的视觉问答问题解决方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124432A1 (en) * 2015-11-03 2017-05-04 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering
JP2017091525A (ja) * 2015-11-03 2017-05-25 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAMIEN TENEY、外2名: ""Graph-Structured Representations for Visual Question Answering"", ARXIV, JPN7022002209, 30 March 2017 (2017-03-30), ISSN: 0004774356 *
LINJIE LI 、外3名: ""Relation-Aware Graph Attention Network for Visual Question Answering"", ARXIV, JPN7022002208, 9 October 2019 (2019-10-09), ISSN: 0004774357 *

Also Published As

Publication number Publication date
CN111782840B (zh) 2023-08-22
JP7196218B2 (ja) 2022-12-26
US20210406468A1 (en) 2021-12-30
CN111782840A (zh) 2020-10-16
EP3859560A3 (en) 2021-10-20
EP3859560A2 (en) 2021-08-04
KR20220002065A (ko) 2022-01-06
US11768876B2 (en) 2023-09-26

Similar Documents

Publication Publication Date Title
JP2022013644A (ja) 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム
JP7167216B2 (ja) 画像質問応答方法、装置、コンピュータ装置、媒体およびプログラム
US11610115B2 (en) Learning to generate synthetic datasets for training neural networks
JP7206309B2 (ja) 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム
WO2022042002A1 (zh) 一种半监督学习模型的训练方法、图像处理方法及设备
AU2019200270B2 (en) Concept mask: large-scale segmentation from semantic concepts
CN111727441B (zh) 实现用于高效学习的条件神经过程的神经网络系统
TWI584206B (zh) Inference Device and Inference Method
US20230095606A1 (en) Method for training classifier, and data processing method, system, and device
TWI831016B (zh) 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體
Lin et al. DiffConv: Analyzing irregular point clouds with an irregular view
US20220156524A1 (en) Efficient Neural Networks via Ensembles and Cascades
US20220253698A1 (en) Neural network-based memory system with variable recirculation of queries using memory content
JP7512416B2 (ja) 少数ショット類似性決定および分類のためのクロストランスフォーマニューラルネットワークシステム
Ferguson et al. A standardized PMML format for representing convolutional neural networks with application to defect detection
CN111062477B (zh) 一种数据处理方法、装置及存储介质
Han et al. RD-NMSVM: neural mapping support vector machine based on parameter regularization and knowledge distillation
KR20210141150A (ko) 이미지 분류 모델을 이용한 이미지 분석 방법 및 장치
Bengana et al. Seeking attention: Using full context transformers for better disparity estimation
US20240257504A1 (en) Systems and methods for semantic image segmentation model learning new object classes
US20240242365A1 (en) Method and apparatus with image processing
US20240070453A1 (en) Method and apparatus with neural network training
Zhuang et al. Learning an optimisable semantic segmentation map with image conditioned variational autoencoder
Hurtik et al. Image Segmentation Losses with Modules Expressing a Relationship Between Predictions
KR20230071719A (ko) 이미지 처리용 신경망 훈련 방법 및 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7196218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150