JP7096444B2 - 画像領域位置決め方法、モデル訓練方法及び関連装置 - Google Patents

画像領域位置決め方法、モデル訓練方法及び関連装置 Download PDF

Info

Publication number
JP7096444B2
JP7096444B2 JP2021546041A JP2021546041A JP7096444B2 JP 7096444 B2 JP7096444 B2 JP 7096444B2 JP 2021546041 A JP2021546041 A JP 2021546041A JP 2021546041 A JP2021546041 A JP 2021546041A JP 7096444 B2 JP7096444 B2 JP 7096444B2
Authority
JP
Japan
Prior art keywords
region
semantic information
text
image
image candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021546041A
Other languages
English (en)
Other versions
JP2022508790A (ja
Inventor
林 ▲馬▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022508790A publication Critical patent/JP2022508790A/ja
Application granted granted Critical
Publication of JP7096444B2 publication Critical patent/JP7096444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

(関連出願の相互参照)
本願は、2019年03月13日に提出された出願番号が201910190207.2であり、発明名称が「画像領域位置決め方法、モデル訓練方法及び関連装置」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願の実施例は、画像領域位置決め方法、モデル訓練方法及び関連装置に関する。
人工知能の継続的な成長に伴い、画像において自然文に対応する領域を位置決めすることは、機械学習の重要なタスクになっていた。大量の画像が存在する場合、自然文に関わる領域を手動方式で抽出するために、一般的に、かなりの時間がかかり、また、エラーが発生しやすい。従って、画像領域の位置決めを機械により実現させることは、非常に必要である。
現在、画像領域位置決めを実現する方法は、オブジェクト提案の方式で画像における複数の候補領域を抽出し、続いて、マッチングモデルを用いて、各オブジェクト提案と自然言語とのマッチング関係を判定し、更に、自然言語と最もマッチングした局所領域をターゲット画像領域として選択することにより、対応する自然文画像位置決めタスクを完了する。
本願の第1態様は、画像領域位置決め方法を提供する。該方法は、
位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含む。
本願の第2態様は、モデル訓練方法を提供する。該方法は、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を含む。
本願の第3態様は、画像領域位置決め装置を提供する。該装置は、生成モジュールと、取得モジュールと、決定モジュールと、を備え、
生成モジュールは、位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するように構成され、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応し、
取得モジュールは、グラフ畳み込みネットワークによって、前記生成モジュールが生成した前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するように構成され、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられ、
前記取得モジュールは更に、画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するように構成され、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応し、
決定モジュールは、前記取得モジュールが取得した前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するように構成される。
本願の第4態様は、モデル訓練装置を提供する。該装置は、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するように構成される取得モジュールであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、取得モジュールと、
前記取得モジュールが取得した前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するように構成される決定モジュールと、
前記決定モジュールが決定した前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るように構成される訓練モジュールであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、訓練モジュールと、を備える。
本願の第5態様は、端末機器を提供する。前記端末機器は、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を含む。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップと、を含む。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するステップと、を含む。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、


Figure 0007096444000001
を用いて、前記拡張セマンティック情報集合を算出するステップを含み、
ここで、前記ni は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表す。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
前記位置決め対象のテキストを取得するステップと、
前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数である、ステップと、
前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するステップと、を含む。
可能な設計において、本願の実施例の第5態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、


Figure 0007096444000002
を用いて、前記テキスト特徴を取得するステップを含み、
ここで、前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
本願の第6態様は、サーバを提供する。前記サーバは、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される。
本願の第7態様は、サーバを提供する。前記サーバは、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される。
可能な設計において、本願の実施例の第7態様の1つの可能な実現形態において、前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、


Figure 0007096444000003
を用いて、前記ターゲット損失関数を決定するステップを含み、
ここで、前記Lは、前記ターゲット損失関数を表し、前記n は、第1訓練対象の画像候補領域を表し、前記h は、前記第1訓練対象のテキストを表し、前記n は、前記第2訓練対象の画像候補領域を表し、前記h は、前記第2訓練対象のテキストを表し、前記d( )は、訓練対象のデータペアを表し、前記max( )は、最大値を取ることを表し、前記λは、第1パラメータ制御重みを表し、前記λは、第2パラメータ制御重みを表し、前記uは、第1プリセット閾値を表し、前記uは、第2プリセット閾値を表す。
本願の第8態様は、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体に命令が記憶されており、該命令がコンピュータで実行される時、コンピュータに、上記各態様に記載の方法を実行させる。
本願の第9態様は、画像領域位置決め方法を提供する。前記方法は、
画像位置決め命令を受信するステップと、
前記画像位置決め命令に応答して、前記画像位置決め命令に基づいて、位置決め対象の画像における画像候補領域集合を取得するステップであって、前記画像候補領域集合に、N個の画像候補領域が含まれ、前記Nは、1より大きいか等しい整数である、ステップと、
前記画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合に、N個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
位置決め対象のテキストに対応するテキスト特徴集合を取得するステップであって、前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数である、ステップと、
画像領域位置決めネットワークモデルによって、前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられる、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、
クライアントに画像生成命令を送信し、前記クライアントに、前記画像生成命令に基づいて前記ターゲット画像候補領域を展示させるステップと、を含む。
本願の実施例による画像領域位置決めシステムのアーキテクチャを示す概略図である。 本願の実施例による画像領域位置決めの全体的なフレームワークを示す概略図である。 本願の実施例による画像領域位置決め方法の一実施例を示す概略図である。 本願の実施例によるモデル訓練方法の一実施例を示す概略図である。 本願の実施例による画像領域位置決め装置の一実施例を示す概略図である。 本願の実施例によるモデル訓練装置の一実施例を示す概略図である。 本願の実施例による端末機器の構造を示す概略図である。 本願の実施例によるサーバの構造を示す概略図である。
関連技術において、画像において、自然言語に最もマッチングした画像領域を位置決めすることができるが、各局所領域間の空間的関係が考慮されておらず、且つ局所領域間のセマンティック情報が無視されたため、ターゲット画像領域の位置決めが不正確になることを招き、画像に対する理解能力を低下させる。
本願の実施例は、画像領域位置決め方法、モデル訓練方法及び関連装置を提供する。グラフ畳み込みネットワークによって、画像候補領域間の表現を効果的に拡張し、且つ、各画像候補領域間の空間的関係を考慮したため、画像領域位置決めの正確性の向上に寄与し、更に、画像に対する理解能力を向上させる。
本願の明細書、特許請求の範囲及び上記図面に言及された「第1」、「第2」、「第3」、「第4」等の用語(存在すれば)は、類似した対象を区別するためのものであり、特定の順番又は前後順序を説明するためのものではない。ここで説明した本願の実施例をここで示した又は説明した順番以外の順番で実施可能なものにするために、このように使用されたデータは適した場合であれば互いに取り替え可能なことは、理解されるべきである。なお、「備える」と「有する」という用語及びそれらの変形は、非排他的な包含を網羅することを意図している。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、明記されたステップ又はユニットに限定されず、明記されていないか又はこれらのプロセス、方法、製品又は機器固有の他のステップ又はユニットを含んでもよい。
本願で提供される画像領域位置決め方法は、画像処理及びモード認識などの分野に適用され、画像において、関心のあるターゲットを位置決めし、更に、ターゲットの具体的なカテゴリを判定し、該ターゲットの境界枠を特定することができる。画像領域位置決め方法は、顔認識、医用画像、インテリジェントビデオモニタリング、ロボットナビゲーション、コンテンツに基づく画像検索、画像に基づく描画技術、画像編集及び拡張現実などの分野に広く適用されている。例えば、コンテンツに基づく画像検索シーンにおいて、画像Aが存在し、画像Aから複数の候補領域を抽出し、ユーザにより入力されたセンテンスが「a boy hold an apple(一人の男の子は1つのリンゴを持っている)」であると仮定すれば、センテンスと各候補領域をマッチングし、マッチング結果に基づいて、複数の候補領域からターゲット候補領域を選択する。本願は、主に、グラフ畳み込みネットワークを用いて自然文の画像位置決めを完了する。自然文は、単語、フレーズ又はセンテンスであってもよい。自然文に対応する画像のターゲット候補領域を見付け、該ターゲット候補領域を1つの矩形枠と定義することができる。
実際の適用において、画像領域の位置決めは、3つのレベルに分けられてもよい。第1レベルは、画像レベルであり、つまり、画像に関連ターゲット対象が存在するかどうかを決定する。画像分類又は画像アノテーション技術において、例えば、単語「apple」(リンゴ)について言えば、画像において、リンゴという対象を丸で囲むことができる。
第2レベルは、領域レベルであり、つまり、画像における1つの領域に1つのカテゴリのターゲットが含まれることを決定する。画像ターゲットカテゴリ検出において、例えば、センテンス「a boy hold an apple(男の子は1つのリンゴを持っている)」について言えば、画像において、1つの領域を枠によって選択することができる。該領域は、一人の男の子及び1つのリンゴを含む。
第3レベルは、領域レベルであり、つまり、画像における各画素がどのようなターゲット対象に属するかを決定する。画素レベルのセグメンテーションもカテゴリレベルのターゲットセグメンテーション及びセマンティックセグメンテーションという2種類に分けられる。カテゴリレベルのターゲットセグメンテーションとセマンティックセグメンテーションとの主な相違点は、セマンティックセグメンテーションにおいて画像における背景を含む全てのターゲットをセグメンテーションしてそのカテゴリを決定することが求められているが、ターゲットセグメンテーションにおいて、関心のあるターゲットをセグメンテーションして分類することのみが求められていることである。
理解しやすくするために、本願は、画像領域位置決め方法を提供する。該方法は、図1に示す画像領域位置決めシステムに適用される。図1を参照すると、図1は、本願の実施例による画像領域位置決めシステムのアーキテクチャを示す概略図である。図面に示すように、本願で提供される画像領域位置決め方法は、サーバに適用可能であり、クライアントにも適用可能である。サーバに適用される場合、サーバは、位置決め結果を決定した後、位置決め結果をクライアントに送信し、クライアントにより、対応するターゲット画像候補領域を展示することができる。クライアントに適用される場合、クライアントは、位置決め結果を決定した後、対応するターゲット画像候補領域を直接的に展示することができる。具体的には、1つの画像に対して、まず、画像検出方法で、複数の画像候補領域(即ち、画像の局所領域)を得る。複数の画像候補領域に対して、それらの空間的関係により、グラフ(graph)を更に構築する。続いて、画像候補領域に対して、畳み込みニューラルネットワークを用いて、対応するセマンティック特徴を抽出することができる。得られたセマンティック特徴及び構築したグラフに基づいて、グラフ畳み込みネットワーク(graph convolutional network:GCNと略称)を用いて、画像候補領域の表示を更に学習する。GCNにより得られた画像候補領域表示に基づいて、セマンティックマッチングの方式で、これらの画像候補領域と所定の自然文とのセマンティック相関性を評価し、相関性が最も高い画像候補領域を自然文画像位置決めの最終的結果として選択し、つまり、ターゲット画像候補領域を得る。
クライアントは、端末機器に配置される。ここで、端末機器は、タブレット、ノートパソコン、パーソナルテジタルアシスタント、携帯電話、音声対話端末及びパーソナルコンピュータ(personal computer:PCと略称)を含むが、これに限定されないことに留意されたい。ここで、音声対話端末は、スマートスピーカ及びスマート家電を含むが、これに限定されない。
本願で提供される画像領域位置決め方法は、自然文画像位置決めサービスを提供することができる。該サービスは、サーバ側に配置されて実行されてもよく、端末機器側に配置されて実行されてもよい。サービス側で該画像領域位置決め方法を適用すると、画像に対するより深い理解を実現させ、更に、画像に対してより詳しい細粒度アノテーションを行うことができ、これにおり、ユーザが検索及びマッチングを迅速かつ正確に行うことを補助し、画像文字情報のパーソナライズされた推奨にも適用可能であることは、理解されるべきである。該画像領域位置決め方法は、携帯電話側又はロボットなどのような端末機器に適用されてもよい。ロボットのカメラにより、対応する画像信号を取得し、ユーザは、自然言語により、対応するロボットと対話する。例えば、ユーザは、音声又はキーボード入力により対応する自然言語テキストを得て、更に、画像領域位置決めネットワークモデルによって、対応する自然言語テキストに対して画像の局所領域を位置決めする。このような方式で、端末機器に、ユーザとより好適にインタラクションさせることができる。
一例示的なシーンにおいて、ユーザは、高精度検索を容易に行うことができる。ユーザは、音声又はキーボードにより、端末機器に自然言語テキストを入力する。端末機器は、本願の実施例の画像領域位置決め方法で、位置決め対象の画像において、自然言語テキストとのマッチング度が最も高い領域を決定し、画像に対する高精度検索を実現させる。これは、犯罪捜査分野、教育分野において、高い実用的意義を有する。例えば、犯罪捜査分野において、監視映像画像において、1つの特徴を有する容疑者を位置決めすることができる。又は、教育分野において、授業映像画像において、いずれか1名の学生を位置決めすることができる。煩わしい手動スクリーニングを必要とせず、ユーザは自然言語テキストを入力すればよい。
一例示的なシーンにおいて、サーバ側は、ユーザに対応する端末機器に対してパーソナライズされた推奨を容易に行うことができる。サーバ側は、ユーザから入力された、十分に認可された自然言語テキストを収集する。サーバ側は、本願の実施例の画像領域位置決め方法で、位置決め対象の画像において、自然言語テキストとのマッチング度が最も高い領域を決定する。これにより、選択された領域に対して、類似した画像リソース、ビデオリソース、ウェブページリソースなどをプッシュすることができ、正確度がより高いパーソナライズされた推奨を実現させることができ、リソース推奨プロセスの正確度を向上させることができる。
理解しやすくするために、図2を参照する。図2は、本願の実施例による画像領域位置決めの全体的なフレームワークを示す概略図である。図面に示すように、1つの自然画像に対して、オブジェクト提案(object proposal)方法で、対応する画像候補領域を得る。対応する画像候補領域を抽出した後、我々は、対応する畳み込みニューラルネットワークを用いて、対応する画像候補領域のセマンティック表現を抽出し、各候補領域を1つの特徴ベクトルで表す。更に、対応する候補領域に対応するセマンティック表現{I,I,I,I,...,I}を得る。ここで、nは、画像における抽出された画像候補領域の総数を表す。後続で、GCNを用いて、抽出した画像候補領域セマンティックに対して拡張を行い、拡張した画像候補領域セマンティック表現{V,V,V,V,...,V}を得る。グラフ畳み込みネットワークを構築する過程において、画像候補領域間のセマンティック類似度を考慮する必要がある。これにより、対応するグラフを構築し、更に、対応する接続エッジ情報を定義し、接続エッジ情報により、対応する画像候補領域のセマンティックに対して拡張を行う。
入力された自然文(例えば、「左側で野球している白い洋服を着た人」)に対して、我々は、リカレントニューラルネットワークを用いて自然文に対して符号化を行い、それに対応するセマンティック表現を得る。自然文のセマンティック表現及び対応する拡張した画像候補領域セマンティック表現に対して、マッチング学習方法で、自然文と対応する画像候補領域とのセマンティック関係を学習する。最後に、両者間のセマンティック類似度により、セマンティック相関性が最も高い画像候補領域をターゲット画像候補領域として選択する。
上記説明を参照しながら、以下、本願における画像領域位置決め方法を説明する。図3を参照すると、画像領域位置決め装置への適用を例として説明する。画像領域位置決め装置は、サーバに配置されてもよく、端末機器に配置されてもよい。本願の実施例における画像領域位置決め方法の一実施例は、以下を含む。
ステップ101において、画像領域位置決め装置は、位置決め対象の画像における画像候補領域集合を取得し、画像候補領域集合に、N個の画像候補領域が含まれ、Nは、1より大きいか等しい整数である。
本実施例において、画像領域位置決め装置は、まず、位置決め対象の画像を取得する。ここで、位置決め対象の画像は、サーバのバックエンドに記憶された画像であってもよく、クライアントによりアップロードされた画像であってもよく、クライアントのローカル画像であってもよい。画像領域位置決め装置は、サーバに配置されてもよく、端末機器に配置されてもよく、ここで限定しないことが理解されるべきである。
画像領域位置決め装置は、位置決め対象の画像を取得した後、物品候補提案の方法で、位置決め対象の画像における画像候補領域集合を抽出することができる。ここで、該画像候補領域集合に、N個の画像候補領域が含まれ、Nは、1より大きいか等しい整数である。Nは1である場合、位置決め対象の画像に1つのみの画像候補領域が存在し、該画像候補領域を直接的にターゲット画像候補領域とすればよいことを表す。
オブジェクト提案方法により、画像における画像候補領域を抽出することができる。具体的には、画像候補領域は、予め見付けた、画像における、ターゲットが出現し得る位置である。画像におけるテクスチャ、縁及び色などの情報を利用して、少ないウィンドウの選択を確保する上で、高い重なり度合い(Intersection-over-Union:IoU)を保持することができる。ここで、オブジェクト提案方法は、領域に基づく畳み込みニューラルネットワーク(Region-based Convolutional Neural Networks:R-CNN)、高速領域に基づく畳み込みニューラルネットワーク(Fast Region-based Convolutional Neural Networks:Fast R-CNN)及びより高速な領域に基づく畳み込みニューラルネットワーク(Faster Region-based Convolutional Neural Networks:Faster R-CNN)等を含むが、これらに限定されず、ここで、限定しない。
ステップ102において、画像領域位置決め装置は、画像候補領域集合に基づいて、領域セマンティック情報集合を生成し、領域セマンティック情報集合にN個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する。
本実施例において、画像領域位置決め装置は、画像候補領域集合を取得した後、ニューラルネットワークによって、対応する画像候補領域セマンティック表現を生成し、つまり、領域セマンティック情報集合を得る。ここで、領域セマンティック情報集合は、N個の領域セマンティック情報を含み、各領域セマンティック情報は、1つの画像候補領域に対応する。
該ニューラルネットワークは、具体的には、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)であってもよく、実際の適用において、他のタイプのニューラルネットワークであってもよく、ここで、一例だけであり、本願を限定するものと理解されるべきではないことに留意されたい。
上記プロセスにおいて、つまり、画像領域位置決め装置は、位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成する。ここで、該領域セマンティック情報集合における各領域セマンティック情報は、該画像候補領域集合における1つの画像候補領域に対応する。
ステップ103において、画像領域位置決め装置は、グラフ畳み込みネットワークによって、領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得し、拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる。
つまり、拡張セマンティック情報集合における各拡張セマンティック情報は、領域セマンティック情報集合における1つの領域セマンティック情報に対応する。
本実施例において、画像領域位置決め装置は、GCNにより、領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得する。つまり、GCNを利用して、画像候補領域のセマンティック表現を拡張することができる。ここで、拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれる。つまり、各画像候補領域は、1つの領域セマンティック情報に対応し、且つ、各画像候補領域は、1つの領域セマンティック拡張セマンティック情報に対応する。GCNは、ノード間の関連関係を構築することができる。本願において、各領域セマンティック情報間の関連関係を構築することができる。
GCNは、畳み込み可能なネットワークモデルである。GNCについて言えば、その目的は、グラフG=(V,E)における信号又は特徴の1つのマッピングを学習することである。グラフ構築プロセスは、画像候補領域を得た後に実行されたものである。グラフは、画像候補領域間の空間的情報に基づいて構築されたものであり、データ及びデータ間の関係に含まれる情報を利用して、画像候補領域に対するセマンティック表現を増加し、拡張セマンティック情報を得る。
ステップ104において、画像領域位置決め装置は、位置決め対象のテキストに対応するテキスト特徴集合を取得し、位置決め対象のテキストは、T個の単語を含み、テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、Tは、1より大きいか等しい整数である。
本実施例において、画像領域位置決め装置は、位置決め対象のテキストを取得する。ステップ104は、ステップ101の前に実行されてもよく、ステップ103の後に実行されてもよく、ステップ101と同時に実行されてもよく、ここで、ステップ104の実行順番を限定しないことが理解されるべきである。位置決め対象のテキストは具体的には、ユーザにより入力されたテキストであってもよく、ユーザにより入力された音声に対して認識を行った後に得られたテキストであってもよい。位置決め対象のテキストは単語、フレーズ、センテンス又は段落などの形態で表され、また、位置決め対象のテキストは、中国語、英語、日本語、フランス語、ドイツ語又はロシア語などであってもよく、ここで限定しない。
位置決め対象のテキストを取得した後、位置決め対象のテキストにおける各単語に対して特徴抽出及び符号化処理を行い、最後に、テキスト特徴集合を得る。例えば、位置決め対象のテキスト「boy hold an apple」に4つの単語が含まれ、該4つの単語は、それぞれ「boy」、「hold」、「an」及び「apple」である。該4つの単語の特徴を抽出した後に符号化処理を行い、更にテキスト特徴集合を得る。ここで、位置決め対象のテキストは、T個の単語を含み、テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、Tは、1より大きいか等しい整数である。
位置決め対象のテキスト「boy hold an apple」は、具現化した記述である。従って、位置決め対象の画像において、「boy」を含むだけでなく、「apple」も含む画像候補領域を得ることができる。
ステップ105において、画像領域位置決め装置は、画像領域位置決めネットワークモデルによって、テキスト特徴集合と各拡張セマンティック情報とのマッチング度を取得し、画像領域位置決めネットワークモデルは、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられる。
本実施例において、画像領域位置決め装置は、各拡張セマンティック情報とテキスト特徴集合をそれぞれ画像領域位置決めネットワークモデルに入力し、画像領域位置決めネットワークモデルによって、対応するマッチング度を出力する。ここで、画像領域位置決めネットワークモデルは、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられる。つまり、マッチング度は高いほど、マッチング関係が強くなる。
マッチング度は、マッチングスコア又はマッチング識別子で表されてもよく、他のタイプのマッチング関係で表されてもよい。
上記プロセスにおいて、つまり、画像領域位置決め装置は、画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と各拡張セマンティック情報とのマッチング度を取得する。ここで、該位置決め対象のテキストにおける各単語は、該テキスト特徴集合における1つの単語特徴に対応する。
ステップ106において、画像領域位置決め装置は、テキスト特徴集合と各拡張セマンティック情報とのマッチング度に基づいて、画像候補領域集合から、ターゲット画像候補領域を決定する。
本実施例において、画像領域位置決め装置は、テキスト特徴集合と各拡張セマンティック情報とのマッチング度に基づいて、画像候補領域集合から、マッチング度が最も高い画像候補領域をターゲット画像候補領域として選択することができる。説明しやすくするために、表1を参照する。表1は、テキスト特徴集合と拡張セマンティック情報とのマッチング度を示す。

Figure 0007096444000004
上記表1から分かるように、「テキスト特徴集合+拡張セマンティック情報D」について言えば、それに対応するマッチング度は最も高いため、画像領域位置決め装置は、画像候補領域Dをターゲット画像候補領域とする。
本願の実施例において、画像領域位置決め方法を提供する。まず、位置決め対象の画像における画像候補領域集合を取得し、画像候補領域集合に、N個の画像候補領域が含まれる。続いて、画像候補領域集合に基づいて、領域セマンティック情報集合を生成し、各領域セマンティック情報は、1つの画像候補領域に対応する。更に、グラフ畳み込みネットワークによって、領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得し、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる。また、位置決め対象のテキストに対応するテキスト特徴集合を取得する。続いて、画像領域位置決めネットワークモデルによって、テキスト特徴集合と各拡張セマンティック情報とのマッチング度を取得する。最後に、テキスト特徴集合と各拡張セマンティック情報とのマッチング度に基づいて、画像候補領域集合から、ターゲット画像候補領域を決定する。上記方式で、グラフ畳み込みネットワークを用いて、画像候補領域間のセマンティック表現を効果的に拡張することができ、且つ、各画像候補領域間の空間的関係を考慮したため、画像領域位置決めの正確性の向上に寄与し、更に、画像に対する理解能力を向上させる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像領域位置決め方法の第1選択可能な実施例において、画像領域位置決め装置が画像候補領域集合に基づいて領域セマンティック情報集合を生成するステップは、
画像領域位置決め装置が畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、画像候補領域は、領域情報を含み、領域情報は、位置決め対象の画像における、画像候補領域の位置情報と、画像候補領域の寸法情報と、を含む、ステップと、
N個の画像候補領域に対応する領域セマンティック情報を取得した場合、画像領域位置決め装置がN個の領域セマンティック情報に基づいて、領域セマンティック情報集合を生成するステップと、を含んでもよい。
本実施例において、画像領域位置決め装置は、画像候補領域集合を取得した後、CNNにより、各画像候補領域の領域セマンティック情報を生成することができる。ここで、領域セマンティック情報は、画像候補領域に対するセマンティック表現である。具体的には、画像候補領域集合を{b,b,b,b,...,b}と定義すると仮定する。ここで、各画像候補領域は、領域情報b={x,y,w,h}を含み、画像候補領域bは、画像候補領域集合における1つの画像候補領域を表し、x及びyは、位置決め対象の画像における、画像候補領域の位置情報を表す。具体的には、xは、位置決め対象の画像における、画像候補領域の最頂点の横座標位置情報を表し、yは、位置決め対象の画像における、画像候補領域の最頂点の縦座標位置情報を表し、w及びhは、画像候補領域の寸法情報を表し、該寸法情報は、位置決め対象の画像に対する画像候補領域の比例寸法であり、wは、位置決め対象の画像における、画像候補領域の幅情報を表し、hは、位置決め対象の画像における、画像候補領域の高さ情報を表す。
画像候補領域bをCNNに入力した後、以下を得る。

Figure 0007096444000005
これにより、対応する領域セマンティック情報Iを得る。上記方式で、画像候補領域集合{b,b,b,b,...,b}に対応する領域セマンティック情報集合{I,I,I,I,...,I}を得る。nは、1以上であってN以下である整数である。
理解しやすくするために、CNNは一般的には、下記数層を含む。
畳み込み層(Convolutional layer):畳み込みニューラルネットワークにおける各畳み込み層は、若干の畳み込みユニットからなる。各畳み込みユニットのパラメータはいずれも、逆伝搬アルゴリズムで最適化されたものである。畳み込み演算の目的は、入力した様々な特徴を抽出することである。各畳み込み層は、縁、線及び隅角などの低レベルの特徴のみを抽出できる。より多くの層を有するネットワークは、低レベルの特徴から、より複雑な特徴を反復抽出することができる。
整流線形ユニット層(Rectified Linear Units layer:ReLU layerと略称):該層のニューラル活性化関数(Activation function)として整流線形ユニット(Rectified Linear Units: ReLUと略称)を用いる。
プーリング層(Pooling layer):一般的には、畳み込み層の後に、次元が大きい特徴を得る。特徴を複数の領域に分割し、その最大値又は平均値を取り、次元が小さい新たな特徴を得る。
全結合層(Fully-Connected layer):全ての局所的特徴を結合して全体的特徴を得て、各カテゴリの最終的スコアを算出する。
次に、本願の実施例において、領域セマンティック情報集合の生成方式を提供する。まず、畳み込みニューラルネットワークによって、画像候補領域に対応する領域セマンティック情報を取得し、画像候補領域は、領域情報を含み、領域情報は、位置決め対象の画像における、画像候補領域の位置情報と、画像候補領域の寸法情報と、を含む。N個の画像候補領域に対応する領域セマンティック情報を取得した場合、N個の領域セマンティック情報に基づいて、領域セマンティック情報集合を生成する。上記方式により、CNNを利用して、各画像候補領域の領域セマンティック情報を抽出することができる。CNNは、フィードフォワードニューラルネットワークであり、その人工ニューロンは、一部のカバレッジ内の周辺ユニットに応答することができる。従って、大型画像処理に対して優れた性能を示し、情報抽出の正確性を向上させる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像領域位置決め方法の第2選択可能な実施例において、画像領域位置決め装置がグラフ畳み込みネットワークによって領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップは、
画像領域位置決め装置が領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、第1領域セマンティック情報は、領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、第2領域セマンティック情報は、領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
画像領域位置決め装置が第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
画像領域位置決め装置が第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
画像領域位置決め装置が領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
画像領域位置決め装置がグラフ畳み込みネットワークによって、ターゲット接続行列に対応する拡張セマンティック情報集合を決定するステップと、を含んでもよい。
本実施例において、画像領域位置決め装置は、1つのGCNを用いて、画像候補領域のセマンティック表現を拡張する。まず、我々は、1つのグラフを構築する必要がある。該グラフにおける各ノードは、画像候補領域の領域セマンティック情報に対応する。各ノード間にいずれも対応する接続エッジが存在する。その接続情報の強度は、1つのディープネットワークによって予測される。

Figure 0007096444000006
ここで、n は、第1領域セマンティック情報を表し、n は、第2領域セマンティック情報を表し、fedge( )は、1つのディープネットワークを表し、具体的には、多層パーセプトロン(multi-layer perceptron)、ベクトル内積又はコサイン類似度により実現してもよい。eijは、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度を表す。続いて、eijに対して正規化処理を行い、正規化強化を得る。続いて、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定する。最後に、GCNを用いて、ターゲット接続行列に対応する拡張セマンティック情報集合を生成する。
グラフは、1つのデータフォーマットであり、ソーシャルネットワーク、通信ネットワーク及びタンパク質分子ネットワーク等を表すために用いられる。グラフにおけるノードは、ネットワークにおける個体を表し、接続エッジは、個体間の接続関係を表す。多数の機械学習タスクは、グラフ構造データを用いる必要がある。従って、GCNの出現は、これらの問題の解決のために、新たな発想を提供する。3つのステップで、畳み込みスライスを構築することができる。ステップ1において、グラフから、1つの固定長のノードシーケンスを選択する。ステップ2において、シーケンスにおける各ノードに対して、固定サイズの近隣領域集合を収集する。ステップ3において、現在ノード及びそれに対応する近隣領域からなるサブグラフを正規化して畳み込み構造の入力とする。上記3つのステップにより、全ての畳み込みスライスを構築した後、畳み込み構造を利用して各スライスに対して操作を行う。
次に、本願の実施例において、GCNにより拡張セマンティック情報集合を取得する方式を提供する。まず、領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得する。次に、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度を取得する。続いて、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行い、正規化強度を得て、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定する。最後に、グラフ畳み込みネットワークによって、ターゲット接続行列に対応する拡張セマンティック情報集合を決定する。上記方式により、GCNを用いて、画像候補領域間のセマンティック関係を構築する。これにより、空間情報及びセマンティック関係を十分に考慮して、画像に基づく位置決め性能を向上させる。
任意選択的に、上記図3に対応する第2実施例を基に、本願の実施例で提供される画像領域位置決め方法の第3選択可能な実施例において、画像領域位置決め装置が領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップは、
画像領域位置決め装置が領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
画像領域位置決め装置が接続行列及び単位行列に基づいて、ターゲット接続行列を生成するステップと、を含んでもよい。
本実施例において、画像領域位置決め装置は、まず、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得ることができる。ここで、上記実施例によれば、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度は、具体的には、

Figure 0007096444000007
で表され、
ここで、n は、第1領域セマンティック情報を表し、n は、第2領域セマンティック情報を表し、b、b、w及びwはいずれもGCNのモデルパラメータであり、eijは、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度を表す。
対応する辺情報に対して更に正規化処理を行って、正規化強度を得ることができる。

Figure 0007096444000008
ここで、

Figure 0007096444000009
は、第1領域セマンティック情報と第2領域セマンティック情報との間の正規化強度を表す。各領域セマンティック情報に対してトラバースを行うことで、対応する領域セマンティック情報の接続情報を得て、完全な接続行列を更に構築することができる。

Figure 0007096444000010
自体の情報を更に拡張するために、対応する完全な接続行列に1つの単位行列を更に追加し、ターゲット接続行列を得る。

Figure 0007096444000011
また、本願の実施例において、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定する方式を提供する。つまり、まず、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成する。続いて、接続行列及び単位行列に基づいて、ターゲット接続行列を生成する。上記方式により、正規化処理を用いて、物理系数値の絶対値を相対値関係に変換し、演算を簡素化し、数値を小さくすることができる。なお、自体の情報を更に拡張するために、対応する接続行列に1つの単位行列を更に追加し、ターゲット接続行列を形成する。
任意選択的に、上記図3に対応する第2又は第3実施例を基に、本願の実施例で提供される画像領域位置決め方法の第4選択可能な実施例において、画像領域位置決め装置がグラフ畳み込みネットワークによって、ターゲット接続行列に対応する拡張セマンティック情報集合を決定するステップは、
画像領域位置決め装置が式

Figure 0007096444000012
を用いて、拡張セマンティック情報集合を算出するステップを含んでもよく、
ここで、n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、w は、第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、b は、第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、Eijは、ターゲット接続行列における要素を表す。
本実施例において、画像領域位置決め装置は、ターゲット接続行列に基づいて、GCNを用いて、画像候補領域のセマンティック表現を拡張することは、下記式に示すとおりであってもよい。

Figure 0007096444000013
ここで、w は、第k層のGCNの第1ネットワークパラメータを表し、b は、第k層のGCNの第2ネットワークパラメータを表す。GCNのネットワークパラメータは、グラフ畳み込み層間で共有されないが、1つの固定の畳み込み層において、そのネットワークパラメータは共有されてもよく、共有されなくてもよいことが理解されるべきである。Jノードとして、ノードiに対応する近隣ノードが選択される。ノードのセマンティック類似度により、ノード間の類似度を評価できるため、全結合グラフ構造を構築した。これに対応して、各ノードはいずれも他のノードに接続される。最後に、構築されたターゲット接続行列に基づいて、対応する各ノードのセマンティック表現を更新する。
GCNにおいて、多層グラフ畳み込み処理を行うことができる。上記式に対して複数回実行することができる。式におけるパラメータとして、同一のネットワークパラメータを共有してもよく、ネットワークパラメータを共有しなくてもよい。
更に、本願の実施例において、GCNにより、ターゲット接続行列に対応する拡張セマンティック情報集合を決定する具体的な方式を提供する。上記方式によれば、GCNに基づく演算のために具体的な演算方式を提供し、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図3に対応する実施例を基に、本願の実施例で提供される画像領域位置決め方法の第5選択可能な実施例において、画像領域位置決め装置が位置決め対象のテキストに対応するテキスト特徴集合を取得するステップは、
画像領域位置決め装置が位置決め対象のテキストを取得するステップと、
画像領域位置決め装置が位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応する、ステップと、
画像領域位置決め装置がテキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、画像領域位置決め装置がT個のテキスト特徴に基づいて、テキスト特徴集合を生成するステップと、を含んでもよい。
本実施例において、画像領域位置決め装置は、まず、位置決め対象のテキストを取得する。位置決め対象のテキストは、ユーザにより入力されたテキストであってもよく、ユーザにより入力された音声であってもよい。該音声は、テキストに変換される。バックエンドにより抽出されたテキストであってもよい。位置決め対象のテキストを取得した後、該位置決め対象のテキストにおける各単語を抽出し、続いて、各単語に対して単語ベクトルを構築する。位置決め対象のテキストにT個の単語が含まれると仮定すれば、T個の単語ベクトルを得ることができる。該T個の単語ベクトルは、テキストベクトルシーケンスを構成する。画像領域位置決め装置は、長短期記憶ネットワーク(Long Short-Term Memory:LSTM)構造を用いて、テキストベクトルシーケンスを符号化する。具体的には、LSTM構造を用いて、各単語ベクトルに対して符号化処理を行い、T个個のテキスト特徴を得て、テキスト特徴集合を生成する。
自然言語処理タスクにおいて、まず、コンピュータにおいて単語を如何に表現するかを考慮する必要がある。一般的には、離散型表現(one-hot representation)及び分散型表現(distribution representation)という2つの表現方式がある。one-hot representationは、各単語を1つの長ベクトルで表現する。ベクトルにおいて、1つのみの次元の値は、1であり、他の次元は、0である。該次元は、現在の単語を代表する。本願における単語ベクトル次元は、300次元であってもよい。単語埋め込み(word embedding)は、単語を分散型表現に変換することであり、単語ベクトルとも呼ばれる。単語ベクトルを生成する方法は多い。これらの方法は、いずれも同一の構想に従うものである。いずれか1つの単語の意味は、その周辺単語で表されてもよい。単語ベクトルを生成する方法は、統計に基づく方法と言語モデルに基づく方法に分けられてもよい。
次に、本願の実施例において、テキスト特徴集合の取得方法を提供する。つまり、まず、位置決め対象のテキストを取得し、続いて、位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得する。ここで、テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応する。続いて、テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得る。T個の単語ベクトルに対応するテキスト特徴を取得した場合、T個のテキスト特徴に基づいて、テキスト特徴集合を生成する。上記方式により、位置決め対象のテキストを特徴形態で表すことができる。更に、後続のモデル予測の実行に寄与し、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図3に対応する第5実施例を基に、本願の実施例で提供される画像領域位置決め方法の第6選択可能な実施例において、画像領域位置決め装置がテキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップは、
画像領域位置決め装置が式

Figure 0007096444000014
を用いて、テキスト特徴を取得するステップを含んでもよく、
ここで、hは、テキスト特徴集合におけるt番目のテキスト特徴を表し、LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、wは、テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、ht-1は、テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
本実施例において、画像領域位置決め装置は、LSTM構造により、各単語ベクトルに対して符号化処理を行って、テキスト特徴を得ることができる。入力された位置決め対象のテキストE={e,e,...,e}について、ここで、Tは、位置決め対象のテキストにおいてT個の単語があることを表し、eは、位置決め対象のテキストにおけるt番目の単語を表す。まず、各単語の単語ベクトル表現により、位置決め対象のテキストの単語ベクトル表現を得ることができる。つまり、テキストベクトルシーケンス{w,w,...,w}を得る。ここで、各単語ベクトルの次元は、300であってもよい。位置決め対象のテキストについて、LSTM構造のリカレントニューラルネットワークを用いて符号化を行う。

Figure 0007096444000015
LSTMにおける隠れ状態の次元は、512としてもよい。処理により、位置決め対象のテキストの特徴表現を得る。つまり、テキスト特徴集合h={h,h,...,h}を得る。ここで、LSTM処理の具体的な方式は、以下のとおりである。

Figure 0007096444000016
ここで、wは、テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、ht-1は、テキスト特徴集合における(t-1)番目のテキスト特徴を表し、iは、入力ゲートを表し、fは、忘却ゲートを表し、oは、出力ゲートを表し、hは、隠れ状態を表し、σは、sigmoid関数であり、tanh( )は、双曲線関数を表し、gは、記憶情報を表し、cは、LSTMパラメータを表し、

Figure 0007096444000017
は、点乗算を表し、Tは、変換マッピング行列を表す。
LSTMは、入力を長期間にわたって保存することである。記憶細胞と呼ばれる特殊ユニットは、累算器及びゲーティングニューロンと類似する。これは、次のタイムステップで、1つの重み値を持って自己に連結し、自己の状態の真実値及び累積した外部信号をコピーする。このような自己連結は、もう1つのユニットにより学習され、記憶内容を何時クリアするかを決定する乗算ゲートにより制御される。
また、本願の実施例において、テキスト特徴の取得方式を提供する。つまり、LSTM構造のリカレントニューラルネットワークを用いて単語ベクトルに対して符号化を行う。上記方式によれば、LSTM構造のネットワークを用いて、勾配逆転プロセスにおける段階的な縮小による勾配消失の問題を解決することができる。具体的に、言語処理タスクにおいて、LSTMは、例えば、機械翻訳、対話生成、符号化及び復号化などのような、タイムシーケンスとの相関性が高い問題に適用される。
上記説明を参照しながら、以下、本願におけるモデル訓練方法を説明する。図4を参照すると、モデル訓練装置への適用を例として説明する。ここで、モデル訓練装置は、サーバに配置されてもよい。本願の実施例におけるモデル訓練方法の一実施例は以下を含む。
ステップ201において、モデル訓練装置は、訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得し、訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、第1訓練対象のテキストと第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、第1訓練対象のテキストと第2訓練対象の画像候補領域とは、マッチング関係を有せず、第2訓練対象のテキストと第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、第2訓練対象のテキストと第1訓練対象の画像候補領域とは、マッチング関係を有しない。
本実施例において、モデル訓練装置は、まず、訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得し、訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含む。この場合、マッチング関係を有する第1訓練対象のテキストと第1訓練対象の画像候補領域をポジティプサンプルとし、マッチング関係を有する第2訓練対象のテキストと第2訓練対象の画像候補領域をポジティプサンプルとし、マッチング関係を有しない第1訓練対象のテキストと第2訓練対象の画像候補領域をネガティブサンプルとし、マッチング関係を有しない第2訓練対象のテキストと第1訓練対象の画像候補領域をネガティブサンプルとする。
モデル訓練装置は、サーバに配置されることが理解されるべきである。
ステップ202において、モデル訓練装置は、第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する。
本実施例において、モデル訓練装置は、ポジティプサンプル及びネガティブサンプルに基づいて、自然文と画像候補領域とのマッチング関係を学習し、ターゲット損失関数を構築する。ターゲット損失関数は主に、候補画像領域と自然文との類似度を評価するために用いられる。
ステップ203において、モデル訓練装置は、ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行い、画像領域位置決めネットワークモデルを得て、画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、拡張セマンティック情報と画像候補領域とは、対応関係を有し、テキスト特徴集合と位置決め対象のテキストとは、対応関係を有する。
本実施例において、モデル訓練装置は、構築されたターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行い、更に、画像領域位置決めネットワークモデルを得る。画像領域位置決めネットワークモデルを用いて、画像候補領域と位置決め対象のテキストとのマッチング度を予測することができる。マッチング度が高いほど、関連程度が高くなる。
本願の実施例において、モデル訓練方法を提供する。まず、訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得し、訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含む。続いて、第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する。最後に、ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得る。上記方式によれば、画像候補領域とテキストとのマッチング関係を決定するための画像領域位置決めネットワークモデルを訓練により得ることができる。また、用いられるターゲット関数は、画像候補領域とテキストに対して類似度評価を行い、テキストと画像候補領域とのマッチング関係を学習することができる。これにより、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図4に対応する実施例を基に、本願の実施例で提供されるモデル訓練方法の第1選択可能な実施例において、モデル訓練装置が第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップは、
モデル訓練装置が、式

Figure 0007096444000018
を用いて、ターゲット損失関数を決定するステップを含んでもよく、
ここで、Lは、ターゲット損失関数を表し、n は、第1訓練対象の画像候補領域を表し、h は、第1訓練対象のテキストを表し、n は、第2訓練対象の画像候補領域を表し、h は、第2訓練対象のテキストを表し、d( )は、訓練対象のデータペアを表し、max( )は、最大値を取ることを表し、λは、第1パラメータ制御重みを表し、λは、第2パラメータ制御重みを表し、uは、第1プリセット閾値を表し、uは、第2プリセット閾値を表す。
本実施例において、モデル訓練装置により構築されたターゲット損失関数を説明する。ポジティプサンプル及びネガティブサンプルに基づいて、構築されたターゲット損失関数は、

Figure 0007096444000019
で表され、
ここで、(n ,h )は、ポジティプサンプルを表し、つまり、セマンティック関係を有する画像候補領域と自然言語ペアを表し、(n ,h )及び(n ,h )は、ネガティブサンプルを表し、つまり、相関していない画像候補領域と自然言語ペアを表す。(n ,h )は、ポジティプサンプルであり、n に対して、1つの対応するネガティブサンプル(n ,h )を取る。該マッチング関数の学習により、ポジティプサンプルのマッチング関係をネガティブサンプルのマッチング関係よりも高くする。(n ,h )は、ポジティプサンプルであり、h に対して、1つの対応するネガティブサンプル(n ,h )を取る。該マッチング関数の学習により、ポジティプサンプルのマッチング関係をネガティブサンプルのマッチング関係よりも高くする。
次に、本願の実施例において、第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する方式を提供する。上記方式によれば、定義されたターゲット関数は、2つの異なる方向で、画像と自然言語とのマッチング関係を記述する。ここで、1つの方向は、画像候補領域を自然言語と関連づけることである。もう1つの方向は、自然言語を画像候補領域と関連付けることである。該ターゲット損失関数の設計の主な目的は、セマンティック関連した画像候補領域と自然言語ペアとの類似度を、セマンティック関連していない画像候補領域と自然言語ペアとの類似度よりも高くすることである。これにより、モデル訓練の正確度を向上させる。
以下、本願における画像領域位置決め装置を詳しく説明する。図5を参照すると、図5は、本願の実施例による画像領域位置決め装置の一実施例を示す概略図である。画像領域位置決め装置30は、取得モジュール301と、生成モジュール302と、決定モジュール303と、を備え、
取得モジュール301は、位置決め対象の画像における画像候補領域集合を取得するように構成され、前記画像候補領域集合に、N個の画像候補領域が含まれ、前記Nは、1より大きいか等しい整数であり、
生成モジュール302は、前記取得モジュール301が取得した前記画像候補領域集合(即ち、位置決め対象の画像における画像候補領域集合)に基づいて、領域セマンティック情報集合を生成するように構成され、前記領域セマンティック情報集合にN個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応し(つまり、領域セマンティック情報集合における各領域セマンティック情報は、画像候補領域集合における1つの画像候補領域に対応する)、
前記取得モジュール301は更に、グラフ畳み込みネットワークによって、前記生成モジュール302が生成した前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するように構成され、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し(つまり、拡張セマンティック情報集合における各拡張セマンティック情報は、領域セマンティック情報集合における1つの領域セマンティック情報に対応する)、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられ、
前記取得モジュール301は更に、位置決め対象のテキストに対応するテキスト特徴集合を取得するように構成され、前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数であり(つまり、位置決め対象のテキストにおける各単語は、テキスト特徴集合における1つの単語特徴に対応する)、
前記取得モジュール301は更に、画像領域位置決めネットワークモデルによって、前記テキスト特徴集合(即ち、位置決め対象のテキストに対応するテキスト特徴集合)と前記各拡張セマンティック情報とのマッチング度を取得するように構成され、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、
決定モジュール303は、前記取得モジュール301が取得した、前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するように構成される。
本実施例において、取得モジュール301は、位置決め対象の画像における画像候補領域集合を取得し、前記画像候補領域集合に、N個の画像候補領域が含まれる。前記Nは、1より大きいか等しい整数である。生成モジュール302は、前記取得モジュール301が取得した前記画像候補領域集合に基づいて、領域セマンティック情報集合を生成し、前記領域セマンティック情報集合に、N個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する。前記取得モジュール301は、グラフ畳み込みネットワークによって、前記生成モジュール302が生成した領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得し、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる。前記取得モジュール301は、位置決め対象のテキストに対応するテキスト特徴集合を取得する。前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数である。前記取得モジュール301は、画像領域位置決めネットワークモデルによって、前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得し、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられる。決定モジュール303は、前記取得モジュール301が取得した、前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定する。
本願の実施例において、画像領域位置決め装置を提供する。まず、位置決め対象の画像における画像候補領域集合を取得し、画像候補領域集合に、N個の画像候補領域が含まれる。続いて、画像候補領域集合に基づいて、領域セマンティック情報集合を生成し、各領域セマンティック情報は、1つの画像候補領域に対応する。更に、グラフ畳み込みネットワークによって、領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得し、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる。また、位置決め対象のテキストに対応するテキスト特徴集合を取得する。続いて、画像領域位置決めネットワークモデルによって、テキスト特徴集合と各拡張セマンティック情報とのマッチング度を取得する。最後に、テキスト特徴集合と各拡張セマンティック情報とのマッチング度に基づいて、画像候補領域集合から、ターゲット画像候補領域を決定する。上記方式で、グラフ畳み込みネットワークを用いて、画像候補領域間のセマンティック表現を効果的に拡張することができ、且つ、各画像候補領域間の空間的関係を考慮したため、画像領域位置決めの正確性の向上に寄与し、更に、画像に対する理解能力を向上させる。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記生成モジュール302は具体的には、畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するように構成され、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含み、
前記生成モジュール302は具体的には、N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するように構成される。
次に、本願の実施例において、領域セマンティック情報集合の生成方式を提供する。まず、畳み込みニューラルネットワークによって、画像候補領域に対応する領域セマンティック情報を取得し、画像候補領域は、領域情報を含み、領域情報は、位置決め対象の画像における、画像候補領域の位置情報と、画像候補領域の寸法情報と、を含む。N個の画像候補領域に対応する領域セマンティック情報を取得した場合、N個の領域セマンティック情報に基づいて、領域セマンティック情報集合を生成する。上記方式により、CNNを利用して、各画像候補領域の領域セマンティック情報を抽出することができる。CNNは、フィードフォワードニューラルネットワークであり、その人工ニューロンは、一部のカバレッジ内の周辺ユニットに応答することができる。従って、大型画像処理に対して優れた性能を示し、情報抽出の正確性を向上させる。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するように構成され、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、
前記取得モジュール301は具体的には、前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得し、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行い、正規化強度を得て、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定し、
前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するように構成される。
次に、本願の実施例において、GCNにより拡張セマンティック情報集合を取得する方式を提供する。まず、領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得する。次に、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度を取得する。続いて、第1領域セマンティック情報と第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行い、正規化強度を得て、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定する。最後に、グラフ畳み込みネットワークによって、ターゲット接続行列に対応する拡張セマンティック情報集合を決定する。上記方式により、GCNを用いて、画像候補領域間のセマンティック関係を構築する。これにより、空間情報及びセマンティック関係を十分に考慮して、画像に基づく位置決め性能を向上させる。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成し、
前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するように構成される。
また、本願の実施例において、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定する方式を提供する。つまり、まず、領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成する。続いて、接続行列及び単位行列に基づいて、ターゲット接続行列を生成する。上記方式により、正規化処理を用いて、物理系数値の絶対値を相対値関係に変換し、演算を簡素化し、数値を小さくすることができる。なお、自体の情報を更に拡張するために、対応する接続行列に1つの単位行列を更に追加し、ターゲット接続行列を形成する。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、


Figure 0007096444000020
を用いて、前記拡張セマンティック情報集合を算出するように構成され、
ここで、前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表す
更に、本願の実施例において、GCNにより、ターゲット接続行列に対応する拡張セマンティック情報集合を決定する具体的な方式を提供する。上記方式によれば、GCNに基づく演算のために具体的な演算方式を提供し、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、前記位置決め対象のテキストを取得し、
前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するように構成され、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数であり、
前記取得モジュール301は具体的には、前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行い、テキスト特徴を得て、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するように構成される。
次に、本願の実施例において、テキスト特徴集合の取得方法を提供する。つまり、まず、位置決め対象のテキストを取得し、続いて、位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得する。ここで、テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応する。続いて、テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得る。T個の単語ベクトルに対応するテキスト特徴を取得した場合、T個のテキスト特徴に基づいて、テキスト特徴集合を生成する。上記方式により、位置決め対象のテキストを特徴形態で表すことができる。更に、後続のモデル予測の実行に寄与し、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図5に対応する実施例を基に、本願の実施例で提供される画像領域位置決め装置30のもう1つの実施例において、
前記取得モジュール301は具体的には、


Figure 0007096444000021
を用いて、前記テキスト特徴を取得するように構成され、
ここで、前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
また、本願の実施例において、テキスト特徴の取得方式を提供する。つまり、LSTM構造のリカレントニューラルネットワークを用いて単語ベクトルに対して符号化を行う。上記方式によれば、LSTM構造のネットワークを用いて、勾配逆転プロセスにおける段階的な縮小による勾配消失の問題を解決することができる。具体的に、言語処理タスクにおいて、LSTMは、例えば、機械翻訳、対話生成、符号化及び復号化などのような、タイムシーケンスとの相関性が高い問題に適用される。
以下、本願におけるモデル訓練装置を詳しく説明する。図6を参照すると、図6は、本願の実施例によるモデル訓練装置の一実施例を示す概略図である。モデル訓練装置40は、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するように構成される取得モジュールであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、取得モジュール401と、
前記取得モジュール401が取得した前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するように構成される決定モジュール402と、
前記決定モジュール402が決定した前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るように構成される訓練モジュールであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、訓練モジュール403と、を備える。
本実施例において、取得モジュール401は、訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得し、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない。決定モジュール402は、前記取得モジュール401が取得した前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する。訓練モジュール403は、前記決定モジュール402が決定した前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行い、画像領域位置決めネットワークモデルを得て、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する。
本願の実施例において、モデル訓練装置を提供する。まず、該モデル訓練装置は、訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得し、訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含む。続いて、第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する。最後に、ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得る。上記方式によれば、画像候補領域とテキストとのマッチング関係を決定するための画像領域位置決めネットワークモデルを訓練により得ることができる。また、用いられるターゲット関数は、画像候補領域とテキストに対して類似度評価を行い、テキストと画像候補領域とのマッチング関係を学習することができる。これにより、解決手段の実行可能性及び操作可能性を向上させる。
任意選択的に、上記図6に対応する実施例を基に、本願の実施例で提供されるモデル訓練装置40のもう1つの実施例において、
前記決定モジュール402は具体的には、


Figure 0007096444000022
を用いて、前記ターゲット損失関数を決定するように構成され、
ここで、前記Lは、前記ターゲット損失関数を表し、前記n は、第1訓練対象の画像候補領域を表し、前記h は、前記第1訓練対象のテキストを表し、前記n は、前記第2訓練対象の画像候補領域を表し、前記h は、前記第2訓練対象のテキストを表し、前記d( )は、訓練対象のデータペアを表し、前記max( )は、最大値を取ることを表し、前記λは、第1パラメータ制御重みを表し、前記λは、第2パラメータ制御重みを表し、前記uは、第1プリセット閾値を表し、前記uは、第2プリセット閾値を表す。
次に、本願の実施例において、第1訓練対象のテキスト、第2訓練対象のテキスト、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定する方式を提供する。上記方式によれば、定義されたターゲット関数は、2つの異なる方向で、画像と自然言語とのマッチング関係を記述する。ここで、1つの方向は、画像候補領域を自然言語と関連づけることである。もう1つの方向は、自然言語を画像候補領域と関連付けることである。該ターゲット損失関数の設計の主な目的は、セマンティック関連した画像候補領域と自然言語ペアとの類似度を、セマンティック関連していない画像候補領域と自然言語ペアとの類似度よりも高くすることである。これにより、モデル訓練の正確度を向上させる。
本願の実施例は、もう1つの画像領域位置決め装置を更に提供する。図7に示すように、説明しやすくするために、本願の実施例に係わる部分のみを示す。開示されていない具体的な技術的細部は、本願の実施例の方法を参照されたい。該端末機器は、携帯電話、タブレット、パーソナルデジタルアシスタント(personal digital assistant:PDAと略称)、ポイントオブセールス機器(point of sales:POSと略称)、車載コンピュータなどの任意の端末機器であってもよい。端末機器が携帯電話であることを例とする。
図7は、本願の実施例による端末機器に関わる携帯電話の一部の構造を示すブロック図である。図7を参照すると、携帯電話は、無線周波数(radio frequency:RFと略称)回路510と、メモリ520、入力ユニット530、表示ユニット540、センサ550、オーディオ回路560、ワイヤレスフィデリティ(wireless fidelity:WiFiと略称)モジュール570、プロセッサ580、電源590などの部材を備える。図7に示す携帯電話構造は、携帯電話を限定するものではなく、図示されているものよりも多いまたは少ない部材を備えてもよく、又は、幾つかの部材を組み合わせてもよく、又は、異なる部材配置を行ってもよいことは、当業者であれば、理解すべきである。
以下、図7を参照しながら、携帯電話の各構成部材を具体的に説明する。
RF回路510は、情報送受信又は通話過程で信号を送受信するように構成される。特に、基地局の下り情報を受信した後に、プロセッサ580に送信し、なお、設計された上りデータを基地局に送信するように構成される。一般的には、RF回路510は、アンテナ、少なくとも1つの増幅器、トランシーバ、結合機、低雑音増幅器(Low Noise Amplifier:LNAと略称)、デュプレクサなどを含んでもよく、これらに限定されない。なお、RF回路510は更に、無線通信を介してネットワーク及び他の機器と通信できる。上記無線通信は、いずれか1つの通信規格又はプロトコルを用いることができる。通信規格又はプロトコルは、グローバルモバイル通信システム(Global System of Mobile communication:GSMと略称)、汎用パケット無線サービス(General Packet Radio Service:GPRSと略称)、符号分割多重アクセス(Code Division Multiple Access:CDMAと略称)、広帯域符号分割多重アクセス(Wideband Code Division Multiple Access:WCDMA(登録商標)と略称)、長期的進化(Long Term Evolution:LTEと略称)、電子メール、ショートメッセージサービス(Short Messaging Service:SMSと略称)等を含むが、これらに限定されない。
メモリ520は、ソフトウェアプログラム及びモジュールを記憶するように構成され、プロセッサ580は、メモリ520に記憶されたソフトウェアプログラム及びモジュールを実行することで、携帯電話の種々の機能適用及びデータ処理を実行する。メモリ520は、プログラム記憶エリア及びデータ記憶エリアを含んでもよく、プログラム記憶エリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラム(例えば、音声再生機能、画像再生機能など)などを記憶することができる。データ記憶エリアは、携帯電話の使用に作成されたデータ(例えば、オーディオデータ、電話帳など)などを記憶することができる。なお、メモリ520は、高速ランダムアクセスメモリを含んでもよく、不揮発性メモリを含んでもよい。例えば、少なくとも磁気ディスクメモリデバイス、フラッシュメモリデバイス又は他の揮発性ソリッドステートメモリデバイスを含む。
入力ユニット530は、入力された数字又は文字情報を受信し、携帯電話のユーザ設定及び機能制御に関わるキー信号入力を生成するように構成される。具体的には、入力ユニット530は、タッチパネル531及び他の入力機器532を備えてもよい。タッチパネル531は、タッチスクリーンとも呼ばれ、その上又はその近傍でのユーザのタッチ操作(例えば、ユーザが指、スタイラスなどの如何なる適切な物体又はアセンブリを用いてタッチパネル531又はタッチパネル531の近傍で行う操作)を収集し、事前設定されたプログラムに基づいて、対応する接続装置に駆動するために用いられる。任意選択的に、タッチパネル531は、タッチ検出装置及びタッチコントローラという2つの部分を含んでもよい。ここで、タッチ検出装置は、ユーザのタッチ方位を検出し、タッチ操作による信号を検出し、信号をタッチコントローラに伝送する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、タッチポイント座標に変換し、プロセッサ580に伝送し、プロセッサ580からの命令を受信して実行することができる。なお、抵抗式、容量式、赤外線、及び弾性表面波等の多種のタイプを用いて、タッチパネル531を実現してもよい。タッチパネル531に加えて、入力ユニット530は、他の入力装置532を備えてもよい。具体的には、他の入力装置532は、物理的キーボード、機能キー(例えば、音量制御キー、スイッチキーなど)、トラックボール、マウス、操作レバーなどのうちの1つ又は複数を含んでもよいが、これらに限定されない。
表示ユニット540は、ユーザから入力された情報又はユーザに提供された情報及び携帯電話の種々のメニューを表示するように構成される。表示ユニット540は、表示パネル541を備えてもよい。任意選択的に、液晶ディスプレイ(liquid crystal display:LCD)、有機発光ダイオード(Organic Light-Emitting Diode:OLED)等の形態で表示パネル541を構成することができる。更に、タッチパネル531は、表示パネル541を被覆してもよい。タッチパネル531は、その上又はその近傍でのタッチ操作を検出した後、プロセッサ580に伝送してタッチイベントのタイプを決定する。続いて、プロセッサ580は、タッチイベントのタイプに基づいて、表示パネル541において、対応するビジョン出力を提供する。図7において、タッチパネル531と表示パネル541は、2つの独立した部材として携帯電話の入力及び出力機能を実現するが、幾つかの実施例において、タッチパネル531と表示パネル541を集積することで、携帯電話の入力及び出力機能を実現させることができる。
携帯電話は、例えば、光センサ、動きセンサ及び他のセンサのような、少なくとも1つのセンサ550を更に備えてもよい。具体的には、光センサは、環境光センサ及び近接センサを含んでもよい。環境光センサは、環境光の明暗に基づいて表示パネル541の輝度を調整することができる。近接センサは、携帯電話が耳の傍に移された場合、表示パネル541及び/又はバックライトを閉じることができる。動きセンサの1つとして、加速度センサは、各方向での(一般的には、3軸)加速度の大きさを検出することができる。静止時に、重力の大きさ及び方向を検出でき、携帯電話の姿勢の適用(例えば、横縦表示の切り替え、関連ゲーム、磁力計の姿勢の補正)、振動認識に関わる機能(例えば、歩数計、タッピング)などに用いられる。携帯電話に、ジャイロスコープ、気圧計、湿度計、温度計、赤外センサなどの他のセンサを配置してもよく、ここで、詳細な説明を省略する。
オーディオ回路560、スピーカー561、マイクロホン562は、ユーザと携帯電話とのオーディオインタフェースを提供することができる。オーディオ回路560は、受信したオーディオデータを変換することで得られた電気信号をスピーカー561に伝送し、マイクロホン562により音声信号に変換して出力することができる。一方で、マイクロホン562は、収集した音声信号を電気信号に変換し、オーディオ回路560により受信した後に、オーディオデータに変換し、更にオーディオデータをプロセッサ580に出力して処理した後、RF回路510を介して、もう1つの携帯電話に送信するか又はオーディオデータをメモリ520に出力して更に処理する。
WiFiは、近距離無線伝送技術に属する。携帯電話は、WiFiモジュール570により、ユーザが電子メールを送受信して、ウェブページを閲覧して、ストリームメディアなどにアクセスすることを補助することができる。これは、ユーザに、無線のブロードバンドインターネットアクセスを提供する。図7は、WiFiモジュール570を示すが、これが携帯電話の不可欠な構造ではなく、本発明の本質を変更することなくこれを省略されてもよいことは、理解されるべきである。
プロセッサ580は、携帯電話の制御センターである。これは、種々のインタフェース及び回路を利用して携帯電話全体の各部分を接続する。メモリ520に記憶されたソフトウェアプログラム及び/又はモジュールを行うか又は実行し、メモリ520に記憶されたデータを呼び出すことで、携帯電話の種々の機能を実行してデータを処理し、携帯電話全体に対してモニタリングする。任意選択的に、プロセッサ580は、1つ又は複数の処理ユニットを含んでもよい。任意選択的に、プロセッサ580は、プロセッサとモデムプロセッサを集積したものであってもよい。ここで、アプリケーションプロセッサは、オペレーティングシステム、ユーザインタフェース及びアプリケーションプログラムを処理することができる。モデムプロセッサは、無線通信を処理することができる。上記モデムプロセッサは、プロセッサ580に集積されなくてもよいことが理解されるべきである。
携帯電話は、各部材に給電する電源590(例えば、バッテリ)を更に備える。任意選択的に、電源は、電源管理システムを介してプロセッサ580に論理的に接続されて、電源管理システムにより、充電及び放電の管理、エネルギー消費管理などの機能を実現させることができる。
図示されていないが、携帯電話は、カメラ、ブルートゥース(登録商標)モジュールなどを更に備えてもよく、ここで、詳細な説明を省略する。
本発明の実施例において、該端末機器に含まれるプロセッサ580は、
位置決め対象の画像における画像候補領域集合を取得するステップであって、前記画像候補領域集合に、N個の画像候補領域が含まれ、前記Nは、1より大きいか等しい整数である、ステップと、
前記画像候補領域集合(即ち、位置決め対象の画像における画像候補領域集合)に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合にN個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する(つまり、領域セマンティック情報集合における各領域セマンティック情報は、画像候補領域集合における1つの画像候補領域に対応する)、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し(つまり、拡張セマンティック情報集合における各拡張セマンティック情報は、領域セマンティック情報集合における1つの領域セマンティック情報に対応する)、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
位置決め対象のテキストに対応するテキスト特徴集合を取得するステップであって、前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数である(つまり、位置決め対象のテキストにおける各単語は、テキスト特徴集合における1つの単語特徴に対応する)、ステップと、
画像領域位置決めネットワークモデルによって、前記テキスト特徴集合(即ち、位置決め対象のテキストに対応するテキスト特徴集合)と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられる、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含む機能を更に有する。
任意選択的に、プロセッサ580は具体的には、
畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を実行するように構成される。
任意選択的に、プロセッサ580は具体的には、
前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップと、を実行するように構成される。
任意選択的に、プロセッサ580は具体的には、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
前記接続行列及び単位行列に基づいて、ターゲット接続行列を生成するステップと、を実行するように構成される。
任意選択的に、プロセッサ580は具体的には、


Figure 0007096444000023
を用いて、前記拡張セマンティック情報集合を算出するステップを実行するように構成され、
ここで、前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表す。
任意選択的に、プロセッサ580は具体的には、
前記位置決め対象のテキストを取得するステップと、
前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数である、ステップと、
前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するステップと、を実行するように構成される。
任意選択的に、プロセッサ580は具体的には、


Figure 0007096444000024
を用いて、前記テキスト特徴を取得するように構成され、
ここで、前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
図8は、本願の実施例によるサーバ構造を示す概略図である。該サーバ600は、構成又は性能によって大きく異なることがあり、1つ又は1つ以上の中央演算処理装置(central processing units:CPU)622(例えば、1つ又は1つ以上のプロセッサ)と、メモリ632と、アプリケーションプログラム642又はデータ644を記憶するための記憶媒体630(例えば1つ又は1つ以上の大容量記憶媒体)と、を備えてもよい。ここで、メモリ632及び記憶媒体630は一時的媒体又は永久的記憶媒体であってもよい。記憶媒体630に記憶されたプログラムは、1つ又は1つ以上のモジュール(図示されず)を含んでもよい。各モジュールは、サーバにおける一連の指令操作を含んでもよい。更に、中央演算処理装置622は、記憶媒体630と通信して、サーバ600で記憶媒体530における一連の命令操作を実行するように設定されてもよい。
サーバ600は、1つ又は1つ以上の電源626、1つ又は1つ以上の有線又は無線ネットワークインタフェース650、1つ又は1つ以上の入力出力インタフェース558、及び/又は、Windows ServerTM、Mac OS XTM、UnixTM, Linux(登録商標)、FreeBSDTM等のような1つ又は1つ以上のオペレーティングシステム641を更に含んでもよい。
上記実施例におけるサーバにより実行されたステップは、該図8に示すサーバ構造に基づいたものであってもよい。
本発明の実施例において、該サーバに含まれるCPU622は、
位置決め対象の画像における画像候補領域集合を取得するステップであって、前記画像候補領域集合に、N個の画像候補領域が含まれ、前記Nは、1より大きいか等しい整数である、ステップと、
前記画像候補領域集合(即ち、位置決め対象の画像における画像候補領域集合)に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合にN個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する(つまり、領域セマンティック情報集合における各領域セマンティック情報は、画像候補領域集合における1つの画像候補領域に対応する)、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し(つまり、拡張セマンティック情報集合における各拡張セマンティック情報は、領域セマンティック情報集合における1つの領域セマンティック情報に対応する)、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
位置決め対象のテキストに対応するテキスト特徴集合を取得するステップであって、前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数である(つまり、位置決め対象のテキストにおける各単語は、テキスト特徴集合における1つの単語特徴に対応する)、ステップと、
画像領域位置決めネットワークモデルによって、前記テキスト特徴集合(即ち、位置決め対象のテキストに対応するテキスト特徴集合)と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられる、ステップと、
前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含む機能を更に有する。
任意選択的に、CPU622は具体的には、
畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を実行するように構成される。
任意選択的に、CPU622は具体的には、
前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップと、を実行するように構成される。
任意選択的に、CPU622は具体的には、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するステップと、を実行するように構成される。
任意選択的に、CPU622は具体的には、


Figure 0007096444000025
を用いて、前記拡張セマンティック情報集合を算出するステップを実行するように構成され、
ここで、前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表す。
任意選択的に、CPU622は具体的には、
前記位置決め対象のテキストを取得するステップと、
前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数である、ステップと、
前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するステップと、を実行するように構成される。
任意選択的に、CPU622は具体的には、


Figure 0007096444000026
を用いて、前記テキスト特徴を取得するように構成され、
ここで、前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
本発明の実施例において、該サーバに備えられるCPU622は、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を含む機能を更に有する。
任意選択的に、CPU622は具体的には、


Figure 0007096444000027
を用いて、前記ターゲット損失関数を決定するステップを実行するように構成され、
ここで、前記Lは、前記ターゲット損失関数を表し、前記n は、第1訓練対象の画像候補領域を表し、前記h は、前記第1訓練対象のテキストを表し、前記n は、前記第2訓練対象の画像候補領域を表し、前記h は、前記第2訓練対象のテキストを表し、前記d( )は、訓練対象のデータペアを表し、前記max( )は、最大値を取ることを表し、前記λは、第1パラメータ制御重みを表し、前記λは、第2パラメータ制御重みを表し、前記uは、第1プリセット閾値を表し、前記uは、第2プリセット閾値を表す。
説明上の便宜及び簡素化を図るために、上記説明されたシステム、装置及びユニットの具体的な作動過程は、前記方法の実施例における対応した過程を参照することができるから、ここで詳しく説明しないようにすることは、当業者にはっきり理解されるべきである。
本願で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した前記ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットは、ハードウェアの形態で実現してもよく、ソフトウェア機能ユニットの形態で実現してもよい。
前記集積したユニットはソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本発明の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ設備(パソコン、サーバ、又はネットワーク装置など)に、本発明の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(Read-only Memory:ROMと略称)、ランダムアクセスメモリ(Random Access Memory:RAMと略称)、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体に、命令が記憶されており、該命令は、コンピュータで実行される時、コンピュータに、前記各実施例で提供される画像領域位置決め方法のいずれか1つの可能な実現形態を実行させる。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する強化セマンティック情報集合を取得するステップであって、前記強化セマンティック情報集合における各強化セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各強化セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
前記テキスト特徴集合と前記各強化セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、


Figure 0007096444000028
を用いて、前記拡張セマンティック情報集合を算出するステップを実行するように構成され、
ここで、前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表す。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
前記位置決め対象のテキストを取得するステップと、
前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数である、ステップと、
前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、


Figure 0007096444000029
を用いて、前記テキスト特徴を取得するように構成され、
ここで、前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表す。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体に、命令が記憶されており、該命令は、コンピュータで実行される時、コンピュータに、前記各実施例で提供されるモデル訓練方法のいずれか1つの可能な実現形態を実行させる。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、
訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を実行するように構成される。
任意選択的に、該コンピュータ可読記憶媒体に記憶された命令は、


Figure 0007096444000030
を用いて、前記ターゲット損失関数を決定するステップを実行するように構成され、
ここで、前記Lは、前記ターゲット損失関数を表し、前記n は、第1訓練対象の画像候補領域を表し、前記h は、前記第1訓練対象のテキストを表し、前記n は、前記第2訓練対象の画像候補領域を表し、前記h は、前記第2訓練対象のテキストを表し、前記d( )は、訓練対象のデータペアを表し、前記max( )は、最大値を取ることを表し、前記λは、第1パラメータ制御重みを表し、前記λは、第2パラメータ制御重みを表し、前記uは、第1プリセット閾値を表し、前記uは、第2プリセット閾値を表す。
本願の実施例は、命令を含むコンピュータプログラム製品を更に提供する。該コンピュータプログラム製品は、コンピュータで実行される時、コンピュータに、前記各実施例で提供される画像領域位置決め方法のいずれか1つの可能な実現形態を実行させるか、又は、前記実施例で提供されるモデル訓練方法のいずれか1つの可能な実現形態を実行させる。
なお、上記実施例は本願の技術的解決手段を説明するためのものだけであり、これを限定するものではない。前記実施例を参照しながら、本願を詳細に説明したが、本技術分野を周知するいかなる当業者であれば、前記実施例に記載の技術的解決手段に対して修正を行うことができ、又は一部の技術的特徴に対して均等物による置換を行うこともでき、これらの修正又は置換は、対応する技術的解決手段の本質を本願の実施例の技術的解決手段の精神及び範囲を離脱させるものではないことは、理解すべきである。
30 画像領域位置決め装置
40 モデル訓練装置
301 取得モジュール
302 生成モジュール
303 決定モジュール
401 取得モジュール
402 決定モジュール
403 訓練モジュール
510 RF回路
520 メモリ
530 入力ユニット
531 タッチパネル
532 他の入力装置
540 表示ユニット
541 表示パネル
550 センサ
560 オーディオ回路
561 スピーカー
562 マイクロホン
570 WiFiモジュール
580 プロセッサ
590 電源
600 サーバ
622 中央演算処理装置
626 電源
630 記憶媒体
632 メモリ
641 オペレーティングシステム
642 アプリケーションプログラム
644 データ
650 有線又は無線ネットワークインタフェース
658 入力/出力インタフェース

Claims (20)

  1. 画像領域位置決め方法であって、
    位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
    グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する強化セマンティック情報集合を取得するステップであって、前記強化セマンティック情報集合における各強化セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
    画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各強化セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
    前記テキスト特徴集合と前記各強化セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含む、画像領域位置決め方法。
  2. 位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成する前記ステップは、
    畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
    N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を含むことを特徴とする
    請求項1に記載の画像領域位置決め方法。
  3. グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する強化セマンティック情報集合を取得する前記ステップは、
    前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
    前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
    前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
    前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
    前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する拡張セマンティック情報集合を決定するステップと、を含むことを特徴とする
    請求項1又は2に記載の画像領域位置決め方法。
  4. 前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップは、
    前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
    前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するステップと、を含むことを特徴とする
    請求項3に記載の画像領域位置決め方法。
  5. 前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップは、


    Figure 0007096444000031
    を用いて、前記拡張セマンティック情報集合を算出するステップを含み、
    前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表すことを特徴とする
    請求項3又は4に記載の画像領域位置決め方法。
  6. 画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各強化セマンティック情報とのマッチング度を取得する前に、前記方法は、
    前記位置決め対象のテキストを取得するステップと、
    前記位置決め対象のテキストに基づいて、テキストベクトルシーケンスを取得するステップであって、前記テキストベクトルシーケンスは、T個の単語ベクトルを含み、各単語ベクトルは、1つの単語に対応し、前記Tは、1より大きいか等しい正数である、ステップと、
    前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップと、
    T個の単語ベクトルに対応するテキスト特徴を取得した場合、前記T個のテキスト特徴に基づいて、前記テキスト特徴集合を生成するステップと、を更に含むことを特徴とする
    請求項1ないし5のうちいずれか一項に記載の画像領域位置決め方法。
  7. 前記テキストベクトルシーケンスにおける各単語ベクトルに対して符号化処理を行って、テキスト特徴を得るステップは、


    Figure 0007096444000032
    を用いて、前記テキスト特徴を取得するステップを含み、
    前記hは、前記テキスト特徴集合におけるt番目のテキスト特徴を表し、前記LSTM( )は、長短期記憶(LSTM)ネットワークを用いて符号化を行うことを表し、前記wは、前記テキストベクトルシーケンスにおけるt番目の単語ベクトルを表し、前記ht-1は、前記テキスト特徴集合における(t-1)番目のテキスト特徴を表すことを特徴とする
    請求項6に記載の画像領域位置決め方法。
  8. モデル訓練方法であって、
    訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
    前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
    前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を含む、モデル訓練方法。
  9. 前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップは、


    Figure 0007096444000033
    を用いて、前記ターゲット損失関数を決定するステップを含み、
    前記Lは、前記ターゲット損失関数を表し、前記n は、第1訓練対象の画像候補領域を表し、前記h は、前記第1訓練対象のテキストを表し、前記n は、前記第2訓練対象の画像候補領域を表し、前記h は、前記第2訓練対象のテキストを表し、前記d( )は、訓練対象のデータペアを表し、前記max( )は、最大値を取ることを表し、前記λは、第1パラメータ制御重みを表し、前記λは、第2パラメータ制御重みを表し、前記uは、第1プリセット閾値を表し、前記uは、第2プリセット閾値を表すことを特徴とする
    請求項8に記載のモデル訓練方法。
  10. 画像領域位置決め装置であって、生成モジュールと、取得モジュールと、決定モジュールと、を備え、
    前記生成モジュールは、位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するように構成され、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応し、
    前記取得モジュールは、グラフ畳み込みネットワークによって、前記生成モジュールが生成した前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するように構成され、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられ、
    前記取得モジュールは更に、画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するように構成され、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応し、
    前記決定モジュールは、前記取得モジュールが取得した前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するように構成される、画像領域位置決め装置。
  11. モデル訓練装置であって、
    訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するように構成される取得モジュールであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、取得モジュールと、
    前記取得モジュールが取得した前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するように構成される決定モジュールと、
    前記決定モジュールが決定した前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るように構成される訓練モジュールであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、訓練モジュールと、を備える、モデル訓練装置。
  12. 端末機器であって、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
    前記メモリは、プログラムを記憶するように構成され、
    前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
    グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
    画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
    前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含み、
    前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される、端末機器。
  13. 前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    畳み込みニューラルネットワークによって、各画像候補領域に対応する領域セマンティック情報を取得するステップであって、前記画像候補領域は、領域情報を含み、前記領域情報は、前記位置決め対象の画像における、前記画像候補領域の位置情報と、前記画像候補領域の寸法情報と、を含む、ステップと、
    N個の画像候補領域に対応する領域セマンティック情報を取得した場合、前記N個の領域セマンティック情報に基づいて、前記領域セマンティック情報集合を生成するステップであって、前記Nは、1より大きいか等しい整数である、ステップと、を含むことを特徴とする
    請求項12に記載の端末機器。
  14. 前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    前記領域セマンティック情報集合から、第1領域セマンティック情報及び第2領域セマンティック情報を取得するステップであって、前記第1領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報であり、前記第2領域セマンティック情報は、前記領域セマンティック情報集合のうちのいずれか1つの領域セマンティック情報である、ステップと、
    前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度を取得するステップと、
    前記第1領域セマンティック情報と前記第2領域セマンティック情報との間の接続エッジ強度に対して正規化処理を行って、正規化強度を得るステップと、
    前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、ターゲット接続行列を決定するステップと、
    前記グラフ畳み込みネットワークによって、前記ターゲット接続行列に対応する前記拡張セマンティック情報集合を決定するステップと、を含むことを特徴とする
    請求項12又は13に記載の端末機器。
  15. 前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    前記領域セマンティック情報集合における各領域セマンティック情報間の正規化強度に基づいて、接続行列を生成するステップと、
    前記接続行列及び単位行列に基づいて、前記ターゲット接続行列を生成するステップと、を含むことを特徴とする
    請求項14に記載の端末機器。
  16. 前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、


    Figure 0007096444000034
    を用いて、前記拡張セマンティック情報集合を算出するステップを含み、
    前記n は、第k層のグラフ畳み込みネットワークに対応するi番目の拡張セマンティック情報を表し、前記n k-1は、第(k-1)層のグラフ畳み込みネットワークに対応するj番目の拡張セマンティック情報を表し、前記w は、前記第k層のグラフ畳み込みネットワークの第1ネットワークパラメータを表し、前記b は、前記第k層のグラフ畳み込みネットワークの第2ネットワークパラメータを表し、前記j∈neighboring(i)は、j番目のノードがi番目のノードの近隣ノードに属することを表し、前記Eijは、ターゲット接続行列における要素を表すことを特徴とする
    請求項14又は15に記載の端末機器。
  17. サーバであって、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
    前記メモリは、プログラムを記憶するように構成され、
    前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    位置決め対象の画像における画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合における各領域セマンティック情報は、前記画像候補領域集合における1つの画像候補領域に対応する、ステップと、
    グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合における各拡張セマンティック情報は、前記領域セマンティック情報集合における1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
    画像領域位置決めネットワークモデルによって、位置決め対象のテキストに対応するテキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記位置決め対象のテキストにおける各単語は、前記テキスト特徴集合における1つの単語特徴に対応する、ステップと、
    前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、を含み、
    前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される、サーバ。
  18. サーバであって、メモリと、トランシーバと、プロセッサと、バスシステムと、を備え、
    前記メモリは、プログラムを記憶するように構成され、
    前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、前記プログラムは、
    訓練対象のテキスト集合及び訓練対象の画像候補領域集合を取得するステップであって、前記訓練対象のテキスト集合は、第1訓練対象のテキスト及び第2訓練対象のテキストを含み、前記訓練対象の画像候補領域集合は、第1訓練対象の画像候補領域及び第2訓練対象の画像候補領域を含み、前記第1訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第1訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有せず、前記第2訓練対象のテキストと前記第2訓練対象の画像候補領域とは、マッチング関係を有し、且つ、前記第2訓練対象のテキストと前記第1訓練対象の画像候補領域とは、マッチング関係を有しない、ステップと、
    前記第1訓練対象のテキスト、前記第2訓練対象のテキスト、前記第1訓練対象の画像候補領域及び前記第2訓練対象の画像候補領域に基づいて、ターゲット損失関数を決定するステップと、
    前記ターゲット損失関数を用いて、訓練対象の画像領域位置決めネットワークモデルに対して訓練を行って、画像領域位置決めネットワークモデルを得るステップであって、前記画像領域位置決めネットワークモデルは、テキスト特徴集合及び拡張セマンティック情報に基づいて、画像候補領域と位置決め対象のテキストとのマッチング関係を決定するために用いられ、前記拡張セマンティック情報と前記画像候補領域とは、対応関係を有し、前記テキスト特徴集合と前記位置決め対象のテキストとは、対応関係を有する、ステップと、を含み、
    前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサを通信させるように構成される、サーバ。
  19. 画像領域位置決め方法であって、
    画像位置決め命令を受信するステップと、
    前記画像位置決め命令に応答して、前記画像位置決め命令に基づいて、位置決め対象の画像における画像候補領域集合を取得するステップであって、前記画像候補領域集合に、N個の画像候補領域が含まれ、前記Nは、1より大きいか等しい整数である、ステップと、
    前記画像候補領域集合に基づいて、領域セマンティック情報集合を生成するステップであって、前記領域セマンティック情報集合に、N個の領域セマンティック情報が含まれ、各領域セマンティック情報は、1つの画像候補領域に対応する、ステップと、
    グラフ畳み込みネットワークによって、前記領域セマンティック情報集合に対応する拡張セマンティック情報集合を取得するステップであって、前記拡張セマンティック情報集合に、N個の拡張セマンティック情報が含まれ、各拡張セマンティック情報は、1つの領域セマンティック情報に対応し、前記グラフ畳み込みネットワークは、各領域セマンティック情報間の関連関係を構築するために用いられる、ステップと、
    位置決め対象のテキストに対応するテキスト特徴集合を取得するステップであって、前記位置決め対象のテキストは、T個の単語を含み、前記テキスト特徴集合は、T個の単語特徴を含み、各単語は、1つの単語特徴に対応し、前記Tは、1より大きいか等しい整数である、ステップと、
    画像領域位置決めネットワークモデルによって、前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度を取得するステップであって、前記画像領域位置決めネットワークモデルは、前記画像候補領域と前記位置決め対象のテキストとのマッチング関係を決定するために用いられる、ステップと、
    前記テキスト特徴集合と前記各拡張セマンティック情報とのマッチング度に基づいて、前記画像候補領域集合から、ターゲット画像候補領域を決定するステップと、
    クライアントに画像生成命令を送信し、前記クライアントに、前記画像生成命令に基づいて前記ターゲット画像候補領域を展示させるステップと、を含む、画像領域位置決め方法。
  20. コンピュータプログラムであって、
    コンピュータに、請求項1ないし7のいずれか一項に記載の画像領域位置決め方法、または請求項8又は9に記載のモデル訓練方法を実行させる、コンピュータプログラム。
JP2021546041A 2019-03-13 2020-03-10 画像領域位置決め方法、モデル訓練方法及び関連装置 Active JP7096444B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910190207.2 2019-03-13
CN201910190207.2A CN109903314A (zh) 2019-03-13 2019-03-13 一种图像区域定位的方法、模型训练的方法及相关装置
PCT/CN2020/078532 WO2020182112A1 (zh) 2019-03-13 2020-03-10 一种图像区域定位的方法、模型训练的方法及相关装置

Publications (2)

Publication Number Publication Date
JP2022508790A JP2022508790A (ja) 2022-01-19
JP7096444B2 true JP7096444B2 (ja) 2022-07-05

Family

ID=66952124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021546041A Active JP7096444B2 (ja) 2019-03-13 2020-03-10 画像領域位置決め方法、モデル訓練方法及び関連装置

Country Status (6)

Country Link
US (1) US20210264227A1 (ja)
EP (1) EP3940638B1 (ja)
JP (1) JP7096444B2 (ja)
KR (1) KR102646667B1 (ja)
CN (1) CN109903314A (ja)
WO (1) WO2020182112A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903314A (zh) * 2019-03-13 2019-06-18 腾讯科技(深圳)有限公司 一种图像区域定位的方法、模型训练的方法及相关装置
CN110288026B (zh) * 2019-06-27 2021-08-10 山东浪潮科学研究院有限公司 一种基于度量关系图学习的图像分割方法及装置
CN110660103B (zh) * 2019-09-17 2020-12-25 北京三快在线科技有限公司 一种无人车定位方法及装置
CN110705407B (zh) * 2019-09-20 2022-11-15 五邑大学 基于多任务迁移的人脸美丽预测方法及装置
CN110825901B (zh) * 2019-11-11 2024-08-06 腾讯科技(北京)有限公司 基于人工智能的图文匹配方法、装置、设备及存储介质
CN113128509A (zh) * 2019-12-31 2021-07-16 广东爱因智能数字营销有限公司 一种图像语义要素提取方法
CN111275041B (zh) * 2020-01-20 2022-12-13 腾讯科技(深圳)有限公司 内窥镜图像展示方法、装置、计算机设备及存储介质
CN111291813B (zh) * 2020-02-13 2023-10-31 腾讯科技(深圳)有限公司 图像标注方法、装置、计算机设备和存储介质
US11442986B2 (en) 2020-02-15 2022-09-13 International Business Machines Corporation Graph convolutional networks for video grounding
CN111598155A (zh) * 2020-05-13 2020-08-28 北京工业大学 一种基于深度学习的细粒度图像弱监督目标定位方法
CN111598900B (zh) * 2020-05-18 2022-08-09 腾讯医疗健康(深圳)有限公司 一种图像区域分割模型训练方法、分割方法和装置
CN111783457B (zh) * 2020-07-28 2021-05-11 北京深睿博联科技有限责任公司 一种基于多模态图卷积网络的语义视觉定位方法及装置
CN111986262B (zh) * 2020-09-07 2024-04-26 凌云光技术股份有限公司 一种图像区域定位方法及装置
CN112269316B (zh) * 2020-10-28 2022-06-07 中国科学院信息工程研究所 一种基于图神经网络的高鲁棒性威胁狩猎系统与方法
CN112613483A (zh) * 2021-01-05 2021-04-06 中国科学技术大学 一种基于语义分割和识别的户外火灾预警方法
CN112860928A (zh) * 2021-02-08 2021-05-28 天津大学 一种基于类别感知图神经网络的服饰检索方法
CN113111184B (zh) * 2021-04-27 2022-03-08 清华大学深圳国际研究生院 基于显式事件结构知识增强的事件检测方法及终端设备
CN113392370B (zh) * 2021-06-15 2022-01-04 元橡科技(苏州)有限公司 一种slam系统
CN113393558A (zh) * 2021-06-29 2021-09-14 维沃软件技术有限公司 漫画生成方法、装置、电子设备和存储介质
CN113449640B (zh) * 2021-06-29 2022-02-11 中国地质大学(武汉) 基于多任务cnn+gcn的遥感影像建筑物语义分割边缘优化方法
CN113434716B (zh) * 2021-07-02 2024-01-26 泰康保险集团股份有限公司 一种跨模态信息检索方法和装置
CN113806631A (zh) * 2021-08-20 2021-12-17 华为技术有限公司 一种推荐方法、训练方法、装置、设备及新闻推荐系统
CN115295079A (zh) * 2022-01-20 2022-11-04 云南师范大学 基于元图学习的长链非编码rna亚细胞定位预测方法
CN114896438B (zh) * 2022-05-10 2024-06-28 西安电子科技大学 基于分层对齐和广义池化图注意力机制的图文检索方法
CN115269912B (zh) * 2022-09-29 2023-01-06 浙江省公众信息产业有限公司无线运营分公司 图像检索方法及系统
CN116978011B (zh) * 2023-08-23 2024-03-15 广州新华学院 一种用于智能目标识别的图像语义通信方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180121768A1 (en) 2016-10-28 2018-05-03 Adobe Systems Incorporated Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media
CN108229287A (zh) 2017-05-31 2018-06-29 北京市商汤科技开发有限公司 图像识别方法和装置、电子设备和计算机存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
US9436760B1 (en) * 2016-02-05 2016-09-06 Quid, Inc. Measuring accuracy of semantic graphs with exogenous datasets
US10579902B2 (en) * 2016-12-21 2020-03-03 Samsung Electronics Co., Ltd. Method and electronic device for providing text-related image
CN106845499A (zh) * 2017-01-19 2017-06-13 清华大学 一种基于自然语言语义的图像目标检测方法
CN108228757A (zh) * 2017-12-21 2018-06-29 北京市商汤科技开发有限公司 图像搜索方法和装置、电子设备、存储介质、程序
CN108960330B (zh) * 2018-07-09 2021-09-10 西安电子科技大学 基于快速区域卷积神经网络的遥感图像语义生成方法
CN109002852B (zh) * 2018-07-11 2023-05-23 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
JP7132046B2 (ja) * 2018-09-13 2022-09-06 株式会社東芝 検索装置、検索方法及びプログラム
US11436825B2 (en) * 2018-12-14 2022-09-06 Samsung Electronics Co., Ltd. Method and apparatus for determining target object in image based on interactive input
CN109903314A (zh) * 2019-03-13 2019-06-18 腾讯科技(深圳)有限公司 一种图像区域定位的方法、模型训练的方法及相关装置
US11823378B2 (en) * 2019-12-20 2023-11-21 PAIGE.AI, Inc. Systems and methods for processing electronic images to detect contamination in specimen preparations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180121768A1 (en) 2016-10-28 2018-05-03 Adobe Systems Incorporated Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media
CN108229287A (zh) 2017-05-31 2018-06-29 北京市商汤科技开发有限公司 图像识别方法和装置、电子设备和计算机存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Da Zhang et al.,MAN: Moment Alignment Network for Natural Language Moment Retrieval via Iterative Graph Adjustment,[online],2018年11月,https://arxiv.org/pdf/1812.00087v1.pdf

Also Published As

Publication number Publication date
US20210264227A1 (en) 2021-08-26
EP3940638A4 (en) 2022-05-11
KR102646667B1 (ko) 2024-03-11
KR20210076110A (ko) 2021-06-23
WO2020182112A1 (zh) 2020-09-17
EP3940638A1 (en) 2022-01-19
EP3940638B1 (en) 2024-01-17
JP2022508790A (ja) 2022-01-19
CN109903314A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
JP7096444B2 (ja) 画像領域位置決め方法、モデル訓練方法及び関連装置
WO2020199932A1 (zh) 模型训练方法、人脸识别方法、装置、设备及存储介质
WO2021036695A1 (zh) 一种待标注图像确定的方法、模型训练的方法及装置
JP7185039B2 (ja) 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム
WO2020199926A1 (zh) 一种图像识别网络模型训练方法、图像识别方法及装置
CN110009052B (zh) 一种图像识别的方法、图像识别模型训练的方法及装置
WO2020177673A1 (zh) 一种视频序列选择的方法、计算机设备及存储介质
WO2020103721A1 (zh) 信息处理的方法、装置及存储介质
WO2020108483A1 (zh) 模型训练方法、机器翻译方法、计算机设备和存储介质
US10755447B2 (en) Makeup identification using deep learning
CN108280458B (zh) 群体关系类型识别方法及装置
CN111816159B (zh) 一种语种识别方法以及相关装置
WO2020147369A1 (zh) 自然语言处理方法、训练方法及数据处理设备
WO2024041479A1 (zh) 一种数据处理方法及其装置
CN113821589B (zh) 一种文本标签的确定方法及装置、计算机设备和存储介质
CN110555337B (zh) 一种指示对象的检测方法、装置以及相关设备
CN114722937B (zh) 一种异常数据检测方法、装置、电子设备和存储介质
WO2017088434A1 (zh) 人脸模型矩阵训练方法、装置及存储介质
CN113723378B (zh) 一种模型训练的方法、装置、计算机设备和存储介质
CN116935188B (zh) 模型训练方法、图像识别方法、装置、设备及介质
CN113761122A (zh) 一种事件抽取方法、相关装置、设备及存储介质
CN113111917A (zh) 一种基于双重自编码器的零样本图像分类方法及装置
CN109583583A (zh) 神经网络训练方法、装置、计算机设备及可读介质
CN114462539A (zh) 一种内容分类模型的训练方法、内容分类的方法及装置
CN118427350A (zh) 文本情感分析方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150