JP7193252B2 - 画像の領域のキャプション付加 - Google Patents

画像の領域のキャプション付加 Download PDF

Info

Publication number
JP7193252B2
JP7193252B2 JP2018088032A JP2018088032A JP7193252B2 JP 7193252 B2 JP7193252 B2 JP 7193252B2 JP 2018088032 A JP2018088032 A JP 2018088032A JP 2018088032 A JP2018088032 A JP 2018088032A JP 7193252 B2 JP7193252 B2 JP 7193252B2
Authority
JP
Japan
Prior art keywords
word embedding
input
component
signature
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018088032A
Other languages
English (en)
Other versions
JP2019008778A (ja
Inventor
ルバース ニエルス
ブルキナフェド マリカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2019008778A publication Critical patent/JP2019008778A/ja
Application granted granted Critical
Publication of JP7193252B2 publication Critical patent/JP7193252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータプログラムおよびシステムの分野に関し、より具体的には、画像の領域のキャプション付けのために構成された関数の学習に関連する方法、装置、データ構造、およびプログラムに関する。
オブジェクトの設計、エンジニアリング、製造のため、多数のシステムおよびプログラムが市場に提供されている。CADは、コンピュータ支援設計(Computer-Aided Design)の略語であり、例えば、オブジェクトを設計するためのソフトウェア・ソリューションに関する。CAEは、コンピュータ支援エンジニアリング(Computer-Aided Engineering)の略語であり、例えば、将来の製品の物理的挙動をシミュレーションするためのソフトウェア・ソリューションに関する。CAMは、コンピュータ支援製造(Computer-Aided Manufacturing)の略語であり、例えば、製造工程および動作を定義するためのソフトウェア・ソリューションに関する。このようなコンピュータ支援設計システムにおいて、グラフィカル・ユーザ・インターフェースは、技術の効率に関して、重要な役割を果たす。これらの技術は、製品ライフサイクル管理(Product Lifecycle Management: PLM)システムに組み込むことができる。PLMとは、企業が、拡張エンタープライズの概念全体にわたって、製品データを共有し、共通の工程を適用し、構想に始まり製品寿命の終わりに至る製品開発のための企業知識を活用するのを支援するビジネス戦略を指す。ダッソー・システムズが提供するPLMソリューション(製品名CATIA、ENOVIA、DELMIA)は、製品エンジニアリング知識を体系化するエンジニアリング・ハブ、製造エンジニアリング知識を管理する製造ハブ、およびエンジニアリング・ハブと製造ハブの両方に対するエンタープライズ統合と接続を可能にするエンタープライズ・ハブを提供する。全てのシステムは、製品、工程、リソースを結ぶオープンなオブジェクトモデルを提供し、最適化された製品定義、製造準備、生産およびサービスを推進する、動的な知識ベースの製品作成および意思決定支援を可能にする。
こうした背景において、シーン理解および画像のキャプション付けがより重要視されるようになってきている。画像のキャプション付けは、コンピュータビジョンと自然言語処理の交差領域における課題であり、入力画像が与えられると入力画像を説明するキャプションを生成することからなる。領域のキャプション付けは、入力画像と、入力画像内の注目入力領域が与えられると、入力領域を説明するキャプションを生成することからなる、特定の種類の画像キャプション付けである。密なキャプション付けは、さらに進んだアプローチである:画像内の異なる注目領域を自動的に見つけ出し、それぞれに説明を与える。これらの技術は、例えば画像からの3D体験の自動生成に対して提供することにより、シーン理解アプリケーションにおいて有用であり得る。
以下の論文が画像キャプション付けに関連しており、以降で言及している。
・[1]R.Krishna et al.Visual Genome:Connecting Language and Vision Using Crowdsourced Dense Image Annotations,arXiv 2016 ・[2]R.Kiros et al.Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models,ICCV 2015 ・[3]R.Lebret et al.Phrase-Based Image Captioning,2015 ・[4]R.Kiros et al.Multimodal Neural Language Models,ICML 2014 ・[5]T.Mikolov et al.Distributed Representations of Words and Phrases and their Compositionality,NIPS 2013 ・[6]S.Venugopalan et al.Long-term Recurrent Convolutional Networks for Visual Recognition and Description,CVPR 2015 ・[7]O.Vinyals et al.Show and Tell:A neural Image Caption Generator,IEEE 2015 ・[8]A.Karpathy et al.Deep Visual-Semantic Alignments for Generating Image Descriptions,IEEE 2015 ・[9]A.Karpathy et al.DenseCap:Fully Convolutional Localization Networks for Dense Captioning,CVPR 2016 ・[10]K.Papineni et al.BLEU:a Method for Automatic Evaluation of Machine Translation,ACL 2002 ・[11]M.Denkowski et al.Meteor Universal:Language Specific Translation Evaluation for Any Target Language ACL 2014 ・[12]I.Sutskever et al.Sequence to Sequence Learning with Neural Networks,NIPS 2014
既存の画像キャプション付け技術は、キャプションを生成するように構成された機械学習モデル(すなわち、関数)を訓練するのに用いられる画像/キャプションの複数の対からなるデータベースに基づいている。そのようなデータベースは、人々が写真を説明するキャプションを書くよう求められるクラウドソーシング・プラットフォームから得てもよい。既存のデータベースには、画像キャプション付け用のMSCOCOと、密なキャプション付け用のVisual Genome[1]とが含まれる。既存のキャプション付けのアプローチは、2つのカテゴリからなる。すなわち、学習されたマルチモーダル空間からの文の取得と、エンコーダ/デコーダフレームワークによる文の生成である。どちらのアプローチでも、モデル内の入力画像が符号化され、画像署名が取得される。次いで、その署名を処理した後、キャプションが取得される。生成されたキャプションの品質の評価は、異なる言語尺度[10,11]によって実行されてもよい。
マルチモーダル・アプローチ[2,3,4]では、画像とフレーズ表現のための共通の空間が学習される。このような共通空間は、Word2VecTMを学習するときに[5]で用いられるようなネガティブ・サンプリングなどの技術を用いて学習される、2つの様式、すなわち、画像とテキストのための埋め込み空間のようなものである。そのような空間が学習されると、埋め込み空間における画像照会署名に最も類似した署名を有するキャプションを取得した後、文生成プロセスが実行される。このようなアプローチの課題は、取得したキャプションに対し、既にデータベースに存在するキャプションによる大きなバイアスがかかることである。さらに、最も類似したキャプションの取得は、データベースが大きくなり過ぎた場合、非常に時間がかかり得る動作である。
第2のアプローチでは、文の生成のためにエンコーダ/デコーダフレームワークが使用される[6,7,8]。画像を符号化する第1のステップでは、画像を畳み込みニューラルネットワークを通過させ、より高い全結合層のうちのいくつかの出力を得た後に、画像の署名が取得される。次いで、[12]において開発された一般的なアプローチのように、文を一語一語生成する再帰型ニューラルネットワークにより、画像署名が復号される。密なキャプション付け処理はまた、画像内の領域のキャプションを生成する際、上述のエンコーダ/デコーダフレームワークを用いる。最先端の方法[9]は、ニューラルネットワークの内部にLocalization層を統合して、画像内の注目領域を自動的に見つける。これらのアプローチは、訓練したデータベースの品質が十分である限り、画像全体の説明に適している。しかしながら、同じモデルが、画像内の領域のキャプションを生成するのに用いられると、画像全体における場合ほど良好な結果が得られない。したがって、画像の領域のキャプション付けの、改善された解決策が依然として必要とされている。
したがって、本発明では、コンピュータによって実施される、関数を学習するための方法が提供される。本方法は、3つ組のデータセットを提供することを含む。3つ組のそれぞれは、画像と、画像の領域と、領域のキャプションとを含む。本方法はまた、入力画像と当該入力画像の入力領域とに基づいて出力キャプションを生成するように構成された関数を、前記3つ組のデータセットを用いて学習することを含む。前記関数は、それにより画像の領域のキャプション付けを行うよう構成されている。
関数は、入力画像および入力画像の入力領域に基づいて出力キャプションを事前に生成するために予め学習されるので、キャプション付けは比較的高速、例えば実質的にリアルタイムで実行されてもよい。さらに、従来技術と比較して、前記関数は相対的に高品質、かつ/あるいは、相対的に高いロバスト性を有するキャプション付けを実行するように構成されている。言い換えれば、本方法によって出力されるキャプションは、入力画像の入力領域を、比較的正確に、かつ/あるいは、構文的および/または文法的に比較的正しい言語を用いて説明し、かつ/あるいは、学習に用いられるデータセットの品質に関して比較的高いロバスト性を有する。これは、学習が、画像の領域とそれに対応するキャプションだけでなく、領域自体を含む画像をも含む、3つ組のデータセットを用いて、関数が、入力領域の情報だけでなく、入力領域を含む入力画像の情報にも基づいて出力を生成するように行われるからである。言い換えれば、本方法は、キャプション付けの品質を向上させるために、領域のコンテクスト、すなわちそれが含まれる画像を利用する。
これは、文生成の工程において領域の内側の情報だけを使用し、その周囲の情報を使用しない、既知の領域説明のための方法とは異なる。これは、キャプションを生成する際に、コンテクスト情報に基づかないことを意味する。さらに、既知の訓練されたモデルは、訓練されたデータベースの影響を非常に受けやすい。
本方法は、以下のうちの1つまたは複数を含んでいてもよい。
・前記関数は前記入力画像と前記入力領域との組み合わせの署名を決定するように構成された第1の成分と、前記組み合わせの前記署名に基づき前記出力キャプションを生成するよう構成された第2の成分とを含む。
・前記第2の成分は、前記出力キャプションを反復的に生成するように構成されている。
・前記第2の成分は、1つまたは複数の再帰型ニューラルネットワークを含む。
・前記1つまたは複数の再帰型ニューラルネットワークは、1つまたは複数の長短期記憶(Long Short-Term Memory)ニューラルネットワークを含む。
・前記第2の成分は、さらに単語埋め込み空間に基づいて前記出力キャプションを生成するように構成されている。
・前記第2の成分は、第1の再帰型ニューラルネットワークと、第2の再帰型ニューラルネットワークと、単語埋め込み層とを含んでおり、前記第1の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第1の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは、前記第2の再帰型ニューラルネットワークとそれに続く前記単語埋め込み層との合成物の出力であり、前記第2の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルと前記組み合わせの前記署名とに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第2の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは前記第1の再帰型ニューラルネットワークの出力であり、前記単語埋め込み層は各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを生成するように構成されており、前記単語埋め込み層についての前記生成された単語埋め込みベクトルは、単語埋め込み空間において表現される最も確率の高い語彙の単語に対応する単語埋め込みベクトルである。
・本方法は、キャプションのデータセットを提供することを含み、前記学習することは、前記第1の再帰型ニューラルネットワーク、および/または、前記単語埋め込み層を、前記キャプションのデータセットを用いて訓練し、次いで、前記第2の再帰型ニューラルネットワークを訓練することを含む。
前記第1の成分は、前記入力画像の署名を抽出するように構成された成分と、前記入力領域の署名を抽出するように構成された成分と、前記入力画像の前記署名を前記入力領域の前記署名と組み合わせるように構成された成分とを含む。
・前記入力画像の署名を抽出するように構成された前記成分と、前記入力領域の署名を抽出するように構成された前記成分とは、それぞれ畳み込みニューラルネットワークである。
・各畳み込みニューラルネットワークは重みを共有する。
・前記入力画像の前記署名を前記入力領域の前記署名と組み合わせるように構成された前記成分は、連結成分、または加算成分、および/または、全結合層を含む。かつ/あるいは、
・前記学習することは、前記第1の成分を学習することと、次いで前記第2の成分の少なくとも一部を学習することとを含む。
さらには、本方法によって学習可能な関数が提供される。言い換えれば、当該関数は、入力を出力に変換するスキームを構成し、当該スキームは、本方法によって取得可能である。上記関数は、画像の領域のキャプション付けを行うための、コンピュータによって実施される工程において用いられてもよい。当該工程は、例えば、入力画像および入力領域を提供することと、当該入力画像および当該入力領域に基づいて、上記関数を適用して出力キャプションを生成することを含んでいてもよい。入力領域は、例えば、ユーザによって、または他の任意の方法で入力画像が提供された後に、当該入力画像内で識別されてもよい(例えば、密なキャプション付けを構成する工程で行われ、当該識別は、そのような密なキャプション付けにおける任意の古典的な領域識別段階を用いて行う)。当該工程は、例えば同じ関数を用いて異なる入力に繰り返してもよい。当該繰り返しは、密なキャプション付けで識別された同じ画像の異なる領域にわたって実行してもよい。これに代えて、またはこれに加えて、上記入力は、ビデオのフレームのシーケンスを構成し、上記工程は、各フレームについて、リアルタイムで、1つまたは複数の領域のキャプションを出力してもよい。
さらには、前記方法、および/または、前記工程を実行するための命令を含むコンピュータプログラムが提供される。
さらには、前記データセット、前記関数、および/または、前記プログラムを含むデータ構造が提供される。
さらには、前記データ構造を記録したコンピュータ読み取り可能な記憶媒体が提供される。
さらには、前記データ構造を記録したデータ記憶媒体を備える装置が提供される。前記装置は、非一時的コンピュータ読み取り可能媒体を構成してもよい。あるいは、前記装置は、前記データ記憶媒体に接続されたプロセッサを備えていてもよい。前記装置は、そのようにシステムを構成してもよい。前記システムはさらに、前記プロセッサに接続されたグラフィカル・ユーザ・インターフェースを備えていてもよい。
以下、非限定的な例として、本発明の実施の形態を添付の図面を参照しつつ説明する。
本システムの一例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。 本方法の例を示す。
「コンピュータにより実施される」とは、すなわち、ステップ(あるいは略全てのステップ)が少なくとも1つのコンピュータ、または類似の任意のシステムによって実行されることを意味する。よってステップは、コンピュータにより、完全に自動的に、あるいは半自動的に実行される可能性がある。例えば、少なくともいくつかのステップは、ユーザとコンピュータの対話を通じて始動されてもよい。求められるユーザとコンピュータの対話レベルは、想定される自動性のレベルに応じたものであって、ユーザの要望を実装する必要性との間でバランスをとるものとしてもよい。例えば、このレベルは、ユーザが設定し、かつ/あるいは、予め定義されていてもよい。
方法のコンピュータによる実施の典型的な例は、この目的に適したシステムを用いて本方法を実行することである。当該システムは、本方法を実行するための命令を含むコンピュータプログラムを記録したメモリに接続されたプロセッサ、および、グラフィカル・ユーザ・インターフェース(GUI)を備えていてもよい。メモリは、データベースを記憶していてもよい。メモリは、そのような記憶に適した任意のハードウェアであり、場合により、物理的に区別可能ないくつかの部分(例えば、プログラム用に1つ、場合によりデータベース用に1つ)を含む。
図1は、本システムの一例を示すものであって、当該システムは、クライアントコンピュータシステム、例えばユーザのワークステーションである。
本例のクライアントコンピュータは、内部通信バス1000に接続された中央演算処理装置(CPU)1010、および同じくバスに接続されたランダムアクセスメモリ(RAM)1070とを備える。クライアントコンピュータは、さらに、バスに接続されたビデオランダムアクセスメモリ1100と関連付けられたグラフィックス処理装置(GPU)1110を備える。ビデオRAM1100は、当該技術分野において、フレームバッファとしても知られる。大容量記憶装置コントローラ1020は、ハードドライブ1030などの大容量記憶装置へのアクセスを管理する。コンピュータプログラムの命令及びデータを具体的に実現するのに適した大容量メモリ装置は、例として、EPROM、EEPROM及びフラッシュメモリ装置のような半導体メモリ装置、内蔵ハードディスクやリムーバブルディスクなどの磁気ディスク、光磁気ディスク、およびCD-ROMディスク1040を含む、全ての形式の不揮発性メモリを含む。前述のいずれも、特別に設計されたASIC(特定用途向け集積回路)によって補完されてもよいし、組み入れられてもよい。ネットワークアダプタ1050は、ネットワーク1060へのアクセスを管理する。クライアントコンピュータはまた、カーソル制御装置、キーボードなどの触覚装置1090を含んでいてもよい。カーソル制御装置は、ユーザがディスプレイ1080上の任意の所望の位置にカーソルを選択的に位置させることを可能にするために、クライアントコンピュータ内で使用される。さらに、カーソル制御装置は、ユーザが様々なコマンドを選択し、制御信号を入力することを可能にする。カーソル制御装置は、システムに制御信号を入力するための多数の信号生成装置を含む。典型的には、カーソル制御装置はマウスであってもよく、マウスのボタンは信号を生成するために使用される。あるいは、または追加的に、クライアントコンピュータシステムは、感知パッドおよび/または感知スクリーンを備えてもよい。
コンピュータプログラムは、コンピュータによって実行可能な命令を含んでいてもよく、命令は、上記システムに本方法を実行させるための手段を含む。プログラムは、システムのメモリを含む任意のデータ記憶媒体に記録可能であってもよい。プログラムは、例えば、デジタル電子回路、またはコンピュータハードウェア、ファームウェア、ソフトウェア、またはそれらの組み合わせで実装されてもよい。プログラムは、例えばプログラマブルプロセッサによる実行のための機械読み取り可能な記憶装置に具体的に実現された製品のような装置として実装されてもよい。方法ステップは、プログラム可能なプロセッサが命令のプログラムを実行し、入力データを操作して出力を生成することによって方法の機能を実行することによって実行されてもよい。したがって、プロセッサは、データ記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信し、また、それらにデータおよび命令を送信するようにプログラム可能であってもよく、またそのように接続されていてもよい。アプリケーションプログラムは、高水準の手続き型またはオブジェクト指向のプログラミング言語で、または必要に応じてアセンブリ言語または機械語で実装されていてもよい。いずれの場合も、言語はコンパイラ型言語またはインタープリタ型言語であってもよい。プログラムは、フルインストールプログラムまたは更新プログラムであってもよい。いずれの場合も、プログラムをシステムに適用すると、本方法を実行するための命令が得られる。
本方法は、画像の領域のキャプション付けを行うよう構成された関数を学習するためのものである。
画像は、例えばシーン上の、物理的信号の空間分布を表すデータ構造である。空間分布は、任意の次元のものであってよく、例えば2Dあるいは3Dである。空間分布は、例えばグリッドを形成し、それによってピクセルを定義するなど、任意の形状であってもよく、グリッドは場合により非規則的または規則的である。物理的信号は、画像がRGB画像またはグレースケール画像となるような、例えば色やグレーレベルなど、任意の信号であってもよい。画像は合成画像であってもよいし、あるいは写真のような自然画像であってもよい。データセットの画像、および/または、関数が適用されることが考えられる画像は、例えばすべてが矩形の2DのRGB画像、あるいはグレースケール画像であるなど、すべて同じタイプであってもよい。あるいは、異なる画像タイプの集合を考えてもよい。
画像の領域とは、画像の任意の部分である。したがって、領域は画像である。当該部分は、コネックス(connex)状、かつ/あるいは、凸状であってもよい。当該部分は矩形であってもよい。関数を適用することが企図されている、データセットの領域、および/または、入力領域は、例えばすべてが矩形状であるなど、すべて同じ形状であってもよい。あるいは、異なる領域形状の集合を考えてもよい。
画像のキャプションとは、画像のコンテンツのテキスト表現である。キャプションは、そのような画像のコンテンツを説明するテキスト表現あるいは文を含むか、またはそれからなっていてもよい。本方法によって学習した関数は、具体的には、入力画像と、当該入力画像の入力領域とに基づいて出力キャプションを生成するように適合されている。言い換えれば、関数は、入力画像と当該入力画像の入力領域とに適用され、さらに言い換えれば、関数は、画像と当該画像の領域とを入力とする。関数は、次いで、入力領域のコンテンツを説明するキャプションを出力し、この出力は、入力画像によって提供される領域のコンテクストに少なくともある程度依存する。
「学習する」とは、出力に関連付けられた入力のデータセットを提供することと、次いで、結果として得られる関数(すなわち学習された関数、つまり、最終的な重みに対応する関数)が所定の基準に応じて当該データセットに最もよく合致するように、重み付き関数(「ニューラルネットワーク」とも呼ぶ)の可変の重みを調整することとからなる機械学習工程を本方法が実施することを意味する。調整は、任意の既知の方法で行ってもよく、例えば、データセットの入力に、重み付き関数を適用し、その結果を、データセット内のこれらの入力に関連付けられた出力と比較することによって評価される、再構成損失を最小化することによって行う。
ここで、本方法の場合、重み付き関数は、画像および画像の領域を含む入力の対に適用して出力キャプションを生成するように設計される。言い換えれば、学習された関数のアーキテクチャは、(従来技術のように単一の入力画像ではなく)入力画像と当該入力画像の入力領域の、両者に適用されるように予め設定される。これに対応して、データセットは、それぞれ、画像、画像の領域、および領域のキャプションを含む3つ組(すなわち順序付けられた3つのデータの集合)からなる。言い換えれば、データセットは、一方の入力画像とその入力領域とを、他方の対応するキャプションに関連付ける。このようなデータセットは、任意の方法で提供すればよく、例えば、1人または複数のユーザが画像領域のキャプションを手動で生成し、かつ/あるいは、データストアから取得することによって得られる。上述のとおり、こうしたデータセットは、そのようなものとして既に存在する。
ここで、本方法の実施例について図2~図13を参照して説明する。以下に説明する例では、関数のアーキテクチャのオプション的側面と、学習を実行するためのオプション的側面を示しており、このような側面は組み合わせることが可能である。
これらの例において、本方法は、画像内の領域の説明のための改良されたアプローチを構成し、その主な焦点は、画像の署名をその周囲を用いてコンテクスト化することにある。以下に示されるように、本方法は、画像特徴抽出および自然言語処理(natural language processing:NLP)において顕著なパフォーマンスを示し得るディープラーニング技術に大きく依存していてもよい。これらの例の利点は、エンドツーエンドの学習アーキテクチャ、入力領域画像のサイズに制約がないこと、および特徴のコンテクスト化による改善された説明を含んでいてもよい。
一例において、関数が入力画像と入力領域との組み合わせの署名を決定するように構成された第1の成分C1と、当該組み合わせの署名に基づき出力キャプションを生成するよう構成された第2の成分C2とを含むように、関数のアーキテクチャが制約されていてもよい。「成分」という用語は、単に、関数を形成するために他の任意の副関数(群)と合成可能な副関数を指している。したがって、ニューラルネットワークの成分もまた、ニューラルネットワークである。言い換えれば、関数は、C1と、C1の出力に適用されるC2との合成物を含む。「組み合わせ」という用語は、初期情報について、当該初期情報から導き出された別の情報を指す。組み合わせの署名とは、当該組み合わせを識別して同じタイプの他の情報から区別するベクトルである。したがって、C1によって決定された署名は、画像領域のコンテンツだけではなく、画像自体のコンテンツも考慮して画像領域のコンテンツを識別する。結果として、2つの異なる画像の領域を形成する同一コンテンツが、異なる署名に関連付けられてもよい。逆に、同一の画像の、異なるコンテンツを有する異なる領域が、異なる署名に関連付けられてもよい。
一例において、C1は、入力画像の署名を抽出するように構成された成分C11(すなわち、他のあらゆる情報から独立している)と、入力領域の署名を抽出するように構成された成分C11’(すなわち、他のあらゆる情報から独立している)と、入力画像の署名を入力領域の署名と組み合わせるよう構成された成分C12とを含む。このような場合、組み合わせの署名は署名の組み合わせである。
画像の署名を抽出するように構成された任意の成分が、C11、および/または、C11’に実装されてもよい。C11とC11’は等しくてもよい(すなわち、共に同じ工程を適用してもよい)。C11および/またはC11’は、それぞれ畳み込みニューラルネットワーク(CNN)であってもよい。そのような署名抽出器は、画像、特に規則的なグリッドを形成する画像に適用されるとき、良好で速い結果を提供することが知られている。さらに後述する例では、各CNNが重みを共有してもよい(すなわち、学習は、C11およびC11’を構成するCNNが同じアーキテクチャおよび同一の重みを有するように制約され、C11とC11’が単に同じ単一のニューラルネットワークのインスタンスであってもよく、これはC11=C11’と書き表せる)。この重み共有は、結果の品質を向上させる。
C12は、情報について任意のタイプの組み合わせを実行することができる。例においては、C12は、連結成分または加算成分、すなわち、C11およびC11’によって出力された署名、言い換えれば、領域および画像の署名を、連結する(例えば、所定の順序で)成分、または加算(すなわち、ベクトル加算、すなわち座標の次元ごとの加算)を行う成分を含んでいてもよい。例において、C12は、全結合層をさらに含んでいてもよい。このようなC12の例は、良質な結果をもたらす。
連結成分および全結合層を含むC12の一例は、以下のようなものであってもよい。画像全体の署名xiと領域の署名xrとを連結してベクトル(xi,xr)とし、次いで全結合層にこれを通し、出力としてy=σ(W(xi,xr)+b)を得る。ここでσは非線形性、Wは重み行列、bはバイアスである。
一例において、学習は、C1を学習することと、次いでC2の少なくとも一部(例えば、C1の出力に適用する部分)を学習することとを含んでいてもよい。C1(およびC2の少なくとも一部)の学習は、関数の他の成分とは独立して実行される。C1は、初期データセットの画像および領域を用いて学習されてもよい(例えば、初期データセットのすべてのキャプションを無視する)。C1は、学習されると、初期データセットの画像および領域の少なくとも一部に適用されて、それぞれがキャプションに(初期データセットのキャプションに応じて)関連付けられた署名の、新しいデータセット(画像および領域の組み合わせのそれぞれ)を作成してもよい。次いで、C2の少なくとも一部を、この新しいデータセットに基づいて学習してもよい。C2が学習を必要とする他の部分をも有する場合、そのような学習は、C1の学習の前、同時(すなわち並行して)、または後の、任意の時点に、かつ/あるいは、初期データセットまたは他のデータセットに基づいて行ってもよい。言い換えれば、学習は分割される。これにより、学習のスピードが向上し、また、良質な結果をもたらす。
これは、C1の学習の後に学習されたC2の部分が、組み合わせの署名を入力とし出力キャプションの反復生成を行う再帰型ニューラルネットワークを含む場合に特に当てはまる。再帰型ニューラルネットワークは、ニューラルネットワークにおける周知のカテゴリである。本方法の場合、再帰型ニューラルネットワークは、キャプションを反復的に生成する際に特に効率的であることがわかる。そのような場合、学習は、C1を(例えばそのCNNを、例えばそれらが重みを共有するときは一緒に)訓練することと、次いで、そのような再帰型ニューラルネットワークのみを訓練することとを含んでいてもよい。この再帰型ニューラルネットワークは、以下の例で説明する「第2の再帰型ニューラルネットワーク」である。
例において、第2の成分は、組み合わせの署名と、さらには、単語埋め込み空間に基づいて、出力キャプションを生成するように構成されている。単語埋め込み空間は、ベクトル空間であって、そこでは単語がいわゆる単語埋め込みベクトルに対応する。第2の成分は、そのような単語埋め込み空間を用いて出力キャプションを生成してもよい。
例えば、第2の成分は、第1の再帰型ニューラルネットワークと、第2の再帰型ニューラルネットワークと、単語埋め込み層とを含んでいてもよい。第2の成分のこれらの副成分は、図2に示すように、相互作用してもよい。図2は、この構成を満たす本方法によって学習可能な関数の例を示す。
図2の例では、第1および第2の再帰型ニューラルネットワークは、それぞれLSTM1およびLSTM2と表された長短期記憶(Long Short-Term Memory:LSTM)ニューラルネットワークであるが、図2に関する以下の説明は、他のタイプの再帰型ニューラルネットワークにも当てはまる。
また、図2の例では、関数は、上述のように、第1の成分C1と第2の成分C2とを含む。C1は、上述の例で説明したように、C1が、入力画像210の署名を抽出するように構成された成分C11と、入力領域220の署名を抽出するように構成された成分C11’と、入力画像の署名を入力領域の署名と組み合わせるように構成された成分C12とを含むことにより、入力画像210と当該画像210の入力領域220との組み合わせの署名を判定するように構成されている。しかしながら、図2に関する以下の説明は、入力画像210と入力領域220との組み合わせの署名を決定するように構成された他の任意の成分にも当てはまる。この例では、成分C11およびC11’はCNNであるが、図2に関する以下の説明は、他の署名抽出成分に同様に当てはまる。成分C12は、C11およびC11’から入力された署名を連結し、全結合(FC)層をさらに含むが、図2についての以下の説明は、他のタイプの署名組み合わせ成分にも同様に当てはまる。
LSTM1は、各入力単語埋め込みベクトル250に基づいて、出力単語埋め込みベクトル260を再帰的に生成するように構成されている。LSTM1についての入力単語埋め込みベクトル250は、LSTM2とそれに続く単語埋め込み層との合成物の出力250である。言い換えれば、LSTM1は、毎回、過去に生成されたLSTM1(反復ループ280によって表される)と、LSTM2を入力230および260に適用し、次いで単語埋め込み層をLSTM2の出力290に適用することからなる合成関数によって提供される入力単語埋め込みベクトル250に基づいて、出力単語埋め込みベクトル260を反復的に生成する。
LSTM2は、入力単語埋め込みベクトル260と、組み合わせの署名230とに基づいて、出力単語埋め込みベクトル290を再帰的に生成するように構成されている。LSTM2についての入力単語埋め込みベクトル260は、LSTM1の出力260である。言い換えれば、LSTM2は、毎回、過去に生成されたLSTM2(反復ループ270によって表される)と、入力単語埋め込みベクトル260と、署名230(よってこれは毎回再利用される)とに基づいて、出力単語埋め込みベクトル290を反復的に生成する。
ここで、単語埋め込み層は、各入力単語埋め込みベクトル290に基づいて、出力単語埋め込みベクトル250を生成するように構成されている。単語埋め込み層についての生成された単語埋め込みベクトル250は、単語埋め込み空間に表される語彙のうち(入力290に応じて)最も確率が高い単語に対応する単語埋め込みベクトルである。
語彙とは、キャプションのような整った表現を生成できる単語の集合である。語彙は単一の言語に属していてもよい。語彙は、キャプションの集合に現れる単語の集合、例えば、初期データセットのキャプションの全部または一部に現れる単語の全部または一部(例えば、発生数の基準に基づいて決定される)であってもよい。語彙という用語は、そのような単語の集合を表す(単語埋め込み層についての)単語埋め込みベクトルの集合を指してもよい。語彙は単語埋め込み空間で表され、語彙の各単語は単語埋め込み層によって既知の各単語埋め込みベクトルに関連付けられ、そのような単語埋め込みベクトルの集合はそれにより予め決定されている。
単語埋め込み層は、そのような情報に基づき、入力290に応じて最も高い確率を有する集合の要素である、生成された単語埋め込みベクトル250を出力する成分である。確率処理は、自然言語処理における古典的な単語埋め込み層において知られている。例えば、単語埋め込み層は、語彙の各単語の生成の確率を出力し、次いで、出力された確率に応じて最も高い確率を有する単語を生成するように構成されていてもよい。
単語埋め込み層によって出力された各単語埋め込みベクトルは語彙の単語に対応し、単語埋め込み層はそれによって語彙の単語を順次決定し、単語のシーケンスはキャプションを形成する。LSTM1に入力するための単語埋め込みベクトル250を出力するのと並行して、単語埋め込み層は、各単語が決定される度に対応するキャプションを単語毎に出力するか、またはシーケンス全体が決定された後にまとめて出力することもできる。
単語埋め込み層の一例について、このよく知られたニューラルネットワークを説明するために議論する。単語埋め込み空間における単語をw1,・・・,wNと表し、各ベクトルの次元がd=128であり、次元d=128の出力hが与えられたとき、単語埋め込み層の出力は、pk=exp(<wk,h>)/Σiexp(<wi,h>)である確率のベクトルp1,・・・,pNであってもよい。訓練中、単語埋め込みにおける異なる単語の表現(すなわち、パラメータw1,・・・,wN)が学習される。
図2の例では、一方のLSTM1と、他方のLSTM2とそれに続く単語埋め込み層との合成物とが、相互作用し、それらの再帰的反復がインターレースされる。言語処理の分野で知られているように、繰り返しの最初については、反復工程の開始時に存在するLSTM1およびLSTM2のうちの一方(例えばLSTM1)は、入力250それ自体の代わりに、繰り返しの最初におけるこの開始状況を示す、「文頭(Beginning of sentence)」あるいは<BOS>と呼ばれる定数を使用する(なぜなら、この時点では、他方のLSTMによって提供される出力が利用できないため)。また、この反復工程は、LSTM2が、「文末(end of sentence)」あるいは<EOS>と呼ばれる、終了を示す定数を出力したときに終了する。
図2によって表される関数は、任意の方法で学習されてもよい。例において、学習は、語彙における各単語の単語埋め込みベクトルを学習することを含んでいてもよい。これらのベクトルは、単語埋め込み層のパラメータである。学習は、キャプションの集合に基づいてLSTM1と共に単語埋め込み層を学習することによって実行してもよい。あるいは、単語埋め込み層の学習は、LSTM1の学習とは別に実行してもよく、両者の学習は、キャプションの集合に基づいて実行される。すべての場合において、キャプションの集合は、初期データセットによって提供されるキャプションの一部またはすべてであってもよい。本方法は、そのような、キャプションのデータセットを提供することを含んでいてもよく、学習することは、次いで、キャプションのデータセットを用いてLSTM1、および/または、単語埋め込み層を訓練することと、次いで(それぞれが画像だけでなく署名にも関連付けられたキャプションの集合に基づき)LSTM2のみを訓練することとを含む。言い換えれば、LSTM1および/または単語埋め込み層は、LSTM2に対して事前に学習されていてもよい。LSTM1および/または単語埋め込み層の訓練は、LSTM2の訓練の前に、および/またはC1の成分(例えば、CNNであるC11およびC11’および/またはFC層)の訓練の前または同時に実行されてもよい。LSTM2は、C1の成分(例えば、CNNであるC11およびC11’および/またはFC層)の訓練の後に訓練されてもよい。
一例において、本方法によって学習される関数は、シーン理解および/または密なキャプション付け処理に含まれていてもよい。密なキャプション付けは、メディア内の注目領域を自動的に検出し、それら領域を文で説明するのに用いられる、すべての技術を集めたものである。本方法は、密なキャプション付けの説明部分に用いてもよく、したがって、メディア内に提供される領域は、ユーザによって選択されるか、または外部の検出アルゴリズムから取得されると仮定する。
画像キャプション付けに用いられる他の方法と同様、本方法は2つの分野の交差領域におけるものである。
・メディア表現のための特徴抽出:ユーザが提供するメディアは、そこから単語のシーケンスを生成するモデルにとっては、それ自体理解できなくてもよい。そのメディアから、特徴抽出処理によって署名を取得する必要があってもよい。そのような特徴は、記述子から得られた、設計された特徴であってもよいし、機械学習モデルによって学習されてもよい。ディープラーニング、特に画像や動画のようなメディア分析のための畳み込みニューラルネットワークにおける近年の進歩は、特徴学習において良好な結果をもたらす。
・自然言語処理:人間の言語を理解できるアルゴリズムの設計において、多くの進歩が達成されている。これらのモデルのポイントは、人間の言語を理解し、また、関連する文を生成できることである。これは近年まで、文のパーサーを統合し、文の意味表現および依存構造を取得する(すなわち、異なる品詞タグ付けとそれらの関係を区別する)モデルを構築することにより、多くのエンジニアリングによって実現していた。近年のディープラーニングの進歩により、言語の規則を学習することができるディープラーニングモデルを訓練することによって、この工程をすべて自動的に実行することができる。そのようなモデルは、特定の言語の文のデータセットで訓練するだけで、その言語で文を理解し生成することができるようになる。
一例において、本方法は、上述した最近のディープラーニングの進歩を効率的に活用する。
密なキャプション付けの分野に関連する方法同様、本方法は同種のパターンに従うフレームワークの範疇に入る:集中的な演算が実行され得るオフライン段階と、ユーザの待ち時間を最小限に抑えるため、パフォーマンスが重要なオンライン段階とを有する。
オンライン段階は、2つのステップに分けてもよい:
・まず、ユーザによって提供されたメディアが分析されてもよく、第1のプロセスがこのメディアに固有の識別子を出力する。この識別子は、当該技術分野で「署名」または「特徴」と呼ばれる。パフォーマンスのため、署名は通常、メディアのより小さい寸法による表現である。例えば、歌の検索においては、署名は、記録された曲のパワースペクトルにおける最大の高調波の集合であってもよい。
・次いで、署名は、そこから文を生成する第2の工程に転送される。これは文を生成するために訓練された再帰型ニューラルネットワークによって実行される。オンライン段階では、文の生成には、モデルへの入力として与えられるメディアの署名によって、バイアスがかかる。このように生成された文は、メディアのコンテンツに密接に関連し、メディアの説明として解釈される。
密なキャプション付けでは、モデルによって生成された文の品質と関連性は、訓練中に用いられたデータベースの品質に大きく依存する可能性がある。
オフライン段階は、画像と、画像内の領域と、領域の説明とからなる、提供された3つ組のデータセットに基づく、2段階の工程とみなすことができる。
・文の言語に基づき、言語モデルを訓練してもよい。そのために、3つ組のデータベースからのすべての文からなるデータベースを集約してもよい。次に、文をトークン化し、データベース内で頻繁に出現する単語のみを保持することによって、データベースを前処理してもよい:これが学習の語彙となる。言語モデルは、この前処理されたデータベースで訓練され、文を生成することを学習してもよい。文を生成するための学習の工程は、基本的に、文において、直前の単語の後ろに最も可能性の高い単語を生成するようにモデルを教えることからなっていてもよい。このように、文を一語一語生成することができるモデルを得ることができる。
・メディア用の特徴抽出器を訓練してもよい。この抽出器は、説明を生成するために、メディアから特徴を構築し、その特徴を言語モデルへの入力としてもよい。
一例においては、関数の主な目的は、画像内の領域の説明を言語的な文の形式で与えることである。画像が低次元コードに符号化され、次いで、言語モデルによって復号されて単語のシーケンスを生成するエンコーダ/デコーダフレームワークを用いてもよい。本方法は、エンコーダにおいて2D特徴抽出のため、効率的な畳み込みニューラルネットワークを活用してもよい。デコーダについては、本方法は、シーケンス生成のため、効率的な再帰型ニューラルネットワークを活用してもよい。
ここで、上述および/または後述の概念について説明する。
密なキャプション付けは、画像内の領域を、人間に理解可能な文(単語のシーケンス)によって説明するという課題を含む。これは、まず領域に関連する署名を抽出し、次いで、その署名から単語シーケンスを生成して対象となる領域を説明する、モデルのパラメータを学習することからなる。
ディープニューラルネットワーク(DNN)は、コンピュータが観測データから学習することを可能にする、生物学に着想を得たプログラミングパラダイムであるニューラルネットワーク(論文「Rumelhart et al.Learning internal representations by error backpropagation,1986」に記載)における学習のための強力な技術の集合である。
物体の認識において、DNNの成功は、他の画像分類法(SVM、Boosting、Random Forestなど)で用いられる手作業による低レベルの特徴(Zernikeモーメント、HOG、Bag-of-Words、SIFTなど)とは対照的に、たくさんの中間レベルの2D画像表現を学習する能力を有するおかげである。より具体的には、DNNは、未処理のデータに基づくエンドツーエンドの学習に焦点を当てている。言い換えれば、未処理の特徴から始まりラベルで終わるエンドツーエンドの最適化を達成することによって、特徴量エンジニアリングから最大限まで遠く離れる。これは、ディープニューラルネットワークの一例を示す図3に示されている。
畳み込みニューラルネットワーク(論文「LeCun et al.Convolutional Networks for Images,Speech,and Time-Series」に記載)は、下位層のニューロンが畳み込みフィルタに置き換えられた、ディープニューラルネットワークの特別なケースである。これは、畳み込みフィルタの一例を示す図4に示されている。これらのフィルタは入力のどこにでも適用され、出力として特徴マップが与えられる。この特徴マップは、入力の特定のパターンがフィルタによって認識された、活性化領域を示す。いくつかの畳み込み層を積み重ねるときのディープラーニングの利点は、記述子によって得られる基本的な特徴よりも洗練された、非常に複雑だが強力な特徴を抽出する方法を提供することである。
再帰型ニューラルネットワーク(論文「Graves,Supervised Sequence Labelling with Recurrent Neural Networks」に記載)は、時系列処理において興味深い性能を示した特別なタイプのニューラルネットワークである。その成功は、予測を行う際に以前の状態のフィードバックを統合する能力に起因する。これは、ニューロン定義における時間的ループにより実行される。RNNに関する最近の研究により、ゲートメカニズムがその定義に統合された。これらのモデル(長短期記憶(Long-Short Term Memory:LSTM))、ゲート付き再帰型ユニット(Gated Recurrent Unit:GRU))は、メモリの統合と、消失勾配問題に対処する能力とにより、最先端のパフォーマンスを向上させた。
一例において、フレームワークは2つの段階に分解されていてもよい。
第1段階(上述のように「オフライン」段階と呼ぶことができる)は、ディープニューラルネットワーク、特にメディア内の特徴を抽出するための畳み込みニューラルネットワーク、および、それらの特徴から文を生成するための再帰型ニューラルネットワークに大きく依存していてもよい。「オフライン」という用語は、この段階が本方法のユーザにとって透過的であり、大規模な演算が必要な場合であっても演算を行う時間をとることができるという事実を指す。この部分では、これらのネットワークのパラメータが学習されてもよく、これがすべてについて実行されてもよい。学習工程は、2つのステップで実行されてもよい:第1に、言語モデルを得るために再帰型ニューラルネットワークのパラメータが学習され、第2に、どのようにメディアのコンテクストの特徴を抽出し、再帰型ニューラルネットワークの学習を特徴抽出工程に適合させるかを理解するために、畳み込みニューラルネットワークのパラメータが、再帰型ニューラルネットワークと共に学習されてもよい。
第2段階(上述のように「オンライン」段階と呼ぶことができる)は、画像の領域から文を生成する工程中にリアルタイムに実行されるすべてのステップを集約する。
図5~図6は、それぞれ、オフラインおよびオンライン段階の技術的ワークフローの一例を示す。
ここで、言語モデリングの例について説明する。
領域キャプション付け工程の第1の柱は、言語モデリングであってもよい。言語は、画像の領域を説明するキャプションから学習してもよい。これは、生成されたキャプションが正しく、人間によって理解可能であることを確実にするために、可能な限り高い精度で学習してもよい。領域キャプション付け処理の全体的なアーキテクチャはエンドツーエンドのアプローチで学習することができるが、言語モデルだけを学習し、次いでパラメータを微調整して全体的なモデルにすることで、パフォーマンスが向上することがわかった。
最後に、言語モデルの学習は2つのパートで実行してもよい:
1.データセットからのキャプションの前処理
2.生成モードにおける再帰型ニューラルネットワークの訓練
ここで、データセットからのキャプションの前処理の例について説明する。
データセットからのキャプションの前処理は、言語モデルの良好な学習を可能にし得る。
元のデータセットでは、文は文字列の形式であってもよい。トークナイザは、最初にこれらの文をトークン化してもよい。すなわち、異なる語を分離し、それらを小文字にしてもよい。実際、コンピュータの観点では、文字列“Car”と“car”は同じではない可能性がある。さらに、句読点や特別な単語/頭字語を扱うように構成されている可能性があるため、トークナイザを設計するときには多くの作業が行われる可能性がある。例えば、トークナイザは“U.S.”と“US”を同じトークンとみなす必要がある可能性がある。
文がトークン化されると、言語のための語彙を設計することができる。これは、すべての単語がモデルによって学習されるわけではなく、データセット内の最大頻度の単語のみが学習されることを意味してもよい。実際、モデルが、頻繁には出現しない単語の意味を比較的高い関連性では学習しない方が容易である。
ここで、データセットからのキャプションに関する言語モデルの学習の例について説明する。
言語モデルの訓練は、再帰型ニューラルネットワークを生成モデルとして考えることによって行ってもよい。
実施例では、長短期記憶(Long Short-Term Memory:LSTM)(例えば、論文「S.Hochreiter et al.Long short-term memory」に記載)を利用してもよい。LSTMは、明示的なメモリ、および予測を行う際にメモリと相互作用するためのゲート機構を有する特定の種類の再帰型ニューラルネットワークである。これらは、時間的シーケンスを示す様々な領域、特に自然言語処理において、効率が良いことが実証された。
LSTMユニットにはいくつかの実施例が存在し、ユニット内部の覗き穴結合(peephole connections)や、ゲートの数が異なり得る。例えば、ゲート付き再帰型ユニット(Gated Recurrent Unit:GRU)は、ゲートが2つしかない特定の実施例である。特に効率的な実施例では、本方法は、むしろ、論文「S.Hochreiter et al.Long short-term memory」に記載の元のLSTMの実施を考慮してもよい。本方法は、LSTMの出力次元を、言語の単語埋め込み空間の次元に設定してもよい。
以下、単語埋め込みの概念について説明する。
自然言語処理では、LSTMにワン・ホット・ベクトル(すなわち、対象となる単語のインデックス以外においてすべてが0の、語彙のサイズのベクトル)で表される単語を扱わせるのは、時間がかかり過ぎ、演算上、効率的ではない。実際、その場合、ベクトルのサイズは語彙のサイズになり、LSTMの定義にあまりにも多くのパラメータが必要になる。その代わりに、本方法で行い得ることは、ある埋め込み空間に単語を埋め込むことである。そのような空間は、単語の意味を反映し、その意味によってそれらをクラスタ化するため、興味深い特性を有する。単語の埋め込みという概念は、特にGoogleがWord2VecTMを立ち上げたことにより、2013年に実際に関心を集めた。これは、スキップ・グラムと呼ばれるネガティブ・サンプリングを用いた具体的なアプローチによりGoogle NewsTMで学習したモデルである(論文「T.Mikolov et al.Distrbituted Representations of Words and Phrases and their Compositionality」に記載)。ここで、本方法は、代わりにLSTMを用いた別のアプローチで単語埋め込みを学習してもよい。
LSTMと組み合わせて単語埋め込みを行うと、LSTMの文生成工程の解釈に役立つ可能性がある。単語を予測する工程は以下のとおりである。
・LSTMの出力は、単語埋め込み空間内の点である。
・このとき、予測された単語は、その埋め込み表現が、予測された点に最も近い単語である。
・予測された単語の埋め込み表現は、次いで、次の単語を予測するためにLSTMの入力に供給される。
このように、本方法は、訓練中に、単語埋め込みと組み合わせたLSTMのパラメータを学習してもよい。これらのパラメータは、データセットからの多数のキャプションで学習してもよい。これは、この言語モデリング訓練という特定の処理のための訓練セットであってもよい。トークン化と語彙制限定義により前処理されている可能性があるため、キャプションに追加の制約は必要ない。
ここで、本関数によって行われるコンテクスト特徴抽出について説明する。
領域キャプション付けの第2の基本的な柱は、メディアからの特徴抽出であってもよい。この特徴は、LSTMの文予測にバイアスを与え領域を説明する文を生成させるために、後に、LSTMへの入力として与えられてもよい。ここで本方法が主に貢献する点は、メディア内の領域の周囲によってコンテクスト化された注目領域の特徴を考慮することであってもよい。このように、本方法は、メディア内の注目領域のコンテクスト的特徴を取得し、また、その領域の周囲の情報を考慮に入れるため、より多くの特徴が得られる。
ここで特徴ベクトルの抽出の例について説明する。
メディアの特徴抽出工程は、取り得るアプローチがいくつかある困難な処理である。ディープラーニングが導入される以前には、これはSIFTやSURFのような、設計された特徴を与える記述子を用いて行われた。もともと、これらの特徴は画像の低レベルの署名を提供していた:記述子は、物体の輪郭のような低レベルの要素が検出された画像内の活性化領域を示す特徴マップを与える。
現在では、ディープラーニングの進歩により、画像から特徴を学習することが可能になっている。また、ニューラルネットワークに積み重ねることができる多数の層により、特徴の定義を非常に深くすることが可能になった。
一実施例において、本方法は、畳み込みニューラルネットワーク(例えば、論文「Y.Lecun et al.Backpropagation applied to handwritten zip code recognition,Neural Comput,1989」に記載)を利用することができる。CNNは、一般的な行列乗算の代わりに畳み込みを使用するニューラルネットワークであり、物体を、雑然とした背景や複数の他の物体を有する画像内の複雑なシーンから、効率よく認識することが実証されている。
より具体的には、本方法は、ILSVRC2012の分類処理を獲得したCNNを実装することができ、これは1000個のカテゴリの中から画像に存在するオブジェクトのカテゴリを認識する処理である。これはAlexNetと呼ばれ、論文「Alex Krizhevsky,ImageNet Classification with Deep Convolutional Neural Networks,NIPS 2012」に記載されている。しかしながら、本方法は、第8の全結合層(文献中のFC8)から上の層を除去することによって、そのようなネットワークを目下の特定の処理に適応させることができる。なぜならその層は1000個のカテゴリから物体を分類するという課題であるILSVR Challengeにおいて1000次元となるように設計されたものであるためである。このように、最終的に、本方法が考慮し得る切り取られたバージョンのAlexNetネットワークは、5つの畳み込みレイヤー(プーリングと正規化を含む)と2つの全結合層からなる。また、切り取られたAlexNetの最後の層(すなわちFC7)には4096個のニューロンが含まれているため、画像の特徴ベクトルは4096次元のベクトルとなる。
ここで、領域の特徴と周囲の特徴を組み合わせる例について説明する。
領域の署名を設計する際、注目領域内の情報のみを考慮すると、領域のコンテクストによって与えられる多くの情報が失われる。これは、画像内の領域のサイズが小さい場合に特に当てはまる:そのような場合、CNNは、あまりたくさんの特徴を捉えられない可能性がある。
領域の特徴の品質を改善するため、本方法では、それを、画像内の領域の周囲で抽出されたコンテクストの特徴と組み合わせてもよい。これは、領域の画像から第1のCNN(領域CNNとも呼ぶ)によって抽出された特徴と、その領域およびその周囲の領域を含む画像から第2のCNN(コンテクストCNNとも呼ぶ)によって抽出された特徴とを組み合わせることによって行われる。
異なる特徴を組み合わせる際、いくつかの方法を用いることができる。それらのうち、本方法は以下を実施してもよい:
・連結:領域の特徴ベクトルと周囲の領域の特徴ベクトルとを連結して、コンテクスト特徴ベクトルを表すベクトルとする。
・加算:領域の特徴ベクトルと周囲の領域の特徴ベクトルとを合計して、コンテクスト特徴ベクトルを表すベクトルとする。
・全結合層の利用:領域の特徴ベクトルと周囲の領域の特徴ベクトルとを連結して1つのベクトルとし、その連結ベクトルの上に全結合層を追加する。この結果、コンテクスト特徴ベクトルを表す別のベクトルが得られる。
図7は、ニューラルネットワークアーキテクチャレベルで特徴を組み合わせる、この工程を示す。
ここで、特徴抽出と言語モデリングの両方についてモデルをエンドツーエンドで訓練する方法の例について説明する。
ネットワークにおける特徴の抽出および組み合わせの訓練は、言語モデリング部分からのLSTMの訓練と共に実行されてもよい。これはすべてエンドツーエンドで行ってもよい。本方法は、言語モデリング部分だけで学習されたパラメータから、LSTMのパラメータを微調整してもよい。したがって、訓練のこの部分では、入力として与えられた領域および周囲のコンテクストからキャプションを生成するために、モデル全体を学習してもよい。
したがって、ネットワークのパラメータは、内部に指定された領域およびそれらの領域を説明するキャプションを有する多数の画像で学習してもよい。そのような3つ組の集合(全体画像、領域画像、キャプション)は訓練データセットを表す。キャプションは、言語モデリングについて説明したのと同様に前処理されているため、ここでは画像のサイズやキャプションの特性を制約する必要はない可能性がある。
ここで、上述したすべての段階の例をまとめる方法の例を、オフライン段階の例と、対応するオンライン段階の例とをそれぞれ表す、図8~図9を参照して説明する。
最終的な工程は、コンテクスト特徴抽出工程と言語モデルを統合することであってもよい。モデル全体の学習は、エンドツーエンドの工程で行ってもよい。しかしながら、言語モデルは、キャプションのデータベースで最初に学習され、次いで、学習された重みがアーキテクチャのLSTM部分に合わせて微調整されてもよい。これら2つの工程を組み合わせると、領域およびコンテクストから抽出された特徴の組み合わせのコンテクスト特徴ベクトルが、このベクトルによって与えられる情報による文の予測にバイアスをかけるために、言語モデルへの入力として与えられる。したがって、生成された文は、領域およびそのコンテクストによってもたらされる情報と強く相関し、そして、コンテクストによってもたらされる情報によって強化された、領域の説明を提供する。訓練の詳細のすべてが、図8に示されている。モデルの試験が、図9のオンライン段階に示されている。
図10は、図2の例に沿ったオンライン段階の簡略化した例を概略的に示している。
T=0(繰り返しの1回目)において、文頭を示す単語埋め込みベクトルh <BOS>がLSTM1に入力され、キャプション付け工程が初期化される。LSTM1の出力はLSTM2に入力として渡され、LSTM2には、別の入力として、組み合わせの署名230も提供される。次いで、LSTM2は、単語埋め込み層に入力された単語埋め込みベクトルを出力し、次に、単語埋め込み層が、語彙の各単語が生成される確率のベクトルを出力する(例を単純にするため、語彙は3つの単語、すなわち「<EOS>」と、「バス(bus)」と、「駐車(parking)」とに絞っている)。次いで、単語「バス」が生成される。なぜなら、これが確率が最も高い単語であるからである。
T=1(繰り返しの2回目)では、単語「バス」の単語埋め込みベクトルがLSTM1に入力され、LSTM1は、それと、過去の出力(参照符号280で表される)に基づき、結果をLSTM2に出力し、LSTM2自体は、それと、署名230と、過去(参照符号270で表される)に基づき、ベクトルを単語埋め込み層に出力し、単語埋め込み層が単語「駐車された(parked)」を生成する。
T=2(繰り返しの最後)では、同じ工程が実行され、単語埋め込み層の出力が、工程の終了を示す<EOS>となることが観察される。
こうして、この時点において、図2の画像210の領域220に対応するキャプション「駐車されたバス(parked bus)」が関数によって生成されると本工程は終了する。
図11~図13は、それぞれ、領域310~領域360を有する画像を示す。以下の表I~表IIIは、それらの画像および領域について本方法の実施例により出力されたキャプション(一方は、署名の組み合わせに連結を用いたもの、他方は署名の組み合わせに加算を用いたもの)を、従来技術(LRCN、すなわちコンテクスト化されていない領域署名)の実施例によって出力されたキャプションと比較して示している。図から分かるように、本方法により生成されたキャプションは、より高品質である。
Figure 0007193252000001
表I:図11の画像の領域について生成したキャプション
Figure 0007193252000002
表II:図12の画像の領域について生成したキャプション
Figure 0007193252000003
表III:図13の画像の領域について生成したキャプション
表IVは、異なる尺度に基づく本方法の異なる実施例(および従来技術LRCNの実施例)間の比較を示しており、1つの尺度は前述したものである。
この関数は、データベース「Visual Genome」に基づき、サブ領域>100pxに基づいて学習された(表に示されたすべてのモデルがこのデータベースで訓練されテストされた)。
異なるNLP評価尺度が設定され、生成されたキャプションの品質が、人間によって生成されたテストセットにおける参考キャプションとの比較で評価される。
Bleu-n(n=1・・・4):これは、生成されたキャプションと参考キャプションの両方に現れるn-gramの割合である数量を算出する一般的なNLP評価尺度である。あまりにも短い文にはペナルティを科すペナルティ係数が、この数量に掛け合わされる。
METEOR:これは言語に固有の評価尺度である。候補文と生成された文とを、単語の同義性を感知する単語ごとのマッチングで比較する。
Rouge-L:これは、候補文と生成された文とを、これら2つにおける最も長い共通サブシーケンスに着目することにより比較する尺度である。
CIDEr:これは合意に基づく評価尺度であり、文における単語が原形に変換され、これら変換された文におけるn-gramの集合が比較される。
図から分かるように、本方法は、概して先行技術よりも性能が良い。また、画像および領域の署名を抽出するための重みを共有するCNN、次いで2つの署名の連結、そしてそれに次いで全結合層からなる前述の実施例によって特に良好な結果がもたらされることがわかる。
Figure 0007193252000004
表IV-異なる実施例の比較

Claims (12)

  1. それぞれが画像と当該画像の領域と当該領域のキャプションとを含む、3つ組のデータセットを提供するステップと、
    入力画像と当該入力画像の入力領域とに基づいて出力キャプションを生成するように構成された関数を、前記3つ組のデータセットを用いて学習するステップと
    を有することを特徴とする、画像の領域のキャプション付けを行うよう構成された関数を学習するためのコンピュータにより実施される方法であって、
    前記関数は、前記入力画像と前記入力領域との組み合わせの署名を決定するように構成された第1の成分と、前記組み合わせの署名に基づいて前記出力キャプションを生成するように構成された第2の成分とを含み、
    前記第2の成分は、単語埋め込み空間に基づいて前記出力キャプションを生成するように構成され、
    前記第2の成分は、第1の再帰型ニューラルネットワークと、第2の再帰型ニューラルネットワークと、単語埋め込み層とを含んでおり、
    前記第1の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第1の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは、前記第2の再帰型ニューラルネットワークとそれに続く前記単語埋め込み層との合成物の出力であり、
    前記第2の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルと前記組み合わせの前記署名とに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第2の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは前記第1の再帰型ニューラルネットワークの出力であり、
    前記単語埋め込み層は、各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを生成するように構成されており、前記単語埋め込み層についての前記生成された単語埋め込みベクトルは、単語埋め込み空間において表現される最も確率の高い語彙の単語に対応する単語埋め込みベクトルである
    ことを特徴とする方法。
  2. 前記第2の成分は、前記出力キャプションを反復的に生成するように構成されている
    ことを特徴とする請求項に記載の方法。
  3. 前記第2の成分は、1つまたは複数の再帰型ニューラルネットワークを含む
    ことを特徴とする請求項に記載の方法。
  4. 前記1つまたは複数の再帰型ニューラルネットワークは、1つまたは複数の長短期記憶(Long Short-Term Memory)ニューラルネットワークを含む
    ことを特徴とする請求項に記載の方法。
  5. 前記方法は、キャプションのデータセットを提供することをさらに含み、
    前記学習することは、前記第1の再帰型ニューラルネットワークおよび/または前記単語埋め込み層を、前記キャプションのデータセットを用いて訓練し、次いで前記第2の再帰型ニューラルネットワークを訓練することを含む
    ことを特徴とする請求項1ないし4のいずれか一つに記載の方法。
  6. 前記第1の成分は、
    前記入力画像の署名を抽出するように構成された成分と、
    前記入力領域の署名を抽出するように構成された成分と、
    前記入力画像の前記署名を前記入力領域の前記署名と組み合わせるように構成された成分と
    を含むことを特徴とする請求項1~5のいずれか1つに記載の方法。
  7. 前記入力画像の署名を抽出するように構成された前記成分と、前記入力領域の署名を抽出するように構成された前記成分とは、それぞれ畳み込みニューラルネットワークである
    ことを特徴とする請求項に記載の方法。
  8. 各畳み込みニューラルネットワークは重みを共有する
    ことを特徴とする請求項に記載の方法。
  9. 前記入力画像の前記署名を前記入力領域の前記署名と組み合わせるように構成された前記成分は、連結成分、または加算成分、および/または全結合層を含む
    ことを特徴とする請求項6~8のいずれか一つに記載の方法。
  10. 前記学習することは、前記第1の成分を学習することと、次いで前記第2の成分の少なくとも一部を学習することとを含む
    ことを特徴とする請求項1~9のいずれか1つに記載の方法。
  11. コンピュータに、
    それぞれが画像と当該画像の領域と当該領域のキャプションとを含む、3つ組のデータセットを提供するステップと、
    入力画像と当該入力画像の入力領域とに基づいて出力キャプションを生成するように構成された関数を、前記3つ組のデータセットを用いて学習するステップと
    を実行させるためのプログラムであって、
    前記関数は、
    前記入力画像と前記入力領域との組み合わせの署名を決定するように構成された第1の成分と、前記組み合わせの署名に基づいて前記出力キャプションを生成するように構成された第2の成分とを含み、
    前記第2の成分は、さらに単語埋め込み空間に基づいて前記出力キャプションを生成するように構成され、
    前記第2の成分は、第1の再帰型ニューラルネットワークと、第2の再帰型ニューラルネットワークと、単語埋め込み層とを含んでおり、
    前記第1の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第1の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは、前記第2の再帰型ニューラルネットワークとそれに続く前記単語埋め込み層との合成物の出力であり、
    前記第2の再帰型ニューラルネットワークは、各入力単語埋め込みベクトルと前記組み合わせの前記署名とに基づいて出力単語埋め込みベクトルを再帰的に生成するように構成されており、前記第2の再帰型ニューラルネットワークについての前記入力単語埋め込みベクトルは前記第1の再帰型ニューラルネットワークの出力であり、
    前記単語埋め込み層は各入力単語埋め込みベクトルに基づいて出力単語埋め込みベクトルを生成するように構成されており、前記単語埋め込み層についての前記生成された単語埋め込みベクトルは、単語埋め込み空間において表現される最も確率の高い語彙の単語に対応する単語埋め込みベクトルである
    ことを特徴とする、プログラム。
  12. 請求項11に記載のプログラムを記録した記憶媒体と、記記憶媒体に接続されたプロセッサを備える装置。
JP2018088032A 2017-05-02 2018-05-01 画像の領域のキャプション付加 Active JP7193252B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17305486.7 2017-05-02
EP17305486.7A EP3399460B1 (en) 2017-05-02 2017-05-02 Captioning a region of an image

Publications (2)

Publication Number Publication Date
JP2019008778A JP2019008778A (ja) 2019-01-17
JP7193252B2 true JP7193252B2 (ja) 2022-12-20

Family

ID=59061941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018088032A Active JP7193252B2 (ja) 2017-05-02 2018-05-01 画像の領域のキャプション付加

Country Status (4)

Country Link
US (1) US10691899B2 (ja)
EP (1) EP3399460B1 (ja)
JP (1) JP7193252B2 (ja)
CN (1) CN108804530B (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462802B (zh) 2014-11-14 2019-08-06 谷歌有限责任公司 生成映像的自然语言描述
KR102169925B1 (ko) * 2018-03-14 2020-10-26 한국전자기술연구원 이미지 캡션 자동 생성 방법 및 시스템
US10872601B1 (en) * 2018-09-27 2020-12-22 Amazon Technologies, Inc. Natural language processing
US10885903B1 (en) * 2018-12-10 2021-01-05 Amazon Technologies, Inc. Generating transcription information based on context keywords
EP3675061A1 (en) * 2018-12-29 2020-07-01 Dassault Systèmes Forming a dataset for inference of editable feature trees
CN109495727B (zh) * 2019-01-04 2021-12-24 京东方科技集团股份有限公司 智能监控方法及装置、系统、可读存储介质
WO2020167569A1 (en) * 2019-02-12 2020-08-20 Commscope Technologies Llc Location determination in a cloud radio access network utilizing image data
US12014143B2 (en) * 2019-02-25 2024-06-18 Disney Enterprises, Inc. Techniques for performing contextual phrase grounding
US20220014807A1 (en) * 2019-03-21 2022-01-13 Samsung Electronics Co., Ltd. Method, apparatus, device and medium for generating captioning information of multimedia data
CN109874029B (zh) * 2019-04-22 2021-02-12 腾讯科技(深圳)有限公司 视频描述生成方法、装置、设备及存储介质
CN112070852A (zh) * 2019-06-10 2020-12-11 阿里巴巴集团控股有限公司 图像的生成方法和系统、数据处理方法
US11238631B2 (en) * 2019-08-19 2022-02-01 Sri International Align-to-ground, weakly supervised phrase grounding guided by image-caption alignment
US11120268B2 (en) * 2019-08-30 2021-09-14 Microsoft Technology Licensing, Llc Automatically evaluating caption quality of rich media using context learning
US11257240B2 (en) * 2019-10-29 2022-02-22 International Business Machines Corporation Accelerated object labeling using prior geometric knowledge
US11645733B2 (en) 2020-06-16 2023-05-09 Bank Of America Corporation System and method for providing artificial intelligence architectures to people with disabilities
US12026474B2 (en) 2020-07-17 2024-07-02 Vianai Systems, Inc. Techniques for generating natural language descriptions of neural networks
US11687714B2 (en) * 2020-08-20 2023-06-27 Adobe Inc. Systems and methods for generating text descriptive of digital images
US11341354B1 (en) * 2020-09-30 2022-05-24 States Title, Inc. Using serial machine learning models to extract data from electronic documents
US20220114361A1 (en) * 2020-10-14 2022-04-14 Adobe Inc. Multi-word concept tagging for images using short text decoder
KR102505592B1 (ko) * 2021-06-07 2023-03-02 숭실대학교 산학협력단 다중 표현 스위칭 기반 비디오 캡셔닝 방법, 이를 수행하기 위한 기록 매체 및 시스템
CN113554733B (zh) * 2021-07-28 2022-02-01 北京大学 基于语言的解耦合条件注入灰度图像彩色化方法
KR102551960B1 (ko) * 2021-07-30 2023-07-06 한국전자기술연구원 객체 정보 컨디션 기반의 이미지 캡션 생성 방법 및 시스템
KR102598678B1 (ko) * 2021-11-01 2023-11-03 연세대학교 산학협력단 이미지 캡션 생성 방법 및 장치
US12008331B2 (en) * 2021-12-23 2024-06-11 Microsoft Technology Licensing, Llc Utilizing visual and textual aspects of images with recommendation systems
JP2024003483A (ja) 2022-06-27 2024-01-15 富士通株式会社 訓練プログラム,訓練方法および情報処理装置
CN117574878B (zh) * 2024-01-15 2024-05-17 西湖大学 用于混合领域的成分句法分析方法、装置及介质
US12118821B1 (en) 2024-04-10 2024-10-15 Lashify, Inc. Using image processing, machine learning and images of a human face for prompt generation related to false eyelashes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462802B (zh) * 2014-11-14 2019-08-06 谷歌有限责任公司 生成映像的自然语言描述
US10909329B2 (en) * 2015-05-21 2021-02-02 Baidu Usa Llc Multilingual image question answering
US11514244B2 (en) * 2015-11-11 2022-11-29 Adobe Inc. Structured knowledge modeling and extraction from images
US10255523B2 (en) * 2015-11-16 2019-04-09 Orbital Insight, Inc. Moving vehicle detection and analysis using low resolution remote sensing imagery
CN105631468B (zh) * 2015-12-18 2019-04-09 华南理工大学 一种基于rnn的图片描述自动生成方法
US9811765B2 (en) * 2016-01-13 2017-11-07 Adobe Systems Incorporated Image captioning with weak supervision
CN105938485B (zh) * 2016-04-14 2019-06-14 北京工业大学 一种基于卷积循环混合模型的图像描述方法
CN106529606A (zh) * 2016-12-01 2017-03-22 中译语通科技(北京)有限公司 一种提升图像识别准确率的方法
CN106599198B (zh) * 2016-12-14 2021-04-06 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种多级联结循环神经网络的图像描述方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100111370A1 (en) 2008-08-15 2010-05-06 Black Michael J Method and apparatus for estimating body shape

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jeff Donahue,外6名,"Long-Term Recurrent Convolutional Networks for Visual Recognition and Description",IEEE Transactions on Pattern Analysis and Machine Intelligence,Volume 39,Issue 4,2017年04月01日,pp. 677-691
Justin Johnson,外2名,"DenseCap: Fully Convolutional Localization Networks for Dense Captioning",2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016年12月12日,pp. 4565-4574

Also Published As

Publication number Publication date
JP2019008778A (ja) 2019-01-17
CN108804530B (zh) 2024-01-12
CN108804530A (zh) 2018-11-13
EP3399460A1 (en) 2018-11-07
EP3399460B1 (en) 2019-07-17
US20180329892A1 (en) 2018-11-15
US10691899B2 (en) 2020-06-23

Similar Documents

Publication Publication Date Title
JP7193252B2 (ja) 画像の領域のキャプション付加
CN107066464B (zh) 语义自然语言向量空间
US10176404B2 (en) Recognition of a 3D modeled object from a 2D image
CN106650813B (zh) 一种基于深度残差网络和lstm的图像理解方法
CN108959482B (zh) 基于深度学习的单轮对话数据分类方法、装置和电子设备
CN111079601A (zh) 基于多模态注意力机制的视频内容描述方法、系统、装置
CN110083729B (zh) 一种图像搜索的方法及系统
CN112632226B (zh) 基于法律知识图谱的语义搜索方法、装置和电子设备
CN114676234A (zh) 一种模型训练方法及相关设备
CN111105013B (zh) 对抗网络架构的优化方法、图像描述生成方法和系统
CN115221846A (zh) 一种数据处理方法及相关设备
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
JP2023528181A (ja) 画像データベースを検索するための方法、非一時的なコンピュータ可読記憶媒体、及び装置
CN118194238B (zh) 一种多语种多模态情感识别方法、系统及设备
Kaddoura A Primer on Generative Adversarial Networks
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
US20230237435A1 (en) Apparatuses and methods for parsing and comparing video resume duplications
JP2017538226A (ja) スケーラブルなウェブデータの抽出
WO2021137942A1 (en) Pattern generation
Hammad et al. Characterizing the impact of using features extracted from pre-trained models on the quality of video captioning sequence-to-sequence models
US12100393B1 (en) Apparatus and method of generating directed graph using raw data
Shakeel et al. Generate Detailed Captions of an Image using Deep Learning
CN117972484B (zh) 一种可解释性的多模态自然语言情感分析方法及相关装置
CN109582296B (zh) 一种基于栈增强lstm的程序表示方法
Voruganti Visual question answering with external knowledge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221208

R150 Certificate of patent or registration of utility model

Ref document number: 7193252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150