JP2019101907A - 物体間関係認識装置、学習済みモデル、認識方法及びプログラム - Google Patents
物体間関係認識装置、学習済みモデル、認識方法及びプログラム Download PDFInfo
- Publication number
- JP2019101907A JP2019101907A JP2017234246A JP2017234246A JP2019101907A JP 2019101907 A JP2019101907 A JP 2019101907A JP 2017234246 A JP2017234246 A JP 2017234246A JP 2017234246 A JP2017234246 A JP 2017234246A JP 2019101907 A JP2019101907 A JP 2019101907A
- Authority
- JP
- Japan
- Prior art keywords
- triplet
- output
- elements
- units
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Abstract
Description
この一態様において、前記第2学習器は、再帰的ニューラルネットワークであり、前記第2学習器及びトリプレット部は、画像と物体間の関係とを対応付けた学習データに基づいて、所定関数のパラメータを最適化することで前記学習を行い、該最適化されたパラメータを学習結果として保持していてもよい。
この一態様において、前記第1及び第3認識部は、それぞれ、前記第1及び第3要素の確率情報を前記第2認識部に出力し、前記第2認識部は、前記第1及び第3認識部から出力される第1及び第3要素と、対応する前記第2学習器の記憶部から出力される第2特徴量と、に基づいて、前記第2要素を認識し、該第2要素の確率情報を出力してもよい。
この一態様において、前記第2学習器の記憶部は、LSTM(Long Short-Term Memory)であってもよい。
この一態様において、前記第1学習器は、畳み込み式ニューラルネットワークとして構成されていてもよい。
上記目的を達成するための本発明の一態様は、画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を識別し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成され前記第1乃至第3要素の組合せを出力する複数のトリプレットユニットを有するトリプレット部と、を備え、前記トリプレット部は、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識するよう、に構成され、画像と該画像に含まれる物体間の関係とを対応付けた学習データに基づいて、前記第1学習器、第2学習器及びトリプレット部の重み付け係数が学習され、認識対象の画像が入力されると、前記第1学習器、第2学習器及びトリプレット部が該学習済み重み付け係数に基づく演算を行い、該認識対象の画像に含まれる各物体間の関係が認識されるよう、コンピュータを機能させるための学習済みモデルであってもよい。
上記目的を達成するための本発明の一態様は、画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を認識し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成される共に、前記第1乃至第3要素の組合せをそれぞれ出力する複数のトリプレットユニットを有するトリプレット部と、を備える物体間関係認識装置の認識方法であって、前記トリプレット部は、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識し出力する、ことを特徴とする認識方法であってもよい。
上記目的を達成するための本発明の一態様は、画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を認識し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成される共に、前記第1乃至第3要素の組合せをそれぞれ出力する複数のトリプレットユニットを有するトリプレット部と、を備える物体間関係認識装置のプログラムであって、前記トリプレット部が、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識し出力する処理をコンピュータに実行させる、ことを特徴とするプログラムであってもよい。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の実施形態1に係る物体間関係認識装置の概略的なシステム構成を示すブロック図である。本実施形態1に係る物体間関係認識装置1は、例えば、家庭内などの一般環境で活動するロボット周辺にある複数の物体を認識し、各物体間の関係を認識し出力するものである。
<学習工程>
第1ニューラルネットワーク2、第2ニューラルネットワーク3、及び、トリプレット部4は、予め用意した学習データに基づいて、第1ニューラルネットワーク2、第2ニューラルネットワーク3、及び、トリプレット部4の重み付け係数の学習を行う。学習データは、例えば、画像と物体間関係とを対応付けた複数組のデータ群である。学習データは、例えば、メモリなどに予め記憶されていてもよい。
続いて、物体間関係認識装置1は、上記<学習工程>において学習した学習結果(LSTMパラメータΘ及びトリプレットパラメータW)を用いて、新たに取得された認識対象画像に含まれる各物体間の関係を示す物体間関係を認識する。物体間関係認識装置1は、認識対象画像に基づいて、その認識対象画像に含まれる各物体の物体間関係を認識する。認識対象画像は、例えば、ロボットのカメラにより取得された画像やメモリになどに予め記憶された画像である。
例えば、学習工程において、第1ニューラルネットワーク2は、予め用意した画像データ群などを基づいて、学習を行う。
上記実施形態1において、トリプレットユニット41の第1乃至第3認識部411、412、413は、独立して、subject、predicate、及びobjectを夫々認識している。一方、本実施形態2において、トリプレットユニット41の第2認識部412は、図7に示す如く、第1及び第3認識部411、413からの出力される認識結果に依存して、predicateを認識するように構成されている。トリプレットユニット41は、所謂Object-First型として構成されている。
本発明の実施形態3において、上記実施形態1又は2に係る物体間関係認識装置1は、例えば、図10に示す如く、自律型のロボット10に搭載されてもよい。図10は、物体間関係認識装置が搭載されたロボットの概略的構成を示すブロック図である。
Claims (8)
- 画像と、該画像に含まれる複数の物体間の関係と、を対応付けた学習データに基づいて学習を行い、該学習結果を用いて画像に含まれる物体間の関係を認識し出力する物体間関係認識装置であって、
画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、
前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、
第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を認識し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成される共に、前記第1乃至第3要素の組合せをそれぞれ出力する複数のトリプレットユニットを有するトリプレット部と、
を備え、
前記トリプレット部は、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識し出力する、
ことを特徴とする物体間関係認識装置。 - 請求項1記載の物体間関係認識装置であって、
前記第2学習器は、再帰的ニューラルネットワークであり、
前記第2学習器及びトリプレット部は、画像と物体間の関係とを対応付けた学習データに基づいて、所定関数のパラメータを最適化することで前記学習を行い、該最適化されたパラメータを学習結果として保持する、
ことを特徴とする物体間関係認識装置。 - 請求項1又は2記載の物体間関係認識装置であって、
前記第1及び第3認識部は、それぞれ、前記第1及び第3要素の確率情報を前記第2認識部に出力し、
前記第2認識部は、前記第1及び第3認識部から出力される第1及び第3要素と、対応する前記第2学習器の記憶部から出力される第2特徴量と、に基づいて、前記第2要素を認識し、該第2要素の確率情報を出力する、
ことを特徴とする物体間関係認識装置。 - 請求項1乃至3のうちいずれか1項記載の物体間関係認識装置であって、
前記第2学習器の記憶部は、LSTM(Long Short-Term Memory)である、ことを特徴とする物体間関係認識装置。 - 請求項1乃至4のうちいずれか1項記載の物体間関係認識装置であって、
前記第1学習器は、畳み込み式ニューラルネットワークとして構成されている、ことを特徴とする物体間関係認識装置。 - 画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、
前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、
第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を識別し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成され前記第1乃至第3要素の組合せを出力する複数のトリプレットユニットを有するトリプレット部と、
を備え、
前記トリプレット部は、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識するよう、に構成され、
画像と該画像に含まれる物体間の関係とを対応付けた学習データに基づいて、前記第1学習器、第2学習器及びトリプレット部の重み付け係数が学習され、
認識対象の画像が入力されると、前記第1学習器、第2学習器及びトリプレット部が該学習済み重み付け係数に基づく演算を行い、該認識対象の画像に含まれる各物体間の関係が認識されるよう、コンピュータを機能させるための学習済みモデル。 - 画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、
前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、
第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を認識し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成される共に、前記第1乃至第3要素の組合せをそれぞれ出力する複数のトリプレットユニットを有するトリプレット部と、
を備える物体間関係認識装置の認識方法であって、
前記トリプレット部は、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識し出力する、
ことを特徴とする認識方法。 - 画像が入力され、該画像の特徴を示す第1特徴量を出力する第1学習器と、
前記第1学習器から出力される第1特徴量が入力され、該第1特徴量より低次元数の第2特徴量を出力すると共に、内部状態を所定ステップ保持する複数の記憶部を有する第2学習器と、
第2学習器の各記憶部に接続され、該各記憶部から出力される第2特徴量が入力され、該入力された第2特徴量に基づいてそれぞれ第1乃至第3要素を認識し、該第1乃至第3要素の確率情報を出力する第1乃至第3認識部で構成される共に、前記第1乃至第3要素の組合せをそれぞれ出力する複数のトリプレットユニットを有するトリプレット部と、
を備える物体間関係認識装置のプログラムであって、
前記トリプレット部が、前記各トリプレットユニットの第1乃至第3認識部から出力される第1乃至第3要素の確率情報に基づいて、前記各トリプレットユニットから出力される第1乃至第3要素の組合せの中から、少なくとも1つの前記第1乃至第3要素の組合せを選択し、該選択した第1乃至第3要素の組合せを、前記画像に含まれる物体間の関係として認識し出力する処理をコンピュータに実行させる、
ことを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017234246A JP6985121B2 (ja) | 2017-12-06 | 2017-12-06 | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム |
US16/209,116 US10762329B2 (en) | 2017-12-06 | 2018-12-04 | Inter-object relation recognition apparatus, learned model, recognition method and non-transitory computer readable medium |
CN201811472495.2A CN110059528B (zh) | 2017-12-06 | 2018-12-04 | 物体间关系识别设备、学习模型、识别方法和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017234246A JP6985121B2 (ja) | 2017-12-06 | 2017-12-06 | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019101907A true JP2019101907A (ja) | 2019-06-24 |
JP6985121B2 JP6985121B2 (ja) | 2021-12-22 |
Family
ID=66659237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017234246A Active JP6985121B2 (ja) | 2017-12-06 | 2017-12-06 | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10762329B2 (ja) |
JP (1) | JP6985121B2 (ja) |
CN (1) | CN110059528B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022030439A1 (ja) | 2020-08-07 | 2022-02-10 | ハイパーダイン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2022550122A (ja) * | 2019-10-24 | 2022-11-30 | ネイバー コーポレーション | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6695947B2 (ja) * | 2018-09-21 | 2020-05-20 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像システム、画像処理方法及びプログラム |
US11599749B1 (en) * | 2019-12-23 | 2023-03-07 | Thales Sa | Method of and system for explainable knowledge-based visual question answering |
CN111325243B (zh) * | 2020-02-03 | 2023-06-16 | 天津大学 | 一种基于区域注意力学习机制的视觉关系检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132498A1 (en) * | 2015-11-11 | 2017-05-11 | Adobe Systems Incorporated | Structured Knowledge Modeling, Extraction and Localization from Images |
JP2017199149A (ja) * | 2016-04-26 | 2017-11-02 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8001067B2 (en) * | 2004-01-06 | 2011-08-16 | Neuric Technologies, Llc | Method for substituting an electronic emulation of the human brain into an application to replace a human |
KR101976048B1 (ko) | 2011-08-25 | 2019-05-09 | 코넬 유니버시티 | 머신 비전용 망막 인코더 |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
CN103294829B (zh) * | 2013-06-26 | 2017-05-03 | 公安部第三研究所 | 基于Android操作系统实现轻量化视频结构化描述的系统及方法 |
JP2017004350A (ja) | 2015-06-12 | 2017-01-05 | 株式会社リコー | 画像処理装置、画像処理方法、及びプログラム |
US11514244B2 (en) * | 2015-11-11 | 2022-11-29 | Adobe Inc. | Structured knowledge modeling and extraction from images |
CN107038221B (zh) * | 2017-03-22 | 2020-11-17 | 杭州电子科技大学 | 一种基于语义信息引导的视频内容描述方法 |
-
2017
- 2017-12-06 JP JP2017234246A patent/JP6985121B2/ja active Active
-
2018
- 2018-12-04 CN CN201811472495.2A patent/CN110059528B/zh active Active
- 2018-12-04 US US16/209,116 patent/US10762329B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132498A1 (en) * | 2015-11-11 | 2017-05-11 | Adobe Systems Incorporated | Structured Knowledge Modeling, Extraction and Localization from Images |
JP2017199149A (ja) * | 2016-04-26 | 2017-11-02 | ヤフー株式会社 | 学習装置、学習方法および学習プログラム |
Non-Patent Citations (1)
Title |
---|
原田 達也: "機械学習の画像認識への応用", シミュレーション 第34巻 第4号, vol. 第34巻 第4号, JPN6021043031, 2015, pages 18 - 24, ISSN: 0004629413 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022550122A (ja) * | 2019-10-24 | 2022-11-30 | ネイバー コーポレーション | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム |
JP7459238B2 (ja) | 2019-10-24 | 2024-04-01 | ネイバー コーポレーション | ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム |
WO2022030439A1 (ja) | 2020-08-07 | 2022-02-10 | ハイパーダイン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110059528B (zh) | 2023-06-30 |
US10762329B2 (en) | 2020-09-01 |
CN110059528A (zh) | 2019-07-26 |
JP6985121B2 (ja) | 2021-12-22 |
US20190171864A1 (en) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019101907A (ja) | 物体間関係認識装置、学習済みモデル、認識方法及びプログラム | |
US10963783B2 (en) | Technologies for optimized machine learning training | |
US20190228495A1 (en) | Learning robotic tasks using one or more neural networks | |
US10395641B2 (en) | Modifying a language conversation model | |
US10762391B2 (en) | Learning device, learning method, and storage medium | |
EP3493120A1 (en) | Training a neural network model | |
JP2015166962A (ja) | 情報処理装置、学習方法、及び、プログラム | |
CN110738102A (zh) | 一种人脸识别方法及系统 | |
KR20190078899A (ko) | 계층적 시각 특징을 이용한 시각 질의 응답 장치 및 방법 | |
CN113128287A (zh) | 训练跨域人脸表情识别模型、人脸表情识别的方法及系统 | |
CN110704668A (zh) | 基于网格的协同注意力vqa方法和装置 | |
US20230342626A1 (en) | Model processing method and related apparatus | |
CN105677458A (zh) | 用于获取针对事件的约束的方法和装置 | |
CN110728359B (zh) | 搜索模型结构的方法、装置、设备和存储介质 | |
KR20210064817A (ko) | 상이한 딥러닝 모델 간의 전이 학습방법 | |
CN111104874A (zh) | 人脸年龄预测方法及模型的训练方法、装置及电子设备 | |
EP3888044A1 (en) | Predictive system for request approval | |
JP2020155010A (ja) | ニューラルネットワークのモデル縮約装置 | |
KR20230147710A (ko) | 제조 환경에서의 모방 학습 | |
CN116542250B (zh) | 一种信息抽取模型获取方法和系统 | |
US11461399B2 (en) | Method and apparatus for responding to question, and storage medium | |
CN116993028B (zh) | 车间排产方法、装置、存储介质及电子设备 | |
CN107292321A (zh) | 用于获得模型的方法和设备 | |
WO2014073366A1 (ja) | 情報処理システム、認識辞書学習方法および認識辞書学習プログラム | |
JP6812157B2 (ja) | 新着情報の検索システム、検索方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6985121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |