JP7239511B2 - 画像予測システム - Google Patents
画像予測システム Download PDFInfo
- Publication number
- JP7239511B2 JP7239511B2 JP2020030329A JP2020030329A JP7239511B2 JP 7239511 B2 JP7239511 B2 JP 7239511B2 JP 2020030329 A JP2020030329 A JP 2020030329A JP 2020030329 A JP2020030329 A JP 2020030329A JP 7239511 B2 JP7239511 B2 JP 7239511B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- gaze
- information
- unit
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Description
場所ベース注視領域決定部132は、観測画像30と予測画像31から注視領域候補1312(図6参照)を抽出する。注視領域候補1312とは、例えば、観測画像30と予測画像31の差分(ピクセル毎)が大きい領域である。より具体的には、観測画像中に新たに出現した人や車等のオブジェクトに関して将来画像を予測するための領域である。観測画像中に新たに出現した人や車のオブジェクトは、予測画像31には含まれず、観測画像30に含まれるため、両者のピクセルごとの差分が大きくなる。予測に反する動きのあった人や車等のオブジェクトについても同様である。
注視状態134は、注視しているか否かを示す情報である活性情報73と、画像中の第1の注視領域の座標71および大きさ72の情報と、画像のイメージ情報である画像情報(画像75)と、を有する。活性情報73が、Trueの場合は、当該領域が注視されている状態を示す。注視状態134は、第1の注視領域の座標71と、大きさ72と、活性情報73、画像75と、生成モデル内部状態76とを対応させて管理する情報である。
まず、注視制御部131は、場所ベース注視領域決定部132から注視領域候補1312が入力されると、注視領域候補1312の座標情報等を基に、注視状態134の活性情報73を参照して、注視状態が活性かを判定する(S91)。
注視状態134が活性でない場合、注視領域候補1312にエントリーがあるかを判定する(S92)。
10:画像予測システム
110:生成モデル部
111:モデル制御部
112:画像エンコード部
113:非画像エンコード部
114:非画像デコード部
115:画像デコード部
120:ワーキングメモリ部
121:ワーキングメモリ制御部
122:メモリ状態
130:注視部
131:注視制御部
132:場所ベース注視領域決定部
133:オブジェクトベース注視領域決定部
134:注視状態
140:制御部。
Claims (14)
- 観測した画像から将来を予測する画像を生成する画像予測システムにおいて、
前記画像予測システムは、
注視部と、
ワーキングメモリ部と、
制御部と、
生成モデル部とを有し、
前記注視部は、
観測画像中のオブジェクトが含まれる領域について、観測画像と予測画像とのピクセル毎の差分を生成し、前記オブジェクトが含まれる矩形領域を生成し、前記矩形領域を第1の注視領域候補として決定する場所ベース注視領域決定部と、
前記第1の注視領域候補に関する情報を受信し、前記第1の注視領域候補の一つを所定の条件で第1の注視領域として選択する注視制御部と、
前記第1の注視領域の情報を注視状態として格納する第1の記憶部と、を有し、
前記生成モデル部は、
前記第1の注視領域の予測画像を生成し、
前記ワーキングメモリ部は、
前記観測画像と前記予測画像において、前記第1の注視領域の場所の差異が所定値以下の場合、前記第1の注視領域を第2の注視領域として、前記第2の注視領域の情報をメモリ状態として格納する第2の記憶部を有し、
前記生成モデル部は、
前記第1の注視領域の予測画像を生成し、前記注視制御部に出力し、
前記第2の注視領域の予測画像を生成し、前記ワーキングメモリ部に出力し、
前記制御部は、
前記注視部からの前記第1の注視領域の予測画像と、前記ワーキングメモリ部からの前記第2の注視領域の予測画像を統合して、前記観測画像に対する予測画像を生成することを特徴とする画像予測システム。 - 請求項1に記載の画像予測システムにおいて、
前記注視制御部は、
前記観測画像と前記予測画像において、前記第1の注視領域の場所の差異を、前記観測画像と前記予測画像の画像情報の潜在ベクトルを比較して求めることを特徴とする画像予測システム。 - 請求項2に記載の画像予測システムにおいて、
前記注視制御部は、前記第1の注視領域候補から前記第1の注視領域の選択を、前記第1の注視領域候補の面積に基づいて行うことを特徴とする画像予測システム。 - 請求項2に記載の画像予測システムにおいて、
前記注視制御部は、前記第1の注視領域候補から前記第1の注視領域の選択を、前記第1の注視領域候補に含まれるオブジェクトに基づいて行うことを特徴とする画像予測システム。 - 請求項3に記載の画像予測システムにおいて、
前記第1の記憶部に格納される前記注視状態は、
前記第1の注視領域の座標と、大きさと、画像情報と、生成モデル内部状態とを対応させて管理する情報であることを特徴とする画像予測システム。 - 請求項5に記載の画像予測システムにおいて、
前記生成モデル部は、前記注視制御部から前記第1の注視領域の、前記生成モデル内部状態と、前記座標と、前記大きさからなる非画像情報及び前記画像情報とを入力し、前記注視制御部に対し、画像潜在ベクトルと前記第1の注視領域の予測位置を示す予測非画像と、前記第1の注視領域の予測画像とを出力することを特徴とする画像予測システム。 - 請求項6に記載の画像予測システムにおいて、
前記生成モデル部は、
前記注視部からの前記第1の注視領域の予測画像の予想潜在ベクトルと、
前記予測非画像で特定される観測画像における領域の潜在ベクトルと、を生成し、
前記注視部は、
前記生成モデル部からの前記予想潜在ベクトルと前記潜在ベクトルとを比較し、前記オブジェクトが観測画像中の前記第1の注視領域に入るように制御することを特徴とする画像予測システム。 - 請求項7に記載の画像予測システムにおいて、
前記注視部は、
前記生成モデル部からの前記予想潜在ベクトルと前記潜在ベクトルとを比較した結果、差分が所定値以下の場合、または、前記第1の注視領域における観測画像と予測画像で差異が所定値以下の場合に前記第1の注視領域を前記ワーキングメモリ部に出力し、
前記ワーキングメモリ部は、前記第1の注視領域の情報を前記第2の注視領域として管理することを特徴とする画像予測システム。 - 請求項5に記載の画像予測システムにおいて、
前記第2の記憶部に格納される前記メモリ状態は、
前記第2の注視領域の座標と、大きさと、画像情報と、生成モデル内部状態とを対応させて管理する情報であることを特徴とする画像予測システム。 - 請求項6に記載の画像予測システムにおいて、
前記生成モデル部は、
前記第1の記憶部に格納される前記第1の注視領域と、前記第2の記憶部に格納される前記第2の注視領域とを、潜在ベクトル情報に変換する画像エンコード部と、
前記潜在ベクトル情報を、それぞれの領域の将来の位置および大きさの予測情報を生成する非画像情報デコード部と、
前記潜在ベクトル情報を、それぞれの領域の将来の画像の予測情報を生成する画像情報デコード部とを更に有することを特徴とする画像予測システム。 - 請求項6に記載の画像予測システムにおいて、
前記制御部は、
前記第1の記憶部に格納される前記第1の注視領域及び前記第2の記憶部に格納される前記第2の注視領域の少なくとも二つの領域毎に、生成対象の領域と、非生成対象の領域とに分割し、
前記生成モデル部は、
前記生成対象の領域と、前記非生成対象の領域をそれぞれ潜在ベクトル情報に変換し、前記非生成対象の領域の前記潜在ベクトルの集約演算部と、
前記集約演算部により集約されるベクトル情報と、前記生成対象の領域の、前記潜在ベクトル情報を入力として、将来の位置および大きさの予測情報を生成する非画像情報デコード部と、
将来の画像の予測情報を生成する画像情報デコード部とを有することを特徴とする画像予測システム。 - 請求項6に記載の画像予測システムにおいて、
前記生成モデル部の学習は、
前記第1の注視領域に格納される注視領域の座標と、大きさと、画像情報と、
前記第2の注視領域に格納される注視領域の座標と、大きさと、画像情報と、
白紙の画像に従って生成される画像情報を用いて処理されることを特徴とする画像予測システム。 - 請求項6に記載の画像予測システムにおいて、
前記第1の記憶部に格納される前記注視状態は、
前記第1の注視領域の座標と、大きさと、画像情報と、生成モデル内部状態と、時刻情報を対応させて管理する情報であり、
前記第2の記憶部に格納される前記メモリ状態は、
前記第2の注視領域の座標と、大きさと、画像情報と、生成モデル内部状態と、時刻情報を対応させて管理する情報であることを特徴とする画像予測システム。 - 請求項13に記載の画像予測システムにおいて、
前記制御部は、
前記第1の注視領域と時間情報を管理する時刻注視状態と、前記第2の注視領域と時間情報を管理する時刻メモリ状態の少なくとも一方から、前記第1の注視領域及び前記第2の注視領域の少なくとも一つの注視領域の座標の時系列変化を表す情報を生成し、
前記生成モデル部は、
前記生成される注視領域の座標の時系列変化を表す情報を潜在ベクトルに変換する非画像情報エンコード部と、
前記変換される潜在ベクトルを、将来の注視領域の座標の時系列変化を表す情報を生成する非画像情報デコード部とを有することを特徴とする画像予測システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030329A JP7239511B2 (ja) | 2020-02-26 | 2020-02-26 | 画像予測システム |
US17/126,441 US11790661B2 (en) | 2020-02-26 | 2020-12-18 | Image prediction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030329A JP7239511B2 (ja) | 2020-02-26 | 2020-02-26 | 画像予測システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135650A JP2021135650A (ja) | 2021-09-13 |
JP7239511B2 true JP7239511B2 (ja) | 2023-03-14 |
Family
ID=77366106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020030329A Active JP7239511B2 (ja) | 2020-02-26 | 2020-02-26 | 画像予測システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11790661B2 (ja) |
JP (1) | JP7239511B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6843780B2 (ja) * | 2018-01-18 | 2021-03-17 | ヤフー株式会社 | 情報処理装置、学習済みモデル、情報処理方法、およびプログラム |
US11909482B2 (en) * | 2020-08-18 | 2024-02-20 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
CN113992885B (zh) * | 2021-09-22 | 2023-03-21 | 联想(北京)有限公司 | 一种数据同步方法及装置 |
CN117616471A (zh) * | 2021-10-13 | 2024-02-27 | 英特尔公司 | 样本自适应3d特征校准和关联代理 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322556A (ja) | 1999-05-11 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 |
WO2017130639A1 (ja) | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315449B2 (en) * | 2008-06-24 | 2012-11-20 | Medrad, Inc. | Identification of regions of interest and extraction of time value curves in imaging procedures |
US9465129B1 (en) * | 2009-03-06 | 2016-10-11 | See Scan, Inc. | Image-based mapping locating system |
US8872926B2 (en) * | 2011-03-03 | 2014-10-28 | Honeywell International Inc. | Flashless motion invariant image acquisition system |
US10754425B2 (en) * | 2018-05-17 | 2020-08-25 | Olympus Corporation | Information processing apparatus, information processing method, and non-transitory computer readable recording medium |
JP7171985B2 (ja) * | 2018-12-10 | 2022-11-16 | 株式会社エビデント | 情報処理装置、情報処理方法、及びプログラム |
-
2020
- 2020-02-26 JP JP2020030329A patent/JP7239511B2/ja active Active
- 2020-12-18 US US17/126,441 patent/US11790661B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322556A (ja) | 1999-05-11 | 2000-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 |
WO2017130639A1 (ja) | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11790661B2 (en) | 2023-10-17 |
US20210264188A1 (en) | 2021-08-26 |
JP2021135650A (ja) | 2021-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7239511B2 (ja) | 画像予測システム | |
CN111915663B (zh) | 图像深度预测神经网络 | |
JP2022515591A (ja) | ターゲットオブジェクトの3d検出方法、装置、媒体及び機器 | |
US11810311B2 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
US11157749B2 (en) | Crowd state recognition device, learning method, and learning program | |
CN109241810B (zh) | 虚拟角色图像的构建方法及装置、存储介质 | |
JP2018022360A (ja) | 画像解析装置、画像解析方法およびプログラム | |
KR20220081261A (ko) | 객체 포즈 추정 방법 및 장치 | |
CN111667535B (zh) | 一种针对遮挡场景下的六自由度位姿估计方法 | |
CN115298638A (zh) | 用于基于手势控制设备的方法和系统 | |
US20140294293A1 (en) | Image processing circuit and image detection device | |
CN111709471B (zh) | 对象检测模型的训练方法以及对象检测方法、装置 | |
CN108537825B (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
CN112686225A (zh) | Yolo神经网络的训练方法、行人检测方法和相关设备 | |
US11138812B1 (en) | Image processing for updating a model of an environment | |
EP3992909A1 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN114387462A (zh) | 一种基于双目相机的动态环境感知方法 | |
CN115349138A (zh) | 图像处理系统和方法 | |
CN114241360A (zh) | 一种基于自适应推理的视频识别方法和装置 | |
CN114600072A (zh) | 用于基于手势控制设备的方法和系统 | |
Molina-Cabello et al. | Neural controller for PTZ cameras based on nonpanoramic foreground detection | |
CN115471863A (zh) | 三维姿态的获取方法、模型训练方法和相关设备 | |
CN116797713A (zh) | 一种三维重建方法和终端设备 | |
CN116228850A (zh) | 物体姿态估计方法、装置、电子设备及可读存储介质 | |
CN114640785A (zh) | 站点模型更新方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7239511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |