JP6972756B2 - 制御プログラム、制御方法、及び情報処理装置 - Google Patents
制御プログラム、制御方法、及び情報処理装置 Download PDFInfo
- Publication number
- JP6972756B2 JP6972756B2 JP2017155262A JP2017155262A JP6972756B2 JP 6972756 B2 JP6972756 B2 JP 6972756B2 JP 2017155262 A JP2017155262 A JP 2017155262A JP 2017155262 A JP2017155262 A JP 2017155262A JP 6972756 B2 JP6972756 B2 JP 6972756B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- estimation
- candidate region
- estimated
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Description
〔1−1〕構成例
一実施形態に係る検出装置1(図1参照)は、ニューラルネットワーク(以下、「NN」と表記する場合がある)を用いて、例えば、画像或いは画像系列のどの位置にどの物体が存在するかを推定する。検出装置1は、例示的に、1台以上のコンピュータをそなえるコンピュータシステムにより実現されてよい。なお、コンピュータとしては、サーバ、PC(Personal Computer)等の種々の情報処理装置が挙げられる。
以下、認識結果分析部17の詳細について説明する。
出力部172は、図9及び図10に例示するように、推定部171が例えばt=2のときにt=1及びt=2の移動物体の位置情報等に基づき推定したt=3の予測存在領域の情報を、t=3のときに、提案領域計算部14の出力結果に追加してよい。例えば、出力部172は、移動物体毎の予測存在領域(additional proposed regions)(x,y,w,h)のセットαを、提案領域計算部14の出力結果であるproposed regionsに追加してよい。
出力部172は、図11及び図12に例示するように、推定部171が例えばt=2のときにt=1及びt=2の移動物体の位置情報等に基づき推定したt=3の予測存在領域の情報を、t=3のときに、提案領域計算部14に追加してよい。例えば、出力部172は、RPN層140におけるNMS処理実行前の矩形領域のスコアを予測存在領域からの矩形領域の距離に応じて変更する補正情報を、候補領域選択部142に出力してよい。なお、出力部172は、予測存在領域と、当該予測存在領域のスコアを変更する補正情報とを、候補領域選択部142に出力してよい。
次に、上述の如く構成された検出装置1の動作例を説明する。
第1の例では、図14に例示するように、検出装置1においては、メモリ部11に記憶された画像データ111(例えば画像系列のデータ)から、1つの入力画像(例えば1フレーム)が取得される(ステップS1)。
第2の例では、図16に例示するように、ステップS1〜S5の処理は図14に示す第1の例と同様である。
次に、認識結果分析部17による物体の予測存在領域の推定処理について説明する。認識結果分析部17の推定部171は、推定処理において、以下の手法のうちのいずれか1つ、又は、2つ以上の組み合わせにより、予測存在領域を推定してよい。
はじめに、第1の手法の一例について説明する。
次に、第2の手法の一例について説明する。第2の手法では、カルマンフィルタ(Kalman Filter)等速運動モデルを用いて予測領域を推定する一例について説明する。
次に、第3の手法の一例について説明する。第3の手法では、追尾物体と検出物体との対応付け(Data Association)の一例として、MHT(Multiple Hypothesis Tracking)が用いられる場合の一例について説明する。
第4の手法では、推定部171が、観測データとして、NMS処理により矩形領域の絞り込みが行なわれる前の物体検出NNの出力(スコア付き矩形領域)を用いる例について説明する。なお、第4の手法は、移動情報の第2の例に適用されてよい。
次に、検出装置1のハードウェア構成例について説明する。なお、上述のように、検出装置1は、例示的に、1台以上のコンピュータをそなえるコンピュータシステムにより実現されてよい。検出装置1を構成する1台以上のコンピュータをコンピュータ10と表記し、コンピュータ10のハードウェア構成例について説明する。
上述した一実施形態に係る技術は、以下のように変形、変更して実施することができる。
以上の実施形態に関し、さらに以下の付記を開示する。
コンピュータに、
画像系列から物体の移動に関する移動情報を取得し、
前記画像系列内の第1画像について、前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する、
処理を実行させ、
前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含む、制御プログラム。
前記コンピュータに、
前記画像系列内の前記第1画像よりも時間的に過去の複数の画像の各々について、当該画像ごとに、
前記画像系列から物体の移動に関する移動情報を取得し、
前記画像について、前記画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記画像における前記物体の位置を決定する、
処理を実行させ、
過去の複数の画像の各々についての前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含み、
前記第1画像に係る前記移動情報の取得は、
前記過去の複数の画像の各々について当該画像ごとに決定した物体の位置に基づき同一物体と認識される物体の位置の時間的な変化に基づいて、前記移動情報を取得する、付記1に記載の制御プログラム。
前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第3の処理に入力される、付記1に記載の制御プログラム。
前記移動情報は、前記第1画像において前記物体の存在が予測される領域を示す予測領域を含む、付記3に記載の制御プログラム。
前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第2の処理に入力される、付記1に記載の制御プログラム。
前記移動情報は、前記第1画像に係る前記第1の処理により推定される候補領域のうちの特定の候補領域の指標を補正する補正情報を含む、付記5に記載の制御プログラム。
前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組の複数の候補領域の重み付き平均を算出する第2の処理と、
前記重み付き平均の算出結果と前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第2の処理に入力される、付記1に記載の制御プログラム。
前記第1画像には複数の基準領域が固定的に配置されており、
前記推定は、前記複数の基準領域の各々により形成される領域、又は、前記複数の基準領域の組み合わせにより形成される領域に基づき、前記候補領域及び前記指標を推定する、付記1〜7のいずれか1項に記載の制御プログラム。
前記移動情報の取得は、前記物体の位置情報と、前記画像系列内の前記第1画像及び前記第1画像の直前の画像の時間間隔と、に基づき、前記第1画像において当該物体が存在し得る領域を推定する、付記1〜8のいずれか1項に記載の制御プログラム。
前記移動情報の取得は、追尾フィルタを用いた運動モデルに基づき、前記移動情報を取得する、付記1〜9のいずれか1項に記載の制御プログラム。
前記移動情報の取得は、前記追尾フィルタにより推定された複数の追尾対象の領域と、前記物体の位置情報との対応付けを行なう、付記10に記載の制御プログラム。
前記移動情報の取得は、前記対応付けにより得られた複数の追尾仮説の各々の尤度に基づき、1以上の追尾仮説を前記移動情報として取得する、付記11に記載の制御プログラム。
画像系列から物体の移動に関する移動情報を取得し、
前記画像系列内の第1画像について、前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する、
処理を実行させ、
前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含む、制御方法。
前記画像系列内の前記第1画像よりも時間的に過去の複数の画像の各々について、当該画像ごとに、
前記画像系列から物体の移動に関する移動情報を取得し、
前記画像について、前記画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記画像における前記物体の位置を決定する、
処理を実行させ、
過去の複数の画像の各々についての前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含み、
前記第1画像に係る前記移動情報の取得は、
前記過去の複数の画像の各々について当該画像ごとに決定した物体の位置に基づき同一物体と認識される物体の位置の時間的な変化に基づいて、前記移動情報を取得する、付記13に記載の制御方法。
前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第3の処理に入力される、付記13に記載の制御方法。
前記移動情報は、前記第1画像において前記物体の存在が予測される領域を示す予測領域を含む、付記15に記載の制御方法。
前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第2の処理に入力される、付記13に記載の制御方法。
前記移動情報は、前記第1の処理により推定される候補領域のうちの特定の候補領域の指標を補正する補正情報を含む、付記17に記載の制御方法。
画像系列から物体の移動に関する移動情報を取得する取得部と、
前記画像系列内の第1画像について、前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定する推定部と、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する決定部と、をそなえ、
前記推定部は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施す、情報処理装置。
前記取得部は、前記画像系列内の前記第1画像よりも時間的に過去の複数の画像の各々について、当該画像ごとに、前記画像系列から物体の移動に関する移動情報を取得し、
前記推定部は、前記過去の複数の画像の各々について、当該画像ごとに、前記画像について、前記画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記画像の画像特徴量に従い推定し、
前記決定部は、前記過去の複数の画像の各々について、当該画像ごとに、推定した前記候補領域及び前記指標の組を用いて前記画像における前記物体の位置を決定し、
前記推定部は、過去の複数の画像の各々についての前記候補領域及び前記指標の組の推定において、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施し、
前記取得部は、前記第1画像に係る処理において、前記過去の複数の画像の各々について当該画像ごとに決定した物体の位置に基づき同一物体と認識される物体の位置の時間的な変化に基づいて、前記移動情報を取得する、付記19に記載の情報処理装置。
10 コンピュータ
11、18 メモリ部
111 画像データ
12 画像前処理部
13 特徴マップ計算部
130 CNN層
14 提案領域計算部
140 RPN層
141 候補領域・スコア計算部
142 候補領域選択部
143 アンカー群
144 入力画像
15 物体位置・種類推定部
150 Fast R−CNN層
16 推定結果選択部
17 認識結果分析部
171 推定部
172 出力部
181 認識結果
Claims (10)
- コンピュータに、
画像系列内の第1画像よりも時間的に過去の複数の画像から物体の移動に関する移動情報を取得し、
前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する、
処理を実行させ、
前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含む、制御プログラム。 - 前記コンピュータに、
前記画像系列内の前記第1画像よりも時間的に過去の前記複数の画像の各々について、当該画像ごとに、
前記画像系列から物体の移動に関する移動情報を取得し、
前記画像について、前記画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記画像における前記物体の位置を決定する、
処理を実行させ、
前記過去の複数の画像の各々についての前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含み、
前記第1画像に係る前記移動情報の取得は、
前記過去の複数の画像の各々について当該画像ごとに決定した物体の位置に基づき同一物体と認識される物体の位置の時間的な変化に基づいて、前記移動情報を取得する、請求項1に記載の制御プログラム。 - 前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第3の処理に入力される、請求項1に記載の制御プログラム。 - 前記移動情報は、前記第1画像において前記物体の存在が予測される領域を示す予測領域を含む、請求項3に記載の制御プログラム。
- 前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組を所定数の組に絞り込む第2の処理と、
前記所定数の組の前記候補領域及び前記指標と、前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第2の処理に入力される、請求項1に記載の制御プログラム。 - 前記移動情報は、前記第1の処理により推定される候補領域のうちの特定の候補領域の指標を補正する補正情報を含む、請求項5に記載の制御プログラム。
- 前記推定は、
前記候補領域及び前記指標の組を複数推定する第1の処理と、
前記複数の組の各々の指標に基づき前記複数の組の複数の候補領域の重み付き平均を算出する第2の処理と、
前記重み付き平均の算出結果と前記画像特徴量とに基づき、前記候補領域に存在すると推定される物体の種類を推定する第3の処理と、を含み、
前記移動情報は、前記第2の処理に入力される、請求項1に記載の制御プログラム。 - 前記第1画像には複数の基準領域が固定的に配置されており、
前記推定は、前記複数の基準領域の各々により形成される領域、又は、前記複数の基準領域の組み合わせにより形成される領域に基づき、前記候補領域及び前記指標を推定する、請求項1〜7のいずれか1項に記載の制御プログラム。 - 画像系列内の第1画像よりも時間的に過去の複数の画像から物体の移動に関する移動情報を取得し、
前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定し、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する、
処理を実行させ、
前記候補領域及び前記指標の組の推定は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施すこと、を含む、制御方法。 - 画像系列内の第1画像よりも時間的に過去の複数の画像から物体の移動に関する移動情報を取得する取得部と、
前記第1画像において物体の存在が推定される候補領域及び当該候補領域における物体の存在の可能性を示す指標の組を、前記第1画像の画像特徴量に従い推定する推定部と、
推定した前記候補領域及び前記指標の組を用いて前記第1画像における前記物体の位置を決定する決定部と、をそなえ、
前記推定部は、取得した前記移動情報に基づき、前記推定の過程で取得される情報に対する補正処理を施す、情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017155262A JP6972756B2 (ja) | 2017-08-10 | 2017-08-10 | 制御プログラム、制御方法、及び情報処理装置 |
US16/055,214 US10803364B2 (en) | 2017-08-10 | 2018-08-06 | Control method, non-transitory computer-readable storage medium for storing control program, and control apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017155262A JP6972756B2 (ja) | 2017-08-10 | 2017-08-10 | 制御プログラム、制御方法、及び情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019036008A JP2019036008A (ja) | 2019-03-07 |
JP6972756B2 true JP6972756B2 (ja) | 2021-11-24 |
Family
ID=65275323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017155262A Active JP6972756B2 (ja) | 2017-08-10 | 2017-08-10 | 制御プログラム、制御方法、及び情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10803364B2 (ja) |
JP (1) | JP6972756B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9238304B1 (en) * | 2013-03-15 | 2016-01-19 | Industrial Perception, Inc. | Continuous updating of plan for robotic object manipulation based on received sensor data |
CN107181976B (zh) * | 2017-04-28 | 2021-01-29 | 华为技术有限公司 | 一种弹幕显示方法及电子设备 |
WO2018211144A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Making object-level predictions of the future state of a physical system |
CN108694401B (zh) * | 2018-05-09 | 2021-01-12 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
US10878270B1 (en) * | 2018-06-26 | 2020-12-29 | Amazon Technologies, Inc. | Keypoint-based multi-label word segmentation and localization |
JP6847424B2 (ja) * | 2018-11-30 | 2021-03-24 | 株式会社ポコアポコネットワークス | 検出装置、検出方法、コンピュータプログラム及び学習モデル |
US10423860B1 (en) * | 2019-01-22 | 2019-09-24 | StradVision, Inc. | Learning method and learning device for object detector based on CNN to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same |
US10430691B1 (en) * | 2019-01-22 | 2019-10-01 | StradVision, Inc. | Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring |
US10387752B1 (en) * | 2019-01-22 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for object detector with hardware optimization based on CNN for detection at distance or military purpose using image concatenation, and testing method and testing device using the same |
US10402695B1 (en) * | 2019-01-23 | 2019-09-03 | StradVision, Inc. | Learning method and learning device for convolutional neural network using 1×H convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same |
US10387754B1 (en) * | 2019-01-23 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×H convolution to be used for hardware optimization, and testing method and testing device using the same |
CN111661059B (zh) * | 2019-03-08 | 2022-07-08 | 虹软科技股份有限公司 | 分心驾驶监测方法、系统及电子设备 |
JP7442078B2 (ja) * | 2019-07-09 | 2024-03-04 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
KR102340988B1 (ko) * | 2019-10-04 | 2021-12-17 | 에스케이텔레콤 주식회사 | 고해상도 객체 검출장치 및 방법 |
JP7202995B2 (ja) * | 2019-10-10 | 2023-01-12 | 株式会社日立製作所 | 時空間事象予測装置、時空間事象予測方法及び時空間事象予測システム |
KR102303779B1 (ko) * | 2019-10-18 | 2021-09-23 | 주식회사 메이아이 | 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치 |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP2021103347A (ja) * | 2019-12-24 | 2021-07-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN111340852B (zh) * | 2020-03-10 | 2022-09-27 | 南昌航空大学 | 一种基于优化语义分割的图像序列光流计算方法 |
JP7344830B2 (ja) * | 2020-03-31 | 2023-09-14 | 三菱重工業株式会社 | データ作成装置、プログラム作成装置、対象物検知装置、データ作成方法及び対象物検知方法 |
US11170267B1 (en) | 2020-06-05 | 2021-11-09 | Motorola Solutions, Inc. | Method, system and computer program product for region proposals |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5708473A (en) | 1994-08-30 | 1998-01-13 | Hughes Aircraft Company | Two stage video film compression method and system |
JP3560670B2 (ja) * | 1995-02-06 | 2004-09-02 | 富士通株式会社 | 適応的認識システム |
US6674925B1 (en) | 2000-02-08 | 2004-01-06 | University Of Washington | Morphological postprocessing for object tracking and segmentation |
GB2431787B (en) * | 2005-10-31 | 2009-07-01 | Hewlett Packard Development Co | A method of tracking an object in a video stream |
JP4725490B2 (ja) | 2006-10-27 | 2011-07-13 | パナソニック電工株式会社 | 自動追尾方法 |
JP5675229B2 (ja) * | 2010-09-02 | 2015-02-25 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP5823270B2 (ja) * | 2011-11-30 | 2015-11-25 | Kddi株式会社 | 画像認識装置及び方法 |
JP5648655B2 (ja) * | 2012-04-27 | 2015-01-07 | 株式会社デンソー | 対象物識別装置 |
CN104517275A (zh) * | 2013-09-27 | 2015-04-15 | 株式会社理光 | 对象检测方法和系统 |
JP6282193B2 (ja) * | 2014-07-28 | 2018-02-21 | クラリオン株式会社 | 物体検出装置 |
US9594947B1 (en) * | 2014-09-30 | 2017-03-14 | Amazon Technologies, Inc. | Aspect ratio validation |
WO2016054778A1 (en) | 2014-10-09 | 2016-04-14 | Microsoft Technology Licensing, Llc | Generic object detection in images |
JP6447108B2 (ja) * | 2014-12-24 | 2019-01-09 | 富士通株式会社 | 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム |
US11205283B2 (en) | 2017-02-16 | 2021-12-21 | Qualcomm Incorporated | Camera auto-calibration with gyroscope |
JP6972757B2 (ja) * | 2017-08-10 | 2021-11-24 | 富士通株式会社 | 制御プログラム、制御方法、及び情報処理装置 |
-
2017
- 2017-08-10 JP JP2017155262A patent/JP6972756B2/ja active Active
-
2018
- 2018-08-06 US US16/055,214 patent/US10803364B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10803364B2 (en) | 2020-10-13 |
JP2019036008A (ja) | 2019-03-07 |
US20190050694A1 (en) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6972757B2 (ja) | 制御プログラム、制御方法、及び情報処理装置 | |
JP6972756B2 (ja) | 制御プログラム、制御方法、及び情報処理装置 | |
US10229346B1 (en) | Learning method, learning device for detecting object using edge image and testing method, testing device using the same | |
EP3620956B1 (en) | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same | |
JP6759411B2 (ja) | 物体追跡方法および装置 | |
KR102279376B1 (ko) | CNN(Convolutional Neural Network)을 사용하여 차선을 검출하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN105938622A (zh) | 检测运动图像中的物体的方法和装置 | |
KR102279388B1 (ko) | 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
KR20160010120A (ko) | 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법 | |
KR102655789B1 (ko) | 얼굴 검출 방법 및 장치 | |
WO2016179808A1 (en) | An apparatus and a method for face parts and face detection | |
EP3376470B1 (en) | Moving body tracking method, moving body tracking device, and program | |
US20230154016A1 (en) | Information processing apparatus, information processing method, and storage medium | |
CN110060278A (zh) | 基于背景减法的运动目标的检测方法及装置 | |
CN110909588B (zh) | 基于cnn的用于车道线检测的方法和装置 | |
KR101506812B1 (ko) | 랜덤 포레스트와 이진 패턴 반복 길이 행렬을 이용한 얼굴 자세 추정 방법 | |
JP6713422B2 (ja) | 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム | |
KR101268596B1 (ko) | 정사각 코드북과 다중 경계 값이 적용된 텍스쳐 특징을 이용한 전경 검출 장치 및 방법 | |
KR102336284B1 (ko) | 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템 | |
Wang et al. | Robust obstacle detection based on a novel disparity calculation method and G-disparity | |
CN116524377A (zh) | 一种基于tir图像的无人机目标跟踪识别方法 | |
CN114399731A (zh) | 一种单粗点监督下的目标定位方法 | |
KR101437228B1 (ko) | 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법 | |
CN113095257A (zh) | 异常行为检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6972756 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |