JP2022513868A - カメラ位置決め - Google Patents
カメラ位置決め Download PDFInfo
- Publication number
- JP2022513868A JP2022513868A JP2021534170A JP2021534170A JP2022513868A JP 2022513868 A JP2022513868 A JP 2022513868A JP 2021534170 A JP2021534170 A JP 2021534170A JP 2021534170 A JP2021534170 A JP 2021534170A JP 2022513868 A JP2022513868 A JP 2022513868A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- orientation
- processed
- absolute position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に移動可能な物体が出現する事前確率を取得することと、
前記事前確率に基づいて前記画像テンプレートと同じ大きさの処理すべき画像に対して一部のピクセル点を破棄する操作を実行することによって、目標画像を得ることと、
前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定することと、を含む。
画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に移動可能な物体が出現する事前確率を取得するための取得モジュールと、
前記事前確率に基づいて前記画像テンプレートと同じ大きさの処理すべき画像に対して一部のピクセル点を破棄する操作を実行することによって、目標画像を得るための実行モジュールと、
前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定するための位置決めモジュールと、を備える。
(数1)
p(M(i,j))~N(σ2(i,j),μ(i,j))
Claims (20)
- カメラ位置決め方法であって、
画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に移動可能な物体が出現する事前確率を取得することと、
前記事前確率に基づいて前記画像テンプレートと同じ大きさの処理すべき画像に対して一部のピクセル点を破棄する操作を実行することによって、目標画像を得ることと、
前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定することと、を含む
ことを特徴とするカメラ位置決め方法。 - 画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に移動可能な物体が出現する事前確率を取得することは、
所定の画像セット内の各画像に対してピクセルレベルのセマンティックセグメンテーションを実行することと、
ピクセルレベルのセマンティックセグメンテーションの結果に基づいて、前記各画像内の移動可能な物体に属する第1ピクセル点および背景に属する第2ピクセル点を決定することと、
前記各画像内の前記第1ピクセル点および前記第2ピクセル点の統計分布に基づいて、前記所定の画像セット内の画像と同じ大きさの画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に前記移動可能な物体が出現する前記事前確率を決定することと、を含む
ことを特徴とする請求項1に記載のカメラ位置決め方法。 - 前記事前確率に基づいて前記画像テンプレートと同じ大きさの処理すべき画像に対して一部のピクセル点を破棄する操作を実行することによって、目標画像を得ることは、
前記処理すべき画像に含まれている少なくとも一部のピクセル点に対応する事前確率に対してサンプリングを実行することと、
前記処理すべき画像内で、事前確率のサンプリング値が予め設定された閾値よりも大きいピクセル点を除去することによって、前記目標画像を得ることと、を含む
ことを特徴とする請求項1または2に記載のカメラ位置決め方法。 - サンプリング回数が複数回である場合、一部のピクセル点を破棄する操作を実行した後に得えられた複数の目標画像について、任意の2つの当該目標画像の間に少なくとも1つの異なるピクセル点が存在する
ことを特徴とする請求項3に記載のカメラ位置決め方法。 - 前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定することは、
ニューラルネットワークを利用して前記目標画像の特徴パラメータを抽出して、特徴抽出画像を得ることと、
前記ニューラルネットワークの予め設定された空間次元および/または予め設定されたチャネル次元上で、前記特徴抽出画像内の背景に属する第2ピクセル点に対応する重み値を増加することと、
前記ニューラルネットワークを利用して重み値調整後の特徴抽出画像に対して分析を実行して、前記処理すべき画像を収集するカメラのワールド座標系における前記絶対位置姿勢を得ることと、を含む
ことを特徴とする請求項1~4の中のいずれか1項に記載のカメラ位置決め方法。 - 前記ニューラルネットワークを利用して重み値調整後の特徴抽出画像に対して分析を実行して、前記処理すべき画像を収集するカメラのワールド座標系における前記絶対位置姿勢を得ることの後に、前記カメラ位置決め方法は、
前記絶対位置姿勢と予め決定された前記処理すべき画像を収集する前記カメラの位置姿勢の真値との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整して、目標ニューラルネットワークをトレーニングして得ることをさらに含む
ことを特徴とする請求項5に記載のカメラ位置決め方法。 - 前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定することは、
前記処理すべき画像を前記目標ニューラルネットワークに入力して、前記処理すべき画像を収集するカメラのワールド座標系における前記絶対位置姿勢を得ることを含む
ことを特徴とする請求項6に記載のカメラ位置決め方法。 - 前記処理すべき画像は、前記カメラによって収集された時系列を有する少なくとも2つのフレームの画像を含み、
前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定することの後に、前記カメラ位置決め方法は、
前記少なくとも2つのフレームの画像に基づいて、前記少なくとも2つのフレームの画像を撮影するときの前記カメラの相対位置姿勢を決定することと、
前記カメラの相対位置姿勢と前記絶対位置姿勢とに基づいて、前記カメラの補正位置姿勢を決定することと、をさらに含む
ことを特徴とする請求項1~7の中のいずれか1項に記載のカメラ位置決め方法。 - 前記カメラの相対位置姿勢と前記絶対位置姿勢とに基づいて、前記カメラの補正位置姿勢を決定することは、
前記絶対位置姿勢の決定性確率を決定することと、
前記決定性確率に基づいて前記相対位置姿勢の第1重みおよび前記絶対位置姿勢の第2重みを決定することと、
前記相対位置姿勢、前記第1重み、前記絶対位置姿勢、および前記第2重みに基づいて、前記カメラの補正位置姿勢を決定することと、を含む
ことを特徴とする請求項8に記載のカメラ位置決め方法。 - カメラ位置決め装置であって、
画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に移動可能な物体が出現する事前確率を取得するための取得モジュールと、
前記事前確率に基づいて前記画像テンプレートと同じ大きさの処理すべき画像に対して一部のピクセル点を破棄する操作を実行することによって、目標画像を得るための実行モジュールと、
前記目標画像に基づいて、前記処理すべき画像を収集するカメラのワールド座標系における絶対位置姿勢を決定するための位置決めモジュールと、を備える
ことを特徴とするカメラ位置決め装置。 - 前記取得モジュールは、
所定の画像セット内の各画像に対してピクセルレベルのセマンティックセグメンテーションを実行するための分割サブモジュールと、
ピクセルレベルのセマンティックセグメンテーションの結果に基づいて、前記各画像内の移動可能な物体に属する第1ピクセル点および背景に属する第2ピクセル点を決定するための第1決定サブモジュールと、
前記各画像内の前記第1ピクセル点および前記第2ピクセル点の統計分布に基づいて、前記所定の画像セット内の画像と同じ大きさの画像テンプレートに含まれている複数のピクセル点の中の各ピクセル点に前記移動可能な物体が出現する前記事前確率を決定するための第2決定サブモジュールと、を備える
ことを特徴とする請求項10に記載のカメラ位置決め装置。 - 前記実行モジュールは、
前記処理すべき画像に含まれている少なくとも一部のピクセル点に対応する事前確率に対してサンプリングを実行するためのサンプリングサブモジュールと、
前記処理すべき画像内で、事前確率のサンプリング値が予め設定された閾値よりも大きいピクセル点を除去することによって、前記目標画像を得るための実行サブモジュールと、を備える
ことを特徴とする請求項10または11に記載のカメラ位置決め装置。 - サンプリング回数が複数回である場合、一部のピクセル点を破棄する操作を実行した後に得えられた複数の目標画像について、任意の2つの当該目標画像の間には少なくとも1つの異なるピクセル点が存在する
ことを特徴とする請求項12に記載のカメラ位置決め装置。 - 前記位置決めモジュールは、
ニューラルネットワークを利用して前記目標画像の特徴パラメータを抽出して、特徴抽出画像を得るための第1処理サブモジュールと、
前記ニューラルネットワークの予め設定された空間次元および/または予め設定されたチャネル次元上で、前記特徴抽出画像内の背景に属する第2ピクセル点に対応する重み値を増加するための第2処理サブモジュールと、
前記ニューラルネットワークを利用して重み値調整後の特徴抽出画像に対して分析を実行して、前記処理すべき画像を収集するカメラのワールド座標系における前記絶対位置姿勢を得るための第1位置決めサブモジュールと、を備える
ことを特徴とする請求項10~13の中のいずれか1項に記載のカメラ位置決め装置。 - 前記絶対位置姿勢と予め決定された前記処理すべき画像を収集する前記カメラの位置姿勢の真値との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整して、目標ニューラルネットワークをトレーニングして得るためのトレーニングモジュールをさらに備える
ことを特徴とする請求項14に記載のカメラ位置決め装置。 - 前記位置決めモジュールは、
前記処理すべき画像を前記目標ニューラルネットワークに入力して、前記処理すべき画像を収集するカメラのワールド座標系における前記絶対位置姿勢を得るための第2位置決めサブモジュールを備える
ことを特徴とする請求項15に記載のカメラ位置決め装置。 - 前記処理すべき画像は、前記カメラによって収集された時系列を有する少なくとも2つのフレームの画像を含み、
前記カメラ位置決め装置は、
前記少なくとも2つのフレームの画像に基づいて、前記少なくとも2つのフレームの画像を撮影するときの前記カメラの相対位置姿勢を決定するための第1決定モジュールと、
前記カメラの相対位置姿勢と前記絶対位置姿勢とに基づいて、前記カメラの補正位置姿勢を決定するための第2決定モジュールと、をさらに備える
ことを特徴とする請求項10~16の中のいずれか1項に記載のカメラ位置決め装置。 - 前記第2決定モジュールは、
前記絶対位置姿勢の決定性確率を決定するための第3決定サブモジュールと、
前記決定性確率に基づいて前記相対位置姿勢の第1重みおよび前記絶対位置姿勢の第2重みを決定するための第4決定サブモジュールと、
前記相対位置姿勢、前記第1重み、前記絶対位置姿勢、および前記第2重みに基づいて、前記カメラの補正位置姿勢を決定するための第5決定サブモジュールと、をさらに備える
ことを特徴とする請求項17に記載のカメラ位置決め装置。 - コンピュータ可読記録媒体であって、
前記コンピュータ可読記録媒体には、コンピュータプログラムが格納されており、
前記コンピュータプログラムは、請求項1~9の中のいずれか1項に記載のカメラ位置決め方法の実行に用いられる
ことを特徴とするコンピュータ可読記録媒体。 - 電子デバイスであって、
プロセッサと、
前記プロセッサによって実行可能な命令を格納するためのメモリと、を備え、
前記プロセッサは、前記メモリに格納されている実行可能命令を呼び出して、請求項1~9の中のいずれか1項に記載のカメラ位置決め方法を実現する
ことを特徴とする電子デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910447759.7 | 2019-05-27 | ||
CN201910447759.7A CN112001968B (zh) | 2019-05-27 | 2019-05-27 | 相机定位方法及装置、存储介质 |
PCT/CN2020/091768 WO2020238790A1 (zh) | 2019-05-27 | 2020-05-22 | 相机定位 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022513868A true JP2022513868A (ja) | 2022-02-09 |
Family
ID=73461260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021534170A Pending JP2022513868A (ja) | 2019-05-27 | 2020-05-22 | カメラ位置決め |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022513868A (ja) |
KR (1) | KR20210095925A (ja) |
CN (1) | CN112001968B (ja) |
WO (1) | WO2020238790A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112885134B (zh) * | 2021-01-24 | 2023-05-16 | 陕西合友网络科技有限公司 | 一种基于大数据的智慧城市交通管理方法 |
CN114118367B (zh) * | 2021-11-16 | 2024-03-29 | 上海脉衍人工智能科技有限公司 | 增量式神经辐射场构建的方法及设备 |
CN114693776A (zh) * | 2022-03-25 | 2022-07-01 | 广东电网有限责任公司 | 一种电缆位置信息确定方法、装置、设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215052A (ja) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 風景画像認識を用いた自車位置検出システム |
JP2013092955A (ja) * | 2011-10-27 | 2013-05-16 | Hitachi Ltd | 映像解析装置及びシステム |
JP2016177388A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 移動体位置姿勢計測装置 |
JP2018113021A (ja) * | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム |
WO2018134587A1 (en) * | 2017-01-23 | 2018-07-26 | Oxford University Innovation Limited | Determining the location of a mobile device |
CN109387204A (zh) * | 2018-09-26 | 2019-02-26 | 东北大学 | 面向室内动态环境的移动机器人同步定位与构图方法 |
JP2019045892A (ja) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978722A (zh) * | 2015-07-06 | 2015-10-14 | 天津大学 | 基于背景建模的多曝光图像融合鬼影去除方法 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
US10467756B2 (en) * | 2017-05-14 | 2019-11-05 | International Business Machines Corporation | Systems and methods for determining a camera pose of an image |
CN107833236B (zh) * | 2017-10-31 | 2020-06-26 | 中国科学院电子学研究所 | 一种动态环境下结合语义的视觉定位系统和方法 |
CN108257177B (zh) * | 2018-01-15 | 2021-05-04 | 深圳思蓝智创科技有限公司 | 基于空间标识的定位系统与方法 |
-
2019
- 2019-05-27 CN CN201910447759.7A patent/CN112001968B/zh active Active
-
2020
- 2020-05-22 WO PCT/CN2020/091768 patent/WO2020238790A1/zh active Application Filing
- 2020-05-22 KR KR1020217019918A patent/KR20210095925A/ko not_active Application Discontinuation
- 2020-05-22 JP JP2021534170A patent/JP2022513868A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215052A (ja) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 風景画像認識を用いた自車位置検出システム |
JP2013092955A (ja) * | 2011-10-27 | 2013-05-16 | Hitachi Ltd | 映像解析装置及びシステム |
JP2016177388A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 移動体位置姿勢計測装置 |
JP2018113021A (ja) * | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム |
WO2018134587A1 (en) * | 2017-01-23 | 2018-07-26 | Oxford University Innovation Limited | Determining the location of a mobile device |
JP2019045892A (ja) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
CN109387204A (zh) * | 2018-09-26 | 2019-02-26 | 东北大学 | 面向室内动态环境的移动机器人同步定位与构图方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210095925A (ko) | 2021-08-03 |
CN112001968B (zh) | 2022-07-15 |
WO2020238790A1 (zh) | 2020-12-03 |
CN112001968A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10719940B2 (en) | Target tracking method and device oriented to airborne-based monitoring scenarios | |
JP7218805B2 (ja) | ソフトクロスエントロピー損失を用いたセマンティックセグメンテーション | |
JP2022513868A (ja) | カメラ位置決め | |
CN109166094B (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
CN110688925B (zh) | 基于深度学习的级联目标识别方法及系统 | |
CN111127557B (zh) | 一种基于深度学习的视觉slam前端位姿估计方法 | |
CN111126399B (zh) | 一种图像检测方法、装置、设备及可读存储介质 | |
CN111079561A (zh) | 一种基于虚拟训练的机器人智能抓取方法 | |
CN109977774B (zh) | 一种基于自适应卷积的快速目标检测方法 | |
CN109145836B (zh) | 基于深度学习网络和卡尔曼滤波的船只目标视频检测方法 | |
CN114207541B (zh) | 轨线预测 | |
CN108197566B (zh) | 一种基于多路神经网络的监控视频行为检测方法 | |
CN109377555B (zh) | 自主水下机器人前景视场三维重建目标特征提取识别方法 | |
Ringwald et al. | UAV-Net: A fast aerial vehicle detector for mobile platforms | |
CN109658442B (zh) | 多目标跟踪方法、装置、设备及计算机可读存储介质 | |
CN108320306B (zh) | 融合tld和kcf的视频目标跟踪方法 | |
CN111091023B (zh) | 一种车辆检测方法、装置及电子设备 | |
CN111738114A (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN110363799B (zh) | 人机共存环境下基于视觉的多运动人体目标跟踪方法 | |
KR102613887B1 (ko) | 비디오 신원 복원 모델을 이용한 얼굴 이미지 재구성 방법 및 장치 | |
CN115909110A (zh) | 一种基于Siamese网络的轻量级红外无人机目标跟踪方法 | |
CN108053422A (zh) | 移动目标监测方法 | |
CN113989296A (zh) | 基于改进U-net网络的无人机麦田遥感图像分割方法 | |
CN112819856A (zh) | 一种应用于无人机的目标跟踪方法及自定位方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210614 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220617 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230131 |