JP2023505987A - 人間関節を用いた無人航空機上のカメラの校正 - Google Patents
人間関節を用いた無人航空機上のカメラの校正 Download PDFInfo
- Publication number
- JP2023505987A JP2023505987A JP2022534839A JP2022534839A JP2023505987A JP 2023505987 A JP2023505987 A JP 2023505987A JP 2022534839 A JP2022534839 A JP 2022534839A JP 2022534839 A JP2022534839 A JP 2022534839A JP 2023505987 A JP2023505987 A JP 2023505987A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- anchor
- group
- human
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000010801 machine learning Methods 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 13
- 239000003550 marker Substances 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 19
- 210000001503 joint Anatomy 0.000 description 52
- 238000004891 communication Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 6
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 210000003857 wrist joint Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/04—Aircraft not otherwise provided for having multiple fuselages or tail booms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/104—Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
なし
(1)
ここで、
は、i番目の検出された人間関節の2D位置であり、
は、i番目の検出された人間関節の信頼値であり、
は、i番目の検出された人間関節のタイプ(例えば、左手首、右ひじ)であり、
Mは、検出された人間関節の総数である。
(2)
ここで、
は、3D内のn番目のカメラからのi番目の人間関節の正規化方向ベクトルであり、
は、3D内のn番目のカメラ位置である。
(3.1)
(3.2)
ここで、
θは、正規化された3Dベクトルeと3D線との間の角度を表すことができ、
xは、3Dベクトル「e」に垂線を落とすことができる3D線上の点を表すことができ、
lは、3D点「a」と点「x」との間の距離を表すことができる。
(4.1)
(4.2)
ここで、
wnは、n番目の3D線の重みを表し、
dnは、3D点「an」とn番目の3D線との間の距離を表すことができる。
(5)
ここで、iは、3D線に沿った3D点のx軸座標のインデックスを表すことができる。
(6)
ここで、jは、3D線に沿った3D点のy軸座標のインデックスを表すことができる。静止状態:
を仮定すると、以下のような方程式(7.1)及び(7.2)を得ることができる。
(7.1)
(7.2)
方程式(7.2)から、線形システムAx=Bを得ることができる。線形システムAx=Bのための線形方程式(8.1)、(8.2)が以下のように与えられる。
(8.1)
(8.2)
(9)
ここで、
Nはカメラの総数である。
は、特殊直交リー代数(すなわち、so(3))を表すことができ、後の3つの要素:
は、それぞれ3D空間における変換要素T(3)∈R3を表すことができる。実作業では、行列表現を得るために指数写像se(3)→SE(3)を採用することができる。
(10)
(11)
回路202は、方程式(10)及び(11)を使用することにより、バンドル調整ベースの技術における「トリビアルゲージ固定(trivial gauge fixing)」を使用して、一群のカメラ404(例えば、第1のカメラ404a及び第2のカメラ404b)を校正するためのグローバルゲージを設定することができる。
(12)
ここで、xp、yp及びzpは以下のような方程式(13)によって与えられ、
(13)
ここで、Mは、カメラの内部パラメータを含む4×4のカメラ投影行列である。
104 MLモデル
106 アンカーカメラ装置の組
106a 第1のアンカーカメラ装置
106b 第2のアンカーカメラ装置
108 一群のUAV
108a 第1のUAV
108b 第2のUAV
110 通信ネットワーク
112 一群のカメラ
112a 第1のカメラ
112b 第2のカメラ
114 3D空間
116 人間被写体
Claims (20)
- アンカーカメラ装置の組と、一群の無人航空機(UAV)に搭載又は一体化された一群のカメラとに通信可能に結合された回路を備えたシステムであって、前記回路は、
前記アンカーカメラ装置の組から人間被写体のアンカー画像の組を受け取り、
前記一群のカメラから、3次元(3D)空間における複数の地点からの前記人間被写体の一群の画像を受け取り、
前記受け取られたアンカー画像の組の各アンカー画像における前記人間被写体について人間関節の第1の2次元(2D)位置の組を決定し、
前記受け取られた一群の画像の各画像における前記人間被写体について前記人間関節の第2の2D位置の組を決定し、
前記決定された前記人間関節の第1の2D位置の組を使用した三角測量に基づいて、前記3D空間における前記人間関節の3D位置を3Dキーポイントとして計算し、
前記3Dキーポイントと前記決定された第2の2D位置の組との間の2D再投影誤差を決定し、
前記決定された2D再投影誤差を最小化することによって前記一群のカメラの各カメラを校正する、
ように構成される、
ことを特徴とするシステム。 - 前記3D空間は、屋外空間、屋内空間、又はボリュメトリックキャプチャのためのスタジオ環境のうちの1つに関連する、
請求項1に記載のシステム。 - 前記回路は、
前記一群のUAVを前記3D空間における前記複数の地点において動くように制御し、
前記一群のUAVに搭載又は一体化された前記一群のカメラを前記複数の地点から前記人間被写体の前記一群の画像を取得するように制御する、
ようにさらに構成される、請求項1に記載のシステム。 - 前記アンカーカメラ装置の組は、前記UAVに搭載又は一体化されて、前記一群のカメラが固定姿勢に対して動いて前記一群の画像を取得するように制御されている間に前記固定姿勢を維持するように構成された、少なくとも1つのカメラを含む、
請求項3に記載のシステム。 - 前記アンカーカメラ装置の組は、前記一群のカメラが前記一群の画像を取得するように制御されている間に前記3D空間における位置に固定される少なくとも1つの予め校正されたカメラを含む、
請求項3に記載のシステム。 - 前記アンカーカメラ装置の組は、遠隔制御式カメラ移動アセンブリに移動可能に結合された少なくとも1つの予め校正されたカメラを含む、
請求項3に記載のシステム。 - 前記回路は、前記3D空間における前記アンカーカメラ装置の組を、前記アンカー画像の組を取得するように制御するようさらに構成される、
請求項1に記載のシステム。 - 前記回路は、前記受け取られたアンカー画像の組の各アンカー画像に機械学習(ML)モデルを適用することによって前記人間関節の前記第1の2D位置の組を決定するように構成され、前記MLモデルは、人間関節検出フレームワークとして、2D人間関節検出タスクに基づいて訓練されたニューラルネットワークを含む、
請求項1に記載のシステム。 - 前記回路は、前記受け取られた一群の画像の各画像にMLモデルを適用することによって前記人間関節の前記第2の2D位置の組を決定するように構成され、前記MLモデルは、前記人間関節検出フレームワークとして、2D人間関節検出タスクに基づいて訓練されたニューラルネットワークを含む、
請求項1に記載のシステム。 - 前記一群のカメラの各カメラの前記校正は、前記対応するカメラの3D姿勢の推定に対応し、
前記3D姿勢は、前記3D空間における前記対応するカメラの3D位置及び向きを含む、
請求項1に記載のシステム。 - 前記一群のUAVのうちの少なくとも1つのUAVは位置センサを含み、
前記位置センサは、全地球的航法衛星システム(GNSS)受信機、慣性測定装置(IMU)、感知カメラ、赤外線マーカセンサ、又はパターンコードスキャナのうちの1つである、
請求項1に記載のシステム。 - 前記回路は、対応するUAVの前記位置センサから取得された絶対位置情報にさらに基づいて前記一群のカメラの各カメラを校正するように構成される、
請求項11に記載のシステム。 - 前記回路は、前記対応するカメラの内部校正パラメータの値にさらに基づいて前記一群のカメラの各カメラを校正するように構成される、
請求項1に記載のシステム。 - アンカーカメラ装置の組から人間被写体のアンカー画像の組を受け取るステップと、
一群のUAVに搭載又は一体化された一群のカメラから、3次元(3D)空間における複数の地点からの前記人間被写体の一群の画像を受け取るステップと、
前記受け取られたアンカー画像の組の各アンカー画像における前記人間被写体について人間関節の第1の2次元(2D)位置の組を決定するステップと、
前記受け取られた一群の画像の各画像における前記人間被写体について前記人間関節の第2の2D位置の組を決定するステップと、
前記決定された前記人間関節の第1の2D位置の組を使用した三角測量に基づいて、前記3D空間における前記人間関節の3D位置を3Dキーポイントとして計算するステップと、
前記3Dキーポイントと前記決定された第2の2D位置の組との間の2D再投影誤差を決定するステップと、
前記決定された2D再投影誤差を最小化することによって前記一群のカメラの各カメラを校正するステップと、
を含むことを特徴とする方法。 - 前記一群のUAVを前記3D空間における前記複数の地点において動くように制御するステップと、
前記一群のUAVに搭載又は一体化された前記一群のカメラを前記複数の地点から前記人間被写体の前記一群の画像を取得するように制御するステップと、
をさらに含む請求項14に記載の方法。 - 前記受け取られたアンカー画像の組の各アンカー画像に機械学習(ML)モデルを適用することによって前記人間関節の前記第1の2D位置の組を決定するステップと、
前記受け取られた一群の画像の各画像に前記MLモデルを適用することによって前記人間関節の前記第2の2D位置の組を決定するステップと、
をさらに含み、前記MLモデルは、人間関節検出フレームワークとして、2D人間関節検出タスクに基づいて訓練されたニューラルネットワークを含む、
請求項14に記載の方法。 - 各カメラの前記校正は、前記対応するUAVの3D姿勢の推定に対応し、
前記3D姿勢は、前記3D空間における前記対応するUAVの3D位置及び向きを含む、
請求項14に記載の方法。 - 前記一群のUAVのうちの少なくとも1つのUAVは位置センサを含み、
前記位置センサは、全地球的航法衛星システム(GNSS)受信機、慣性測定装置(IMU)、感知カメラ、赤外線マーカセンサ、又はパターンコードスキャナのうちの1つである、
請求項14に記載の方法。 - 前記対応するカメラ付きUAVの前記位置センサから取得された絶対位置情報にさらに基づいて前記一群のUAVの各UAVを校正するステップをさらに含む、
請求項18に記載の方法。 - システム内のコンピュータによって実行された時に前記システムに動作を実行させるコンピュータ実装命令を記憶した非一時的コンピュータ可読媒体であって、前記動作は、
アンカーカメラ装置の組から人間被写体のアンカー画像の組を受け取ることと、
一群のUAVに搭載又は一体化された一群のカメラから、3次元(3D)空間における複数の地点からの前記人間被写体の一群の画像を受け取ることと、
前記受け取られたアンカー画像の組の各アンカー画像における前記人間被写体について人間関節の第1の2次元(2D)位置の組を決定することと、
前記受け取られた一群の画像の各画像における前記人間被写体について前記人間関節の第2の2D位置の組を決定することと、
前記決定された前記人間関節の第1の2D位置の組を使用した三角測量に基づいて、前記3D空間における前記人間関節の3D位置を3Dキーポイントとして計算することと、
前記3Dキーポイントと前記決定された第2の2D位置の組との間の2D再投影誤差を決定することと、
前記決定された2D再投影誤差を最小化することによって前記一群のカメラの各カメラを校正することと、
を含む、ことを特徴とする非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/856,511 | 2020-04-23 | ||
US16/856,511 US11095870B1 (en) | 2020-04-23 | 2020-04-23 | Calibration of cameras on unmanned aerial vehicles using human joints |
PCT/US2021/028762 WO2021216948A1 (en) | 2020-04-23 | 2021-04-23 | Calibration of cameras on unmanned aerial vehicles using human joints |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505987A true JP2023505987A (ja) | 2023-02-14 |
JP7527546B2 JP7527546B2 (ja) | 2024-08-05 |
Family
ID=77274121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022534839A Active JP7527546B2 (ja) | 2020-04-23 | 2021-04-23 | 人間関節を用いた無人航空機上のカメラの校正 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11095870B1 (ja) |
EP (1) | EP4094226A4 (ja) |
JP (1) | JP7527546B2 (ja) |
KR (1) | KR20220104025A (ja) |
CN (1) | CN114667541A (ja) |
WO (1) | WO2021216948A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11475595B2 (en) * | 2020-03-19 | 2022-10-18 | Sony Corporation | Extrinsic calibration of multi-camera system |
CN113658337B (zh) * | 2021-08-24 | 2022-05-03 | 哈尔滨工业大学 | 一种基于车辙线的多模态里程计方法 |
US12026917B2 (en) * | 2022-03-23 | 2024-07-02 | Sony Group Corporation | Method of 3D reconstruction of dynamic objects by mobile cameras |
CN118047064B (zh) * | 2024-04-12 | 2024-06-11 | 国网江苏省电力工程咨询有限公司 | 一种具有偏航角自动纠偏机构的无人机倾斜摄影测量装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018083848A1 (ja) * | 2016-11-07 | 2018-05-11 | ソニー株式会社 | 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム |
JP2019079487A (ja) * | 2017-10-25 | 2019-05-23 | 日本電信電話株式会社 | パラメータ最適化装置、パラメータ最適化方法、プログラム |
JP2019109200A (ja) * | 2017-12-20 | 2019-07-04 | オムロン株式会社 | 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム |
JP2019205066A (ja) * | 2018-05-23 | 2019-11-28 | シャープ株式会社 | カメラ調整装置 |
WO2020038720A1 (en) * | 2018-08-23 | 2020-02-27 | Eth Zurich | Apparatus, method and computer program for detecting the form of a deformable object |
JP2020507436A (ja) * | 2017-02-14 | 2020-03-12 | アトラクシス エス・アー・エール・エル | 圧縮および/またはcmosウィンドウイングを用いた高速光学追跡 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7642953B2 (en) * | 2007-07-19 | 2010-01-05 | The Boeing Company | Method and apparatus for three dimensional tomographic image reconstruction of objects |
US11699247B2 (en) | 2009-12-24 | 2023-07-11 | Cognex Corporation | System and method for runtime determination of camera miscalibration |
WO2014053158A1 (en) | 2012-10-01 | 2014-04-10 | Telefonaktiebolaget L M Ericsson (Publ) | 3d camera calibration |
US9852238B2 (en) * | 2014-04-24 | 2017-12-26 | The Board Of Trustees Of The University Of Illinois | 4D vizualization of building design and construction modeling with photographs |
US20160349746A1 (en) * | 2015-05-29 | 2016-12-01 | Faro Technologies, Inc. | Unmanned aerial vehicle having a projector and being tracked by a laser tracker |
EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
US10416667B2 (en) * | 2016-02-03 | 2019-09-17 | Sony Corporation | System and method for utilization of multiple-camera network to capture static and/or motion scenes |
US10860014B2 (en) * | 2016-09-09 | 2020-12-08 | Ecole polytechnique fédérale de Lausanne (EPFL) | Jacket for embodied interaction with virtual or distal robotic device |
CN107239728B (zh) * | 2017-01-04 | 2021-02-02 | 赛灵思电子科技(北京)有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
US9986233B1 (en) * | 2017-03-16 | 2018-05-29 | Amazon Technologies, Inc. | Camera calibration using fixed calibration targets |
JP7054803B2 (ja) * | 2017-07-21 | 2022-04-15 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
IL309433A (en) * | 2017-11-13 | 2024-02-01 | Carmel Haifa Univ Economic Corporation Ltd | Motion tracking using 3D cameras |
CN108989686B (zh) * | 2018-09-05 | 2021-02-19 | 深圳技威时代科技有限公司 | 基于人形追踪的实时拍摄装置及控制方法 |
CN110264530A (zh) * | 2019-06-27 | 2019-09-20 | 深圳市道通智能航空技术有限公司 | 一种相机标定方法、装置和无人机 |
-
2020
- 2020-04-23 US US16/856,511 patent/US11095870B1/en active Active
-
2021
- 2021-04-23 CN CN202180006519.9A patent/CN114667541A/zh active Pending
- 2021-04-23 KR KR1020227021248A patent/KR20220104025A/ko unknown
- 2021-04-23 WO PCT/US2021/028762 patent/WO2021216948A1/en unknown
- 2021-04-23 EP EP21792696.3A patent/EP4094226A4/en active Pending
- 2021-04-23 JP JP2022534839A patent/JP7527546B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018083848A1 (ja) * | 2016-11-07 | 2018-05-11 | ソニー株式会社 | 画像処理装置、キャリブレーション用チャート、及びキャリブレーションシステム |
JP2020507436A (ja) * | 2017-02-14 | 2020-03-12 | アトラクシス エス・アー・エール・エル | 圧縮および/またはcmosウィンドウイングを用いた高速光学追跡 |
JP2019079487A (ja) * | 2017-10-25 | 2019-05-23 | 日本電信電話株式会社 | パラメータ最適化装置、パラメータ最適化方法、プログラム |
JP2019109200A (ja) * | 2017-12-20 | 2019-07-04 | オムロン株式会社 | 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム |
JP2019205066A (ja) * | 2018-05-23 | 2019-11-28 | シャープ株式会社 | カメラ調整装置 |
WO2020038720A1 (en) * | 2018-08-23 | 2020-02-27 | Eth Zurich | Apparatus, method and computer program for detecting the form of a deformable object |
Also Published As
Publication number | Publication date |
---|---|
WO2021216948A1 (en) | 2021-10-28 |
CN114667541A (zh) | 2022-06-24 |
JP7527546B2 (ja) | 2024-08-05 |
EP4094226A4 (en) | 2023-08-02 |
EP4094226A1 (en) | 2022-11-30 |
KR20220104025A (ko) | 2022-07-25 |
US11095870B1 (en) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7527546B2 (ja) | 人間関節を用いた無人航空機上のカメラの校正 | |
US11042723B2 (en) | Systems and methods for depth map sampling | |
US11263761B2 (en) | Systems and methods for visual target tracking | |
US11120560B2 (en) | System and method for real-time location tracking of a drone | |
US10339387B2 (en) | Automated multiple target detection and tracking system | |
CN106529495B (zh) | 一种飞行器的障碍物检测方法和装置 | |
US11205283B2 (en) | Camera auto-calibration with gyroscope | |
EP3825954A1 (en) | Photographing method and device and unmanned aerial vehicle | |
CN108605098B (zh) | 用于卷帘快门校正的系统和方法 | |
US11906983B2 (en) | System and method for tracking targets | |
CN112567201A (zh) | 距离测量方法以及设备 | |
CN112037260B (zh) | 一种跟踪目标的位置估计方法、装置及无人飞行器 | |
CN109792543A (zh) | 根据可移动物捕获的图像数据创建视频抽象的方法和系统 | |
WO2020019175A1 (zh) | 图像处理方法和设备、摄像装置以及无人机 | |
JP2018009918A (ja) | 自己位置検出装置、移動体装置及び自己位置検出方法 | |
CN116952229A (zh) | 无人机定位方法、装置、系统和存储介质 | |
US20210256732A1 (en) | Image processing method and unmanned aerial vehicle | |
US20220018950A1 (en) | Indoor device localization | |
CN115147495A (zh) | 一种针对车载系统的标定方法、装置以及系统 | |
Sulaj et al. | Examples of real-time UAV data processing with cloud computing | |
Cheng et al. | Positioning method research for unmanned aerial vehicles based on meanshift tracking algorithm | |
US20220383515A1 (en) | Digital video computing system for vehicle | |
Kuhnert et al. | Absolute high-precision localisation of an unmanned ground vehicle by using real-time aerial video imagery for geo-referenced orthophoto registration | |
CN115790581A (zh) | 基于在轨特因环境的高速vslam增强现实头盔自主定位方法 | |
CN116148883A (zh) | 基于稀疏深度图像的slam方法、装置、终端设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230703 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231225 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7527546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |