JP6722323B2 - 撮像装置のモデリングおよび校正のためのシステムおよびその方法 - Google Patents
撮像装置のモデリングおよび校正のためのシステムおよびその方法 Download PDFInfo
- Publication number
- JP6722323B2 JP6722323B2 JP2019072152A JP2019072152A JP6722323B2 JP 6722323 B2 JP6722323 B2 JP 6722323B2 JP 2019072152 A JP2019072152 A JP 2019072152A JP 2019072152 A JP2019072152 A JP 2019072152A JP 6722323 B2 JP6722323 B2 JP 6722323B2
- Authority
- JP
- Japan
- Prior art keywords
- axis
- coordinate system
- image
- plane
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 48
- 238000000034 method Methods 0.000 title claims description 42
- 230000004075 alteration Effects 0.000 claims description 120
- 238000012937 correction Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 6
- 238000003702 image correction Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000002591 computed tomography Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000009897 systematic effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000009472 formulation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000003331 infrared imaging Methods 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 206010028813 Nausea Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001404 mediated effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 241000254158 Lampyridae Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 238000003333 near-infrared imaging Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004826 seaming Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G06T3/02—
-
- G06T5/80—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/843—Demosaicing, e.g. interpolating colour pixel values
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
- H04N25/611—Correction of chromatic aberration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Description
は等価スケール演算子であり、P1は前記第1の3D直交座標系についての前記実スケール面への投影演算子である。
h11 = cosβ,
h12 = sinβ sinα,
h13 = sinβ cosα,
h22 = cosα,
h23 = -sinα,
h31 = -sinβ,
h32 = cosβ sinα,および
h33 = cosβ cosα
である。
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα),
v = f(cosα y’- sinα),
w = -sinβ x’+ cosβ sinα y’+ cosβ cosα,
であって 、(CX ,CY) は前記第3の3D座標系での前記原点の位置である。
および
の近似が使用されている。
r' = r + k1 r3 + k2 r5 + …,
のように定義されたレンズ収差補正モデルを適用することを備え、ここにおいて、前記第1の平面座標は前記実スケール面上の前記点の画像の歪みがない位置(x,y)を極座標(r,θ)で表現したものを備え、ここにおいて r2=x2+y2 および tanθ = y/xであり、xとyのうち少なくとも1つは非零であり、 (x’,y’) は前記画像面での前記点の投影前の前記レンズの出力において歪んだ位置(x,y)を表現しており、r’は (x’,y’)に基づいて計算され歪んだラジアル距離であり、そしてk1 および k2は前記レンズの幾何学的収差パラメータである。
は等価スケール演算子であり、P1は前記第1の3D直交座標系についての前記実スケール面への投影演算子である。
h11 = cosβ,
h12 = sinβ sinα,
h13 = sinβ cosα,
h22 = cosα,
h23 = -sinα,
h31 = -sinβ,
h32 = cosβ sinα,および
h33 = cosβ cosα
である。
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα),
v = f(cosα y’- sinα),
w = -sinβ x’+ cosβ sinα y’+ cosβ cosα,
であって、(CX,CY)は前記第3の3D座標系での前記原点の位置である。
および
の近似が使用されている。
r' = r + k1 r3 + k2 r5 + …,
のように定義されたレンズ収差補正モデルを適用することを備え、ここにおいて、前記第1の平面座標は前記実スケール面上の前記点の画像の歪みがない位置(x,y)を極座標(r,θ)で表現したものを備え、ここにおいて r2=x2+y2 および tanθ = y/xであり、xとyのうち少なくとも1つは非零であり、 (x’,y’) は前記画像面での前記点の投影前の前記レンズの出力において歪んだ位置(x,y)を表現しており、r’は (x’,y’)に基づいて計算され歪んだラジアル距離であり、そしてk1 および k2は前記レンズの幾何学的収差パラメータである。
レンズ収差は、デジタルイメージングにおいて見受けられる最大の誤差を招来する。このことは、図1および図2に描かれている。図1に示されるように、魚眼効果は、幾何学的収差と称され、直線を湾曲させる。画像の縁における色つきの濃淡(図1おいて「青色エッジ」および「赤色エッジ」と参照される)は、色収差と称され、撮像装置(不図示)のレンズにおける光の分離によって引き起こされる。ピンホールの挙動に対するこれらの偏差は、レンズ角度に関して増加する。サブピクセルの精度を達成するためには、双方の収差は、モデル化されて、補償されねばならず、ソフトウェアを介してのみハードウェア性能を上回る補償が可能となる。図2に示されるように、幾何学的収差が画像を圧縮するときには、当該収差は樽形収差(図2(a)参照)と称され、画像が拡張するときには糸巻き形収差(図2(b)参照)と称される。
図3において、ディザリングは、ある画素をエッジが通り、隣り合う双方の色が混じるときに生ずる中間の画素色である。画素内の各色の各面について、画素の色は、エッジの両側において隣の色値の重み付き平均である。
カメラ若しくは他の撮像装置のモデリングは、カメラとレンズの特有の組合せの挙動を定義するパラメータを測定するために、数学モデルと校正手順を要する。
1− 外部モデル:焦点O(全ての光が一点に集中する空間中の点)におけるカメラ座標と、ワールド座標系(XW YW ZW)におけるワールド座標との関係;
2− 内部モデル:ZCがレンズ軸(すなわち、レンズの視線)であるカメラ平面座標系(XC YC ZC);および
3− レンズモデル:レンズの幾何学的収差の式および色収差の式。
カメラの外部モデルは、当該文献によって正確に分かり、2つの座標セットを定義する、
1− 原点が(0,0,0)に設定されたワールド座標(XW YW ZW);と
2− 焦点Oにおけるカメラ座標(XC YC ZC)。
図4に加えて図5を参照しつつ、非直角度(off squareness)の補償を行う先行技術のカメラの内部モデルについて以下に述べる。仮に、画像面がレンズ軸ZCと完全に直交する場合には、ワールド測定値XW、YWと、カメラ測定値XC、YCとのスケールファクタは、xとyの双方向においてfとなる。製造誤差に起因するレンズ軸ZCと画像面との直交度の欠落を考慮するために、研究コミュニティーは、図5に示される傾き軸推定(the tilted axis assumption)を紹介している。当該傾き軸推定においては、画像面がレンズ軸と垂直であるとみなされ得るように、画像面の軸の傾きが仮定される。
パラメータaは、カメラの画素格子配列の水平軸と完全に一直線に並ぶ、水平方向の画像スケールである;
aとは異なる垂直方向のスケールは、bとして設定されている;
画像面の垂直軸のスケールと向きは、傾斜パラメータsによって、軸YCに対して傾けられており、sは、画像スケールに対する傾斜のスケールメジャー(a scale measure)である。
は、同次座標における等価スケール演算子を表わす。
h11 = cosβ
h12 = sinβ sinα
h13 = sinβ cosα
h22 = cosα
h23 = -sinα
h31 = -sinβ
h32 = cosβ sinα
h33 = cosβ cosα
f=1とf=fの両平面間のホモグラフィー(homography)Hを次のように定義する:
ここで、記号
は、同次座標における等価スケールの演算子を表わす。予想されるように、H (方程式 (10)) の(2,1)要素は0であり、x軸がカメラ平面の水平格子と平行であることを意味している。第3行(方程式(10)参照)における透視要素h31とh32は、像中心から遠ざかる平面透視のスケール変化(scale change)を生成する。これらの要素は、カメラ平面がレンズ軸と垂直、すなわちα = β = 0であるときに、0になる。
ステップ1: [u v w]T = H [x’ y’ 1]T
u= f(cosβ x’+ sinβ sinα y’+ sinβ cosα)
v= f(cosα y’- sinα) (12)
w = - sinβ x’+ cosβ sinα y’+ cosβ cosα
ステップ2:単位のw=1への再変倍と、像点(x’’,y’’)を与える(CX,CY)の平行移動
x’’= (u/w + CX)
y’’= (v/w + CY) (13)
レンズ収差が無い場合、校正は、従って、2つの射影間の最良の一致を探索する。空間のあらゆる点は、2つの独立した投影面、すなわち実スケール面(true scale plane)と、傾いた画像面に写る。 上述のように、f = 1 (すなわち、実スケール)の平面は、 例示的に、レンズ軸と完全に垂直であり、6自由度:(κ φ Ω)と(TX TY TZ)を有し、提案する外部モデル(すなわち、カメラ座標とワールド座標との関係)を与える。fにおいて、カメラ(すなわち、結像)平面は、実スケール平面に対してスケールが変化しない:fにおける画像は、f=1の実スケール画像の単なる変倍したものではない。fにおいて、画像面は5自由度:面の傾き角度α、βと、像中心(CX,CY)と、焦点距離f、を有し、内部モデルを与える。
一旦カメラ平面の傾き角度α、βが適切に考慮されれば、カメラ画像は、レンズ軸Zcと完全に垂直な平面上で計算される、当該平面は、例えば、上述のように、検討される全ての面の視線であるレンズ軸Zcに対する垂直度を補正されたf = 1の平面、若しくはf = fの平面である。ここで議論される技術は、f = 1の平面とf = fの平面への投影を使用する撮像装置(例えば、カメラ)をモデル化するが、2よりも多い平面がレンズ収差のモデル化に使用され得ることを理解すべきである。f = 1は、外部モデルにおける投影であり、fは、画像面を定めるので、実際には、f = 1とf の各平面は、例示的に、最小要件である。幾つかの実施例において、1以上の中間の平面が、f = 1とf の各平面の間にモデル化されてもよい。例えば、第3中間平面が、撮像素子の最小の焦点距離fminに、f = 1とfminの各平面の間で計算される第1ホモグラフィーとf = fminとfの各平面間で計算される第2ホモグラフィーとを伴って、置かれてもよい。
x' = x + x (k1 r2 + k2 r4 + k3 r6) + p1*( r2 + 2 x2) + 2 p2 xy (14)
y' = y + y (k1 r2 + k2 r4 + k3 r6) + p2*( r2 + 2 y2) + 2 p1 xy,r2=x2+y2 (15)
ここで(x',y' )は、像中心(CX,CY)に対して計算された、点(x,y)の新たな位置を表わしており、k1,k2およびk3は、径方向の収差の3つの項であり、p1とp2は、偏心収差の2つの項である。校正は、パラメータk1、k2、k3、p1、およびp2の数値を得る。画像解析は、(x' y')を与える。歪みがない(x y)位置は、二次元探索アルゴリズムを用いて2つの方程式を解くことによって見つけられる。
r' = r + k1 r3 + k2 r5 + …(拡張可能) (16)
rが見つかると、完全径方向変位モデルからr'を知ることができ、rにおける奇数項を用いて拡張できる、ただし、r2=x2+y2である。図7において見受けられるように、完全径方向変位モデルは、幾何学的収差が完全に径方向変位であるとモデル化できる場合に用いることができる。外部モデルの像点(x,y)(例示的に、測定可能な量、例えば、画素よりも、インチ若しくはミリメートルで表現している)は、極座標(r,θ)によって表現できる、ただし、r2=x2+y2でありtanθ=y/xであり、xとyのうち少なくとも1つは非零であり、xとyは、像中心に対して与えられる。
1-緑チャンネルにおける幾何学的校正に基づく1つの中心;
2-赤、緑、及び青の各チャンネル独立の校正;
3-幾何学的校正に関する平均の赤、緑、及び青、色彩に関する赤と青の偏差。
ここで、図8aを参照すると、提案のカメラモデルを用いて上記のように像点の位置を計算するための方法100が図示されている。画像面に位置する像点を与えるために、三次元点は、3つの変換を経る。方法100は、ステップ102における、提案のカメラの外部モデルを用いるf=1の平面への投影、ステップ104におけるレンズ収差モデルの適用、およびステップ106におけるカメラの内部モデルを用いた傾いた画像面への投影を例示的に含んでいる。 ステップ106が実行された後に、カメラによって撮影された三次元点(X,Y,Z)に対応するカメラの像点の位置(x’’,y’’)が得られる。
P = [X Y Z 1]T
[ X’ Y’ Z’]T = [R3x3 T3x1][X Y Z 1]T
単位Z’へのスケーリングは、外部モデルの像点(x,y)を与える、ここで:
[x y 1]T = [X’/Z’ Y’/Z’ 1]T
[X’ Y’ Z’]T
次に、外部モデルの像点がステップ110で出力される。
r' = r + k1 r3 + k2 r5 + …(拡張可能),
ここでk1とk2とは、レンズの幾何学的収差パラメータである。θが判るか、若しくは、同様の三角形の特性を用いることによって、歪んだ像点(x’ y’)が、計算できる:
(x’,y’) = (r’cosθ,r’sinθ),
or (x’,y’) = (x r’/r,y r’/r)
次に、ステップ116において、歪んだ像点(x’,y’) が出力される。
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα)
v = f(cosα y’- sinα)
w = - sinβ x’+ cosβ sinα y’+ cosβ cosα
x’’= (u/w + CX)
y’’= (v/w + CY)
ここで、(x’’,y’’) はカメラの内部画像面上の像点であり、ステップ122において出力される。
および
を用いることができる。サインとコサインの他の近似が可能であることを理解すべきである。方程式(12)から下記にわかるように、 代入すると、 h33は、1になり、h13= fβとh23= -fαとは像中心の修正を生じ、h11とh22とは、fとなって、x、yにおける共通のスケールを与え、h12= fαβは、像の傾きの等価物を生成する。以前に示されているように、h31= -β とh32= αとは、0になり得ない。それらは、像中心に対して測定されたxとyに対するw’=1+ yα - xβによる再変倍の際に、像中心からx,yに沿って離れる透視の修正を、像に与える。
ここで、図10、図11、および図12の、三次元から二次元画像を生成する処理の校正モデルを参照する。2台の校正されたカメラから、二次元から三次元へのステレオペアの逆操作が用いられてモデルの正確さが確認される。
提案する実験の構成は、たとえ、低解像度の短波長赤外線(SWIR)撮像装置を用いても、現場で使用可能であることを目的としている。図10に図示されるように、90度をなす、2つの黒色のアルマイト処理されたアルミニウム(不図示)の平面上に、短波長赤外線スペクトルの表面放射特性を変化させるとともに、カラー校正用の白黒情報を与える、2つの円格子(不図示)が形成されている(例えば、彫られている)。
下記の表1に示されるように、同一の実験データを用いて、2つのカメラモデルについてパラメータの推定値が比較されている。
主なモデルバイアスの影響は、三次元スキャナーのアプリケーションに使われるような、ステレオペアに基づく三次元遠隔測定法に現れる。基本的に、数学的な三角測量処理が同じであるため、移動カメラに基づく三次元抽出にも同じ結論が当てはまる。
前もって言及したように、カメラモデルにおける提案の修正をしないと、三次元の三角測量の系統的誤差を生ずる。図13は、カメラで同時に撮影した2つの画像を用いて、三次元対象物の測定に一般に使用されるステレオペアを示している。三角測量についての詳細な考察は、非特許文献5に与えられている。
1. 光学中心OとO’
2. 焦点距離fとf’
3. 像中心(CX,CY)と(CX’,CY’)
4. レンズ軸の向きZC とZC’
5. 像点mとm’の正確さ
6. OMとO’Mとの交点
三次元遠隔測定の正確さに関する最初の4つの要件は、カメラの校正を通して見つけられる、5番目の要件は、サブピクセルの画像の特徴抽出によって見つけられる。最後の要件は、三角測量の三次元の復元そのものである。
− カメラ/レンズ モデル (像中心(CX,CY)における2画素誤差)
− サブピクセルのエッジの向きのバイアス (1/4画素のエッジシフト)
− サブピクセルのコーナー検出バイアス (1/4画素のコーナーずれ)
− 未考慮の色収差 (色に関する1/2画素のエッジシフト)
− 十分に補償されていない幾何学的収差 (容易に検出できない1/2画素の除去できない湾曲)
− サブピクセルレベルでのJPEG画像フィルタリング (JPEG質パラメータによって可変)
カメラモデルのバイアスとは別に、たいていのバイアス源は、特徴点抽出の誤差を生ずる。これらのバイアス源を除去することは利点の蓄積となる。広角のマイクロレンズを備えた低解像度のベイヤ・パターンカメラからでさえ、単にカメラの内部モデルを変更することによって10-10 mm の精度でfを得ることは、大幅な改良を示し、今まで何故正確なズームレンズモデルが不可能であったのかを説明する。
上述のように、すべてのレンズパラメータは、傾き軸推定と称されるカメラの内部モデルのバイアスによって「汚染」されている。当該バイアスは、傾き推定を、カメラの三次元内部画像面の正確な透視モデルに変更することによって除去できる。
ここで図14を参照すると、上述の予め校正されたテストカメラを用いるとともに、レンズの幾何学的収差が方程式(16)のように表現されている提案するアルゴリズムに基づいて、どのように画像からレンズ収差が除去されるのかを図14は示している。色収差は、白黒画像上では見ることができない。
次に、焦点距離4mmのCosmicar(登録商標)のCマウントレンズの色収差を図示する図15を参照する。一旦、真の像中心(CX,CY)が判ると、色収差がモデル化できる。たいていの画像において、被写体が完全な白黒でなく、カラーカメラで撮影されない場合は、色収差は殆ど見られない。非特許文献2は、各RGBカラーチャンネルがそれぞれ独立にモデル化されているモデルを提供する。
ここで、図18を参照すると、ベイヤ・パターンのカラーカメラは、R、G、若しくはBが前に付いた図18の画素番号で示される赤、緑、若しくは青の各画素に対して1つのカラー信号を付与する。失われたカラー情報は、隣接画素の情報を用いて補間される。
もしもエッジが水平であれば
(G12+G14)/2 (R13 > ( R3 +R23)/2) (11)
もしもエッジが垂直であれば
(G8 +G18)/2 (R13 > (R11+R15)/2) (12)
そうでなければ
(G12+G8+G14+G18)/4 (13)
ステップ2において、BとRのエッジがGエッジと同じ画像面の場所で幾何学的に見つけられると仮定して、失われたB値およびR値が、エッジ検出のために既知のGを用いて計算される。
監視、三次元遠隔測定法、およびスキャナーに関して、カメラ校正のバイアスを除去する必要性が示された。当該技術の他の重要なものは、以下を含むが、これらに限定されない:
1. オープン統合アーキテクチャを構築するためのソフトウェアによるアプローチ;
2. 広角レンズの使用の許容、若しくはレンズサイズの削減;
3. ズームレンズカメラのモデル化の許容;
4. 計算速度が速く、損失のない画像圧縮の追加する画像の幾何学的収差および色収差の補正アルゴリズム;
5.色収差により生ずるベイヤ・パターンの復元誤差の除去。
・精度を損なうことなくカメラの視野角を増加させる広角レンズの使用。1/3インチCCDとf = 4mmレンズとの組合せは、90度の視野角を与える。
・色収差のモデル化と、スペクトルにわたるサブピクセルのエッジ測定を加えることによるカメラの低解像度の補償。
・小型化:我々は、マイクロレンズを使用する校正と、略水素分子の大きさである10-10mmの精度の焦点距離の評価とを成し遂げた。
・SWIR、カラー合成画像、レーダー、およびLIDAR間のセンサの融合:正確な融合を達成するために、各画像スケールと像中心が知られる必要が有り、画像の収差は除去される。
その機器よりも正確な自動システムは無い。知的システム(IS)において、デジタルカメラを測定器として使用するためには、当該カメラの校正が必要である。
−サブピクセルのエッジの位置と向きとのバイアス;
−サブピクセルのコーナー検出バイアス;
−考慮されていない色収差;
−十分に補償されていない幾何学的収差;
−サブピクセルレベルでのJPEGの画像フィルタリング。
Claims (8)
- 校正と画像補正とを行う際に撮像装置をモデリングするために使用される、コンピュータによって実現される方法であって、前記方法は以下のものを備える:
前記撮像装置の焦点に原点を有する第1の3D直交座標系を定義すること、ただし、前記第1の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びている;
前記焦点から単位距離である1だけ離れた原点を有する、第2の3D直交座標系を定義すること、ただし、前記単位距離である1は、前記第2の3D直交座標系のスケール単位において定義されており、前記第2の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第2の3D直交座標系の第2軸および第3軸は、前記第1の3D直交座標系の第2軸および第3軸にそれぞれ実質的に平行であり、それによって前記第2の3D直交座標系の前記第2軸および前記第3軸は、前記視線に対して直角な実スケール面を規定しており;
前記焦点から焦点距離だけ離れた原点を有する、第3の3D座標系を定義すること、ただし、前記第3の3D座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第3の3D座標系の第2軸および第3軸は、前記第2の3D直交座標系の前記第2軸および前記第3軸の方向に対して相対的に第1と第2の角度だけ傾いており、それによって前記第3の3D座標系の前記第2軸および前記第3軸は、前記視線に対して相対的に非直角な画像面を規定しており;
前記撮像装置によってキャプチャされた実世界の3Dオブジェクトの点に関連づけられた3D座標を受け取ること;
前記実スケール面への前記点の投影を計算しそれによって第1の平面座標を得るとともに、前記画像面への前記点の投影を計算しそれによって第2の平面座標を得ること;および
前記3Dオブジェクトの前記点に対応する像点の位置を示す前記第2の平面座標を出力すること;
ここにおいて、
受け取った3D座標が[x y z 1] T であり、前記3Dオブジェクトの前記点の前記実スケール面への投影が、
は等価スケール演算子であり、P 1 は前記第1の3D直交座標系についての前記実スケール面への投影演算子であり、
前記3Dオブジェクトの前記点の前記画像面への投影は、
h 11 = cosβ,
h 12 = sinβ sinα,
h 13 = sinβ cosα,
h 22 = cosα,
h 23 = -sinα,
h 31 = -sinβ,
h 32 = cosβ sinα,および
h 33 = cosβ cosα
であり、
前記実スケール面と前記画像面との間のホモグラフィーHを、
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα),
v = f(cosα y’- sinα),
w = -sinβ x’+ cosβ sinα y’+ cosβ cosα,
であって 、(C X ,C Y ) は前記第3の3D座標系での前記原点の位置である。 - 請求項1の方法であって、前記実スケール面への前記点の前記投影が、外部から前記撮像装置のレンズシステムへの入射(entry)を規定(establish)するとともに、前記撮像装置の外部モデルと内部モデルとのうち外部モデルのみを用いた投影となるように前記第2の3D直交座標系が規定され、前記画像面への前記点の前記投影が前記レンズシステムからの出力を規定するとともに、前記撮像装置の内部モデルを用いた投影となるように前記第3の3D座標系が規定される、方法。
- 請求項1の方法であって、
前記実スケール面における前記撮像装置のレンズ収差を補償することをさらに備え、当該補償は、
r' = r + k1 r3 + k2 r5 + …,
のように定義されたレンズ収差補正モデルを適用することを備え、ここにおいて、前記第1の平面座標は前記実スケール面上の前記点の画像の歪みがない位置(x,y)を極座標(r,θ)で表現したものを備え、ここにおいて r2=x2+y2 および tanθ = y/xであり、xとyのうち少なくとも1つは非零であり、 (x’,y’) は前記画像面での前記点の投影前の前記レンズの出力において歪んだ位置(x,y)を表現しており、r’は (x’,y’)に基づいて計算され歪んだラジアル距離であり、そしてk1 および k2は前記レンズの幾何学的収差パラメータである、方法。 - 校正と画像補正との際に撮像装置をモデリングするために使用されるシステムであって、前記システムは、以下のものを備える:
メモリ;
プロセッサ;および
前記メモリに格納され、前記プロセッサによって以下のことを実行可能な少なくともひとつのアプリケーション、
前記撮像装置の焦点に原点を有する第1の3D直交座標系を定義すること、ただし、前記第1の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びている;
前記焦点から単位距離である1だけ離れた原点を有する、第2の3D直交座標系を定義すること、ただし、前記単位距離である1は、前記第2の3D直交座標系のスケール単位において定義されており、前記第2の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第2の3D直交座標系の第2軸および第3軸は、前記第1の3D直交座標系の第2軸および第3軸にそれぞれ実質的に平行であり、それによって前記第2の3D直交座標系の前記第2軸および前記第3軸は、前記視線に対して直角な実スケール面を規定しており;
前記焦点から焦点距離だけ離れた原点を有する、第3の3D座標系を定義すること、ただし、前記第3の3D座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第3の3D座標系の第2軸および第3軸は、前記第2の3D直交座標系の前記第2軸および前記第3軸の方向に対して相対的に第1と第2の角度だけ傾いており、それによって前記第3の3D座標系の前記第2軸および前記第3軸は、前記視線に対して相対的に非直角な画像面を規定しており;
前記撮像装置によってキャプチャされた実世界の3Dオブジェクトの点に関連づけられた3D座標を受け取ること;
前記実スケール面への前記点の投影を計算しそれによって第1の平面座標を得るとともに、前記画像面への前記点の投影を計算しそれによって第2の平面座標を得ること;および
前記3Dオブジェクトの前記点に対応する像点の位置を示す前記第2の平面座標を出力すること;
ここにおいて、前記少なくともひとつのアプリケーションが前記プロセッサによって実行されて、
前記3D座標[x y z 1] T を受け取ることと、前記3Dオブジェクトの前記点の前記実スケール面への投影を、
は等価スケール演算子であり、P 1 は前記第1の3D直交座標系についての前記実スケール面への投影演算子であり、
前記3Dオブジェクトの前記点の前記画像面への投影が、
h 11 = cosβ,
h 12 = sinβ sinα,
h 13 = sinβ cosα,
h 22 = cosα,
h 23 = -sinα,
h 31 = -sinβ,
h 32 = cosβ sinα,および
h 33 = cosβ cosα
であり、
前記実スケール面と前記画像面との間のホモグラフィーHを、
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα),
v = f(cosα y’- sinα),
w = -sinβ x’+ cosβ sinα y’+ cosβ cosα,
であって 、(C X ,C Y ) は前記第3の3D座標系での前記原点の位置である。 - 請求項4のシステムであって,前記少なくともひとつのアプリケーションが前記プロセッサによって実行されて、前記実スケール面への前記点の前記投影が外部から前記撮像装置のレンズシステムへの入射(entry)を規定(establish)するとともに、前記撮像装置の外部モデルと内部モデルとのうち外部モデルのみを用いた投影となるように前記第2の3D直交座標系を規定することと、前記画像面への前記点の前記投影が前記レンズシステムからの出力を規定するとともに、前記撮像装置の内部モデルを用いた投影となるように前記第3の3D座標系を規定すること、とが可能なシステム。
- 請求項4のシステムであって,前記少なくともひとつのアプリケーションが前記プロセッサによって実行されて、
前記実スケール面における前記撮像装置のレンズの収差を補償することが可能であり、当該補償は、
r' = r + k1 r3 + k2 r5 + …,
のように定義されたレンズ収差補正モデルを適用することを備え、ここにおいて、前記第1の平面座標は前記実スケール面上の前記点の画像の歪みがない位置(x,y)を極座標(r,θ)で表現したものを備え、ここにおいて r2=x2+y2 および tanθ = y/xであり、xとyのうち少なくとも1つは非零であり、 (x’,y’) は前記画像面での前記点の投影前の前記レンズの出力において歪んだ位置(x,y)を表現しており、r’は (x’,y’)に基づいて計算され歪んだラジアル距離であり、そしてk1 および k2は前記レンズの幾何学的収差パラメータである、システム。 - 請求項4のシステムであって,前記撮像装置が、ズームレンズカメラ、近赤外撮像装置、短波長赤外撮像装置、長波長赤外撮像装置、レーダ装置、光検出測距装置、パラボラミラー望遠イメージャ、外科的内視鏡カメラ、コンピュータ断層撮影走査装置、サテライト撮像装置、ソナー装置、およびマルチスペクトルセンサフュージョンシステムのうちのひとつを備える、システム。
- プロセッサによって実行されることによって、校正と画像補正との際に撮像装置をモデリングすることを可能なプログラムコードが格納されたコンピュータ読み取り可能な媒体であって、前記プログラムコードは、以下のことを可能とする:
前記撮像装置の焦点に原点を有する第1の3D直交座標系を定義すること、ただし、前記第1の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びている;
前記焦点から単位距離である1だけ離れた原点を有する、第2の3D直交座標系を定義すること、ただし、前記単位距離である1は、前記第2の3D直交座標系のスケール単位において定義されており、前記第2の3D直交座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第2の3D直交座標系の第2軸および第3軸は、前記第1の3D直交座標系の第2軸および第3軸にそれぞれ実質的に平行であり、それによって前記第2の3D直交座標系の前記第2軸および前記第3軸は、前記視線に対して直角な実スケール面を規定しており;
前記焦点から焦点距離だけ離れた原点を有する、第3の3D座標系を定義すること、ただし、前記第3の3D座標系の第1軸は、前記撮像装置の視線の方向に沿って伸びており、前記第3の3D座標系の第2軸および第3軸は、前記第2の3D直交座標系の前記第2軸および前記第3軸の方向に対して相対的に第1と第2の角度だけ傾いており、それによって前記第3の3D座標系の前記第2軸および前記第3軸は、前記視線に対して相対的に非直角な画像面を規定しており;
前記撮像装置によってキャプチャされた実世界の3Dオブジェクトの点に関連づけられた3D座標を受け取ること;
前記実スケール面への前記点の投影を計算しそれによって第1の平面座標を得るとともに、前記画像面への前記点の投影を計算しそれによって第2の平面座標を得ること;および
前記3Dオブジェクトの前記点に対応する像点の位置を示す前記第2の平面座標を出力すること;
ここにおいて、
受け取った3D座標が[x y z 1] T であり、前記3Dオブジェクトの前記点の前記実スケール面への投影が、
は等価スケール演算子であり、P 1 は前記第1の3D直交座標系についての前記実スケール面への投影演算子であり、
前記3Dオブジェクトの前記点の前記画像面への投影は、
h 11 = cosβ,
h 12 = sinβ sinα,
h 13 = sinβ cosα,
h 22 = cosα,
h 23 = -sinα,
h 31 = -sinβ,
h 32 = cosβ sinα,および
h 33 = cosβ cosα
であり、
前記実スケール面と前記画像面との間のホモグラフィーHを、
u = f(cosβ x’+ sinβ sinα y’+ sinβ cosα),
v = f(cosα y’- sinα),
w = -sinβ x’+ cosβ sinα y’+ cosβ cosα,
であって 、(C X ,C Y ) は前記第3の3D座標系での前記原点の位置である。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CA2819956 | 2013-07-02 | ||
CA2819956A CA2819956C (en) | 2013-07-02 | 2013-07-02 | High accuracy camera modelling and calibration method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522146A Division JP2016531281A (ja) | 2013-07-02 | 2014-07-02 | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019149809A JP2019149809A (ja) | 2019-09-05 |
JP6722323B2 true JP6722323B2 (ja) | 2020-07-15 |
Family
ID=52142954
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522146A Pending JP2016531281A (ja) | 2013-07-02 | 2014-07-02 | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 |
JP2019072152A Active JP6722323B2 (ja) | 2013-07-02 | 2019-04-04 | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522146A Pending JP2016531281A (ja) | 2013-07-02 | 2014-07-02 | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9792684B2 (ja) |
EP (1) | EP3017599A4 (ja) |
JP (2) | JP2016531281A (ja) |
KR (1) | KR20160030228A (ja) |
CN (1) | CN105379264B (ja) |
BR (1) | BR112015033020A2 (ja) |
CA (1) | CA2819956C (ja) |
RU (1) | RU2677562C2 (ja) |
WO (1) | WO2015000056A1 (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9262801B2 (en) * | 2014-04-01 | 2016-02-16 | Gopro, Inc. | Image taping in a multi-camera array |
CN104469167B (zh) * | 2014-12-26 | 2017-10-13 | 小米科技有限责任公司 | 自动对焦方法及装置 |
CN105678748B (zh) * | 2015-12-30 | 2019-01-15 | 清华大学 | 三维监控系统中基于三维重构的交互式标定方法和装置 |
DE102016002186A1 (de) * | 2016-02-24 | 2017-08-24 | Testo SE & Co. KGaA | Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes |
EP3217355A1 (en) * | 2016-03-07 | 2017-09-13 | Lateral Reality Kft. | Methods and computer program products for calibrating stereo imaging systems by using a planar mirror |
US10922559B2 (en) * | 2016-03-25 | 2021-02-16 | Bendix Commercial Vehicle Systems Llc | Automatic surround view homography matrix adjustment, and system and method for calibration thereof |
US10371512B2 (en) | 2016-04-08 | 2019-08-06 | Otis Elevator Company | Method and system for multiple 3D sensor calibration |
EP3236286B1 (en) * | 2016-04-18 | 2023-01-25 | Otis Elevator Company | Auto commissioning system and method |
DE102016217792A1 (de) | 2016-09-16 | 2018-03-22 | Xion Gmbh | Justiersystem |
CN106643669B (zh) * | 2016-11-22 | 2018-10-19 | 北京空间机电研究所 | 一种多镜头多探测器航空相机单中心投影转换方法 |
KR101905403B1 (ko) | 2017-02-15 | 2018-10-08 | 동명대학교산학협력단 | 벡터 콘텐츠 인증 보안을 위한 다중 스케일 곡률기반 벡터 데이터 해싱기술 |
JP7002007B2 (ja) * | 2017-05-01 | 2022-01-20 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
US10777018B2 (en) * | 2017-05-17 | 2020-09-15 | Bespoke, Inc. | Systems and methods for determining the scale of human anatomy from images |
CN110868908B (zh) * | 2017-06-15 | 2022-04-08 | 富士胶片株式会社 | 医用图像处理装置及内窥镜系统以及医用图像处理装置的工作方法 |
CN107895347A (zh) * | 2017-07-20 | 2018-04-10 | 吉林大学 | 一种视觉自适应调节显示装置及方法 |
WO2019039997A1 (en) * | 2017-08-25 | 2019-02-28 | Maker Trading Pte Ltd | GENERAL SYSTEM FOR MONOCULAR ARTIFICIAL VISION AND METHOD FOR IDENTIFYING LOCATIONS OF TARGET ELEMENTS |
CN107632407B (zh) * | 2017-11-08 | 2020-02-04 | 凌云光技术集团有限责任公司 | 一种柱透镜成像系统的校准装置 |
CN108169722A (zh) * | 2017-11-30 | 2018-06-15 | 河南大学 | 一种未知干扰影响下传感器的系统偏差配准方法 |
CN108038888B (zh) * | 2017-12-19 | 2020-11-27 | 清华大学 | 混合相机系统的空间标定方法及装置 |
KR102066393B1 (ko) * | 2018-02-08 | 2020-01-15 | 망고슬래브 주식회사 | 메모지 촬영 및 서버 공유 시스템, 방법 및 컴퓨터 판독가능 기록 매체 |
US11061132B2 (en) | 2018-05-21 | 2021-07-13 | Johnson Controls Technology Company | Building radar-camera surveillance system |
JP2020008434A (ja) * | 2018-07-09 | 2020-01-16 | オムロン株式会社 | 3次元測定装置及び方法 |
CN109167992A (zh) * | 2018-08-08 | 2019-01-08 | 珠海格力电器股份有限公司 | 一种图像处理方法及装置 |
CN109143207B (zh) * | 2018-09-06 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 激光雷达内参精度验证方法、装置、设备及介质 |
CN111047643B (zh) * | 2018-10-12 | 2023-06-27 | 深圳富联富桂精密工业有限公司 | 单目测距装置 |
CN109612384B (zh) * | 2018-11-01 | 2020-11-06 | 南京理工大学 | 一种基于频谱亚像素平移的倾斜像差校正补偿方法 |
CN109506589B (zh) * | 2018-12-25 | 2020-07-28 | 东南大学苏州医疗器械研究院 | 一种基于结构光场成像的三维轮廓测量方法 |
CN109901142B (zh) * | 2019-02-28 | 2021-03-30 | 东软睿驰汽车技术(沈阳)有限公司 | 一种标定方法及装置 |
CN109949367B (zh) * | 2019-03-11 | 2023-01-20 | 中山大学 | 一种基于圆形投影的可见光成像定位方法 |
CN111696047B (zh) * | 2019-03-14 | 2023-08-22 | 四川中测辐射科技有限公司 | 一种医用成像设备的成像质量确定方法及系统 |
CN111913169B (zh) * | 2019-05-10 | 2023-08-22 | 北京四维图新科技股份有限公司 | 激光雷达内参、点云数据的修正方法、设备及存储介质 |
CN110322519B (zh) * | 2019-07-18 | 2023-03-31 | 天津大学 | 一种用于激光雷达与相机联合标定的标定装置及标定方法 |
CN110596720A (zh) * | 2019-08-19 | 2019-12-20 | 深圳奥锐达科技有限公司 | 距离测量系统 |
CN111462245B (zh) * | 2020-01-09 | 2023-05-26 | 华中科技大学 | 一种基于矩形结构的变焦相机姿态标定方法和系统 |
TWI709780B (zh) * | 2020-01-21 | 2020-11-11 | 台灣骨王生技股份有限公司 | 紅外線鏡頭主動式成像校正裝置及方法 |
CN111355894B (zh) * | 2020-04-14 | 2021-09-03 | 长春理工大学 | 一种新型自标定激光扫描投影系统 |
CN111507902B (zh) * | 2020-04-15 | 2023-09-26 | 京东城市(北京)数字科技有限公司 | 一种高分辨率图像获取方法及装置 |
CN111514476B (zh) * | 2020-04-30 | 2022-03-15 | 江苏瑞尔医疗科技有限公司 | 一种用于x射线图像引导系统中的校准方法 |
CN111627072B (zh) * | 2020-04-30 | 2023-10-24 | 贝壳技术有限公司 | 一种对多传感器进行标定的方法、装置和存储介质 |
JP2023113980A (ja) * | 2020-07-13 | 2023-08-17 | パナソニックIpマネジメント株式会社 | 楕円検出方法、カメラ校正方法、楕円検出装置、及びプログラム |
CN112050752B (zh) * | 2020-09-02 | 2022-03-18 | 苏州东方克洛托光电技术有限公司 | 一种基于二次投影的投影仪标定方法 |
CN111986197A (zh) * | 2020-09-09 | 2020-11-24 | 福州大学 | 基于轮廓统计特性的部分参考声纳图像应用质量评价方法 |
CN112230204A (zh) * | 2020-10-27 | 2021-01-15 | 深兰人工智能(深圳)有限公司 | 激光雷达和相机的联合标定方法及装置 |
CN112634152A (zh) * | 2020-12-16 | 2021-04-09 | 中科海微(北京)科技有限公司 | 基于图像深度信息的人脸样本数据增强方法及系统 |
CN112883000B (zh) * | 2021-03-17 | 2022-04-15 | 中国有色金属长沙勘察设计研究院有限公司 | 一种形变监测雷达数据文件存储方法 |
CN113177989A (zh) * | 2021-05-07 | 2021-07-27 | 深圳云甲科技有限公司 | 一种口内扫描仪标定方法及装置 |
CN113284189A (zh) * | 2021-05-12 | 2021-08-20 | 深圳市格灵精睿视觉有限公司 | 畸变参数标定方法、装置、设备及存储介质 |
CN113487594B (zh) * | 2021-07-22 | 2023-12-01 | 上海嘉奥信息科技发展有限公司 | 一种基于深度学习的亚像素角点检测方法、系统及介质 |
CN113706607B (zh) * | 2021-08-18 | 2023-10-20 | 广东江粉高科技产业园有限公司 | 一种基于圆环阵列图的亚像素定位方法、计算机设备与装置 |
TWI789012B (zh) * | 2021-09-14 | 2023-01-01 | 明俐科技有限公司 | 藉由抖色處理對即時影像進行校正的校正方法及校正裝置 |
US11927757B1 (en) * | 2021-10-29 | 2024-03-12 | Apple Inc. | Electronic device display having distortion compensation |
CN114167663B (zh) * | 2021-12-02 | 2023-04-11 | 浙江大学 | 一种包含渐晕去除算法的编码光圈光学成像系统 |
CN114170314B (zh) * | 2021-12-07 | 2023-05-26 | 群滨智造科技(苏州)有限公司 | 一种基于智能3d视觉处理3d眼镜工艺轨迹执行方法 |
CN115272471B (zh) * | 2022-08-30 | 2023-07-28 | 杭州微影软件有限公司 | 一种光心位置的确定方法、装置及设备 |
CN116033733B (zh) * | 2022-08-30 | 2023-10-20 | 荣耀终端有限公司 | 一种显示设备的装配方法及显示设备 |
CN116839499B (zh) * | 2022-11-03 | 2024-04-30 | 上海点莘技术有限公司 | 一种大视野微尺寸2d及3d测量标定方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000227547A (ja) * | 1999-02-05 | 2000-08-15 | Fuji Photo Film Co Ltd | 撮影レンズおよびこれを用いるカメラ |
US6437823B1 (en) | 1999-04-30 | 2002-08-20 | Microsoft Corporation | Method and system for calibrating digital cameras |
JP4501239B2 (ja) | 2000-07-13 | 2010-07-14 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、並びに、記憶媒体 |
RU2199150C2 (ru) * | 2001-02-02 | 2003-02-20 | Курский государственный технический университет | Устройство калибровки оптикоэлектронной системы |
KR100386090B1 (ko) | 2001-04-02 | 2003-06-02 | 한국과학기술원 | 동심원 패턴을 이용한 카메라 내부변수 보정시스템 및카메라 보정방법 |
US6995762B1 (en) | 2001-09-13 | 2006-02-07 | Symbol Technologies, Inc. | Measurement of dimensions of solid objects from two-dimensional image(s) |
JP3624288B2 (ja) | 2001-09-17 | 2005-03-02 | 株式会社日立製作所 | 店舗管理システム |
US7068303B2 (en) | 2002-06-03 | 2006-06-27 | Microsoft Corporation | System and method for calibrating a camera with one-dimensional objects |
JP4147059B2 (ja) | 2002-07-03 | 2008-09-10 | 株式会社トプコン | キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置 |
KR100576874B1 (ko) * | 2004-10-25 | 2006-05-10 | 삼성전기주식회사 | 회절광학소자를 이용한 광학계 |
JP4681856B2 (ja) * | 2004-11-24 | 2011-05-11 | アイシン精機株式会社 | カメラの校正方法及びカメラの校正装置 |
US8082120B2 (en) | 2005-03-11 | 2011-12-20 | Creaform Inc. | Hand-held self-referenced apparatus for three-dimensional scanning |
WO2006094409A1 (en) | 2005-03-11 | 2006-09-14 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
DE102007045525A1 (de) * | 2007-09-24 | 2009-04-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildsensor |
CN101419705B (zh) | 2007-10-24 | 2011-01-05 | 华为终端有限公司 | 摄像机标定的方法及装置 |
KR100966592B1 (ko) | 2007-12-17 | 2010-06-29 | 한국전자통신연구원 | 영상에서 평행 사변형의 호모그래피를 이용한 카메라의 보정 방법 |
JP4751939B2 (ja) * | 2009-03-31 | 2011-08-17 | アイシン精機株式会社 | 車載カメラの校正装置 |
US8223193B2 (en) | 2009-03-31 | 2012-07-17 | Intuitive Surgical Operations, Inc. | Targets, fixtures, and workflows for calibrating an endoscopic camera |
ES2758734T3 (es) * | 2009-05-05 | 2020-05-06 | Kapsch Trafficcom Ag | Procedimiento para calibrar la imagen de una cámara |
US8223230B2 (en) * | 2009-05-08 | 2012-07-17 | Qualcomm Incorporated | Systems, methods, and apparatus for camera tuning and systems, methods, and apparatus for reference pattern generation |
CN101727671B (zh) * | 2009-12-01 | 2012-05-23 | 湖南大学 | 基于路面共线三点及其平行线的单摄像机标定方法 |
JP4763847B1 (ja) * | 2010-08-30 | 2011-08-31 | 楽天株式会社 | 画像変換装置、画像処理装置、ならびに、画像処理システム |
CN102466857B (zh) * | 2010-11-19 | 2014-03-26 | 鸿富锦精密工业(深圳)有限公司 | 取像镜头 |
US8711275B2 (en) * | 2011-05-31 | 2014-04-29 | Apple Inc. | Estimating optical characteristics of a camera component using sharpness sweep data |
JP5989113B2 (ja) | 2011-07-25 | 2016-09-07 | ウニベルシダデ デ コインブラ | 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置 |
-
2013
- 2013-07-02 CA CA2819956A patent/CA2819956C/en active Active
-
2014
- 2014-07-02 US US14/898,016 patent/US9792684B2/en active Active
- 2014-07-02 KR KR1020167003009A patent/KR20160030228A/ko not_active Application Discontinuation
- 2014-07-02 EP EP14820593.3A patent/EP3017599A4/en not_active Withdrawn
- 2014-07-02 RU RU2016103197A patent/RU2677562C2/ru not_active IP Right Cessation
- 2014-07-02 BR BR112015033020A patent/BR112015033020A2/pt not_active IP Right Cessation
- 2014-07-02 CN CN201480038248.5A patent/CN105379264B/zh not_active Expired - Fee Related
- 2014-07-02 JP JP2016522146A patent/JP2016531281A/ja active Pending
- 2014-07-02 WO PCT/CA2014/000534 patent/WO2015000056A1/en active Application Filing
-
2019
- 2019-04-04 JP JP2019072152A patent/JP6722323B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016531281A (ja) | 2016-10-06 |
CN105379264B (zh) | 2017-12-26 |
WO2015000056A1 (en) | 2015-01-08 |
KR20160030228A (ko) | 2016-03-16 |
EP3017599A1 (en) | 2016-05-11 |
CA2819956C (en) | 2022-07-12 |
JP2019149809A (ja) | 2019-09-05 |
EP3017599A4 (en) | 2017-11-22 |
RU2677562C2 (ru) | 2019-01-17 |
CN105379264A (zh) | 2016-03-02 |
BR112015033020A2 (pt) | 2017-10-03 |
RU2016103197A3 (ja) | 2018-05-17 |
US9792684B2 (en) | 2017-10-17 |
RU2016103197A (ru) | 2017-08-07 |
US20160140713A1 (en) | 2016-05-19 |
CA2819956A1 (en) | 2015-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6722323B2 (ja) | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 | |
CN107977997B (zh) | 一种结合激光雷达三维点云数据的相机自标定方法 | |
CN110809786B (zh) | 校准装置、校准图表、图表图案生成装置和校准方法 | |
CN107077743B (zh) | 用于阵列相机的动态校准的系统和方法 | |
JP4942221B2 (ja) | 高解像度仮想焦点面画像生成方法 | |
JP5580164B2 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
US20170256042A1 (en) | Methods and computer program products for calibrating stereo imaging systems by using a planar mirror | |
KR20160116075A (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
JP2011243205A (ja) | 映像処理システムおよびその方法 | |
CN109325981B (zh) | 基于聚焦像点的微透镜阵列型光场相机几何参数标定方法 | |
JPH09231373A (ja) | 三次元位置計測装置 | |
TW201340035A (zh) | 結合影像之方法 | |
CN110322485A (zh) | 一种异构多相机成像系统的快速图像配准方法 | |
KR20110073386A (ko) | 형태의 불변 어파인 인식을 위한 방법 및 장치 | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
Nozick | Multiple view image rectification | |
CN111292380B (zh) | 图像处理方法及装置 | |
RU2384882C1 (ru) | Способ автоматической компоновки ландшафтных панорамных изображений | |
JP2005275789A (ja) | 三次元構造抽出方法 | |
WO2022100668A1 (zh) | 温度测量方法、装置、系统、存储介质及程序产品 | |
KR20150119770A (ko) | 카메라를 사용한 3차원 좌표 측정 장치 및 방법 | |
Vupparaboina et al. | Euclidean auto calibration of camera networks: baseline constraint removes scale ambiguity | |
CN111080689B (zh) | 确定面部深度图的方法和装置 | |
Li et al. | Calibrating a camera focused on a long shot using a calibration plate and defocused corner points | |
Peng et al. | 3-D reconstruction using image sequences based on projective depth and simplified iterative closest point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6722323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |