JP2020532772A - 標的要素の位置を特定するためのマシンビジョンシステムおよび方法 - Google Patents
標的要素の位置を特定するためのマシンビジョンシステムおよび方法 Download PDFInfo
- Publication number
- JP2020532772A JP2020532772A JP2018523788A JP2018523788A JP2020532772A JP 2020532772 A JP2020532772 A JP 2020532772A JP 2018523788 A JP2018523788 A JP 2018523788A JP 2018523788 A JP2018523788 A JP 2018523788A JP 2020532772 A JP2020532772 A JP 2020532772A
- Authority
- JP
- Japan
- Prior art keywords
- optical device
- point
- output
- target
- calibration table
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/0755—Position control; Position detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F9/00—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
- B66F9/06—Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
- B66F9/075—Constructional features or details
- B66F9/20—Means for actuating or controlling masts, platforms, or forks
- B66F9/24—Electrical devices or systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
Landscapes
- Engineering & Computer Science (AREA)
- Structural Engineering (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Civil Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
1)適切な照明および限られた移動物体、
2)限られた3次元空間の狭い施設、
3)マーカーおよび記号がマシンビジョンの目的で戦略的に配置され得るような占有された空間、
4)予想されるシーンおよび知識による誘導を伴う空間、
5)中速から低速の物体の作動
を有するべきである。
限定はされないが、従来のイメージセンサ(電荷結合デバイスイメージセンサ、相補型金属酸化膜半導体センサなど)を有するカメラなどの個々の光学デバイスは各々、それらに特有の固有の方式で光線を屈折させる。
気付き得るように、マシンビジョンシステムの精度は、光学デバイスから得られる物理的な読取値(サブピクセル位置)の再現性に依存する。そのような再現性を維持するために、工場で実行され得る製造業者の較正に加えて、現場での較正が必要である。再現性に影響する2つの主要な要因がある。
a)ずれ。地面または車両に対するセンサの角度および場所は、外部の力によりずれることがある。
b)環境パラメータ。温度および湿度が主な要因である。
・たとえば、CT(x,y,z)に対する較正読取値がまず得られ、これは25℃では(s1,t1)、40℃では(s2,t2)、10℃では(s3,t3)である。
・5℃と25℃の間の温度Tでは、温度TにおけるCT(x,y,z)はs=s2-(25-T)/15*(s2-s1)であり、t=t2-(25-T)/15*(t2-t1)であるものとする。
・25℃と45℃の間の温度Tでは、温度TにおけるCT(x,y,z)はs=s2+(T-25)/15*(s3-s2)であり、t=t2+(25-T)/15*(t3-t2)であるものとする。
上のステップは、温度Tに対する較正テーブルの動作中の較正を行うために、較正テーブル(CT)の中のすべての点に適用され得る。
点字符号は、2次元平面において平坦と点の情報が提示されるという基本的な性質をもつ。機械点字符号のフォーマットが、図3(A)に示されるように提案される。このフォーマットは、予測不可能な歪み、ピクセル解像度の低下、および照明の変化のもとで、最大の信号対雑音比の基準に基づいて提案された。提案される機械点字符号のフォーマットは、二進符号化および二次元の相対的な位置決めを利用する。機械標識120は、情報124が後に続くヘッダ122を備える。各機械点字の「点」126は、上側のブロックを有する指示物として記述され得る左右逆の「7」の記号により表され、各「平坦」128は、下側のブロックを有する指示物として記述され得る「L」の記号により表される。上側のブロックを有する指示物は第1の状態を定義するために使用され、一方で下側のブロックを有する指示物は第2の状態を定義するために使用される。符号は正方形の標識の境界130内で垂直に延びる。異なる環境では、機械点字符号のための異なる「言語」のセットが必要であり得る。ヘッダ122は、標識の言語を指定する。指示物が時計回りに読まれ、「薄い」から「厚い」であると決定されるとき、この指示物は「点」であると定義され、指示物が反時計回りに読まれ、「薄い」から「厚い」であると決定されるとき、この指示物は「平坦」であると定義される。この性質は、あらゆる方向からの指示物の解釈を助ける。
標的要素は、図5に示されるように、対称的な幾何学的特徴と固有の色とを有するマーカーパターンと、符号が含まれている標識パターンとを用いて設計される。マーカーパターンの中の対称的な幾何学的特徴は、標的点の中心を定義する。固有の色およびパターンは、検出ステップの間にマーカーパターンが容易にフィルタリングされ得るように利用される。各標的要素の中の標識パターンは、マシンビジョンシステムによって読み取られ得る符号を含む。つまり、標的要素は、関連する標的情報を伴う機械符号と、標的中心を有する対称的な幾何学的図形のマーカーパターンとを備える、固有の記号として見なされ得る。標識パターンの中の機械符号は、雑音または無関係のパターンではなく、標的中心としての捕捉された画像の信頼性を検証するための手段も提供する。
本発明の実施形態では、本発明は2000万個のセンサを有するカメラ、成熟したカメラ技術を使用する。今日、カメラ製造業者は、5000万画素から1億2000万画素前後のセンサを有するカメラを生産している。視野角が120度のレンズも容易に入手可能である。距離の影響、および一般的な広角レンズの固有の性質により、理論的な最悪の場合のシナリオでは、ビューイングエリアの周辺で150%の画像の歪みを想定する。標的要素の距離が光学デバイスから1.5m離れているとき、10cm対10cmの標的要素は14400個のピクセルをカバーする。3mの距離において、かつ非線形性の影響により、最悪の場合、10cmの標的要素が約1600個のピクセルにより表される。これは、標的要素の中心が標的要素の中心のブロックに基づいてmm未満の距離まで正確に計算され得るので、許容可能である。最高で5語の機械点字は、40×40ピクセルから容易に読み取られる。実際に、2cm幅の機械点字符号は、150%の歪み率のもとで6メートル離れて読み取ることができると判定されている。
狭い開口が短距離のビジョンに使用されるが、ビジョンシステムが長距離モードで、たとえば6メートルを超えて使用されるとき、焦点合わせが必要であり得る。次いで、(s,t)(u,v)の読取値が、焦点合わせが原因のスケーリングを正規化するために、適切な焦点比を用いて調整されなければならない。
まとめると、マシンビジョンシステムは、以下の特性の両方を満たすことが可能である。
本発明の実施形態では、標的要素の3次元の場所はマッチングによって取得され得る。2つの標的要素がまず、上で説明された較正された光学デバイスの範囲内に置かれる。ここでのマシンビジョンシステムの目標は、次いで、2つの標的要素の間の固定された平面からの相対的な高さの差が知られており、2つの標的要素が相対的な距離Dだけ離れているという条件のもとで、たとえば、制約規則のセットが知られているという条件のもとで、光学デバイスに対する2つの標的要素の場所を位置特定することである。上記の平面はz軸に関して固定された方向にあるので、これは、2つの標的要素がz軸に沿って既知の相対的なずれz0を有すると解釈され得る。当業者は、標的要素がそのような制約を受けるだけではなく、この制約が物流業界において一般に発生する制約であるために選択されるということを認識するであろう。たとえば、両側の壁に接して置かれたペアの標的要素を伴う積荷は同じ高さに配置され、その積荷の幅は通常、標的要素のペアの間の距離を制約する。
図10は、距離の視差に基づく深度計算の方法を示す。図10(A)に示される例では、2つのカメラは110cmだけ離れている。3メートル先の視差に基づいて深度を解くために、3.73という深度対視差の比が観測される。3メートルにおけるピクセル分解能は600cm/5000=0.12cmである。2つのカメラの最悪の場合は0.24cmである。したがって、3メートルにおける深度分解能はピクセル当たり0.9cmである。単眼のデュアル標的要素システムでは、捕捉機構、すなわち標的要素は93cm離れているので、図10(B)に示されるように、2.5メートルにおいてピクセル当たり同じ0.9cmの深度分解能が予想され得る。以下のセクションでより詳細に説明されるように、標的要素はピクセルのグループからなる形状の端部を介して精度を積み上げることができ、これは、ピクセル位置の属性が深度計算の分解能を0.1cmに向上させることができることを意味する。
当然、あらゆる探索の目的は、較正テーブルを横断して、(s,t)の読取値が物理的な読取値と一致する場所のセット(最も単純な場合、ペア)を見つけることと、それらの場所が相対的な位置決めの制約を満たすことを見出すことである。レンズの単調な性質により、テーブルを探索する様々な方法がある。
・たとえば、探索は距離Dに基づいて実行され得る。CT(x,y,z)=(s,t)であるとすると、半径(x02+y02+Z02)1/2=Dとなるような半径(x02+y02)1/2の円上の点のセットを得ることができ、それにより、この円は(x,y,z)に中心を有する。z平面(z+z0)におけるその円上の点(x',y')がCT(x',y',z+z0)=(u,v)を有することが判明する場合、答えが得られる。(u,v)に最も近い値が受け入れられない場合、別のzが予想され、プロセスが繰り返される。
・より簡単な方法で例示すると、縮約された例は、標的点と標的点の間の縮約された制約規則についての後のセクションの前置きとして、ここで提示され得る。この例では、2つの標的点は、それらの間に距離Dの垂直方向の離隔を伴って、垂直の構成で配置されると仮定される。そのような場合、x0=y0=0かつz0=Dである。CT(x,y,z)=(s,t)であるとすると、相対的な制約規則を満たす(x,y,z+D)である唯一の点がある。したがって、CT(x,y,z+D)=(u,v)だけが検証される必要がある。
上の較正プロセスが2つの別個の光学デバイスに対して完了すると、それらは第1の光学デバイスから相対的な距離(x0,y0,z0)に配置された第2の光学デバイスとともに利用され得る。ある例として、第2の光学デバイスがy軸に沿って第1の光学デバイスから距離Yだけ右に配置される場合、第2のカメラのルックアップテーブルの中のy座標がYだけ減らされるものとする。このずれの正規化のプロセスは、ずれを打ち消すために実行される。一般に、第2のデバイスが第1のデバイスに対して(+x0,+y0,+z0)に位置しているとき、第2の較正テーブルの読取値は(x-x0,y-y0,z-z0)であるものとする。第2のデバイスの較正テーブルからの読取値は以後、(u,v)値と呼ばれる。
単純な適用例に対して容易に適用されるシステム較正手法が本明細書で説明される。ビジョンシステムを構成するために較正された光学デバイスを装着するのではなく、デバイスは較正の前に、たとえば110センチメートル離れて取付具に装着される。次いで、取付具が較正のために送られる。取付具は、レール付きの台に装着され、たとえば、較正画面から30センチメートルの場所と300センチメートルの場所の間で安定して動かされる。1センチメートル離れるごとに、各光学デバイスが別個のスクリーンショットをとり、サブピクセル分解能で最大250,000個の標的点を処理する。コンピューティングデバイスは、主要な光学デバイスに対する位置のエントリーに基づいて、読取値の両方のペアを1つのテーブルに記録する。二次的な光学デバイスの位置および標的点に対するその相対的な位置は記録されない。
上のセクションで説明されたように、多くの代替の探索方法が、較正テーブルを探索するために利用され得る。探索計算の複雑さが、それぞれ(s,t)および(u,v)に関する2つの点に対する制約規則を簡単にすることによって低減され得るように、いくつかの設定が用意される。以下のケースがより単純な制約規則を有することを指摘しておく。
a)2つの標的点がDだけ離れて垂直であると仮定する。そのような場合、x0=y0=0かつz0=Dである。CT(x,y,z)=(s,t)とすると、相対的な制約規則を満たす(x,y,z+D)である点は1つしかない。したがって、CT(x,y,z+D)=(u,v)かどうかを検証するだけでよい。
b)2つの標的点が水平であり、光学デバイスがそれらの標的点を接続する線に直交する角度(係合の角度)で撮影していると仮定する。そのような場合、z0=0、y0=0、かつx0=Dとなるように、デバイスと揃うように軸を回転することができる。CT(x,y,z)=(s,t)とすると、やはり(x+D,y,z)である点は1つしかない。したがって、CT(x+D,y,z)=(u,v)かどうかを検証するだけでよい。
c)2つの光学デバイスが垂直または水平な並びで置かれ、相対的な距離がDであり、標的要素が光学デバイスの対象範囲内にあると仮定する。垂直の場合、論理および式はa)と同じである。CT1(x,y,z)=(s,t)であるとすると、CT2(x,y,z+D)=(u,v)かどうかを検証するだけでよい。水平の場合、式はb)と同じである。CT1(x,y,z)=(s,t)であるとすると、やはり、CT2(x+D,y,z)=(u,v)かどうかを検証するだけでよい。
単一の光学デバイスを利用する代わりに、相対的な場所が固定されているいくつかの光学デバイスが利用されることがあり、それらの各々が固有の較正テーブルを有する。これは、ステレオビジョンのための従来のデュアルカメラからのより一般的な構成であり、固定された前方の指示方向と平行になるようにカメラを制約する。習慣的に、水平のデュアルカメラがマシンビジョンに利用される。実際には、カメラを水平にする必要はなく、ビジョンの分解能は影響を受けない。光学デバイスが垂直に、または対角方向の角に設置されることは、便利であり、または改善であり得る。対角の配置には、離隔距離が40%増えて、位置決めのための視差角を改善するという利点がある。垂直のペアは、空間的な制約のある場所によく収まり得る。ビジョンシステムに2つより多くの光学デバイスがあることに対する制約もない。
このセクションは、単眼ビジョンが標的要素のペアおよび辺上の二次的な光学デバイス2とともに使用される実施形態を説明する。二次的な光学デバイスは、(0,0,0)にある光学デバイス1を中心とする軸に対する座標(x1,y1,z1)を伴う、任意の場所にあり得る。この説明では、標的点1は(x,y,z)にあるように設定され、標的点2は(x',y',z+z0)にあるように設定され、2つの標的点の間の距離はDである。
視差は、上で説明されたようなステレオビジョンの基本的な要因である。標的点と光学デバイスとの間の光線の対称性は、視差が同じである限りシングル光学デバイス-デュアル標的点システムおよびデュアル光学デバイス-シングル標的システムが同じ距離分解能を提供することが可能であるという結論を与える。
上で言及されたように、縮約された構成は較正テーブル探索プロセスを簡単にするのを助ける。ここで、クロスアイシステムに対してビジョン深度の分解能がどのように2倍にされ得るかを実証するために、縮約されたクロスアイシステムが説明される。図16は、距離Dだけ離れた垂直に陳列される標的要素のペアと、距離Hだけ離れた垂直に設置される2つの光学デバイスとを示す。上の探索は、CT1(0,y,z)=(s,t)かつCT2(0,y,z-H-D)=(u,v)となるようなz平面上の(0,y,z)を見つけるために縮約される。そうすると、(0,y,z)および(0,y,z-D)が標的ペアの位置である。
光学デバイスが1秒未満で大きな角度回転することを可能にするために、光学デバイスに「首」が設けられ得る。そのような任意選択の回転台が設けられ得る。これらの台は、フォークリフト上で図17Aに示されるように、360度の回転角の能力を有する。カメラは回転台に装着されるので、車両は標的要素のビューを失うことなく広角に回転することができ、車両の操作に対する制約を大きく軽減する。これは、少なくとも2つの標的要素が視野内にあると仮定すると、複数の標的要素とともに1つの光学デバイスしか使用されないときに特に有用である。
x'=(x+ytan(A))cos(A)=xcos(A)+ysin(A)=0+0.86=0.86
y'=(y-xtan(A))cos(A)=ycos(A)-xsin(A)=0.5-0=0.5
ある好ましい実施形態では、上で説明された標的要素ベースのステレオマシンビジョンは、図17に示されるような改良されたフォークリフト70のいくつかの機能を誘導するために使用され得る。たとえば、少なくとも1つの広角の高解像度カメラ72が利用される。
海運コンテナに積荷を入れるとき、またはそこから積荷を降ろすとき、通常のマシンビジョンまたは人の視覚では、障害物が多いことにより、「目隠し」が発生する。そのような状況は、出荷コンテナの内壁に垂直な標的要素を貼り付けることにより解決される。積み込みの機械の回転ステージ上のカメラが各々、図18に示されるように単眼ステレオビジョンを有するものとし、より小さいサイズの積荷の積み込みでは、ステレオビジョンのための移動距離がより長い。
単眼ステレオビジョンの3D位置決めの実践的な能力が、積荷に接する複数の標的要素の実装形態を用いてここで実証される。これは図19に示される。通常、積荷、または具体的には貯蔵コンテナ10は、鉛直で正方形の前壁を伴う立方体の形状である。これは、左側および右側に垂直な標的要素の2つのペアを置くのに理想的である。2つのペアは地面から同じ高さであるので、標的要素の2つの水平なペア、たとえば、ULおよびURのペアとLLおよびLRのペアも生じる。逆の物理理論を利用することにより、これは4つの擬似カメラの作成をもたらし、各擬似カメラは4つの角の各々に位置する。単眼ステレオ位置決めはまた、6回、すなわち2つの垂直なペア、2つの水平なペア、および2つの対角のペアについて実行することができ、6回の各々において2つの標的要素を特定する。次いで、4つの点の3回の発見の平均が、より正確な場所を導くために使用され得る。積荷が1平方メートルより大きい(本発明における2倍のサイズの貯蔵コンテナ10の場合は2メートル×2メートルより大きい)場合、視差角はより短い距離しか離れていない単一のペアの視差角より大きく改善され、はるかに良好な位置決め分解能をもたらすことに留意されたい。また、対角のペアは、既知の距離および既知の高さの差を伴う標的要素のペアとして扱われ得ることに、留意することができる。単眼ステレオ位置決めは、そのような対角のペアから導かれることが可能であり、対角方向のより長い距離により、40%長い視差距離を用いて良好な分解能が得られる。
光学レンズの線形性、または線形性を目的とする固有の変換は、従来のビジョン位置決めのためのマシンビジョンシステムの位置決め精度を決める決定的な要因である。レンズ技術は、視野角が360度の光学デバイスがいくつかの適用形態に対して本明細書で利用されるほど、高速に進化している。そのようなレンズは、周辺を狭いディスプレイへと絞るために光線を曲げるので、極度に非線形である。本発明の実施形態を利用するシステムは、非線形性による問題を較正テーブルの探索に変換する。較正テーブルは、前と同じ較正手順により行われ、4回繰り返され、各々の回が精密回転ステージを介した90度の回転を伴う。各較正テーブルは、隣接する90度の角度の較正テーブルと重複する。4つのテーブルを、カメラからのすべての方向において正と負の両方の範囲をカバーするx軸およびy軸を伴う1つのテーブルへと組み合わせるために、テイラーリングおよびスティッチングが行われる。図20に示されるように、車両には、本発明の実施形態によるマシンビジョンシステムを利用する、360度の視野角の光学デバイスが搭載され得る。そうすると、この車両は、自身を位置決めし、可動の標的の場所を検出し、標的の周りの機械符号を読み取ることが可能である。
場所を指定するとき、線形に解釈される0.063cmの分解能を得るために分解能属性が使用され得る。セル間の線形補間は「空間解釈」と名付けられる。この精密な属性がこの点において無視されるべきではないような、多数のさらなる計算がある。さらに、cm未満の場所情報を無視すると、画像の場所分解能により生成される、動きの間の人工的な加速(およびさらなる誤差)が生じ、混乱を引き起こして、動きの軌跡の検出の間に移動平均が必要になる。
前に言及された2次元の空間解釈が以下で説明される。
a)4つの辺のうち、2つの辺がSをカバーするs値の範囲を有し、そのような2つの点は(S,T1)および(S,T2)の読取値を伴う。
b)T1、T2の範囲は値Tを含む。
2次元空間または3次元空間が単位長の空間パラメータ(または単位角度測定値)により表されるとき、それは、連続的な点における状態のみが、いくつかのパラメータにより測定および/または記録されるという点で、離散系である。得られた較正テーブルは1つのそのような例である。x、y、およびz軸の方向への各単位長のインクリメントは、x、y、およびz軸の値に相関する記録のセットを与えられる。
基本単位より小さいオーダーの大きさの分解能で指定される、位置と関連付けられる値に対する補間に基づく2次元の正方形または3次元の直方体の中での精密な位置を予想する空間解釈が、本明細書で説明される。ここで、ピクセル化された解釈は逆に機能する。標的点を表すピクセルのセットに対する累積された情報に基づいて、ピクセルアドレスの精密な読取値が予想され、これはピクセル距離よりも精密な大きさのオーダーである。これは図22に示される。ピクセル分解能の最悪のケースが偶然、ピクセル化された解釈に対する最良のケースであることがある。6kの解像度、120度の視野、および3メートルの離隔の実装形態では、ピクセル分解能は、歪みを考慮しないと1センチメートル当たり6である。物理的な標的要素は、幅および高さが0.5cmとなるように設計される。
センチメートル未満の、2つの物体の間の相対的な場所および距離の精度が非常に重要になり得る。ピクセル分解能が0.5から1センチメートルであるとき、ミリメートル以内での標的点の位置決めが、たとえば物体または機械符号の相対的な開始点のために使用され得る。
図10は、深度知覚とセンサ分解能との間の直接の対応付けを示す。従来の視差生成は対応付けの発見に依存し、これはピクセル分解能によっても制限される。標的点およびピクセル化された解釈により、最高でピクセル分解能の10%まで視差のずれを検出できるので、深度知覚が1桁向上する。
どのような様々な構成においても、マシンビジョンの精度は、水平線の正確な知識または測定に依存する。多くの場合、z軸のずれが0であることを確実にするためだけに、z軸に対するずれが、デュアル標的点ならびにデュアルカメラステレオビジョンのために知られている必要がある。回転ステージ上のカメラおよびデュアル標的の場合、提案される手法の1つは、角度または係合が90度になる箇所まで回転することである。そのような場合、ピクセル分解能の10倍が、0.1度の精度でカメラ角度を調整するために必要である。
図23は、1.5メートルの高さにある単眼光学デバイスが設けられた取扱機械を示す(縮尺通りではない)。シーンにおいて2つのタイプのマーカーがあり、一方はグローバルな原点に対する絶対座標を伴い、他方は標的タイプを示す情報を除き既知の位置を伴わず、これは実質的に、ある積荷のタイプの反対側に対となる標的があることを述べている。マシンビジョンはまず、第1の標的タイプを参照することによって、固有の場所および向きを特定する。ビューの端部にある壁にマーカーがあり、離れており傾いているので小さい別のマーカーが地面にある。3メートルの高さで視野角が良好である、他の2つのマーカーが柱にある。
図24は、図23の構成の続きであり、標的の場所を得るための単眼z平面結合制約規則探索方法の例をより詳細に示す。例示を目的に、対角の標的要素が使用される。カメラ290は、左上の標的要素293および右下の標的要素294より高い場所にあると仮定される。z1という値を有するz平面297が最初に選択される。制約規則に従って、下側の標的点は(z1-z0)平面として設定され、標的293および294の標的中心はD=110cm離れている。まとめると、z0は標的間の垂直方向の距離である。(s,t)という読取値を有する点291がz1平面上で発見され、(u,v)という読取値を有する点292が(z1-z0)平面上で発見される。しかしながら、点291と292の間の距離は距離Dより短く、すなわち110cmより短いことが発見される。
図25Aおよび図25Bに示されるように、積荷が傾斜した斜路に設けられており、明白に傾いている。図25Aからわかるように、2つの標的要素((x3,y3,z3)および(x4,y4,z4)における)が斜路の地面から「z」cmの高さに設けられるが、これらの標的要素はもはや、z軸のz=-1.5の水準から測定されない。逆に、光学デバイスは実際に、z=0となるような平面に平行な平面に設けられることに留意されたい。
y=y1+[(y2-y1)/(x2-x1)]*x
z=M*((x2-x1)/((y2-y1)2+(x2-x1)2)1/2)(y-y1-((y2-y1)/(x2-x1)*x)-1.5
参照平面が定義されると、次いで、すべての前に説明された探索方法が適用され得る。
図15への参照が行われる。y軸は深度を表し、z軸は垂直方向を表す。パラメータ値は例示の目的で追加される。
光学デバイス1の較正テーブルCT1(x,y,z)=(s,t)が、次のようにカメラ較正プロセスから記録される。
y=1 x= -4 -3 -2 -1 0 1 2
z=-2 4,2 3,2 2,2 1,2 0,3 -1,3 -2,3
-3 4,3 3,3 2,3 1,3 0,4 -1,4 -2,4
-4 4,4 3,4 2,4 1,4 0,4 -1,4 -1,4
-5 4,5 3,5 2,5 1,5 0,5 -1,5 -1,5
y=2 x= -4 -3 -2 -1 0 1 2
z=-2 8,3 6,3 4,4 2,4 0,4 -2,4 -4,4
-3 8,6 6,6 4,6 2,6 0,6 -2,6 -4,6
-4 8,7 6,7 4,7 2,8 0,8 -2,8 -4,8
-5 8,10 6,10 4,10 2,10 0,10 -2,9 -4,9
y=3 x= -4 -3 -2 -1 0 1 2
z=-2 12,6 9,6 6,6 3,6 0,6 -3,6 -5,6
-3 12,9 9,9 6,9 3,9 0,9 -3,9 -6,10
-4 12,12 9,12 6,12 3,12 0,12 -3,11 -6,11
-5 12,14 9,14 6,14 3,14 0,14 -3,14 -6,14
y=4 x= -4 -3 -2 -1 0 1 2
z=-2 16,8 12,8 8,8 4,8 0,8 -4,8 -7,8
-3 15,11 11,11 8,11 4,12 0,12 -4,12 -8,12
-4 15,15 11,15 8,16 4,16 0,16 -4,16 -8,16
-5 15,19 11,19 8,19 4,19 0,19 -4,19 -8,19
y=5 x= -4 -3 -2 -1 0 1 2
z=-2 20,10 15,10 10,10 5,10 0,11 -5,11 -9,11
-3 20,15 15,15 10,15 5,15 0,15 -5,15 -9,15
-4 20,20 15,20 10,20 5,20 0,20 -5,20 -9,20
-5 20,24 15,24 10,24 5,24 0,24 -5,24 -9,24
y=1 x= 0 1 2 3 4 5
z=-4 0,4 -1,4 -2,4 -3,4 -3,4 null
-5 0,5 -1,5 -2,5 -3,5 -3,5 null
-6 0,6 -1,6 -2,6 -3,6 -3,6 null
y=2 x= 0 1 2 3 4 5
z=-4 0,8 -2,8 -4,8 -6,8 -7,8 null
-5 0,10 -2,10 -4,10 -6,10 -7,10 null
-6 0,11 -2,11 -4,12 -6,12 -7,12 null
y=3 x= 0 1 2 3 4 5
z=-4 0,12 -3,12 -6,12 -9,12 -11,12 null
-5 0,15 -3,15 -6,15 -9,15 -11,15 null
-6 0,17 -3,18 -6,18 -9,18 -12,18 null
y=4 x= 0 1 2 3 4 5
z=-4 0,16 -4,16 -8,16 -13,15 -15,15 null
-5 0,19 -4,19 -8,19 -13,19 -16,19 null
-6 0,23 -4,23 -8,23 -13,23 -16,23 null
両方のテーブルが単調であり、適度に非線形であると考えられる。
図15への参照が行われる。位置決めは、各々が標的点1〜4を捕捉し各標的点と関連付けられる(s,t)値を生成する、既知の場所にある光学デバイスとともに開始する。各標的点と各光学デバイスとの間の見通し線が、見通し線R1、R2、...Riにより表されている。まとめると、CT1は光学デバイス1を指し、CT2は光学デバイス2を指す。以下で示される(x,y,z)値は、前に生成された較正テーブルから得られるような生成された(s,t)値と関連付けられる例示的な値である。この例では、標的点2は標的点1からのzのずれ、すなわちz1+1を提示するマーカーを含むと仮定される。
R1:CT2(x1,y1,z1)=(0,15)
R2:CT2(x2,y2,z1+1)=(-13,15)
R3:CT1(x1,y1,z1)=(11,11)
R4:CT1(x2,y2,z1+1)=(0,11)
R5:CT1(x3,y3,z1-1)=(-6,11)
R6:CT2(x3,y3,z1-1)=null
R7:CT1(x4,y4,z1+1)=(-5,6)
3つの標的点の位置が図15に示されているが、これらの位置は最初に提供されず、較正テーブルを横断することにより得られる。
この例では、光学デバイス1と標的点1および2との間の単眼ビジョンが説明される。光学デバイス1は、標的点1および標的点2の(s,t)の読取値を取得するために使用される。これを表す2本の光線は以下の通りである。
R3:CT1(x1,y1,z1)=(11,11)、R4:CT1(x2,y2,z1+1)=(0,11)
現実の世界では、較正テーブルは7500万個のエントリーを備えるので、(s,t)の読取値は、強引な方法を使用してこのテーブルから得ることが簡単ではないであろう。したがって、較正テーブルを横断するためにz平面探索が使用される。
z=-4
x= -4 -3 -2 -1 0 1 2
y=1 4,4 3,4 2,4 1,4 0,4 -1,4 -1,4
y=2 8,7 6,7 4,7 2,8 0,8 -2,8 -4,8
y=3 12,12 9,12 6,12 3,12 0,12 -3,11 -6,11
y=4 15,15 11,15 8,16 4,16 0,16 -4,16 -8,16
y=5 20,20 15,20 10,20 5,20 0,20 -5,20 -9,20
R3の(s,t)値は(11,11)であり、この(s,t)値は上に示されたセクションにおいて見つからないことがある。したがって、下で説明されるような線形補間方法を採用する選択肢がある。
図11(A)への参照が行われる。線形補間がまずz=-4におけるテーブルの4つの角およびそれらの関連する(s,t)値に適用される。テキストでの説明のように、以下を使用する。
s=11→ x=-4であるようなY1を端部で見つける:
Y1=y0+(y方向のグローバルな長さ)*(x=-4に対するsの補間された比)
=y0+(|y1-y0|)*(|s-s00|)/(|s01-s00|)
=1+4*(7/16)=2.75
y=5であるようなX2を端部で見つける:
X2=x0+(x方向のグローバルな長さ)*(y=5に対するsの補間された比)
=x0+(|x1-x0|)*(|s-s01|)/(|s11-s01|)
=-4+6*(9/29)=-2.14
したがって、接続された線分上の任意の点がs=11を有する。
Sの線はy=Y1+(x-X1)*((Y2-Y1)/(X2-X1))
t=11であるS上の点で補間する→
(-4,2.75)において、CT1(-4,2.75)=(11,11)
(-2.14,5)において、CT1(-2.14,5)=(11,20)
(-4,2.75)はz=-4において較正テーブル1上で(11,11)という補間された値を有すると特定される。
ローカルの勾配ステッピングは、z平面の端部から任意で横断することにより実行され得る。ローカルの勾配ステッピングの方法は次のように提示される。
→CT1(-2,2,-4)=(4,7)が最小値|s-11|+|t-11|=11を有する。
→CT1(-3,3,-4)=(9,12)が最小値|s-11|+|t-11|=3を有する。
→CT1(-2,4,-4)=(8,16)は最小値|s-11|+|t-11|=8を有する。
→CT1(-3,3,-4)=(9,12)は最小値|s-11|+|t-11|=3を有し、これはより前の横断と同じ行先である。
光学デバイス1の較正テーブルを横断する上の代替形態に基づいて、4つの隣接するエントリーの正方形が選択される。
X= -4 -3
y=2 8,7 6,7
y=3 12,12 9,12
ただし、(-4,2)(-4,3)のセグメントおよび(-3,3)(-4,3)のセグメントに対するs値の範囲はs=11をカバーし、(-4,2)(-4,3)のセグメントおよび(-3,2)(-3,3)のセグメントに対する範囲はt=11をカバーする。
標的点2に対するz平面探索はz=-3においてであり、それは、標的点2の位置が1単位高く、z1+1にあると指定されるからである。この情報は、標的点に取り付けられ得る機械点字言語を使用してカメラに伝えられてよく、または、カメラが標的点の(s,t)値を生成する際にこの情報を捕捉できるように、標的点に隣接して配置されてよい。下の格子は、z=-3に対する較正テーブルの例示的なセクションを示す。
x= -4 -3 -2 -1 0 1 2
y=1 4,3 3,3 2,3 1,3 0,4 -1,4 -2,4
y=2 8,6 6,6 4,6 2,6 0,6 -2,6 -4,6
y=3 12,9 9,9 6,9 3,9 0,9 -3,9 -6,10
y=4 15,11 11,11 8,11 4,12 0,12 -4,12 -8,12
y=5 20,15 15,15 10,15 5,15 0,15 -5,15 -9,15
X= 0
Y=3 0,9
Y=4 0,12
z=-3においてx=0、y=3,7
ここで、異なるz軸値、たとえばz1=-4に対してプロセスを繰り返す代わりに、ローカルの勾配ステッピング方法は、近隣のz平面に適用され得る。ここで、ローカルの勾配ステッピング方法はステッピング距離を制約しないので、zが1より大きく変化するときに都合よく使用され得ることを指摘しておくことが有用である。
CT1(-3,4,-3)=(11,11)および
CT2(0,5,-2)=(0,11)
1)光学デバイス1および標的点1で開始する。z1のさらなる値から、z平面上で、(s,t)=(11,11)の読取値に近い(s,t)を伴う(x11,y11)セルが線形解釈を使用して得られる。
2)例におけるエントリーの数は小さい。ローカルの勾配ステッピングが次いで、離れた距離からのステッピングにより実演される。
3)次いで、(s,t)=(11,11)となるような正確な(x12,y12)を得るために、2次元の空間解釈が適用される。
4)上のステップが、上のz値からz0離れたz平面上の標的点2に対して繰り返され、(u,v)=(0,11)となるような(x22,y22)が得られる。
5)(x12,y12)と(x22,y22)の間の距離はD12より24%長く、これは新しいz平面に対して予想される新しいz2の値を与える。
6)(x13,y13,z2)を得るために(x12,y12,z1)からローカルの勾配ステッピングが適用される。(x23,y23,z2+1)を得るために(x22,y22,z2+1)からローカルの勾配ステッピングが適用される。(x13,y13,z2)と(x23,y23,z2+1)との間の距離はD12と等しいことが発見されるので、マッチが得られる。
光学デバイス1と標的点3および4との間の縮約されたケースがこのセクションで説明される。対応する光線は次の通りである。
R5:CT1(x3,y3,z1-1)=(-6,11)
R7:CT1(x4,y4,z1+1)=(-5,6)
CT1(x,y,z)=(-6,11)かつCT1(x,y,z+2)=(-5,6)
となるような(x,y,z)を見つけることである。
z=-2
y=3 x= -4 -3 -2 -1 0 1 2
z=-2 12,6 9,6 6,6 3,6 0,6 -3,6 -5,6
-3 12,9 9,9 6,9 3,9 0,9 -3,9 -6,10
-4 12,12 9,12 6,12 3,12 0,12 -3,11 -6,11
-5 12,14 9,14 6,14 3,14 0,14 -3,14 -6,14
そのような構成では、位置はR3を介して標的点1から光学デバイス1へと変換し、次いで光学デバイス間の既知の相対的な場所を介して光学デバイス2へと変換し、次いで標的点2に回る。視差は2倍になる。例は次の通りである。
R2:CT2(x2,y2,z1+1)=(-13,15)
R3:CT1(x1,y1,z1)=(11,11)
z=-2
x= -4 -3 -2 -1 0 1 2
y=1 4,2 3,2 2,2 1,2 0,3 -1,3 -2,3
y=2 8,3 6,3 4,4 2,4 0,4 -2,4 -4,4
y=3 12,6 9,6 6,6 3,6 0,6 -3,6 -5,6
y=4 16,8 12,8 8,8 4,8 0,8 -4,8 -7,8
y=5 20,10 15,10 10,10 5,10 0,11 -5,11 -9,11
z=-3
x= -4 -3 -2 -1 0 1 2
y=1 4,3 3,3 2,3 1,3 0,4 -1,4 -2,4
y=2 8,6 6,6 4,6 2,6 0,6 -2,6 -4,6
y=3 12,9 9,9 6,9 3,9 0,9 -3,9 -6,10
y=4 15,11 11,11 8,11 4,12 0,12 -4,12 -8,12
y=5 20,15 15,15 10,15 5,15 0,15 -5,15 -9,15
z=-4
x= 0 1 2 3 4 5
y=1 0,4 -1,4 -2,4 -3,4 -3,4 null
y=2 0,8 -2,8 -4,8 -6,8 -7,8 null
y=3 0,12 -3,12 -6,12 -9,12 -11,12 null
y=4 0,16 -4,16 -8,16 -13,15 -15,15 null
仕事は、標的点1、2、および3の位置を得るために、光学デバイス1によって上記の3つの標的点の読取値を使用することである。すなわち、CT(x1,y1,z1)=R3、CT1(x2,y2,z1+z2)=R4、かつCT(x3,y3,z1+Z3)=R5であり、D12、D23、およびD13が正しくなるような、x1、y1、z1、x2、y2、x3、y3を見つける。
R3:CT1(x1,y1,z1)=(11,11)
R4:CT1(x2,y2,z1+1)=(0,11)
R5:CT1(x3,y3,z1-1)=(-6,11)
z=-5
x= -4 -3 -2 -1 0 1 2
y=1 4,5 3,5 2,5 1,5 0,5 -1,5 -1,5
y=2 8,10 6,10 4,10 2,10 0,10 -2,9 -4,9
y=3 12,14 9,14 6,14 3,14 0,14 -3,14 -6,14
y=4 15,19 11,19 8,19 4,19 0,19 -4,19 -8,19
y=5 20,24 15,24 10,24 5,24 0,24 -5,24 -9,24
z=-4
x= -4 -3 -2 -1 0 1 2
y=1 4,4 3,4 2,4 1,4 0,4 -1,4 -1,4
y=2 8,7 6,7 4,7 2,8 0,8 -2,8 -4,8
y=3 12,12 9,12 6,12 3,12 0,12 -3,11 -6,11
y=4 15,15 11,15 8,16 4,16 0,16 -4,16 -8,16
y=5 20,20 15,20 10,20 5,20 0,20 -5,20 -9,20
これは、CT1(2,3,-4)=(-6,11)であることを意味する。最初の2は、2つの標的点の例ですでに発見されている。標的点1と3との間の距離は6.2であることが発見され、標的点2と4との間の距離は4.1であることが発見された。距離の条件は満たされている。したがって、すべての3つのマッチを発見した。
R3:CT1(-3,4,3)=(11,11)
R4:CT1(0,5,-2)=(0,11)
R5:CT1(2,3,-4)=(-6,11)
このセクションは、2つのカメラがビジョン範囲の中のある標的点に面しているシナリオを説明する(これは、システムがy0=0かつz0=0へと縮約される従来の2カメラステレオビジョンより1ステップ進化している。「対応付け」を見つける従来のステレオビジョンは、この構成では、標的要素を配置し標的点の中心を特定することにより置き換えられる)。
R4:CT2(x2,y2,z2)=(0,11)
R2:CT2(x2-x0,y2-y0,z2-0)=CT2(x2+3,y2-1,y2-2)=(-13,15)
z=-2
x= -4 -3 -2 -1 0 1 2
y=1 4,2 3,2 2,2 1,2 0,3 -1,3 -2,3
y=2 8,3 6,3 4,4 2,4 0,4 -2,4 -4,4
y=3 12,6 9,6 6,6 3,6 0,6 -3,6 -5,6
y=4 16,8 12,8 8,8 4,8 0,8 -4,8 -7,8
y=5 20,10 15,10 10,10 5,10 0,11 -5,11 -9,11
z=-4
x= 0 1 2 3 4 5
y=1 0,4 -1,4 -2,4 -3,4 -3,4 null
y=2 0,8 -2,8 -4,8 -6,8 -7,8 null
y=3 0,12 -3,12 -6,12 -9,12 -11,12 null
y=4 0,16 -4,16 -8,16 -13,15 -15,15 null
探索較正テーブル選択方法に基づいて、下記の逆テーブルを次のように得ることができる。要約であるので、sおよびtの値はグループへとグループ化されると仮定され、それにより、0〜4の間の値は0として表され、5〜9の間の値は9として表され、10〜14の間の値は10として表され、15〜19の間の値は15として表され、20〜24の間の値は20として表される。z値を介してまず較正テーブルが編成され、次いで、各z値に対する逆テーブルが、そのテーブルのヘッダが光学デバイスのセンサ上での標的中心の捕捉された画像の2次元位置を備えるように、かつ、そのテーブルの内容が光学デバイスに対する標的中心の関連する相対的な場所を備えるように、構築される。下の例では、テーブルのヘッダは(s,t)値を備える一方で、テーブルの内容は(x,y,z)の読取値を備える。これは、
CTI(s,t,z)=(x,y)
として示され得る。
Z=-2
x= -4 -3 -2 -1 0 1 2
y=1 4,2 3,2 2,2 1,2 0,3 -1,3 -2,3
y=2 8,3 6,3 4,4 2,4 0,4 -2,4 -4,4
y=3 12,6 9,6 6,6 3,6 0,6 -3,6 -5,6
y=4 16,8 12,8 8,8 4,8 0,8 -4,8 -7,8
y=5 20,10 15,10 10,10 5,10 0,11 -5,11 -9,11
s= -10 -5 0 5 10 15 20
t=0 -1,1 -3,2
t=5 2,3 0,3 -2,3
t=10 1,5 0,5 -1,5 -2,5 -3,5 -4,5
t=15
t=20
Z=-3
x= -4 -3 -2 -1 0 1 2
y=1 4,3 3,3 2,3 1,3 0,4 -1,4 -2,4
y=2 8,6 6,6 4,6 2,6 0,6 -2,6 -4,6
y=3 12,9 9,9 6,9 3,9 0,9 -3,9 -6,10
y=4 15,11 11,11 8,11 4,12 0,12 -4,12 -8,12
y=5 20,15 15,15 10,15 5,15 0,15 -5,15 -9,15
s= -10 -5 0 5 10 15 20
t=0 -1,1
t=5 0,2 -3,2 -4,3
t=10 2,4 0,4 -2,4 -3,4
t=15 1,5 0,5 -1,5 -2,5 -3,5 -4,5
t=20
Z=-4
x= -4 -3 -2 -1 0 1 2
y=1 4,4 3,4 2,4 1,4 0,4 -1,4 -1,4
y=2 8,7 6,7 4,7 2,8 0,8 -2,8 -4,8
y=3 12,12 9,12 6,12 3,12 0,12 -3,11 -6,11
y=4 15,15 11,15 8,16 4,16 0,16 -4,16 -8,16
y=5 20,20 15,20 10,20 5,20 0,20 -5,20 -9,20
s= -10 -5 0 5 10 15 20
t=0 -1,1
t=5 0,2 -3,2 -2,3
t=10 2,3 0,3 -2,3 -4,3
t=15 2,4 0,4 -2,4 -3,4 -4,4
t=20 1,5 0,5 -1,5 -2,5 -3,5 -4,5
Z=-5
x= -4 -3 -2 -1 0 1 2
y=1 4,5 3,5 2,5 1,5 0,5 -1,5 -1,5
y=2 8,10 6,10 4,10 2,10 0,10 -2,9 -4,9
y=3 12,14 9,14 6,14 3,14 0,14 -3,14 -6,14
y=4 15,19 11,19 8,19 4,19 0,19 -4,19 -8,19
y=5 20,24 15,24 10,24 5,24 0,24 -5,24 -9,24
s= -10 -5 0 5 10 15 20
t=0
t=5 -1,1
t=10 2,3 -1,2 -3,2 -4,3
t=15 2,4 0,4 -2,4 -3,4 -4,4
t=20 1,5 0,5 -1,5 -2,5 -3,5 -4,5
R4:CT1(x2,y2,z1+1)=(0,11)
と仮定する。
CTI1(11,11,-2)=(-2,5) CTI1(0,11,-2)=(0,5)
CTI1(11,11,-3)=(-3,4) CTI1(0,11,-3)=(0,4)
CTI1(11,11,-4)=(-4,3) CTI1(0,11,-4)=(0,3)
CTI1(11,11,-5)=(-4,3) CTI1(0,11,-5)=(-1,2)
であることが発見される。
2次元の解釈
2次元の空間解釈がこのセクションで説明される。
「R3の(s,t)値は(11,11)である。テーブルをスキャンすると、
X= -4 -3
y=2 8,7 6,7
y=3 12,12 9,12
であることが発見される。図21(A)に示されるような2次元の空間解釈を使用すると、z=-4に対してx=-3.93、y=2.8であることが発見される」
a)4辺の中で、線分(-4,3)--(-4,2)および(-4,3)--(-3,3)がS=11をカバーするs値を有する。
b)線分(-4,3)--(-4,2)および(-3,3)--(-3,2)はT=11をカバーするt値を有する。
(y-2.75)=(3-2.75)*(0.3/1.3)=0.05であるので、解釈されるyは2.75+0.05=2.8に等しい。
(x-(-4))=(-3.66+4)*(0.3/1.3)=0.07であるので、解釈されるx値は-4+0.07=-3.93に等しい。
(-3.93,2.8)が、光学デバイス1の較正テーブルに基づく、z=-4のz平面上の(11,11)の空間解釈に対応する点に対する答えである。
光学デバイスから捕捉された標的点画像を処理することにより得られる値(S,T)と照合するために、3次元の較正テーブルが横断される。(|s-S|+|t-T|)が最小となるような(x,y,z)値が発見されるという仮定のもとで。この結果は次いで、軸単位長の断片へと解釈されることになり、較正テーブルの中の近隣の点と関連付けられるsおよびtの値に基づく解釈された値がそれぞれSおよびTに等しくなるような(X,Y,Z)の値が発見される。
図22は、光学センサの格子のもとでのPの読取値を示す。図15の標的点2のような前方の中心にある、および図15の標的点3のような広角にある標的のピクセル化された解釈が、それぞれ図22(A)および図22(B)に示される。図22(C)および図22(D)はそれぞれ、ピクセルセンサ読取値および(A)と(B)のピクセル化された解釈を示す。
X=-(0.8*-0.5+0+0.7*0.5-0.6+0.4-0.6+0.4+0.9*-0.5+0+0.85*0.5)/3=0.16
Y=-(0.8*0.5+0.5+0.5+0.7*0.5+0+0+0+0+0.9*-0.5-0.75-0.75+0.85*-0.5)/3=0.21
である。
X=-(0.7*0.5+0.4+0.6+0.7+0.9*0.7+0+0.7*0.5+0+0+0+0-0.1-0.4-0.6-0.7-0.9*0.5+0+0+0-0.8*0.3)/7=-0.08
Y=-(0.7*0.5+0+0+0-0.9*0.3+0-0.7*0.5-0.4-0.2-0.1+0+0+0+0+0+0.9*0.5+0.3+0.1+0+0.8*0.7)/7=-0.06
である。
図26は、本発明の実施形態による実施形態を実装するための、任意のコンピューティングデバイス内に設けられ得る処理システム2600の構成要素を表すブロック図を示す。これらのモジュールおよびサーバ内に設けられる各処理システムの厳密な構成は異なることがあり、処理システム2600の厳密な構成は変化することがあり、図26は例として与えられているだけであることを、当業者は認識するであろう。
70 フォークリフト
71 高精度レール
72 単眼カメラ
73 高さ位置
74 車両
75 較正画面
76 傾斜計およびジャイロスコープ
77 画面パターン
79 正方形
82 カラーフィルタ
120 機械標識
122 ヘッダ
124 情報
126 点
128 平坦
130 境界
146 画像
148 中心線
280 z平面
282 点
284 点
286 点
290 カメラ
291 点
292 点
293 標的要素
294 標的要素
295 点
296 円
297 z平面
298 z平面
2600 モジュール
2601 コントローラ
2602 ユーザインターフェース
2605 プロセッサ
2606 オペレーティングシステム
2607 駆動ソフトウェア
2610 バスグループ
2620 メモリ
2630 入力/出力
2635 キーボード
2636 光学デバイス
2640 ディスプレイ
2645 マスストレージ
2646 セキュアストレージ
2650 ネットワークカード
Claims (44)
- 光学デバイスの3次元座標系において、前記光学デバイスの視野内の標的要素の位置を決定するためのシステムであって、
第1の標的要素および第2の標的要素の画像を捕捉し、前記捕捉された画像から制約規則のセットを取得し、
前記光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成し、
前記光学デバイスのセンサ上での前記第2の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成する
ように構成される前記光学デバイスと、
前記光学デバイスに通信可能に結合されるコンピューティングデバイスとを備え、前記コンピューティングデバイスが、前記捕捉された出力(s,t)、(u,v)および制約規則の前記セットと一緒に所定の横断計画を較正テーブルに適用することによって、前記光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するように構成され、前記較正テーブルが、
複数の標的中心を備える標的画面からの複数の較正場所において前記光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記光学デバイスが、
前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記光学デバイスの3次元座標系の中の位置として定義され、それにより前記光学デバイスの位置が前記光学デバイスの3次元座標系の原点として定義される、システム。 - 各標的要素が、マーカーパターンおよび標識パターンを備え、
前記マーカーパターンがさらに、対称的な幾何学的特徴を備え、前記対称的な幾何学的特徴の対称性の中心が前記標的要素の中心を定義し、
前記標識パターンがさらに、第1の形状が第1の状態を表し第2の形状が第2の状態を表すような一連の指示物を備え、前記第1の状態および第2の状態が二進記号を表すために使用される、請求項1に記載のシステム。 - 前記第1の状態が、下側のブロックより大きな上側のブロックを有する指示物により定義され、前記第2の状態が、上側のブロックより大きな下側のブロックを有する指示物により定義される、請求項2に記載のシステム。
- 前記コンピューティングデバイスがさらに、前記標的要素の前記捕捉された画像と関連付けられる前記標識パターンから制約規則の前記セットを取得するように構成される、請求項2に記載のシステム。
- 制約規則の前記セットが、
前記第1の標的要素と第2の標的要素との間のずれDと、
参照平面からの前記第1の標的要素の垂直方向のずれと参照平面からの前記第2の標的要素の垂直方向のずれとの間の、ずれの差分Δdとを備え、前記参照平面が、前記第1または第2の標的要素から所定の距離だけ離れて設けられる、請求項1に記載のシステム。 - 各標的要素のマーカーパターンが少なくとも第1の色を備え、前記光学デバイスに前記第1の色を検出するための第1の色サンプリングフィルタが設けられる、請求項2に記載のシステム。
- 前記捕捉された出力(s,t)(u,v)および制約規則の前記セットと一緒に前記所定の横断計画を前記較正テーブルに適用するように構成される前記コンピューティングデバイスが、
前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の第1の点と前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の第2の点との間の距離D12が前記第1の標的要素と第2の標的要素との間の前記ずれDに等しくなるように、
前記参照平面からの前記第1の点の垂直方向のずれと前記第2の点の垂直方向のずれとの間のずれの差分Δd12が、前記ずれの差分Δdに等しくなるように、
前記第1の点を特定するために前記較正テーブルを再帰的に横断し、前記第2の点を特定するために前記較正テーブルを横断し、
前記光学デバイスの3次元座標系において、前記出力(s,t)の位置として前記第1の点を設定し、前記出力(u,v)の位置として前記第2の点を設定するように構成される、前記コンピューティングデバイスを備える、請求項5に記載のシステム。 - 前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の前記第1の点を特定するために前記較正テーブルを横断し、前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の前記第2の点を特定するために前記較正テーブルを横断するように構成される、前記コンピューティングデバイスが、
前記較正テーブルから前記参照平面に平行な任意の平面を生成し、前記任意の平面から距離Δdだけ離れて設けられる別の平面を生成し、
前記出力(s,t)と関連付けられる前記任意の平面の中の点を特定し、前記出力(u,v)と関連付けられる前記別の平面の中の別の点を特定し、
前記第1の点として前記任意の平面の中の前記特定された点を設定し、前記第2の点として前記別の平面の中の前記別の特定された点を設定する
ように構成される、前記コンピューティングデバイスを備える、請求項7に記載のシステム。 - 前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の前記第1の点を特定するために前記較正テーブルを横断し、前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の前記第2の点を特定するために前記較正テーブルを横断するように構成される、前記コンピューティングデバイスが、
前記較正テーブルから前記参照平面に平行な任意の平面を生成し、前記任意の平面から距離Δdだけ離れて設けられる前記参照平面に平行な別の平面を生成し、
前記出力(s,t)と関連付けられる前記任意の平面の中の点を特定し、前記特定された点を中心とする半径Dの球面をプロットし、
前記球面と交差する前記別の平面の中の別の点を特定し、前記別の点が前記出力(u,v)と関連付けられるかどうかを決定し、前記別の点が前記出力(u,v)と関連付けられると決定される場合、前記第1の点として前記任意の平面の中の前記特定された点を設定し、前記第2の点として前記別の平面の中の前記別の特定された点を設定する
ように構成される、前記コンピューティングデバイスを備える、請求項7に記載のシステム。 - 前記出力(s,t)と関連付けられる前記参照平面に平行な前記任意の平面の中の前記点を特定するように構成される前記コンピューティングデバイスが、
前記出力(s,t)のs値と関連付けられる点を特定するために、前記任意の平面の各辺上で線形補間を実行し、それにより別個の辺上の点が線分LSを形成するように接続され、
前記線分LSから前記出力(s,t)と関連付けられる前記点を含む領域を特定する
ように構成される、前記コンピューティングデバイスを備える、請求項8または9に記載のシステム。 - 前記出力(u,v)と関連付けられる前記別の平面の中の前記別の点を特定するように構成される前記コンピューティングデバイスが、
前記出力(u,v)のu値と関連付けられる点を特定するために、前記別の平面の各辺上で線形補間を実行し、それにより別個の辺上の点が線分LUを形成するように接続され、
前記線分LUから、前記出力(u,v)と関連付けられる前記点を含む領域を特定する
ように構成される、前記コンピューティングデバイスを備える、請求項8に記載のシステム。 - 前記出力(s,t)と関連付けられる前記任意の平面の中の前記点を特定するように構成される前記コンピューティングデバイスが、
最小の値をもたらす勾配ベクトルを特定するために、前記任意の平面上の任意の点からローカルの勾配探索を実行し、
最小の値を有する点が特定されるまで、前記任意の平面上の関連する点にわたって前記勾配ベクトルから前記ローカルの勾配探索を再帰的に実行するように構成される、前記コンピューティングデバイスを備え、前記点が前記出力(s,t)と関連付けられる前記任意の平面の中の前記点として特定され、それにより、
前記ローカルの勾配探索が、前記較正テーブルの中の各点と関連付けられる前記光学デバイスのセンサ上での前記2次元位置を使用して実行される、請求項8から10のいずれか一項に記載のシステム。 - 前記出力(u,v)と関連付けられる前記別の平面の中の前記別の点を特定するように構成される前記コンピューティングデバイスが、
最小の値をもたらす前記別の平面上の勾配ベクトルを特定するために、前記別の平面上の任意の点からローカルの勾配探索を再帰的に実行し、
最小の値を有する点が特定されるまで、前記別の平面上の関連する点にわたって前記勾配ベクトルから前記ローカルの勾配探索を再帰的に実行するように構成される、前記コンピューティングデバイスを備え、前記点が、前記出力(u,v)と関連付けられる前記別の平面の中の前記点として特定され、それにより、
前記ローカルの勾配探索が、前記較正テーブルの中の各点と関連付けられる前記光学デバイスのセンサ上での前記2次元位置を使用して実行される、請求項8または11に記載のシステム。 - 前記出力(s,t)と関連付けられる前記点に接する前記領域の中の点に空間解釈を適用して、前記領域の中の前記点が整数のみを備える場合に前記点を小数の場所で定義し、
前記出力(u,v)と関連付けられる前記点に接する前記領域の中の点に空間解釈を適用して、前記領域の中の前記点が整数のみを備える場合に前記点を小数の場所で定義する
ように構成される前記コンピューティングデバイスをさらに備える、請求項10または11に記載のシステム。 - 前記較正テーブルの中のデータの第1のセットが周辺温度において事前に生成され、前記較正テーブルの中のデータの少なくとも1つの追加のセットが別の温度において事前に生成され、それにより、前記捕捉された出力(s,t)、(u,v)および制約規則の前記セットと一緒に所定の横断計画を前記較正テーブルに適用することによって前記光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するように構成される前記コンピューティングデバイスがさらに、
前記較正テーブルの中のデータの前記第1のセットおよび前記別のセットに基づいて熱膨張の勾配を計算し、
前記光学デバイスの周辺温度を取得し、
前記周辺温度および熱膨張の前記計算された勾配を使用して、前記出力(s,t)および前記出力(u,v)を調整し、
前記光学デバイスの3次元座標系の中の前記場所へと前記調整された出力を変換する
ように構成される前記コンピューティングデバイスを備える、請求項1に記載のシステム。 - 前記光学デバイスのセンサ上での前記標的要素の前記捕捉された画像の前記2次元位置を生成するように構成される前記光学デバイスが、
前記標的要素の中心を表す形状を特定し、
前記特定された形状の前記幾何学的中心を決定し、
前記特定された形状の端部にx軸およびy軸のベクトル値を割り当て、
前記特定された形状の前記端部に割り当てられた前記x軸およびy軸のベクトル値を使用して、前記x軸およびy軸に沿った累積の偏位を決定する
ように構成される前記光学デバイスを備える、請求項1に記載のシステム。 - 第1の光学デバイスの3次元座標系において、前記第1の光学デバイスの視野内の標的要素の位置を決定するためのシステムであって、
第1の標的要素の画像を捕捉し、
前記第1の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成する
ように構成される前記第1の光学デバイスと、
前記第1の光学デバイスから離れた固定された位置に設けられる第2の光学デバイスであって、
前記第1の標的要素の画像を捕捉し、
前記第2の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成する
ように構成される前記第2の光学デバイスと、
前記第1の光学デバイスおよび第2の光学デバイスに通信可能に結合されるコンピューティングデバイスとを備え、前記コンピューティングデバイスが、前記捕捉された出力(s,t)と一緒に所定の横断計画を第1較正テーブルに適用することによって、および、前記捕捉された出力(u,v)と一緒に前記所定の横断計画を第2の較正テーブルに適用することによって、前記第1の光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するように構成され、
前記較正テーブルの各々が、
複数の標的中心を備える標的画面からの複数の較正場所において前記較正テーブルと関連付けられる光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記関連付けられる光学デバイスが、前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記関連付けられる光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記関連付けられる光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記関連付けられる光学デバイスの3次元座標系の中の位置として定義され、それにより前記関連付けられる光学デバイスの位置が前記関連付けられる光学デバイスの3次元座標系の原点として定義される、システム。 - 前記捕捉された出力(s,t)と一緒に前記所定の横断計画を前記第1の較正テーブルに前記適用することおよび前記捕捉された出力(u,v)と一緒に前記所定の横断計画を前記第2の較正テーブルに前記適用することが、前記コンピューティングデバイスが、
a)前記出力(s,t)と関連付けられる前記第1の光学デバイスの3次元座標系の中の第1の点を特定するために前記第1の較正テーブルを横断し、前記出力(u,v)と関連付けられる前記第2の光学デバイスの3次元座標系の中の第2の点を特定するために前記第2の較正テーブルを横断し、
b)前記第1の光学デバイスに対する前記第2の光学デバイスの前記固定された位置に基づいて前記第1の光学デバイスと前記第2の光学デバイスとの間の相対的なずれ、および角度差を取得し、前記取得された相対的なずれ、および角度差を使用して前記特定された第2の点を正規化し、
c)前記正規化された特定された第2の点の前記位置が前記第1の点に等しくない場合、ステップ(a)から(b)を繰り返し、
それにより、前記第1の点が、前記正規化された特定された第2の点が前記第1の点に等しい場合、前記出力(s,t)の前記位置として設定される
ように構成されることを備える、請求項17に記載のシステム。 - 第1の光学デバイスの3次元座標系において、前記第1の光学デバイスの視野内の標的要素の位置を決定するためのシステムであって、
第1の標的要素の画像を捕捉し、
前記第1の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成する
ように構成される前記第1の光学デバイスと、
前記第1の光学デバイスに関して固定された位置に設けられる第2の光学デバイスであって、
第2の標的要素の画像を捕捉することであって、前記第2の標的要素が前記第1の標的要素から位置DT2だけ離れた位置に設けられる、捕捉することと、
前記第2の光学デバイスのセンサ上での前記第2の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成することと
を行うように構成される、第2の光学デバイスと、
前記第1の光学デバイスおよび第2の光学デバイスに通信可能に結合されるコンピューティングデバイスとを備え、前記捕捉された画像から制約規則のセットを取得するように構成される前記コンピューティングデバイスが、前記捕捉された出力(s,t)および制約規則の前記セットと一緒に所定の横断計画を第1較正テーブルに適用することによって、および、前記捕捉された出力(u,v)と一緒に前記所定の横断計画を第2の較正テーブルに適用することによって、前記第1の光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換し、
前記較正テーブルの各々が、
複数の標的中心を備える標的画面からの複数の較正場所において前記較正テーブルと関連付けられる光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記関連付けられる光学デバイスが、前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記関連付けられる光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記関連付けられる光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記関連付けられる光学デバイスの3次元座標系の中の位置として定義され、それにより前記関連付けられる光学デバイスの位置が前記関連付けられる光学デバイスの3次元座標系の原点として定義される、システム。 - 制約規則の前記セットが、
前記第1の標的要素と第2の標的要素との間のずれDを備え、Dが0以上の値を備え、
Dの前記値が0より大きい場合、制約規則の前記セットがさらに、参照平面からの前記第1の標的要素の垂直方向のずれと参照平面からの前記第2の標的要素の垂直方向のずれとの間のずれの差分Δdを備え、前記参照平面が前記第1の標的要素または第2の標的要素から所定の距離だけ離れて設けられる、請求項19に記載のシステム。 - 前記捕捉された出力(s,t)および制約規則の前記セットと一緒に前記所定の横断計画を前記第1の較正テーブルに前記適用することおよび前記捕捉された出力(u,v)と一緒に前記所定の横断計画を前記第2の較正テーブルに前記適用することが、前記コンピューティングデバイスが、
a)前記出力(s,t)と関連付けられる前記第1の光学デバイスの3次元座標系の中の第1の点を特定するために前記第1の較正テーブルを横断し、前記出力(u,v)と関連付けられる前記第2の光学デバイスの3次元座標系の中の第2の点を特定するために前記第2の較正テーブルを横断し、
b)前記第1の光学デバイスに対する前記第2の光学デバイスの前記固定された位置に基づいて、前記第1の光学デバイスと前記第2の光学デバイスとの間の相対的なずれ、および角度差を取得し、前記取得された相対的なずれ、および角度差を使用して前記特定された第2の点を正規化し、
c)前記第1の光学デバイスの3次元座標系の中の前記第1の点と前記正規化された特定された第2の点との間のずれD12が前記第1の標的要素と第2の標的要素との間の前記ずれDに等しくない場合、および、前記参照平面からの前記第1の点の垂直方向のずれと前記正規化された第2の点の垂直方向のずれとの間のずれの差分Δd12が前記ずれの差分Δdに等しくない場合、ステップ(a)から(b)を繰り返し、
それにより、ステップ(c)の条件が満たされる場合、前記第1の光学デバイスの3次元座標系において、前記第1の点が前記出力(s,t)の前記位置として設定され、前記正規化された第2の点が前記出力(u,v)の前記位置として設定される
ように構成されることを備える、請求項20に記載のシステム。 - 前記コンピューティングデバイスがさらに、前記制約規則の中のグローバルな座標系に対する位置情報を利用して、グローバルな系に対する前記光学デバイスについての位置決め情報を抽出するように構成される、請求項1、17、または19のいずれか一項に記載のシステム。
- 光学デバイスの3次元座標系において、前記光学デバイスの視野内の標的要素の位置を決定するための方法であって、前記光学デバイスがコンピューティングデバイスに通信可能に結合され、前記方法が、
前記光学デバイスを使用して、第1の標的要素および第2の標的要素の画像を捕捉し、前記捕捉された画像から制約規則のセットを取得するステップと、
前記光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成するステップと、
前記光学デバイスのセンサ上での前記第2の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成するステップと、
前記コンピューティングデバイスを使用して、前記捕捉された出力(s,t)、(u,v)および制約規則の前記セットと一緒に所定の横断計画を較正テーブルに適用することによって、前記光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するステップとを備え、前記較正テーブルが、
複数の標的中心を備える標的画面からの複数の較正場所において前記光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記光学デバイスが、
前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記光学デバイスの3次元座標系の中の位置として定義され、それにより前記光学デバイスの位置が前記光学デバイスの3次元座標系の原点として定義される、方法。 - 各標的要素がマーカーパターンおよび標識パターンを備え、
前記マーカーパターンがさらに、対称的な幾何学的特徴を備え、前記対称的な幾何学的特徴の対称性の中心が前記標的要素の中心を定義し、
前記標識パターンがさらに、第1の形状が第1の状態を表し第2の形状が第2の状態を表すような一連の指示物を備え、前記第1の状態および第2の状態が二進記号を表すために使用される、請求項23に記載の方法。 - 前記第1の状態が、下側のブロックより大きな上側のブロックを有する指示物により定義され、前記第2の状態が、上側のブロックより大きな下側のブロックを有する指示物により定義される、請求項24に記載の方法。
- 前記コンピューティングデバイスを使用して、前記標的要素の前記捕捉された画像と関連付けられる前記標識パターンから制約規則の前記セットを取得するステップをさらに備える、請求項24に記載の方法。
- 制約規則の前記セットが、
前記第1の標的要素と第2の標的要素との間のずれDと、
参照平面からの前記第1の標的要素の垂直方向のずれと参照平面からの前記第2の標的要素の垂直方向のずれとの間の、ずれの差分Δdとを備え、前記参照平面が、前記第1または第2の標的要素から所定の距離だけ離れて設けられる、請求項23に記載の方法。 - 各標的要素のマーカーパターンが少なくとも第1の色を備え、前記光学デバイスに前記第1の色を検出するための第1の色サンプリングフィルタが設けられる、請求項24に記載の方法。
- 前記捕捉された出力(s,t)(u,v)および制約規則の前記セットと一緒に前記所定の横断計画を前記較正テーブルに適用する前記ステップが、
前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の第1の点と前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の第2の点との間の距離D12が前記第1の標的要素と第2の標的要素との間の前記ずれDに等しくなるように、
前記参照平面からの前記第1の点の垂直方向のずれと前記第2の点の垂直方向のずれとの間のずれの差分Δd12が、前記ずれの差分Δdに等しくなるように、
前記コンピューティングデバイスを使用して、前記第1の点を特定するために前記較正テーブルを再帰的に横断し、前記第2の点を特定するために前記較正テーブルを横断するステップと、
前記光学デバイスの3次元座標系において、前記出力(s,t)の位置として前記第1の点を設定し、前記出力(u,v)の位置として前記第2の点を設定するステップとを備える、請求項27に記載の方法。 - 前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の前記第1の点を特定するために前記較正テーブルを横断し、前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の前記第2の点を特定するために前記較正テーブルを横断する前記ステップが、
前記較正テーブルから前記参照平面に平行な任意の平面を生成し、前記任意の平面から距離Δdだけ離れて設けられる別の平面を生成するステップと、
前記出力(s,t)と関連付けられる前記任意の平面の中の点を特定し、前記出力(u,v)と関連付けられる前記別の平面の中の別の点を特定するステップと、
前記第1の点として前記任意の平面の中の前記特定された点を設定し、前記第2の点として前記別の平面の中の前記別の特定された点を設定するステップとを備える、請求項29に記載の方法。 - 前記出力(s,t)と関連付けられる前記光学デバイスの3次元座標系の中の前記第1の点を特定するために前記較正テーブルを横断し、前記出力(u,v)と関連付けられる前記光学デバイスの3次元座標系の中の前記第2の点を特定するために前記較正テーブルを横断する前記ステップが、
前記較正テーブルから前記参照平面に平行な任意の平面を生成し、前記任意の平面から距離Δdだけ離れて設けられる前記参照平面に平行な別の平面を生成するステップと、
前記出力(s,t)と関連付けられる前記任意の平面の中の点を特定し、前記特定された点を中心とする半径Dの球面をプロットするステップと、
前記球面と交差する前記別の平面の中の別の点を特定し、前記別の点が前記出力(u,v)と関連付けられるかどうかを決定し、前記別の点が前記出力(u,v)と関連付けられると決定される場合、前記第1の点として前記任意の平面の中の前記特定された点を設定し、前記第2の点として前記別の平面の中の前記別の特定された点を設定するステップとを備える、請求項29に記載の方法。 - 前記出力(s,t)と関連付けられる前記参照平面に平行な前記任意の平面の中の前記点を特定する前記ステップが、
前記出力(s,t)のs値と関連付けられる点を特定するために、前記任意の平面の各辺上で線形補間を実行し、それにより別個の辺上の点が線分LSを形成するように接続される、ステップと、
前記線分LSから前記出力(s,t)と関連付けられる前記点を含む領域を特定するステップとを備える、請求項30または31に記載の方法。 - 前記出力(u,v)と関連付けられる前記別の平面の中の前記別の点を特定する前記ステップが、
前記出力(u,v)のu値と関連付けられる点を特定するために、前記別の平面の各辺上で線形補間を実行し、それにより別個の辺上の点が線分LUを形成するように接続される、ステップと、
前記線分LUから、前記出力(u,v)と関連付けられる前記点を含む領域を特定するステップとを備える、請求項30に記載の方法。 - 前記出力(s,t)と関連付けられる前記任意の平面の中の前記点を特定する前記ステップが、
最小の値をもたらす勾配ベクトルを特定するために、前記任意の平面上の任意の点からローカルの勾配探索を実行するステップと、
最小の値を有する点が特定されるまで、前記任意の平面上の関連する点にわたって前記勾配ベクトルから前記ローカルの勾配探索を再帰的に実行するステップとを備え、前記点が前記出力(s,t)と関連付けられる前記任意の平面の中の前記点として特定され、それにより、
前記ローカルの勾配探索が、前記較正テーブルの中の各点と関連付けられる前記光学デバイスのセンサ上での前記2次元位置を使用して実行される、請求項30から32のいずれか一項に記載の方法。 - 前記出力(u,v)と関連付けられる前記別の平面の中の前記別の点を特定する前記ステップが、
最小の値をもたらす前記別の平面上の勾配ベクトルを特定するために、前記別の平面上の任意の点からローカルの勾配探索を再帰的に実行するステップと、
最小の値を有する点が特定されるまで、前記別の平面上の関連する点にわたって前記勾配ベクトルから前記ローカルの勾配探索を再帰的に実行するステップとを備え、前記点が、前記出力(u,v)と関連付けられる前記別の平面の中の前記点として特定され、それにより、
前記ローカルの勾配探索が、前記較正テーブルの中の各点と関連付けられる前記光学デバイスのセンサ上での前記2次元位置を使用して実行される、請求項30または33に記載の方法。 - 前記コンピューティングデバイスを使用して、前記出力(s,t)と関連付けられる前記点に接する前記領域の中の点に空間解釈を適用して、前記領域の中の前記点が整数のみを備える場合に前記点を小数の場所で定義するステップと、
前記出力(u,v)と関連付けられる前記点に接する前記領域の中の点に空間解釈を適用して、前記領域の中の前記点が整数のみを備える場合に前記点を小数の場所で定義するステップとをさらに備える、請求項32または33に記載の方法。 - 前記較正テーブルの中のデータの第1のセットが周辺温度において事前に生成され、前記較正テーブルの中のデータの少なくとも1つの追加のセットが別の温度において事前に生成され、それにより、前記捕捉された出力(s,t)、(u,v)および制約規則の前記セットと一緒に所定の横断計画を前記較正テーブルに適用することによって前記光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換する前記ステップがさらに、
前記コンピューティングデバイスを使用して、前記較正テーブルの中のデータの前記第1のセットおよび前記別のセットに基づいて熱膨張の勾配を計算するステップと、
前記光学デバイスの周辺温度を取得するステップと、
前記周辺温度および熱膨張の前記計算された勾配を使用して、前記出力(s,t)および前記出力(u,v)を調整するステップと、
前記光学デバイスの3次元座標系の中の前記場所へと前記調整された出力を変換するステップとを備える、請求項23に記載の方法。 - 前記光学デバイスのセンサ上での前記標的要素の前記捕捉された画像の前記2次元位置を生成する前記ステップが、
前記光学デバイスを使用して、前記標的要素の中心を表す形状を特定するステップと、
前記特定された形状の前記幾何学的中心を決定するステップと、
前記特定された形状の端部にx軸およびy軸のベクトル値を割り当てるステップと、
前記特定された形状の前記端部に割り当てられた前記x軸およびy軸のベクトル値を使用して、前記x軸およびy軸に沿った累積の偏位を決定するステップとを備える、請求項23に記載の方法。 - 第1の光学デバイスの3次元座標系において、前記第1の光学デバイスの視野内の標的要素の位置を決定するための方法であって、前記第1の光学デバイスおよび第2の光学デバイスがコンピューティングデバイスに通信可能に結合され、前記方法が、
前記第1の光学デバイスを使用して、第1の標的要素の画像を捕捉するステップと、
前記第1の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成するステップと、
前記第1の光学デバイスから離れた位置に設けられる第2の光学デバイスを使用して、前記第1の標的要素の画像を捕捉するステップと、
前記第2の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成するステップと、
前記コンピューティングデバイスを使用して、前記捕捉された出力(s,t)と一緒に所定の横断計画を第1較正テーブルに適用することによって、および、前記捕捉された出力(u,v)と一緒に前記所定の横断計画を第2の較正テーブルに適用することによって、前記第1の光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するステップとを備え、
前記較正テーブルの各々が、
複数の標的中心を備える標的画面からの複数の較正場所において前記較正テーブルと関連付けられる光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記関連付けられる光学デバイスが、前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記関連付けられる光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記関連付けられる光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記関連付けられる光学デバイスの3次元座標系の中の位置として定義され、それにより前記関連付けられる光学デバイスの位置が前記関連付けられる光学デバイスの3次元座標系の原点として定義される、方法。 - 前記捕捉された出力(s,t)と一緒に前記所定の横断計画を前記第1の較正テーブルに適用する前記ステップおよび前記捕捉された出力(u,v)と一緒に前記所定の横断計画を前記第2の較正テーブルに適用する前記ステップが、
a)前記コンピューティングデバイスを使用して、前記出力(s,t)と関連付けられる前記第1の光学デバイスの3次元座標系の中の第1の点を特定するために前記第1の較正テーブルを横断し、前記出力(u,v)と関連付けられる前記第2の光学デバイスの3次元座標系の中の第2の点を特定するために前記第2の較正テーブルを横断するステップと、
b)前記第1の光学デバイスに対する前記第2の光学デバイスの前記固定された位置に基づいて前記第1の光学デバイスと前記第2の光学デバイスとの間の相対的なずれ、および角度差を取得し、前記取得された相対的なずれ、および角度差を使用して前記特定された第2の点を正規化するステップと、
c)前記正規化された特定された第2の点が前記第2の光学デバイスの前記正規化された位置に等しくない場合、ステップ(a)から(b)を繰り返すステップとを備え、
d)それにより、前記第1の点が、前記正規化された特定された第2の点が前記第1の点に等しい場合、前記出力(s,t)の前記位置として設定される、請求項39に記載の方法。 - 第1の光学デバイスの3次元座標系において、前記第1の光学デバイスの視野内の標的要素の位置を決定するための方法であって、前記第1の光学デバイスおよび第2の光学デバイスがコンピューティングデバイスに通信可能に結合され、前記方法が、
前記第1の光学デバイスを使用して、第1の標的要素の画像を捕捉するステップと、
前記第1の光学デバイスのセンサ上での前記第1の標的要素の前記捕捉された画像の2次元位置を定義するような出力(s,t)を生成するステップと、
前記第1の光学デバイスに関して固定された位置に設けられる第2の光学デバイスを使用して、第2の標的要素の画像を捕捉するステップであって、前記第2の標的要素が前記第1の標的要素から位置DT2だけ離れて設けられる、ステップと、
前記第2の光学デバイスのセンサ上での前記第2の標的要素の前記捕捉された画像の2次元位置を定義するような出力(u,v)を生成するステップと、
前記コンピューティングデバイスを使用して、前記捕捉された画像から制約規則のセットを取得するステップと、
前記コンピューティングデバイスを使用して、前記捕捉された出力(s,t)および制約規則の前記セットと一緒に所定の横断計画を第1の較正テーブルに適用することによって、および、前記捕捉された出力(u,v)と一緒に前記所定の横断計画を第2の較正テーブルに適用することによって、前記第1の光学デバイスの3次元座標系の中の場所へと前記出力(s,t)および前記出力(u,v)を変換するステップとを備え、
前記較正テーブルの各々が、
複数の標的中心を備える標的画面からの複数の較正場所において前記較正テーブルと関連付けられる光学デバイスを位置決めすることによって事前に生成され、それにより、各較正場所において、前記標的画面上の前記標的中心の各々に対して、前記関連付けられる光学デバイスが、前記標的中心の画像を捕捉し、前記較正テーブルにおいて、前記関連付けられる光学デバイスのセンサ上での前記標的中心の前記捕捉された画像の2次元位置を前記関連付けられる光学デバイスに対する前記標的中心の場所と関連付け、前記場所が前記関連付けられる光学デバイスの3次元座標系の中の位置として定義され、それにより前記関連付けられる光学デバイスの位置が前記関連付けられる光学デバイスの3次元座標系の原点として定義される、方法。 - 制約規則の前記セットが、
前記第1の標的要素と第2の標的要素との間のずれDを備え、Dが0以上の値を備え、
Dの前記値が0より大きい場合、制約規則の前記セットがさらに、参照平面からの前記第1の標的要素の垂直方向のずれと参照平面からの前記第2の標的要素の垂直方向のずれとの間のずれの差分Δdを備え、前記参照平面が前記第1の標的要素または第2の標的要素から所定の距離だけ離れて設けられる、請求項41に記載の方法。 - 前記捕捉された出力(s,t)および制約規則の前記セットと一緒に前記所定の横断計画を前記第1の較正テーブルに適用する前記ステップおよび前記捕捉された出力(u,v)と一緒に前記所定の横断計画を前記第2の較正テーブルに適用する前記ステップが、
a)前記コンピューティングデバイスを使用して、前記出力(s,t)と関連付けられる前記第1の光学デバイスの3次元座標系の中の第1の点を特定するために前記第1の較正テーブルを横断し、前記出力(u,v)と関連付けられる前記第2の光学デバイスの3次元座標系の中の第2の点を特定するために前記第2の較正テーブルを横断するステップと、
b)前記第1の光学デバイスに対する前記第2の光学デバイスの前記固定された位置に基づいて、前記第1の光学デバイスと前記第2の光学デバイスとの間の相対的なずれ、および角度差を取得し、前記取得された相対的なずれ、および角度差を使用して前記特定された第2の点を正規化するステップと、
c)前記第1の光学デバイスの3次元座標系の中の前記第1の点と前記正規化された特定された第2の点との間のずれD12が前記第1の標的要素と第2の標的要素との間の前記ずれDに等しくない場合、および、前記参照平面からの前記第1の点の垂直方向のずれと前記正規化された第2の点の垂直方向のずれとの間のずれの差分Δd12が前記ずれの差分Δdに等しくない場合、ステップ(a)から(b)を繰り返すステップとを備え、
それにより、ステップ(c)の条件が満たされる場合、前記第1の光学デバイスの3次元座標系において、前記第1の点が前記出力(s,t)の前記位置として設定され、前記正規化された第2の点が前記出力(u,v)の前記位置として設定される、請求項42に記載の方法。 - 前記コンピューティングデバイスを使用して、前記制約規則の中のグローバルな座標系に対する位置情報を利用して、グローバルな系に対する前記光学デバイスについての位置決め情報を抽出するステップをさらに備える、請求項23、39、または41のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10201706981P | 2017-08-25 | ||
SG10201706981P | 2017-08-25 | ||
PCT/SG2017/050573 WO2019039996A1 (en) | 2017-08-25 | 2017-11-17 | ARTIFICIAL VISION SYSTEM AND METHOD FOR IDENTIFYING LOCATIONS OF TARGET ELEMENTS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020532772A true JP2020532772A (ja) | 2020-11-12 |
JP7101616B2 JP7101616B2 (ja) | 2022-07-15 |
Family
ID=65438752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523788A Active JP7101616B2 (ja) | 2017-08-25 | 2017-11-17 | 標的要素の位置を特定するためのマシンビジョンシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11080880B2 (ja) |
EP (1) | EP3465618B1 (ja) |
JP (1) | JP7101616B2 (ja) |
WO (1) | WO2019039996A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018023736A1 (en) * | 2016-08-05 | 2018-02-08 | SZ DJI Technology Co., Ltd. | System and method for positioning a movable object |
US11003972B2 (en) * | 2018-06-27 | 2021-05-11 | Intel Corporation | Localizing a vehicle's charging or fueling port—methods and apparatuses |
US11436753B2 (en) | 2018-10-30 | 2022-09-06 | Liberty Reach, Inc. | Machine vision-based method and system to facilitate the unloading of a pile of cartons in a carton handling system |
CN113226952B (zh) * | 2018-12-27 | 2023-04-18 | 日本电气通信系统株式会社 | 物品位置管理装置、物品位置管理系统、物品位置管理方法和程序 |
JP2020160914A (ja) * | 2019-03-27 | 2020-10-01 | 株式会社豊田自動織機 | 物体検出装置 |
CN110217727B (zh) * | 2019-06-10 | 2023-05-26 | 国网江苏省电力有限公司南京供电分公司 | 远程操控环境下ar辅助进叉校准方法及配套叉车 |
CN110515835B (zh) * | 2019-07-30 | 2023-05-23 | 上海云扩信息科技有限公司 | 一种基于机器视觉和dom树结构的测试方法 |
EP3795798B1 (en) * | 2019-09-20 | 2023-11-22 | Sandvik Mining and Construction Oy | Positioning of mobile device in underground worksite |
CN111783659B (zh) * | 2020-06-30 | 2023-10-20 | 福建汇川物联网技术科技股份有限公司 | 基于机器视觉远程放样方法、装置及终端设备、存储介质 |
CN111862193A (zh) * | 2020-07-21 | 2020-10-30 | 太仓光电技术研究所 | 一种基于形状描述子的电焊焊点双目视觉定位方法及装置 |
EP4275174A1 (en) * | 2021-01-05 | 2023-11-15 | Liberty Reach Inc. | Machine vision-based method and system to facilitate the unloading of a pile of cartons in a carton handling system |
DE102021102633A1 (de) * | 2021-02-04 | 2022-08-04 | Jungheinrich Aktiengesellschaft | Verfahren zur Bestimmung einer Orientierung eines Flurförderzeugs |
CN112950722B (zh) * | 2021-03-03 | 2022-10-04 | 深圳市旗众智能科技有限公司 | 点胶机相机与点胶头之间的偏移量标定方法 |
CN113033349B (zh) * | 2021-03-11 | 2023-12-26 | 北京文安智能技术股份有限公司 | 行人重识别的俯视图像选取方法、存储介质和电子设备 |
CN113870364B (zh) * | 2021-09-30 | 2024-05-24 | 吉林大学重庆研究院 | 一种自适应的双目相机标定方法 |
CN114067197B (zh) * | 2021-11-17 | 2022-11-18 | 河南大学 | 一种基于目标检测及双目视觉的管道缺陷识别与定位方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002090118A (ja) * | 2000-09-19 | 2002-03-27 | Olympus Optical Co Ltd | 3次元位置姿勢センシング装置 |
JP2003177017A (ja) * | 2001-10-03 | 2003-06-27 | Mamoru Otsuki | 写真測量方法および写真測量プログラム |
US20170094255A1 (en) * | 2015-09-25 | 2017-03-30 | Intel Corporation | Online compensation of thermal distortions in a stereo depth camera |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09311013A (ja) * | 1996-05-22 | 1997-12-02 | Anima Kk | 三次元座標計測装置 |
US6757445B1 (en) * | 2000-10-04 | 2004-06-29 | Pixxures, Inc. | Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models |
JP2003269928A (ja) * | 2002-03-12 | 2003-09-25 | Nec Corp | 3次元形状計測方法および装置ならびにプログラム |
EP1665162A1 (de) * | 2003-09-26 | 2006-06-07 | Micro-Epsilon Messtechnik GmbH & Co. KG | Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts |
US9256220B1 (en) * | 2008-06-25 | 2016-02-09 | The Boeing Company | System and method for monitoring completed manufacturing operations |
KR101096807B1 (ko) * | 2010-01-29 | 2011-12-22 | 주식회사 팬택 | 3차원 위치 정보 획득 장치 및 방법 |
JP5447963B2 (ja) * | 2010-03-01 | 2014-03-19 | サクサ株式会社 | 立体マーカを利用した位置計測システム |
US9804577B1 (en) * | 2010-10-04 | 2017-10-31 | The Boeing Company | Remotely operated mobile stand-off measurement and inspection system |
US8115761B1 (en) * | 2010-10-12 | 2012-02-14 | Google Inc. | Locking geometric and camera parameters in image-based three-dimensional modeling, and applications thereof |
US10327708B2 (en) * | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
JP6435750B2 (ja) * | 2014-09-26 | 2018-12-12 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
CN105551039B (zh) | 2015-12-14 | 2017-12-08 | 深圳先进技术研究院 | 结构光三维扫描系统的标定方法及装置 |
US9747668B2 (en) * | 2016-01-21 | 2017-08-29 | Disney Enterprises, Inc. | Reconstruction of articulated objects from a moving camera |
EP3326527A1 (en) * | 2016-11-23 | 2018-05-30 | TTY-säätiö sr | Method and arrangement for electromagnetic radiation based non-invasive monitoring of a performance of an anatomic object during an operation or medical intervention |
-
2017
- 2017-11-17 US US15/754,279 patent/US11080880B2/en active Active
- 2017-11-17 EP EP17840528.8A patent/EP3465618B1/en active Active
- 2017-11-17 WO PCT/SG2017/050573 patent/WO2019039996A1/en active Application Filing
- 2017-11-17 JP JP2018523788A patent/JP7101616B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002090118A (ja) * | 2000-09-19 | 2002-03-27 | Olympus Optical Co Ltd | 3次元位置姿勢センシング装置 |
JP2003177017A (ja) * | 2001-10-03 | 2003-06-27 | Mamoru Otsuki | 写真測量方法および写真測量プログラム |
US20170094255A1 (en) * | 2015-09-25 | 2017-03-30 | Intel Corporation | Online compensation of thermal distortions in a stereo depth camera |
Also Published As
Publication number | Publication date |
---|---|
EP3465618B1 (en) | 2021-06-09 |
US20190096080A1 (en) | 2019-03-28 |
EP3465618A1 (en) | 2019-04-10 |
WO2019039996A1 (en) | 2019-02-28 |
US11080880B2 (en) | 2021-08-03 |
EP3465618A4 (en) | 2019-05-15 |
JP7101616B2 (ja) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7101616B2 (ja) | 標的要素の位置を特定するためのマシンビジョンシステムおよび方法 | |
CN108074267B (zh) | 交点检测装置及方法、摄像头校正系统及方法及记录介质 | |
CN101305262B (zh) | 测量仪器和使用测量仪器提供测量数据的方法 | |
Habib et al. | Automatic calibration of low-cost digital cameras | |
CN111121754A (zh) | 移动机器人定位导航方法、装置、移动机器人及存储介质 | |
Wang et al. | Automated road sign inventory system based on stereo vision and tracking | |
CN105379264A (zh) | 用于成像设备建模与校准的系统和方法 | |
JP6878415B2 (ja) | ライトフィールド・データ表現 | |
EP2111530A1 (en) | Automatic stereo measurement of a point of interest in a scene | |
Parian et al. | Sensor modeling, self-calibration and accuracy testing of panoramic cameras and laser scanners | |
JPH06129851A (ja) | ステレオカメラの校正方法 | |
CN111429527B (zh) | 一种车载相机的外参自动标定方法及系统 | |
Yilmazturk et al. | Geometric evaluation of mobile‐phone camera images for 3D information | |
CN105979248B (zh) | 具有混合深度估计的图像处理系统及其操作方法 | |
Bulyshev et al. | Three-dimensional super-resolution: theory, modeling, and field test results | |
Robson et al. | Optimised multi-camera systems for dimensional control in factory environments | |
Arfaoui et al. | Fisheye lens calibration using virtual grid | |
CN108444452A (zh) | 目标经纬度和拍摄装置的三维空间姿态的检测方法及装置 | |
Zhou et al. | Calibration method for IATS and application in multi-target monitoring using coded targets | |
CN117109561A (zh) | 融合激光定位的远距二维码地图创建及定位方法、系统 | |
CN109690241A (zh) | 三维测定装置和三维测定方法 | |
US11250589B2 (en) | General monocular machine vision system and method for identifying locations of target elements | |
Zhang et al. | Microscopic vision based on the adaptive positioning of the camera coordinate frame | |
Sampath et al. | Two methods for self calibration of digital camera | |
Lingenauber et al. | In-situ close-range imaging with Plenoptic cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20180629 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7101616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |