JP4849757B2 - Self-calibrating multi-camera machine vision measurement system - Google Patents

Self-calibrating multi-camera machine vision measurement system Download PDF

Info

Publication number
JP4849757B2
JP4849757B2 JP2001569222A JP2001569222A JP4849757B2 JP 4849757 B2 JP4849757 B2 JP 4849757B2 JP 2001569222 A JP2001569222 A JP 2001569222A JP 2001569222 A JP2001569222 A JP 2001569222A JP 4849757 B2 JP4849757 B2 JP 4849757B2
Authority
JP
Japan
Prior art keywords
calibration
relative
target
measurement
measurement device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001569222A
Other languages
Japanese (ja)
Other versions
JP2003528304A (en
Inventor
ジャクソン,デイビッド・エイ
ロブ,マイケル・ジェイ
ワルチャク,ドナルド・エル
Original Assignee
スナップ − オン テクノロジーズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26923227&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4849757(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US09/576,442 external-priority patent/US6968282B1/en
Application filed by スナップ − オン テクノロジーズ,インコーポレイテッド filed Critical スナップ − オン テクノロジーズ,インコーポレイテッド
Publication of JP2003528304A publication Critical patent/JP2003528304A/en
Application granted granted Critical
Publication of JP4849757B2 publication Critical patent/JP4849757B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/275Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment
    • G01B11/2755Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/12Method or fixture for calibrating the wheel aligner
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/14One or more cameras or other optical devices capable of acquiring a two-dimensional image
    • G01B2210/143One or more cameras on each side of a vehicle in the main embodiment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/30Reference markings, reflector, scale or other passive device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/30Reference markings, reflector, scale or other passive device
    • G01B2210/303Reference markings, reflector, scale or other passive device fixed to the ground or to the measuring station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

【0001】
【発明の分野】
この発明は一般に、2つ以上のカメラを有する機械視覚測定システムの校正に関し、より詳細には、自動車ホイール用のコンピュータ支援3次元アライナ(aligner)の自動自己校正を提供する装置および方法に関する。
【0002】
【発明の背景】
2つ以上のカメラを有する機械視覚測定システムは、多くの用途に用いられている。たとえば、自動車のホイールが、コンピュータ支援3次元(3D)機械視覚アライメント装置および関連するアライメント方法を用いて、アライメントラック上でアライメントを行なう場合がある。自動車の3Dアライメントに役に立つ方法および装置の例が、米国特許第5,724,743号「自動車ホイールのアライメントを判断するための方法および装置(Method and apparatus for determining the alignment of motor vehicle wheels)」、および米国特許第5,535,522号「自動車ホイールのアライメントを判断するための方法および装置(Method and apparatus for determining the alignment of motor vehicle wheels)」に記載されている。これらの文献に記載された装置は、「3Dアライナ」または「アライナ」と呼ばれることがある。
【0003】
自動車ホイールのアライメントを判断するには、そのような3Dアライナは、ホイールに取付けられた目標を見るカメラを用いる。これらのアライナは一般に、アライナを最初に作業現場に設置した後に行なわれるべき校正プロセスを必要とする。車両の一側のホイールと車両の他側のホイールとの位置を正確に判断するためには、アライナはあるカメラが他のカメラに対してどこに位置付けられているかを知らなければならない。ある校正方法によれば、大きな目標がカメラの視野内に、通常、アライメントラックの中心線に沿って、かつカメラから遠ざかって位置付けられる。次に、各カメラから得られた情報を用いて、カメラの相対的な位置および配向が判断される。各カメラはそれ自体に対して目標がどこにあるかを示しているため、また、各々は同じ目標を見ているため、システムは各カメラが他に対してどこに位置し配向しているかを計算できる。これは、相対カメラ位置(RCP)校正と呼ばれる。
【0004】
このような校正により、車両の一側から得られた結果を他と比較できるようになる。このため、2つのカメラを互いに対し固定して取付け、次にRCP校正を行なうことによって、システムはそれ以降、車両の一側のホイールを車両の他側に対して配置するために使用できる。RCP伝達関数が、1つのカメラの座標系を他のカメラの座標系へ変換するために用いられ、そのため1つのカメラが見る目標を他のカメラが見る目標に直接関連付けることができる。RCPを行なうための1つのアプローチが、1998年9月22日にジャクソン(Jackson)他に発行された米国特許第5,809,658号「自動車ホイールのアライメントに用いられるカメラを校正するための方法および装置(Method and Apparatus for Calibrating Cameras Used in the Alignment of Motor Vehicle Wheels)」に開示されている。
【0005】
RCP校正は正確であるが、実行するには特殊な取付具と訓練されたオペレータとを必要とする。このため、アライナ用のより簡単で単純な校正プロセスが必要とされている。
【0006】
さらに、校正が行なわれた後でさえ、時がたつにつれてアライナが校正を失う場合がある。前述の文献に開示されたアライナは、校正の損失を最小限に押さえるよう設計されたブームの上に取付けられたカメラを有している。しかし、カメラが震動したりまたは取外された場合、もしくはブーム自体が曲がった場合、アライナは校正を失う。アライナはそれ自体の校正の損失を検出できない。校正の損失は通常、技術者が校正チェックまたは全体校正を行なわない限り検出されない。アライナの校正がずれていることに技術者が気づくまでに長い時間が経過するおそれがある。
【0007】
また、ブームは大きく、高価であり、アライメントラックに入って出ていく車両に障害物を提示する。車両が整備施設内へ前進し、アライメントを受け、次に前進して整備施設を出るという「ドライブスルー」アライメントアプローチが用いられる場合がある。これにより、他の自動車が整備中の車両の後ろに列を作ることが可能となり、アライメント整備の速度および効率を向上させる。固定ブームを有するドライブスルーアライメントのあるアプローチでは、各車両が通過するにつれてカメラブームを進路から上昇させる必要がある。これは、時間がかかり、費用もかかり、ぎこちなくなり得る。
【0008】
前記に基づいて、2つ以上のカメラを有する機械視覚測定システムの自動自己校正を提供する装置および方法に対する明らかな要求が、この分野において存在する。
【0009】
設置現場で校正せずにアライメント整備施設に設置されてもよいアライナに対する要求もあり、それにより、余分なハードウェアおよび訓練されたオペレータの必要性がなくなる。
【0010】
カメラが震動したりまたは取外された場合、もしくはブームが曲がった場合に、自動的にそれ自体を再校正できるアライナに対する要求も存在する。
【0011】
アライナが不正確に測定していたと技術者が判断した場合、またはアライナのカメラの相対位置が変わったのではないかと技術者が疑う場合に、速やかに再校正され得るアライナへの要求も存在する。
【0012】
動作用に固定取付ブームを必要とせず、したがって、ビームおよびカメラを上昇させる必要なくドライブスルーアライメントが可能となるような3Dアライナを有することも、有利である。
【0013】
【発明の概要】
前述の要求と目的、および以下の説明から明らかとなる他の要求は、この発明の実施例によって実現され、それは、一局面では、機械測定システムを校正するための装置を含む。一実施例では、第1のカメラと第2のカメラとを有する機械測定システムは、機械視覚測定システムの第1のカメラに予め定められた関係で取付けられた第1の校正目標と、機械測定システムの第2のカメラに予め定められた関係で取付けられた第3のカメラとを含む。校正目標は第3のカメラから見られる。データプロセッサは、第3のカメラに対する第1の校正目標の相対位置に基づいて、機械測定システムの相対カメラ位置値を計算するよう構成されており、相対カメラ位置値は、第2のカメラに対する第1のカメラの相対位置を表わす。この校正はたびたび、たとえば第1および第2のカメラがホイール目標などの対象物を測定するたびに行なうことができる。
【0014】
この発明を、限定のためではなく例示のために、添付図面の図に示す。同じ参照符号は同様の要素を指している。
【0015】
【好ましい実施例の詳細な説明】
2つ以上のカメラを有する機械視覚測定システムの自動校正のための方法および装置を記載する。以下の記載では、説明のために、多数の特定の詳細がこの発明の完全な理解を提供するために述べられている。しかし、この発明がこれらの特定の詳細なしに実施されてもよいということは、当業者には明らかである。他の場合、この発明を不必要に不明瞭にしないよう、周知の構成およびデバイスはブロック図の形で示されている。
【0016】
−−構造上の概要
図1は、自動車のホイールにアライメントを行なうために用いられる左カメラモジュール2と右カメラモジュール4とを一般に含むコンピュータ支援3D自動車ホイールアライメントシステム(アライナ)のある要素の概略平面図である。このようなアライナは、2つ以上のカメラを有する機械視覚測定システムの一例であるが、この発明は自動車アライナという状況に限定されず、それは、2つ以上のカメラを有するあらゆる機械視覚測定システムに、または2つ以上の測定デバイスを有するあらゆる機械測定システムに同等に適用可能である。また、「左」および「右」という用語は便宜上用いられており、特定の要素が別の要素に対して特定の場所に、または特定の関係で配置されることを要求する意図はない。「左」の要素であると述べられたいずれの要素も、「右」の場所に配置されてもよく、その逆も当てはまる。
【0017】
矢印30は、アライメントを受けている自動車を概略的に表わしている。車両は、左フロントホイール22Lおよび右フロントホイール22Rと、左リアホイール24Lおよび右リアホイール24Rとを含む。アライメント目標80a、80b、80c、80dは、ホイール22L、22R、24L、24Rの各々に、それぞれ固定されている。各アライメント目標は一般に、目標情報がその上に刻み込まれているプレート82と、目標をホイールに固定するためのクランプ機構88とを含む。
【0018】
左カメラモジュール2は、左アライメントカメラ10Lと校正カメラ20とを含む。左アライメントカメラ10Lは車両に面しており、軸42に沿って左側の目標80a、80bを見る。左アライメントカメラ10Lは、米国特許第5,724,743号「自動車ホイールのアライメントを判断するための方法および装置(Method and apparatus for determining the alignment of motor vehicle wheels)」、および米国特許第5,535,522号「自動車ホイールのアライメントを判断するための方法および装置(Method and apparatus for determining the alignment of motor vehicle wheels)」に記載されたアライナにおけるアライメントカメラのうちの1つとして機能してもよい。カメラ10Lは、左剛性取付台12に固定して取付けられている。
【0019】
校正カメラ20は右カメラモジュール4に面しており、軸46に沿って校正目標16を見る。校正カメラ20も取付台12に固定して取付けられている。一実施例では、軸42と軸46とは約90°の角度を張っている。しかし、この特定の角度関係は要求または必要とされていない。
【0020】
この例示的な実施例では、校正カメラ20は、左カメラモジュール2の一部を形成するものとして図示されている。しかし、校正カメラ20は、右カメラモジュール4の一部としても構成されてもよく、その場合、そのビューは左カメラモジュール2へと左に向けられる。
【0021】
右カメラモジュール4は、車両に面して3Dアライメントシステムにおける第2のアライメントカメラとして機能する右カメラ10Rを含む。右カメラ10Rは、剛性のカメラ取付台14に取付けられる。校正目標16は、カメラ取付台14に、軸46に沿って校正カメラ20から見える位置に固定して取付けられている。
【0022】
校正カメラ20と左カメラ10Lとは、予め定められた公知の位置に固定されている。同様に、右カメラ10Rと校正目標16とは、予め定められた公知の位置に固定されている。このため、左カメラ10Lに対する校正カメラの相対位置は公知であり、校正目標16に対する右カメラ10Rの相対位置も公知である。左カメラモジュールに含まれる2つのカメラの相対位置は、精密カメラ取付ハードウェアを用いることにより得られる。別のアプローチとしては、2つのカメラの位置を工場校正し、それらを保存して後に使用することが挙げられる。
【0023】
左カメラ10Lおよび校正カメラ20の左取付台12への取付けは、カメラが取付台に対して動いた場合に生じうる校正誤差を招かないよう、堅固である必要がある。同様に、右カメラ10Rおよび校正目標16の取付台14への取付けも、堅固である必要がある。
【0024】
校正目標16およびホイール目標80a−80dを照らすため、左カメラモジュール2と右カメラモジュール4とは、光源62、64、66をさらに含んでいてもよい。一実施例では、第1の光源62は軸46に垂直に整列され、その軸に沿って光を向けて校正目標16を照らす。第2の光源64は、軸42に垂直に整列され、その軸に沿って光を向けて左側のホイール目標80a、80bを照らす。第3の光源66は軸44に垂直に整列され、その軸に沿って光を向けて右側のホイール目標80c、80dを照らす。一実施例では、光源62、64、66の各々は、複数の発光ダイオード(LED)がその上に取付けられ、照明方向に面した回路基板またはその他の基板を含む。しかし、他のいかなる光源を使用してもよい。
【0025】
図2は、アライメントシステムが左直立材52と右直立材54とを含む、代替的な実施例の図である。各直立材52、54は、アライメントラックまたは整備施設の床に取付けられた剛性ポストを含んでいてもよい。左アライメントカメラ10Lと校正カメラ20とは、保護筐体および剛性取付台として機能する左直立材52内に取付けられている。カメラは、アライメント中の自動車とアライメント目標16とを、直立材52の好適な穴または窓を通して見てもよい。右アライメントカメラ10Rは、右直立材54内に取付けられて封入されており、カメラ10Rは右直立材54の好適な穴または窓を通して車両を見てもよい。
【0026】
校正目標16は、直立材54の外部表面に、校正カメラ20から見える位置に取付けられてもよい。またこれに代えて、校正目標16は、直立材54内に取付けられ、直立材54の好適な穴または窓を通して校正カメラ20に見られてもよい。
【0027】
光源62、64、66は、直立材52、54の外部表面に取付けられていてもよい。
【0028】
−−第1のカメラモジュール(第1および第3のカメラ)の校正の概要
アライナが使用可能となる前に、カメラモジュールまたはポッド(1つのポッドが第1および第3のカメラを有し、第2のポッドが第2のカメラおよび校正目標を有する)の各々についてその構成要素の相対位置が決定されねばならない。
【0029】
剛性取付台12が高い許容公差(たとえば、0.01″および0.01°)で製造されている場合、左カメラ10Lと校正カメラ20との相対位置はわかっており、それら2つのカメラの相対位置を校正する必要はない。それらの相対位置は公知であろうし、同じことがすべてのアセンブリについて言えるであろう。しかし、コストを減じる方法として、ポッド内のカメラまたは目標のそれぞれについて相対位置を校正または測定してもよい。
【0030】
図6Aは、3つ以上のカメラを有する機械視覚測定システムの第1のカメラモジュールを校正するプロセスを示すフロー図である。
【0031】
一般に、一実施例において、左カメラモジュール10Lの校正のために、互いに対して固定的に取付けられた2つの目標が、複数のカメラのうち1つのカメラの視野内に配置される。そのカメラは、3つのカメラのうちのいずれか1つであってもよいし、製造の際のセットアップを容易にする目的で、別のカメラであってもよい。コンピュータは、2つの目標の相対位置(RTP)を計算する。その後、それらの目標が、第1のカメラが一方の目標を、第3のカメラが第2の目標を見るように動かされる。目標位置の測定値が計算される。RTPおよび今しがた測定された目標の位置に基づいて、第1のカメラおよび第3のカメラの位置が計算される。
【0032】
このアライメントカメラと校正カメラの相対位置を校正するサブプロセスについて、図3A、図3B、図3C、図3Dおよび図6Aを参照して以下に説明する。
【0033】
ブロック602において、第1のカメラおよび校正カメラを有する左カメラモジュールをセットアップする。ブロック604において、複数の目標を左カメラの視野内にセットアップする。たとえば、図3Aは、左アライメントカメラ10Lと校正カメラ20との相対位置を測定および校正するための方法において使用され得る装置を示す図である。目標アセンブリ70は、フレーム76に固定された2つの目標72、74を含む。目標アセンブリは、両方の目標72、74が左アライメントカメラ10Lから見えるように、そのカメラ10Lの視野内に軸42に沿って配置される。この配置により、カメラ10Lは目標72、74を、ほぼ図3Bに示される構成で見るようになる。カメラ10Lによって画像90が生成されるが、これは目標72、74の目標画像92を含む。
【0034】
ブロック606において、相対目標位置値が計算される。たとえば、公知の機械視覚技術を使用して、適切なソフトウェアに従ってプログラムされたデータプロセッサが、画像90を受取って、目標画像92に基づいて各目標72、74の場所を測定することが可能である。このデータプロセッサはその後、目標72、74の各々について相対目標位置(RTP)値を計算することができる。
【0035】
ブロック608において、複数の目標が、一方の目標が第1のカメラの視野内に、他方の目標が校正カメラから見えるようにセットアップされる。たとえば、図3Cを参照して、目標アセンブリは、目標72、74がそれぞれ左アライメントカメラ10Lおよび校正カメラ20によって見えるように動かされる。目標フレームは、校正を行なう技術者によって手動で動かされてもよく、電動装置によって動かされてもよい。この位置で、左アライメントカメラ10Lは図3Dに示される画像90に似た画像を形成する。画像90は、カメラ10Lが見た目標72のビューを表わす目標画像94を含む。ブロック610に示すように、現時点における目標位置値が計算される。たとえば、各カメラに対する各目標72、74の位置値が、機械視覚画像分析技術を使用して計算される。
【0036】
その後、ブロック612に示すように、校正カメラに対する第1のカメラの位置が計算される。たとえば、RTP値および目標位置値に基づいて、校正カメラ20に対する左アライメントカメラ10Lの相対カメラ位置を表わす値(「RCP左モジュール値」)が計算される。
【0037】
−−第2のカメラモジュール(第2のカメラおよび校正目標)の校正の概要
カメラと目標とを含むポッドまたはモジュール、たとえば右カメラモジュール10Rを校正するためのプロセスを、図6Bのフローチャートを参照して以下に説明する。ブロック613で示されるように、右カメラモジュール10Rがまずセットアップされる。右カメラモジュール10Rは厳しい許容公差で製造されてもよいが、コストを減じるために、相対位置の測定を含む校正アプローチが用いられてもよい。一般に、図4A、図4Bおよび図4Cに示すように、データ目標が第2のカメラの視野内に配置される。別のカメラ(「セットアップカメラ」)が、校正目標とデータ目標の両方を見る位置に配置される。セットアップカメラはコンピュータと協働して、2つの目標のRTPを測定する。第2のカメラはデータ目標の位置を測定し、コンピュータはRTP値に基づいて、第2のカメラに対する校正目標の位置を判断する。
【0038】
図4Aは、校正目標16に対する右カメラ10Rの位置を測定しかつしたがって校正するための方法において使用され得る装置を示す図である。この装置は、右カメラと校正目標との相対位置が予めわかっていないときに使用され得る。一実施例において、図4Aの装置は、アライナの工場校正プロセスの一部として作製される。
【0039】
ブロック614に示すように、セットアップカメラおよび付加的な目標(「データ目標」)が適所に配置され得る。データ目標104は右カメラモジュール4の正面に位置付けられて、右アライメントカメラ10Rによって見えるようにされる。付加的なカメラであるセットアップカメラ100は、右カメラモジュール4の側方に位置付けられて、データ目標104および校正目標16の両方を見ることができるようにされる。
【0040】
ブロック616に示すように、相対目標位置値が、セットアップカメラのビューを使用して、データ目標と校正目標との位置に基づいて計算される。たとえば、図4Bは、上述の構成においてセットアップカメラ100によって見られるビュー106を示す図である。ビュー106は、校正目標の第1の画像16′と、データ目標104の第2の画像104′とを含む。このビューを機械視覚処理システムへの入力として用いることで、データ目標104および校正目標16の位置がセットアップカメラ100を使用して測定される。これらの測定値から、データ目標104と校正目標16との相対目標位置についての値(「RTPセットアップ値」)が得られる。
【0041】
ブロック617において、第2のカメラに対するデータ目標の相対位置が得られる。ブロック618に示すように、相対目標位置セットアップ値と、第2のカメラに対するデータ目標の相対位置とに基づいて、相対カメラ目標位置値が計算される。
【0042】
たとえば、図4Cは、上述の構成において右アライメントカメラ10Rによって見られるビュー108を示す図である。ビュー108は、データ目標104の第2の画像104″を含む。ビュー108を機械視覚処理システムへの入力として使用して、右アライメントカメラ10Rに対するデータ目標104の位置が測定される。右アライメントカメラ10Rに対するデータ目標104の相対位置を表わす値およびRTPセットアップ値を使用して、相対カメラ目標位置値(RCTP)が計算される。このRCTP値は、右校正目標16に対する右アライメントカメラ10Rの関係を表わす。
【0043】
この時点において、左アライメントカメラ10Lと校正カメラ20との相対位置が今やRCP左モジュール値の形でわかっている。さらに、校正目標16に対する右アライメントカメラ10Rの相対位置もまた、RCTP値の形でわかっている。左アライメントカメラ10Lが校正カメラ20に対して固定的に取付けられており、また、右アライメントカメラ10Rが校正目標16に対して固定的に取付けられているので、それらの相対位置が変化することはない。一実施例において、上記工程は通常、アライナシステムが製造される製造業者の敷地(サイト)で行なわれる。アライナシステムはしたがって、ブロック620に示すように、製造業者のサイトで校正される。
【0044】
−−製造業者のサイトで校正されたシステムの使用
製造業者のサイトにおいて校正が済んでいるシステムで、アライメントを行なうことができる。図1に示すように、カメラモジュール2および4はアライメントされるべき車両の正面に配置されている。左カメラモジュール2は、左アライメントカメラ10Lがその車両の左側を見、校正カメラ20が右カメラモジュール4の校正目標10を見ることができるように配向される。右カメラモジュール4は、右アライメントカメラ10Rが車両の右側を見、校正目標16が校正カメラ20から見えるように位置付けられている。これは図1に示すとおりである。
【0045】
図5Aは、アライメント作業が行なわれている間にこの構成における左アライメントカメラ10Lから見えるビュー110を示す図である。ビュー110は、アライメントが行なわれている車両の左ホイール上にあるアライメント目標80a、80bの画像を含む。
【0046】
図5Bは、この構成において校正カメラ20が見るビュー112を示す図である。ビュー112は、校正目標16の画像16″を含む。
【0047】
図5Cは、右アライメントカメラ10Rによって見られるビュー114を示す図である。ビュー114は、アライメントが行なわれている車両の右ホイール上にあるアライメント目標80c、80dの画像を含む。
【0048】
図6Cは、自動車アライメント作業中にカメラ校正を行なうプロセスを示すフロー図である。これは一実施例においては仕事場で行なわれる。ブロック629において、第1のカメラ、第2のカメラ、校正カメラおよび校正目標を有するアライナが上述のようにセットアップされる。ブロック630において、自動車ホイールアライメント作業またはプロセスが開始される。ブロック630は、車両をアライメントラックに移動し、ホイール目標を車両のホイールに取付け、アライナを初期化し、アライナのカメラでホイール目標を視野に捉える工程を含み得る。
【0049】
ブロック632において、校正カメラが、その校正カメラに対する校正目標の位置および配向を測定する。たとえば、アライナが設置されたとき、および、使用中または自動車のアライメント中に周期的に、校正カメラ20はその校正カメラに対する校正目標16の位置および配向を測定し得る。
【0050】
ブロック634において、RCP値およびRCTP値が、典型的にメモリから得られる。一実施例において、これらの値は上述のように計算されてメモリに記憶される。ブロック636に示すように、これらの値(RCP左モジュール値、RCTP右モジュール値および校正目標位置)に基づいて、左アライメントカメラ10Lと右アライメントカメラ10Rとの相対位置を表わす値が計算される。これらの値は、アライナの相対カメラ位置(RCP)と呼ばれる。アライナはその後、ブロック638に示すように、車両を前方に見て、車両のアライメント測定を進めることができる。
【0051】
校正プロセスは、コンピュータがアライメントにおける他の通常の機能を実行している間に、「バックグラウンド」モードまたはバックグラウンドプロセッサで行なうことができる。
【0052】
RCP値の計算はいつ行なわれてもよく、車両アライメント測定の前、その間またはその後に行なわれてもよい。たとえば、RCP値の計算は、正確なアライメントを提供するために、1秒につき数回、1日1回、仕事日の開始時または最後に、と、適宜行なうことができる。
【0053】
−−変形例
代替的な実施例において、現場の環境またはサービスショップにおいてアライナが使用される前に、左カメラモジュール2の校正カメラ20と左アライメントカメラ10Lの相対位置や右カメラモジュール4のカメラ対目標位置を工場で測定することなく、上述の装置およびプロセスが使用され得る。この代替例においては、第1および第2のカメラのRCPを計算するための上記特許文献に述べられたRCP手順または等価なプロセスを使用して、標準的な現場校正が実行される。その後、校正カメラ20が校正目標16の位置を測定するが、校正カメラ20は周期的に校正目標16を見て、その相対位置を測定する。その測定値が校正カメラ20と目標16の相対位置の変化を示した場合、左カメラモジュール2が右カメラモジュール4に対して動いたことになる。その変化の値を使用して、アライナのRCP値を再計算し更新することが可能である。
【0054】
別の代替的な実施例においては、プロセスをさらに簡略化するために、アライナのRCP値が計算された後に、校正カメラ20と校正目標16との相対位置が測定される。この測定値は、アライナの設定時に行なわれた校正目標16に対する校正カメラ20の相対位置の当初測定値と、周期的に比較される。これら2つの測定値が所定の許容公差を超えて異なった場合、アライナはオペレータに対して、そのアライナがもはや校正できていないことを知らせる。これに応じて、オペレータまたはサービス技術者は、たとえばRCP方法を使用して、校正を再び行なうことができる。
【0055】
また別の代替的な実施例においては、アライナに3つ以上のアライメントカメラモジュールが備えられる。該装置は、各々の付加的なアライメントカメラモジュールにつき、付加的な校正カメラおよび校正目標を含む。付加的な各アライメントカメラモジュールは、上述のプロセスに従って、その付加的なモジュールを校正する付加的な処理工程で校正される。付加的な各モジュールにおける各カメラがその関連する校正目標に対して固定的に取付けられていれば、装置全体は自動的に校正され得る。
【0056】
また別の実施例においては、校正カメラと校正目標とが異なる測定モジュール上に取付けられる。この構成は、ホイールがアライメントしているかどうかを判断するための1または複数のレーザシステムを使用する非接触アライナとともに使用され得る。
【0057】
さらに、ここで説明するプロセスは、校正カメラ20の機能を実行するカメラ以外の要素を使用する実施例においても使用され得る。ある実施例においては、ビデオカメラが必須ではないが使用されてもよく、また、どのような好適な画像取込デバイスまたはどのような従来の測定デバイスが使用されてもよい。たとえば、1または複数のアライメントカメラ10L、10Rの互いに対するまたは固定点に対する運動を検出するのに、重力ゲージまたはストリングゲージを配置してもよい。これに代えて、LED光源を1つのカメラモジュールに取付けて、対向するカメラモジュールに取付けられた検出器に光ビームを当てるようにしてもよい。その検出器は検出器表面上で最大の光強度を有する点を判断するが、もしその点が時間の経過とともに動けば、カメラが移動したものと判断され、RCP値が更新されるか、または、そのシステムが校正できていないことを示すフラグがセットされる。
【0058】
−−コンピュータベースの数学的計算
図8は、上述のシステムにおいて使用される数値のコンピュータベースの数学的計算の基礎を提供する、カメラと座標系の幾何学的関係を示す簡略図である。
【0059】
図8において、CSA(座標系A)は、第1のアライメントカメラに関連する第1の3次元座標系を特定する。CSBは、第2のアライメントカメラに関連する第2の座標系を特定する。CSWは、基準の目的で使用される左ホイール座標系を特定する。CAは、CSWの原点からCSAの原点へのベクトルである。CBは、CSWの原点からCSBの原点へのベクトルである。Pは空間内の点である。
【0060】
PWは、CSWの原点からPへのベクトルである。CSWに対する、PWの成分は以下のとおりである。ここで、・は、ドット積の計算を示す。
【0061】
【数1】

Figure 0004849757
【0062】
UA0、UA1およびUA2は、CSAの単位ベクトル、すなわち、そのx軸、y軸およびz軸である。CSWに対して、UA0の成分は以下のとおりである。
【0063】
【数2】
Figure 0004849757
【0064】
UA1、UA2、UB0、UB1およびUB2の成分は、同様に計算することができる。
【0065】
PAは、CSAの原点からPへのベクトルである。CSAに対して、PAの成分は以下のとおりである。
【0066】
【数3】
Figure 0004849757
【0067】
PBは、CSBの原点からPへのベクトルである。CSBに対して、PBの成分は以下のとおりである。
【0068】
【数4】
Figure 0004849757
【0069】
したがって、一実施例においては、コンピュータ記憶装置を用いて、MWAの4×4行列の値を使用して、CSWに対するCSAを完全に記述することができる。MWAの最初の3列の4ベクトルは、CSWに対するCSAの単位3ベクトルであり、その第4の成分はゼロの値を有する。MWAの最後の4ベクトルは、CSAに対する、CSWの原点(中心)からCSAの原点への3ベクトルであり、その第4の成分は1の値を有する。これらの4ベクトルおよび4×4行列を「同次座標("homogeneous coordinates")」と呼ぶ。
【0070】
左上方の3×3行列は単にCSAをCSWに対応付ける回転行列(rotation matrix)であり、最右行は平行移動または並進(translation)である。
【0071】
CSAに対する任意の点(すなわち、CSAにおけるその点の座標、これは、CSAの単位ベクトルに対する、CSAの原点からその点へのベクトルの成分である)が与えられると、行列MWAは、CSWにおける当該点の座標をどのように計算すべきかを示す。すなわち、PA(CSAに対する座標ベクトル)をMWAで乗算することにより、PW(CSWに対する座標ベクトル)が得られる。
【0072】
それぞれの値が行列の形で得られたので、行列数学(matrix mathematics)を使用することができる。特定的に、もしPW=MWA*PAであれば、PA=MWA-1*PWである。
【0073】
上の定義により、4×4行列MWA-1は、CSAに対するCSWを完全に特徴付けるかまたは記述する。上記はまた、PAがPWで置換されかつMWAがMWA-1で置換された場合にも当てはまる。MWA-1を得るのに、以下のプロセスが用いられる。
【0074】
1.左上方の3×3行列を転置(transpose)する。
2.最右列のベクトル(CAx、CAy、CAz、1)、すなわち、CSWに対する、CSWの原点からCSAへのベクトルを、(−CA0、−CA1、−CA2、1)、すなわち、CSAに対する、CSAの原点からCSWの原点へのベクトル(後者は、CSWの原点からCSAの原点へのベクトルCAとは反対方向である)に置き換える。
【0075】
【数5】
Figure 0004849757
【0076】
上の3×3行列は、4×4行列MWAにおける左上方の3×3行列の転置であり、MWA-1の左上方の3×3行列位置に入るものである。したがって、以下のとおりとなる。
【0077】
【数6】
Figure 0004849757
【0078】
表記を一致させる目的で、4×4行列MWAがCSWに対するCSAを完全に特徴付けるかまたは記述し、かつMWA-1がCSAに対するCSWを完全に特徴付けるかまたは記述する場合には、MWA-1=MAWである。
【0079】
【数7】
Figure 0004849757
【0080】
4×4行列MABは、CSAに対するCSBを完全に特徴付けるかまたは記述する。したがって、MABはRCPまたはRTP行列である。
【0081】
ある例示的なソフトウェア実現においては、VECTOR(ベクトル)構造は3つの数字のアレイとして定義され、MATRIX(行列)構造は3つのVECTORのアレイとして定義され、PLANE(平面)構造は1つのMATRIXおよび1つのVECTORである。MATRIXは3×3の回転行列であり、そのVECTORは座標系の3つの単位ベクトルであり、各VECTORはその座標系の原点へのベクトルである。これらすべてのVECTORの成分は、ベース座標系に対して表わされる。
【0082】
ある例示的な関数においては、WCSに対して定義される平面1はMWAであり、WCSに対して定義される平面2はMWBであり、平面1に対して定義される平面2はMABであり、平面2に対して定義される平面1はMBAである。そこで、APIを有する関数が以下のように定義され得る。
【0083】
【数8】
Figure 0004849757
【0084】
積4×4行列MWBの左上方の3×3は、MWAとMABの左上方における3×3行列値の積である。これは、すべての4×4行列の最下行における0値の結果である。積4×4行列MWBの最右列は、MWAの左上方3×3およびMABの最右列ベクトルの積と、MWAの最右列ベクトルとの和であり、これもまた、すべての4×4行列の最下行における0値および1値の結果である。
【0085】
計算時間を短縮するために、一実施例においては、4×4行列の最下行について0または1による乗算は行なわれない。したがって、3×3行列および3ベクトルの乗算、加算および転置演算が行なわれる。
【0086】
他の変換(transformation)についても、同様の関数が以下のように定義され得る。
【0087】
【数9】
Figure 0004849757
【0088】
上記の説明から、MWAの4×4行列の値を使用して、CSWに対するCSAを完全に記述できることがわかる。さらに、MWAの逆行列である行列MWA-1が、CSAに対するCSWを完全に記述する。したがって、以下が成り立つ。
【0089】
【数10】
Figure 0004849757
【0090】
機械視覚分析技術を使用して、上述のシステムは、目標のカメラ画像、たとえば図3Bに示す画像90を得て、そのカメラに対するその目標の座標系を計算することができる。
【0091】
相対目標位置(RTP)の計算について、図3Aを参照して以下に説明する。RTPを計算する目的で、
CSLを左カメラ10Lの座標系とする。
【0092】
CSAを目標72の座標系とする。
MLAはCSLに対するCSAを表わす。
【0093】
CSBを目標74の座標システムとする。
MLBはCSLに対するCSBを表わす。
【0094】
左カメラ画像90が目標72および74の画像92を含むとすると、機械視覚分析技術により、行列MLAおよびMLBが作成され記憶される。したがって、(目標72と目標74との間の)RTP値は以下によって得られる。
【0095】
【数11】
Figure 0004849757
【0096】
これに基づいて、該システムは、MLBからMLAをまたその反対を、以下によって計算することができる。
【0097】
【数12】
Figure 0004849757
【0098】
RTPの値が作成され記憶されると、目標アセンブリ70を、左カメラ10Lが目標72を見、校正カメラ20が目標74を見るように動かすことができる。CSCが校正カメラ20の座標系であるとする。左カメラ画像90が目標70の画像94(図3D)を含むものとし、また、校正カメラ画像96が目標74の画像98(図3D)を含むものとして、機械視覚分析技術により、CSLに対するCSAを記述する行列MLA、および、CSCに対するCSBを記述するMCBが作成されかつ記憶される。
【0099】
これらの行列に基づいて、校正カメラ20に対する左カメラ10Lの相対カメラ位置RCPの値を、以下のように計算することができる。
【0100】
【数13】
Figure 0004849757
【0101】
また、左カメラ10Lに対する校正カメラ20の相対カメラ位置RCPを、以下のように計算することができる。
【0102】
【数14】
Figure 0004849757
【0103】
次に、右カメラ10Rに関する値の計算を提示する。図4Aを参照して、
CSSがセットアップカメラ100の座標系であるとする。
【0104】
CSRが右カメラ10Rの座標系であるとする。
CSQが校正目標16の座標系であるとする。
【0105】
CSDがデータ目標104の座標系であるとする。
図4Bのセットアップカメラ画像106が校正目標16およびデータ目標104の画像16′および104′を含むものとすると、機械視覚分析技術により、CSSに対するCSQを記述する行列MSQと、CSSに対するCSDを記述するMSDとが作成され記憶される。さらに、右カメラ画像108がデータ目標104の画像104″を含むものとすると、機械視覚分析技術により、CSRに対するCSDを記述する行列MRDが作成され記憶される。MAQは、校正目標16とデータ目標104との間のRTP(CSQに対するCSD)を記述する。
【0106】
その後、右カメラに対する校正目標16の座標系、すなわちCSRに対するCSQが、以下によって得られる。
【0107】
【数15】
Figure 0004849757
【0108】
したがって、左カメラに対する校正カメラを記述するMLCの値、および、右カメラに対する校正目標を記述するMRQの値を計算することができる。
【0109】
通常の動作において、システムは、図5A、図5B、図5Cに示される種類の画像を生成する。左カメラ10Lは、2つの左ホイール目標の画像110(図5A)を生成する。機械視覚分析技術により、左カメラの座標系におけるホイール目標の座標系に関する値が作成され記憶される。左カメラの座標系がワールド座標系として規定される場合には、左ホイール目標がワールド座標系へと転置される。
【0110】
校正カメラ20は、校正目標の画像112(図5B)を生成する。機械視覚分析技術により、校正カメラの座標系、MCQにおける、校正目標の座標系に関する値が作成され記憶される。
【0111】
右カメラ10Lは、2つの右ホイールの目標について図5Cに示す画像114を生成する。機械視覚分析技術により、右カメラの座標系、MRWにおける、それらホイール目標の座標系に関する値が作成され記憶される。ここでの「W」は「ワールド」ではなく「ホイール」を意味する。通常、左カメラの座標系がワールド座標系として機能する。
【0112】
右ホイール目標の値は、MLW、すなわち左(ワールド)座標系における右ホイール目標を計算することによって、左ホイール目標と同じワールド座標系へと転置することができる。校正プロセスから、MLCおよびMRQの値はわかっている。該システムは、図5Bの画像に基づいてMCQを測定し、図5Cの画像に基づいてMRWを測定する。したがって、以下が成り立つ。
【0113】
【数16】
Figure 0004849757
【0114】
−−ハードウェアの概要
図7は、本発明の実施例を実現することが可能なコンピュータシステム700を示すブロック図である。コンピュータシステム700は、デバイス100の一部もしくはすべてのための配列として、または、デバイス100と通信する外部コンピュータもしくはワークステーションの配列のために、使用され得る。
【0115】
コンピュータシステム700は、情報を通信するためのバス702または他の通信機構と、バス702に結合されて情報を処理するためのプロセッサ704とを含む。コンピュータシステム700はまた、バス702に結合されてプロセッサ704によって実行されるべき命令および情報を記憶するための、ランダムアクセスメモリ(RAM)または他の動的記憶デバイス等のメインメモリ706を含む。メインメモリ706は、プロセッサ704によって実行されるべき命令の実行中に、一時的な変数または他の中間情報を記憶するのにも使用され得る。コンピュータシステム700はさらに、バス702に結合されてプロセッサ704のための命令および静的な情報を記憶するための、読出専用メモリ(ROM)708または他の静的な記憶デバイスを含む。磁気ディスクまたは光ディスク等の記憶デバイス710が、情報および命令を記憶するために備えられ、バス702に結合される。
【0116】
コンピュータシステム700は、バス702を介して、コンピュータユーザに対して情報を表示するための陰極線管(CRT)等のディスプレイ712に結合され得る。英数その他のキーを含む入力デバイス714がバス702に結合されて、プロセッサ704に対して情報およびコマンド選択を通信する。ユーザ入力デバイスの別の種類として、マウス、トラックボールまたはカーソル指示キー等のカーソルコントロール716があるが、これは、プロセッサ704に対して指示情報およびコマンド選択を通信し、また、ディスプレイ712上のカーソルの動きを制御する。この入力デバイスは典型的に2つの軸、すなわち第1の軸(たとえばx)および第2の軸(たとえばy)で2度の自由度を有し、これにより該デバイスは、平面内の位置を特定することができる。
【0117】
本発明の複数の実施例は、アライナの自動校正のためのコンピュータシステム700の使用に関連する。本発明の一実施例に従えば、アライナの自動校正は、プロセッサ704がメインメモリ706に含まれる1または複数の命令の1または複数のシーケンスを実行することに応答して、コンピュータシステム700によって提供される。それらの命令は、記憶デバイス710等の別のコンピュータ可読媒体からメインメモリ706内に読込まれ得る。メインメモリ706に含まれる命令のシーケンスの実行により、プロセッサ704はここに記載されたプロセス工程を行なう。代替的な実施例においては、この発明を実現するソフトウェア命令に代えて、またはそれらのソフトウェア命令と組合せて、ハードワイヤード回路が使用され得る。したがって、本発明の実施例は、ハードウェア回路およびソフトウェアのどのような特定的な組合せにも限定されることはない。
【0118】
ここで使用される「コンピュータ可読媒体」という語は、命令を実行のためにプロセッサ704に提供することに関わるどのような媒体をも意味する。そのような媒体は、限定するものではないが、不揮発性媒体、揮発性媒体および伝送媒体を含む、多数の形をとることができる。不揮発性媒体は、たとえば、記憶デバイス710のような光または磁気ディスクを含む。揮発性媒体は、メインメモリ706のような動的メモリを含む。伝送媒体は、バス702を構成するワイヤを含む、同軸ケーブル、銅製ワイヤおよび光ファイバを含む。伝送媒体はまた、電波および赤外線データ通信中に生成されるような、音波または光波の形をとってもよい。
【0119】
コンピュータ可読媒体の一般的な形として、たとえば、フロッピー(R)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、もしくは他の磁気媒体、CD−ROM、その他の光学媒体、パンチカード、紙テープ、その他の穴のパターンを有する物理的媒体、RAM、PROMおよびEPROM、FLASH−EPROM、その他のメモリチップもしくはカートリッジ、以下に記載するような搬送波、および、コンピュータで読取り可能なその他の媒体、が挙げられる。
【0120】
コンピュータ可読媒体の種々の形は、プロセッサ704で実行されるように1または複数の命令の1または複数のシーケンスを搬送することに関連し得る。たとえば、それらの命令はまず、遠隔コンピュータの磁気ディスク上で搬送され得る。遠隔コンピュータは、それらの命令をその動的メモリへとロードし、モデムを使用して電話線を介して送信することができる。コンピュータシステム700に対してローカルなモデムは、その電話線上のデータを受信して、赤外線トランスミッタを使用してそのデータを赤外線信号に変換することができる。赤外線検出器は、赤外線信号で搬送されたデータを受信することができ、適切な回路がそのデータをバス702上に置くことができる。バス702はそのデータをメインメモリ706へと搬送し、プロセッサ704はそこから命令を取出して実行する。メインメモリ706によって受取られた命令は、プロセッサ704によって実行される前にまたはその後に、記憶デバイス710に適宜記憶され得る。
【0121】
コンピュータシステム700はまた、バス702に結合された通信インターフェイス718を含む。通信インターフェイス718は、ローカルネットワーク722に接続されたネットワークリンク720に結合して双方向データ通信を提供する。たとえば、通信インターフェイス718は、対応する種類の電話線へのデータ通信接続を提供する、総合デジタル通信網(ISDN)カードまたはモデムであってもよい。別の例として、通信インターフェイス718は、互換性のあるLANへのデータ通信接続を提供する、ローカルエリアネットワーク(LAN)カードであってもよい。無線リンクが実現されてもよい。どのような実現においても、通信インターフェイス718は、種々の情報を表わすデジタルデータストリームを搬送する電気信号、電磁信号または光学信号を送受信する。
【0122】
ネットワークリンク720は典型的に、1または複数のネットワークを介した他のデータデバイスとのデータ通信を提供する。たとえば、ネットワークリンク720は、ローカルネットワーク722を介したホストコンピュータ724への、またはインターネットサービスプロバイダ(ISP)726によって動作するデータ機器への接続を提供し得る。そしてISP726は、今では一般に「インターネット」728と称されるワールドワイドパケットデータ通信ネットワークを介して、データ通信サービスを提供する。ローカルネットワーク722およびインターネット728はいずれも、デジタルデータストリームを搬送する電気信号、電磁信号または光学信号を使用する。種々のネットワークを通る信号および、デジタルデータをコンピュータシステム700との間で搬送する通信インターフェイス718を通るネットワークリンク720上の信号は、情報を運搬する搬送波の例示的な形である。
【0123】
コンピュータシステム700は、1または複数のネットワーク、ネットワークリンク720および通信インターフェイス718を介して、メッセージを送信しかつプログラムコードを含むデータを受信することができる。インターネットの例においては、サーバ730がインターネット728、ISP726、ローカルネットワーク722および通信インターフェイス718を介して、アプリケーションプログラムに必要とされるコードを伝送し得る。本発明の実施例に従えば、そのようなダウンロードされたあるアプリケーションが、ここに記載したアライナの自動校正を可能にする。
【0124】
受取られたコードは、そのままの形で、プロセッサ704によって実行され、および/または、後に実行できるように記憶デバイス710もしくは他の不揮発性記憶装置に記憶され得る。このようにして、コンピュータシステム700は、搬送波の形でアプリケーションコードを得ることができる。
【0125】
−−利点およびさらなる変形例
本書に開示された実施例は、他のコンテキストにも適用可能である。特に、これらの実施例は、2つ以上のカメラを有する機械視覚測定システムを校正するのに有益である。さらに、これらの実施例は、リクレーション用車両(RV)のアライメントに関連して使用することができる。RVのためのアライナは、通常、標準的なアライナよりも幅の広いブームを必要とするが、本書に開示された実施例を使用すれば、RV用のアライナは、新たなハードウェアを必要とせずに、単にその直立材同士の幅をわずかに広げてボルト固定することによって構築することができる。
【0126】
上述の装置は自己校正するので、セットアップ後の校正は不要であり、したがって、携帯用アライナに組込むことが可能である。携帯用アライメント作業は、駐車場、ガレージまたは同様の環境において、時間のかかる校正を必要とせずに、三脚上の2つのカメラを使用して、行なうことができる。したがって、該装置を使用して、全く新しいサービス、遠隔アライメントまたは現場アライメントを容易にすることが可能である。
【0127】
さらに、上述の、右カメラに対する左カメラの相対位置を測定(または校正)する技術は、複数のデバイスを有するシステムにおいて用いることができる。これらの技術は、複数のデバイスのうち、1つのデバイスの別のデバイスに対する相対位置を測定するのに使用される。このような条件で、複数のデバイスのうち、第1のデバイスおよび第2のデバイスを含むいずれかのデバイスの対を、上述の技術における左カメラと右カメラの対として取扱うことが可能である。この場合、校正デバイスは第1のデバイスの近くに取付けられ、第1のデバイスに対する校正デバイスの相対位置は予め定められている。同様に、校正目標は第2のデバイスの近くに取付けられ、第2のデバイスに対する校正目標の相対位置は予め定められている。その後、校正目標に対する校正デバイスの相対位置が測定される。最後に、第2のデバイスに対する第1のデバイスの相対位置が、1)第1のデバイスに対する校正デバイスの相対位置と、2)第2のデバイスに対する校正目標の相対位置と、3)校正目標に対する校正デバイスの相対位置とに基づいて計算される。一実施例において、校正デバイスは、校正目標に対する校正デバイスの相対位置を測定するように構成される。
【0128】
上記明細書に本発明を特定的な実施例を参照して説明したが、本発明のより広範な精神および範囲から離れることなく種々の修正および変更をそれらに加えることができることは明らかであろう。したがって、本明細書および図面は、限定的な意味ではなく例示的な意味で捉えられるべきである。
【図面の簡単な説明】
【図1】 3D自動車アライメントシステムの概略平面図である。
【図2】 アライメントシステムの直立要素の図である。
【図3A】 アライメントカメラと校正カメラとの相対位置を測定し、校正するための方法における相対目標位置を測定するステップに用いられてもよい装置の図である。
【図3B】 カメラが見るビューの図である。
【図3C】 アライメントカメラと校正カメラとの相対位置を測定し、校正するための方法における相対カメラ位置を測定するステップに用いられてもよい装置の図である。
【図3D】 アライメントカメラと校正カメラとが見るビューの図である。
【図4A】 アライメントカメラと校正目標との相対位置を測定し、校正するための方法において用いられてもよい装置の図である。
【図4B】 図4Aの装置のセットアップカメラが見るビューの図である。
【図4C】 図4Aの装置のアライメントカメラが見るビューの図である。
【図5A】 図1の装置の第1のアライメントカメラが見るような、2つのホイール目標のビューの図である。
【図5B】 校正中に図1の装置の校正カメラが見るビューの図である。
【図5C】 図1の装置の第2のアライメントカメラが見るような、2つのホイール目標のビューの図である。
【図6A】 2つのカメラを有するカメラモジュールを校正するプロセスを示すフロー図である。
【図6B】 カメラと校正目標とを有するカメラモジュールを校正するプロセスを示すフロー図である。
【図6C】 アライメント中にカメラ校正を実行することを含むアライメントプロセスのフロー図である。
【図7】 一実施例が実現されるかもしれないコンピュータシステムのブロック図である。
【図8】 上述のシステムに用いられる数値のコンピュータベース数学計算の基礎を提供する、カメラおよび座標系の幾何学的関係の簡易図である。[0001]
FIELD OF THE INVENTION
The present invention relates generally to the calibration of machine vision measurement systems having two or more cameras, and more particularly to an apparatus and method for providing automatic self-calibration of a computer-aided three-dimensional aligner for automotive wheels.
[0002]
BACKGROUND OF THE INVENTION
Machine vision measurement systems with two or more cameras are used in many applications. For example, an automobile wheel may perform alignment on an alignment rack using a computer-aided three-dimensional (3D) machine vision alignment device and associated alignment methods. Examples of methods and apparatus useful for 3D alignment of vehicles are described in US Pat. No. 5,724,743 “Method and apparatus for determining the alignment of motor vehicle wheels”, And U.S. Pat. No. 5,535,522, “Method and apparatus for determining the alignment of motor vehicle wheels”. The devices described in these documents may be referred to as “3D aligners” or “aligners”.
[0003]
To determine the alignment of an automobile wheel, such a 3D aligner uses a camera that looks at a target attached to the wheel. These aligners generally require a calibration process to be performed after the aligner is first installed at the work site. In order to accurately determine the position of the wheel on one side of the vehicle and the wheel on the other side of the vehicle, the aligner must know where one camera is positioned relative to the other camera. According to one calibration method, a large target is positioned within the field of view of the camera, typically along the centerline of the alignment rack and away from the camera. The information obtained from each camera is then used to determine the relative position and orientation of the camera. Each camera shows where the target is relative to itself, and each sees the same target, so the system can calculate where each camera is located and oriented relative to the other . This is called relative camera position (RCP) calibration.
[0004]
Such calibration allows the results obtained from one side of the vehicle to be compared with others. Thus, by mounting the two cameras fixedly relative to each other and then performing an RCP calibration, the system can subsequently be used to position the wheel on one side of the vehicle relative to the other side of the vehicle. The RCP transfer function is used to transform the coordinate system of one camera to the coordinate system of another camera, so that a target viewed by one camera can be directly related to a target viewed by another camera. One approach to performing RCP is described in US Pat. No. 5,809,658 issued to Jackson et al. On September 22, 1998, “Method for Calibrating Cameras Used for Automobile Wheel Alignment. And Apparatus (Method and Apparatus for Calibrating Cameras Used in the Alignment of Motor Vehicle Wheels).
[0005]
RCP calibration is accurate but requires special fixtures and trained operators to perform. For this reason, there is a need for a simpler and simpler calibration process for aligners.
[0006]
In addition, the aligner may lose calibration over time, even after calibration has been performed. The aligner disclosed in the aforementioned document has a camera mounted on a boom designed to minimize calibration losses. However, the aligner loses calibration if the camera is shaken or removed, or if the boom itself bends. The aligner cannot detect the loss of its own calibration. Calibration loss is usually not detected unless a technician performs a calibration check or a full calibration. It may take a long time for the technician to notice that the alignment of the aligner is misaligned.
[0007]
Also, the boom is large and expensive and presents obstacles to the vehicle that enters and exits the alignment rack. A “drive-through” alignment approach may be used in which the vehicle advances into the maintenance facility, undergoes alignment, and then advances to exit the maintenance facility. This allows other cars to form a row behind the vehicle being maintained, improving the speed and efficiency of alignment maintenance. In an approach with drive-through alignment with a fixed boom, the camera boom needs to be lifted from the path as each vehicle passes. This is time consuming, expensive and can be awkward.
[0008]
Based on the foregoing, there is a clear need in the art for an apparatus and method that provides automatic self-calibration of a machine vision measurement system having two or more cameras.
[0009]
There is also a need for an aligner that may be installed at an alignment facility without calibration at the installation site, thereby eliminating the need for extra hardware and trained operators.
[0010]
There is also a need for an aligner that can automatically recalibrate itself if the camera is shaken or removed, or if the boom is bent.
[0011]
There is also a need for an aligner that can be quickly recalibrated if the technician determines that the aligner was measuring incorrectly, or if the technician suspects that the relative position of the aligner's camera has changed. .
[0012]
It would also be advantageous to have a 3D aligner that does not require a fixed mounting boom for operation and thus allows drive-through alignment without having to raise the beam and camera.
[0013]
SUMMARY OF THE INVENTION
The foregoing needs and objectives, as well as other needs that will become apparent from the following description, are realized by embodiments of the present invention, which in one aspect includes an apparatus for calibrating a mechanical measurement system. In one embodiment, a machine measurement system having a first camera and a second camera includes a first calibration target attached in a predetermined relationship to the first camera of the machine vision measurement system, and a machine measurement. And a third camera attached to the second camera of the system in a predetermined relationship. The calibration target is seen from the third camera. The data processor is configured to calculate a relative camera position value of the mechanical measurement system based on the relative position of the first calibration target with respect to the third camera, the relative camera position value being the second camera position value with respect to the second camera. 1 represents the relative position of one camera. This calibration can often be performed each time the first and second cameras measure an object such as a wheel target.
[0014]
The present invention is illustrated in the figures of the accompanying drawings for purposes of illustration and not limitation. The same reference numbers refer to similar elements.
[0015]
Detailed Description of the Preferred Embodiment
A method and apparatus for automatic calibration of a machine vision measurement system having two or more cameras is described. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent to those skilled in the art that the present invention may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form in order to avoid unnecessarily obscuring the present invention.
[0016]
-Structural overview
FIG. 1 is a schematic plan view of certain elements of a computer-aided 3D automotive wheel alignment system (aligner) that typically includes a left camera module 2 and a right camera module 4 that are used to align the vehicle wheel. Such an aligner is an example of a machine vision measurement system having two or more cameras, but the invention is not limited to the situation of an automotive aligner, which can be applied to any machine vision measurement system having two or more cameras. Or equally applicable to any mechanical measurement system having two or more measurement devices. Also, the terms “left” and “right” are used for convenience and are not intended to require that a particular element be placed in a particular location or in a particular relationship with respect to another element. Any element described as being a “left” element may be placed in a “right” location, and vice versa.
[0017]
Arrow 30 schematically represents the automobile undergoing alignment. The vehicle includes a left front wheel 22L and a right front wheel 22R, and a left rear wheel 24L and a right rear wheel 24R. The alignment targets 80a, 80b, 80c, and 80d are fixed to the wheels 22L, 22R, 24L, and 24R, respectively. Each alignment target generally includes a plate 82 having target information imprinted thereon and a clamping mechanism 88 for securing the target to the wheel.
[0018]
The left camera module 2 includes a left alignment camera 10L and a calibration camera 20. The left alignment camera 10L faces the vehicle and sees the left targets 80a, 80b along the axis 42. The left alignment camera 10L is disclosed in US Pat. No. 5,724,743 “Method and apparatus for determining the alignment of motor vehicle wheels” and US Pat. No. 5,535. , No. 522, “Method and apparatus for determining the alignment of motor vehicle wheels”, may serve as one of the alignment cameras in the aligner. The camera 10L is fixedly attached to the left rigid mounting base 12.
[0019]
The calibration camera 20 faces the right camera module 4 and sees the calibration target 16 along the axis 46. The calibration camera 20 is also fixedly attached to the mount 12. In one embodiment, shaft 42 and shaft 46 are at an angle of about 90 °. However, this particular angular relationship is not required or required.
[0020]
In this exemplary embodiment, the calibration camera 20 is illustrated as forming part of the left camera module 2. However, the calibration camera 20 may also be configured as part of the right camera module 4, in which case the view is directed to the left to the left camera module 2.
[0021]
The right camera module 4 includes a right camera 10R that faces the vehicle and functions as a second alignment camera in the 3D alignment system. The right camera 10R is attached to a rigid camera mount 14. The calibration target 16 is fixedly attached to the camera mount 14 at a position that can be seen from the calibration camera 20 along the axis 46.
[0022]
The calibration camera 20 and the left camera 10L are fixed at known positions determined in advance. Similarly, the right camera 10R and the calibration target 16 are fixed at predetermined positions. For this reason, the relative position of the calibration camera with respect to the left camera 10L is known, and the relative position of the right camera 10R with respect to the calibration target 16 is also known. The relative position of the two cameras included in the left camera module can be obtained by using precision camera mounting hardware. Another approach is to factory calibrate the positions of the two cameras and save them for later use.
[0023]
The attachment of the left camera 10L and the calibration camera 20 to the left mounting base 12 needs to be robust so as not to cause a calibration error that may occur when the camera moves relative to the mounting base. Similarly, the attachment of the right camera 10R and the calibration target 16 to the mounting base 14 also needs to be robust.
[0024]
In order to illuminate the calibration target 16 and the wheel targets 80a-80d, the left camera module 2 and the right camera module 4 may further include light sources 62, 64, 66. In one embodiment, the first light source 62 is aligned perpendicular to the axis 46 and directs light along that axis to illuminate the calibration target 16. The second light source 64 is aligned perpendicular to the axis 42 and directs light along that axis to illuminate the left wheel targets 80a, 80b. The third light source 66 is aligned perpendicular to the axis 44 and directs light along that axis to illuminate the right wheel targets 80c, 80d. In one embodiment, each of the light sources 62, 64, 66 includes a circuit board or other substrate having a plurality of light emitting diodes (LEDs) mounted thereon and facing the illumination direction. However, any other light source may be used.
[0025]
FIG. 2 is a diagram of an alternative embodiment in which the alignment system includes a left upright 52 and a right upright 54. Each upright 52, 54 may include a rigid post attached to an alignment rack or maintenance facility floor. The left alignment camera 10L and the calibration camera 20 are mounted in a left upright 52 that functions as a protective housing and a rigid mounting base. The camera may view the vehicle being aligned and the alignment target 16 through a suitable hole or window in the upright 52. The right alignment camera 10R may be mounted and enclosed within the right upright 54, and the camera 10R may view the vehicle through a suitable hole or window in the right upright 54.
[0026]
The calibration target 16 may be attached to the external surface of the upright 54 at a position visible from the calibration camera 20. Alternatively, the calibration target 16 may be mounted within the upright 54 and viewed by the calibration camera 20 through a suitable hole or window in the upright 54.
[0027]
The light sources 62, 64, 66 may be attached to the outer surface of the uprights 52, 54.
[0028]
-Outline of calibration of the first camera module (first and third cameras)
Its components for each of the camera modules or pods (one pod with the first and third cameras and the second pod with the second camera and calibration target) before the aligner is available The relative position of must be determined.
[0029]
If the rigid mount 12 is manufactured with high tolerances (eg, 0.01 ″ and 0.01 °), the relative position of the left camera 10L and the calibration camera 20 is known and the relative of the two cameras There is no need to calibrate the positions, their relative positions will be known and the same will be true for all assemblies, but as a way to reduce costs, the relative position for each of the cameras or targets in the pod is It may be calibrated or measured.
[0030]
FIG. 6A is a flow diagram illustrating the process of calibrating the first camera module of a machine vision measurement system having three or more cameras.
[0031]
In general, in one embodiment, for calibration of the left camera module 10L, two targets fixedly attached to each other are placed in the field of view of one of the cameras. The camera may be any one of the three cameras, or may be another camera for the purpose of facilitating setup during manufacturing. The computer calculates the relative position (RTP) of the two targets. The targets are then moved so that the first camera sees one target and the third camera sees the second target. A measurement of the target position is calculated. Based on the RTP and the measured target position, the positions of the first camera and the third camera are calculated.
[0032]
A sub-process for calibrating the relative positions of the alignment camera and the calibration camera will be described below with reference to FIGS. 3A, 3B, 3C, 3D, and 6A.
[0033]
At block 602, a left camera module having a first camera and a calibration camera is set up. At block 604, multiple targets are set up in the left camera view. For example, FIG. 3A is a diagram illustrating an apparatus that may be used in a method for measuring and calibrating the relative positions of the left alignment camera 10L and the calibration camera 20. The target assembly 70 includes two targets 72, 74 that are fixed to the frame 76. The target assembly is positioned along the axis 42 in the field of view of the camera 10L so that both targets 72, 74 are visible from the left alignment camera 10L. With this arrangement, the camera 10L sees the targets 72 and 74 in the configuration shown in FIG. 3B. An image 90 is generated by the camera 10L, which includes target images 92 for targets 72,74.
[0034]
At block 606, a relative target position value is calculated. For example, using known machine vision techniques, a data processor programmed according to appropriate software can receive image 90 and measure the location of each target 72, 74 based on target image 92. . The data processor can then calculate a relative target position (RTP) value for each of the targets 72,74.
[0035]
At block 608, multiple targets are set up such that one target is visible in the field of view of the first camera and the other target is visible from the calibration camera. For example, referring to FIG. 3C, the target assembly is moved so that targets 72 and 74 are visible by left alignment camera 10L and calibration camera 20, respectively. The target frame may be manually moved by a calibration technician or may be moved by a motorized device. At this position, the left alignment camera 10L forms an image similar to the image 90 shown in FIG. 3D. Image 90 includes a target image 94 representing the view of target 72 viewed by camera 10L. As shown in block 610, the current target position value is calculated. For example, the position value of each target 72, 74 for each camera is calculated using machine vision image analysis techniques.
[0036]
Thereafter, as shown in block 612, the position of the first camera relative to the calibration camera is calculated. For example, a value representing the relative camera position of the left alignment camera 10L with respect to the calibration camera 20 (“RCP left module value”) is calculated based on the RTP value and the target position value.
[0037]
--Outline of calibration of the second camera module (second camera and calibration target)
A process for calibrating a pod or module that includes a camera and a target, such as the right camera module 10R, is described below with reference to the flowchart of FIG. 6B. As indicated by block 613, the right camera module 10R is first set up. The right camera module 10R may be manufactured with tight tolerances, but a calibration approach involving relative position measurements may be used to reduce costs. Generally, as shown in FIGS. 4A, 4B, and 4C, the data target is placed in the field of view of the second camera. Another camera ("setup camera") is placed in a position to see both the calibration target and the data target. The setup camera works with the computer to measure two target RTPs. The second camera measures the position of the data target, and the computer determines the position of the calibration target relative to the second camera based on the RTP value.
[0038]
FIG. 4A shows an apparatus that can be used in a method for measuring and thus calibrating the position of the right camera 10R relative to the calibration target 16. FIG. This device can be used when the relative position of the right camera and the calibration target is not known in advance. In one embodiment, the apparatus of FIG. 4A is made as part of an aligner factory calibration process.
[0039]
As shown in block 614, a setup camera and additional goals (“data goals”) may be placed in place. The data target 104 is positioned in front of the right camera module 4 and is made visible by the right alignment camera 10R. An additional camera, the setup camera 100, is positioned to the side of the right camera module 4 so that both the data target 104 and the calibration target 16 can be viewed.
[0040]
As shown in block 616, a relative target position value is calculated based on the position of the data target and the calibration target using the view of the setup camera. For example, FIG. 4B is a diagram illustrating the view 106 viewed by the setup camera 100 in the above configuration. View 106 includes a first image 16 ′ of a calibration target and a second image 104 ′ of data target 104. Using this view as an input to the machine vision processing system, the positions of the data target 104 and the calibration target 16 are measured using the setup camera 100. From these measured values, a value for the relative target position between the data target 104 and the calibration target 16 (“RTP setup value”) is obtained.
[0041]
At block 617, the relative position of the data target relative to the second camera is obtained. As shown in block 618, a relative camera target position value is calculated based on the relative target position setup value and the relative position of the data target with respect to the second camera.
[0042]
For example, FIG. 4C is a diagram illustrating the view 108 viewed by the right alignment camera 10R in the configuration described above. View 108 includes a second image 104 "of data target 104. Using view 108 as an input to the machine vision processing system, the position of data target 104 relative to right alignment camera 10R is measured. Right alignment camera Using the value representing the relative position of the data target 104 relative to 10R and the RTP setup value, a relative camera target position value (RCTP) is calculated, which is the relationship of the right alignment camera 10R to the right calibration target 16. Represent.
[0043]
At this point, the relative position of the left alignment camera 10L and the calibration camera 20 is now known in the form of an RCP left module value. Furthermore, the relative position of the right alignment camera 10R with respect to the calibration target 16 is also known in the form of an RCTP value. Since the left alignment camera 10L is fixedly attached to the calibration camera 20, and the right alignment camera 10R is fixedly attached to the calibration target 16, their relative positions change. Absent. In one embodiment, the above process is typically performed at the manufacturer's site where the aligner system is manufactured. The aligner system is therefore calibrated at the manufacturer's site, as shown in block 620.
[0044]
-Use of a system calibrated at the manufacturer's site
Alignment can be performed with a system that has been calibrated at the manufacturer's site. As shown in FIG. 1, camera modules 2 and 4 are located in front of the vehicle to be aligned. The left camera module 2 is oriented so that the left alignment camera 10L can see the left side of the vehicle and the calibration camera 20 can see the calibration target 10 of the right camera module 4. The right camera module 4 is positioned such that the right alignment camera 10R looks at the right side of the vehicle and the calibration target 16 is visible from the calibration camera 20. This is as shown in FIG.
[0045]
FIG. 5A is a diagram showing the view 110 seen from the left alignment camera 10L in this configuration while the alignment operation is being performed. View 110 includes images of alignment targets 80a, 80b on the left wheel of the vehicle being aligned.
[0046]
FIG. 5B shows a view 112 viewed by the calibration camera 20 in this configuration. View 112 includes an image 16 ″ of calibration target 16.
[0047]
FIG. 5C is a diagram illustrating the view 114 viewed by the right alignment camera 10R. View 114 includes images of alignment targets 80c, 80d on the right wheel of the vehicle being aligned.
[0048]
FIG. 6C is a flow diagram illustrating a process for performing camera calibration during an automobile alignment operation. This is done in the workplace in one embodiment. At block 629, an aligner having a first camera, a second camera, a calibration camera and a calibration target is set up as described above. At block 630, an automobile wheel alignment operation or process is initiated. Block 630 may include moving the vehicle to an alignment rack, attaching a wheel target to the vehicle wheel, initializing the aligner, and capturing the wheel target in view with the aligner's camera.
[0049]
At block 632, the calibration camera measures the position and orientation of the calibration target relative to the calibration camera. For example, the calibration camera 20 may measure the position and orientation of the calibration target 16 relative to the calibration camera when the aligner is installed and periodically during use or vehicle alignment.
[0050]
At block 634, RCP and RCTP values are typically obtained from memory. In one embodiment, these values are calculated and stored in memory as described above. As shown in block 636, based on these values (RCP left module value, RCTP right module value, and calibration target position), a value representing the relative position between the left alignment camera 10L and the right alignment camera 10R is calculated. These values are referred to as the aligner's relative camera position (RCP). The aligner can then view the vehicle forward and proceed with vehicle alignment measurements, as shown at block 638.
[0051]
The calibration process can be performed in a “background” mode or background processor while the computer performs other normal functions in alignment.
[0052]
The calculation of the RCP value may be performed at any time and may be performed before, during or after the vehicle alignment measurement. For example, the calculation of the RCP value may be performed as appropriate several times per second, once a day, at the beginning or end of a work day, to provide accurate alignment.
[0053]
-Modification
In an alternative embodiment, the relative positions of the calibration camera 20 and the left alignment camera 10L of the left camera module 2 and the camera-to-target position of the right camera module 4 are determined before the aligner is used in the field environment or service shop. The above-described apparatus and process can be used without measuring at. In this alternative, standard field calibration is performed using the RCP procedure or equivalent process described in the above patent document for calculating the RCP of the first and second cameras. Thereafter, the calibration camera 20 measures the position of the calibration target 16, and the calibration camera 20 periodically looks at the calibration target 16 and measures its relative position. If the measured value indicates a change in the relative position between the calibration camera 20 and the target 16, the left camera module 2 has moved relative to the right camera module 4. The change value can be used to recalculate and update the aligner's RCP value.
[0054]
In another alternative embodiment, to further simplify the process, the relative position of the calibration camera 20 and the calibration target 16 is measured after the aligner's RCP value has been calculated. This measured value is periodically compared with the initial measured value of the relative position of the calibration camera 20 with respect to the calibration target 16 performed at the time of aligner setting. If these two measurements differ by more than a predetermined tolerance, the aligner informs the operator that the aligner is no longer calibrated. In response, the operator or service technician can recalibrate using, for example, the RCP method.
[0055]
In another alternative embodiment, the aligner is provided with more than two alignment camera modules. The apparatus includes an additional calibration camera and calibration target for each additional alignment camera module. Each additional alignment camera module is calibrated with additional processing steps to calibrate the additional module according to the process described above. If each camera in each additional module is fixedly attached to its associated calibration target, the entire device can be automatically calibrated.
[0056]
In another embodiment, the calibration camera and the calibration target are mounted on different measurement modules. This configuration can be used with a non-contact aligner that uses one or more laser systems to determine if the wheels are aligned.
[0057]
Further, the process described herein may be used in embodiments that use elements other than cameras that perform the functions of the calibration camera 20. In some embodiments, a video camera is not required, but may be used, and any suitable image capture device or any conventional measurement device may be used. For example, a gravity gauge or string gauge may be arranged to detect movement of one or more alignment cameras 10L, 10R relative to each other or relative to a fixed point. Alternatively, the LED light source may be attached to one camera module so that the light beam is applied to a detector attached to the opposite camera module. The detector determines the point with the maximum light intensity on the detector surface, but if the point moves over time, it is determined that the camera has moved and the RCP value is updated, or , A flag is set indicating that the system is not calibrated.
[0058]
--- Computer-based mathematical calculations
FIG. 8 is a simplified diagram illustrating the geometric relationship between a camera and a coordinate system that provides the basis for numerical computer-based mathematical calculations used in the system described above.
[0059]
In FIG. 8, CSA (coordinate system A) specifies the first three-dimensional coordinate system related to the first alignment camera. The CSB specifies a second coordinate system associated with the second alignment camera. The CSW specifies the left wheel coordinate system used for reference purposes. CA is a vector from the origin of CSW to the origin of CSA. CB is a vector from the origin of CSW to the origin of CSB. P is a point in space.
[0060]
PW is a vector from the origin of CSW to P. The components of PW with respect to CSW are as follows. Here, · indicates the calculation of the dot product.
[0061]
[Expression 1]
Figure 0004849757
[0062]
UA0, UA1, and UA2 are CSA unit vectors, that is, their x-axis, y-axis, and z-axis. The components of UA0 with respect to CSW are as follows.
[0063]
[Expression 2]
Figure 0004849757
[0064]
The components of UA1, UA2, UB0, UB1 and UB2 can be calculated similarly.
[0065]
PA is a vector from the origin of CSA to P. For CSA, the components of PA are as follows:
[0066]
[Equation 3]
Figure 0004849757
[0067]
PB is a vector from the origin of CSB to P. The components of PB with respect to CSB are as follows.
[0068]
[Expression 4]
Figure 0004849757
[0069]
Thus, in one embodiment, a computer storage device can be used to completely describe a CSA for a CSW using the values of a 4 × 4 matrix of MWA. The first 3 columns of 4 vectors of the MWA are the CSA unit 3 vectors for the CSW, whose fourth component has a value of zero. The last four vectors of the MWA are the three vectors for the CSA from the CSW origin (center) to the CSA origin, whose fourth component has a value of one. These four vectors and a 4 × 4 matrix are called “homogeneous coordinates”.
[0070]
The upper left 3 × 3 matrix is simply a rotation matrix that maps CSA to CSW, and the rightmost row is translation or translation.
[0071]
Given an arbitrary point relative to the CSA (ie, the coordinates of that point in the CSA, which is the component of the vector from the CSA origin to that point relative to the unit vector of the CSA), the matrix MWA is Indicates how the point coordinates should be calculated. That is, PW (coordinate vector for CSW) is obtained by multiplying PA (coordinate vector for CSA) by MWA.
[0072]
Since each value was obtained in the form of a matrix, matrix mathematics can be used. Specifically, if PW = MWA * PA, PA = MWA -1 * PW.
[0073]
4 × 4 matrix MWA as defined above -1 Fully characterizes or describes the CSW for the CSA. The above also shows that PA is replaced with PW and MWA is MWA -1 This also applies if it is replaced with. MWA -1 The following process is used to obtain:
[0074]
1. Transpose the upper left 3x3 matrix.
2. The rightmost column vector (CAx, CAy, CAz, 1), that is, the CSW origin to CSA vector for CSW, (-CA0, -CA1, -CA2, 1), ie, for CSA, the CSA's Replace with the vector from the origin to the origin of the CSW (the latter is in the opposite direction to the vector CA from the origin of the CSW to the origin of the CSA).
[0075]
[Equation 5]
Figure 0004849757
[0076]
The upper 3 × 3 matrix is the transpose of the upper left 3 × 3 matrix in the 4 × 4 matrix MWA, and the MWA -1 Is located in the 3 × 3 matrix position at the upper left. Therefore, it becomes as follows.
[0077]
[Formula 6]
Figure 0004849757
[0078]
For purposes of matching notation, a 4 × 4 matrix MWA fully characterizes or describes the CSA for the CSW, and the MWA -1 MWA if it fully characterizes or describes the CSW for the CSA -1 = MAW.
[0079]
[Expression 7]
Figure 0004849757
[0080]
The 4 × 4 matrix MAB fully characterizes or describes the CSB for the CSA. Thus, MAB is an RCP or RTP matrix.
[0081]
In one exemplary software implementation, a VECTOR structure is defined as an array of three numbers, a MATRIX structure is defined as an array of three VECTORs, and a PLANE structure is one MATRIX and one There are two VECTOR. MATRIX is a 3 × 3 rotation matrix, its VECTOR is three unit vectors of the coordinate system, and each VECTOR is a vector to the origin of the coordinate system. All these VECTOR components are expressed relative to the base coordinate system.
[0082]
In one exemplary function, plane 1 defined for WCS is MWA, plane 2 defined for WCS is MWB, and plane 2 defined for plane 1 is MAB. , Plane 1 defined relative to plane 2 is an MBA. Thus, a function with an API can be defined as follows:
[0083]
[Equation 8]
Figure 0004849757
[0084]
The upper left 3 × 3 of the product 4 × 4 matrix MWB is the product of the 3 × 3 matrix values in the upper left of MWA and MAB. This is a zero value result in the bottom row of all 4 × 4 matrices. The rightmost column of the product 4 × 4 matrix MWB is the product of the upper left 3 × 3 of MWA and the rightmost column vector of MAB and the rightmost column vector of MWA, which is also all 4 × It is the result of 0 value and 1 value in the bottom row of 4 matrices.
[0085]
To reduce computation time, in one embodiment, multiplication by 0 or 1 is not performed on the bottom row of the 4 × 4 matrix. Therefore, multiplication, addition and transposition of 3 × 3 matrix and 3 vectors are performed.
[0086]
Similar functions can be defined for other transformations as follows.
[0087]
[Equation 9]
Figure 0004849757
[0088]
From the above description, it can be seen that the MSA 4 × 4 matrix values can be used to fully describe the CSA for the CSW. Further, a matrix MWA that is an inverse matrix of MWA -1 Completely describes the CSW for the CSA. Therefore, the following holds.
[0089]
[Expression 10]
Figure 0004849757
[0090]
Using machine vision analysis techniques, the system described above can obtain a target camera image, such as the image 90 shown in FIG. 3B, and calculate the target coordinate system for that camera.
[0091]
The calculation of the relative target position (RTP) will be described below with reference to FIG. 3A. For the purpose of calculating RTP,
Let CSL be the coordinate system of the left camera 10L.
[0092]
Let CSA be the coordinate system of the target 72.
MLA represents CSA for CSL.
[0093]
Let CSB be the coordinate system of target 74.
MLB represents the CSB for the CSL.
[0094]
Assuming that the left camera image 90 includes images 92 of targets 72 and 74, matrices MLA and MLB are created and stored by machine vision analysis techniques. Thus, the RTP value (between target 72 and target 74) is obtained by:
[0095]
[Expression 11]
Figure 0004849757
[0096]
Based on this, the system can calculate MLB to MLA and vice versa by:
[0097]
[Expression 12]
Figure 0004849757
[0098]
Once the RTP value is created and stored, the target assembly 70 can be moved so that the left camera 10L sees the target 72 and the calibration camera 20 sees the target 74. Assume that CSC is the coordinate system of the calibration camera 20. A CSA for CSL is described by machine vision analysis techniques, assuming that the left camera image 90 includes the image 94 (FIG. 3D) of the target 70 and the calibration camera image 96 includes the image 98 (FIG. 3D) of the target 74. An MCB describing the matrix MLA and the CSB for the CSC is created and stored.
[0099]
Based on these matrices, the value of the relative camera position RCP of the left camera 10L with respect to the calibration camera 20 can be calculated as follows.
[0100]
[Formula 13]
Figure 0004849757
[0101]
Further, the relative camera position RCP of the calibration camera 20 with respect to the left camera 10L can be calculated as follows.
[0102]
[Expression 14]
Figure 0004849757
[0103]
Next, the calculation of the value for the right camera 10R is presented. With reference to FIG.
Assume that CSS is the coordinate system of the setup camera 100.
[0104]
Assume that CSR is the coordinate system of the right camera 10R.
It is assumed that CSQ is the coordinate system of the calibration target 16.
[0105]
Let CSD be the coordinate system of the data target 104.
Assuming that the setup camera image 106 of FIG. 4B includes images 16 ′ and 104 ′ of the calibration target 16 and data target 104, the machine vision analysis technique uses a matrix MSQ describing the CSQ for the CSS and an MSD describing the CSD for the CSS. Are created and stored. Further, assuming that the right camera image 108 includes an image 104 ″ of the data target 104, a machine vision analysis technique creates and stores a matrix MRD that describes the CSD for the CSR. The MAQ is the calibration target 16 and the data target 104. RTP (CSD for CSQ) between
[0106]
Thereafter, the coordinate system of the calibration target 16 for the right camera, ie the CSQ for the CSR, is obtained by:
[0107]
[Expression 15]
Figure 0004849757
[0108]
Thus, an MLC value describing the calibration camera for the left camera and an MRQ value describing the calibration target for the right camera can be calculated.
[0109]
In normal operation, the system generates an image of the type shown in FIGS. 5A, 5B, and 5C. The left camera 10L generates two left wheel target images 110 (FIG. 5A). Machine vision analysis technology creates and stores values for the coordinate system of the wheel target in the coordinate system of the left camera. If the left camera coordinate system is defined as the world coordinate system, the left wheel target is transposed to the world coordinate system.
[0110]
The calibration camera 20 generates a calibration target image 112 (FIG. 5B). The machine vision analysis technique creates and stores values related to the calibration target coordinate system in the calibration camera coordinate system, MCQ.
[0111]
The right camera 10L generates the image 114 shown in FIG. 5C for the two right wheel targets. The machine vision analysis technique creates and stores values relating to the coordinate system of the wheel target in the coordinate system of the right camera, MRW. “W” here means “wheel”, not “world”. Normally, the coordinate system of the left camera functions as the world coordinate system.
[0112]
The value of the right wheel target can be transposed to the same world coordinate system as the left wheel target by calculating the MLW, the right wheel target in the left (world) coordinate system. From the calibration process, the values of MLC and MRQ are known. The system measures MCQ based on the image of FIG. 5B and measures MRW based on the image of FIG. 5C. Therefore, the following holds.
[0113]
[Expression 16]
Figure 0004849757
[0114]
--- Hardware overview
FIG. 7 is a block diagram that illustrates a computer system 700 upon which an embodiment of the invention may be implemented. Computer system 700 may be used as an arrangement for some or all of device 100 or for an arrangement of external computers or workstations that communicate with device 100.
[0115]
Computer system 700 includes a bus 702 or other communication mechanism for communicating information, and a processor 704 coupled with bus 702 for processing information. Computer system 700 also includes a main memory 706, such as random access memory (RAM) or other dynamic storage device, that is coupled to bus 702 for storing instructions and information to be executed by processor 704. Main memory 706 may also be used to store temporary variables or other intermediate information during execution of instructions to be executed by processor 704. Computer system 700 further includes a read only memory (ROM) 708 or other static storage device coupled to bus 702 for storing instructions and static information for processor 704. A storage device 710 such as a magnetic disk or optical disk is provided for storing information and instructions and is coupled to the bus 702.
[0116]
Computer system 700 may be coupled via bus 702 to a display 712 such as a cathode ray tube (CRT) for displaying information to a computer user. An input device 714 that includes alphanumeric and other keys is coupled to the bus 702 to communicate information and command selections to the processor 704. Another type of user input device is a cursor control 716, such as a mouse, trackball or cursor instruction key, which communicates instruction information and command selections to the processor 704 and also displays a cursor on the display 712. To control the movement. The input device typically has two degrees of freedom in two axes, a first axis (eg, x) and a second axis (eg, y) so that the device can be positioned in a plane. Can be identified.
[0117]
Embodiments of the invention relate to the use of computer system 700 for automatic calibration of aligners. In accordance with one embodiment of the present invention, automatic calibration of the aligner is provided by computer system 700 in response to processor 704 executing one or more sequences of one or more instructions contained in main memory 706. Is done. Those instructions may be read into main memory 706 from another computer-readable medium, such as storage device 710. Execution of the sequence of instructions contained in main memory 706 causes processor 704 to perform the process steps described herein. In alternative embodiments, hardwired circuitry may be used in place of or in combination with software instructions that implement the present invention. Thus, embodiments of the invention are not limited to any specific combination of hardware circuitry and software.
[0118]
The term “computer-readable medium” as used herein refers to any medium that participates in providing instructions to processor 704 for execution. Such a medium may take many forms, including but not limited to, non-volatile media, volatile media, and transmission media. Non-volatile media includes, for example, optical or magnetic disks, such as storage device 710. Volatile media includes dynamic memory, such as main memory 706. Transmission media includes coaxial cables, copper wires, and optical fibers, including the wires that make up bus 702. Transmission media may also take the form of acoustic or light waves, such as those generated during radio wave and infrared data communications.
[0119]
Common forms of computer readable media include, for example, floppy (R) disks, flexible disks, hard disks, magnetic tapes or other magnetic media, CD-ROMs, other optical media, punch cards, paper tapes, other holes Physical media with patterns, RAM, PROM and EPROM, FLASH-EPROM, other memory chips or cartridges, carrier waves as described below, and other computer readable media.
[0120]
Various forms of computer readable media may be involved in carrying one or more sequences of one or more instructions to be executed by processor 704. For example, the instructions may first be carried on a remote computer magnetic disk. The remote computer can load the instructions into its dynamic memory and send it over a telephone line using a modem. A modem local to computer system 700 can receive the data on the telephone line and use an infra-red transmitter to convert the data to an infra-red signal. The infrared detector can receive the data carried in the infrared signal and appropriate circuitry can place the data on the bus 702. Bus 702 carries the data to main memory 706, from which processor 704 retrieves and executes instructions. The instructions received by main memory 706 may be suitably stored on storage device 710 either before or after being executed by processor 704.
[0121]
Computer system 700 also includes a communication interface 718 coupled to bus 702. Communication interface 718 couples to network link 720 connected to local network 722 to provide bi-directional data communication. For example, communication interface 718 may be an integrated digital network (ISDN) card or modem that provides a data communication connection to a corresponding type of telephone line. As another example, communication interface 718 may be a local area network (LAN) card that provides a data communication connection to a compatible LAN. A wireless link may be implemented. In any implementation, communication interface 718 sends and receives electrical, electromagnetic or optical signals that carry digital data streams representing various types of information.
[0122]
Network link 720 typically provides data communication with other data devices over one or more networks. For example, the network link 720 may provide a connection to a host computer 724 via a local network 722 or to a data device operated by an Internet service provider (ISP) 726. ISP 726 then provides data communication services through the world wide packet data communication network now commonly referred to as the “Internet” 728. Local network 722 and Internet 728 both use electrical, electromagnetic or optical signals that carry digital data streams. Signals through various networks and signals on network link 720 through communication interface 718 that carries digital data to and from computer system 700 are exemplary forms of carriers that carry information.
[0123]
Computer system 700 can send messages and receive data, including program code, via one or more networks, network link 720 and communication interface 718. In the Internet example, server 730 may transmit codes required for application programs via Internet 728, ISP 726, local network 722 and communication interface 718. In accordance with an embodiment of the present invention, one such downloaded application enables automatic calibration of the aligner described herein.
[0124]
The received code may be executed as is by processor 704 and / or stored in storage device 710 or other non-volatile storage for later execution. In this manner, computer system 700 can obtain application code in the form of a carrier wave.
[0125]
-Advantages and further variations
The embodiments disclosed herein are applicable to other contexts. In particular, these embodiments are useful for calibrating machine vision measurement systems having two or more cameras. In addition, these embodiments can be used in connection with recreational vehicle (RV) alignment. Aligners for RV typically require a wider boom than standard aligners, but using the embodiments disclosed herein, aligners for RV may require new hardware. Instead, it can be constructed by simply widening the uprights slightly and fixing them with bolts.
[0126]
Since the above-described device is self-calibrating, no post-setup calibration is required and can therefore be incorporated into a portable aligner. Portable alignment tasks can be performed using two cameras on a tripod in a parking lot, garage or similar environment without the need for time consuming calibration. Thus, the device can be used to facilitate a completely new service, remote alignment or field alignment.
[0127]
Furthermore, the technique described above for measuring (or calibrating) the relative position of the left camera relative to the right camera can be used in a system having multiple devices. These techniques are used to measure the relative position of one device to another device among a plurality of devices. Under such conditions, any pair of devices including the first device and the second device among the plurality of devices can be handled as the pair of the left camera and the right camera in the above-described technology. In this case, the calibration device is mounted near the first device, and the relative position of the calibration device with respect to the first device is predetermined. Similarly, the calibration target is mounted near the second device, and the relative position of the calibration target with respect to the second device is predetermined. Thereafter, the relative position of the calibration device with respect to the calibration target is measured. Finally, the relative position of the first device relative to the second device is 1) the relative position of the calibration device relative to the first device, 2) the relative position of the calibration target relative to the second device, and 3) relative to the calibration target. Calculated based on the relative position of the calibration device. In one embodiment, the calibration device is configured to measure the relative position of the calibration device relative to the calibration target.
[0128]
Although the invention has been described in the foregoing specification with reference to specific embodiments, it will be apparent that various modifications and changes can be made thereto without departing from the broader spirit and scope of the invention. . The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense.
[Brief description of the drawings]
FIG. 1 is a schematic plan view of a 3D automobile alignment system.
FIG. 2 is a diagram of an upright element of an alignment system.
FIG. 3A is a diagram of an apparatus that may be used for measuring a relative target position in a method for measuring and calibrating a relative position between an alignment camera and a calibration camera.
FIG. 3B is a view of the view as seen by the camera.
FIG. 3C is a diagram of an apparatus that may be used in the step of measuring relative camera position in a method for measuring and calibrating the relative position of an alignment camera and a calibration camera.
FIG. 3D is a view of the view seen by the alignment camera and the calibration camera.
FIG. 4A is a diagram of an apparatus that may be used in a method for measuring and calibrating the relative position of an alignment camera and a calibration target.
4B is a view of the view seen by the setup camera of the apparatus of FIG. 4A.
4C is a view of the view seen by the alignment camera of the apparatus of FIG. 4A.
5A is a view of a view of two wheel targets as seen by the first alignment camera of the apparatus of FIG.
FIG. 5B is a view of the view seen by the calibration camera of the apparatus of FIG. 1 during calibration.
5C is a view of a view of two wheel targets as seen by the second alignment camera of the apparatus of FIG.
FIG. 6A is a flow diagram illustrating a process for calibrating a camera module having two cameras.
FIG. 6B is a flow diagram illustrating a process for calibrating a camera module having a camera and a calibration target.
FIG. 6C is a flow diagram of an alignment process that includes performing camera calibration during alignment.
FIG. 7 is a block diagram of a computer system in which one embodiment may be implemented.
FIG. 8 is a simplified diagram of camera and coordinate system geometric relationships that provide the basis for numerical computer-based mathematical computations used in the system described above.

Claims (22)

第1の測定デバイスと第2の測定デバイスとを有する機械測定システムであって、第1の測定デバイスおよび第2の測定デバイスは、車両に取り付けられた少なくとも1つの目標の画像を取込むように構成された画像取込デバイスであり、前記システムは、
機械測定システムの第1の測定デバイスに予め定められた関係で取付けられた第1の校正目標と、
機械測定システムの第2の測定デバイスに予め定められた関係で取付けられた校正デバイスと、
校正デバイスに対する第1の校正目標の位置を表す校正値を記憶するためのメモリと、
校正デバイスに対する第1の校正目標の前記相対位置に基づいて、第2の測定デバイスに対する第1の測定デバイスの位置を計算するよう構成されたデータプロセッサとを含み、校正デバイスは、機械測定システムの動作中に、校正デバイスに対する第1の校正目標の新しい位置を表わす新しい値を定期的に測定するように構成され、
動作中、校正値と新しい値との差は、第1の測定デバイスと第2の測定デバイスとの間の相対位置の更新に用いられ、校正値が許容可能量を超えて新しい値と異なる場合、警戒警報が発される、システム。
A mechanical measurement system having a first measurement device and a second measurement device, wherein the first measurement device and the second measurement device capture an image of at least one target attached to the vehicle. A configured image capture device, the system comprising:
A first calibration target attached in a predetermined relationship to a first measurement device of the machine measurement system;
A calibration device attached in a predetermined relationship to a second measurement device of the mechanical measurement system;
A memory for storing a calibration value representing the position of the first calibration target with respect to the calibration device;
A data processor configured to calculate a position of the first measurement device relative to the second measurement device based on the relative position of the first calibration target relative to the calibration device, the calibration device comprising: In operation, configured to periodically measure a new value representing a new position of the first calibration target relative to the calibration device;
During operation, the difference between the calibration value and the new value is used to update the relative position between the first measuring device and the second measuring device, and the calibration value exceeds the allowable amount and differs from the new value. A system that alerts and alerts.
動作中、校正値が許容可能量を超えて新しい値と異なることを認識すると、第1の測定デバイスと第2の測定デバイスとの間の相対位置値が再計算される、請求項1に記載のシステム。  The relative position value between the first measuring device and the second measuring device is recalculated upon recognition that, in operation, the calibration value exceeds the allowable amount and differs from the new value. System. データプロセッサは、
校正デバイスに対する第2の測定デバイスの位置を表わす相対測定デバイス位置値と、
第1の校正目標に対する第1の測定デバイスの位置を表わす相対測定デバイス位置値とに基づいて、第1の測定デバイスと第2の測定デバイスとの間の相対位置を計算するようさらに構成されている、請求項1または2に記載のシステム。
Data processor
A relative measurement device position value representing the position of the second measurement device relative to the calibration device;
Further configured to calculate a relative position between the first measurement device and the second measurement device based on a relative measurement device position value representative of the position of the first measurement device relative to the first calibration target. The system according to claim 1 or 2.
動作中、第1の校正目標に対する第1の測定デバイスの位置を表わす相対測定デバイス目標位置値は、第2の校正目標に対する第1の校正目標の位置に基づいて計算される、請求項3に記載のシステム。  In operation, a relative measurement device target position value representative of the position of the first measurement device relative to the first calibration target is calculated based on the position of the first calibration target relative to the second calibration target. The described system. 動作中、第2の校正目標に対する第1の校正目標の位置は、第2の校正目標に対する第1の校正目標の位置を計算するための情報を提供する第3の測定デバイスを用いることによって得られる、請求項4に記載のシステム。  In operation, the position of the first calibration target relative to the second calibration target is obtained by using a third measuring device that provides information for calculating the position of the first calibration target relative to the second calibration target. The system of claim 4, wherein: 動作中、
第2の校正目標に対する第1の校正目標の位置は、画像取込デバイスによって得られ、
第1の校正目標および第2の校正目標の画像は、画像取込デバイスのビュー内に位置付けられた第1の校正目標および第2の校正目標によって提供され、
第1の校正目標および第2の校正目標の画像は、データプロセッサに入力され、第2の校正目標に対する第1の校正目標の相対位置が計算される、請求項4に記載のシステム。
in action,
The position of the first calibration target relative to the second calibration target is obtained by an image capture device;
Images of the first calibration target and the second calibration target are provided by a first calibration target and a second calibration target positioned within the view of the image capture device;
The system of claim 4, wherein the images of the first calibration target and the second calibration target are input to a data processor and a relative position of the first calibration target with respect to the second calibration target is calculated.
データプロセッサは、機械測定システムの第1の測定デバイスおよび第2の測定デバイスが測定中の対象の目標を測定している間に、第1の測定デバイスと第2の測定デバイスとの間の相対位置を計算するよう、さらに構成されている、請求項1〜6のいずれかに記載のシステム。  The data processor is configured to provide a relative relationship between the first measurement device and the second measurement device while the first measurement device and the second measurement device of the machine measurement system are measuring the target of the object being measured. The system according to claim 1, further configured to calculate a position. データプロセッサは、
機械測定システムの第1の測定デバイスおよび第2の測定デバイスが測定中の対象の目標を測定している間、第1の測定デバイスと第2の測定デバイスとの間の相対位置を計算し、
第1の測定デバイスと第2の測定デバイスとの間の相対位置に基づいて、測定中の対象の目標を測定することにより生成された測定値を修正するよう、さらに構成されている、請求項1〜7のいずれかに記載のシステム。
Data processor
Calculating a relative position between the first measuring device and the second measuring device while the first measuring device and the second measuring device of the mechanical measuring system are measuring the target of the object being measured;
The apparatus is further configured to modify a measurement generated by measuring a target of an object under measurement based on a relative position between the first measurement device and the second measurement device. The system according to any one of 1 to 7.
データプロセッサは、第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置が予め定められた値を超えて第1の測定デバイスと第2の測定デバイスとの間の相対位置と異なるときのみ、第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置に基づいて、測定中の対象の目標を測定することにより生成された測定値を修正するよう、さらに構成されている、請求項8に記載のシステム。  The data processor is configured such that the modified relative position between the first measurement device and the second measurement device exceeds a predetermined value and the relative position between the first measurement device and the second measurement device. To correct the measurement generated by measuring the target of the object under measurement based on the corrected relative position between the first measurement device and the second measurement device only when The system of claim 8, further configured. 校正デバイスは、画像を取込むことにより対象の測定を行なう画像取込みデバイスであるシステムである、請求項1〜9のいずれかに記載のシステム。  The system according to claim 1, wherein the calibration device is a system that is an image capture device that measures an object by capturing an image. データプロセッサは、校正デバイスに対する第2の測定デバイスの位置を特定する予め定められた情報に基づき、および第2の測定デバイスに対する第1の測定デバイスの位置の変化を示す、校正デバイスから受取った情報に基づいて、第2の測定デバイスに対する第1の測定デバイスの位置を測定するよう構成されたデータプロセッサとを含む、請求項1〜10のいずれかに記載のシステム。  The data processor receives information from the calibration device based on predetermined information identifying the position of the second measurement device relative to the calibration device and indicating a change in the position of the first measurement device relative to the second measurement device. And a data processor configured to measure the position of the first measurement device relative to the second measurement device. 光源が、第1の校正目標を照らすために、第2の測定デバイスに固定された関係で取付けられる、請求項1〜11のいずれかに記載のシステム。  12. A system according to any preceding claim, wherein the light source is mounted in a fixed relationship to the second measuring device to illuminate the first calibration target. 第1の測定デバイスと第2の測定デバイスとを有する機械測定システムを校正するための方法であって、
第1の測定デバイスおよび第2の測定デバイスに対して、車両に取り付けられた少なくとも1つの目標の画像を取込むように構成された画像取込デバイスを設けるステップと、
第1の校正目標を、機械測定システムの第1の測定デバイスに、予め定められた関係で取付けるステップと、
校正デバイスを、機械測定システムの第2の測定デバイスに、予め定められた関係で取付けるステップと、
校正デバイスに対する第1の校正目標の位置を表わす値を校正値として記憶するステップと、
校正デバイスに対する第1の校正目標の位置に基づいて、第2の測定デバイスに対する第1の測定デバイスの位置を計算するステップと、
機械測定システムの動作中に、校正デバイスに対する第1の校正目標の新しい位置を表わす新しい値を定期的に測定するステップと、
校正値と新しい値との差を、第1の測定デバイスと第2の測定デバイスとの間の相対位置の更新に適用するステップと、
校正値が許容可能量を超えて新しい値と異なる場合、警戒警報を発するステップとを含む、方法。
A method for calibrating a mechanical measurement system having a first measurement device and a second measurement device, comprising:
Providing an image capture device configured to capture an image of at least one target attached to the vehicle relative to the first measurement device and the second measurement device;
Attaching a first calibration target to a first measurement device of a mechanical measurement system in a predetermined relationship;
Attaching a calibration device to a second measurement device of the mechanical measurement system in a predetermined relationship;
Storing a value representing the position of the first calibration target relative to the calibration device as a calibration value;
Calculating the position of the first measurement device relative to the second measurement device based on the position of the first calibration target relative to the calibration device;
Periodically measuring a new value representative of the new position of the first calibration target relative to the calibration device during operation of the machine measurement system;
Applying the difference between the calibration value and the new value to update the relative position between the first measuring device and the second measuring device;
Issuing a warning alert if the calibration value exceeds an acceptable amount and differs from the new value.
校正デバイスに対する第2の測定デバイスの位置を表わす第1の相対測定デバイス位置値と、
第1の校正目標に対する第1の測定デバイスの位置を表わす相対測定デバイス目標位置値とに基づいて、第1の測定デバイスと第2の測定デバイスとの間の相対位置を計算するステップをさらに含む、請求項13に記載の方法。
A first relative measurement device position value representative of the position of the second measurement device relative to the calibration device;
Calculating a relative position between the first measurement device and the second measurement device based on a relative measurement device target position value representative of the position of the first measurement device relative to the first calibration target; The method according to claim 13.
第2の相対測定デバイス目標位置値は、第2の校正目標に対する第1の校正目標の位置に基づいて計算される、請求項14に記載の方法。  The method of claim 14, wherein the second relative measurement device target position value is calculated based on the position of the first calibration target relative to the second calibration target. 第2の校正目標に対する第1の校正目標の位置は、第2の校正目標に対する第1の校正目標の位置を計算するための情報を提供する第3の測定デバイスを用いることによって得られる、請求項15に記載の方法。  The position of the first calibration target relative to the second calibration target is obtained by using a third measuring device that provides information for calculating the position of the first calibration target relative to the second calibration target. Item 16. The method according to Item 15. 第2の校正目標に対する第1の校正目標の位置は、画像取込デバイスを用いることによって得られ、
第1の校正目標および第2の校正目標の画像は、画像取込デバイスのビュー内に第1の校正目標および第2の校正目標を配置することによって提供され、
第1の校正目標および第2の校正目標の画像を適用して、第2の校正目標に対する第1の校正目標の相対位置を計算する、請求項15に記載の方法。
The position of the first calibration target relative to the second calibration target is obtained by using an image capture device;
Images of the first calibration target and the second calibration target are provided by placing the first calibration target and the second calibration target in a view of the image capture device;
16. The method of claim 15, wherein images of the first calibration target and the second calibration target are applied to calculate a relative position of the first calibration target with respect to the second calibration target.
機械測定システムの第1の測定デバイスおよび第2の測定デバイスが測定中の対象の目標を測定している間に、第1の測定デバイスと第2の測定デバイスとの間の相対位置を計算するステップをさらに含む、請求項13〜17のいずれかに記載の方法。  Calculating a relative position between the first measuring device and the second measuring device while the first measuring device and the second measuring device of the mechanical measuring system are measuring the target of the object being measured; The method according to claim 13, further comprising a step. 機械測定システムの第1の測定デバイスおよび第2の測定デバイスが測定中の対象の目標を測定している間、第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置を計算するステップと、
第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置に基づいて、測定中の対象の目標を測定することにより生成された測定値を修正するステップとをさらに含む、請求項13〜18のいずれかに記載の方法。
While the first measuring device and the second measuring device of the mechanical measuring system are measuring the target of the object being measured, the corrected relative position between the first measuring device and the second measuring device is A calculating step;
Modifying the measurement generated by measuring the target of the object being measured based on the modified relative position between the first measurement device and the second measurement device. Item 19. The method according to any one of Items 13 to 18.
第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置に基づいて、測定中の対象の目標を測定することにより生成された測定値を修正するステップは、第1の測定デバイスと第2の測定デバイスとの間の修正された相対位置が予め定められた値を超えて第1の測定デバイスと第2の測定デバイスとの間の相対位置と異なるときのみ行なわれる、請求項13〜18のいずれかに記載の方法。  Based on the modified relative position between the first measuring device and the second measuring device, modifying the measurement generated by measuring the target of the object being measured comprises the first measurement. Only when the modified relative position between the device and the second measuring device exceeds a predetermined value and differs from the relative position between the first measuring device and the second measuring device. Item 19. The method according to any one of Items 13 to 18. 第2の測定デバイスに対する第1の測定デバイスの位置の測定は、校正デバイスに対する第1の測定デバイスの位置を特定する予め定められた情報に基づき、および第2の測定デバイスに対する第1の測定デバイスの位置の変化を示す、校正デバイスから受取った情報に基づく、請求項13〜20のいずれかに記載の方法。  The measurement of the position of the first measurement device relative to the second measurement device is based on predetermined information identifying the position of the first measurement device relative to the calibration device and the first measurement device relative to the second measurement device. 21. A method according to any of claims 13 to 20, based on information received from a calibration device indicating a change in the position of the device. 校正目標を照らすために、第2の測定デバイスに固定された関係で取付けられた光源を用いるステップを含む、請求項21に記載の方法。  The method of claim 21, comprising using a light source attached in a fixed relationship to the second measuring device to illuminate the calibration target.
JP2001569222A 2000-03-23 2001-03-16 Self-calibrating multi-camera machine vision measurement system Expired - Lifetime JP4849757B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US22936200P 2000-03-23 2000-03-23
US60/229,362 2000-03-23
US09/576,442 US6968282B1 (en) 2000-05-22 2000-05-22 Self-calibrating, multi-camera machine vision measuring system
US09/576,442 2000-05-22
PCT/US2001/008584 WO2001071280A2 (en) 2000-03-23 2001-03-16 Self-calibrating, multi-camera machine vision measuring system

Publications (2)

Publication Number Publication Date
JP2003528304A JP2003528304A (en) 2003-09-24
JP4849757B2 true JP4849757B2 (en) 2012-01-11

Family

ID=26923227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001569222A Expired - Lifetime JP4849757B2 (en) 2000-03-23 2001-03-16 Self-calibrating multi-camera machine vision measurement system

Country Status (7)

Country Link
US (1) US6959253B2 (en)
EP (1) EP1266188B1 (en)
JP (1) JP4849757B2 (en)
CN (1) CN1224824C (en)
AU (1) AU2001245834A1 (en)
DE (1) DE60119708T2 (en)
WO (1) WO2001071280A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8354439B2 (en) 1996-09-30 2013-01-15 Otsuka Pharmaceutical Co., Ltd. Agent for inhibition of cytokine production and agent for inhibition of cell adhesion
US10872432B2 (en) 2018-01-05 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Disparity estimation device, disparity estimation method, and program

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4849757B2 (en) 2000-03-23 2012-01-11 スナップ − オン テクノロジーズ,インコーポレイテッド Self-calibrating multi-camera machine vision measurement system
US6968282B1 (en) 2000-05-22 2005-11-22 Snap-On Incorporated Self-calibrating, multi-camera machine vision measuring system
CN1306246C (en) 2000-08-14 2007-03-21 捷装技术公司 Self-calibrating 3D machine measuring system useful in motor vehicle wheel alignement
DE10043354A1 (en) * 2000-09-02 2002-03-14 Beissbarth Gmbh Chassis measuring device
US7062861B2 (en) 2001-06-28 2006-06-20 Snap-On Incorporated Self-calibrating position determination system and user interface
FR2830932B1 (en) * 2001-10-15 2004-07-09 Muller Bem WHEELED VEHICLE GEOMETRY MONITORING DEVICE
DE60234308D1 (en) 2002-02-04 2009-12-24 Corghi Spa Device for measuring the characteristic position parameters of a motor vehicle
US7453559B2 (en) * 2003-10-09 2008-11-18 Hunter Engineering Company Vehicle lift reference system for movable machine-vision alignment system sensors
US20080094471A1 (en) * 2005-05-20 2008-04-24 Toyota Jidosha Kabushiki Kaisha Image Processor for Vehicles
FR2888968B1 (en) * 2005-07-25 2008-05-09 Airbus Sas METHOD OF PROCESSING DATA FOR DETERMINING VISUAL PATTERNS IN A VISUAL SCENE
US7424387B1 (en) 2007-04-18 2008-09-09 Snap-On Incorporated Method for use with an optical aligner system for positioning a fixture relative to a vehicle
US7640673B2 (en) * 2007-08-01 2010-01-05 Snap-On Incorporated Calibration and operation of wheel alignment systems
US8179448B2 (en) * 2008-08-26 2012-05-15 National Taiwan University Auto depth field capturing system and method thereof
TWI382267B (en) * 2008-09-24 2013-01-11 Univ Nat Taiwan Auto depth field capturing system and method thereof
EP2236980B1 (en) * 2009-03-31 2018-05-02 Alcatel Lucent A method for determining the relative position of a first and a second imaging device and devices therefore
US20110010122A1 (en) * 2009-07-07 2011-01-13 Delta Design, Inc. Calibrating separately located cameras with a double sided visible calibration target for ic device testing handlers
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
CN101975588B (en) * 2010-08-20 2012-07-11 北京航空航天大学 Global calibration method and device of rigid rod of multisensor vision measurement system
DE102010062696A1 (en) 2010-12-09 2012-06-14 Robert Bosch Gmbh Method and device for calibrating and adjusting a vehicle environment sensor.
TWI426775B (en) * 2010-12-17 2014-02-11 Ind Tech Res Inst Camera recalibration system and the method thereof
DE102012202054A1 (en) 2012-02-10 2013-08-14 Robert Bosch Gmbh Mobile measurement unit for use in system for vehicle measurement, has motion sensor that is formed in such manner that movement of mobile measurement unit is measured in visible manner
CN103512557B (en) * 2012-06-29 2016-12-21 联想(北京)有限公司 Electric room is relative to location determining method and electronic equipment
DE102013107597A1 (en) 2013-01-11 2014-08-14 Stephan Hörmann Method for measuring width and height of building opening for producing e.g. rolling gate to close opening in garage, involves determining width and/or height by evaluating obtained distance and image data of opening and calibration device
DE102013016486A1 (en) 2013-09-13 2015-04-02 Stephan Hörmann Surveying procedures for building openings and building closure manufacturing processes and devices for carrying them out
CN103499355B (en) * 2013-10-18 2016-02-10 武汉大学 A kind of laser demarcation device calibration system
KR101510336B1 (en) * 2013-11-14 2015-04-07 현대자동차 주식회사 Device for inspecting driver assistance system of vehicle
KR101510338B1 (en) * 2013-11-22 2015-04-07 현대자동차 주식회사 Device for inspecting lane departure warning system of vehicle
US11861906B2 (en) 2014-02-28 2024-01-02 Genius Sports Ss, Llc Data processing systems and methods for enhanced augmentation of interactive video content
US10769446B2 (en) 2014-02-28 2020-09-08 Second Spectrum, Inc. Methods and systems of combining video content with one or more augmentations
US11120271B2 (en) 2014-02-28 2021-09-14 Second Spectrum, Inc. Data processing systems and methods for enhanced augmentation of interactive video content
US10521671B2 (en) 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US10713494B2 (en) 2014-02-28 2020-07-14 Second Spectrum, Inc. Data processing systems and methods for generating and interactive user interfaces and interactive game systems based on spatiotemporal analysis of video content
CN103873258A (en) * 2014-03-27 2014-06-18 北京控制工程研究所 Identity recognition method of system with multiple measurement cameras
CN104266602A (en) * 2014-10-17 2015-01-07 云南电网公司电力科学研究院 Visual system for running dry type reactor strain detection
CN104316335B (en) * 2014-11-19 2017-01-18 烟台开发区海德科技有限公司 3D automobile wheel positioner multi-camera calibration system and method
TWI577493B (en) 2014-12-26 2017-04-11 財團法人工業技術研究院 Calibration method and automatic apparatus using the same
KR102299086B1 (en) 2015-01-07 2021-09-08 스냅-온 인코포레이티드 Rolling virtual wheel spindle calibration
CN204649448U (en) * 2015-05-11 2015-09-16 李开文 A kind of lifting machine automobile four-wheel 3D orientator
CN105136484A (en) * 2015-06-02 2015-12-09 深圳科澳汽车科技有限公司 Inter-shaft four-wheel positioning detection device and detection method
WO2017062661A1 (en) 2015-10-06 2017-04-13 Snap-On Incorporated Wheel aligner with advanced diagnostics and no-stop positioning
CN109923371B (en) 2016-08-16 2021-11-26 实耐宝公司 Wheel alignment method and system
CN107809610B (en) 2016-09-08 2021-06-11 松下知识产权经营株式会社 Camera parameter set calculation device, camera parameter set calculation method, and recording medium
CN106840111A (en) * 2017-03-27 2017-06-13 深圳市鹰眼在线电子科技有限公司 The real-time integrated system of position and attitude relation and method between object
JP7038345B2 (en) 2017-04-20 2022-03-18 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP7016058B2 (en) 2017-04-28 2022-02-04 パナソニックIpマネジメント株式会社 Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP7002007B2 (en) 2017-05-01 2022-01-20 パナソニックIpマネジメント株式会社 Camera parameter set calculation device, camera parameter set calculation method and program
US10477186B2 (en) * 2018-01-17 2019-11-12 Nextvr Inc. Methods and apparatus for calibrating and/or adjusting the arrangement of cameras in a camera pair
WO2019183235A1 (en) * 2018-03-21 2019-09-26 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US11243074B2 (en) 2018-04-30 2022-02-08 BPG Sales and Technology Investments, LLC Vehicle alignment and sensor calibration system
US11835646B2 (en) 2018-04-30 2023-12-05 BPG Sales and Technology Investments, LLC Target alignment for vehicle sensor calibration
US11597091B2 (en) 2018-04-30 2023-03-07 BPG Sales and Technology Investments, LLC Robotic target alignment for vehicle sensor calibration
CN112352146B (en) 2018-04-30 2023-12-01 Bpg销售和技术投资有限责任公司 Vehicle alignment for sensor calibration
US11781860B2 (en) 2018-04-30 2023-10-10 BPG Sales and Technology Investments, LLC Mobile vehicular alignment for sensor calibration
US10805535B2 (en) 2018-05-25 2020-10-13 Aquifi, Inc. Systems and methods for multi-camera placement
CN112639403A (en) 2018-09-13 2021-04-09 实耐宝公司 Motor vehicle aligner with improved accuracy and non-stop positioning using drive direction calculation
US11113535B2 (en) 2019-11-08 2021-09-07 Second Spectrum, Inc. Determining tactical relevance and similarity of video sequences
CN113001535B (en) 2019-12-18 2022-11-15 财团法人工业技术研究院 Automatic correction system and method for robot workpiece coordinate system
CN111498142B (en) * 2020-05-06 2021-12-14 南京航空航天大学 Aircraft avionics finished product installation and calibration method
CN116379984B (en) * 2023-04-03 2023-10-03 广州橘子电气有限公司 Industrial robot positioning accuracy calibration method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998012503A1 (en) * 1996-09-18 1998-03-26 Snap-On Technologies, Inc. Calibrating cameras used in alignment of wheels
WO1999022281A1 (en) * 1997-10-24 1999-05-06 Commissariat A L'energie Atomique Method for calibrating the initial position and the orientation of one or several mobile cameras

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4007642A (en) 1975-05-14 1977-02-15 Nortron Corporation System and method for identifying angular location and amount of wheel balancing weights
DE2948573A1 (en) 1979-12-03 1981-06-04 Siemens AG, 1000 Berlin und 8000 München Contactless measurement of vehicle wheel and steering geometry - uses electronic evaluation of elliptical video images of wheels
US4341119A (en) 1980-03-18 1982-07-27 Nortron Corporation Data input system for dynamic balancing machine
US4435982A (en) 1981-02-20 1984-03-13 Balco, Inc. Machine and method for balancing wheels
US5148591A (en) 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
US4507964A (en) 1982-11-29 1985-04-02 Willy Borner Slow speed dynamic wheel balancer
EP0149690A1 (en) * 1984-01-18 1985-07-31 Alpha Technologies Ltd. Method of locating points in space
US4741211A (en) 1984-01-19 1988-05-03 Willy Borner Heavy wheel balancer
DE4041723A1 (en) * 1990-12-24 1992-06-25 Thiedig Ullrich METHOD AND DEVICE FOR DETERMINING THE POSITION OF A MEASURING POINT RELATIVE TO A REFERENCE POINT
US5724743A (en) * 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
EP0674759B1 (en) 1992-09-04 2001-07-18 Snap-on Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
US5531030A (en) 1993-09-17 1996-07-02 Fmc Corporation Self-calibrating wheel alignment apparatus and method
US5532522A (en) * 1994-06-06 1996-07-02 Delco Electronics Corp. Printed circuit reader/exciter coil for vehicle security system
US6298284B1 (en) * 1995-12-28 2001-10-02 Hunter Engineering Company Apparatus and method with improved field of view for determining vehicle wheel alignment measurements from three dimensional wheel positions and orientations
EP0803703B1 (en) 1996-04-23 2002-07-24 G.S. S.r.l. A method of determining vehicle wheel alignment
US5845410A (en) 1996-08-08 1998-12-08 Boker; Donald W. Miter device and method
FR2764992B1 (en) * 1997-06-24 1999-09-03 Romain Granger DEVICE FOR POSITIONALLY LOCATING AN OBJECT IN SPACE AND METHOD OF USING THE DEVICE
IT1294940B1 (en) 1997-08-01 1999-04-23 Corghi Spa METHOD AND DEVICE TO ADJUST THE STRUCTURE OF A VEHICLE
SE515134C2 (en) * 1998-09-11 2001-06-11 Qualisys Ab System and method of camera positioning in a virtual studio
FR2786268B1 (en) * 1998-11-20 2001-04-13 Cie Europ D Equipements De Gar OPTICAL INSTALLATION AND METHOD FOR DETERMINING THE POSITIONS RELATING TO AT LEAST TWO OBJECTS IN SPACE
JP4849757B2 (en) 2000-03-23 2012-01-11 スナップ − オン テクノロジーズ,インコーポレイテッド Self-calibrating multi-camera machine vision measurement system
DE10043354A1 (en) 2000-09-02 2002-03-14 Beissbarth Gmbh Chassis measuring device
DE20021784U1 (en) * 2000-12-22 2001-03-01 Ullrich Stabila Messgeraete Laser leveler with protective housing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998012503A1 (en) * 1996-09-18 1998-03-26 Snap-On Technologies, Inc. Calibrating cameras used in alignment of wheels
JP2001501730A (en) * 1996-09-18 2001-02-06 スナップ オン テクノロジーズ インク Method and apparatus for calibrating a camera used in motor vehicle wheel alignment
WO1999022281A1 (en) * 1997-10-24 1999-05-06 Commissariat A L'energie Atomique Method for calibrating the initial position and the orientation of one or several mobile cameras
JP2001506369A (en) * 1997-10-24 2001-05-15 コミツサリア タ レネルジー アトミーク Method for calibrating the initial position and orientation of one or more mobile cameras and application of this method to three-dimensional position measurement of fixed objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8354439B2 (en) 1996-09-30 2013-01-15 Otsuka Pharmaceutical Co., Ltd. Agent for inhibition of cytokine production and agent for inhibition of cell adhesion
US10872432B2 (en) 2018-01-05 2020-12-22 Panasonic Intellectual Property Management Co., Ltd. Disparity estimation device, disparity estimation method, and program

Also Published As

Publication number Publication date
US6959253B2 (en) 2005-10-25
EP1266188A2 (en) 2002-12-18
DE60119708T2 (en) 2007-01-11
DE60119708D1 (en) 2006-06-22
US20030225536A1 (en) 2003-12-04
CN1464970A (en) 2003-12-31
AU2001245834A1 (en) 2001-10-03
EP1266188B1 (en) 2006-05-17
WO2001071280A3 (en) 2002-02-21
CN1224824C (en) 2005-10-26
JP2003528304A (en) 2003-09-24
WO2001071280A2 (en) 2001-09-27

Similar Documents

Publication Publication Date Title
JP4849757B2 (en) Self-calibrating multi-camera machine vision measurement system
US6968282B1 (en) Self-calibrating, multi-camera machine vision measuring system
US6731382B2 (en) Self-calibrating 3D machine measuring system useful in motor vehicle wheel alignment
EP3472555B1 (en) Vehicle wheel alignment method and system
EP0880677B1 (en) Method and apparatus for determining the alignment of motor vehicle wheels
EP0674759B1 (en) Method and apparatus for determining the alignment of motor vehicle wheels
EP0927335B1 (en) Calibrating cameras used in alignment of wheels
EP1623185B1 (en) Camera technique for adaptive cruise control (acc) sensor adjustment
US6594600B1 (en) Method for calibrating the initial position and the orientation of one or several mobile cameras
EP2171397B1 (en) Calibration and operation of wheel alignment systems
US20060152711A1 (en) Non-contact vehicle measurement method and system
US6526665B2 (en) Glint-resistant position determination system
US20090040312A1 (en) Calibration apparatus and method thereof
CN110542376A (en) device and method for positioning placement position of ADAS calibration target plate
CN210198312U (en) Device for positioning ADAS calibration target plate position with camera installed on lifter
AU669211C (en) Method and apparatus for determining the alignment of motor vehicle wheels
CN112837377A (en) Camera internal and external parameter combined calibration system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100817

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100824

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100915

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110309

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111018

R150 Certificate of patent or registration of utility model

Ref document number: 4849757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term