JP4191449B2 - 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末 - Google Patents

画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末 Download PDF

Info

Publication number
JP4191449B2
JP4191449B2 JP2002272858A JP2002272858A JP4191449B2 JP 4191449 B2 JP4191449 B2 JP 4191449B2 JP 2002272858 A JP2002272858 A JP 2002272858A JP 2002272858 A JP2002272858 A JP 2002272858A JP 4191449 B2 JP4191449 B2 JP 4191449B2
Authority
JP
Japan
Prior art keywords
calibration
image
user terminal
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002272858A
Other languages
English (en)
Other versions
JP2004110479A (ja
Inventor
伸夫 高地
孝幸 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2002272858A priority Critical patent/JP4191449B2/ja
Priority to PCT/JP2003/011899 priority patent/WO2004027708A1/ja
Priority to EP03797661A priority patent/EP1550980A4/en
Priority to AU2003264490A priority patent/AU2003264490A1/en
Priority to US10/527,999 priority patent/US7715644B2/en
Publication of JP2004110479A publication Critical patent/JP2004110479A/ja
Application granted granted Critical
Publication of JP4191449B2 publication Critical patent/JP4191449B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Description

【0001】
【産業上の利用分野】
本発明は、一般のカメラで撮影した画像に対して、カメラキャリブレーションを施すことにより、当該カメラで撮影した画像のレンズ歪みを補正する画像キャリブレーション方法に関し、特に精密なキャリブレーション演算をカメラ利用者側で負担する必要のない画像キャリブレーション方法に関する。
また、本発明は例えばステレオ視できる程度の精密なキャリブレーション演算を行う画像キャリブレーション処理装置に関する。また、本発明は画像キャリブレーション処理装置に対して、撮影するカメラの撮影画像又は撮影情報を送信して、キャリブレーション演算の施された修正被写体画像を表示できる画像キャリブレーション処理端末に関する。
【0002】
【従来の技術】
従来、複数の単写真の撮影を行い、これらからパノラマ写真を形成するような場合に、組合せる画像歪みを除去する修正を施す必要がある。また2次元的に撮影された画像を用いて目的物の寸法測定を行う場合において、画像歪みを除去する修正を施す必要がある。
【0003】
更に、撮影された2枚の画像に基づき計測対象物の三次元形状の計測を行なう場合、ステレオ法の原理に基づき計測対象物の計測点を求めている。そして、3次元計測を行うには、あらかじめカメラのキャリブレーション、すなわち、カメラの内部定位(レンズ歪み量、焦点距離、主点位置)を行う必要がある。そして、計測対象物の三次元形状は、カメラで撮影された画像の視差を用いて行うため、非常に精密に撮影したカメラのレンズ歪みを修正する必要がある。
【0004】
【特許文献1】
特開平9−329418号公報(段落番号0006、0020、図4、図5)
【特許文献2】
特開平11−351865号公報(段落番号0002、0004、図1、図3)
【0005】
【発明が解決しようとする課題】
しかし、前述のカメラのキャリブレーションを行うには、正確に計測された広範囲の3次元状のターゲット場や解析ソフト、撮影ノウハウ等が要求される。そこで、例えば建設現場、遺跡発掘現場、衣料販売店の従業者等が、カメラのキャリブレーションを行うとする場合、キャリブレーション作業が煩雑であるという課題があった。また、本出願人は、カメラのキャリブレーションに適したキャリブレーション体を上述の特許文献1で提案しているが、当該キャリブレーション体を利用する場合でも、キャリブレーション用ソフトを購入する必要があり、撮影対象物や撮影方法、解析にノウハウを要している。そこで、複数の単写真の組合せからパノラマ写真を形成したり、2次元的に撮影された画像を用いて目的物の寸法測定を行ったり、ステレオ法の原理に基づく3次元計測を、不慣れな建設現場、遺跡発掘現場、衣料販売店の従業者等が行うには、心理的な抵抗が大きいという課題があった。
【0006】
本発明は上述の課題を解決したもので、建設現場、遺跡発掘現場、衣料販売店の従業者等のようにステレオ法の原理に基づく3次元計測や、2次元の精密な計測、精密な画像形成に不慣れな人でも、カメラのレンズ歪みを修正した修正被写体画像の得られる画像キャリブレーション方法を提供することを第1の目的とする。
また、本発明は、簡便に3次元計測や、2次元の精密な計測、精密な画像形成が行える程度にカメラのレンズ歪みを修正した修正被写体画像の得られる画像キャリブレーション処理装置を提供することを第2の目的とする。また、本発明は、画像キャリブレーション処理装置にアクセスして簡便にカメラのレンズ歪みを修正した修正被写体画像の得られる画像キャリブレーション処理端末を提供することを第3の目的とする。
【0007】
【課題を解決するための手段】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので、図1及び図2に示すように、ユーザ端末20からのキャリブレーション要求を画像キャリブレーション処理装置10にて受信するステップ(S10)と受信したキャリブレーション要求に適合するものであって、校正体4の撮影方法を説明するインストラクションをキャリブレーション処理装置10内に置かれたインストラクションデータベース18から抽出し、ユーザ端末20に返信するステップ(S12)と、キャリブレーション撮影の前記インストラクションに従い撮影された校正体画像を画像キャリブレーション処理装置10にて受信するステップ(S16)と、前記受信した前記校正体画像を用いてキャリブレーション処理を行なうステップ(S26)と、 ユーザ端末20から送信された被写体画像であって、前記校正体画像を撮影したカメラ2で撮影された被写体画像を画像キャリブレーション処理装置10にて受信するステップ(S30)と、前記キャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して修正被写体画像を形成するステップ(S32)と、前記形成された修正被写体画像を画像キャリブレーション処理装置10からユーザ端末20に返信するステップ(S34)とを含んでいる。
【0008】
このようなステップを含む画像キャリブレーション方法によれば、キャリブレーション対象となるカメラ2で撮影した校正体画像を画像キャリブレーション処理装置10にて受信して、キャリブレーション処理を行ない、レンズ歪み等の修正に必要なキャリブレーション処理の結果を算出する。次に、カメラ2で撮影した被写体画像を画像キャリブレーション処理装置10にて受信し、キャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して修正被写体画像を形成して、修正被写体画像を画像キャリブレーション処理装置10からユーザ端末20に返信する。すると、ユーザ端末20ではキャリブレーション撮影のインストラクションに従い、カメラ2で撮影された校正体画像を画像キャリブレーション処理装置10に送信し、次にカメラ2で撮影した被写体画像を送信すれば、複雑な修正被写体画像の演算処理を画像キャリブレーション処理装置10が負担するので、ユーザ端末20の演算負荷が軽減される。ユーザ端末20は工事現場や旅行先で用いられるため、演算負荷が軽ければユーザ端末20の消費電力が少なくて済み、現場での作業性が安定する。
【0009】
好ましくは、上記の画像キャリブレーション方法において、図18及び図19に示すように、さらに校正体画像と被写体画像は、校正体4と被写体6が同時に撮影された共通の画像であり、修正被写体画像を用いて、前記被写体の三次元計測を行うステップ(S222)を有すると、被写体の三次元画像計測が行える。そこで、三次元画像計測の必要な利用者に対して、キャリブレーション処理の付加サービスとして画像キャリブレーション処理装置10により提供できる。
【0010】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので、図14及び図15に示すように、ユーザ端末40からのキャリブレーション要求を画像キャリブレーション処理装置30にて受信するステップ(S100)と、前記受信したキャリブレーション要求に適合するものであって、校正体4の撮影方法を説明するインストラクションをキャリブレーション処理装置30内に置かれたインストラクションデータベース38から抽出し、ユーザ端末40に返信するステップ(S102)と、キャリブレーション撮影の前記インストラクションに従い撮影された校正体画像を画像キャリブレーション処理装置30にて受信するステップ(S106)と、前記受信した校正体画像を用いてキャリブレーション処理を行なうステップ(S116)と、前記キャリブレーション処理で算出されたキャリブレーション処理の結果を画像キャリブレーション処理装置30から送信するステップ(S118)とを含んでいる。そして、ユーザ端末40側では、画像キャリブレーション処理装置30から送信されたキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された(S120)被写体画像にキャリブレーションを施して修正被写体画像を形成する(S122)。
【0011】
このようなステップを含む画像キャリブレーション方法によれば、キャリブレーション対象となるカメラ2で撮影した校正体画像を画像キャリブレーション処理装置30にて受信して、キャリブレーション処理を行ない、レンズ歪み等の修正に必要なキャリブレーション処理の結果を算出して、ユーザ端末40に返信する。次に、ユーザ端末40側では、画像キャリブレーション処理装置30から送信されたキャリブレーション処理の結果を用いて、カメラ2で撮影した被写体画像にキャリブレーションを施して修正被写体画像を形成する。すると、ユーザ端末40では画像キャリブレーション処理装置30で得られたキャリブレーション処理の結果を用いて、カメラ2で撮影した被写体画像から修正被写体画像が得られる。この際に修正被写体画像の演算処理をユーザ端末40で負荷するので、ユーザ端末40と画像キャリブレーション処理装置30との通信回線の容量が小さかったり、通信の安定性に乏しい場合にも安定して修正被写体画像が得られる。
【0012】
好ましくは、上記の画像キャリブレーション方法において、図20及び図21に示すように、さらに校正体画像と被写体画像は、校正体4と被写体6が同時に撮影された共通の画像であり、ユーザ端末40側にて、さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行う(S234)ように構成されるとよい。
【0013】
好ましくは、上記の画像キャリブレーション方法において、さらにキャリブレーション撮影のインストラクションが、画像キャリブレーション処理装置(10、30)からユーザ端末(20、40)に送信されるステップ(S12、S102)を有すると良い。キャリブレーション撮影のインストラクションは、現場や旅行先に携行することを失念する場合もあり、このとき画像キャリブレーション処理装置(10、30)にアクセスしてユーザ端末(20、40)にダウンロードできる。好ましくは、インストラクションは撮影状態を示した画像を含むステップとすると、キャリブレーション対象となるカメラ2で校正体画像を撮影する作業者にとって、校正体画像撮影作業が容易に理解できる。
【0014】
好ましくは、上記の画像キャリブレーション方法において、画像キャリブレーション処理装置(10、30)が、ユーザ端末(20、40)から送信される校正体画像と共に、更に少なくとも撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさを受信するステップ(S16、S106)を有すると良い。撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさは、キャリブレーション処理に有効な情報である。
【0015】
好ましくは、上記の画像キャリブレーション方法において、画像キャリブレーション処理装置(10、30)が、ユーザ端末(20、40)から送信される校正体画像に添付された撮影情報から、前記キャリブレーション処理に必要なデータを読み出すステップ(S16、S106)を有するとよい。読み出されたデータはキャリブレーション処理に用いられる。
【0016】
好ましくは、上記の画像キャリブレーション方法において、前記キャリブレーション処理では、前記校正体画像の撮影に掛かるカメラの主点位置、デストーションデータ、又は撮影レンズの焦点距離の少なくとも一つを算出されたキャリブレーション処理の結果に含むと、修正被写体画像の演算処理に必要なパラメータが得られる。
【0017】
好ましくは、上記の画像キャリブレーション方法において、画像キャリブレーション処理装置(10、30)は、前記受信した校正体画像を用いてキャリブレーション処理を行なう際に、算出されたキャリブレーション処理の結果をキャリブレーションデータベース(19、39)に蓄積するステップを含むとよい。蓄積されたキャリブレーション処理の結果は、例えばCRM(Customer Relation Management)等に利用することができる。
【0018】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので、図12及び図13に示すように、カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベース19を有する画像キャリブレーション処理装置10に用いられる画像キャリブレーション方法である。即ち、ユーザ端末20からのキャリブレーション要求を、被写体画像の撮影を行なうカメラ2の機種と共に画像キャリブレーション処理装置10にて受信するステップ(S10、S11b)と、前記受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース19から抽出するステップ(S11c)と、カメラ2の機種に対応する前記キャリブレーション処理の結果が抽出された場合には、前記抽出されたキャリブレーション処理の結果を用いて、前記被写体画像にキャリブレーションを施して修正被写体画像を形成し(S32)、カメラ2の機種に対応する前記キャリブレーション処理の結果が抽出されない場合には、校正体4の撮影方法を説明するインストラクションをユーザ端末20に送信し、前記送信された前記インストラクションに従い撮影された校正体画像を受信し、前記受信した校正体画像を用いてキャリブレーション処理を行い、得られたキャリブレーション処理の結果に従い前記被写体画像にキャリブレーションを施して修正被写体画像を形成するステップ(S12〜S32)と、前記形成された修正被写体画像を画像キャリブレーション処理装置10からユーザ端末20に返信するステップ(S34)とを含んでいる。
【0019】
このようなステップを含む画像キャリブレーション方法によれば、キャリブレーション対象となるカメラ2の機種に対応するキャリブレーション処理の結果が予めキャリブレーションデータベース19に蓄積されている。そこで、ユーザ端末20からのキャリブレーション要求を、被写体画像の撮影を行なうカメラ2の機種と共に画像キャリブレーション処理装置10にて受信することで、キャリブレーションデータベース19に蓄積されているカメラ2の機種に対応するキャリブレーション処理の結果を読み出すことができる。すると、カメラ2の機種とキャリブレーション処理の結果がある許容範囲内で対応している場合には、キャリブレーションデータベース19に蓄積されているカメラ2の機種に対応するキャリブレーション処理の結果が利用でき、キャリブレーション撮影のインストラクションに従い撮影された校正体画像を用いる必要がない。そこで、ユーザ端末20ではカメラ2で撮影した校正体画像を画像キャリブレーション処理装置10に送信することが不要となり、画像キャリブレーション処理装置10では、レンズ歪み等の修正に必要なキャリブレーション処理の結果を算出する必要がなく、作業が円滑に進む。
【0020】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので図16及び図17に示すように、カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベース39を有する画像キャリブレーション処理装置30に用いられる画像キャリブレーション方法である。即ち、ユーザ端末40からのキャリブレーション要求を、被写体画像の撮影を行なうカメラ2の機種と共に画像キャリブレーション処理装置30にて受信するステップ(S100、S101b)と、前記受信したカメラ2の機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース39から抽出するステップ(S101c)と、カメラ2の機種に対応する前記キャリブレーション処理の結果が抽出された場合には、前記抽出されたキャリブレーション処理の結果を画像キャリブレーション処理装置30から送信し、カメラ2の機種に対応する前記キャリブレーション処理の結果が抽出されない場合には、校正体4の撮影方法を説明するインストラクションをユーザ端末40に送信し、前記送信された前記インストラクションに従い撮影された校正体画像を受信し、前記受信した校正体画像を用いてキャリブレーション処理を行い、得られたキャリブレーション処理の結果を画像キャリブレーション処理装置30から送信するステップ(S118)を含んでいる。そして、ユーザ端末40側では、前記画像キャリブレーション処理装置30から送信されたキャリブレーション処理の結果を用いて、被写体画像にキャリブレーションを施して修正被写体画像を形成する(S122)。
【0021】
このようなステップを含む画像キャリブレーション方法によれば、キャリブレーション対象となるカメラ2の機種に対応するキャリブレーション処理の結果が予めキャリブレーションデータベース39に蓄積されている。そこで、カメラ2の機種とキャリブレーション処理の結果がある許容範囲内で対応している場合には、キャリブレーションデータベース39に蓄積されているカメラ2の機種に対応するキャリブレーション処理の結果が利用でき、キャリブレーション撮影のインストラクションに従い撮影された校正体画像を用いる必要がない。また、ユーザ端末40では画像キャリブレーション処理装置30で得られたキャリブレーション処理の結果を用いて、カメラ2で撮影した被写体画像から修正被写体画像が得られる。この際に修正被写体画像の演算処理をユーザ端末40で負荷するので、ユーザ端末40と画像キャリブレーション処理装置30との通信回線の容量が小さかったり、通信の安定性に乏しい場合にも安定して修正被写体画像が得られる。
【0022】
好ましくは、上記の画像キャリブレーション方法において、キャリブレーションデータベース(19、39)には、ユーザ端末(20、40)から受信した校正体画像を用いてキャリブレーション処理を行なう際に、算出されたキャリブレーション処理の結果を、カメラの機種と共に蓄積するとよい。
【0023】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので、図1及び図2に示すように、画像キャリブレーション処理装置10に対するキャリブレーション要求をユーザ端末20から送信するステップ(S10)と、前記送信したキャリブレーション要求に適合したものであって、画像キャリブレーション処理装置内10に置かれたインストラクションデータベース18から抽出され、画像キャリブレーション処理装置10から送信された、校正体の撮影方法を説明するインストラクションに従い、校正体画像をユーザ端末20から画像キャリブレーション処理装置10に送信するステップ(S16)と、前記校正体画像を撮影したカメラ2で撮影された被写体画像を画像キャリブレーション処理装置10に送信するステップ(S30)と、画像キャリブレーション処理装置10から送信された修正被写体画像であって、前記送信した校正体画像を用いて得られたキャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して形成された前記修正被写体画像をユーザ端末20で受信するステップ(S34)とを含んでいる。
【0024】
本発明の画像キャリブレーション方法は、第1の目的を達成するもので、図14及び図15に示すように、画像キャリブレーション処理装置30に対するキャリブレーション要求をユーザ端末40から送信するステップ(S100)と、前記送信したキャリブレーション要求に適合したものであって、画像キャリブレーション処理装置30内に置かれたインストラクションデータベース38から抽出され、画像キャリブレーション処理装置30から送信された、校正体4の撮影方法を説明するインストラクションに従い、所定のカメラ2で撮影された校正体画像をユーザ端末40から画像キャリブレーション処理装置30に送信するステップ(S106)と、画像キャリブレーション処理装置30で算出されたキャリブレーション処理の結果をユーザ端末40で受信するステップ(S118)と、前記受信したキャリブレーション処理の結果を用いて前記校正体画像を撮影したカメラ2で撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成するステップ(S122)とを含んでいる。
【0025】
本発明の画像キャリブレーション処理装置10は、第2の目的を達成するもので、図1に示すように、ユーザ端末20から送信された画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像、並びに前記校正体画像を撮影したカメラ2で撮影された被写体画像を受信するユーザ端末向け受信部11と、ユーザ端末向け受信部11で受信した画像キャリブレーションの利用要求に適合する、前記インストラクションを抽出するインストラクション抽出部13と、ユーザ端末向け受信部11で受信した前記校正体画像を用いてキャリブレーション処理を行うキャリブレーション処理部14と、前記キャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部15と、修正被写体画像形成部15で形成された修正被写体画像、並びに前記インストラクション抽出部13で抽出された前記インストラクションをユーザ端末20に送信するユーザ端末向け返信部16とを備えている。
【0026】
好ましくは、本発明の画像キャリブレーション処理装置10において、さらに、修正被写体画像形成部15で形成された修正被写体画像を表示する表示部16aを備えるとよい。好ましくは、本発明の画像キャリブレーション処理装置10において、図18に示すように、さらに、校正体画像と被写体画像は、校正体4と被写体6が同時に撮影された共通の画像であり、修正被写体画像を用いて、前記被写体の三次元計測を行う三次元計測部15aを備える構成とするとよい。
【0027】
本発明の画像キャリブレーション処理装置30は、第2の目的を達成するもので、図14に示すように、ユーザ端末40から送信された画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像を受信するユーザ端末向け受信部31と、ユーザ端末向け受信部31で受信した画像キャリブレーションの利用要求に適合する、前記インストラクションを抽出するインストラクション抽出部33と、ユーザ端末向け受信部31で受信した前記校正体画像を用いてキャリブレーション処理を行うキャリブレーション処理部34と、キャリブレーション処理部34で算出されたキャリブレーション処理の結果、並びに前記インストラクション抽出部33で抽出された前記インストラクションをユーザ端末40に送信するユーザ端末向け返信部36とを備えている。そして、ユーザ端末40側では、ユーザ端末向け返信部36から送信されたキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成する。
【0028】
好ましくは、本発明の画像キャリブレーション処理装置30において、図20に示すように、さらに、校正体画像と被写体画像は、校正体4と被写体6が同時に撮影された共通の画像であり、ユーザ端末40側にて、さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行う三次元計測部47を備える構成とするとよい。
【0029】
好ましくは、本発明の画像キャリブレーション処理装置(10、30)において、さらに、ユーザ端末向け受信部(11、31)で受信した画像キャリブレーションの利用要求に適合する、前記インストラクションを抽出するインストラクション抽出部(13、33)を備え、ユーザ端末向け返信部(16、36)は、インストラクション抽出部(13、33)で抽出されたインストラクションをユーザ端末(20、40)に返信する構成とすると良い。さらに、好ましくは、前記インストラクションには、撮影状態を示した画像を含むと、校正体画像や被写体画像を撮影する担当者によって理解が容易になる。
【0030】
好ましくは、本発明の画像キャリブレーション処理装置(10、30)において、ユーザ端末向け受信部(11、31)は、ユーザ端末(20、40)から送信される校正体画像又は被写体画像と共に、更に少なくとも撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさを受信する構成とすると良い。撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさは、キャリブレーション処理に有効な情報である。
【0031】
好ましくは、本発明の画像キャリブレーション処理装置(10、30)において、画像キャリブレーション処理装置(10、30)が、ユーザ端末(20、40)から送信される校正体画像に添付された撮影情報から、前記キャリブレーション処理に必要なデータを読み出す情報読出し部(14b、34b)を有するとよい。情報読出し部で読み出されたデータは、キャリブレーション処理部(14、34)でのキャリブレーション処理に用いられる。好ましくは、本発明の画像キャリブレーション処理装置(10、30)において、キャリブレーション処理部(14、34)では、前記被写体画像の撮影に掛かるカメラの主点位置、デストーションデータ、又は撮影レンズの焦点距離の少なくとも一つをキャリブレーション処理の結果に含めて算出する構成とするとよい。
【0032】
本発明の画像キャリブレーション処理装置10は、第2の目的を達成するもので、図12に示すように、ユーザ端末20からのキャリブレーション要求と被写体画像を、被写体画像の撮影を行なうカメラ2の機種と共に受信するユーザ端末向け受信部11と、カメラ2の機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベース19と、受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース19から抽出するキャリブレーション処理結果抽出部14aと、前記抽出されたキャリブレーション処理の結果を用いて、ユーザ端末20から送信される被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部15と、形成された修正被写体画像をユーザ端末20に返信するユーザ端末向け返信部16とを備え、前記キャリブレーション処理結果抽出部14aにてカメラ2の機種に対応するキャリブレーション処理の結果が抽出されない場合には、ユーザ端末向け返信部11は、校正体4の撮影方法を説明するインストラクションをユーザ端末20に送信し、ユーザ端末向け受信部11は前記インストラクションに従い撮影された校正体画像を受信し、修正被写体画像形成部15は前記インストラクションに従い撮影された校正体画像より求めたキャリブレーション処理の結果を用いて、ユーザ端末20から送信される被写体画像にキャリブレーションを施して修正被写体画像を形成するように構成されている。
【0033】
本発明の画像キャリブレーション処理装置30は、第2の目的を達成するもので、図16に示すように、ユーザ端末40からのキャリブレーション要求を、被写体画像の撮影を行なうカメラ2の機種と共に受信するユーザ端末向け受信部31と、カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベース39と、前記受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース39から抽出するキャリブレーション処理結果抽出部34aと、前記抽出されたキャリブレーション処理の結果をユーザ端末40に送信するユーザ端末向け返信部36とを備えている。そして、キャリブレーション処理結果抽出部34aにてカメラ2の機種に対応するキャリブレーション処理の結果が抽出されない場合には、ユーザ端末向け受信部31は、校正体4の撮影方法を説明するインストラクションに従い撮影された校正体画像を受信し、ユーザ端末向け返信部36は前記インストラクションの送信および前記校正体画像より求めたキャリブレーション処理の結果の返信を行い、ユーザ端末40側でユーザ端末向け返信部36から送信されたキャリブレーション処理の結果を用いて、前記被写体画像にキャリブレーションを施して修正被写体画像を形成するように構成されている。
【0034】
本発明の画像キャリブレーション処理端末20は、第3の目的を達成するもので、図1に示すように、画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、画像キャリブレーション処理装置10に置かれたインストラクションデータベース18から抽出され、校正体4の撮影方法を説明するインストラクションに従い撮影された校正体画像、並びに前記校正体画像を撮影したカメラ2で撮影された被写体画像を画像キャリブレーション処理装置10に送信する処理装置向け送信部21と、画像キャリブレーション処理装置10から送信された修正被写体画像であって、前記被写体画像にキャリブレーションを施して形成された前記修正被写体画像を受信する処理装置向け受信部24と、処理装置向け受信部24で受信した前記インストラクションと、前記修正被写体画像を表示する表示部25とを備えている。
【0035】
本発明の画像キャリブレーション処理端末は、第3の目的を達成するもので、図14に示すように、画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、画像キャリブレーション処理装置30に置かれたインストラクションデータベース38から抽出され、校正体4の撮影方法を説明するインストラクションに従い撮影された校正体画像を前記画像キャリブレーション処理装置30に送信する処理装置向け送信部41と、画像キャリブレーション処理装置30から送信されたキャリブレーション処理の結果を受信する処理装置向け受信部44と、処理装置向け受信部44で受信したキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラ2で撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部46とを備えている。
【0036】
【発明の実施の形態】
以下図面を用いて本発明を説明する。図1は本発明の第1の実施の形態を説明する全体構成ブロック図である。図において、本発明の画像キャリブレーション処理システムは、カメラ2、校正体4、被写体6、通信回線8、画像キャリブレーション処理装置10、並びに複数のユーザ端末20を備えている。カメラ2は、例えば汎用の一眼レフカメラやディジタルカメラのように、高精度計測用カメラに比較すると、レンズ収差の大きい光学機器である。校正体4は、レンズ収差を補償するキャリブレーションを行う為のチャートで、立体チャートと平面チャートがある。立体チャートに設けられた各基準点は、平面位置と高さが精密に求められている。平面チャートに関しては、後で詳細を説明する。被写体6は、カメラ2で撮影の対象となるもので、パノラマ写真での被写体(例えば風景)や2次元計測、3次元計測の対象となる被写体(例えば工作物、地形等)がある。通信回線8は、有線や無線の公衆回線や専用回線であって、データ通信が可能であればよい。
【0037】
画像キャリブレーション処理装置10は、ユーザ端末向け受信部11、利用者認証部12、インストラクション抽出部13、キャリブレーション処理部14、情報読出し部14b、修正被写体画像形成部15、ユーザ端末向け返信部16、表示部16a、利用者データベース17、インストラクションデータベース18、キャリブレーションデータベース19を備えるもので、例えばサーバーやワークステーションのような高度の演算能力を有する機器が用いられる。
【0038】
ユーザ端末向け受信部11は、ユーザ端末20から送信された画像キャリブレーションの利用要求と、キャリブレーション撮影のインストラクションに従い撮影された校正体画像、並びに被写体6をカメラ2で撮影した被写体画像を通信回線8経由で受信する。校正体画像と被写体画像は、撮影された校正体4と被写体6とが単独で撮影された画像を原則とし、共通のカメラ2で撮影されている。画像キャリブレーションの利用要求には、カメラの機種や焦点距離等のようなキャリブレーション処理に有用な撮影条件情報を含ませるとよい。撮影条件情報は、独立したデータとして送信してもよく、また校正体画像や被写体画像の付帯情報として含ませてもよい。例えば、ディジタルカメラのフォーマットには、”Exif”と呼ばれる基本フォーマットが採用されているが、フォーマットの頭の部分には、撮影した機器や日付、絞り、シャッタースピード等の撮影条件情報が含まれている。
【0039】
利用者認証部12は、画像キャリブレーション処理装置10の運営者がユーザ端末20の利用者に正当な利用権原のあることを認証するもので、例えば利用者の住所、氏名、通信回線8で利用する電話回線番号、画像キャリブレーション処理装置10で配布した認証キー等を用いる。利用者データベース17は、正当な利用権原のあるユーザ端末20の利用者を登録したもので、会員制を採用している場合には登録日、会員登録有効期間、利用回数、有償性を採用している場合には課金状態が記録してある。利用者認証部12にてユーザ端末20の利用者に正当な利用権原のあることを認証できた場合に、ユーザ端末向け受信部11で受信した画像キャリブレーションの利用要求に応える。
【0040】
インストラクション抽出部13は、ユーザ端末向け受信部11で受信した画像キャリブレーションの利用要求に適合する、キャリブレーション撮影のインストラクションをインストラクションデータベース18から抽出する。インストラクション抽出部13は、ユーザ端末20の利用者が既にキャリブレーション撮影のインストラクションを利用できる状態にあるときは、インストラクションの抽出を行わなくてもよい。インストラクションデータベース18は、カメラ2の機種や校正体4の種類に応じたキャリブレーション撮影のインストラクションを記録してある。カメラ2の機種には、例えばズーム式レンズ、広角レンズ、望遠レンズ、パノラマレンズ、標準レンズ等がある。校正体4の種類には、例えば平面式チャート、立体式チャート等がある。
【0041】
キャリブレーション処理部14は、ユーザ端末向け受信部11で受信した校正体画像を用いてキャリブレーション処理を行う。キャリブレーション処理とは、カメラ収差を補償する各種のパラメータを求めるもので、詳細は後で説明する。情報読出し部14bは、ユーザ端末20から送信される校正体画像に添付された撮影情報から、キャリブレーション処理に必要なデータを読み出すものである。情報読出し部14bは、例えばディジタルカメラの基本フォーマット”Exif”に含まれる撮影情報を読み出す。キャリブレーションデータベース19は、カメラ2の機種やレンズの焦点距離に応じたキャリブレーション処理の結果が蓄積されている。
【0042】
修正被写体画像形成部15は、キャリブレーション処理に従い、ユーザ端末向け受信部11で受信した被写体画像にキャリブレーションを施して修正被写体画像を形成する。ユーザ端末向け返信部16は、インストラクション抽出部13で抽出されたインストラクション、及び修正被写体画像形成部15で形成された修正被写体画像を、通信回線8経由でユーザ端末20に返信する。表示部16aは、CRTや液晶表示画面で、修正被写体画像形成部15で形成された修正被写体画像、キャリブレーション処理部14でのキャリブレーション処理の結果、ユーザ端末向け受信部11で受信した校正体画像、被写体画像等を表示する。
【0043】
本発明の画像キャリブレーション処理端末20は、処理装置向け送信部21、キー入力部22、処理装置向け受信部24、表示部25を備えたもので、例えばパソコン、情報携帯端末、カメラ内蔵型の携帯電話端末が用いられる。処理装置向け送信部21と処理装置向け受信部24には、通信回線8接続用のモデムを用いるとよい。処理装置向け送信部21は、画像キャリブレーションの利用要求と、キャリブレーション撮影のインストラクションに従い撮影された校正体画像、並びに校正体画像を撮影したカメラ2で撮影された被写体画像を、通信回線8経由で画像キャリブレーション処理装置10に送信する。画像キャリブレーションの利用要求には、利用者に正当な利用権原のあることを認証情報や、撮影条件情報も含めて送信してもよい。
【0044】
キー入力部22は、英数字、かな文字、その他の操作命令を利用者が入力するもので、例えばキーボード、表示部25を用いたタッチパネル、押しボタンなどで形成されている。処理装置向け受信部24は、画像キャリブレーション処理装置10から送信された修正被写体画像であって、被写体画像にキャリブレーションを施して形成された修正被写体画像を受信する。キャリブレーション撮影のインストラクションが必要な場合も、通信回線8経由で処理装置向け受信部24にて受信する。表示部25は、処理装置向け受信部24で受信したキャリブレーション撮影のインストラクションや修正被写体画像を表示する。表示部25では、校正体画像や被写体画像を表示してもよい。
【0045】
次に、このように構成された装置の動作について説明する。図2は本方法発明の第1の実施の形態を説明するフローチャートである。ユーザ端末20は、カメラ2のキャリブレーション要求(サービスリクエスト)を、通信回線8経由で画像キャリブレーション処理装置10に送信する(S10)。すると、画像キャリブレーション処理装置10では、キャリブレーション要求に対してユーザ端末20の利用者に正当な利用権原があるか認証を行う。認証の結果、ユーザ端末20の利用者に正当な利用権原があると認められると、画像キャリブレーション処理装置10は、カメラ2の機種に応じたキャリブレーション撮影のインストラクションをユーザ端末20に返信する(S12)。キャリブレーション撮影のインストラクションには、例えば校正体4としての平面チャートが随伴している。なお、校正体4として立体チャートをユーザ端末20側で所持している場合には、送信される平面チャートに代えて、当該立体チャートを校正体4として用いることができる。
【0046】
ユーザ端末20側では、キャリブレーション撮影のインストラクションに従い、カメラ2にて校正体4を撮影する(S14)。撮影された校正体画像は、撮影データと共にユーザ端末20から画像キャリブレーション処理装置10へ、通信回線8経由で送信される(S16)。画像キャリブレーション処理装置10では、送信された校正体画像の撮影品質を判断し、例えばピントが適切でない画像や校正体4の画像が小さくてキャリブレーション処理に適していない画像か判断する(S18)。不適切な校正体画像であれば、再度のカメラ2による校正体4撮影を要求する(S20)。このとき、キャリブレーション処理に適する校正体画像とするには、何れの点に留意して撮影するかのコメントを含ませると良い。利用者は、再撮影要求に対して、コメントに留意してカメラ2にて校正体4を撮影する(S22)。撮影された校正体画像は、撮影データと共にユーザ端末20から画像キャリブレーション処理装置10へ、通信回線8経由で送信され(S24)、S18にて校正体画像の撮影品質が判断される。
【0047】
校正体画像の撮影品質が適正であれば、キャリブレーション処理部14では受信した校正体画像を用いてキャリブレーション処理を行なう(S26)。このキャリブレーション処理の結果は、カメラの機種と共にキャリブレーションデータベース19に蓄積される。次に、ユーザ端末20側では、校正体画像を撮影したカメラ2で被写体6を撮影する(S28)。ユーザ端末20では、被写体画像を通信回線8経由で画像キャリブレーション処理装置10に送信する(S30)。画像キャリブレーション処理装置10では、受信した被写体画像をS26で求めたキャリブレーション処理の結果に従い、被写体画像にキャリブレーションを施して修正被写体画像を形成する(S32)。そして、形成された修正被写体画像を画像キャリブレーション処理装置10からユーザ端末20に返信する(S34)。
【0048】
この際に、画像キャリブレーション処理装置10では、送信された被写体画像の撮影品質を判断し、例えばピントが適切でない画像や被写体6の画像が小さくて被写体画像の修正処理に適していない画像か判断してもよい。不適切な被写体画像であれば、再度のカメラ2による被写体6撮影を要求する。有償サービスの場合には、利用者データベース17に利用情報を蓄積すると共に、課金に必要な処理を行う。
【0049】
ここで、校正体4としての平面チャートについて説明する。ここでは、平面チャートとして紙やプラスチックシートに所定のマークを印刷してある場合を例に説明するが、平面画面に所定のマークを配列した画像を表示するものでもよい。図3は、平面チャートの一例を示す平面図である。平面チャートは、平面的なシート形状であって、表側に視認容易な第1マークと多数の点から構成される第2マークが印刷されている。第1マークは、キャリブレーション処理に利用されると共に、カメラ2が平面チャートを撮影した撮影角度を決めるために利用される。第1マークは、平面チャートの少なくとも3箇所に設けられるもので、好ましくは平面チャートを4区分に等分したときの各象限に設けると良い。第2マークは、カメラ2によって撮影された平面チャートの画像データの位置を指定するもので、ターゲットとも呼ばれており、好ましくは均等の密度で満遍なく平面チャートに配置する。第2マークは、平面チャートの30箇所以上に設けられるのが好ましく、さらに好ましくは100〜200箇所程度にするとよい。
【0050】
ここでは、第1マークは平面チャートに総計5個配置されるもので、外形菱形で、中心部分に第2マークと共通の図柄が描かれている。第1マーク1a、1b、1c、1dは、平面チャートを4象限に区分したとき、各象限に設けられるもので、第1マーク1aは左上象限、第1マーク1bは右上象限、第1マーク1cは左下象限、第1マーク1dは右下象限に位置している。第1マーク1eは、各象限と共通となる原点位置に設けられている。例えば第1マーク1a、1b、1c、1dは、第1マーク1eに対して等距離dの位置に設けられている。平面チャートが矩形であるとして、第1マーク1a、1bと第1マーク1eとの縦方向の間隔をh、第1マーク1c、1dと第1マーク1eとの縦方向の間隔をlとする。このとき、第1マーク1a、1b、1c、1dと第1マーク1eとの距離dは、以下の関係を充足する。
d=(h+l1/2 (1)
【0051】
第1マークと第2マークは、予め所望の寸法で印刷するか、もしくは寸法を計測しておく。第1マークと第2マークの位置は、予めキャリブレーションデータベース19の中に記憶しておくと良く、その記憶された座標にてシートに印刷すればよい。
【0052】
図4は、キャリブレーション処理の結果の一例を示す説明図である。例えば、表示部16aへの表示には、キャリブレーション要素である焦点距離、主点位置、歪曲パラメータを表示する。レンズ収差を示すディストーションについては、補正前曲線142、補正後曲線144、理想に補正された場合146についてグラフィック表示するとわかりやすい。
【0053】
図5は、ズーム式レンズに対するキャリブレーション処理の結果の一例を示す説明図で、(A)は係数k1、(B)は係数k2、(C)は画像座標系xでのカメラ主点と画像中心のx軸位置ずれ係数x0、(D)は画像座標系yでのカメラ主点と画像中心のy軸位置ずれ係数y0を表している。ここでは、ズーム式カメラ2の焦点距離が7.2mmから50.8mmで調整可能な場合を取り上げる。焦点距離データの測定個数を6個とすると、7.2mmが最広角となり、52.2mmが最望遠となり、中間の測定点として光学的意味での等間隔で測定をする為に、8.7mm、11.6mm、24.8mm、39.0mmが選択される。係数k1、k2は、後で説明するセルフキャリブレーション付きバンドル調整法の式(4)で用いられる係数で、最広角側で最大値をとり、最望遠側では小さくなっている。
【0054】
図6は校正体画像を撮影するインストラクションの概括を示すフローチャートで、カメラ2のキャリブレーション要求(サービスリクエスト)段階での詳細を説明している。まず、画像キャリブレーション処理装置10は、ユーザ端末20に対して項目記入シートを送信する(S50)。項目記入シートには、校正体4としての撮影ターゲットとして平面チャートを用いるか、既存の立体チャートを用いるかなどのキャリブレーション処理に必要な項目が設けられている。
【0055】
ユーザ端末20では、送信された項目記入シートを印刷或いは表示して(S52)、必要な項目に対してカメラ2、校正体4、被写体6、撮影条件等を記入或いは補充する。次に、ユーザ端末20からの要求に応じて、校正体4としての平面チャートを送信する(S54)。ユーザ端末20では、送信された校正体4としての平面チャートを印刷或いは表示する(S56)。そして、ユーザ端末20では、撮影条件等を記入或いは補充した項目記入シートを、画像キャリブレーション処理装置10に返信して、撮影準備完了を知らせる(S58)。この際に、ユーザ端末20側では、印刷した平面チャートを壁に貼ったり、送信された平面チャートを表示するユーザ端末20の表示部25を適宜の場所に設置する。なお、撮影条件としてのカメラの画角や補正したい精度によっては、S56で送信された平面チャートでは精度不充分の場合がある。この場合には、高精度に印刷した平面チャートや高精度に製作された立体チャートでないと、要求される修正被写体画像の精度が得られない為、別途必要な平面チャートや立体チャートが郵送又は送付されるのを待つ。
【0056】
次に、画像キャリブレーション処理装置10は、ユーザ端末20に対してカメラ2の機種に応じたキャリブレーション撮影のインストラクションを送信する(S60)。インストラクションは、一括ファイルとして送信しても良く、またストリーミングのように撮影の進行に応じてリアルタイムで逐次送信してもよい。ユーザ端末20側では、キャリブレーション撮影のインストラクションに従って、カメラ2により校正体4の校正体画像を撮影する(S62)。そして、校正体画像を撮影が終了したら、ユーザ端末20から画像キャリブレーション処理装置10に撮影終了信号を送信する(S64)。すると、画像キャリブレーション処理装置10では、校正体画像の受信準備をしてから、画像送信要求信号がユーザ端末20に送信される(S66)。
【0057】
図7は項目記入シートの一例を示す説明図で、オンライン送付されるシート画面を示してある。項目記入シート画面には、初期値カメラパラメータ設定画面、補正モデル設定画面、その他のカメラパラメータ確認画面が設けられている。初期値カメラパラメータ設定画面には、焦点距離の初期値、撮像素子の大きさと画像分解能の入力欄が設けられている。
【0058】
続いて、キャリブレーション撮影のインストラクションとして、カメラ2により平面チャートを撮影する手順について説明する。図8はカメラの各種焦点距離でのレンズ収差を計測する場合のカメラ配置を説明する斜視図である。平面チャートを異なる撮影角度から撮影した画像が、2枚以上の画像があれば、キャリブレーションが可能となる。好ましくは、平面チャートとしてシートに印刷された平面チャートを用いる場合には、3以上の撮影角度方向から撮影することによって、広角レンズのように焦点距離が短い場合でも、各キャリブレーション要素、特に焦点距離、の測定値が安定し、かつ信頼性の高いものになる。
【0059】
図8の場合には、5方向、即ち正面(I)、左上(II)、右上(III)、左下(IV)、右下(V)から撮影する手順を示している。カメラ2の光軸と平面チャートとの撮影入射角は、実際の撮影現場での奥行き精度を1cm程度に設定すると、10度〜30度の範囲が好ましく、他方レンズの焦点深度との関係でピントの合う距離も限られていることも考慮すると、12度〜20度の範囲がさらに好ましい。典型的には、カメラ2の光軸と平面チャートとの撮影入射角として15度を採用するとよい。また各種焦点距離とは、典型的には一眼レフカメラでいう標準レンズ、広角レンズ、望遠レンズに相当する各種の焦点距離をいう。
【0060】
以下、図9を参照してカメラによる平面チャートの撮影手順を説明する。図9は、(A1)、(A2)、(A3)、(A4)にてカメラの画像を示し、カメラ画像に対応する平面チャートとカメラ2の位置関係を(B1)、(B2)、(B3)、(B4)にて示している。なお、番号(I)〜(V)は図8のカメラ位置に対応している。
【0061】
(I):正面から、平面チャートの第1マークと第2マーク全てが一杯に入るよう撮影する(図9(A1)、(B1))。第1マークと第2マークをなるべく一杯に、撮影画像のすみまでいれることにより、レンズ周辺部までのディストーション補正が確実になる。そこで、カメラの焦点距離に応じて、撮影距離Hが変化する。
(II):次に、一般的にズーム式カメラの焦点距離が望遠レンズ及び標準レンズに相当している場合に、正面のカメラ位置を中心として、撮影距離Hの1/3程度離れた位置にカメラを移動させて、例えば左上象限の第1マーク1aが撮影中心となるようにカメラ位置を変える(図9(A2)、(B2))。但し、ズーム式カメラの焦点距離が広角レンズに相当している際に、撮影距離Hが約1m以内の場合は、カメラ位置は目的とする第1マークが正面に来るようにカメラ2を移動させればよい。そして、カメラ2のカメラ位置をそのままにして、中央にある第1マーク1eが中心となるようにカメラ2の方向を向ける(図9(A3)、(B3))。次に、カメラ2を平面チャートに近づけるように移動して、カメラ2の撮影画像に対して第1マークと第2マークが一杯に入るようにして撮影する(図9(A4)、(B4))。
【0062】
(III):右上象限の第1マーク1bが撮影中心となるようにカメラ位置を変える。そして、カメラをそのまま中央にある第1マーク1eが中心となるようにカメラの方向を向け、第1マークと第2マークが一杯に入るようにして撮影する。
(IV):左下象限の第1マーク1cが撮影中心となるようにカメラ位置を変える。そして、カメラをそのまま中央にある第1マーク1eが中心となるようにカメラの方向を向け、第1マークと第2マークが一杯に入るようにして撮影する。
(V):右下象限の第1マーク1dが撮影中心となるようにカメラ位置を変える。そして、カメラをそのまま中央にある第1マーク1eが中心となるようにカメラの方向を向け、第1マークと第2マークが一杯に入るようにして撮影する。
このような手順によって、カメラ2の角度が必要な撮影角度の差として確保できるので、焦点距離が確実に測定できるようになる。
【0063】
またカメラ2と平面チャートの間隔Hは、ズーム式カメラの焦点距離fから定められる。例えば、ズーム式カメラの焦点距離が35mmの標準レンズに相当している場合では、撮影距離Hは90cm程度になる。平面チャートに設けられた第1マークの相互間隔dは、例えば20cmであるから、正面(I)から左上(II)等に撮影方向を傾けるとき、撮影角度として約10度が確保される。
なお、撮影方向の傾斜角度の上限は焦点深度などによって定まる。即ち、撮影方向の傾斜角度が大きいとカメラ2と第1マーク間の距離が各第1マークによって相違し、画像に写る第1マークの像がボケてしまう。そこで、撮影方向の傾斜角度の上限は、例えば30度となる。実際の撮影手順は上記(I)〜(V)に示した通りで、カメラの画面一杯に第1マークと第2マークが入るように撮影すれば、自ずと上記条件になるので、撮影距離と位置の条件が満足される。
【0064】
図10は標準レンズや望遠レンズに相当する焦点距離でのレンズ収差を計測する場合の、カメラ間隔を示した図である。焦点距離が標準レンズや望遠レンズに相当する場合には、撮影レンズの画角が狭くなり、角度がつかなくなるため、正面(I)から左上(II)等に撮影方向を傾けるとき、撮影角度としての10度が確保されなくなる。即ち、焦点距離が長い場合にはカメラ2と平面チャートの撮影距離Hが1m以上であって、第1マークの相互間隔dが20cm程度に過ぎないためである。そこで、正面のカメラ位置を中心として、左側のカメラ位置(II)、(IV)と、右側のカメラ位置(III)、(V)を定める。この際に、左右のカメラ位置の間隔を正面(I)の位置からそれぞれ撮影距離Hの1/3程度とった位置にカメラを設置して、上述の左上(II)、左下(IV)及び右上(III)、右下(V)での撮影を行えばよい。カメラの光軸は、平面チャートの法線方向と一致させればよいが、平面チャート方向を向けても良い。
【0065】
なお、上記のキャリブレーション撮影のインストラクションにおいては、撮影位置として正面(I)、左上(II)、右上(III)、左下(IV)、右下(V)の5方向の場合を示したが、撮影位置は最低の場合には左右2方向あればよく、また3方向以上でもよい。左右2方向の場合も、撮影角度として約10度が確保されるようにして平面チャートの撮影を行う。
【0066】
続いて、キャリブレーション撮影のインストラクションについてフローチャートを用いて説明する。図11はインストラクションに従い校正体画像を撮影する手順の一例を説明するフローチャートである。ここでは、画像キャリブレーション処理装置10とユーザ端末20とでインタラクティブにインストラクションを授受して校正体画像を撮影する場合を示しているが、撮影手順をすべて一括して一度に顧客側に送り、それを顧客がコンピュータ上で適宜参照しながら撮影を行っても良い。ここでは、図8に示すように平面チャートを正面(I)、左上(II)、右上(III)、左下(IV)、右下(V)の5方向から撮影する場合について説明する。
【0067】
まず正面(I)方向について、撮影方法1を画像キャリブレーション処理装置10からユーザ端末20へ送信する(S70)。撮影方法1は、例えば図9(A1)、(B1)に図示する状態となるように、撮影する。好ましくは、ユーザ端末20にて撮影手順を簡単なコメント、例えば「中央にある第1マーク1eが中心となるようにカメラ2をセットして、平面チャート全体がいっぱいに入るようにして写します。」を表示させる。この時、図9(A1)、(B1)の図面も、コメントと同時にユーザ端末20に表示してもよく、また順次顧客の要求によって表示してもよい。また、表示部25に撮影ターゲットとしての第1マーク1eを表示させる場合は、撮影ターゲット画像に切り替え表示して撮影する。この場合、画面いっぱいになるように撮影するので、カメラ2の画角によって自ずから撮影距離Hが定まる。
【0068】
次に、カメラ2を用いて平面チャートの第1マーク1eを撮影する(S72)。このときインストラクションに表示されているのと同様な画像が、ファインダ(モニタ)上に写っているか確認しながら、作業者は校正体4の撮影を行う。そして、第1マーク1eの撮影が終了したことを、画像キャリブレーション処理装置10に通知する(S74)。なお、予め一括手順でインストラクションをダウンロードしていれば、第1マーク1e撮影完了における逐次連絡は必要でない。好ましくは、カメラがコンピュータに接続されている場合や、撮影画像を送信する作業が面倒でなければ、S74で撮影画像を送信してもよい。また、即時に撮影した校正体画像を送信できれば、校正体画像を判定して、撮影品質が低い場合に再撮影する作業が容易になる。
【0069】
平面チャートの第1マーク1a、1b、1c、1dの各象限4点については、以下のように撮影手順を順次表示、確認しながら行う。まず、第1マーク1aに関しては、撮影方法2の手順1を送信する(S76)。例えば図9(A2)、(B2)とコメント「次に、第1マーク1aを撮影します。まず、カメラの中心が第1マーク1aの位置になるように撮影距離をそのまま保って移動します。移動はおおよそ撮影距離の1/3程度にしてください。」を送信する。これに対応して、利用者が校正体4とカメラ2の撮影配置を図9(B2)のようにして、ファインダの画像がコメントと同様であるか確認する(S78)。そして、ユーザ端末20から手順1の終了信号を画像キャリブレーション処理装置10に通知する(S80)。
【0070】
次に、画像キャリブレーション処理装置10から手順2を送信する(S82)。図9(A3)、(B3)の場合、コメント「次に、その撮影位置から中央にある第1マーク1eが中心になるようにカメラを向けます。」を送信する。これに対応して、利用者が校正体4とカメラ2の撮影配置を図9(B3)のようにして、ファインダの画像がコメントと同様であるか確認する(S84)。そして、ユーザ端末20から手順1の終了信号を画像キャリブレーション処理装置10に通知する(S86)。
【0071】
次に、画像キャリブレーション処理装置10から手順3を送信する(S88)。図9(A4)、(B4)の場合、コメント「最後に、第1マーク1eを中心にしながら、ターゲットが画面全体に入るように前進します。そしてシャッターを押します。」を送信する。これに対応して、利用者が校正体4とカメラ2の撮影配置を図9(B4)のようにして、ファインダの画像がコメントと同様であるか確認する(S90)。そして、ユーザ端末20から第1マーク1eの撮影終了信号を画像キャリブレーション処理装置10に送信する(S92)。S92で画像を送信する場合は、その画像を判定して撮影方法を送りなおすことも可能となる。その場合、図2のS18、S20、S22、S24と同様の手順となる。
【0072】
そして、平面チャートの残り3点の第1マーク1b、1c、1dについて、第1マーク1aに関する撮影方法2の手順1〜3と同様に、それぞれ撮影方法3〜5、手順1〜3を図11のS76〜S92と同様の手順にて行う。
【0073】
図12は本発明の第2の実施の形態を説明する全体構成ブロック図である。なお、図12において前記図1と同一作用をするものには同一符号を付して、説明を省略する。画像キャリブレーション処理装置10は、キャリブレーション処理部14とキャリブレーションデータベース19に加えて、キャリブレーション処理結果抽出部14aを備えている。キャリブレーション処理結果抽出部14aは、受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース19から抽出するもので、キャリブレーションデータベース19に蓄積されているカメラの機種データに対するキャリブレーション処理の結果を利用している。修正被写体画像の精度として標準的な値が要求されている場合には、キャリブレーションデータベース19に蓄積されているキャリブレーション処理の結果を利用することで、キャリブレーション処理部14での個別カメラ2に対するキャリブレーション処理に代えることができる。
【0074】
次に、このように構成された装置の動作について説明する。図13は本方法発明の第2の実施の形態を説明するフローチャートである。ユーザ端末20は、カメラ2のキャリブレーション要求(サービスリクエスト)を、通信回線8経由で画像キャリブレーション処理装置10に送信する(S10)。すると、画像キャリブレーション処理装置10では、認証の結果、ユーザ端末20の利用者に正当な利用権原があると認められると、画像キャリブレーション処理装置10は、カメラ2の機種データを要求する(S11a)。ユーザ端末20側では、キー入力部22で入力するとか、ユーザ端末20に設けられるカメラ2の判別機能を用いてカメラ2の機種データを取得して、画像キャリブレーション処理装置10へ、通信回線8経由で送信する(S11b)。すると、キャリブレーション処理結果抽出部14aにて、キャリブレーションデータベース19に蓄積されているキャリブレーション処理の結果を検索して、該当するカメラの機種データを抽出する(S11c)。
【0075】
キャリブレーション処理結果抽出部14aで該当するカメラの機種データを抽出できた場合には、S28に進む。この際に、キャリブレーションデータベース19で抽出されたカメラの機種データに対するキャリブレーション処理の結果のバラツキも考慮するとよい。例えば、修正被写体画像に高精度が要求される場合には、要求される精度を充足するキャリブレーション処理の結果が得られた場合に、S28に進む構成としても良い。なお、S28〜S34については、図2にて説明済みなので、詳細を省略する。
【0076】
他方、S11dにてキャリブレーション処理結果抽出部14aで該当するカメラの機種データを抽出できない場合は、S12に進んで校正体画像をカメラ2で撮影して、個別カメラ2に適合するキャリブレーション処理の結果を取得する。なお、S12〜S26については、図2にて説明済みなので、詳細を省略する。
【0077】
本発明の第2の実施の形態によれば、キャリブレーションデータベース19にキャリブレーション処理の結果を蓄積させ、利用者からの要求に応じてカメラの機種データに対応するキャリブレーション処理の結果を抽出して、ユーザ端末に送信している。すると、利用者は校正体画像を撮影する必要もなく、目的とするキャリブレーション処理の結果を取得できるので、利用者にとって大変簡便な方法となる。また、画像キャリブレーション処理装置10では、キャリブレーションデータ-ベース19にキャリブレーション処理の結果を蓄積させているので、キャリブレーション処理の結果を蓄積すれば累積効果によって、対応できるカメラの機種データも増大して、効率のよいものになる。
【0078】
図14は本発明の第3の実施の形態を説明する全体構成ブロック図である。第3の実施の形態を第1の実施の形態と比較して説明すると、修正被写体画像形成部はユーザ端末40側に設けられている点が相違する。即ち、画像キャリブレーション処理装置30では、キャリブレーション処理部34で演算されたキャリブレーション処理の結果が、ユーザ端末向け返信部36によりユーザ端末40に送信される。ユーザ端末40には修正被写体画像形成部46が設けられており、被写体画像を修正被写体画像にする処理を行う。ここでは、図14で示す第3の実施の形態の構成要素に関しては、図1で示す第1の実施の形態の同一名称の構成要素に関する説明を、性質に反しない範囲で援用して、詳細な説明を省略する。
【0079】
図において、画像キャリブレーション処理装置30は、ユーザ端末向け受信部31、利用者認証部32、インストラクション抽出部33、キャリブレーション処理部34、情報読出し部34b、ユーザ端末向け返信部36、表示部36a、利用者データベース37、インストラクションデータベース38、キャリブレーションデータベース39を備えている。画像キャリブレーション処理端末40は、処理装置向け送信部41、キー入力部42、処理装置向け受信部44、表示部45、修正被写体画像形成部46を備えている。
【0080】
次に、このように構成された装置の動作について説明する。図15は本方法発明の第3の実施の形態を説明するフローチャートである。ユーザ端末40は、カメラ2のキャリブレーション要求(サービスリクエスト)を、通信回線8経由で画像キャリブレーション処理装置30に送信する(S100)。すると、画像キャリブレーション処理装置30では、キャリブレーション要求に対してユーザ端末40の利用者に正当な利用権原があるか認証を行う。認証の結果、ユーザ端末40の利用者に正当な利用権原があると認められると、画像キャリブレーション処理装置30は、カメラ2の機種に応じたキャリブレーション撮影のインストラクションをユーザ端末40に返信する(S102)。
【0081】
ユーザ端末40側では、キャリブレーション撮影のインストラクションに従い、カメラ2にて校正体4を撮影する(S104)。撮影された校正体画像は、撮影データと共にユーザ端末40から画像キャリブレーション処理装置30へ、通信回線8経由で送信される(S106)。画像キャリブレーション処理装置30では、送信された校正体画像の撮影品質を判断し、例えばピントが適切でない画像や校正体4の画像が小さくてキャリブレーション処理に適していない画像か判断する(S108)。不適切な校正体画像であれば、再度のカメラ2による校正体4撮影を要求する(S110)。利用者は、再撮影要求に対して、コメントに留意してカメラ2にて校正体4を撮影する(S112)。撮影された校正体画像は、撮影データと共にユーザ端末40から画像キャリブレーション処理装置30へ、通信回線8経由で送信され(S114)、S108にて校正体画像の撮影品質が判断される。
【0082】
校正体画像の撮影品質が適正であれば、キャリブレーション処理部14では受信した校正体画像を用いてキャリブレーション処理を行なう(S116)。このキャリブレーション処理の結果は、カメラの機種と共にキャリブレーションデータベース19に蓄積される。カメラの機種は、例えば校正体画像に付随する撮影状態情報を情報読出し部14bにて読み出して、取得する。そして、画像キャリブレーション処理装置30では、S116で求めたキャリブレーション処理の結果をユーザ端末40に返信する(S118)。
【0083】
次に、ユーザ端末40側では、校正体画像を撮影したカメラ2で被写体6を撮影する(S120)。ユーザ端末40では、被写体画像を受信したキャリブレーション処理の結果に従い、被写体画像にキャリブレーションを施して修正被写体画像を形成する(S122)。そして、形成された修正被写体画像を、例えば表示部45に表示したり、紙媒体に印刷したり、電子磁気記憶媒体に記憶させる。
【0084】
図16は本発明の第4の実施の形態を説明する全体構成ブロック図である。なお、図16において前記図1、図12、図14と同一作用をするものには同一符号を付して、説明を省略する。画像キャリブレーション処理装置30は、キャリブレーション処理部34とキャリブレーションデータベース39に加えて、キャリブレーション処理結果抽出部34aを備えていると共に、修正被写体画像形成部46は、画像キャリブレーション処理装置30に設けるのではなく、ユーザ端末40側に設けられる。キャリブレーション処理結果抽出部34aは、受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベース39から抽出するもので、キャリブレーションデータベース39に蓄積されているカメラの機種データに対するキャリブレーション処理の結果を利用している。
【0085】
次に、このように構成された装置の動作について説明する。図17は本方法発明の第4の実施の形態を説明するフローチャートである。ユーザ端末40は、カメラ2のキャリブレーション要求(サービスリクエスト)を、通信回線8経由で画像キャリブレーション処理装置30に送信する(S100)。すると、画像キャリブレーション処理装置30では、認証の結果、ユーザ端末40の利用者に正当な利用権原があると認められると、画像キャリブレーション処理装置30は、カメラ2の機種データを要求する(S101a)。ユーザ端末40側では、キー入力部22で入力するとか、ユーザ端末40に設けられるカメラ2の判別機能を用いてカメラ2の機種データを取得して、画像キャリブレーション処理装置30へ、通信回線8経由で送信する(S101b)。すると、キャリブレーション処理結果抽出部34aにて、キャリブレーションデータベース39に蓄積されているキャリブレーション処理の結果を検索して、該当するカメラの機種データを抽出する(S101c)。
【0086】
キャリブレーション処理結果抽出部34aで該当するカメラの機種データを抽出できた場合には、S118に進む。なお、S118〜S122については、図15にて説明済みなので、詳細を省略する。
【0087】
他方、S101dにてキャリブレーション処理結果抽出部34aで該当するカメラの機種データを抽出できない場合は、S112に進んで校正体画像をカメラ2で撮影して、個別カメラ2に適合するキャリブレーション処理の結果を取得する。なお、S112〜S116については、図15にて説明済みなので、詳細を省略する。
【0088】
図18は本発明の第5の実施の形態を説明する全体構成ブロック図である。なお、図18において前記図1と同一作用をするものには同一符号を付して、説明を省略する。ここでは、カメラ2は校正体4と被写体6を一枚の画像で撮影するものとし、少なくとも左撮影方向と右撮影方向の2方向で撮影されたステレオ画像として、ユーザ端末20にて取扱われる。画像キャリブレーション処理装置10には、修正被写体画像形成部15とユーザ端末向け返信部16の間に三次元計測部15aが設けられている。
【0089】
三次元計測部15aは、ステレオ画像生成部151、画像計測部152を備えている。ステレオ画像生成部151は、カメラ2で撮影されたステレオ画像について標定(相互標定と絶対標定)を行って偏位修正を行って、偏位修正画像を生成する機能を有するもので、典型的にはコンピュータによって実行可能なソフトウェアにて構成されている。ここで偏位修正画像とは、右撮影方向と左撮影方向の一組のステレオ撮影された画像を偏位修正して、立体視できるように調整したものをいう。画像計測部152は、ステレオ画像生成部151により作成されたステレオ画像から、いわゆる絶対標定を行って、各画素(ピクセル)の地上座標を計算する。この処理の詳細は、例えば特開平11−351865号公報に開示されている。画像計測部152を用いることで、計測対象物30表面の凹凸形状のような三次元形状を正確に測定できる。
【0090】
次に、このように構成された装置の動作について説明する。図19は本方法発明の第5の実施の形態を説明するフローチャートである。ユーザ端末20は、カメラ2のキャリブレーション要求(サービスリクエスト)を、通信回線8経由で画像キャリブレーション処理装置10に送信する(S200)。キャリブレーション要求には、ステレオ画像を用いた被写体6の3次元画像計測も含まれている。すると、画像キャリブレーション処理装置10では、ユーザ端末20の利用者に正当な利用権原があるか認証を行なう。認証の結果、ユーザ端末20の利用者に正当な利用権原があると認められると、画像キャリブレーション処理装置10は、カメラ2の機種に応じたキャリブレーション撮影のインストラクションをユーザ端末20に返信する(S202)。キャリブレーション撮影のインストラクションには、ステレオ画像を用いた被写体6の3次元画像計測用の留意事項も含まれている。
【0091】
ユーザ端末20側では、キャリブレーション撮影のインストラクションに従い、カメラ2にて校正体4と被写体6を一枚の画像に同時に含まれるようにステレオ撮影する(S204)。ステレオ撮影なので、カメラ2を用いて、右撮影方向と左撮影方向の一組のステレオ撮影された画像が得られる。ステレオ撮影された校正体・被写体画像は、撮影データと共にユーザ端末20から画像キャリブレーション処理装置10へ、通信回線8経由で送信される(S206)。
【0092】
画像キャリブレーション処理装置10では、送信された校正体・被写体画像の撮影品質を判断し、例えばピントが適切でない画像や校正体4の画像が小さくてキャリブレーション処理に適していない画像か判断する(S208)。不適切な校正体・被写体画像であれば、再度のカメラ2による校正体4と被写体6の撮影を要求する(S210)。このとき、キャリブレーション処理に適する校正体・被写体画像とするには、何れの点に留意して撮影するかのコメントを含ませると良い。利用者は、再撮影要求に対して、コメントに留意してカメラ2にて校正体4と被写体6を撮影する(S212)。撮影された校正体・被写体画像は、撮影データと共にユーザ端末20から画像キャリブレーション処理装置10へ、通信回線8経由で送信され(S214)、S208にて校正体・被写体画像の撮影品質が判断される。
【0093】
校正体・被写体画像の撮影品質が適正であれば、キャリブレーション処理部14では受信した校正体・被写体画像のうち、校正体4の画像を用いてキャリブレーション処理を行なう(S216)。このキャリブレーション処理の結果は、カメラの機種と共にキャリブレーションデータベース19に蓄積される。次に、ユーザ端末20側では、校正体・被写体画像から修正被写体画像を生成して(S218)、通信回線8経由でユーザ端末20に送信する(S220)。さらに、画像キャリブレーション処理装置10では、修正被写体画像を三次元計測部15aで処理して三次元計測を行なう(S222)。そして、得られた三次元計測結果を画像キャリブレーション処理装置10からユーザ端末20に返信する(S224)。この時、さらに修正被写体画像をオルソ画像に変換して、画像キャリブレーション処理装置10からユーザ端末20に返信してもよい。上述において、三次元計測を2つの画像を用いるステレオ法により行う場合を説明したが、校正体4と被写体6が写されている一枚の画像を用いて単写真標定法、また複数の画像から求めるセルフキャリブレーション付きバンドル調整法等の各種方法が採用できる。
【0094】
図20は本発明の第6の実施の形態を説明する全体構成ブロック図である。なお、図20において前記図18と同一作用をするものには同一符号を付して、説明を省略する。ここでは、三次元計測部が画像キャリブレーション処理装置30ではなく、ユーザ端末20側に設けられている。三次元計測部47は、ステレオ画像生成部471、画像計測部472を備えている。ステレオ画像生成部471、画像計測部472に関しては、前述のステレオ画像生成部151、画像計測部152の説明を援用する。
【0095】
次に、このように構成された装置の動作について説明する。図21は本方法発明の第6の実施の形態を説明するフローチャートである。図21のS200〜S216までは、図19のS200〜S216と同様なので説明を省略する。S216のキャリブレーション処理の結果は、カメラの機種と共にキャリブレーションデータベース19に蓄積されると共に、ユーザ端末40に送信される(S230)。ユーザ端末40は、送信されたキャリブレーション処理の結果を用いて、校正体・被写体画像から修正被写体画像を生成する(S232)。さらに、ユーザ端末40は、修正被写体画像を三次元計測部47で処理して三次元計測を行なう(S234)。この時、さらに修正被写体画像をオルソ画像に変換してもよい。修正被写体画像は、例えばユーザ端末40の表示部45に表示させたり、或いはステレオ表示用テレビに表示する。
【0096】
続いて、第1乃至第6の実施の形態で使用されるセルフキャリブレーションバンドル調整法について説明する。キャリブレーション処理部14、34で用いられるキャリブレーション処理としては、例えば写真測量分野で使用されている「セルフキャリブレーション付きバンドル調整法」を用いる。ここで、「バンドル調整」とは、被写体、レンズ、CCD面を結ぶ光束(バンドル)は同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式をたて、最小2乗法によりカメラの位置と傾き(外部標定要素)と第2マークの座標位置を同時調整する方法である。「セルフキャリブレーション付き」とはさらに、キャリブレーション要素、即ちカメラの内部定位(レンズ収差、主点、焦点距離)を求めることができる方法である。セルフキャリブレーション付きバンドル調整法(以下単に「バンドル調整法」という)の共線条件基本式は、次の(式2)と(式3)である。
【0097】
【数1】
Figure 0004191449
【数2】
Figure 0004191449
ここで、要素a11〜a33は、カメラの傾き(ω、φ、κ)に回転行列の要素である。ω、φ、κは、対象座標系を構成する3軸X,Y,Zに対するカメラ撮影時の傾きを表すもので、外部標定要素と呼ばれる。(X,Y,Z)は対象座標系における基準マークのような対象物の座標、(X0,Y0,Z0)は投影中心点Ocの座標とする。(特願2002−195058明細書[0052]、[0056]、[0068]参照)バンドル調整法は、(式2)と(式3)を用いて、複数画像から最小二乗近似して、各種解を算出する手法であり、各撮影位置のカメラの外部標定要素を同時に求めることが可能となる。即ち、カメラのキャリブレーション要素を求めることが可能となる。
【0098】
次に、内部定位の補正モデル(レンズ収差)として、放射方向レンズ歪を有する場合の一例を次の(式4)に示す。
【数3】
Figure 0004191449
補正モデルはこれに限らず、使用レンズにあてはまるものを選択すればよい。これら計算は、基準点を地上座標と画像座標で6点以上あれば、逐次近似解法によって算出される。
【0099】
次に、図3に示した校正体4としての平面チャートを用いてレンズ収差を演算することは、既に本出願人が提案している特願2002−195058明細書等に開示されている。平面チャートを用いてレンズ収差を演算する具体的内容は、本発明の主題との関係が薄いので、当該明細書を引用して、本明細書では繰返しを避けることにする。校正体4としては、図3に示す平面チャートの他に、他の形式の平面チャートや立体チャートを用いることもでき、各チャートに対応してレンズ収差を演算式が得られているから、これを用いてキャリブレーション処理を行えばよい。
【0100】
【発明の効果】
以上説明したように、本発明の画像キャリブレーション方法によれば、キャリブレーション撮影のインストラクションに従い撮影された校正体画像を画像キャリブレーション処理装置にて受信するステップと、受信した校正体画像を用いてキャリブレーション処理を行なうステップとによって、カメラに対するキャリブレーション処理がユーザ端末から離れた位置にある画像キャリブレーション処理装置によって演算される。また、校正体画像を撮影したカメラで撮影された被写体画像に対して、キャリブレーション処理の結果に従い、被写体画像にキャリブレーションを施して修正被写体画像を形成しているので、カメラのレンズ収差の影響を補償した修正被写体画像が容易に得られる。
【0101】
また、本発明の画像キャリブレーション方法によれば、カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベースを有する画像キャリブレーション処理装置に対して、ユーザ端末から被写体画像の撮影を行なうカメラの機種情報を送信するステップと、受信したカメラの機種に対応するキャリブレーション処理の結果をキャリブレーションデータベースから抽出するステップを有しているので、抽出されたキャリブレーション処理の結果がカメラの被写体画像に適用できるのであれば、カメラの利用者はキャリブレーション撮影のインストラクションに従って校正体画像を撮影しなくてもすみ、修正被写体画像が容易に得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を説明する全体構成ブロック図である。
【図2】 本方法発明の第1の実施の形態を説明するフローチャートである。
【図3】 平面チャートの一例を示す平面図である。
【図4】 キャリブレーション処理の結果の一例を示す説明図である。
【図5】 ズーム式レンズに対するキャリブレーション処理の結果の一例を示す説明図である。
【図6】 校正体画像を撮影するインストラクションの詳細を示すフローチャートである。
【図7】 項目記入シートの一例を示す説明図である。
【図8】 カメラの各種焦点距離でのレンズ収差を計測する場合のカメラ配置を説明する斜視図である。
【図9】 カメラによる平面チャートの撮影手順を説明する図で、(A1)、(A2)、(A3)、(A4)にてカメラの画像を示し、カメラ画像に対応する平面チャートとカメラ2の位置関係を(B1)、(B2)、(B3)、(B4)にて示している。
【図10】 標準レンズや望遠レンズに相当する焦点距離でのレンズ収差を計測する場合の、カメラ間隔を示した図である。
【図11】 インストラクションに従い校正体画像を撮影する手順の一例を説明するフローチャートである。
【図12】 本発明の第2の実施の形態を説明する全体構成ブロック図である。
【図13】 本方法発明の第2の実施の形態を説明するフローチャートである。
【図14】 本発明の第3の実施の形態を説明する全体構成ブロック図である。
【図15】 本方法発明の第3の実施の形態を説明するフローチャートである。
【図16】 本発明の第4の実施の形態を説明する全体構成ブロック図である。
【図17】 本方法発明の第4の実施の形態を説明するフローチャートである。
【図18】 本発明の第5の実施の形態を説明する全体構成ブロック図である。
【図19】 本方法発明の第5の実施の形態を説明するフローチャートである。
【図20】 本発明の第6の実施の形態を説明する全体構成ブロック図である。
【図21】 本方法発明の第6の実施の形態を説明するフローチャートである。
【符号の説明】
2 カメラ
4 校正体
6 被写体
8 通信回線
10、30 画像キャリブレーション処理装置
11、31 ユーザ端末向け受信部
13、33 インストラクション抽出部
14、34 キャリブレーション処理部
14a、34a キャリブレーション処理結果抽出部
14b、34b 情報読出し部
15 修正被写体画像形成部
15a、47 三次元計測部
16、36 ユーザ端末向け返信部
16a、36a 表示部
19、39 キャリブレーションDB(データベース)
20、40 ユーザ端末(画像キャリブレーション処理端末)
21、41 処理装置向け送信部
24、44 処理装置向け受信部
46 修正被写体画像形成部

Claims (24)

  1. ユーザ端末からのキャリブレーション要求を画像キャリブレーション処理装置にて受信するステップと;
    前記受信したキャリブレーション要求に適合するものであって、校正体の撮影方法を説明するインストラクションを前記キャリブレーション処理装置内に置かれたインストラクションデータベースから抽出し、ユーザ端末に返信するステップと;
    キャリブレーション撮影の前記インストラクションに従い撮影された校正体画像を前記画像キャリブレーション処理装置にて受信するステップと;
    前記受信した前記校正体画像を用いてキャリブレーション処理を行なうステップと;
    前記ユーザ端末から送信された被写体画像であって、前記校正体画像を撮影したカメラで撮影された前記被写体画像を前記画像キャリブレーション処理装置にて受信するステップと;
    前記キャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して修正被写体画像を形成するステップと;
    前記形成された修正被写体画像を前記画像キャリブレーション処理装置から前記ユーザ端末に返信するステップと;
    を含む画像キャリブレーション方法。
  2. 前記校正体画像と前記被写体画像は、校正体と被写体が同時に撮影された共通の画像であり;
    さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行うステップを有する;
    請求項1に記載の画像キャリブレーション方法。
  3. ユーザ端末からのキャリブレーション要求を画像キャリブレーション処理装置にて受信するステップと;
    前記受信したキャリブレーション要求に適合するものであって、校正体の撮影方法を説明するインストラクションを前記キャリブレーション処理装置内に置かれたインストラクションデータベースから抽出し、ユーザ端末に返信するステップと;
    キャリブレーション撮影の前記インストラクションに従い撮影された校正体画像を前記画像キャリブレーション処理装置にて受信するステップと;
    前記受信した前記校正体画像を用いてキャリブレーション処理を行なうステップと;
    前記キャリブレーション処理の結果を前記画像キャリブレーション処理装置から送信するステップと;
    を含み、前記ユーザ端末側では、前記画像キャリブレーション処理装置から送信されたキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成する画像キャリブレーション方法。
  4. 前記校正体画像と前記被写体画像は、校正体と被写体が同時に撮影された共通の画像であり;
    前記ユーザ端末側にて、さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行うように構成された;
    請求項3に記載の画像キャリブレーション方法。
  5. 前記画像キャリブレーション処理装置が、前記ユーザ端末から送信される校正体画像と共に、更に少なくとも撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさを受信するステップを有する;
    請求項1乃至請求項の何れか1項に記載の画像キャリブレーション方法。
  6. 前記画像キャリブレーション処理装置は、前記ユーザ端末から送信される校正体画像に添付された撮影情報から、前記キャリブレーション処理に必要なデータを読み出すステップを有し;
    該読み出されたデータは前記キャリブレーション処理に用いられる;
    請求項1乃至請求項の何れか1項に記載の画像キャリブレーション方法。
  7. 前記キャリブレーション処理では、前記校正体画像の撮影に掛かるカメラの主点位置、デストーションデータ、又は撮影レンズの焦点距離の少なくとも一つをキャリブレーション処理の結果に含む;
    請求項1乃至請求項の何れか1項に記載の画像キャリブレーション方法。
  8. 前記画像キャリブレーション処理装置は、前記受信した校正体画像を用いてキャリブレーション処理を行なう際に、算出されたキャリブレーション処理の結果をキャリブレーションデータベースに蓄積するステップを含む;
    請求項1乃至請求項の何れか1項に記載の画像キャリブレーション方法。
  9. カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベースを有する画像キャリブレーション処理装置に用いられる画像キャリブレーション方法であって;
    ユーザ端末からのキャリブレーション要求と被写体画像を、当該被写体画像の撮影を行なうカメラの機種と共に画像キャリブレーション処理装置にて受信するステップと;
    前記受信したカメラの機種に対応するキャリブレーション処理の結果を前記キャリブレーションデータベースから抽出するステップと;
    前記カメラの機種に対応する前記キャリブレーション処理の結果が抽出された場合には、前記抽出されたキャリブレーション処理の結果を用いて、前記被写体画像にキャリブレーションを施して修正被写体画像を形成し、
    前記カメラの機種に対応する前記キャリブレーション処理の結果が抽出されない場合には、校正体の撮影方法を説明するインストラクションをユーザ端末に送信し、前記送信された前記インストラクションに従い撮影された校正体画像を受信し、前記受信した校正体画像を用いてキャリブレーション処理を行い、得られたキャリブレーション処理の結果に従い前記被写体画像にキャリブレーションを施して修正被写体画像を形成するステップと;
    前記形成された修正被写体画像を前記画像キャリブレーション処理装置から前記ユーザ端末に返信するステップと;
    を含む画像キャリブレーション方法。
  10. カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベースを有する画像キャリブレーション処理装置に用いられる画像キャリブレーション方法であって;
    ユーザ端末からのキャリブレーション要求を、被写体画像の撮影を行なうカメラの機種と共に画像キャリブレーション処理装置にて受信するステップと;
    前記受信したカメラの機種に対応するキャリブレーション処理の結果を前記キャリブレーションデータベースから抽出するステップと;
    前記カメラの機種に対応する前記キャリブレーション処理の結果が抽出された場合には、前記抽出されたキャリブレーション処理の結果を前記画像キャリブレーション処理装置から送信し、
    前記カメラの機種に対応する前記キャリブレーション処理の結果が抽出されない場合には、校正体の撮影方法を説明するインストラクションをユーザ端末に送信し、前記送信された前記インストラクションに従い撮影された校正体画像を受信し、前記受信した校正体 画像を用いてキャリブレーション処理を行い、得られたキャリブレーション処理の結果を前記画像キャリブレーション処理装置から送信するステップと;
    を含み、前記ユーザ端末側では、前記画像キャリブレーション処理装置から送信されたキャリブレーション処理の結果を用いて、前記被写体画像にキャリブレーションを施して修正被写体画像を形成する画像キャリブレーション方法。
  11. 画像キャリブレーション処理装置に対するキャリブレーション要求をユーザ端末から送信するステップと;
    前記送信したキャリブレーション要求に適合したものであって、前記画像キャリブレーション処理装置内に置かれたインストラクションデータベースから抽出され、前記画像キャリブレーション処理装置から送信された、校正体の撮影方法を説明するインストラクションに従い、校正体画像を前記ユーザ端末から前記画像キャリブレーション処理装置に送信するステップと;
    前記校正体画像を撮影したカメラで撮影された被写体画像を前記画像キャリブレーション処理装置に送信するステップと;
    前記画像キャリブレーション処理装置から送信された修正被写体画像であって、前記送信した校正体画像を用いて得られたキャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して形成された前記修正被写体画像をユーザ端末で受信するステップと;
    を含む画像キャリブレーション方法。
  12. 画像キャリブレーション処理装置に対するキャリブレーション要求をユーザ端末から送信するステップと;
    前記送信したキャリブレーション要求に適合したものであって、前記画像キャリブレーション処理装置内に置かれたインストラクションデータベースから抽出され、前記画像キャリブレーション処理装置から送信された、校正体の撮影方法を説明するインストラクションに従い、所定のカメラで撮影された校正体画像を前記ユーザ端末から前記画像キャリブレーション処理装置に送信するステップと;
    前記画像キャリブレーション処理装置で算出されたキャリブレーション処理の結果を前記ユーザ端末で受信するステップと;
    前記受信したキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成するステップと;
    を含む画像キャリブレーション方法。
  13. ユーザ端末から送信された画像キャリブレーションの利用要求前記利用要求に適合するものであって、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像、並びに前記校正体画像を撮影したカメラで撮影された被写体画像を受信するユーザ端末向け受信部と;
    前記ユーザ端末向け受信部で受信した画像キャリブレーションの利用要求に適合する、前記インストラクションを抽出するインストラクション抽出部と;
    前記ユーザ端末向け受信部で受信した前記校正体画像を用いてキャリブレーション処理を行うキャリブレーション処理部と;
    前記キャリブレーション処理の結果に従い、前記被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部と;
    前記修正被写体画像形成部で形成された修正被写体画像、並びに前記インストラクション抽出部で抽出された前記インストラクションを前記ユーザ端末に送信するユーザ端末向け返信部と;
    を備える画像キャリブレーション処理装置。
  14. さらに、前記修正被写体画像形成部で形成された修正被写体画像を表示する表示部を備える;
    請求項13に記載の画像キャリブレーション処理装置。
  15. 前記校正体画像と前記被写体画像は、校正体と被写体が同時に撮影された共通の画像であり;
    さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行う三次元計測部を有する;
    請求項13又は請求項14に記載の画像キャリブレーション処理装置。
  16. ユーザ端末から送信された画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像を受信するユーザ端末向け受信部と;
    前記ユーザ端末向け受信部で受信した画像キャリブレーションの利用要求に適合する、前記インストラクションを抽出するインストラクション抽出部と;
    前記ユーザ端末向け受信部で受信した前記校正体画像を用いてキャリブレーション処理を行うキャリブレーション処理部と;
    前記キャリブレーション処理部で算出されたキャリブレーション処理の結果、並びに前記インストラクション抽出部で抽出された前記インストラクションを前記ユーザ端末に送信するユーザ端末向け返信部と;
    を備え、前記ユーザ端末側では、前記ユーザ端末向け返信部から送信されたキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成する画像キャリブレーション処理装置。
  17. 前記校正体画像と前記被写体画像は、校正体と被写体が同時に撮影された共通の画像であり;
    前記ユーザ端末側にて、さらに、前記修正被写体画像を用いて、前記被写体の三次元計測を行うように構成された;
    請求項16に記載の画像キャリブレーション処理装置。
  18. 前記ユーザ端末向け受信部は、前記ユーザ端末から送信される校正体画像又は被写体画像と共に、更に少なくとも撮影時の焦点距離及びカメラ機種、又は撮影時の焦点距離及び撮影に用いた撮像素子の大きさを受信する;
    請求項13乃至請求項17の何れか1項に記載の画像キャリブレーション処理装置。
  19. キャリブレーション処理部は、前記ユーザ端末から送信される校正体画像に添付された撮影情報から、前記キャリブレーション処理に必要なデータを読み出す撮影情報読出し部を有し、該読み出されたデータは前記キャリブレーション処理に用いられる;
    請求項13乃至請求項17の何れか1項に記載の画像キャリブレーション処理装置。
  20. 前記キャリブレーション処理部では、前記校正体画像の撮影に掛かるカメラの主点位置、デストーションデータ、又は撮影レンズの焦点距離の少なくとも一つをキャリブレーション処理の結果に含めて算出する;
    請求項13乃至請求項19の何れか1項に記載の画像キャリブレーション処理装置。
  21. ユーザ端末からのキャリブレーション要求と被写体画像を、被写体画像の撮影を行なうカメラの機種と共に受信するユーザ端末向け受信部と;
    カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベースと;
    前記受信したカメラの機種に対応するキャリブレーション処理の結果を前記キャリブレーションデータベースから抽出するキャリブレーション処理結果抽出部と;
    前記抽出されたキャリブレーション処理の結果を用いて、ユーザ端末から送信される被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部と;
    前記形成された修正被写体画像を前記ユーザ端末に返信するユーザ端末向け返信部と;
    を備え
    前記キャリブレーション処理結果抽出部にて前記カメラの機種に対応するキャリブレーション処理の結果が抽出されない場合には、
    前記ユーザ端末向け返信部は、校正体の撮影方法を説明するインストラクションをユーザ端末に送信し、
    前記ユーザ端末向け受信部は前記インストラクションに従い撮影された校正体画像を受信し、
    前記修正被写体画像形成部は前記インストラクションに従い撮影された校正体画像より求めたキャリブレーション処理の結果を用いて、ユーザ端末から送信される被写体画像にキャリブレーションを施して修正被写体画像を形成する画像キャリブレーション処理装置。
  22. ユーザ端末からのキャリブレーション要求を、被写体画像の撮影を行なうカメラの機種と共に受信するユーザ端末向け受信部と;
    カメラの機種に対応するキャリブレーション処理の結果が蓄積されたキャリブレーションデータベースと;
    前記受信したカメラの機種に対応するキャリブレーション処理の結果を前記キャリブレーションデータベースから抽出するキャリブレーション処理結果抽出部と;
    前記抽出されたキャリブレーション処理の結果を前記ユーザ端末に送信するユーザ端末向け返信部と;
    を備え、
    前記キャリブレーション処理結果抽出部にて前記カメラの機種に対応するキャリブレーション処理の結果が抽出されない場合には、
    前記ユーザ端末向け受信部は、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像を受信し、
    前記ユーザ端末向け返信部は前記インストラクションの送信および前記校正体画像より求めたキャリブレーション処理の結果の返信を行い、
    前記ユーザ端末側で前記ユーザ端末向け返信部から送信されたキャリブレーション処理の結果を用いて、前記被写体画像にキャリブレーションを施して修正被写体画像を形成するように構成された画像キャリブレーション処理装置。
  23. 画像キャリブレーションの利用要求前記利用要求に適合するものであって、画像キャリブレーション処理装置に置かれたインストラクションデータベースから抽出され、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像、並びに前記校正体画像を撮影したカメラで撮影された被写体画像を前記画像キャリブレーション処理装置に送信する処理装置向け送信部と;
    前記画像キャリブレーション処理装置から送信された修正被写体画像であって、前記被写体画像にキャリブレーションを施して形成された前記修正被写体画像を受信する処理装置向け受信部と;
    処理装置向け受信部で受信した前記インストラクションと、前記修正被写体画像を表示する表示部と;
    を備える画像キャリブレーション処理端末。
  24. 画像キャリブレーションの利用要求と、前記利用要求に適合するものであって、画像キ ャリブレーション処理装置に置かれたインストラクションデータベースから抽出され、校正体の撮影方法を説明するインストラクションに従い撮影された校正体画像を前記画像キャリブレーション処理装置に送信する処理装置向け送信部と;
    前記画像キャリブレーション処理装置から送信されたキャリブレーション処理の結果を受信する処理装置向け受信部と;
    前記処理装置向け受信部で受信したキャリブレーション処理の結果を用いて、前記校正体画像を撮影したカメラで撮影された被写体画像にキャリブレーションを施して修正被写体画像を形成する修正被写体画像形成部と;
    を備える画像キャリブレーション処理端末。
JP2002272858A 2002-09-19 2002-09-19 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末 Expired - Fee Related JP4191449B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002272858A JP4191449B2 (ja) 2002-09-19 2002-09-19 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
PCT/JP2003/011899 WO2004027708A1 (ja) 2002-09-19 2003-09-18 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
EP03797661A EP1550980A4 (en) 2002-09-19 2003-09-18 IMAGE CALIBRATION METHOD, IMAGE CALIBRATION PROCESSING DEVICE AND TERMINAL
AU2003264490A AU2003264490A1 (en) 2002-09-19 2003-09-18 Image calibration method, image calibration processing device, and image calibration processing terminal
US10/527,999 US7715644B2 (en) 2002-09-19 2003-09-18 Image calibration method, image calibration processing device, and image calibration processing terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002272858A JP4191449B2 (ja) 2002-09-19 2002-09-19 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末

Publications (2)

Publication Number Publication Date
JP2004110479A JP2004110479A (ja) 2004-04-08
JP4191449B2 true JP4191449B2 (ja) 2008-12-03

Family

ID=32024940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002272858A Expired - Fee Related JP4191449B2 (ja) 2002-09-19 2002-09-19 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末

Country Status (5)

Country Link
US (1) US7715644B2 (ja)
EP (1) EP1550980A4 (ja)
JP (1) JP4191449B2 (ja)
AU (1) AU2003264490A1 (ja)
WO (1) WO2004027708A1 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
US7339618B2 (en) * 2004-01-05 2008-03-04 Lite-On Technology Corporation Image chromatism compensation method for adjusting image dispersion distances of an image
KR101042638B1 (ko) 2004-07-27 2011-06-20 삼성전자주식회사 파노라마 영상 생성을 위한 디지털 촬상장치 및 그 생성방법
JP2007033087A (ja) * 2005-07-22 2007-02-08 Sony Corp キャリブレーション装置及び方法
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US7656425B2 (en) * 2006-03-31 2010-02-02 Mitutoyo Corporation Robust field of view distortion calibration
TW200801933A (en) * 2006-06-22 2008-01-01 Univ Nat Central Positioning apparatus and method for a remote control camera combined with electronic map
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US8723969B2 (en) 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
FR2914099B1 (fr) * 2007-03-22 2013-04-05 Eads Test & Services Systeme de test universel apte a controler une pluralite de parametres relatifs au fonctionnement de dispositif de presentation d'informations optoelectroniques de types varies
US7671891B2 (en) * 2007-05-22 2010-03-02 Microsoft Corporation Online camera calibration
JPWO2008152740A1 (ja) * 2007-06-13 2010-08-26 株式会社情報科学テクノシステム デジタル空撮3次元計測システム
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
DE102007054088A1 (de) 2007-11-13 2009-05-20 Daimler Ag Verfahren und Vorrichtung zur Bildverarbeitung insbesondere Bildmessung
US9123159B2 (en) * 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
KR100912715B1 (ko) * 2007-12-17 2009-08-19 한국전자통신연구원 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
US9177368B2 (en) * 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
US8497905B2 (en) * 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
CN101769723B (zh) * 2008-12-30 2013-07-03 鸿富锦精密工业(深圳)有限公司 电子装置及其物体形状参数测量方法
US8194136B1 (en) 2009-01-26 2012-06-05 Amazon Technologies, Inc. Systems and methods for lens characterization
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
TWI389558B (zh) * 2009-05-14 2013-03-11 Univ Nat Central Method of determining the orientation and azimuth parameters of the remote control camera
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
US8384785B2 (en) * 2010-03-09 2013-02-26 Neal Solomon System and methods for video imaging modulation
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
DE102013107597A1 (de) * 2013-01-11 2014-08-14 Stephan Hörmann Vermessungsverfahren für gebäudeöffnungen und gebäudeabschlussherstellverfahren sowie vorrichtungen zur durchführung derselben
DE102013016486A1 (de) * 2013-09-13 2015-04-02 Stephan Hörmann Vermessungsverfahren für Gebäudeöffnungen und Gebäudeabschlussherstellverfahren sowie Vorrichtungen zur Durchführung derselben
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US10380764B2 (en) 2013-12-18 2019-08-13 Cognex Corporation System and method for performing vision system planar hand-eye calibration from straight line features
CN104864849B (zh) 2014-02-24 2017-12-26 电信科学技术研究院 视觉导航方法和装置以及机器人
US10068344B2 (en) 2014-03-05 2018-09-04 Smart Picture Technologies Inc. Method and system for 3D capture based on structure from motion with simplified pose detection
CN105091847B (zh) * 2014-04-16 2017-12-29 联想(北京)有限公司 一种测量距离的方法及电子设备
JP6403447B2 (ja) * 2014-06-11 2018-10-10 キヤノン株式会社 情報処理装置、指標校正のための撮影案内方法、コンピュータプログラム
US9412046B2 (en) 2014-10-10 2016-08-09 Facebook, Inc. Training image adjustment preferences
US9892514B2 (en) * 2014-10-10 2018-02-13 Facebook, Inc. Post-manufacture camera calibration
FR3028128A1 (fr) * 2014-11-05 2016-05-06 Morpho Procede de calibration d'un systeme de visee
JP6109213B2 (ja) * 2015-02-02 2017-04-05 キヤノン株式会社 情報処理装置および方法、プログラム
JP6341108B2 (ja) * 2015-02-05 2018-06-13 住友電気工業株式会社 撮像パラメータ決定装置、携帯端末装置、撮像パラメータ決定システム、撮像パラメータ決定方法および撮像パラメータ決定プログラム
US10083522B2 (en) * 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
EP3264359A1 (en) 2016-06-28 2018-01-03 Dassault Systèmes A computer-implemented method of calibrating a camera
KR102540236B1 (ko) * 2016-12-05 2023-06-02 삼성전자주식회사 이미지 처리 장치 및 시스템
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10356346B1 (en) 2018-02-26 2019-07-16 Fotonation Limited Method for compensating for off-axis tilting of a lens
AU2020274025B2 (en) 2019-05-10 2022-10-20 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
US11568614B1 (en) 2021-08-02 2023-01-31 Bank Of America Corporation Adaptive augmented reality system for dynamic processing of spatial component parameters based on detecting accommodation factors in real time
CN115157864B (zh) * 2022-06-09 2023-09-29 光沦科技(深圳)有限公司 一种打印设备的标定方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69532916D1 (de) * 1994-01-28 2004-05-27 Schneider Medical Technologies Verfahren und vorrichtung zur bilddarstellung
JPH08201021A (ja) 1995-01-23 1996-08-09 Mazda Motor Corp キャリブレーション方法
JP3696336B2 (ja) * 1996-06-12 2005-09-14 株式会社トプコン カメラのキャリブレーション方法
JP3728900B2 (ja) * 1997-10-17 2005-12-21 ソニー株式会社 キャリブレーション方法及び装置、並びにキャリブレーション用データ生成方法
US6192735B1 (en) * 1997-12-17 2001-02-27 Nihon Kohden Corporation Three-dimensional position calibrator
JP4112077B2 (ja) 1998-06-11 2008-07-02 株式会社トプコン 画像計測処理方法並びに装置及び画像計測処理プログラムを記録した記録媒体
US6874420B2 (en) * 1999-10-22 2005-04-05 Cc1, Inc. System and method for register mark recognition
JP2002027495A (ja) * 2000-07-03 2002-01-25 Sony Corp 3次元画像生成システム、3次元画像生成方法及び3次元情報サービスシステム、並びにプログラム提供媒体
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
GB0027686D0 (en) 2000-11-13 2000-12-27 Delphi Tech Inc Governor
US6817982B2 (en) * 2002-04-19 2004-11-16 Sonosite, Inc. Method, apparatus, and product for accurately determining the intima-media thickness of a blood vessel

Also Published As

Publication number Publication date
US20050261849A1 (en) 2005-11-24
AU2003264490A1 (en) 2004-04-08
JP2004110479A (ja) 2004-04-08
EP1550980A1 (en) 2005-07-06
EP1550980A4 (en) 2010-12-22
WO2004027708A1 (ja) 2004-04-01
US7715644B2 (en) 2010-05-11

Similar Documents

Publication Publication Date Title
JP4191449B2 (ja) 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
JP4147059B2 (ja) キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP4307934B2 (ja) 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法
JP4529157B2 (ja) 3次元測量システム及び電子的記憶媒体
JP4979928B2 (ja) 三次元形状演算装置及び三次元形状演算方法
JP4224260B2 (ja) キャリブレーション装置、方法及び結果診断装置、並びにキャリブレーション用チャート
JP3728900B2 (ja) キャリブレーション方法及び装置、並びにキャリブレーション用データ生成方法
JP2013122434A (ja) レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム
CN109325981B (zh) 基于聚焦像点的微透镜阵列型光场相机几何参数标定方法
CN106595700A (zh) 基于三点坐标测量的靶道空间基准标定方法
JP4052382B2 (ja) 非接触画像計測装置
CN110736447A (zh) 一种集成式图像采集设备竖直方向水平位置检校方法
CN106813595B (zh) 三相机组特征点匹配方法、测量方法及三维检测装置
JP5007885B2 (ja) 3次元測量システム及び電子的記憶媒体
US20030185435A1 (en) Data processing method, data processing program and recording medium
CN106500729A (zh) 一种无需控制信息的智能手机自检校方法
JP4166988B2 (ja) ステレオ画像用処理装置及び方法
JP4359084B2 (ja) 測量システム
KR20090078447A (ko) 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를이용하여 피해정보를 산출하는 방법과, 이에 사용되는피해정보 산출시스템
JP4282361B2 (ja) 写真測量方法および写真測量プログラム
JP4536428B2 (ja) ズームレンズのキャリブレーション装置及びキャリブレーション方法、撮影装置
JP2004340753A (ja) キャリブレーションチャート画像表示装置
CN113034615A (zh) 一种用于多源数据融合的设备标定方法及相关装置
CN110579169A (zh) 基于云计算的立体视觉高精度测量方法和存储介质
JP4217083B2 (ja) 測量システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080918

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130926

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees