JP2019190974A - キャリブレーション装置、キャリブレーション方法、及びプログラム - Google Patents

キャリブレーション装置、キャリブレーション方法、及びプログラム Download PDF

Info

Publication number
JP2019190974A
JP2019190974A JP2018083457A JP2018083457A JP2019190974A JP 2019190974 A JP2019190974 A JP 2019190974A JP 2018083457 A JP2018083457 A JP 2018083457A JP 2018083457 A JP2018083457 A JP 2018083457A JP 2019190974 A JP2019190974 A JP 2019190974A
Authority
JP
Japan
Prior art keywords
camera
image
orientation
image group
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018083457A
Other languages
English (en)
Inventor
香織 田谷
Kaori Taya
香織 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018083457A priority Critical patent/JP2019190974A/ja
Priority to US16/381,139 priority patent/US10699441B2/en
Publication of JP2019190974A publication Critical patent/JP2019190974A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラキャリブレーション中にカメラの位置及び姿勢が変動する場合でも、高精度に多視点のカメラの位置姿勢パラメータを推定する。【解決手段】本発明のキャリブレーション装置は、複数のカメラにより撮影された画像を取得する画像取得手段と、カメラ毎に、画像から、カメラの振動を検知する振動検知手段と、カメラ毎に、カメラの振動が許容値内であって、かつカメラの位置姿勢が同じと見做される画像を画像群として抽出する抽出手段と、所定のカメラ台数以上で、画像群を組み合わせとして選択する選択手段と、選択された画像群の組み合わせを用いて、カメラ毎の位置姿勢パラメータを推定する推定手段とを備える。【選択図】図4

Description

本発明は、カメラのキャリブレーション技術に関し、より詳細には、カメラの位置姿勢をパラメータとして画像から推定する技術に関する。
昨今、被写体を複数の視点で撮影した画像群から、撮影視点とは異なる任意の視点の画像を生成する任意視点画像生成技術や、被写体の3次元形状を取得する形状取得技術が知られている。そして、これらの技術では、複数の視点に配置された位置姿勢パラメータが正確に求められていることが前提とされ、そのため、カメラ設置時にキャリブレーションを実施し、カメラの位置姿勢パラメータを求めることが一般的である。
ここで、特許文献1には、既知の直径を有する球体を移動させて、複数のカメラで撮影し、さらに、対向するカメラにおいて空間上の同じ位置に対応する画像内の位置を認識することで、キャリブレーションを実施する技術が開示されている。この特許文献1の技術を用いれば、対向するカメラから被写体がほぼ同じ大きさに映る領域でマーカを移動させることで、高精度なキャリブレーションを実施することができる。
特開2014−89168号公報
ところで、注視点からカメラまでの距離が遠い撮影環境、例えば、競技場のような広い撮影環境では、一般に焦点距離の長い望遠レンズが用いられる。但し、この望遠レンズを用いた撮影では、望遠レンズが通常のレンズより重いために不安定で物理的な振動が起きやすく、キャリブレーション中においてカメラの位置及び姿勢が徐々に変化してしまうことがある。
そして、このように、キャリブレーション中にカメラの位置及び姿勢が振動によって徐々に変化する場合、特許文献1の技術では、キャリブレーション中は同じ位置及び姿勢と仮定して処理を行うため、位置姿勢パラメータの推定結果に誤差が生じることになる。即ち、特許文献1の技術では、キャリブレーション中にカメラの位置及び姿勢が振動によって徐々に変化する場合、多視点のカメラの位置姿勢パラメータを推定することができない。
そこで、本発明は、カメラキャリブレーション中にカメラの位置及び姿勢が変動する場合でも、高精度に多視点のカメラの位置姿勢パラメータを推定することを目的とする。
上記目的を達成するために、本発明のキャリブレーション装置は、複数のカメラにより撮影された画像を取得する画像取得手段と、前記カメラ毎に、前記画像から、前記カメラの振動を検知する振動検知手段と、前記カメラ毎に、前記カメラの振動が許容値内であって、かつ前記カメラの位置姿勢が同じと見做される画像を画像群として抽出する抽出手段と、所定のカメラ台数以上で、前記画像群を組み合わせとして選択する選択手段と、前記選択された画像群の組み合わせを用いて、前記カメラ毎の位置姿勢パラメータを推定する推定手段とを備えることを特徴とする。
本発明によれば、カメラキャリブレーション中にカメラの位置及び姿勢が変動する場合でも、高精度に多視点のカメラの位置姿勢パラメータを推定することができる。
画像処理システムの模式図である。 画像処理装置のハードウェア構成を示すブロック図である。 画像処理装置の機能ブロック図である。 画像処理装置における処理の手順を示すフローチャートである。 カメラの位置姿勢パラメータの推定処理の手順を示すフローチャートである。 カメラの振動と静止したカメラの位置及び姿勢の関係を示す図である。 静止画像群の抽出処理を説明するための図である。 静止画像群の抽出処理を説明するための図である。 静止画像群選択部の機能ブロック図である。 静止画像群を選択する処理の手順を示すフローチャートである。 マーカの分布評価値を説明するための図である。 画像処理装置の機能ブロック図である。 画像処理装置における処理の手順を示すフローチャートである。 カメラの位置姿勢パラメータの推定処理の手順を示すフローチャートである。 画像処理装置の機能ブロック図である。 画像処理装置における処理の手順を示すフローチャートである。
(実施形態1)
以下、図面を参照して、本発明の実施形態に係るキャリブレーション装置について説明する。なお、以下の実施形態は、本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
本実施形態では、カメラの位置及び姿勢がキャリブレーション中に変動する場合に、複数のカメラにおいてカメラの変動を検知し、各カメラで同じカメラの位置及び姿勢と見做せる画像群を用いることで、高精度にカメラの位置姿勢パラメータを推定する。
以下、図1を用いて、本実施形態の構成について説明する。図1は、本実施形態に係る画像処理システムの模式図である。画像処理システム1は、複数のカメラ101、画像処理装置102、表示装置103、入力装置104を備える。
カメラ101は、略平面上の領域に配置され、被写体105を囲むように、複数の視点から被写体105を撮影する。画像処理装置102は、例えば、カメラ101により撮影された画像から仮想視点画像等を生成する。また、ユーザは、表示装置103及び入力装置104を用いて、撮影条件の設定や各種画像データ(例えば、撮影により取得した画像データに対して画像処理を施した結果等)を確認する。なお、キャリブレーションの実行時には、カメラ101によりマーカ106を撮影し、さらに画像処理装置102において、その撮影したマーカ106を認識することで、キャリブレーションを実行する。即ち、この場合、画像処理装置102は、キャリブレーション装置として機能する。
図2は、画像処理装置102のハードウェア構成を示すブロック図である。画像処理装置102は、CPU201、RAM202、ROM203、記憶部204、入力インタフェース205、出力インタフェース206、システムバス207を備える。また、画像処理装置102には、外部メモリ208と表示装置103が接続される。詳細には、外部メモリ208は画像処理装置102の入力インタフェース205と出力インタフェース206に接続され、表示装置103は画像処理装置102の出力インタフェース206に接続される。
CPU(Central Processing Unit)201は、画像処理装置102の各構成を統括的に制御するプロセッサである。RAM(Random Access Memory)202は、CPU201の主メモリ、ワークエリアとして機能するメモリである。ROM(Read Only Memory)203は、画像処理装置102内の処理に用いられるプログラム等を格納するメモリである。CPU201は、RAM202をワークエリアとして、ROM203に格納されたプログラムを実行することで、後述する様々な処理を実行する。
記憶部204は、画像処理装置102における処理で用いられる画像データや、処理の実行時に用いられるパラメータ等を記憶する記憶デバイスであり、例えば、HDD(Hard Disk Drive)、光ディスクドライブ、フラッシュメモリ等である。
入力インタフェース205は、例えば、USB(Universal Serial Bus)やIEEE1394等のシリアルバスインタフェースである。画像処理装置102は、この入力インタフェース205を介して、外部メモリ208(例えば、HDD、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。
出力インタフェース206は、例えば、DVI(Digital Visual Interface)やHDMI(登録商標)(High-Definition Multimedia Interface)等の映像出力端子である。画像処理装置102は、この出力インタフェース206を介して、表示装置103(液晶ディスプレイ等の画像表示デバイス)に、画像処理装置102において画像処理を施した画像データを出力することができる。なお、画像処理装置102の構成要素として、上述のブロック以外のブロックも存在するが、本発明の主眼ではないことから、ここでは、その説明を省略する。
以下、画像処理装置102における処理及び処理の手順に関して、図3に示す機能ブロック図と図4に示すフローチャートを用いて説明する。図3は、画像処理装置102の機能ブロック図である。本実施形態では、CPU201がROM203に格納された図4のフローチャートに示すプログラムを実行することにより、図3に記載の各ブロックとして機能する。勿論、全ての処理ブロックの機能をCPU201が有していなくてもよく、各処理ブロックに対応する処理回路を画像処理装置102内に新たに設けるようにしてもよい。なお、以下において、フローチャートの説明における記号「S」は、ステップを表す。
S401において、複数視点画像入力部301は、画像取得手段の一例であり、入力インタフェース205を介して外部メモリ208から複数視点の画像データを取得し、RAM202に格納する。ここで、複数視点の画像データは、同一の被写体を互いに異なる視点から撮影した複数の画像に関するデータである。
なお、視点数は複数視点を前提とすることから少なくとも2視点、1台のカメラにおける画像の枚数は複数枚(複数の時点)とする。また、画像データは、動画であっても、静止画として連続して撮影された画像や、タイムラプス撮影された画像であってもよい。さらに、複数の視点のカメラにおいて同時点を示す画像は、同期が高精度に取られているものとする。仮に、同期が高精度に取られていない場合には、同時点の画像同士の中では画像特徴やマーカが動かないよう高精度に固定するようにしてもよい。
S402において、複数視点画像振動検知部302は、複数視点の画像の各々に関して、振動量を検知する。具体的には、例えば、同視点の複数時点における画像の中で、静止している物体の画像特徴や静止しているマーカを特徴点として検出し、さらに、その特徴点をトラッキングすることで、カメラ101の振動を検知する。その他、各カメラに角度センサや加速度センサを実装し、そのセンサにより測定された値から振動を検知してもよい。
S403において、静止画像群抽出部303は、最小カメラ数・許容振動設定値記憶部304から許容振動設定値を読み込み、カメラ101の振動が許容振動設定値以下になる時点の画像ID(以降、このIDを静止画像IDと称する)をカメラ毎に抽出する。さらに、静止画像群抽出部303は、S401で取得した画像を、カメラ毎に同じ位置及び姿勢と見做すことができる群に分けて、IDを設定する(以降、このIDを静止カメラ位置姿勢IDと称する)。静止画像群抽出部303は、各カメラ101のカメラIDに、S403の処理を実行した結果として取得される静止カメラ位置姿勢IDと静止画像IDを関連付けて格納する。
補足として、図6を用いて、S403の処理について説明する。図6は、カメラの振動と静止したカメラの位置及び姿勢の関係を示す図である。図6(a)のグラフでは、検出された特徴点をマーカの画像上において2次元的な動きとして示している。また、図6(b)のカメラ101の状態の遷移図では、カメラの位置及び姿勢の振動による変化を示しており、具体的には、カメラ101が601Aから601Bに遷移(変化)する状態を示している。
図6(b)の遷移図から振動許容値内に収まる時点をクラスタリングすることで、状態601Aに対応する静止カメラ位置姿勢ID602Aと静止画像ID、また、状態601Bに対応する静止カメラ位置姿勢ID602Bと静止画像IDを求めることができる。
図4に戻り、S404において、静止画像群抽出部303は、S401で取得した画像データに関して、許容振動設定値以上である画像が存在するか否かを判定する。そして、画像処理装置102は、静止画像群抽出部303により許容振動設定値以上である画像が存在すると判定されると(S404 Yes)、処理をS405に移行させる。また、画像処理装置102は、静止画像群抽出部303により許容振動設定値以上である画像が存在しないと判定されると(S404 No)、処理をS408に移行させる。なお、存在しない場合は、全ての画像を用いた通常の位置姿勢パラメータの推定処理と同様の処理となる。
S405において、静止画像群抽出部303は、最小カメラ数・許容振動設定値記憶部304から最小カメラ数設定値を読み込み、RAM202に格納する。
S406において、静止画像群抽出部303は、RAM202に格納された静止画像IDのうち、最小カメラ数設定値以上のカメラ分存在する静止画像IDと、それに対応する静止カメラ位置姿勢IDを抽出する。さらに、それを同じ静止カメラ位置姿勢ID毎に画像群(以降、静止画像群と称する)に分類し、その分類した画像群毎にIDを設定する(以降、静止画像群IDと称する)。そして、S406を実行することで取得される、カメラID、静止カメラ位置姿勢ID、静止画像ID、静止画像群IDは、RAM202に格納される。
次に、図7及び図8を用いて、S406の処理について説明を補足する。図7及び図8は、静止画像群の抽出処理を説明するための図である。図7は、最小カメラ設定値を3台、カメラ台数を3台とした場合の静止画像群の抽出処理を説明するための図である。図7において、符号701は複数振動量、符号702は許容振動設定値、符号703は静止画像ID、符号704は静止カメラ位置姿勢ID、符号705は静止画像群IDを示している。
また、図8は、最小カメラ設定値を2台、カメラ台数を3台とした場合の静止画像群の抽出処理を説明するための図である。図8において、符号801は複数振動量、符号802は許容振動設定値、符号803は静止画像ID、符号804は静止カメラ位置姿勢ID、符号805は静止画像群ID、符号806は静止画像群ID配列を示す。
図4に戻り、S407において、静止画像群選択部305は、RAM202に格納された静止画像群から、同じカメラIDにおける静止カメラ位置姿勢IDが同じになるように、静止画像群の組み合わせ(静止画像群ID)を1つ選択する。
なお、静止画像群IDを抽出する基準としては、例えば、静止画像の数が多くなるように、静止画像群ID(又は、静止画像群ID配列)を抽出すればよい。例えば、図7の場合、静止画像群IDに関して、画像数が多い順に、A>B>C>Dとなり、そのため、最も画像数の多い静止画像群IDはAとなる。また、図8の場合、静止画像群ID配列に関して、画像数が多い順に、[G,J]>[E,G]>[F,H]>[G,I]となり、そのため、最も画像数の多い静止画像群ID配列は、[G,J]となる。その他、ユーザに対して、図7や図8のように静止画像群ID(又は、静止画像群ID配列)をいくつか提示することで、ユーザがその提示された静止画像群ID(又は、静止画像群ID配列)の中から選択できるようにしてもよい。補足として、以降の記載で、静止画像群IDと記載している場合であっても、静止画像群ID配列を含む場合があるものとする。
S408において、カメラ位置姿勢パラメータ推定部306は、RAM202に格納されたカメラIDと画像IDに対応する画像の画像特徴点を用いて、カメラの位置姿勢パラメータと画像特徴点の3次元座標を推定し、RAM202に格納する。
次に、図5のフローチャートを用いて、図4のS408の処理、即ち、カメラ位置姿勢パラメータ推定部306におけるカメラの位置姿勢パラメータの推定処理に関して、詳細に説明する。
S501において、カメラ位置姿勢パラメータ推定部306は、全てのカメラの複数枚の画像に対して、マーカと画像特徴点の2次元座標を検出し、カメラ間において画像特徴点のマッチングを実行する。
S502において、カメラ位置姿勢パラメータ推定部306は、全てのカメラの中から、カメラの位置姿勢パラメータを求めるための2台のカメラ(以降、キーフレームと称する)を選択する。なお、キーフレームは予め設定されていてもよいし、また、認識されたマーカや画像特徴点のマッチング数が最も多い2台のカメラをキーフレームとして選択してもよい。その他、予めカメラの順序や位置関係が大まかに設定されている場合には、それらの情報を用いて、位置関係が近く、かつ対応するマーカや画像特徴点の数が多い2台のカメラを、キーフレームとして選択してもよい。
S503において、カメラ位置姿勢パラメータ推定部306は、選択したキーフレームのマーカ及び画像特徴点の2次元座標とマッチング結果とから、F行列を推定する。F行列(fundamental行列)は、基礎行列とも称され、2つのカメラ視点間の相対関係を示す行列のことである。具体的には、キーフレームの2台のカメラ視点のマーカ座標を[x0i,y0i]、[x1i,y1i](i=1...N、Nはマーカの数)とした場合に、下式を充足する行列として示される。
Figure 2019190974
なお、F行列を推定する上で、例えば、DLT(Direct Linear Transformation)による解法等を用いることができる。また、画像特徴点のマッチング結果には誤対応が含まれることが多いため、ransacやM推定等のロバスト推定方法を用いて外れ値を削除することで、誤対応を計算から省くことが好ましい。この点、詳細には、"Overall view regarding fundamental matrix estimation",X Armangue, J Salvi,Image and vision computing, 2003に記載されている。
S503において、ロバスト推定方法を用いる場合、マーカと画像特徴点の信頼度が異なるならば、それに従ってロバスト推定を行うとよい。ここで、ロバスト推定として、ransacを用いる場合、信頼度の高いマーカや画像特徴点がより高い頻度でサンプリングされるようにすることで、信頼度の高いマーカや画像特徴点と整合性のないマーカや画像特徴点を外れ値として削除しやすくなる。
また、ロバスト推定方法として、M推定を用いる場合、次式のように、マーカや画像特徴点に対して重みα1i、α2iを乗算する。
Figure 2019190974
上式において、信頼度の高いマーカや画像特徴点のαiを大きくして、信頼度の低いマーカや画像特徴点のαiを小さくして計算することで、信頼度の高いマーカや画像特徴点と整合性のない画像特徴点を外れ値として削除しやすくなる。
S504において、カメラ位置姿勢パラメータ推定部306は、F行列からカメラの位置姿勢パラメータ(即ち、カメラの位置t、カメラの姿勢R)を推定する。具体的には、F行列の左にカメラの内部パラメータ行列A1の逆行列を、F行列の右にカメラの内部パラメータ行列A0の逆行列を乗算したものを特異値分解し、さらに直交行列U、V、対角行列Σに分解することで、カメラの位置tと姿勢Rを求めればよい。
Figure 2019190974
なお、Rzは、2パターンのいずれかであり、対応点の3次元点がカメラの後ろ側に配置されないように設定すればよい。また、ここで算出するRとtは1台目のカメラ(以降、カメラ0と称する)の位置t1を原点、姿勢R1を単位行列としたときの2台目のカメラ(以降、カメラ1と称する)の位置t2と姿勢R2である。
S505において、カメラ位置姿勢パラメータ推定部306は、S504で推定した位置姿勢パラメータとキーフレームの画像特徴点のマッチング結果から、画像特徴点に対応する3次元座標を推定する。具体的には、例えば、画像上の座標x, yに対して3次元座標XYZは、下式のように示される。
Figure 2019190974
ここで、カメラk(k=0、1)のi番目(i=1...N、Nは、特徴点マッチングの数)の特徴点[xki,yki]に対応する3次元座標の集合[Xki,Yki,Zki]は、未知の変数skiを用いて、下式のように示される。なお、3次元座標の集合[Xki,Yki,Zki]は、以降において、pkiと称する。
Figure 2019190974
この場合、pki(k=0、1)の間のユークリッド距離が最短になるようにskiを求め、pkiの平均を取ると、特徴点の座標[xki,yki](k=1,0)に対応する3次元点[Xi,Yi,Zi]を求めることができる。なお、3次元点[Xi,Yi,Zi]は、以降において、piと称する。
Figure 2019190974
ここで、pki(k=0,1)の間のユークリッド距離が最短になるようなskiは、以下の式で求めることができる。
Figure 2019190974
そして、式(7)で算出したs1i、s2iを式(5)に代入することで、式(6)から3次元点piを求めることができる。なお、式(7)で算出したs1i、s2iのいずれか一方でも負の値であると、カメラに対して後ろ側に3次元点が生成されることになるので(即ち、対応点の誤りと予想されるので)、その場合、外れ値として削除すればよい。
S506において、カメラ位置姿勢パラメータ推定部306は、特徴点の3次元座標のカメラ画像への再射影と特徴点の2次元座標との間の再射影誤差が最小になるように、位置姿勢パラメータと画像特徴点に対応する3次元座標を微調整する。なお、位置姿勢パラメータはS504で、画像特徴点に対応する3次元座標はS505で推定されたものである。また、この処理(調整)は、バンドル調整とも称される。
なお、3次元点pi(i=1,..,N)の再射影[x(Rk,tk,pi),y(Rk,tk,pi)]とマーカ又は画像特徴点の座標[xki,yki]との誤差E(R0,R1,t0,t1,…,pN)は下式で示される。
Figure 2019190974
ここで、αkiはi個目のマーカ又は特徴点のカメラkにおける画像上の座標の信頼度である。また、信頼度の高いマーカや画像特徴点のαkiを大きく、信頼度の低いマーカや画像特徴点のαkiを小さくすることで、信頼度の高いマーカの誤差を可能な限り小さくすることができる。
そして、この誤差Eの値を最小化するようなR0,R1,t0,t1,p1,…,pNを、非線形最適化手法を用いることで求める。即ち、バンドル調整を行う。補足として、非線形最適化手法には、Levenberg-Marquardt法等を用いればよい。
なお、バンドル調整において、非線形最適化手法で収束したパラメータR0,R1,t0,t1はバンドル調整前とは値が異なっていることから、再度、外れ値の評価を行うことが好ましい。また、外れ値として判定した画像特徴点の中にも、更新されたR0,R1,t0,t1では外れ値とならない画像特徴点があるか否かを評価して、外れ値とはならない画像特徴点を追加する処理を行うことも好ましい。加えて、この場合、画像特徴点の削除や追加が行われた場合には、再度、バンドル調整を実行し、パラメータR0,R1,t0,t1を更新するとよい。
S507において、カメラ位置姿勢パラメータ推定部306は、全視点(全てのカメラ)においてカメラの位置姿勢パラメータの推定を完了したか否かを判定し、推定が完了していれば図5に示す処理を終了し、完了していなければ処理をS508に移行させる。
S508において、カメラ位置姿勢パラメータ推定部306は、カメラの位置姿勢パラメータの推定が完了していないカメラ(視点)の中から、次に処理すべき視点(以降、追加視点と称する)を選択する。なお、追加視点は、2視点以上、同時に選択してもよい。また、追加視点は、予め設定されていてもよいし、マーカや画像特徴点のマッチング結果の中で既に求められたマーカや画像特徴点の3次元座標に対応する数が十分に多い視点を選択してもよい。例えば、最も対応の多いカメラ視点の対応点数をN個としたとき、それに対して予め定めた割合(例えば、60%なら0.5N個)以上の対応マーカを有するカメラ視点まで追加視点として選択するようにしてもよい。その他、予めカメラの順序や位置関係が大まかに設定されている場合には、それらの情報を用いて、位置関係が近く、かつ既に求められたマーカ3次元座標に対応するマーカ認識結果の数が十分に多い視点を選択してもよい。
S509において、カメラ位置姿勢パラメータ推定部306は、既に求められた画像特徴点に対応する3次元座標と、追加視点のマーカや画像特徴点の2次元座標を対応させる射影行列を推定する。具体的には、S507までに求められた3次元点[Xi,Yi,Zi]を画像上に射影した点[Rk,tk]と、3次元点と対応する2次元座標[xki, yki]との間の誤差が最小になるように[Rk,tk]を求めればよい。
なお、ここで、kは追加する視点に対応するインデックスである。また、再射影誤差E(Rk、tk)は、下式により示される。
Figure 2019190974
式(9)では、式(8)とは異なり、piはパラメータではなく固定値として取り扱われる。この解は、解析的に求めることができ、
Figure 2019190974
となる行列Mに対して、
Figure 2019190974
となるようなr11〜r33、t1〜t3が式(9)を最小化するようなRk=[rij]、tk=[ti]であり、これを射影行列と称する。式(11)を満たすr11〜r33、t1〜t3はMTMの特異値分解を行い、最小の固有値に対応する固有ベクトルを求めれば、r11〜r33、t1〜t3を求めることができる。
このような処理は、PnP法と称される。補足として、3次元点のワールド座標から3次元点の分布に従った座標系に変換してからPnP法を行うEPnPと称される手法が高精度で処理が速いことが知られている。
なお、ここでも、画像特徴点の誤対応の影響で大きな外れ値が含まれる場合があるため、PnP法においても、ransacやM推定のようなロバスト推定を行うことが好ましい。この場合、S501と同様に、マーカや画像特徴点の信頼度の高さに従って、ロバスト推定を行うとよい。ここで、ロバスト推定として、ransacを用いる場合、信頼度の高いマーカや画像特徴点がより高い頻度でサンプリングされるようにすることで、信頼度の高いマーカや画像特徴点と整合性のないマーカや画像特徴点を外れ値として削除しやすくなる。
また、ロバスト推定として、M推定を用いる場合、次式のように、マーカや画像特徴点に対して重みα1i、α2iを乗算する。
Figure 2019190974
上式において、信頼度の高いマーカや画像特徴点のαkiを大きくして、信頼度の低いマーカや画像特徴点のαkiを小さくして計算することで、信頼度の高いマーカや画像特徴点と整合性のない画像特徴点を外れ値として削除しやすくなる。
S510において、カメラ位置姿勢パラメータ推定部306は、射影行列から追加視点の位置姿勢パラメータを推定する。ここで、S509で推定したRk=[rij]は、式(11)を求めるときに回転行列の制約がなかったことから、一般的に回転行列の条件を満たしていない。そこで、Rk^TRkが単位行列になるように制約付きの非線形最適化を行い、P=[rij][ti]の特異値分解からRkを求め、さらに、それを用いてtkを求めればよい。
S511において、カメラ位置姿勢パラメータ推定部306は、S510で推定した追加視点のカメラの位置姿勢パラメータとマーカや画像特徴点の2次元座標から、画像特徴点に対応する3次元座標を推定する。具体的には、S505と同様の処理を、追加する点が見えているカメラの台数をM(>2)個に拡張したものである。
この場合、マーカの画像上の座標と3次元座標の対応式は式(4)と同様であり、3次元点は、追加する点が見えているM台のカメラに対して、下式により算出される。
Figure 2019190974
なお、式(5)のsk1i〜skMi(ここで、k1,..,kM は見えているカメラに対応するインデックス)は、式(7)を下式のようにM視点に拡張することで、求めることができる。
Figure 2019190974
そして、式(14)で算出したsk1i〜skMiを式(5)に代入することで、式(13)から3次元点piを求めることができる。なお、式(14)で算出したsk1i〜skMiのいずれかに負の値があると、カメラに対して後ろ側に3次元点が生成されることになるので(即ち、対応点の誤りと予想されるので)、その場合、外れ値として削除すればよい。或いは、もし、その点が見えているカメラの台数が、そのカメラを除いても、2台以上あるようであれば、そのカメラの対応のみ外れ値として、残りの対応点で3次元座標を導出すればよい。
S512において、カメラ位置姿勢パラメータ推定部306は、画像特徴点に対応する3次元座標のカメラ画像への再射影誤差が最小になるように、位置姿勢パラメータと画像特徴点に対応する3次元座標を微調整する。なお、位置姿勢パラメータはS504及びS510で、画像特徴点に対応する3次元座標はS505及びS511で推定される。また、S512における処理は、S506における処理と同様であることから、ここでは、その説明を省略する。
S512が終了すると、処理をS507に返し、全てのカメラにおいて処理が完了したか否かを判定し(全てのカメラにおいてカメラの位置姿勢パラメータの推定が完了したか否かを判定し)(S507)、処理が完了していれば、図5に示す処理を終了する。また、処理が完了していなければ、処理をS508に移行させる。
以上のように、各カメラにおいて、撮影された画像のうち、同じ位置及び姿勢で撮影されたものと見做せる画像を、静止画像群として抽出する。そして、同時刻にある静止画像群を、最小カメラ数設定値以上の台数分(所定のカメラ台数以上)、組み合わせとして選択し、さらに、その選択した静止画像群を用いてカメラの位置姿勢パラメータを推定する。これにより、カメラの位置姿勢パラメータを高精度に推定することができる。
(実施形態2)
実施形態1では、各カメラで同じ位置及び姿勢で撮影されたものと見做せる画像を静止画像群として抽出し、さらに、同時刻にある静止画像群を最小カメラ数設定値以上の台数分、組み合わせとして1つ選択し、位置姿勢パラメータを推定する例を説明した。
但し、この静止画像群の組み合わせを選択する場合、キャリブレーション用のマーカを用いるときに、マーカが画面上において全域にわたって分布しているか否かを考慮することが好ましい。そこで、実施形態2では、複数のカメラで同時に撮影された画像のうち、振動が許容振動設定値以下になる時間帯の画像(静止画像群)において、さらに、マーカの分布の評価値が高くなる静止画像群を用いて、位置姿勢パラメータを推定する例を説明する。
以下、本実施形態における位置姿勢パラメータの推定に関して、静止画像群選択部305の機能ブロック図(図9)、及び上述のS407において、マーカの分布を考慮して静止画像群を選択する処理の手順を示すフローチャート(図10)を参照して説明する。
S1001において、マーカ検出部901は、RAM202に格納された各カメラの静止画像IDと対応する静止画像に対して、キャリブレーション用のマーカの2次元座標とそのマーカの種類を識別するマーカIDを検出してRAM202に格納する。
なお、キャリブレーション用のマーカは、平面に描かれた円や、二重丸、十字マーク、チェッカーボードパターン、球体、ARマーカのようなものであってもよい。また、検出する座標は、円や二重丸では円の中心、球体では球の中心、十字マークでは交差領域の中心、チェッカーボードパターンでは白黒の四角形の交差点等、空間上の点と対応する特徴点が各カメラの画像上で点として認識できるものであればよい。
S1002において、マーカ静止画像群抽出部902は、分布評価値導出手段(被覆率導出手段)の一例であり、RAM202に格納された静止画像群ID毎に対応する各カメラのマーカの分布評価値を計算する。ここで、マーカの分布評価値の計算について、図11を用いて説明する。図11において、符号1102〜1104は画像を示しており、また、画像内の複数の四角形1101はマーカを示している。
ここで、マーカ1101が同じ数であるならば、画像において広範囲に分散している方が計算精度は高くなる。そのため、マーカ1101の数が同じ画像1102と画像1103では、画像1103の分布評価値を画像1102の分布評価値よりも高くすることが好ましい。他方、マーカ1101が同じ範囲に分散しているならば、マーカ1101の数が多い方が計算精度は高くなる。そのため、マーカ1101の分散している範囲の同じ画像1103と画像1104では、画像1104の分布評価値を画像1103の分布評価値よりも高くすることが好ましい。
そして、このような関係を満たすような分布評価値として、例えば、以下の指標(指標1〜指標3)を検討することができ、指標1〜3のいずれか1つ以上を用いることで、マーカの分布評価値を計算することができる。
指標1として、「(xの最大値−xの最小値)×(yの最大値−yの最小値)」を検討することができる。また、指標2として、「マーカ座標を中心とした半径Rの円を描いたときの円が被覆する面積の和」を検討することができる。さらに、指標3として、「画面全体を小領域(例えば、10×10等)に区切ったときに、マーカがその小領域内に存在する小領域の数」を検討することができる。
S1003において、マーカ静止画像群抽出部902は、RAM202に格納されたデータから、同じカメラIDにおける静止カメラ位置姿勢IDの同じ静止画像群IDを1つ抽出する。なお、S1003では、例えば、各カメラのマーカ分布評価値の和が高くなるように静止画像群を抽出すればよい。或いは、ユーザにマーカ分布評価値の高い静止画像群IDをいくつか提示して、ユーザがその提示された静止画像群の中から選択できるようにしてもよい。
以上のように、本実施形態では、各カメラで同じ位置及び姿勢で撮影されたものと見做せる画像を静止画像群として抽出し、同時刻にある静止画像群を最小カメラ数設定値以上の台数分、マーカの分布評価値を考慮して選択する。これにより、位置姿勢パラメータを高精度に推定することができる。
(実施形態3)
実施形態1及び2では、各カメラで同じ位置及び姿勢で撮影されたものと見做せる画像を静止画像群として抽出し、その静止画像群の組み合わせを各カメラの画像のカメラ位置姿勢IDが同じになるように1つ選択し、位置姿勢パラメータを推定した。但し、実施形態1及び2では、同じカメラにおける選択された静止カメラ位置姿勢IDと異なる静止カメラ位置姿勢IDの静止画像群のマーカや画像特徴量を位置姿勢パラメータの推定に用いていない。そこで、実施形態3では、同じカメラの異なる位置及び姿勢における画像群を用いて、位置姿勢パラメータを推定する。
以下、本実施形態に係る画像処理装置102における処理及び処理の手順に関して、図12に示す機能ブロック図と図13に示すフローチャートを用いて説明する。なお、ここでは、実施形態1と同様の処理は、その説明を省略し(即ち、例えば、S1301〜S1306は、S401〜S406と同様の処理であることから、その説明を省略し)、実施形態1との差分に着目して説明する。
S1307において、静止画像群選択部305は、RAM202に格納されたカメラID、静止カメラ位置姿勢ID、静止画像ID、静止画像群IDから、同じカメラIDにおける静止カメラ位置姿勢IDの同じ静止画像群IDを複数、抽出する。
なお、静止画像群IDを抽出する基準としては、例えば、静止画像群IDに含まれる画像数が多い静止画像群IDの順に抽出すればよい。例えば、図7の場合、即ち、最小カメラ設定値が3台、カメラ3台の場合、静止画像群IDに関して、画像数が多い順にA>B>C>Dとなり、A→B→C→Dが処理の順序となる。これが、図8の場合、即ち、最小カメラ設定値2台、カメラ3台の場合、静止画像群ID配列に関して、画像数が多い順に[G,J]>[E,G]>[F,H]>[G,I]となり、[G,J]→[E,G]→[F,H]→[G,I]が処理の順序となる。その他、ユーザに静止画像群IDをいくつか提示して、ユーザがその中から処理対象と処理順序を選択するようにしてもよい。
S1308に関して、処理順序に従って、処理対象とする静止画像群IDに対して、位置姿勢パラメータを推定する。なお、位置姿勢パラメータの推定に関しては、図4のS408と同様である。即ち、ここでのカメラ位置姿勢推定部1202の処理は、カメラ位置姿勢パラメータ推定部306の処理と同様であり、位置姿勢パラメータと画像特徴点の3次元座標を推定し、RAM202に格納する。
S1309において、カメラ位置姿勢マージ部1201は、RAM202に格納された静止画像群IDに対応する画像のうち、未処理の静止画像群があるかどうかを判定する。そして、未処理の静止画像群がなければ(S1309 No)、図13に示す処理を終了し、未処理の静止画像群があれば(S1309 Yes)、処理をステップS1310に移行させる。
S1310において、カメラ位置姿勢マージ部1201は、次に、カメラ位置姿勢推定部1202で処理する画像群の画像ID、位置姿勢パラメータの初期値、及び許容誤差を設定してRAM202に格納する。
ここで、位置姿勢パラメータの初期値は、S1308で推定した位置姿勢パラメータとする。また、許容誤差は、例えば、処理対象のカメラの静止画像IDに対応する静止カメラ位置姿勢IDを初期値として設定したものであれば、小さく設定し(又は、ゼロに設定し)、そうでないならば、大きく設定すればよい。例えば、望遠で撮影する場合、被写体とカメラの距離は一般に遠くなることから、カメラの振動による位置の変化は被写体−カメラ間距離と比較すれば小さくなり、そのため、カメラ位置の許容誤差を小さく設定すればよい(又は、ゼロに設定すればよい)。なお、位置姿勢パラメータの許容誤差は、振動の大きさに従って設定すればよい。
S1311において、カメラ位置姿勢推定部1202は、RAM202に格納されたカメラIDと画像IDに対応する画像の画像特徴点を用いて、位置姿勢パラメータと画像特徴点の3次元座標を推定し、RAM202に格納する。また、ここでは、S1310で設定した位置姿勢パラメータの初期値と許容誤差も用いる。なお、S1311を実行すると、S1309に処理を返し、終了判定を実行する。
次に、S1311におけるカメラ位置姿勢推定部1202の処理の詳細を、図14のフローチャートを用いて補足する。S1401において、カメラ位置姿勢推定部1202は、RAM202に格納された位置姿勢パラメータの初期値と許容誤差を読み込む。
S1402において、カメラ位置姿勢推定部1202は、全てのカメラの複数枚の画像に対して、マーカと画像特徴点の2次元座標を検出し、カメラ間においてマーカと画像特徴点のマッチングを実行し、その推定結果をRAM202に格納する。なお、この場合、処理を高速化するため、特徴点やマーカをマッチングするカメラのペアを、位置姿勢パラメータの初期値から制限することが好ましい。
S1403において、カメラ位置姿勢推定部1202は、S1401で設定した位置姿勢パラメータの初期値と、マーカと画像特徴点の2次元座標及びマッチング結果から、画像特徴点に対応する3次元座標を推定する。なお、推定方法は、S505と同様であることから、ここでは、その説明を省略する。
S1404において、カメラ位置姿勢推定部1202は、位置姿勢パラメータと画像特徴点に対応する3次元座標を、画像特徴点に対応する3次元座標の再射影誤差が小さく、かつ位置姿勢パラメータの初期値との誤差が許容誤差内に収まるように微調整する。具体的には、式(8)にRkとtkの初期値との誤差(例えば、ユークリッドノルム)を加えて、ラグランジェの未定乗数法等の方法で非線形最適化計算をすればよい。
S1405〜S1410における処理は、S507〜S512における処理と同様であることから、ここでは、その説明を省略する。なお、S1406以降の処理は、S1308で位置姿勢パラメータを推定できず、初期値を設定できなかったカメラがある場合に実行される。この場合、初期値がないので、そのカメラに対する非線形最適化計算の制約条件を設定せずに計算すればよい。
以上のように、各カメラで同じ位置及び姿勢で撮影されたものと見做せる画像を静止画像群として抽出し、同時刻にある静止画像群を最小カメラ数設定値以上の台数分、組み合わせてとして順に選択して位置姿勢パラメータを推定する。これにより、位置姿勢パラメータを高精度に推定することができる。
(実施形態4)
上述の実施形態3では、同じカメラの異なる位置及び姿勢における画像群を、位置及び姿勢の近い異なるカメラとして順に選択して、位置姿勢パラメータを推定した。但し、位置姿勢パラメータを推定する上で実施形態3のように計算(処理)を順に実行すると、位置姿勢パラメータを推定するまでに相応に時間がかかる可能性がある。
そこで、実施形態4では、カメラの位置及び姿勢の変動による画像特徴点のずれをホモグラフィ変換で変換できるような平面的な変動であると見做して、マーカや画像特徴点の位置を変換する。これにより、カメラの位置及び姿勢は各カメラで不変として、1回の計算で位置姿勢パラメータを推定する。
以下、本実施形態に係る画像処理装置102における処理及び処理の手順に関して、図15に示す機能ブロック図と図16に示すフローチャートを用いて説明する。なお、ここでは、実施形態1と同様の処理は、その説明を省略する(即ち、例えば、S1601〜S1607は、S1301〜S1307と同様の処理であることから、その説明を省略する)。
S1608において、特徴点変換行列算出部1501は、処理対象の静止画像群の静止画像IDに対する画像特徴点の変換行列を算出する。なお、ここでの変換行列とは、具体的には、ホモグラフィ変換行列である。また、基準とする画像は、1つ目の静止画像群IDに属する画像とする。
ここで、画像特徴点として、異なる時点においても空間的な位置が変化しない画像特徴点を選択する。具体的には、例えば、1つ目の静止画像群の先頭画像で画像特徴点を検出し、その画像特徴点を異なる時点でトラッキングした結果、安定して複数時点でトラッキングできた場合に、その画像特徴点を採用(選択)すればよい。
さらに、その選択した画像特徴点に対して、異なる静止画像群IDに属する静止画像でトラッキング又は特徴点マッチングした結果の対応を用いて、ホモグラフィ変換行列を算出する。そして、その算出したホモグラフィ変換行列を用いて、異なる静止画像群IDに属する画像の特徴点の2次元座標を1つ目の静止画像群IDに属する画像に相当する2次元座標に変換する。
なお、ホモグラフィ変換の基準画像は、1つ目の静止画像群IDに属する画像に必ずしも限定されない。また、1つ目の静止画像群IDに含まれていないカメラIDがある場合には、可能な限り処理の優先順位の高い静止画像群IDに属する画像を選択すればよい。
S1609において、カメラ位置姿勢推定部1502は、RAM202に格納されたカメラIDと静止画像IDに対応する画像の画像特徴点を特徴点変換行列で変換したものを用いて、位置姿勢パラメータと画像特徴点の3次元座標を推定する。
なお、S1609におけるカメラ位置姿勢推定部1502の処理は、S501でのマーカと画像特徴量の2次元座標を特徴点変換行列で変換すること以外は、図5のフローと同様であるため、ここでは、その説明は省略する。
以上のように、カメラの位置及び姿勢の変動による画像特徴点のずれをホモグラフィ変換で変換できるような平面的な変動であると見做して、マーカや画像特徴点の位置を変換する。これにより、カメラの位置及び姿勢は各カメラで不変として、1回の計算で位置姿勢パラメータを推定する。即ち、繰り返して計算(処理)することなく、位置姿勢パラメータを高精度に推定することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (10)

  1. 複数のカメラにより撮影された画像を取得する画像取得手段と、
    前記カメラ毎に、前記画像から、前記カメラの振動を検知する振動検知手段と、
    前記カメラ毎に、前記カメラの振動が許容値内であって、かつ前記カメラの位置姿勢が同じと見做される画像を画像群として抽出する抽出手段と、
    所定のカメラ台数以上で、前記画像群を組み合わせとして選択する選択手段と、
    前記選択された画像群の組み合わせを用いて、前記カメラ毎の位置姿勢パラメータを推定する推定手段と
    を備えることを特徴とするキャリブレーション装置。
  2. 前記選択手段は、
    前記画像からマーカを検出するマーカ検出手段と、
    前記画像群の組み合わせ毎に、前記マーカの被覆率を導出する導出手段と
    を有し、
    前記選択手段は、前記マーカの被覆率に応じて、前記画像群の組み合わせを選択することを特徴とする請求項1に記載のキャリブレーション装置。
  3. 前記導出手段は、前記マーカの被覆率を、以下の(a)〜(c)のいずれかの指標により導出することを特徴とする請求項2に記載のキャリブレーション装置。
    (a)前記マーカの座標を(x、y)とした場合に、(xの最大値−xの最小値)×(yの最大値−yの最小値)
    (b)前記マーカの座標を中心とした半径Rの円を描いた場合に、前記円が被覆する面積の和
    (c)画面全体を所定の領域に区切った場合に、前記マーカが前記所定の領域内に存在する前記所定の領域の数
  4. 前記選択手段は前記画像群の組み合わせを複数、選択し、
    前記推定手段は、前記選択手段により組み合わせとして選択された複数の画像群のうち、第1の画像群に対応した前記カメラ毎の位置姿勢パラメータを推定し、当該推定した第1の画像群に対応した前記カメラ毎の位置姿勢パラメータを用いて、第2の画像群に対応した前記カメラ毎の位置姿勢パラメータを推定することで、前記カメラ毎の位置姿勢パラメータを推定することを特徴とする請求項1に記載のキャリブレーション装置。
  5. 前記推定された位置姿勢パラメータが、許容誤差内に収まるように調整されることを特徴とする請求項4に記載のキャリブレーション装置。
  6. 前記選択手段により組み合わせとして選択された複数の画像群のうち、1の画像群の画像から抽出された画像特徴点と、前記1の画像群とは異なる画像群の画像における前記画像特徴点との対応から、変換行列を導出する導出手段をさらに備え、
    前記推定手段は、前記変換行列により変換した結果をさらに用いて、前記カメラ毎に、前記カメラの位置姿勢パラメータを推定することを特徴とする請求項1に記載のキャリブレーション装置。
  7. 前記選択手段は、前記組み合わせとして選択する画像群として、画像数のより多い画像群を選択することを特徴とする請求項1から3のいずれか1項に記載のキャリブレーション装置。
  8. 前記選択手段は、ユーザに前記画像群を提示して、前記ユーザからの選択を受け付ける表示手段を備えることを特徴とする請求項1から3のいずれか1項に記載のキャリブレーション装置。
  9. コンピュータを、請求項1から8のいずれか1項に記載のキャリブレーション装置の各手段として機能させるためのプログラム。
  10. 画像取得手段により、複数のカメラにより撮影された画像を取得する画像取得ステップと、
    振動検知手段により、前記カメラ毎に、前記画像から、前記カメラの振動を検知する振動検知ステップと、
    抽出手段により、前記カメラ毎に、前記カメラの振動が許容値内であって、かつ前記カメラの位置姿勢が同じと見做される画像を画像群として抽出する抽出ステップと、
    選択手段により、所定のカメラ台数以上で、前記画像群を組み合わせとして選択する選択ステップと、
    推定手段により、前記選択された画像群の組み合わせを用いて、前記カメラ毎の位置姿勢パラメータを推定する推定ステップと
    を含むことを特徴とするキャリブレーション方法。
JP2018083457A 2018-04-24 2018-04-24 キャリブレーション装置、キャリブレーション方法、及びプログラム Pending JP2019190974A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018083457A JP2019190974A (ja) 2018-04-24 2018-04-24 キャリブレーション装置、キャリブレーション方法、及びプログラム
US16/381,139 US10699441B2 (en) 2018-04-24 2019-04-11 Calibration apparatus, calibration method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083457A JP2019190974A (ja) 2018-04-24 2018-04-24 キャリブレーション装置、キャリブレーション方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019190974A true JP2019190974A (ja) 2019-10-31

Family

ID=68236029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083457A Pending JP2019190974A (ja) 2018-04-24 2018-04-24 キャリブレーション装置、キャリブレーション方法、及びプログラム

Country Status (2)

Country Link
US (1) US10699441B2 (ja)
JP (1) JP2019190974A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7429667B2 (ja) 2021-03-23 2024-02-08 Kddi株式会社 カメラキャリブレーション装置、方法及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10855918B2 (en) * 2018-05-09 2020-12-01 Canon Kabushiki Kaisha Image processing device, image processing method, image pickup apparatus, and program storage medium that calculates a matching degree between an estimated target of interest and tracked feature points, then selects a feature point to which tracking is continued according to the matching degree
JP7223978B2 (ja) * 2018-05-23 2023-02-17 パナソニックIpマネジメント株式会社 校正装置および校正方法
US11288842B2 (en) * 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
US11002541B2 (en) 2019-07-23 2021-05-11 Trimble Inc. Target positioning with electronic distance measuring and bundle adjustment
US10997747B2 (en) * 2019-05-09 2021-05-04 Trimble Inc. Target positioning with bundle adjustment
GB2586838B (en) * 2019-09-05 2022-07-27 Sony Interactive Entertainment Inc Free-viewpoint method and system
CN111189639B (zh) * 2020-01-08 2021-09-14 重庆交通大学 一种基于瞬时频率优化vmd的轴承故障诊断方法
CN113923428B (zh) * 2021-11-23 2024-01-30 中国航空工业集团公司洛阳电光设备研究所 一种平显投影装置投影精度快速校准终端及校准方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4212109B2 (ja) * 2007-03-20 2009-01-21 パナソニック株式会社 撮影装置および撮影方法
JP6164679B2 (ja) 2012-10-30 2017-07-19 株式会社Halデザイン研究所 カメラのキャリブレーション方法及びカメラのキャリブレーション装置
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7429667B2 (ja) 2021-03-23 2024-02-08 Kddi株式会社 カメラキャリブレーション装置、方法及びプログラム

Also Published As

Publication number Publication date
US20190325608A1 (en) 2019-10-24
US10699441B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP2020525958A (ja) 画像処理システム及び画像処理方法
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
JP6662382B2 (ja) 情報処理装置および方法、並びにプログラム
WO2016133697A1 (en) Projection transformations for depth estimation
JP2023056466A (ja) グローバル測位装置及び方法
JP2009186287A (ja) 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
JP6086491B2 (ja) 画像処理装置およびそのデータベース構築装置
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6843552B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP6384961B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体
JP2020005089A (ja) 撮像システム、画像処理装置、画像処理方法およびプログラム
WO2013173383A1 (en) Methods and apparatus for processing image streams
JP6071142B2 (ja) 画像変換装置
WO2023199583A1 (ja) ビューワ制御方法及び情報処理装置
JP2018200175A (ja) 情報処理装置、情報処理方法及びプログラム
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
US20240083038A1 (en) Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium
JP6168601B2 (ja) 画像変換装置