JP2018007254A - 動的なカメラ較正 - Google Patents

動的なカメラ較正 Download PDF

Info

Publication number
JP2018007254A
JP2018007254A JP2017126753A JP2017126753A JP2018007254A JP 2018007254 A JP2018007254 A JP 2018007254A JP 2017126753 A JP2017126753 A JP 2017126753A JP 2017126753 A JP2017126753 A JP 2017126753A JP 2018007254 A JP2018007254 A JP 2018007254A
Authority
JP
Japan
Prior art keywords
pattern
computer
camera
calibration
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017126753A
Other languages
English (en)
Other versions
JP2018007254A5 (ja
JP7292000B2 (ja
Inventor
ドガニス フィヴォス
Doganis Fivos
ドガニス フィヴォス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2018007254A publication Critical patent/JP2018007254A/ja
Publication of JP2018007254A5 publication Critical patent/JP2018007254A5/ja
Application granted granted Critical
Publication of JP7292000B2 publication Critical patent/JP7292000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

【課題】動的なカメラ較正を提供する。【解決手段】ビデオスクリーン100に、較正パターンを表示させるステップと、カメラ101から、その較正パターンを備えるシーンのビデオストリームを取得するステップと、修正された較正パターンを、取得したビデオストリームに応じて決定し、スクリーンにそれを表示させるステップと、カメラの内部較正パラメータを、取得されたビデオストリームを処理することにより推定するステップと、を備える。【選択図】図2

Description

本発明は、カメラを較正するためのコンピュータ実装方法に関する。より正確には、本発明は、デジタルカメラの「内部(intrinsic)」較正に、すなわち、焦点長、主点、および任意選択により、歪みパラメータを含む、その光学応答を決定するパラメータの推定に関する。
本発明は、例えば、仮想物体を表す、3Dコンピュータ生成される画像が、ビデオカメラにより捕捉される画像の上部に重ねられる、拡張現実(AR)の分野に適用される。仮想画像および実画像を、最も現実的な方法で合体させるために、ビデオカメラの正確な較正が要求される。実際のところARは、仮想3D物体をレンダリングするために使用される、仮想カメラを規定することを必要とする。この仮想カメラは、背景でレンダリングされる実世界を捕捉するために使用される実カメラと、可能な限り接近してマッチングしなければならない。カメラの製造者により提供されるデータは、普通は、満足がいく結果を与えるには正確さが不充分であり、較正に頼ることを必要とする。
カメラ較正は、全面的に精度に関するものである。良好に較正されたカメラなしでは、レンダリングされる物体は、それらが実際のものであるかのようには見えず、ユーザ体験が台無しにされる。
拡張現実は、特に要求の厳しい用途であるが、正確なカメラ較正を要する唯一のものではない。他の用途は、例えば、3Dボリューム再構築を含み、その場合カメラは多くの場合、深度カメラである。
本発明は、1つまたは数個の特定の用途に制限されず、それは、ビデオカメラの正確な較正が要求されるときはいつでも有用であり得る。
カメラ較正を行うために使用される最も普及した技法は、Zhangのアルゴリズムとして知られており、非特許文献1による論文で説明されている。
この技法を使用してカメラを較正するために、ユーザは、以下のことを行わなければならない。
1.レーザプリンタを使用して、較正パターン(典型的には、黒および白要素の規則的配列)を印刷する、
2.印刷されたパターンを測定して、そのサイズが、プリンタによりスケールを変更されていないということを確実にする、
3.パターンを、堅い厚紙、木の小片、または、さらに良好には、ガラスなどの、堅い表面上に糊着し、パターンが(例えば、紙とパターンとの間に気泡がないことをチェックすることにより)直線的なままであるということを確実にする、
4.パターンをカメラの前部で位置設定し、それをあちこちに動かして、その向きおよび位置を変化させる、
5.パターンの、数個の異なる位置および向き(「ポーズ(pose)」)に対応する画像を捕捉する、ならびに、
6.画像を、上記で参照された論文で詳細に説明されている数学的アルゴリズムによって処理する。
処理ステップは、それ自体だけで、既存のソフトウェアを使用して容易に実行され得るが、以前のステップは扱いにくく、そのことは、全体のプロセスを非実用的にする。
まず始めに、ステップ1、2、および3を適正に行うことは長々しく、ユーザは、全体の較正プロセスの精度を最大化するために、較正パターンの創出の間は非常に注意しなければならない。この困難を克服するために、LCD(液晶ディスプレイ)上に表示される較正パターンを使用することが提案されており、例えば非特許文献2を確認されたい。
最も重要なことには、ステップ4および5はしばしば、時間がかかり、苛立たせるものであり、なぜならば、ステップ6を行う較正プログラムは、典型的には、取得される画像の大きな占有分(share)であって、結局はその品質が不充分である大きな占有分を棄却するからである。これは、カメラに関する、パターンの不適切な位置設定に起因し得る。例えば、
− パターンは、カメラから遠すぎることがあり、その場合その要素は、検出されるには小さすぎることがある。
− それは、カメラに接近しすぎる、または、視野の縁部の方に運ばれすぎることがあり、その場合それは、全体的には可視でないことがある。さらに、パターンがカメラに非常に接近しているならば、その要素は、不必要に大きく、間隔を隔てられるように見え、パターンを較正の目的とって最適ではないようにする。
− それはさらには、焦点外れである、したがってぼやけさせられている、または、貧弱な照明に起因して不充分に可視的であることがある。
特許文献1がさらには、パターンの複数の画像での歪みを検出することによりカメラを較正する方法を説明している。
部分的な可視性の問題は、少なくとも一部の要素が、それらの識別を可能とする独特の特徴部を有する、特殊なパターン、例えばいわゆる「ChArUco」パターンを使用して解決され得るものであり、非特許文献3を確認されたい。
しかしながら、時間がかかるだけでなく、苛立たせる追加的な画像をとって、破棄されるものを置換することを除けば、パターンの不適切な位置設定に関連付けられる他の不都合に対処するための、既知の方法はない。
米国特許第8106968号明細書
Z. Zhang "A Flexible New Technique for Camera Calibration." IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 22, No. 11, 2000, pp. 1330−1334) Zhan, Z. (2008). Camera Calibration Based on Liquid Crystal Display (LCD). The International Archives of the Photogrammetry. Remote Sensing and Spatial Information Sciences, 37 http://docs.opencv.org/3.1.0/da/d13/tutorial_aruco_calibration.html#gsc.tab=0 A. Datta et al. "Accurate Camera Calibration using Iterative Refinement of Control Points" IEEE 12th International Conference on Computer Vision Workshops (ICCV Workshops), 2009
本発明は、従来技術の、前に述べられた欠点を克服することを目的とする。より詳細には、それは、較正されるカメラの視野内の、較正パターンの不適切な位置設定に起因して破棄される較正画像の占有分を低減することを、さらに好ましくは、各々の有効な較正画像により抽出される有用な情報の量を最大化することを目的とする。
本発明によれば、この狙いは、スクリーン上に表示される、動的な、適応的な較正パターンを使用して較正を行うことにより達成される。「動的な」は、パターンが、紙のシート上に印刷される「静的な」パターンとは異なり、較正プロセスの間に変化することを意味する。「適応的な」は、コンピュータシステムが、較正されるカメラによりとられる較正パターンの画像を分析し、必要ならば、パターンを修正するようにスクリーンを駆動するということを意味する。例えばコンピュータシステムは、スクリーンがカメラから遠すぎると決定し、応答として、パターンを修正して、それを、(例えば、より大きな、および、より広く間隔を隔てられるパターン要素を使用して)より容易に検出されるようにし得る。または反対に、それは、スクリーンがカメラに非常に近いと決定し、較正アルゴリズムに提供される使用可能な情報の量を最大化するように、パターンを、それをより微細に、および、より高密度にすることにより変化させ得る。パターンが部分的に可視であるのみであるならば、一部の要素の外観は、それらが明らかに識別されることを可能とするように変化し得る。適応的なパターンの使用は、破棄されなければならない画像の占有分を低減し、したがって、較正をスピードアップし、プロセスを、ユーザにとって、より長々しくはなく、苛立たせないようにする。
本発明の目的は、次いで、カメラを較正するコンピュータ実装方法であって、
a.ビデオスクリーンに、較正パターンを表示させるステップと、
b.カメラから、前記較正パターンを備えるシーンのビデオストリームを取得するステップと、
c.修正された較正パターンを、取得されたビデオストリームに応じて決定し、スクリーンに、それを表示させるステップと
を備え、
前記ステップa.からc.は、複数回反復され、コンピュータ実装方法は、次いで、
d.カメラの内部較正パラメータを、取得されたビデオストリームを処理することにより推定するステップ
を備えるコンピュータ実装方法である。
そのような方法の個別の実施形態によれば、
− ステップc.は、
c1.前記ビデオストリームから、カメラと、較正パターンを表示するビデオスクリーンとの間の、推定された距離を決定するサブステップと、
c2.修正された較正パターンを、前記推定された距離に応じて決定するサブステップと
を備え得る。
− 較正パターンは、少なくとも要素サイズと、空間的周期とにより特徴付けられる、要素の周期的配置を備え得るものであり、前記要素サイズは、前記空間的周期より小さく、ステップc.は、
c3.前記較正パターンを反復して修正して、ビデオストリーム内のパターンの検出可能性の制約のもとで、前記空間的周期を最小化するステップ
を備え得る。
− 較正パターンは、要素の周期的配置により形成され、少なくとも要素サイズと、空間的周期とにより特徴付けられ得るものであり、ステップc.は、
c−i.前記ビデオストリームから、カメラと、較正パターンを表示するビデオスクリーンとの間の、推定された距離を決定するサブステップと、次いで、
推定された距離が、しきい値より大である場合、
c−iii.スクリーンに、最も大きな要素サイズと、最も大きな空間的周期とにより特徴付けられるパターンを表示するようにさせるサブステップと、
c−iv.スクリーンに、減少する要素サイズおよび空間的周期のパターンを、それらの1つが検出可能でなくなるまで、連続的に表示させるサブステップと、
推定された距離が、しきい値より低い場合、
c−v.スクリーンに、最も小さな要素サイズと、最も小さな空間的周期とにより特徴付けられるパターンを表示させるサブステップと、
c−vi.前記パターンが検出可能であるかどうかをチェックするサブステップと、
c−vii.検出可能でない場合、スクリーンに、増大する要素サイズおよび空間的周期のパターンを、それらの1つが検出可能になるまで、連続的に表示させるサブステップと
を備え得る。
− カメラと、較正パターンを表示するビデオスクリーンとの間の、前記推定された距離は、ビデオシーケンス内の較正パターンのエリアを計算し、推定された距離を前記エリアから推論することにより決定され得る。
− 方法は、較正パターンの画像がビデオストリーム内で検出可能であるかどうかを決定し、検出可能でない場合、スクリーンに、較正パターンとは異なり、較正パターンより容易に検出可能な、特定のパターンを表示させるステップをさらに備え得る。
− 方法は、較正パターンの部分のみがビデオストリーム内で可視であるかどうかを決定し、この場合、前記パターンを、独特の外観を有する複数のパターン要素を導入することにより修正するステップをさらに備え得る。
− 方法は、補助スクリーンに、取得されたビデオストリームを表示させるステップをさらに備え得る。
本発明の別の目的は、コンピュータシステムに、そのような方法を実行させるための、コンピュータ実行可能命令を備えるコンピュータ可読データ記憶媒体上に記憶されるコンピュータプログラム製品である。
本発明の別の目的は、コンピュータシステムに、そのような方法を実行させるための、コンピュータ実行可能命令を含むコンピュータ可読データ記憶媒体である。
本発明のさらに別の目的は、メモリと、グラフィカルユーザインターフェイスとに結合されるプロセッサを備えるコンピュータシステムであって、メモリは、コンピュータシステムに、そのような方法を実行させるための、コンピュータ実行可能命令を記憶するコンピュータシステムである。
本発明の追加的な特徴部および利点は、添付の図面と関連した後続の説明から明らかとなろう。
従来技術から知られている較正パターンを示す図である。 本発明の実施形態による方法の実装形態を示す図である。 較正されるカメラにより取得され、カメラから中間距離での較正パターンを示す画像を示す図である。 較正されるカメラにより取得され、カメラに近い較正パターンを、その修正の前に示す画像を示す図である。 較正されるカメラにより取得され、カメラに近い較正パターンを、その修正の後に示す画像を示す図である。 較正されるカメラにより取得され、カメラから遠い較正パターンを、その修正の前に示す画像を示す図である。 較正されるカメラにより取得され、カメラから遠い較正パターンを、その修正の後に示す画像を示す図である。 較正されるカメラにより取得され、部分的に可視であるのみである較正パターンを示す画像を示す図であり、一部のパターン要素は独特に識別される。 本発明の実施形態による方法を実行するのに適したコンピュータシステムのブロック図である。
図1は、白背景上の黒ディスクの規則的配列により形成される較正パターン1000を示す。他のパターン、例えば、市松模様または格子が、本発明を実行するために使用され得るが、このものは、それが、最良の精度を最小限の数のポーズによって提供するので、特に有利であることが判明しており、非特許文献4を確認されたい。このパターンは、液晶ディスプレイなどのスクリーン100により表示される。
図2は、発明的な較正方法を実行するためにプログラムされるコンピュータ103に接続される、較正されるカメラ101を示す。カメラ101は典型的には、標準的なRGB(赤−緑−青)カメラであるが、それはさらには、例えばRGB深度カメラであり得る。カメラ101は、画像の系列を取得し、それらをデジタルビデオストリームに変換する。次いでコンピュータ103は、ビデオストリームをカメラから取得する。
コンピュータ103は、カメラにより生成されるビデオフローを表示する、モニタまたは補助スクリーン102を伴って提供されるものであり、これは、発明的な方法を実行するために絶対的に必要であるわけではないが、強く好まれる。動的および適応的な較正パターンを表示するために使用されるスクリーン100は、タブレットコンピュータなどのハンドヘルドデバイス104の部分である。ユーザは、このハンドヘルドデバイスを携行し、それを、カメラ101の視野の中で、モニタ102により提供される視覚フィードバックにより援助されて動かす。コンピュータ103は、画像の系列を、カメラ101により生成されるビデオストリームから抽出し、それらを較正アルゴリズムに給送する。この抽出は、自動的にコンピュータにより、例えば固定された時間に行われ得るものであり、または、ユーザにより、例えば、コンピュータ103に接続されるキーボードのキーを押すことによりトリガされ得る。さらにコンピュータ103は、ハンドヘルドデバイス104のスクリーン100によるパターン1000の表示を制御する。言い換えれば、コンピュータ103は「マスタ」として動作し、デバイス104は「スレーブ」として動作する。
代替として、較正パターンを表示するスクリーン100が固定され、カメラが、コンピュータにワイヤレス通信リンクを介して接続されたままでありながら、あちこちに動かされることがある。さらには、スクリーン100を担持するデバイス104がマスタであり、コンピュータ103がスレーブであることがあり、または、両方のデバイスが、別のコンピュータにスレーブとして連結されることがある。コンピュータ103により直接駆動されるスクリーン100を使用することも可能である。
本発明の、後に続く説明では、ハンドヘルドスレーブデバイス104により担持されるスクリーン100、および、固定されたカメラ101の場合のみが考えられるが、代替的実施形態への一般化は、わかりやすいものである。
図3は、カメラ101により取得され、モニタ102上に表示され、スレーブデバイス104であって、そのスクリーン100が図1の較正パターン1000を表示する、スレーブデバイス104を保持するユーザを示す、画像を表す。スクリーン100は、「中間」とみなされ得る距離で保持され、パターンは、完全に可視であり、視野の相当量の分を占め、その要素は明確に区別可能である。画像は、較正アルゴリズムにより使用されるのに適している。どの距離が「中間」とみなされ得るかは、考慮される特定のカメラに依存する。
図4Aは、スクリーン100が、カメラのより近くに動かされている同様のシーンを示す。パターン1000は、完全には可視でなく(その隅部で位置設定される一部の要素は、カメラの視野の外側である)、その要素は、不必要に大きく、広く間隔を隔てられ、そのことは、較正アルゴリズムによる計算時間の浪費を結果として生じさせる。マスタコンピュータ103は、この準最適な状況を検出し、応答としてそれは、コマンドをスレーブデバイスに送信して、それを、短いスクリーン−カメラ距離に適応するように較正パターンを修正するようにする。結果が、図4B上で示されている。修正されたパターン1001は、より短い空間的周期(すなわち、間隔)を伴う、はるかに大である数の、はるかに小さな要素(ドット)を備える。より小さいにもかかわらず、要素は容易に検出可能なままであり、それらのより大きな数が、追加的な情報を較正アルゴリズムに提供し、パターンの隅部でのそれらの一部の損失を、はるかに、不利益にならないようにする。
パターンがカメラに非常に接近しており、大きな数の要素が視野の外側であるとき、較正アルゴリズムは、その原点(パターンの点であって、それに関して、すべてのその要素の位置が規定される、パターンの点)を識別することができなくなる。画像は次いで、使用不可能である。この場合パターンは、独特の外観と、原点に関する既知の位置とを有する、複数のパターン要素を導入することにより修正され得る。これらの要素が画像上で可視であるならば、それらは、パターン原点の場所を突き止め、したがって、画像を較正に対して使用することを可能とする。図6は、参照番号21、22、23、および24により識別される、これらの「独自の」要素の3つを備える、修正されたパターン1003を示す。例ではこれらの要素は、三角形、正方形、五角形、および星形状を有するフレームによりマークを付けられるが、他の代替案が存在する。例えばこれらの要素は、動的な外観、例えば、変化する色もしくはサイズを有し得るものであり、または、それらは明滅し得る。
図5Aは、スクリーン100が、カメラから遠く離れて動かされている、反対の状況を示す。パターン1000の要素は、小さすぎるように、および、互いに接近しすぎているように見え、結果として、パターンは容易には検出されず、取得される画像は、較正に対して使用不可能であり得る。コンピュータ103は、この準最適な状況を検出し、応答として、コマンドをスレーブデバイスに送信して、それを、短いスクリーン−カメラ距離に適応するように較正パターンを修正するようにする。結果が、図5B上で示されている。修正されたパターン1002は、より長い空間的周期(すなわち、間隔)を伴う、より小さな数の、より大きな要素(ドット)を備える。要素はより大きいので、より容易に検出可能であり、低減された量の情報を提供するとしても、画像を較正に使用可能にする。
本発明の例示的な実施形態による方法は、以下のステップを備える。
− ユーザは、マスタコンピュータ103上で走らされるマスタプログラム、および、スレーブデバイス104上で走らされるスレーブプログラムを起動する。マスタプログラムは、カメラ101を駆動し、ビデオフローを取得し、画像を抽出し、パターンを従来型の画像処理アルゴリズムを使用して検出し、コマンドをスレーブデバイスに送信して、必要なときに、スクリーン100上に表示されるパターンを修正する。スレーブデバイスは、これらのコマンドを受信するようにプログラムされ、スクリーン100を駆動して、要求されるパターンを表示する。各々のコマンドは、表示されるパターンを含む画像ファイル、または、スレーブデバイスのメモリ要素内に記憶されるパターンのセットの中で選定される較正パターンの識別子、または、「テンプレート」パターンを(例えば、ズームインまたはズームアウトすることにより)修正するための命令を備え得る。
− ハンドシェイクが、マスタとスレーブとの間で、それらの間の通信チャネルを確立するために行われる。この通信は、(マスタからスレーブへの)一方向性、または双方向性、有線またはワイヤレスであり、他のものとともに、Wi−Fi、Bluetooth(登録商標)、データオーバサウンド(data over sound)、または、Li−Fiとしても知られているデータオーバライト(data over light)を活かすものであり得る。
− 較正パターン1000が、スレーブデバイスのスクリーン100上に表示される。
− カメラ101は、パターンを含む画像のフローを取得することを開始する。ビデオフローは、視覚フィードバックをユーザに提供するために、補助スクリーン102上に表示される。
− マスタコンピュータは、パターンの位置を、スクリーン空間座標(画素)で検出する。次いでそれは、検出されたパターンの、二乗された画素での近似的なエリアを計算して、その距離を推定する(カメラ101がRGB深度カメラであるならば、距離測定は直接利用可能であり得る)。推定された距離が、第1のしきい値より低いならば、パターンはカメラの「近く」にあるとみなされ、第1のコマンドがスレーブデバイスに送信され、推定された距離が、第2のしきい値より高いならば、パターンはカメラから「遠い」とみなされ、第2のコマンドがスレーブデバイスに送信され、それ以外の場合、パターンはカメラから「中間」距離とみなされ、第3のコマンドがスレーブデバイスに送信される。
− スレーブデバイスが、そのスクリーン100がカメラに近いことを指示する第1のコマンドを受信するならば、それは、そのスクリーンに、最も微細な可能なパターン、すなわち、最も小さな特徴部と、最も小さな空間的周期とを伴うものを表示させる。マスタコンピュータ103上で走るマスタプログラムは、ビデオストリームを分析して、パターンが検出可能であるかどうかを決定し、検出可能でないならば、それは、より粗いパターン、すなわち、より大きな特徴部と空間的周期とを伴うものが表示されなければならないことを指示するコマンドを、スレーブに送信する。言い換えると、スレーブデバイスは、より粗いパターンを、マスタコンピュータがそれらの1つを検出することができるまで、連続的に示す。最後のパターンの画像が、次いで、較正のために保存される。言い換えると、パターン適応は、反復して実行される。
− 逆に、スレーブデバイスが、そのスクリーン100がカメラから遠いことを指示する第2のコマンドを受信するならば、それは、そのスクリーンに、最も粗い可能なパターン、すなわち、最も大きな特徴部と、最も大きな空間的周期とを伴うものを表示させる。マスタコンピュータ103上で走るマスタプログラムは、ビデオストリームを分析して、パターンが検出可能であるかどうかを決定し、イエスならば、それは、より微細なパターン、すなわち、より小さな特徴部と空間的周期とを伴うものが表示されてよいことを指示するコマンドを、スレーブに送信する。言い換えると、スレーブデバイスは、より微細なパターンを、マスタデバイスがそれらの1つを検出することに失敗するまで、連続的に示す。最後の正しく検出されたパターンの画像が、次いで、較正のために保存される。以前に考えられた場合のように、パターン適応は、反復して実行される。
− スレーブデバイスが、第3のコマンドを受信するならば、パターンは変化されない。
− さらにマスタコンピュータは、ビデオストリームを分析することにより、パターンは、その原点が決定され得ないという程度に、完全には可視でないと決定し得る。この場合それは、特定のコマンドをスレーブデバイスに送信し、そのスレーブデバイスは、パターンの一部の要素の外観を、図6への参照で、上記で解説されたように修正する。
− 較正に適した較正パターンの画像が取得された各々の時間、ユーザは、例えば、補助スクリーン、または、スレーブデバイスの振動によって通知される。次いでユーザは、較正パターンを表示するスクリーン100の位置を変化させる。
− 十分なデータが収集されたとき(すなわち、収集されたデータの量が、あらかじめ決定された精度レベルを伴う較正を行うのに十分であるとき)、マスタコンピュータは、カメラ較正パラメータを、例えばZhangのアルゴリズムを使用して計算する。有利にはレンズ歪みが、全体的な画像空間を満たすのに十分にパターンがカメラに接近しているときに、画像を捕らえることにより、別々に推定され得る。パターンは次いで、それが、可能な限り規則的に見えるように、補助スクリーンの軸と位置合わせされるように調整され得る。
マスタコンピュータは、パターンをビデオストリーム内で、例えばそれが、カメラに対して遠すぎる、もしくは接近しすぎる、または、単純にカメラ視界から外れているので、検出することができないということが起こり得る。検出をより容易にするために、後に続くように続行することが可能である。
− パターンが見出されないならば、マスタコンピュータは、コマンドをスレーブに送信して、パターンを修正する。
− パターンは次いで、「高検出可能性モード」に変化する。
− パターンがそれでもなお、このモードで検出されないならば、ユーザは、パターンを、それが、検出される状態になるまで、低速で動かすことを開始するように勧められる。
「高検出可能性」パターンは、単純に、較正プログラムによる検出を容易にするために、全体のスクリーンを白に変えること、もしくは、黒と白との間で明滅させること(2つの連続的なフレームの間の単純な差)、または、例えば、明滅する、もしくはしない、スクリーンの隅部での3つの正方形を備える、単純な幾何学的パターンにあり得る。
個別の実施形態では、スレーブデバイス104は、デバイスの向きの測定を可能とする、ジャイロスコープ、加速度計、磁気コンパスなどのセンサを伴って提供され得る。測定結果は、パターンの位置のみが、計算されることを必要とすることになるように、較正の精度を改善するために、マスタコンピュータに通信され得る。
スレーブデバイスは、それ自体のカメラを有し得るものであり、それがすでに較正されているならば、画像処理(例えば、拡張現実マーカの追跡)を使用して、較正データを、その位置および向きによって質的に向上させ得る。
度々カメラは、全体的な較正プロセスの間、変化されないままであることを要求される(自動焦点なし、自動的な明るさ調整なし)。マスタコンピュータは次いで、スレーブデバイスに、パターンを、現在の照明条件に適応するように、より明るく、またはより暗くし、その検出を容易にするためのコマンドを送信し得る。
上記で述べられているように、同じコンピュータが、「マスタ」および「スレーブ」の両方としてサービングすることがあり、その場合、スクリーン100および102、ならびにカメラ101は単純に、このコンピュータの周辺デバイスである。そのような手法の利点は、ハンドシェイキングが必要でないということである。
本発明の例示的な実施形態による方法を実行するのに適したマスタコンピュータ103の内部的な構造が、図7への参照によって説明される。図7ではコンピュータ103は、上記で説明されたプロセスを行う中央処理装置(CPU)Pを含む。プロセスは、実行可能プログラム、すなわち、コンピュータ可読命令のセットとして、RAM M1もしくはROM M2などのメモリ内に、もしくは、ハードディスク駆動装置(HDD)M3、DVD/CD駆動装置M4上に記憶され得るものであり、または、遠隔で記憶され得る。複数の較正パターン(図1〜6上の1000、1001、1002、1003)、または、単一の「マスタ」パターンであって、それから、例えば異なる空間的分解能の、異なる較正パターンが獲得され得る、単一の「マスタ」パターンを規定するデータは、メモリデバイスM1からM4の1つまたは複数上に、または遠隔で記憶される。
請求項に記載の発明は、コンピュータ可読命令、および/または、較正パターンが記憶される、コンピュータ可読媒体の形式により制限されない。例えば、それらは、CD、DVD上に、FLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、または、サーバもしくはコンピュータなどの、コンピュータ支援設計ステーションが通信する任意の他の情報処理デバイス内に記憶され得る。プログラム、および較正パターンは、同じメモリデバイス上に、または、異なるメモリデバイス上に記憶され得る。
さらに、発明的な方法を実行するのに適したコンピュータプログラムは、CPU800、および、Microsoft VISTA(登録商標)、Microsoft Windows(登録商標)7、UNIX(登録商標)、Solaris、LINUX(登録商標)、Apple MAC−OSなどのオペレーティングシステム、および、当業者に知られている他のシステムと関連して実行する、ユーティリティアプリケーション、バックグラウンドデーモン、または、オペレーティングシステムのコンポーネント、または、それらの組合せとして提供され得る。
CPU Pは、アメリカのIntelのXenonプロセッサ、もしくは、アメリカのAMDのOpteronプロセッサであり得るものであり、または、アメリカのFreescale CorporationのFreescale ColdFire、IMX、もしくはARMプロセッサなどの、他のプロセッサタイプであり得る。代替としてCPUは、アメリカのIntel CorporationのCore2 Duoなどのプロセッサであり得るものであり、または、当業者が認識することになるように、FPGA、ASIC、PLD上で、もしくは、ディスクリート論理回路を使用して実装され得る。さらにCPUは、上記で説明された発明的なプロセスのコンピュータ可読命令を行うために協働的に作動する、複数個のプロセッサとして実装され得る。
図7でのコンピュータ支援設計ステーションはさらには、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、および同様のものなどのネットワークとインターフェイス接続するための、アメリカのIntel CorporationのIntel Ethernet PROネットワークインターフェイスカードなどの、ネットワークインターフェイスNIを含む。ここで考えられる特定の実施形態では、較正パターンを表示するために使用されるスクリーン100との通信は、ネットワークを介して行われる。
コンピュータ支援設計ステーションは、Hewlett Packard HPL2445w LCDモニタなどの、補助スクリーンまたはディスプレイ102とインターフェイス接続するための、アメリカのNVIDIA CorporationのNVIDIA GeForce GTXグラフィックスアダプタなどの、ディスプレイコントローラDCをさらに含む。汎用入出力インターフェイスIFは、キーボードKB、ならびに、ローラボール、マウス、タッチパッド、および同様のものなどのポインティングデバイスPDとインターフェイス接続する。ディスプレイ、キーボード、およびポインティングデバイスは、ディスプレイコントローラおよび入出力インターフェイスとともに、グラフィカルユーザインターフェイスを形成する。すべてのこれらのコンポーネントは、ISA、EISA、VESA、PCI、または同様のものであり得る通信バスCBSを介して、互いに接続される。さらに、較正されるカメラCAMがさらには、ビデオストリームをCPU Pに提供するために、バスCBSに接続され、そのCPU Pは、上記で解説されたようにそれを処理する。
ディスプレイ、キーボード、ポインティングデバイス、ならびに、ディスプレイコントローラ、ディスクコントローラ、ネットワークインターフェイス、および入出力インターフェイスの、一般的な特徴部および機能性の説明は、これらの特徴部は知られているので、本明細書では簡潔さのために省略されている。

Claims (11)

  1. カメラを較正するコンピュータ実装方法であって、
    a.ビデオスクリーン(100)に、較正パターン(1000)を表示させるステップと、
    b.前記カメラ(101)から、前記ビデオスクリーン上に表示される前記較正パターンを備えるシーンのビデオストリームを取得するステップと、
    c.前記較正パターン(1001、1002、1003)を、前記取得されたビデオストリームに応じて修正し、前記スクリーンに、前記修正された較正パターンを表示させるステップと
    を備え、
    前記ステップa.からc.は、複数回反復され、前記コンピュータ実装方法は、次いで、
    d.十分な日付が収集されたとき、前記カメラの内部較正パラメータを、前記取得されたビデオストリームを処理することにより推定するステップ
    を備えることを特徴とするコンピュータ実装方法。
  2. ステップc.は、
    c1.前記ビデオストリームから、前記カメラと、前記較正パターンを表示する前記ビデオスクリーンとの間の、推定された距離を決定するサブステップと、
    c2.前記較正パターンを、前記推定された距離に応じて修正するサブステップと
    を備えることを特徴とする請求項1に記載のコンピュータ実装方法。
  3. 前記較正パターンは、少なくとも要素サイズと、空間的周期とにより特徴付けられる、要素の周期的配置を備え、前記要素サイズは、前記空間的周期より小さく、ステップc.は、
    c3.前記較正パターンを反復して修正して、前記ビデオストリーム内の前記パターンの検出可能性の制約のもとで、前記空間的周期を最小化するステップ
    を備えることを特徴とする請求項1または2に記載のコンピュータ実装方法。
  4. 較正パターンは、要素の周期的配置により形成され、少なくとも要素サイズと、空間的周期とにより特徴付けられ、ステップc.は、
    c−i.前記ビデオストリームから、前記カメラと、前記較正パターンを表示する前記ビデオスクリーンとの間の、推定された距離を決定するサブステップと、次いで、
    前記推定された距離が、しきい値より大である場合、
    c−iii.前記スクリーン(100)に、最も大きな要素サイズと、最も大きな空間的周期とにより特徴付けられるパターン(1002)を表示させるサブステップと、
    c−iv.前記スクリーン(100)に、減少する要素サイズおよび空間的周期のパターン(1001)を、それらの1つが検出可能でなくなるまで、連続的に表示させるサブステップと、
    前記推定された距離が、しきい値より低い場合、
    c−v.前記スクリーン(100)に、最も小さな要素サイズと、最も小さな空間的周期とにより特徴付けられるパターン(1001)を表示させるサブステップと、
    c−vi.前記パターンが検出可能であるかどうかをチェックするサブステップと、
    c−vii.検出可能でない場合、前記スクリーン(100)に、増大する要素サイズおよび空間的周期のパターンを、それらの1つが検出可能になるまで、連続的に表示させるサブステップと
    を備えることを特徴とする請求項1に記載のコンピュータ実装方法。
  5. 前記カメラと、前記較正パターンを表示する前記ビデオスクリーンとの間の、前記推定された距離は、ビデオシーケンス内の前記較正パターンのエリアを計算し、前記推定された距離を前記エリアから推論することにより決定されることを特徴とする請求項2または4に記載のコンピュータ実装方法。
  6. 前記較正パターンの画像が前記ビデオストリーム内で検出可能であるかどうかを決定し、検出可能でない場合、前記スクリーン(100)に、較正パターンとは異なり、較正パターンより容易に検出可能な、特定のパターンを表示させるステップをさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載のコンピュータ実装方法。
  7. 前記較正パターンの部分のみが前記ビデオストリーム内で可視であるかどうかを決定し、この場合、前記パターンを、独特の外観を有する複数のパターン要素(21、22、23、24)を導入することにより修正するステップをさらに備えることを特徴とする請求項1乃至6のいずれか一項に記載のコンピュータ実装方法。
  8. 補助スクリーン(102)に、前記取得されたビデオストリームを表示させるステップをさらに備えることを特徴とする請求項1乃至7のいずれか一項に記載のコンピュータ実装方法。
  9. コンピュータシステム(103)に、請求項1乃至8のいずれか一項に記載の方法を実行させるための、コンピュータ実行可能命令を備えるコンピュータ可読データ記憶媒体(M1、M2、M3、M4)上に記憶されることを特徴とするコンピュータプログラム製品。
  10. コンピュータシステム(103)に、請求項1乃至8のいずれか一項に記載の方法を実行させるための、コンピュータ実行可能命令を含むことを特徴とするコンピュータ可読データ記憶媒体(M1、M2、M3、M4)。
  11. メモリ(M1、M2、M3、M4)と、グラフィカルユーザインターフェイス(IF、KB、PD、DC、102)とに結合されるプロセッサ(P)を備えるコンピュータシステム(103)であって、前記メモリは、前記コンピュータシステムに、請求項1乃至8のいずれか一項に記載の方法を実行させるための、コンピュータ実行可能命令を記憶することを特徴とするコンピュータシステム(103)。
JP2017126753A 2016-06-28 2017-06-28 動的なカメラ較正 Active JP7292000B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305778.9 2016-06-28
EP16305778.9A EP3264360A1 (en) 2016-06-28 2016-06-28 Dynamical camera calibration

Publications (3)

Publication Number Publication Date
JP2018007254A true JP2018007254A (ja) 2018-01-11
JP2018007254A5 JP2018007254A5 (ja) 2020-08-06
JP7292000B2 JP7292000B2 (ja) 2023-06-16

Family

ID=57130306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017126753A Active JP7292000B2 (ja) 2016-06-28 2017-06-28 動的なカメラ較正

Country Status (4)

Country Link
US (2) US10453218B2 (ja)
EP (1) EP3264360A1 (ja)
JP (1) JP7292000B2 (ja)
CN (1) CN107545592B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3387372B1 (en) * 2015-12-08 2023-12-13 Dental Imaging Technologies Corporation 3-d scanner calibration with active display target device
CN109154495B (zh) * 2016-05-24 2021-10-29 伊利诺斯工具制品有限公司 三维校准工具和方法
EP3264359A1 (en) 2016-06-28 2018-01-03 Dassault Systèmes A computer-implemented method of calibrating a camera
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
GB2572956B (en) * 2018-04-16 2021-09-08 Sony Interactive Entertainment Inc Calibration system and method
JP6921036B2 (ja) * 2018-05-28 2021-08-18 三菱電機株式会社 レーザ較正装置、その較正方法、及びレーザ較正装置を含む画像入力装置
EP3826290A4 (en) 2018-07-17 2021-08-25 Sony Group Corporation HEAD MOUNTED DISPLAY AND CONTROL METHODS FOR A HEAD MOUNTED DISPLAY, INFORMATION PROCESSING DEVICE, DISPLAY DEVICE AND PROGRAM
CN111091499B (zh) * 2018-10-24 2023-05-23 方正国际软件(北京)有限公司 一种移动终端图像修正的方法及装置
TWI680436B (zh) * 2018-12-07 2019-12-21 財團法人工業技術研究院 深度相機校正裝置及其方法
US10898329B2 (en) * 2019-01-25 2021-01-26 Edwards Lifesciences Corporation Testing apparatus for prosthetic device
WO2021134219A1 (zh) * 2019-12-30 2021-07-08 华为技术有限公司 参数标定方法及装置
CN113452988B (zh) * 2021-06-10 2023-03-10 江西晶浩光学有限公司 标靶、基于标靶的三维摄像模组检测系统及检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004340753A (ja) * 2003-05-15 2004-12-02 Topcon Corp キャリブレーションチャート画像表示装置
JP2008046687A (ja) * 2006-08-10 2008-02-28 Canon Inc 撮影環境校正方法及び情報処理装置
JP2015201707A (ja) * 2014-04-07 2015-11-12 日本放送協会 ディスプレイ表示パターン生成装置及びそのプログラム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850472A (en) * 1995-09-22 1998-12-15 Color And Appearance Technology, Inc. Colorimetric imaging system for measuring color and appearance
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
US6527395B1 (en) * 2001-12-10 2003-03-04 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating a projector with a camera
JP4147059B2 (ja) * 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP4191449B2 (ja) * 2002-09-19 2008-12-03 株式会社トプコン 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US20060023066A1 (en) * 2004-07-27 2006-02-02 Microsoft Corporation System and Method for Client Services for Interactive Multi-View Video
US7554575B2 (en) * 2005-10-28 2009-06-30 Seiko Epson Corporation Fast imaging system calibration
NO330155B1 (no) * 2006-02-28 2011-02-28 3D Perception As Fremgangsmate og anordning til bruk ved kalibrering av en projektors bildevisning mot en fremviserskjerm, og fremviserskjerm til slik bruk.
JP4926817B2 (ja) * 2006-08-11 2012-05-09 キヤノン株式会社 指標配置情報計測装置および方法
EP2121956B1 (en) * 2006-12-21 2016-08-17 Gen-Probe Incorporated Methods and compositions for nucleic acid amplification
CN101419705B (zh) * 2007-10-24 2011-01-05 华为终端有限公司 摄像机标定的方法及装置
US8106968B1 (en) * 2008-02-20 2012-01-31 Cognitech, Inc. System and method for pattern detection and camera calibration
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
WO2009141998A1 (ja) * 2008-05-19 2009-11-26 パナソニック株式会社 キャリブレーション方法、キャリブレーション装置及びその装置を備えるキャリブレーションシステム
US8355601B2 (en) * 2010-01-15 2013-01-15 Seiko Epson Corporation Real-time geometry aware projection and fast re-calibration
US8368762B1 (en) * 2010-04-12 2013-02-05 Adobe Systems Incorporated Methods and apparatus for camera calibration based on multiview image geometry
US9412164B2 (en) * 2010-05-25 2016-08-09 Hewlett-Packard Development Company, L.P. Apparatus and methods for imaging system calibration
US8970672B2 (en) * 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
GB2483431A (en) * 2010-08-27 2012-03-14 Sony Corp A Method and Apparatus for Determining the Movement of an Optical Axis
US9621823B2 (en) * 2010-09-16 2017-04-11 Honeywell International Inc. Thermal camera calibration
US8872897B2 (en) * 2011-05-11 2014-10-28 Intel Corporation Camera calibration using an easily produced 3D calibration pattern
US8743214B2 (en) * 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
US9357206B2 (en) * 2011-05-25 2016-05-31 Third Dimension Ip Llc Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
EP2734912A1 (en) * 2011-07-18 2014-05-28 MultiTouch Oy Correction of touch screen camera geometry
US9438897B2 (en) * 2011-07-25 2016-09-06 Universidade De Coimbra Method and apparatus for automatic camera calibration using one or more images of a checkerboard pattern
IL216515A (en) * 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
US8619144B1 (en) 2012-03-14 2013-12-31 Rawles Llc Automatic camera calibration
US8662676B1 (en) * 2012-03-14 2014-03-04 Rawles Llc Automatic projector calibration
US9338447B1 (en) * 2012-03-14 2016-05-10 Amazon Technologies, Inc. Calibrating devices by selecting images having a target having fiducial features
US8698901B2 (en) * 2012-04-19 2014-04-15 Hewlett-Packard Development Company, L.P. Automatic calibration
CN105453131B (zh) * 2012-04-27 2019-04-12 奥多比公司 图像的自动调整
US9410827B2 (en) * 2012-10-09 2016-08-09 Pixameter Corp. Measurement using a calibration pattern
US20140211018A1 (en) * 2013-01-29 2014-07-31 Hewlett-Packard Development Company, L.P. Device configuration with machine-readable identifiers
US8866912B2 (en) * 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9417689B1 (en) * 2013-05-17 2016-08-16 Amazon Technologies, Inc. Robust device motion detection
US9319666B1 (en) * 2013-06-03 2016-04-19 The Mathworks, Inc. Detecting control points for camera calibration
US9210417B2 (en) * 2013-07-17 2015-12-08 Microsoft Technology Licensing, Llc Real-time registration of a stereo depth camera array
US9282326B2 (en) * 2013-10-28 2016-03-08 The Regents Of The University Of Michigan Interactive camera calibration tool
KR102170182B1 (ko) * 2014-04-17 2020-10-26 한국전자통신연구원 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법
US9892514B2 (en) * 2014-10-10 2018-02-13 Facebook, Inc. Post-manufacture camera calibration
US10080004B2 (en) * 2014-11-06 2018-09-18 Disney Enterprises, Inc. Method and system for projector calibration
WO2016087915A2 (en) 2014-12-05 2016-06-09 Mantisvision Ltd. Markers in 3d data capture
US9940717B2 (en) * 2014-12-23 2018-04-10 Intel Corporation Method and system of geometric camera self-calibration quality assessment
KR102415501B1 (ko) * 2015-08-07 2022-07-01 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 추정 방법 및 그 방법을 이용한 3차원 디스플레이 장치
US20170053405A1 (en) 2015-08-21 2017-02-23 Samsung Electronics Co., Ltd. Method and system for calibration of a medical imaging system
US9489735B1 (en) * 2015-09-17 2016-11-08 Qualcomm Incorporated Multiplexed temporal calibration for event-based cameras
US10176554B2 (en) * 2015-10-05 2019-01-08 Google Llc Camera calibration using synthetic images
US10445898B2 (en) 2016-02-05 2019-10-15 Sony Corporation System and method for camera calibration by use of rotatable three-dimensional calibration object
CA2961921C (en) * 2016-03-29 2020-05-12 Institut National D'optique Camera calibration method using a calibration target
EP3264359A1 (en) 2016-06-28 2018-01-03 Dassault Systèmes A computer-implemented method of calibrating a camera
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
JP6735615B2 (ja) * 2016-06-29 2020-08-05 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US10593064B2 (en) * 2017-03-31 2020-03-17 Intel Corporation Dynamic depth camera system calibration using mobile dispay device
EP3747351B1 (en) * 2018-03-01 2022-07-06 JVCKenwood Corporation Visual function detection device, visual function detection method, and program
US10269141B1 (en) * 2018-06-04 2019-04-23 Waymo Llc Multistage camera calibration
ES2941712T3 (es) * 2018-06-21 2023-05-25 Mahle Aftermarket Italy S R L Sistema y método de calibración de un sensor óptico montado a bordo de un vehículo
US10735716B2 (en) * 2018-12-04 2020-08-04 Ford Global Technologies, Llc Vehicle sensor calibration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004340753A (ja) * 2003-05-15 2004-12-02 Topcon Corp キャリブレーションチャート画像表示装置
JP2008046687A (ja) * 2006-08-10 2008-02-28 Canon Inc 撮影環境校正方法及び情報処理装置
JP2015201707A (ja) * 2014-04-07 2015-11-12 日本放送協会 ディスプレイ表示パターン生成装置及びそのプログラム

Also Published As

Publication number Publication date
US10453218B2 (en) 2019-10-22
CN107545592A (zh) 2018-01-05
EP3264360A1 (en) 2018-01-03
CN107545592B (zh) 2024-01-02
US11238613B2 (en) 2022-02-01
US20170372492A1 (en) 2017-12-28
JP7292000B2 (ja) 2023-06-16
US20200005491A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7292000B2 (ja) 動的なカメラ較正
JP7195728B2 (ja) カメラを較正するコンピュータ実装方法
US9172931B2 (en) Projection display device, information processing device, projection display system, and program
US20140267427A1 (en) Projector, method of controlling projector, and program thereof
JP7031697B2 (ja) 情報処理装置および認識支援方法
CN108965839B (zh) 一种自动调整投影画面的方法及装置
WO2018111915A1 (en) Foot measuring and sizing application
US20230038674A1 (en) Arrangement for generating head related transfer function filters
EP3200451B1 (en) Projector optimization method and system
KR101769177B1 (ko) 시선 추적 장치 및 방법
CN107454371B (zh) 投影区域的适配方法、装置及系统
CN106604005A (zh) 一种投影电视自动对焦方法及系统
JP5538573B2 (ja) 画像自動補正のための構図に基づく露出測定方法及び装置
CN106454294A (zh) 投影机画面校正方法及投影机
JP2017212638A (ja) 表示装置、表示装置の制御方法、及びプログラム
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
JP6412372B2 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラム
KR20210073639A (ko) 영상 분석 장치 및 영상 분석 방법
WO2019043734A1 (en) SYSTEM AND METHOD FOR GENERATING A VIRTUAL 360 DEGREE VIEW OF A CLOTHING
KR101539038B1 (ko) 복수의 깊이 카메라로부터 취득한 깊이 맵의 홀 필링 방법
JP5004099B2 (ja) カーソル移動制御方法及びカーソル移動制御装置
JP6075624B2 (ja) 位置情報取得装置及び画像表示システム
KR20100081099A (ko) 아웃 포커싱 장치 및 방법
JP2016091193A (ja) 画像処理装置、画像処理方法およびプログラム
US20220301204A1 (en) Viewing distance estimation method, viewing distance estimation device, and non-transitory computer-readable recording medium recording viewing distance estimation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7292000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150