JP2022102058A - 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム - Google Patents

位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム Download PDF

Info

Publication number
JP2022102058A
JP2022102058A JP2020216570A JP2020216570A JP2022102058A JP 2022102058 A JP2022102058 A JP 2022102058A JP 2020216570 A JP2020216570 A JP 2020216570A JP 2020216570 A JP2020216570 A JP 2020216570A JP 2022102058 A JP2022102058 A JP 2022102058A
Authority
JP
Japan
Prior art keywords
coordinates
projector
coordinate system
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020216570A
Other languages
English (en)
Inventor
泰介 山内
Taisuke Yamauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020216570A priority Critical patent/JP2022102058A/ja
Priority to US17/561,040 priority patent/US11856340B2/en
Priority to CN202111602998.9A priority patent/CN114693772A/zh
Publication of JP2022102058A publication Critical patent/JP2022102058A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】プロジェクターと、カメラ等の計測器とが、任意の位置に配置されても、対象物に所定の画像を投写することを支援可能な技術を提供する。【解決手段】位置特定方法は、特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記特定点が位置する部分の3次元の第1座標と、前記特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す関係情報を生成し、前記関係情報を用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記3次元座標系における位置を特定する、ことを含む。【選択図】図17

Description

本発明は、位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステムに関する。
特許文献1は、プロジェクターとカメラとのペアを用いることによって対象物に所定の画像を投写するシステムを開示する。このシステムでは、プロジェクターとカメラとの位置関係が予め決められている。
米国特許出願公開第2016/0343125号明細書
特許文献1に記載のシステムでは、プロジェクターとカメラとの位置関係が予め決められているため、プロジェクターと、カメラ等の計測器と、を任意の位置に配置できない虞がある。このため、プロジェクターと、カメラ等の計測器とが、任意の位置に配置されても対象物に所定の画像を投写することを支援できる技術が望まれる。
本発明に係る位置特定方法の一態様は、特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記特定点が位置する部分の3次元の第1座標と、前記特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す関係情報を生成し、前記関係情報を用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記3次元座標系における位置を特定する、ことを含む。
本発明に係るシミュレーション方法の一態様は、第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記第1特定点が位置する部分の3次元の第1座標と、前記第1特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1関係情報を生成し、前記対象物における第2特定点の前記3次元座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記3次元座標系と、前記仮想空間における座標を定める仮想空間座標系と、の対応関係を示す第2関係情報を生成し、前記第1関係情報と前記第2関係情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する、ことを含む。
本発明に係るシミュレーション方法の一態様は、第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物をカメラが撮影することによって生成される撮像画像において前記第1特定点が位置する部分の2次元の座標である撮像座標と、前記第1特定点の前記投写画像における2次元の座標である投写座標と、に基づいて、前記撮像座標を定めるカメラ座標系と、前記投写座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1情報を生成し、前記対象物における第2特定点の前記カメラ座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記カメラ座標系と、前記仮想空間における座標を示す仮想空間座標系と、の対応関係を示す第2情報を生成し、前記第1情報と前記第2情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する、ことを含む。
本発明に係る位置特定システムの一態様は、特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記特定点が位置する部分の3次元の第1座標と、前記特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す関係情報を生成する生成部と、前記関係情報を用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記3次元座標系における位置を特定する位置特定部と、を含む。
本発明に係るシミュレーションシステムの一態様は、第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記第1特定点が位置する部分の3次元の第1座標と、前記第1特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1関係情報を生成する第1生成部と、前記対象物における第2特定点の前記3次元座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記3次元座標系と、前記仮想空間における座標を定める仮想空間座標系と、の対応関係を示す第2関係情報を生成する第2生成部と、前記第1関係情報と前記第2関係情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する位置特定部と、を含む。
本発明に係るシミュレーションシステムの一態様は、第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物をカメラが撮影することによって生成される撮像画像において前記第1特定点が位置する部分の2次元の座標である撮像座標と、前記第1特定点の前記投写画像における2次元の座標である投写座標と、に基づいて、前記撮像座標を定めるカメラ座標系と、前記投写座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1情報を生成する第1生成部と、前記対象物における第2特定点の前記カメラ座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記カメラ座標系と、前記仮想空間における座標を示す仮想空間座標系と、の対応関係を示す第2情報を生成する第2生成部と、前記第1情報と前記第2情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する位置特定部と、を含む。
第1実施形態に係る投写システム1を示す図である。 変形画像G1の一例を示す図である。 変形画像G1の元になる元画像G2を示す図である。 元画像G2の変形の一例を示す図である。 変形画像G1の投写例を示す図である。 仮想空間d1における画像のシミュレーションの一例を示す図である。 プロジェクター100の一例を示す図である。 プロジェクター座標系CS1の一例を示す図である。 計測画像G3の一例を示す図である。 計測器200の一例を示す図である。 計測器座標系CS2の一例を示す図である。 情報処理装置300の一例を示す図である。 仮想空間d1の一例を示す図である。 対応点fの一例を示す図である。 複数の計測画像G3の一例を示す図である。 画素130pと位相φとの関係を示す図である。 投写システム1の動作を説明するための図である。 ベクトルv1およびv2を説明するための図である。 計測画像G3の他の例を示す図である。
A:第1実施形態
A1:投写システム1の概要
図1は、第1実施形態に係る投写システム1を示す図である。投写システム1は、位置特定システムと、シミュレーションシステムと、の各々の一例である。
投写システム1は、対象物2に画像を投写する。対象物2は、部屋の壁である。部屋の壁は、演出対象の物体の一例である。演出対象の物体は、部屋の壁に限らず、例えば、建物の外壁または商品でもよい。対象物2は、演出対象の物体に限らず、例えば、製造中の物体または検査中の物体でもよい。製造中の物体は、例えば、製造中の自動車、製造中の列車、製造中の航空機、製造中の電化製品または建設中の建物である。検査中の物体は、例えば、検査中の自動車、検査中の列車、検査中の航空機、検査中の電化製品または検査中の建物である。対象物2の形態は、図1に示される形態に限らず、適宜変更可能である。
対象物2は、3つの対象点、具体的には、第1対象点k1と第2対象点k2と第3対象点k3と、を有する。第1対象点k1~第3対象点k3を相互に区別する必要がない場合、第1対象点k1~第3対象点k3の各々を「対象点k」と称する。対象点kは、第2特定点の一例である。対象物2は、4つ以上の対象点kを有してもよい。
投写システム1は、プロジェクター100と、計測器200と、情報処理装置300と、を含む。
プロジェクター100は、対象物2に変形画像G1を投写する。図2は、変形画像G1の一例を示す図である。変形画像G1は、対象物2の形状に応じて変形された画像である。図3は、変形画像G1の元になる元画像G2を示す図である。元画像G2は、第1画像の一例である。変形画像G1は、第2画像の一例である。
元画像G2がプロジェクター100から対象物2に投写される状況においては、対象物2に示される元画像G2は、図4に示されるように、対象物2の形状に応じて変形する。対象物2の形状に応じた元画像G2の変形は、プロジェクター100から投写される画像が、プロジェクター100から当該画像の投写先までの距離が長いほど大きくなることに起因する。以下、対象物2に投写された元画像G2に生じる変形を「第1変形」と称する。
変形画像G1は、第1変形によって相殺される第2変形を、元画像G2に生じさせることによって得られる。
変形画像G1がプロジェクター100から対象物2に投写される状況においては、対象物2に投写される変形画像G1に第1変形が生じる。この第1変形によって、変形画像G1における第2変形が相殺される。このため、図5に示されるように、対象物2には、変形画像G1が元画像G2と同様の形態で示される。
産業分野において、対象物2に、対象物2の製造方法または対象物2の検査方法を文字等で視認可能に示すことが望まれる場合、対象物2の製造方法または対象物2の検査方法を文字等で視認可能に示す元画像G2に基づいて、変形画像G1が生成されればよい。
計測器200は、対象物2について3次元計測を実行する。情報処理装置300は、プロジェクター100と、計測器200と、を用いることによって、変形画像G1を生成する。
情報処理装置300は、図6に示すように、仮想空間d1において画像をシミュレーションすることによって、変形画像G1を生成する。
情報処理装置300は、まず、仮想空間d1に、対象物2の形状と同一の形状を有する仮想対象物2vを配置する。
情報処理装置300は、続いて、元画像G2を表す仮想の紙が仮想対象物2vに貼り付けられたように、仮想対象物2vに元画像G2を表示する。
情報処理装置300は、続いて、仮想空間d1に、仮想カメラ400vを配置する。
具体的には、情報処理装置300は、仮想カメラ400vと仮想対象物2vとの位置関係が、プロジェクター100と対象物2との位置関係と一致するように、仮想カメラ400vを配置する。
仮想カメラ400vは、プロジェクター100の投写レンズ140の内部パラメーターと同一の内部パラメーターを有する仮想撮像レンズ410vを有する。
情報処理装置300は、続いて、仮想対象物2vに表示される元画像G2を仮想カメラ400vが撮像することによって得られる仮想撮像画像を、変形画像G1として生成する。図6には、仮想カメラ400vの撮像エリア420vが示されている。
このような手法で変形画像G1が生成される場合、仮想空間d1における仮想カメラ400vの位置を特定する必要がある。情報処理装置300は、プロジェクター100と計測器200とが任意の位置に配置されても、プロジェクター100と計測器200とを用いて、仮想空間d1における仮想カメラ400vの位置を特定する。
以下、仮想空間d1における仮想カメラ400vの位置を特定する手法と、変形画像G1を生成する手法と、をメインに、投写システム1の構成等について説明する。
A2:プロジェクター100
図7は、プロジェクター100の一例を示す図である。プロジェクター100は、画像処理部110と、光源120と、液晶ライトバルブ130と、投写レンズ140と、を含む。
画像処理部110は、例えば、画像処理回路等の回路によって構成される。画像処理部110は、情報処理装置300から画像データaを受け取る。画像処理部110は、画像データaに対してガンマ補正等の画像処理を施すことによって、画像データaに基づく電圧bを生成する。
光源120は、LED(Light Emitting Diode)である。光源120は、LEDに限らず、例えば、キセノンランプまたはレーザー光源でもよい。
液晶ライトバルブ130は、一対の透明基板間に液晶が存在する液晶パネル等によって構成される。液晶ライトバルブ130は、矩形の画素領域130aを有する。画素領域130aは、マトリクス状に位置する複数の画素130pを含む。
液晶ライトバルブ130では、画像データaに基づく電圧bが、画素130pごとに液晶に印加される。画像データaに基づく電圧bが、画素130pごとに液晶に印加されると、画素130pは、画像データaに基づく光透過率に設定される。
光源120から出射された光は、液晶ライトバルブ130の画素領域130aによって変調される。液晶ライトバルブ130は、光変調装置の一例である。液晶ライトバルブ130によって変調された光は、投写レンズ140に向かう。投写レンズ140は、液晶ライトバルブ130によって変調された光、すなわち画像を対象物2に投写する。
液晶ライトバルブ130には、プロジェクター座標系CS1が適用される。図8は、プロジェクター座標系CS1の一例を示す図である。プロジェクター座標系CS1は、2次元の座標系である。プロジェクター座標系CS1の原点o1は、図8に示される画素領域130aの左上の隅130cに設定される。図8においては、便宜上、原点o1は、左上の隅130cと異なる位置に示されている。
投写レンズ140の主点の位置は、プロジェクター座標系CS1の座標によって特定される。投写レンズ140の主点の位置の座標は、プロジェクター100の座標の一例である。プロジェクター100の座標は、投写レンズ140の主点の位置の座標に限らず、プロジェクター座標系CS1における座標であればよい。
プロジェクター座標系CS1は、x軸と、y軸と、によって定められる。x軸およびy軸は、液晶ライトバルブ130の向きに応じて決定される。x軸は、液晶ライトバルブ130の水平方向と平行、すなわち、液晶ライトバルブ130の横方向と平行である。y軸は、x軸と直交する。y軸は、液晶ライトバルブ130の垂直方向と平行、すなわち、液晶ライトバルブ130の縦方向と平行である。
図8は、x軸とy軸に加えて、z軸を示す。z軸は、x軸およびy軸の各々と直交する。z軸は、投写レンズ140の光軸に沿う。
プロジェクター100は、変形画像G1に加えて、計測画像G3を、対象物2に投写する。
図9は、計測画像G3の一例を示す図である。計測画像G3は、プロジェクター座標系CS1と、計測器200が有する計測器座標系CS2と、の対応関係を特定するために用いられる。さらに言えば、計測画像G3は、プロジェクター座標系CS1における点に対応する点を、計測器座標系CS2において特定するために用いられる。
計測画像G3は、第1計測点e1と、第2計測点e2と、第3計測点e3と、を有する。第1計測点e1~第3計測点e3を相互に区別する必要がない場合、第1計測点e1~第3計測点e3の各々を「計測点e」と称する。計測点eは、計測画像G3の一部である。計測点eは、特定点の一例、および、第1特定点の一例である。計測画像G3は、特定点を有する投写画像の一例、および、第1特定点を有する投写画像の一例である。計測画像G3は、4つ以上の計測点eを有してもよい。
複数の計測画像G3が用いられる場合、複数の計測画像G3の各々において、計測点eが、計測画像G3の他の部分と区別されない態様で存在してもよい。複数の計測画像G3の一例は、位相シフト法で用いられる複数の位相シフト画像である。位相シフト画像については後述する。
A3:計測器200
図10は、計測器200の一例を示す図である。計測器200は、ステレオカメラである。計測器200は、ステレオカメラに限らず、対象物2について3次元計測を実行する機器であればよい。計測器200は、プロジェクター100とは別の構成である。計測器200は、プロジェクター100とは別の構成ではなく、プロジェクター100に組み込まれてもよい。
計測器200は、第1カメラ210と、第2カメラ220と、第1記憶部230と、第1処理部240と、を含む。第1カメラ210の位置と第2カメラ220の位置は、相互に異なる。
第1カメラ210は、第1撮像レンズ211と、第1イメージセンサー212と、を含む。
第1撮像レンズ211は、対象物2の光学像を第1イメージセンサー212に結像する。例えば、第1撮像レンズ211は、プロジェクター100が計測画像G3を対象物2に投写する状況において、計測画像G3が投写される対象物2の光学像を、第1イメージセンサー212に結像する。
第1イメージセンサー212は、CCD(Charge Coupled Device)イメージセンサーである。第1イメージセンサー212は、CCDイメージセンサーに限らず、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。第1イメージセンサー212は、矩形の第1撮像領域212aを有する。第1撮像領域212aは、マトリクス状に位置する複数のセル212pを含む。第1イメージセンサー212は、第1撮像レンズ211によって結像される光学像に基づいて、第1撮像データc1を生成する。
第2カメラ220は、第2撮像レンズ221と、第2イメージセンサー222と、を含む。
第2撮像レンズ221は、対象物2の光学像を第2イメージセンサー222に結像する。例えば、第2撮像レンズ221は、プロジェクター100が計測画像G3を対象物2に投写する状況において、計測画像G3が投写される対象物2の光学像を、第2イメージセンサー222に結像する。
第2イメージセンサー222は、CCDイメージセンサーである。第2イメージセンサー222は、CCDイメージセンサーに限らず、例えば、CMOSイメージセンサーでもよい。第2イメージセンサー222は、矩形の第2撮像領域222aを有する。第2撮像領域222aは、マトリクス状に位置する複数のセル222pを含む。第2イメージセンサー222は、第2撮像レンズ221によって結像される光学像に基づいて、第2撮像データc2を生成する。
第1記憶部230は、第1処理部240が読み取り可能な記録媒体である。第1記憶部230は、例えば、不揮発性メモリーと揮発性メモリーとを含む。不揮発性メモリーは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリーは、例えば、RAM(Random Access Memory)である。第1記憶部230は、第1処理部240によって実行される第1プログラムP1を記憶する。
第1処理部240は、1または複数のCPU(Central Processing Unit)によって構成される。1または複数のCPUは、1または複数のプロセッサーの一例である。プロセッサーおよびCPUの各々は、コンピューターの一例である。
第1処理部240は、第1記憶部230から第1プログラムP1を読み取る。第1処理部240は、第1プログラムP1を実行することによって、撮像制御部241、提供部242および算出部243として機能する。
撮像制御部241、提供部242および算出部243の各々は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。
撮像制御部241は、第1カメラ210によって実行される撮像と、第2カメラ220によって実行される撮像と、を制御する。
提供部242は、第1撮像データc1および第2撮像データc2等の種々の情報を情報処理装置300に出力する。
算出部243は、第1撮像データc1と第2撮像データc2とに基づいて、対象物2について3次元計測を実行する。算出部243は、計測器座標系CS2における座標を用いることによって、3次元計測の結果を表す。
図11は、計測器座標系CS2の一例を示す図である。計測器座標系CS2は、3次元の座標系である。計測器座標系CS2の原点o2は、第1撮像レンズ211の主点の位置に設定される。第1撮像レンズ211の主点の位置は、計測器200の位置の一例である。図11においては、便宜上、原点o2は、第1撮像レンズ211の主点の位置と異なる位置に示されている。計測器座標系CS2の原点o2は、第1撮像レンズ211の主点の位置に限らず、例えば、第2撮像レンズ221の主点の位置でもよい。第2撮像レンズ221の主点の位置は、計測器200の位置の他の例である。
計測器座標系CS2は、3次元座標系の一例である。計測器座標系CS2は、x軸と、y軸と、z軸と、によって定められる。x軸、y軸およびz軸は、計測器200の向きに応じて決定される。x軸、y軸およびz軸は、相互に直交する。
軸は、第1イメージセンサー212の水平方向と平行、すなわち、第1イメージセンサー212の横方向と平行である。計測器座標系CS2の原点o2が、第2撮像レンズ221の主点の位置と一致する場合、x軸は、第2イメージセンサー222の水平方向と平行、すなわち、第2イメージセンサー222の横方向と平行である。
軸は、第1イメージセンサー212の垂直方向と平行、すなわち、第1イメージセンサー212の縦方向と平行である。計測器座標系CS2の原点o2が、第2撮像レンズ221の主点の位置と一致する場合、y軸は、第2イメージセンサー222の垂直方向と平行、すなわち、第2イメージセンサー222の縦方向と平行である。
軸は、第1撮像レンズ211の光軸と一致する。計測器座標系CS2の原点o2が、第2撮像レンズ221の主点の位置と一致する場合、z軸は、第2撮像レンズ221の光軸と一致する。
A4:情報処理装置300
図12は、情報処理装置300の一例を示す図である。情報処理装置300は、PC(Personal Computer)である。情報処理装置300は、PCに限らず、例えば、タブレットまたはスマートフォンでもよい。
情報処理装置300は、操作部310と、表示部320と、第2記憶部330と、第2処理部340と、を含む。
操作部310は、例えば、キーボード、マウス、操作ボタン、操作キーまたはタッチパネルである。操作部310は、ユーザーの入力操作を受ける。
表示部320は、ディスプレイ、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のFPD(Flat Panel Display)である。表示部320は、種々の情報を表示する。
第2記憶部330は、第2処理部340が読み取り可能な記録媒体である。第2記憶部330は、例えば、不揮発性メモリーと揮発性メモリーとを含む。第2記憶部330は、第2処理部340によって実行される第2プログラムP2を記憶する。
第2処理部340は、例えば、1または複数のCPUによって構成される。第2処理部340は、第2記憶部330から第2プログラムP2を読み取る。第2処理部340は、第2プログラムP2を実行することによって、仮想空間生成部341、投写制御部342、計測制御部343、取得部344、第1生成部345、第2生成部346、位置特定部347、仮想空間制御部348および画像生成部349として機能する。
仮想空間生成部341、投写制御部342、計測制御部343、取得部344、第1生成部345、第2生成部346、位置特定部347、仮想空間制御部348および画像生成部349の各々は、DSP、ASIC、PLD、FPGA等の回路によって構成されてもよい。
仮想空間生成部341は、3次元の仮想空間d1を生成する。図13は、仮想空間d1の一例を示す図である。仮想空間d1には、仮想空間座標系CS3が適用される。仮想空間座標系CS3は、3次元の座標系である。仮想空間座標系CS3は、x軸と、y軸と、z軸と、によって定められる。x軸とy軸とz軸は、相互に直交する。
仮想空間d1には、仮想対象物2vが位置する。仮想対象物2vは、対象物2に対応する。仮想対象物2vの形状は、対象物2の形状と同一である。
仮想対象物2vは、3つの仮想対象点、具体的には、第1仮想対象点q1と、第2仮想対象点q2と、第3仮想対象点q3と、を有する。
第1仮想対象点q1~第3仮想対象点q3を相互に区別する必要がない場合、第1仮想対象点q1~第3仮想対象点q3の各々を「仮想対象点q」と称する。仮想対象点qは、第2特定点に対応する第3特定点の一例である。
仮想対象物2vと第1仮想対象点q1との位置関係は、対象物2と第1対象点k1との位置関係と同一である。例えば、仮想対象物2vにおける第1仮想対象点q1の位置が予め決定されている場合、対象物2と第1対象点k1との位置関係が、仮想対象物2vと第1仮想対象点q1との位置関係と同一となるように、対象物2における第1対象点k1の位置が決定される。
この場合、例えば、対象物2における第1対象点k1の位置に、第1物理マーカーが配置される。第1物理マーカーは、対象物2の反射率とは異なる反射率を有する。このため、第1カメラ210が生成する第1撮像データc1と、第2カメラ220が生成する第2撮像データc2と、の各々において、第1物理マーカーを識別可能になる。したがって、第1撮像データc1と第2撮像データc2に基づいて、第1物理マーカーの位置、すなわち、第1対象点k1の位置を、特定することが可能である。第1仮想対象点q1は、第1対象点k1と対応する。
仮想対象物2vと第2仮想対象点q2との位置関係は、対象物2と第2対象点k2との位置関係と同一である。例えば、仮想対象物2vにおける第2仮想対象点q2の位置が予め決定されている場合、対象物2と第2対象点k2との位置関係が、仮想対象物2vと第2仮想対象点q2との位置関係と同一となるように、対象物2における第2対象点k2の位置が決定される。
この場合、例えば、対象物2における第2対象点k2の位置に、第2物理マーカーが配置される。第2物理マーカーは、対象物2および第1物理マーカーの各反射率とは異なる反射率を有する。このため、第1カメラ210が生成する第1撮像データc1と、第2カメラ220が生成する第2撮像データc2と、の各々において、第2物理マーカーを識別可能になる。したがって、第1撮像データc1と第2撮像データc2に基づいて、第2物理マーカーの位置、すなわち、第2対象点k2の位置を、特定することが可能である。第2仮想対象点q2は、第2対象点k2と対応する。
仮想対象物2vと第3仮想対象点q3との位置関係は、対象物2と第3対象点k3との位置関係と同一である。例えば、仮想対象物2vにおける第3仮想対象点q3の位置が予め決定されている場合、対象物2と第3対象点k3との位置関係が、仮想対象物2vと第3仮想対象点q3との位置関係と同一となるように、対象物2における第3対象点k3の位置が決定される。
この場合、例えば、対象物2における第3対象点k3の位置に、第3物理マーカーが配置される。第3物理マーカーは、対象物2、第1物理マーカーおよび第2物理マーカーの各々の反射率とは異なる反射率を有する。このため、第1カメラ210が生成する第1撮像データc1と、第2カメラ220が生成する第2撮像データc2と、の各々において、第3物理マーカーを識別可能になる。したがって、第1撮像データc1と第2撮像データc2に基づいて、第3物理マーカーの位置、すなわち、第3対象点k3の位置を、特定することが可能である。第3仮想対象点q3は、第3対象点k3と対応する。
説明を図12に戻す。投写制御部342は、プロジェクター100を制御する。投写制御部342は、計測画像G3と変形画像G1との各々をプロジェクター100に投写させる。投写制御部342は、計測画像G3を示す計測画像データをプロジェクター100に提供することによって、計測画像G3をプロジェクター100に投写させる。計測画像データは、画像データaの一例である。投写制御部342は、変形画像G1を示す変形画像データをプロジェクター100に提供することによって、変形画像G1をプロジェクター100に投写させる。変形画像データは、画像データaの他の例である。
計測制御部343は、計測器200を制御する。計測制御部343は、計測器200に、対象物2を撮像させる。計測制御部343は、計測器200に、対象物2について3次元計測を実行させる。
取得部344は、プロジェクター100が計測画像G3を対象物2に投写する状況で対象物2において計測画像G3の計測点eが位置する部分の3次元の座標を、計測器200から取得する。
対象物2において計測画像G3の計測点eが位置する部分を「対応点f」と称する。図14は、対応点fの一例を示す図である。図14は、3つの対応点f、具体的には、第1対応点f1と、第2対応点f2と、第3対応点f3と、を示す。対応点fは、計測画像G3の計測点eに対応する点である。第1対応点f1は、第1計測点e1に対応する。第2対応点f2は、第2計測点e2に対応する。第3対応点f3は、第3計測点e3に対応する。
対応点fの3次元の座標を、「座標h」と称する。座標hは、対応点fの計測器座標系CS2における座標である。座標hは、計測器200によって計測される。座標hは、第1座標の一例である。
計測点eの計測画像G3における2次元の座標、すなわち、計測点eのプロジェクター座標系CS1における座標を、「座標i」と称する。座標iは、第2記憶部330に事前に記憶されている。座標iは、第2座標の一例である。
説明を図12に戻す。第1生成部345は、計測器座標系CS2と、プロジェクター座標系CS1と、の対応関係を示す第1関係情報j1を生成する。第1生成部345は、対応点fの計測器座標系CS2における3次元の座標である座標hと、計測点eのプロジェクター座標系CS1における2次元の座標である座標iと、に基づいて、第1関係情報j1を生成する。
第2生成部346は、計測器座標系CS2と、仮想空間座標系CS3と、の対応関係を示す第2関係情報j2を生成する。
対象物2が有する対象点kの計測器座標系CS2における座標を「座標m」と称する。
仮想対象物2vが有する仮想対象点qの仮想空間座標系CS3における座標を「座標n」と称する。第2生成部346は、座標mと、座標nと、に基づいて、計測器座標系CS2と仮想空間座標系CS3との対応関係を示す第2関係情報j2を生成する。
位置特定部347は、第1関係情報j1と第2関係情報j2とを用いることによって、プロジェクター100のプロジェクター座標系CS1における座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置を特定する。プロジェクター100の仮想空間座標系CS3における位置を「第1仮想位置r1」と称する。
仮想空間制御部348は、仮想空間d1を制御する。仮想空間制御部348は、仮想空間d1に第2仮想位置r2を設定する。例えば、仮想空間制御部348は、操作部310がユーザーから受け付ける配置指示に応じて、仮想空間d1に第2仮想位置r2を設定する。仮想空間d1における第2仮想位置r2は、対象物2の計測器座標系CS2における位置に対応する。仮想空間制御部348は、仮想対象物2vを第2仮想位置r2に配置する。仮想空間制御部348は、仮想対象物2vに元画像G2を表示する。具体的には、仮想空間制御部348は、元画像G2を表す仮想の紙が仮想対象物2vに貼り付けられたように、仮想対象物2vに元画像G2を表示する。
仮想空間制御部348は、仮想空間d1において、第1仮想位置r1、すなわち、プロジェクター100の仮想空間座標系CS3における位置に、仮想カメラ400vを配置する。仮想空間制御部348は、仮想カメラ400vが備える仮想撮像レンズ410vの主点を、第1仮想位置r1に位置させる。
仮想撮像レンズ410vの内部パラメーターは、プロジェクター100の投写レンズ140の内部パラメーターと等しい。仮想撮像レンズ410vの内部パラメーターは、仮想撮像レンズ410vの焦点距離等の仮想撮像レンズ410vの特性を表す。投写レンズ140の内部パラメーターは、投写レンズ140の焦点距離等の投写レンズ140の特性を表す。本実施形態では、投写レンズ140の内部パラメーターは既知である。投写レンズ140の内部パラメーターは、例えば、第2記憶部330に記憶されている。
画像生成部349は、仮想対象物2vに表示される元画像G2を仮想カメラ400vが撮像することによって得られる仮想撮像画像を、変形画像G1として生成する。画像生成部349は、例えば、仮想撮像画像を示す画像データを、変形画像G1を示す変形画像データとして生成する。
A5:計測画像G3
図15は、複数の計測画像G3の一例を示す図である。複数の計測画像G3は、第1位相シフト画像G31~第4位相シフト画像G34を含む。
第1位相シフト画像G31~第4位相シフト画像G34を相互に区別する必要がない場合、第1位相シフト画像G31~第4位相シフト画像G34の各々を「位相シフト画像G30」と称する。
位相シフト画像G30は、プロジェクター座標系CS1のx軸に沿う方向において正弦波に応じた輝度の変化を示すパタン画像である。正弦波は、余弦波を包含する概念である。位相シフト画像G30は、位相シフト法において使用される。
第2位相シフト画像G32における正弦波の位相は、第1位相シフト画像G31における正弦波の位相よりも、π/2だけ、進んでいる。第3位相シフト画像G33における正弦波の位相は、第1位相シフト画像G31における正弦波の位相よりも、πだけ、進んでいる。第4位相シフト画像G34における正弦波の位相は、第1位相シフト画像G31における正弦波の位相よりも、3π/2だけ、進んでいる。
位相シフト画像G30は、対応点fを特定するために用いられる。対応点fは、プロジェクター100が位相シフト画像G30を対象物2に投写する状況で対象物2において位相シフト画像G30の計測点eが位置する部分である。
位相シフト法は、第1イメージセンサー212が有する複数のセル212pのうち、対応点fを観測するセル212ptを特定するために使用される。また、位相シフト法は、第2イメージセンサー222が有する複数のセル222pのうち、対応点fを観測するセル222ptを特定するために使用される。セル212ptおよびセル222ptは、位相シフト画像G30が有する正弦波の位相を用いることによって特定される。
図16は、液晶ライトバルブ130においてx軸に沿う方向に並ぶ画素130pと、プロジェクター100が第1位相シフト画像G31を投写する状況における画素130pの輝度に応じた正弦波の位相φ1と、の関係を示す図である。
図16に示されるように、x軸に沿う方向において、液晶ライトバルブ130の画素130pと、位相φ1は、1対1の対応関係を有する。このため、液晶ライトバルブ130が有する複数の画素130pのうち、計測点eに位置する画素130peに対応する位相φ1eは、一意に特定される。図16では、説明の簡略化のため、画素130peとして、第1計測点e1に位置する画素130pのみが示される。
第1位相シフト画像G31が投写される状況において第1イメージセンサー212の任意のセル212piが観測する輝度に応じた正弦波の位相φ2は式1によって特定されることが知られている。
φ2=tan-1{(I-I)/(I-I)} ・・・式1
は、第1位相シフト画像G31が投写される状況においてセル212piが観測する輝度である。
は、第2位相シフト画像G32が投写される状況においてセル212piが観測する輝度である。
は、第3位相シフト画像G33が投写される状況においてセル212piが観測する輝度である。
は、第4位相シフト画像G34が投写される状況においてセル212piが観測する輝度である。
位相シフト法によって特定されるセル212ptは、第1イメージセンサー212が有する複数のセル212pのうち、対応点fを観測するセルである。このため、セル212ptが観測する輝度に応じた位相φ2は、画素130peの輝度に応じた位相φ1eと同じ値を示す。したがって、セル212ptの探索は、複数のセル212pの中から、画素130peに対応する位相φ1eと同じ値を示す位相φ2に応じた輝度を観測するセルを探索することを意味する。
よって、複数のセル212pの中から、プロジェクター座標系CS1のx軸座標において対応点fが位置する座標x1fと対応する座標x2fを有する座標セル群212pxを特定することが可能である。
また、図示は省略するが、複数の計測画像G3は、第5位相シフト画像G35~第8位相シフト画像G38を更に含む。第5位相シフト画像G35~第8位相シフト画像G38は、プロジェクター座標系CS1のy軸に沿う方向において正弦波に応じた輝度の変化を示すパタン画像である。第6位相シフト画像G36における正弦波の位相は、第5位相シフト画像G35における正弦波の位相よりも、π/2だけ、進んでいる。第7位相シフト画像G37における正弦波の位相は、第5位相シフト画像G35における正弦波の位相よりも、πだけ、進んでいる。第8位相シフト画像G38における正弦波の位相は、第5位相シフト画像G35における正弦波の位相よりも、3π/2だけ、進んでいる。
第5位相シフト画像G35~第8位相シフト画像G38を第1カメラ210によって撮像することにより、第1位相シフト画像G31~第4位相シフト画像G34を用いた場合と同様に、複数のセル212pの中から、プロジェクター座標系CS1のy軸座標において対応点fが位置する座標y1fと対応する座標y2fを有する座標セル群212pyを特定することが可能である。
このため、複数のセル212pの中から、座標x2fと座標y2fとを有するセル212pを、セル212ptとして特定することができる。
セル222ptについても、セル222ptと同様に特定することができる。
A6:動作の説明
図17は、投写システム1の動作を説明するための図である。なお、仮想空間生成部341は、仮想空間d1を事前に生成している。仮想空間制御部348は、仮想空間d1に第2仮想位置r2を事前に設定している。仮想空間制御部348は、第2仮想位置r2に仮想対象物2vを事前に配置している。
ユーザーは、操作部310を操作することによって、操作部310に開始指示を入力する。操作部310は、開始指示を受けると、開始指示を第2処理部340に提供する。
第2処理部340が開始指示を受けると、ステップS101において投写制御部342は、第1位相シフト画像G31~第8位相シフト画像G38を、未投写の画像として設定する。
続いて、ステップS102において投写制御部342は、第1位相シフト画像G31~第8位相シフト画像G38の中から、未投写の画像を1つ選択する。投写制御部342は、第1位相シフト画像G31、第2位相シフト画像G32、第3位相シフト画像G33、第4位相シフト画像G34、第5位相シフト画像G35、第6位相シフト画像G36、第7位相シフト画像G37、第8位相シフト画像G38の順に、未投写の画像を選択する。未投写の画像を選択する順序は、第1位相シフト画像G31、第2位相シフト画像G32、第3位相シフト画像G33、第4位相シフト画像G34、第5位相シフト画像G35、第6位相シフト画像G36、第7位相シフト画像G37、第8位相シフト画像G38の順に限らず、適宜変更可能である。
続いて、投写制御部342は、ステップS102で選択した画像を示す画像データaをプロジェクター100に提供する。画像データaが、第2記憶部330に記憶されている場合、投写制御部342は、第2記憶部330から画像データaを読み取る。投写制御部342は、第2記憶部330から読み取った画像データaを、プロジェクター100に提供する。投写制御部342は、第2プログラムP2に基づいて画像データaを生成してもよい。この場合、投写制御部342は、生成した画像データaを、プロジェクター100に提供する。
続いて、投写制御部342は、ステップS102で選択した画像についての設定を、未投写の画像から、投写済みの画像に変更する。
続いて、ステップS103においてプロジェクター100は、投写制御部342から提供された画像データaが示す画像を、対象物2に投写する。
続いて、ステップS104において計測制御部343は、画像が投写されている対象物2を、第1カメラ210および第2カメラ220に撮像させる。
例えば、計測制御部343は、第1カメラ210および第2カメラ220を用いる撮像を指示する撮像指示を、計測器200の撮像制御部241に提供する。撮像制御部241は、撮像指示に応じて、画像が投写されている対象物2を第1カメラ210および第2カメラ220に撮像させる。第1カメラ210は、画像が投写されている対象物2を撮像することによって、画像が投写されている対象物2を示す第1撮像画像データを生成する。第1撮像画像データは、第1撮像データc1の一例である。第2カメラ220は、画像が投写されている対象物2を撮像することによって、画像が投写されている対象物2を示す第2撮像画像データを生成する。第2撮像画像データは、第2撮像データc2の一例である。提供部242は、第1撮像画像データと、第2撮像画像データと、を情報処理装置300に提供する。
続いて、ステップS105において投写制御部342は、第1位相シフト画像G31~第8位相シフト画像G38の中に、未投写の画像として設定されている画像が存在する場合、処理をステップS102に戻す。このため、第1位相シフト画像G31~第8位相シフト画像G38が、プロジェクター100によって個別に対象物2へ投写される。また、第1位相シフト画像G31~第8位相シフト画像G38の各々の第1撮像画像データと、第1位相シフト画像G31~第8位相シフト画像G38の各々の第2撮像画像データが、情報処理装置300に提供される。
ステップS105において第1位相シフト画像G31~第8位相シフト画像G38の中に、未投写の画像として設定されている画像が存在しない場合、ステップS106において取得部344は、計測点eごとに、対応点fの計測器座標系CS2における3次元座標である座標hを取得する。対応点fは、プロジェクター100が位相シフト画像G30を対象物2に投写する状況で対象物2において位相シフト画像G30の計測点eが位置する部分である。
ステップS106では、取得部344は、まず、計測点eごとに、セル212ptとセル222ptとを特定する。セル212ptは、第1イメージセンサー212が有する複数のセル212pのうち、対応点fを観測するセルである。セル222ptは、第2イメージセンサー222における複数のセル222pのうち、対応点fを観測するセルである。
取得部344は、計測点eのプロジェクター座標系CS1における座標である座標iと、第1位相シフト画像G31~第8位相シフト画像G38の各々の第1撮像画像データと、に基づいて、計測点eごとに、セル212ptを特定する。なお、第2記憶部330が座標iを記憶しているため、取得部344は、第2記憶部330から座標iを取得する。取得部344は、位相シフト法を用いることによって、計測点eごとに、セル212ptを特定する。
取得部344は、計測点eのプロジェクター座標系CS1における座標である座標iと、第1位相シフト画像G31~第8位相シフト画像G38の各々の第2撮像画像データと、に基づいて、計測点eごとに、セル222ptを特定する。取得部344は、位相シフト法を用いることによって、計測点eごとに、セル222ptを特定する。
取得部344は、計測点eごとに、セル212ptとセル222ptとを特定すると、計測制御部343を用いることによって、計測器200に、各対応点fについての3次元計測を実行させる。
例えば、取得部344は、セル212ptとセル222ptとを計測点eごとに示す計測指示を、計測制御部343から計測器200の算出部243に提供する。
算出部243は、計測点eごとに、第1イメージセンサー212におけるセル212ptの位置と、第2イメージセンサー222におけるセル222ptの位置と、に基づいて、対応点fの計測器座標系CS2における3次元座標を算出する。
例えば、算出部243は、計測点eごとに、セル212ptの位置と、セル222ptの位置と、に基づいて、対応点fから計測器200までの距離を、三角測量の原理に基づいて算出する。
算出部243は、対応点fの計測器座標系CS2における3次元座標のうち、x軸に基づく座標として、セル212ptのx軸に基づく座標を用いる。算出部243は、対応点fの計測器座標系CS2における3次元座標のうち、y軸に基づく座標として、セル212ptのy軸に基づく座標を用いる。算出部243は、対応点fの計測器座標系CS2における3次元座標のうち、z軸に基づく座標として、対応点fから計測器200までの距離に基づく値を用いる。
続いて、提供部242は、計測点eごとに、対応点fの計測器座標系CS2における3次元座標を、情報処理装置300に提供する。
取得部344は、提供部242から、計測点eごとに、対応点fの計測器座標系CS2における3次元座標を、座標hとして取得する。
続いて、ステップS107において第1生成部345は、計測器座標系CS2と、プロジェクター座標系CS1と、の対応関係を示す第1関係情報j1を生成する。
例えば、第1生成部345は、対応点fの計測器座標系CS2における3次元の座標である座標hと、計測点eのプロジェクター座標系CS1における2次元の座標である座標iと、に基づいて、第1関係情報j1を生成する。
第1生成部345は、3次元座標である座標hを取得部344から取得する。2次元座標である座標iは第2記憶部330に記憶されているため、第1生成部345は、2次元座標である座標iを第2記憶部330から取得する。
第1生成部345は、3次元座標である座標hと2次元座標である座標iとの計測点eごとのペアを用いてPnP(Perspective n Points)問題を解くことによって、第1関係情報j1を生成する。以下、座標hと座標iとのペアを「第1座標ペア」と称する。
例えば、第1生成部345は、式2に、計測点eごとに第1座標ペアを代入することによって、PnP問題を解く。式2は、透視投影変換の式とも称される。
Figure 2022102058000002
(X,Y,Z)は、計測器座標系CS2の3次元座標、例えば、座標hを表す。
(u,v)は、プロジェクター座標系CS1の2次元座標、例えは、座標iを表す。
sは、(u,v,1)における“1”を実現するためのスケーリングファクターである。s=Zが成り立つ。
(cx,)は、投写レンズ140の主点の座標である。
とfは、1つの画素130pを1単位とする値で表される投写レンズ140の焦点距離である。
換言すると、fとfは、ピクセルの単位で表される投写レンズ140の焦点距離である。
は、画素130pのx軸方向の長さに基づく単位で表される投写レンズ140の焦点距離である。
は、画素130pのy軸方向の長さに基づく単位で表される投写レンズ140の焦点距離である。
式2は、式3と等価である。
Figure 2022102058000003
第1生成部345は、計測点eごとに第1座標ペアを式2に代入することによって、複数の方程式を生成する。第1生成部345は、複数の方程式を解くことによって、回転行列Rと、平行移動行列Tと、内部パラメーター行列Aと、を特定する。
本実施形態では、投写レンズ140の内部パラメーターは既知である。すなわち、内部パラメーター行列Aは、既知である。このため、第1生成部345は、複数の方程式を解くことによって、回転行列Rと、平行移動行列Tと、を特定すればよい。この場合、第1生成部345は、少なくとも3つの第1座標ペアを用いることによって、回転行列Rと、平行移動行列Tと、を特定できる。
第1生成部345は、6つ以上の第1座標ペアを用いれば、1つの解として、回転行列Rと、平行移動行列Tと、を特定できる。
第1座標ペアによって示される座標は、誤差を含む可能性がある。このため、式2に代入される第1座標ペアの数が多いほど、回転行列Rと平行移動行列Tとの精度が向上する。よって、第1生成部345は、より多くの第1座標ペアを用いることによって回転行列Rと平行移動行列Tとを特定することが望ましい。第1生成部345は、回転行列Rと平行移動行列Tと内部パラメーター行列Aとスケールファクターsとのグループを、第1関係情報j1として生成する。
続いて、ステップS108において第2生成部346は、計測器座標系CS2と、仮想空間座標系CS3と、の対応関係を示す第2関係情報j2を生成する。
第2生成部346は、対象物2が有する対象点kの計測器座標系CS2における座標である座標mと、仮想対象物2vが有する仮想対象点qの仮想空間座標系CS3における座標である座標nと、に基づいて、第2関係情報j2を生成する。
第2生成部346は、計測器200から、対象物2が有する対象点kの計測器座標系CS2における座標である座標mを取得する。
例えば、第2生成部346は、計測制御部343を用いることによって、計測器200に、対象物2における各対象点kについて3次元計測を実行させる。
一例を挙げると、第2生成部346は、各対象点kについての3次元計測の指示を、計測制御部343から計測器200の算出部243に提供する。
算出部243は、各対象点kについての3次元計測の指示に応じて、各対象点kの計測器座標系CS2における3次元座標を算出する。
算出部243は、対象点kの計測器座標系CS2における3次元座標のうち、x軸に基づく座標として、第1イメージセンサー212におけるセル212pのうち対象点kを観測するセルのx軸に基づく座標を用いる。算出部243は、対象点kの計測器座標系CS2における3次元座標のうち、y軸に基づく座標として、第1イメージセンサー212におけるセル212pのうち対象点kを観測するセルのy軸に基づく座標を用いる。算出部243は、対象点kから計測器200までの距離を、三角測量の原理を用いて算出する。算出部243は、対象点kの計測器座標系CS2における3次元座標のうち、z軸に基づく座標として、対象点kから計測器200までの距離に基づく値を用いる。
続いて、提供部242は、対象点kごとに、対象点kの計測器座標系CS2における3次元座標を、情報処理装置300に提供する。
第2生成部346は、提供部242から、対象点kごとに、対象点kの計測器座標系CS2における3次元座標を、座標mとして取得する。
仮想対象物2vが有する仮想対象点qの仮想空間座標系CS3における座標である座標nは、仮想空間制御部348が管理している。このため、第2生成部346は、仮想空間制御部348から、仮想対象物2vが有する仮想対象点qごとに、仮想対象点qの仮想空間座標系CS3における座標である座標nを取得する。
第2生成部346は、対象点kの座標mと、当該対象点kに対応する仮想対象点qの座標nと、の対象点kごとのペアを用いて、第2関係情報j2を生成する。以下、座標mと座標nとのペアを「第2座標ペア」と称する。
第2生成部346は、計測器座標系CS2の向きを仮想空間座標系CS3の向きに揃える回転行列R1と、計測器座標系CS2の原点o2を仮想空間座標系CS3の原点o3に揃える平行移動行列T1と、を特定する。回転行列R1は、3行3列の行列である。平行移動行列T1は、1行3列の行列である。
式4は、計測器座標系CS2と、仮想空間座標系CS3と、回転行列R1と、平行移動行列T1との相互の関係を示す。
Figure 2022102058000004
(X,Y,Z)は、計測器座標系CS2の3次元座標、例えば、座標mを表す。
(X,Y,Z)は、仮想空間座標系CS3の3次元座標、例えば、座標nを表す。
第2生成部346は、対象点kごとに第2座標ペアを式4に代入することによって、複数の方程式を生成する。第2生成部346は、当該複数の方程式を解くことによって、回転行列R1と、平行移動行列T1と、を特定する。第2生成部346は、回転行列R1と平行移動行列T1とのグループを、第2関係情報j2として生成する。
続いて、ステップS109において位置特定部347は、第1関係情報j1と第2関係情報j2とを用いることによって、プロジェクター100のプロジェクター座標系CS1における座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置である第1仮想位置r1を特定する。
位置特定部347は、まず、第1関係情報j1を用いることによって、プロジェクター100のプロジェクター座標系CS1における座標に基づいて、プロジェクター100の計測器座標系CS2における位置を特定する。
例えば、位置特定部347は、第1関係情報j1を適用した式2を用いることによって、プロジェクター100のプロジェクター座標系CS1における2次元座標を、プロジェクター100の計測器座標系CS2における3次元座標に変換する。位置特定部347は、プロジェクター100の計測器座標系CS2における3次元座標が示す位置を、プロジェクター100の計測器座標系CS2における位置として特定する。
続いて、位置特定部347は、第2関係情報j2を用いることによって、プロジェクター100の計測器座標系CS2における位置を示す3次元座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置を特定する。
例えば、位置特定部347は、第2関係情報j2を適用した式4を用いることによって、プロジェクター100の計測器座標系CS2における3次元座標を、プロジェクター100の仮想空間座標系CS3における3次元座標に変換する。位置特定部347は、プロジェクター100の仮想空間座標系CS3における3次元座標が示す位置を、プロジェクター100の仮想空間座標系CS3における位置、すなわち、第1仮想位置r1として特定する。
続いて、ステップS110において仮想空間制御部348は、第1仮想位置r1に、仮想カメラ400vを配置する。
ステップS110では、仮想空間制御部348は、仮想カメラ400vが備える仮想撮像レンズ410vの主点を、第1仮想位置r1に位置させる。
続いて、ステップS111において仮想空間制御部348は、仮想対象物2vに、変形していない元画像G2を表示する。仮想空間制御部348は、元画像G2を表す仮想の紙が仮想対象物2vに貼り付けられたように、仮想対象物2vに元画像G2を表示する。
続いて、ステップS112において画像生成部349は、仮想対象物2vに表示される元画像G2を仮想カメラ400vが撮像することによって得られる仮想撮像画像を、変形画像G1として生成する。仮想撮像画像は、対象物2に投写された元画像G2に生じる第1変形を相殺する第2変形が元画像G2に対してなされた画像となる。画像生成部349は、仮想撮像画像を示す画像データを、変形画像G1を示す変形画像データとして生成する。
続いて、ステップS113において投写制御部342は、変形画像G1を示す変形画像データをプロジェクター100に提供することによって、プロジェクター100に、変形画像G1を対象物2に対して投写させる。
変形画像G1が対象物2に投写される状況では、対象物2に示される変形画像G1に第1変形が生じる。当該第1変形によって、変形画像G1における第2変形が相殺される。このため、図5に示されるように、対象物2には、変形画像G1が元画像G2と同様の形態で示される。
A7:第1実施形態のまとめ
第1生成部345は、計測画像G3をプロジェクター100が対象物2へ投写する状況で対象物2において計測点eが位置する部分である対応点fの3次元の座標hと、計測点eの計測画像G3における2次元の座標iと、に基づいて、第1関係情報j1を生成する。第1関係情報j1は、座標hを特定する計測器200が用いる計測器座標系CS2と、座標iおよびプロジェクター100の座標を定めるプロジェクター座標系CS1と、の対応関係を示す。位置特定部347は、第1関係情報j1を用いることによって、プロジェクター100の座標に基づいて、プロジェクター100の計測器座標系CS2における位置を特定する。
この態様によれば、プロジェクター100と計測器200とが任意の位置に配置されても、計測器200が用いる計測器座標系CS2においてプロジェクター100の位置を特定できる。計測器座標系CS2におけるプロジェクター100の位置は、変形画像G1の生成に必要な情報である。したがって、プロジェクター100と計測器200とが任意の位置に配置されても、対象物2に変形画像G1等の所定の画像を投写することを支援できる。
第1生成部345は、計測画像G3をプロジェクター100が対象物2へ投写する状況で対象物2において計測点eが位置する部分である対応点fの3次元の座標hと、計測点eの計測画像G3における2次元の座標iと、に基づいて、第1関係情報j1を生成する。第1関係情報j1は、座標hを特定する計測器200が用いる計測器座標系CS2と、座標iおよびプロジェクター100の座標を定めるプロジェクター座標系CS1と、の対応関係を示す。第2生成部346は、対象物2における対象点kの計測器座標系CS2における座標mと、対象点kに対応する仮想対象点qの3次元の仮想空間d1における座標nと、に基づいて、第2関係情報j2を生成する。第2関係情報j2は、計測器座標系CS2と、仮想空間d1における座標を定める仮想空間座標系CS3と、の対応関係を示す。位置特定部347は、第1関係情報j1と第2関係情報j2とを用いることによって、プロジェクター100の座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置を特定する。
この態様によれば、プロジェクター100と計測器200とが任意の位置に配置されても、仮想空間座標系CS3においてプロジェクター100の位置を特定できる。このため、仮想空間座標系CS3におけるプロジェクター100の位置に基づいて、変形画像G1等の所定の画像を生成できる。したがって、プロジェクター100と計測器200とが任意の位置に配置されても、対象物2に変形画像G1等の所定の画像を投写することを支援できる。
取得部344は、座標hを、第1カメラ210と第2カメラ220とを有する計測器200から取得する。計測器200は、対象物2において計測点eが位置する対応点fを第1カメラ210が撮像することによって生成される第1撮像画像と、対象物2において計測点eが位置する対応点fを第2カメラ220が撮像することによって生成される第2撮像画像と、に基づいて、座標hを特定する。この態様によれば、計測器200として、ステレオカメラを用いることができる。このため、座標hの取得が容易となる。
仮想空間制御部348は、対象物2の位置に対応する第2仮想位置r2を、仮想空間d1に設定する。仮想空間制御部348は、対象物2に対応する仮想対象物2vを、仮想空間d1における第2仮想位置r2に配置する。仮想空間制御部348は、仮想対象物2vに元画像G2を表示する。仮想空間制御部348は、仮想空間d1において、プロジェクター100の仮想空間座標系CS3における位置に仮想カメラ400vを配置する。画像生成部349は、仮想対象物2vに表示される元画像G2を仮想カメラ400vが撮像することによって得られる変形画像G1を生成する。この態様によれば、プロジェクター100が対象物2に投写した場合に、元画像G2と同様の形態で示される変形画像G1を生成できる。
投写制御部342は、プロジェクター100に、変形画像G1を対象物2へ投写させる。この態様によれば、対象物2に、元画像G2と同様の形態で画像を投写できる。
計測画像G3は、正弦波に応じた輝度の変化を示すパタン画像である。この態様によれば、いわゆる、位相シフト法において使用される位相シフト画像を計測画像G3として用いることができる。
B:変形例
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B1:第1変形例
第1実施形態において、第1生成部345は、式2の代わりに、式5を用いることによって、回転行列Rと平行移動行列Tとを特定してもよい。
v2・(T×Rv1)=0 ・・・式5
式5は、エピポーラ方程式と称される。
図18は、式5に示されるベクトルv1およびv2を説明するための図である。第1変形例においては、投写レンズ140の主点は、プロジェクター座標系CS1が規定する2次元平面130sではなく、2次元平面130sからz軸に沿う方向において投写レンズ140の焦点距離だけ離れた位置Cに設定される。図18では、説明の簡略化のため、2次元平面130sの位置および第1イメージセンサー212の位置が調整されている。実際には、2次元平面130sは、位置Cに対して点対象となる位置に存在する。第1イメージセンサー212は、原点o2に対して点対象となる位置に存在する。
エピポーラ平面Kに含まれる2つのベクトルの外積は、エピポーラ平面Kに垂直なベクトルを示す。このため、エピポーラ平面Kに含まれる2つのベクトルの外積と、エピポーラ平面Kに含まれる他のベクトルと、の内積は「0」になる。式5は、この関係に基づいて定められる。
第1生成部345は、複数の第1座標ペアに基づいて、ベクトルv1およびv2の複数のペアを特定する。ベクトルv1およびv2のペアを「ベクトルペア」と称する。第1生成部345は、複数のベクトルペアを用いて、非線形最小二乗法などにより、式5のエピポーラ方程式を解くことによって、回転行列Rと平行移動行列Tとを特定する。
式5は、平行移動行列Tにて規定されるベクトルの方向を拘束できる。しかしながら、式5は、平行移動行列Tにて規定されるベクトルの大きさを拘束できない。そこで、第1生成部345は、平行移動行列Tにて規定されるベクトルの大きさを規定するために、式6を用いる。
Figure 2022102058000005
式6において、(x,y,z)は、第1座標ペアにおけるプロジェクター座標系CS1の2次元座標を3次元座標に変換することによって生成される。第1生成部345は、式6における(x,y,z)のzとして、投写レンズ140の焦点距離を用いることによって、第1座標ペアにおけるプロジェクター座標系CS1の2次元座標を3次元座標に変換する。
第1変形例によれば、プロジェクター座標系CS1と計測器座標系CS2との関係を表す回転行列Rと平行移動行列Tとを、エピポーラ方程式を用いることによって特定できる。
B2:第2変形例
第1実施形態および第1変形例において、プロジェクター100の投写レンズ140としてズームレンズが用いられてもよい。
この場合、ズームレンズにおけるズームの状態に応じて、投写レンズ140の内部パラメーターが変化する。このため、第1生成部345が式2を用いる場合、回転行列Rと平行移動行列Tとに加えて、内部パラメーター行列Aを特定する必要がある。回転行列Rと平行移動行列Tと内部パラメーター行列Aとを、式2を用いて算出するには、最低10個の第1座標ペアが必要となる。このため、第1生成部345は、10個以上の第1座標ペアを用いることによって、回転行列Rと平行移動行列Tと内部パラメーター行列Aとを特定する。
第1座標ペアによって示される座標は、誤差を含む可能性がある。このため、式2に代入される第1座標ペアの数が多いほど、回転行列Rと平行移動行列Tと内部パラメーター行列Aの精度が向上する。よって、第1生成部345は、より多くの第1座標ペアを用いることによって回転行列Rと平行移動行列Tと内部パラメーター行列Aとを特定することが望ましい。第1生成部345は、回転行列Rと平行移動行列Tと内部パラメーター行列Aとスケールファクターsとのグループを、第1関係情報j1として生成する。
第2変形例によれば、投写レンズ140として、ズームレンズを用いることが可能になる。
B3:第3変形例
第1実施形態および第1変形例において、第1カメラ210の第1イメージセンサー212に対して、2次元の座標系である撮像座標系が適用されてもよい。
この場合、第1生成部345は、プロジェクター座標系CS1と撮像座標系との対応関係を示す第1情報を生成してもよい。第2生成部346は、撮像座標系と仮想空間座標系CS3との対応関係を示す第2情報を生成してもよい。位置特定部347は、第1情報と第2情報とを用いることによって、プロジェクター100のプロジェクター座標系CS1における座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置である第1仮想位置r1を特定してもよい。
例えば、第1生成部345は、計測点eのプロジェクター座標系CS1における2次元座標と、対応点fの撮像座標系における2次元座標と、の複数のペアを用いることによって、プロジェクター座標系CS1と撮像座標系との対応関係を示す第1情報を生成する。第1情報は、例えば、プロジェクター座標系CS1と撮像座標系とに基づく射影変換行列である。
第2生成部346は、対象点kの撮像座標系における2次元座標と、仮想対象点qの仮想空間座標系CS3における3次元座標と、の複数のペアを用いることによって、撮像座標系と仮想空間座標系CS3との対応関係を示す第2情報を生成する。第2生成部346は、対象点kの撮像座標系における2次元座標と、仮想対象点qの仮想空間座標系CS3における3次元座標と、の複数のペアを用いることによって、上述の透視投影変換の式2における未知数、具体的には、回転行列Rと平行移動行列Tとを特定する。この場合、第2生成部346は、内部パラメーター行列Aに、第1撮像レンズ211の内部パラメーターを適用する。
位置特定部347は、まず、第1情報を用いることによって、プロジェクター100のプロジェクター座標系CS1における座標に基づいて、プロジェクター100の撮像座標系における位置を特定する。
続いて、位置特定部347は、第2情報を用いることによって、プロジェクター100の撮像座標系における位置を示す2次元座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置を特定する。
第3変形例は、以下の態様を有する。
第1生成部345は、計測画像G3をプロジェクター100が対象物2へ投写する状況で対象物2を第1カメラ210が撮影することによって生成される撮像画像において計測点eが位置する部分である対応点fの2次元座標である撮像座標と、計測点eの計測画像G3における2次元座標である投写座標と、に基づいて、第1情報を生成する。第1情報は、撮像座標を定めるカメラ座標系と、投写座標およびプロジェクター100の座標を定めるプロジェクター座標系CS1と、の対応関係を示す。第2生成部346は、対象物2における対象点kのカメラ座標系における座標と、対象点kに対応する仮想対象点qの3次元の仮想空間d1における座標と、に基づいて、第2情報を生成する。第2情報は、カメラ座標系と、仮想空間d1における座標を示す仮想空間座標系CS3と、の対応関係を示す。位置特定部347は、第1情報と第2情報とを用いることによって、プロジェクター100の座標に基づいて、プロジェクター100の仮想空間座標系CS3における位置を特定する。
第3変形例によれば、プロジェクター100と第1カメラ210とが任意の位置に配置されても、仮想空間座標系CS3においてプロジェクター100の位置を特定できる。このため、仮想空間座標系CS3におけるプロジェクター100の位置に基づいて、変形画像G1等の所定の画像を生成できる。したがって、プロジェクター100と第1カメラ210とが任意の位置に配置されても、対象物2に変形画像G1等の所定の画像を投写することを支援できる。また、第2カメラ220を省略できる。また、第1関係情報j1および第2関係情報j2の生成を省略できる。
B4:第4変形例
第1実施形態および第1変形例~第2変形例では、計測器座標系CS2の原点o2は、第1撮像レンズ211の主点の位置に設定される。このため、第1カメラ210の計測器座標系CS2における座標が既知である。したがって、位置特定部347は、第2関係情報j2を用いることによって、第1カメラ210の仮想空間座標系CS3における座標を特定できる。
第2生成部346は、第1カメラ210の仮想空間座標系CS3における座標の位置から第1カメラ210の内部パラメーターを有する視錐台で仮想対象物2vを覗いた場合に得られる仮想撮像画像を用いて、第2関係情報j2を更新してもよい。
例えば、第2生成部346は、第1カメラ210が対象物2を撮像することによって得られる対象撮像画像と、第1カメラ210の仮想空間座標系CS3における座標の位置から第1カメラ210の内部パラメーターを有する視錐台で仮想対象物2vを覗いた場合に得られる仮想撮像画像と、に基づいて、第2関係情報j2を更新する。
一例を挙げると、第2生成部346は、対象撮像画像に示される第1対象点k1の位置と、仮想撮像画像に示される第1仮想対象点q1の位置と、の誤差の二乗和が最小化されるように、第2関係情報j2を最適化する。誤差を特定するために使用される点は、第1対象点k1に限らず、例えば、第2対象点k2でもよく、また、対象物2においてプロジェクター100から画像が投写されない領域に位置する点でもよい。なお、第4変形例では、第1カメラ210の内部パラメーターが既知であることが前提となる。第3変形例に第4変形例の手法を適用する場合には、第2生成部346は、第2関係情報j2の代わりに、第2情報を上述のように最適化する。
第4変形例によれば、第2関係情報j2の精度と、第2情報の精度と、を向上することができる。
B5:第5変形例
第4変形例において、仮想撮像画像は、仮想対象物2vにおいて仮想カメラ400vの撮像範囲を含む領域の画像を示す。ここで、仮想カメラ400vが有する仮想撮像レンズ410vの内部パラメーターは、プロジェクター100の投写レンズ140の内部パラメーターと等しい。このため、仮想カメラ400vの撮像範囲は、プロジェクター100と同様の内部パラメーターを有する仮想プロジェクターが第1仮想位置r1に配置された際に画像を投写する投写範囲と等しい。仮想対象物2vにおいて仮想カメラ400vの撮像範囲となる領域に含まれる複数の点の仮想空間座標系CSにおける3次元座標は既知である。第2生成部346は、この既知の3次元座標を用いて、第2関係情報j2を更新してもよい。
対象物2が、仮想対象物2vにおいて仮想カメラ400vの撮像範囲に含まれる複数の点に1対1で対応する複数のサンプルポイントを有するとする。この場合、第2生成部346は、計測器200に、複数のサンプルポイントの計測器座標系CS2における3次元座標を計測させる。続いて、第2生成部346は、計測器200から、複数のサンプルポイントの計測器座標系CS2における3次元座標を取得する。続いて、第2生成部346は、サンプルポイントごとに、サンプルポイントの計測器座標系CS2における3次元座標と、当該サンプルポイントに対応する点の仮想空間座標系CS3における3次元座標と、の差の二乗和が最小化されるように、第2関係情報j2を最適化する。なお、この手法は、3次元座標の点群を用いた外形形状のマッチングとなるため、仮想対象物2vにおいて仮想カメラ400vの撮像範囲となる領域が完全な平面でない場合に用いられる。
第5変形例によれば、第2関係情報j2の精度を向上することができる。
B6:第6変形例
第1実施形態および第1変形例~第5変形例において、対象点kの位置は、物理マーカーの位置ではなく、対象物2が有する特徴点の位置でもよい。特徴点は、例えば、ボルト穴、または、突起である。この場合、仮想対象点qは、対象物2が有する特徴点の位置に応じて設定される。
第6変形例によれば、対象物2が有する特徴点を対象点kとして用いることができる。
B7:第7変形例
第1実施形態および第1変形例~第6変形例において、計測画像G3は、位相シフト画像に限らず、適宜変更可能である。計測画像G3は、例えば、計測点eの位置にマークを示す画像でもよい。
図19は、計測画像G3の他の例を示す図である。図19は、計測点eの位置にドットG35aを示す画像G35を示す。ドットG35aの中心位置は、重心検出等の手法によって容易に算出可能である。このため、各計測点eの位置に、ドットG35aの中心が位置することが好ましい。なお、マークは、ドットG35aに限らず、例えば、多角形のマーク、または、2つの線が交差する形状を有するマークでもよい。
第7変形例によれば、位相シフト画像を用いる構成に比べて、計測画像G3の数を少なくできる。
B8:第8変形例
第1実施形態および第1変形例~第7変形例において、情報処理装置300は、プロジェクター100または計測器200に組み込まれてもよい。
B9:第9変形例
第1実施形態および第1変形例~第8変形例において、光変調装置の一例として液晶ライトバルブ130が用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。また、液晶パネルおよびDMD以外にも、光源120が発した光を変調可能な構成は、光変調装置として採用できる。
1…投写システム、2…対象物、100…プロジェクター、110…画像処理部、120…光源、130…液晶ライトバルブ、140…投写レンズ、200…計測器、210…第1カメラ、211…第1撮像レンズ、212…第1イメージセンサー、220…第2カメラ、221…第2撮像レンズ、222…第2イメージセンサー、230…第1記憶部、240…第1処理部、241…撮像制御部、242…提供部、243…算出部、300…情報処理装置、310…操作部、320…表示部、330…第2記憶部、340…第2処理部、341…仮想空間生成部、342…投写制御部、343…計測制御部、344…取得部、345…第1生成部、346…第2生成部、347…位置特定部、348…仮想空間制御部、349…画像生成部。
図18は、式5に示されるベクトルv1およびv2を説明するための図である。第1変形例においては、投写レンズ140の主点は、プロジェクター座標系CS1が規定する2次元平面130sではなく、2次元平面130sからz1軸に沿う方向において投写レンズ140の焦点距離だけ離れた位置Cに設定される。図18では、説明の簡略化のため、2次元平面130sの位置および第1イメージセンサー212の位置が調整されている。実際には、2次元平面130sは、位置Cに対して点対称となる位置に存在する。第1イメージセンサー212は、原点o2に対して点対称となる位置に存在する。

Claims (11)

  1. 特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記特定点が位置する部分の3次元の第1座標と、前記特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す関係情報を生成し、
    前記関係情報を用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記3次元座標系における位置を特定する、
    ことを含む位置特定方法。
  2. 第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記第1特定点が位置する部分の3次元の第1座標と、前記第1特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1関係情報を生成し、
    前記対象物における第2特定点の前記3次元座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記3次元座標系と、前記仮想空間における座標を定める仮想空間座標系と、の対応関係を示す第2関係情報を生成し、
    前記第1関係情報と前記第2関係情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する、
    ことを含むシミュレーション方法。
  3. 第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物をカメラが撮影することによって生成される撮像画像において前記第1特定点が位置する部分の2次元の座標である撮像座標と、前記第1特定点の前記投写画像における2次元の座標である投写座標と、に基づいて、前記撮像座標を定めるカメラ座標系と、前記投写座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1情報を生成し、
    前記対象物における第2特定点の前記カメラ座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記カメラ座標系と、前記仮想空間における座標を示す仮想空間座標系と、の対応関係を示す第2情報を生成し、
    前記第1情報と前記第2情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する、
    ことを含むシミュレーション方法。
  4. 前記第1座標を、第1カメラと第2カメラとを有する計測器から取得することをさらに含み、
    前記計測器は、
    前記対象物において前記第1特定点が位置する前記部分を前記第1カメラが撮像することによって生成される第1撮像画像と、
    前記対象物において前記第1特定点が位置する前記部分を前記第2カメラが撮像することによって生成される第2撮像画像と、
    に基づいて、前記第1座標を特定する、
    請求項2に記載のシミュレーション方法。
  5. 前記対象物の位置に対応する仮想位置を、前記仮想空間に設定し、
    前記対象物に対応する仮想対象物を、前記仮想空間における前記仮想位置に配置し、
    前記仮想対象物に第1画像を表示し、
    前記仮想空間において、前記プロジェクターの前記仮想空間座標系における位置に仮想カメラを配置し、
    前記仮想対象物に表示される前記第1画像を仮想カメラが撮像することによって得られる第2画像を生成する、
    ことをさらに含む請求項2から4のいずれか1項に記載のシミュレーション方法。
  6. 前記プロジェクターに、前記第2画像を前記対象物へ投写させる、
    ことをさらに含む請求項5に記載のシミュレーション方法。
  7. 前記投写画像は、正弦波に応じた輝度の変化を示すパタン画像である、
    請求項2から6のいずれか1項に記載のシミュレーション方法。
  8. 前記投写画像は、前記第1特定点の位置にマークを示す画像である、
    請求項2から6のいずれか1項に記載のシミュレーション方法。
  9. 特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記特定点が位置する部分の3次元の第1座標と、前記特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す関係情報を生成する生成部と、
    前記関係情報を用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記3次元座標系における位置を特定する位置特定部と、
    を含む位置特定システム。
  10. 第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物において前記第1特定点が位置する部分の3次元の第1座標と、前記第1特定点の前記投写画像における2次元の第2座標と、に基づいて、前記第1座標を特定する計測器が用いる3次元座標系と、前記第2座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1関係情報を生成する第1生成部と、
    前記対象物における第2特定点の前記3次元座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記3次元座標系と、前記仮想空間における座標を定める仮想空間座標系と、の対応関係を示す第2関係情報を生成する第2生成部と、
    前記第1関係情報と前記第2関係情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する位置特定部と、
    を含むシミュレーションシステム。
  11. 第1特定点を有する投写画像をプロジェクターが対象物へ投写する状況で前記対象物をカメラが撮影することによって生成される撮像画像において前記第1特定点が位置する部分の2次元の座標である撮像座標と、前記第1特定点の前記投写画像における2次元の座標である投写座標と、に基づいて、前記撮像座標を定めるカメラ座標系と、前記投写座標および前記プロジェクターの座標を定めるプロジェクター座標系と、の対応関係を示す第1情報を生成する第1生成部と、
    前記対象物における第2特定点の前記カメラ座標系における座標と、前記第2特定点に対応する第3特定点の3次元の仮想空間における座標と、に基づいて、前記カメラ座標系と、前記仮想空間における座標を示す仮想空間座標系と、の対応関係を示す第2情報を生成する第2生成部と、
    前記第1情報と前記第2情報とを用いることによって、前記プロジェクターの座標に基づいて、前記プロジェクターの前記仮想空間座標系における位置を特定する位置特定部と、
    を含むシミュレーションシステム。
JP2020216570A 2020-12-25 2020-12-25 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム Pending JP2022102058A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020216570A JP2022102058A (ja) 2020-12-25 2020-12-25 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム
US17/561,040 US11856340B2 (en) 2020-12-25 2021-12-23 Position specifying method and simulation method
CN202111602998.9A CN114693772A (zh) 2020-12-25 2021-12-24 位置确定方法、模拟方法、位置确定系统和模拟系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020216570A JP2022102058A (ja) 2020-12-25 2020-12-25 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム

Publications (1)

Publication Number Publication Date
JP2022102058A true JP2022102058A (ja) 2022-07-07

Family

ID=82117987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020216570A Pending JP2022102058A (ja) 2020-12-25 2020-12-25 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム

Country Status (3)

Country Link
US (1) US11856340B2 (ja)
JP (1) JP2022102058A (ja)
CN (1) CN114693772A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114909999A (zh) * 2022-07-18 2022-08-16 深圳市超准视觉科技有限公司 一种基于结构光的三维测量系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182078A (ja) * 2010-02-26 2011-09-15 Seiko Epson Corp 補正情報算出装置、画像補正装置、画像表示システム、補正情報算出方法
WO2017038096A1 (ja) * 2015-09-01 2017-03-09 Necプラットフォームズ株式会社 投射装置、投射方法およびプログラム記憶媒体
JP2019047312A (ja) * 2017-09-01 2019-03-22 セイコーエプソン株式会社 画像投写システム及びその制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013114707A1 (de) 2013-12-20 2015-06-25 EXTEND3D GmbH Verfahren zur Durchführung und Kontrolle eines Bearbeitungsschritts an einem Werkstück
JP6618249B2 (ja) 2014-02-18 2019-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システムおよび半導体集積回路
US10089778B2 (en) * 2015-08-07 2018-10-02 Christie Digital Systems Usa, Inc. System and method for automatic alignment and projection mapping
JP2018097148A (ja) 2016-12-13 2018-06-21 パナソニックIpマネジメント株式会社 画像投影システム、画像投影装置、及び画像投影方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182078A (ja) * 2010-02-26 2011-09-15 Seiko Epson Corp 補正情報算出装置、画像補正装置、画像表示システム、補正情報算出方法
WO2017038096A1 (ja) * 2015-09-01 2017-03-09 Necプラットフォームズ株式会社 投射装置、投射方法およびプログラム記憶媒体
JP2019047312A (ja) * 2017-09-01 2019-03-22 セイコーエプソン株式会社 画像投写システム及びその制御方法

Also Published As

Publication number Publication date
US20220210385A1 (en) 2022-06-30
CN114693772A (zh) 2022-07-01
US11856340B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
Schmalz et al. Camera calibration: active versus passive targets
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6576945B2 (ja) 較正装置、較正方法、光学装置、撮影装置、投影装置、計測システムおよび計測方法
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
JP5999615B2 (ja) カメラ較正情報生成装置、カメラ較正情報生成方法およびカメラ較正情報生成プログラム
JP2017227975A (ja) 複合現実環境を作成するためのシステム等
JP2014102246A (ja) 位置姿勢検出システム
JP2012058076A (ja) 3次元計測装置及び3次元計測方法
Suresh et al. Structured light system calibration with unidirectional fringe patterns
CN105306922A (zh) 一种深度相机参考图的获取方法和装置
JP2019139030A (ja) 3次元計測対象物体の表面に計測結果関連情報を投影する方法および装置
JP2022102058A (ja) 位置特定方法、シミュレーション方法、位置特定システムおよびシミュレーションシステム
WO2020049965A1 (ja) 3次元計測システム、3次元計測カメラ、3次元計測方法及びプログラム
JP2019045299A (ja) 3次元情報取得装置
JP2011075336A (ja) 3次元形状計測装置、3次元形状計測方法
JPWO2010013289A1 (ja) カメラ校正画像作成装置およびカメラ校正画像作成プログラム
JP2018106643A (ja) 空間モデル処理装置
JP2012216981A (ja) ステレオカメラのキャリブレーション方法及び情報処理装置
WO2015159835A1 (ja) 画像処理装置、画像処理方法、プログラム
JP5087571B2 (ja) 三次元像表示装置の座標校正方法
JP2014134611A (ja) 幾何歪み補正装置、プロジェクタ装置、及び幾何歪み補正方法
JP6713622B2 (ja) 3次元計測装置、3次元計測システム、3次元計測方法及びプログラム
JP2018084512A (ja) 三次元形状熱計測装置、三次元形状熱計測方法及びプログラム
JP4429135B2 (ja) 三次元形状計測システム及び計測方法
JP4985213B2 (ja) 3次元形状計測方法および装置ならびにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231018

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231026

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231201