JP2016014720A - Information processor and method - Google Patents

Information processor and method Download PDF

Info

Publication number
JP2016014720A
JP2016014720A JP2014135791A JP2014135791A JP2016014720A JP 2016014720 A JP2016014720 A JP 2016014720A JP 2014135791 A JP2014135791 A JP 2014135791A JP 2014135791 A JP2014135791 A JP 2014135791A JP 2016014720 A JP2016014720 A JP 2016014720A
Authority
JP
Japan
Prior art keywords
unit
projection
imaging
mutual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014135791A
Other languages
Japanese (ja)
Inventor
小林 直樹
Naoki Kobayashi
小林  直樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014135791A priority Critical patent/JP2016014720A/en
Publication of JP2016014720A publication Critical patent/JP2016014720A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of easily and precisely calibrating the positional relationship between a projection part and an imaging part.SOLUTION: The information processor estimates a mutual posture as relative position and direction of the projection part and the imaging part based on a relative positional relationship between an image projected by the projection part and the image taken by an imaging part on predetermined plane. The technique is applicable to, for example, a projector or a camera; or an electronic apparatus having both functions of them and a computer controlling the same.

Description

本技術は、情報処理装置および方法に関し、特に、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるようにした情報処理装置および方法に関する。   The present technology relates to an information processing apparatus and method, and more particularly, to an information processing apparatus and method that can calibrate a positional relationship between a projection unit and an imaging unit more easily and with high accuracy.

従来、複数のプロジェクタを用いて画像を投影するシステムがあった。このようなシステムにおいては、各プロジェクタの投影画像を適切に繋げることにより、1つの画像を投影することができる。そのために、カメラ等により投影画像がセンシングされ、そのセンシング結果を用いて各プロジェクタにおいて投影する画像に対する補正が行われていた。   Conventionally, there has been a system for projecting an image using a plurality of projectors. In such a system, one image can be projected by appropriately connecting the projection images of the projectors. For this purpose, the projection image is sensed by a camera or the like, and the image projected by each projector is corrected using the sensing result.

その補正の際、各カメラやプロジェクタの内部変数だけでなく、カメラやプロジェクタの位置関係等の外部変数が用いられるが、これらの変数は、システムの出荷時や設置時等にキャリブレーションされていた。例えば、グレイコードを用いてプロジェクタとカメラの画素の対応関係を検出する方法や、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン画像を用いてプロジェクタとカメラの画素の対応関係を検出する方法が考えられた(例えば、非特許文献1参照)。   At the time of the correction, not only the internal variables of each camera and projector but also external variables such as the positional relationship of the camera and projector are used. These variables were calibrated at the time of system shipment or installation. . For example, a method of detecting the correspondence between the projector and the camera pixel using the Gray code, or a correspondence image between the projector and the camera pixel using a pattern image lacking any of the four corners of the checker and the checker. A method was conceived (for example, see Non-Patent Document 1).

Ramesh Raskar, Jeroen van Baar, Paul Beardsley, Thomas Willwacher, Srinivas Rao, Clifton Forlines, "iLamps: Geometrically Aware and Self-Configuring Projectors", ACM SIGGRAPH 2003 Conference ProceedingsRamesh Raskar, Jeroen van Baar, Paul Beardsley, Thomas Willwacher, Srinivas Rao, Clifton Forlines, "iLamps: Geometrically Aware and Self-Configuring Projectors", ACM SIGGRAPH 2003 Conference Proceedings

しかしながら、カメラやプロジェクタの位置関係等の外部変数は、システム設置後に経年変化する可能性があるが、その場合、改めて特殊な装置を用いてキャリブレーションする必要があり、複数のカメラやプロジェクタの全てについてこのようなキャリブレーションを行うためには煩雑な作業を必要とした。また、このような方法では、全てのキャリブレーションを高精度に行うことは困難であった。   However, external variables such as the positional relationship of cameras and projectors may change over time after the system is installed, but in that case, it is necessary to calibrate again using a special device. In order to perform such calibration, complicated work is required. Further, with such a method, it is difficult to perform all calibrations with high accuracy.

本技術は、このような状況に鑑みて提案されたものであり、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるようにすることを目的とする。   The present technology has been proposed in view of such a situation, and an object thereof is to enable calibration of the positional relationship between a projection unit and an imaging unit more easily and with high accuracy.

本技術の一側面は、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部を備える情報処理装置である。   One aspect of the present technology provides a relative position and direction between the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. It is an information processing apparatus provided with the mutual attitude | position estimation part which estimates the mutual attitude | position which is.

前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離に基づいて、前記相互姿勢を決定する変数を推定することができる。   The mutual posture estimation unit calculates the mutual posture based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The variable to be determined can be estimated.

前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部とを備えることができる。   The mutual posture estimation unit updates an evaluation value of a distance between a position on the predetermined plane of the image projected by the projection unit and a position on the predetermined plane of the image captured by the imaging unit. And a variable estimation unit that estimates a variable for determining the mutual attitude based on the evaluation value updated by the update unit.

前記更新部は、前記撮像部が撮像する前記画像に含まれる処理対象の画素の前記所定の面における位置と、前記画素を投影する各投影部が投影する前記画像の前記画素の前記所定の面における位置との距離の2乗平均を前記評価値とすることができる。   The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined surface, and the predetermined surface of the pixel of the image projected by each projection unit that projects the pixel. The mean square of the distance to the position at can be used as the evaluation value.

前記変数推定部は、前記撮像部の回転行列、前記撮像部の並進ベクトル、前記投影部の回転行列、および前記投影部の並進ベクトルを含むようにすることができる。   The variable estimation unit may include a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.

前記投影部および前記撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備え、前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定することができる。   A provisional mutual attitude estimation unit that estimates a mutual attitude between the projection imaging device having the projection unit and the imaging unit as a provisional mutual attitude; the mutual attitude estimation unit estimated by the temporary mutual attitude estimation unit; The mutual posture can be estimated using the temporary mutual posture as an initial value.

前記仮相互姿勢推定部は、各投影撮像装置の投影面の位置の誤差が最小となるように前記仮の相互姿勢を推定することができる。   The temporary mutual posture estimation unit can estimate the temporary mutual posture so that an error in the position of the projection plane of each projection imaging apparatus is minimized.

各投影撮像装置について、前記画像が投影される投影面に対する前記投影部および前記撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備え、前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定することができる。   Each projection imaging apparatus further includes a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected, and the temporary mutual attitude estimation unit includes the projection plane attitude estimation The provisional mutual posture can be estimated using the mutual posture of the projection unit and the imaging unit with respect to the projection plane estimated by the unit.

前記投影面姿勢推定部は、三角測量を行うことにより前記投影面を推定し、推定した前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。   The projection plane attitude estimation unit can estimate the projection plane by performing triangulation, and can estimate a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane.

前記投影面姿勢推定部は、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。   The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. Based on the above, it is possible to estimate the mutual attitude of the projection unit and the imaging unit with respect to the projection plane.

前記仮相互姿勢推定部は、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係に基づいて、前記仮の相互姿勢を推定することができる。   The temporary mutual posture estimation unit can estimate the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices.

前記投影面姿勢推定部は、前記投影部に画素位置対応を求める際に用いるパターンを投影させ、前記撮像部に撮像させることにより検出される、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。   The projection plane posture estimation unit detects the projection unit and the imaging unit in the projection imaging apparatus that are detected by causing the projection unit to project a pattern used when determining pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence relationship of the pixel position with respect to the projection imaging device and the correspondence relationship of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the mutual attitude of the projection unit and the imaging unit with respect to the projection plane can do.

投影された画像を撮像し撮像画像を得る撮像部をさらに備え、前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定することができる。   The image processing apparatus further includes an imaging unit that captures a projected image and obtains a captured image, and the mutual posture estimation unit includes an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. Based on the relative positional relationship, the mutual posture of the projection unit and the imaging unit can be estimated.

画像を投影する投影部をさらに備え、前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定することができる。   The image processing apparatus further includes a projection unit that projects an image, and the mutual posture estimation unit can further estimate a mutual posture between the projection unit and the imaging unit.

前記相互姿勢推定部により推定された前記投影部と前記撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備えることができる。   The image processing unit may further include an image processing unit that performs image processing for correcting an image to be projected using a variable according to a mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit.

本技術の一側面は、また、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する情報処理方法である。   One aspect of the present technology also provides a relative position between the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. And an information processing method for estimating a mutual posture which is a direction.

本技術の一側面においては、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢が推定される。   In one aspect of the present technology, based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined surface, the relative position between the projection unit and the imaging unit, and A mutual attitude which is a direction is estimated.

本技術によれば、画像に基づいて情報を処理することが出来る。また本技術によれば、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができる。   According to the present technology, information can be processed based on an image. According to the present technology, it is possible to calibrate the positional relationship between the projection unit and the imaging unit more easily and with high accuracy.

投影撮像システムの主な構成例を示す図である。It is a figure which shows the main structural examples of a projection imaging system. 制御装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of a control apparatus. CPUにおいて実現される主な機能の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the main functions implement | achieved in CPU. 投影撮像装置の外観の例について説明する図である。It is a figure explaining the example of the external appearance of a projection imaging device. 投影撮像装置の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of a projection imaging device. 投影部の主な構成例を示すブロック図である。It is a block diagram which shows the main structural examples of a projection part. レーザ光の走査の例を示す図である。It is a figure which shows the example of the scanning of a laser beam. キャリブレーション処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a calibration process. 画素位置対応検出処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a pixel position corresponding | compatible detection process. 設置された投影撮像システムの例を示す図である。It is a figure which shows the example of the projection imaging system installed. グレイコードの例を示す図である。It is a figure which shows the example of a gray code. 装置内において投影部と撮像部の画素位置対応関係を求める様子の例を説明する図である。It is a figure explaining the example of a mode that the pixel position correspondence of a projection part and an imaging part is calculated | required within an apparatus. 装置間において投影部と撮像部の画素位置対応関係を求める様子の例を説明する図である。It is a figure explaining the example of a mode that the pixel position correspondence of a projection part and an imaging part is calculated | required between apparatuses. 投影面姿勢推定処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a projection surface attitude | position estimation process. 投影面に対する姿勢の推定の様子の例を説明する図である。It is a figure explaining the example of the mode of the estimation of the attitude | position with respect to a projection surface. 仮相互姿勢推定処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a temporary mutual attitude | position estimation process. 装置同士の相互姿勢を推定する様子の例を説明する図である。It is a figure explaining the example of a mode that the mutual attitude | position of apparatuses is estimated. 装置同士の相互姿勢を推定する様子の例を説明する図である。It is a figure explaining the example of a mode that the mutual attitude | position of apparatuses is estimated. 相互姿勢再推定処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a mutual attitude | position re-estimation process. 装置同士の相互姿勢を再推定する様子の例を示す図である。It is a figure which shows the example of a mode that the mutual attitude | position of apparatuses is re-estimated. 投影撮像システムの他の構成例を示す図である。It is a figure which shows the other structural example of a projection imaging system. 投影撮像システムのさらに他の構成例を示す図である。It is a figure which shows the further another structural example of a projection imaging system. 投影撮像システムのさらに他の構成例を示す図である。It is a figure which shows the further another structural example of a projection imaging system. 投影撮像システムのさらに他の構成例を示す図である。It is a figure which shows the further another structural example of a projection imaging system.

以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(投影撮像システム)
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment (projection imaging system)

<1.第1の実施の形態>
<外部変数の経年変化と再キャリブレーション>
従来、複数のプロジェクタを用いて画像を投影するシステムがあった。このようなシステムにおいては、各プロジェクタの投影画像を適切に繋げることにより、1つの画像を投影することができる。そのために、カメラ等により投影画像がセンシングされ、そのセンシング結果を用いて各プロジェクタにおいて投影する画像に対する補正が行われていた。
<1. First Embodiment>
<External variable aging and recalibration>
Conventionally, there has been a system for projecting an image using a plurality of projectors. In such a system, one image can be projected by appropriately connecting the projection images of the projectors. For this purpose, the projection image is sensed by a camera or the like, and the image projected by each projector is corrected using the sensing result.

その補正の際、各カメラやプロジェクタの内部変数だけでなく、カメラやプロジェクタの位置関係等の外部変数が用いられるが、これらの変数は、システムの出荷時や設置時等にキャリブレーションされていた。例えば、グレイコードを用いてプロジェクタとカメラの画素の対応関係を検出する方法や、非特許文献1に記載のような、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン画像を用いてプロジェクタとカメラの画素の対応関係を検出する方法が考えられた。   At the time of the correction, not only the internal variables of each camera and projector but also external variables such as the positional relationship of the camera and projector are used. These variables were calibrated at the time of system shipment or installation. . For example, a method of detecting a correspondence relationship between a projector and a camera pixel using a Gray code, or a projector using a pattern image lacking any of the four corners of the checker and the checker as described in Non-Patent Document 1. And a method for detecting the correspondence between the camera pixels.

しかしながら、カメラやプロジェクタの位置関係等の外部変数は、システム設置後に経年変化する可能性があるが、その場合、改めて特殊な装置を用いてキャリブレーションする必要があり、複数のカメラやプロジェクタの全てについてこのようなキャリブレーションを行うためには煩雑な作業を必要とした。また、このような方法では、全てのキャリブレーションを高精度に行うことは困難であった。   However, external variables such as the positional relationship of cameras and projectors may change over time after the system is installed, but in that case, it is necessary to calibrate again using a special device. In order to perform such calibration, complicated work is required. Further, with such a method, it is difficult to perform all calibrations with high accuracy.

そこで、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるように、所定の面における、投影部が投影する画像と撮像部が撮像する画像との相対位置関係に基づいて、投影部と撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部を備えるようにする。   Therefore, the relative position between the image projected by the projection unit and the image captured by the imaging unit on a predetermined plane so that the positional relationship between the projection unit and the imaging unit can be calibrated more easily and with high accuracy. Based on the relationship, a mutual posture estimation unit that estimates a mutual posture that is a relative position and direction between the projection unit and the imaging unit is provided.

つまり、相互姿勢推定部は、共通の所定の面において各投影部が投影する画像の位置と撮像部が撮像する画像との位置をできるだけ近づけるように、その所定の面に対する投影部と撮像部の姿勢を求め、その所定の面を介して、投影部と撮像部の相互姿勢を求める。   In other words, the mutual posture estimation unit is configured so that the position of the image projected by each projection unit and the position of the image captured by the imaging unit are as close as possible to each other on the predetermined plane. The posture is obtained, and the mutual posture of the projection unit and the imaging unit is obtained through the predetermined plane.

このようにキャリブレーションを行うことにより、複数の投影部と撮像部の相互姿勢を容易に求めることができる。また、画像の位置合わせの方法としては、例えば投影部が投影する画像上において行う方法があるが、これに対して上述した方法の場合、投影先の面(投影面)において画像を揃えるようにキャリブレーションを行う。したがって、より高精度にキャリブレーションを行うことができる。   By performing calibration in this way, the mutual postures of the plurality of projection units and the imaging unit can be easily obtained. In addition, as an image alignment method, for example, there is a method performed on an image projected by a projection unit. On the other hand, in the case of the method described above, images are aligned on a projection destination surface (projection surface). Perform calibration. Therefore, calibration can be performed with higher accuracy.

なお、前記相互姿勢推定部が、投影部が投影する画像の所定の面における位置と、撮像部が撮像する画像の所定の面における位置との距離に基づいて、相互姿勢を決定する変数を推定するようにしてもよい。   The mutual posture estimation unit estimates a variable for determining the mutual posture based on a distance between a position on a predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. You may make it do.

また、相互姿勢推定部が、投影部が投影する画像の所定の面における位置と、撮像部が撮像する画像の所定の面における位置との距離の評価値を更新する更新部と、その更新部により更新された評価値に基づいて、相互姿勢を決定する変数を推定する変数推定部とを備えるようにしてもよい。   Further, the mutual posture estimation unit updates an evaluation value of a distance between a position on a predetermined plane of the image projected by the projection unit and a position on the predetermined plane of the image captured by the imaging unit, and the updating unit And a variable estimation unit for estimating a variable for determining the mutual posture based on the evaluation value updated by the above.

そして、その更新部が、撮像部が撮像する画像に含まれる処理対象の画素の所定の面における位置と、画素を投影する各投影部が投影する画像の画素の所定の面における位置との距離の2乗平均を前記評価値とするようにしてもよい。   And the update part is the distance between the position on the predetermined plane of the pixel to be processed included in the image captured by the imaging section and the position on the predetermined plane of the pixel of the image projected by each projection section that projects the pixel. May be used as the evaluation value.

さらに、変数推定部が、撮像部の回転行列、撮像部の並進ベクトル、投影部の回転行列、および投影部の並進ベクトルを含むようにしてもよい。   Further, the variable estimation unit may include a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.

また、投影部および撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、仮相互姿勢推定部により推定された仮の相互姿勢を初期値として、相互姿勢を推定するようにしてもよい。   Moreover, you may make it further provide the temporary mutual attitude | position estimation part which estimates the mutual attitude | position of the projection imaging devices which have a projection part and an imaging part as a temporary mutual attitude | position. The mutual posture estimation unit may estimate the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.

なお、その仮相互姿勢推定部が、各投影撮像装置の投影面の位置の誤差が最小となるように仮の相互姿勢を推定するようにしてもよい。   The temporary mutual posture estimation unit may estimate the temporary mutual posture so that the error in the position of the projection plane of each projection imaging apparatus is minimized.

また、各投影撮像装置について、画像が投影される投影面に対する投影部および撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備えるようにしてもよい。そして、仮相互姿勢推定部が、投影面姿勢推定部により推定された投影面に対する投影部および撮像部の相互姿勢を用いて、仮の相互姿勢を推定するようにしてもよい。   Each projection imaging apparatus may further include a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to the projection plane on which the image is projected. Then, the temporary mutual posture estimation unit may estimate the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit.

なお、その投影面姿勢推定部が、三角測量を行うことにより投影面を推定し、推定した投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。   The projection plane orientation estimation unit may estimate the projection plane by performing triangulation, and may estimate the mutual orientations of the projection unit and the imaging unit with respect to the estimated projection plane.

また、投影面姿勢推定部が、投影撮像装置内の投影部と撮像部との画素位置の対応関係と、投影撮像装置間の投影部と撮像部との画素位置の対応関係とに基づいて、投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。また、仮相互姿勢推定部が、投影撮像装置間の投影部と撮像部との画素位置の対応関係に基づいて、仮の相互姿勢を推定するようにしてもよい。   Further, the projection plane orientation estimation unit is based on the correspondence between the pixel positions of the projection unit and the imaging unit in the projection imaging device and the correspondence between the pixel positions of the projection unit and the imaging unit between the projection imaging devices, You may make it estimate the mutual attitude | position of the projection part and imaging part with respect to a projection surface. The temporary mutual posture estimation unit may estimate the temporary mutual posture based on the correspondence relationship between the pixel positions of the projection unit and the imaging unit between the projection imaging devices.

なお、投影面姿勢推定部が、投影部に画素位置対応を求める際に用いるパターンを投影させ、撮像部に撮像させることにより検出される、投影撮像装置内の投影部と撮像部との画素位置の対応関係と、投影撮像装置間の投影部と撮像部との画素位置の対応関係とに基づいて、投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。   Note that the pixel position between the projection unit and the imaging unit in the projection imaging apparatus is detected by causing the projection plane orientation estimation unit to project a pattern used when obtaining the pixel position correspondence to the projection unit and causing the imaging unit to capture an image. And the mutual orientation of the projection unit and the imaging unit with respect to the projection plane may be estimated based on the correspondence relationship between the projection unit and the imaging unit.

また、投影された画像を撮像し撮像画像を得る撮像部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、所定の面における、他の装置の投影部が投影する画像と撮像部が撮像する画像との相対位置関係に基づいて、投影部と撮像部との相互姿勢を推定するようにしてもよい。   Moreover, you may make it further provide the imaging part which images the projected image and acquires a captured image. Then, the mutual posture estimation unit estimates the mutual posture between the projection unit and the imaging unit based on the relative positional relationship between the image projected by the projection unit of another device and the image captured by the imaging unit on a predetermined plane. You may make it do.

また、画像を投影する投影部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、さらに、投影部と撮像部との相互姿勢を推定するようにしてもよい。   Moreover, you may make it further provide the projection part which projects an image. The mutual posture estimation unit may further estimate the mutual posture between the projection unit and the imaging unit.

また、相互姿勢推定部により推定された投影部と撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備えるようにしてもよい。   In addition, an image processing unit that performs image processing for correcting an image to be projected using a variable according to the mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit may be further provided.

<投影撮像システム>
このような本技術を適用した情報処理装置の一実施の形態である制御装置を適用した投影撮像システムの主な構成例を、図1に示す。図1に示される投影撮像システム100は、画像を投影するシステムである。この投影撮像システム100は、例えば、上述したように複数の投影装置(投影撮像装置)を用いて1つの画像を投影することができる。図1に示されるように、投影撮像システム100は、制御装置101、投影撮像装置102−1乃至投影撮像装置102−4、並びに、通信ケーブル103−1乃至通信ケーブル103−4を有する。
<Projection imaging system>
FIG. 1 illustrates a main configuration example of a projection imaging system to which a control device that is an embodiment of an information processing device to which the present technology is applied is applied. A projection imaging system 100 shown in FIG. 1 is a system that projects an image. The projection imaging system 100 can project one image using a plurality of projection devices (projection imaging devices) as described above, for example. As illustrated in FIG. 1, the projection imaging system 100 includes a control device 101, projection imaging devices 102-1 to 102-4, and communication cables 103-1 to 103-4.

投影撮像装置102−1は、通信ケーブル103−1により制御装置101と接続されている。投影撮像装置102−2は、通信ケーブル103−2により制御装置101と接続されている。投影撮像装置102−3は、通信ケーブル103−3により制御装置101と接続されている。投影撮像装置102−4は、通信ケーブル103−4により制御装置101と接続されている。   The projection imaging apparatus 102-1 is connected to the control apparatus 101 via a communication cable 103-1. The projection imaging device 102-2 is connected to the control device 101 by a communication cable 103-2. The projection imaging apparatus 102-3 is connected to the control apparatus 101 via a communication cable 103-3. The projection imaging apparatus 102-4 is connected to the control apparatus 101 via a communication cable 103-4.

制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4のそれぞれと通信を行い、それらの動作を制御する。例えば、制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4に対して、画像をスクリーン104に投影させたり、スクリーン104に投影された画像(投影画像)を撮像させたりする。   The control device 101 communicates with each of the projection imaging device 102-1 to the projection imaging device 102-4 and controls their operations. For example, the control apparatus 101 causes the projection imaging apparatus 102-1 to the projection imaging apparatus 102-4 to project an image on the screen 104 or to capture an image (projected image) projected on the screen 104.

例えば、制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4を制御し、それらを協働させて1つの画像をスクリーン104に投影させることもできる。また、制御装置101は、例えば、投影撮像装置102−1乃至投影撮像装置102−4が有する投影部や撮像部の相対的な位置や方向である相互姿勢(例えば回転成分や並進成分等)のキャリブレーションを行うことができる。また、制御装置101は、例えば、そのキャリブレーション結果を用いて、投影撮像装置102−1乃至投影撮像装置102−4のそれぞれが投影する画像に対する補正を行うことができる。   For example, the control device 101 can control the projection imaging device 102-1 to the projection imaging device 102-4 and project them together on the screen 104 by cooperating them. In addition, the control device 101 may have, for example, a mutual posture (for example, a rotation component or a translation component) that is a relative position or direction of the projection unit or the imaging unit included in the projection imaging device 102-1 to the projection imaging device 102-4. Calibration can be performed. Further, for example, the control apparatus 101 can correct the image projected by each of the projection imaging apparatus 102-1 to the projection imaging apparatus 102-4 using the calibration result.

投影撮像装置102−1乃至投影撮像装置102−4は、それぞれ、制御装置101に制御され、スクリーン104に画像を投影したり、スクリーン104に投影された投影画像を撮像したりする装置である。投影撮像装置102−1乃至投影撮像装置102−4は、互いに同様の構成を有し、同様の機能を有する。以下において、投影撮像装置102−1乃至投影撮像装置102−4を互いに区別して説明する必要が無い場合、投影撮像装置102と称する。   The projection imaging device 102-1 to the projection imaging device 102-4 are devices that are controlled by the control device 101 and project an image on the screen 104 or capture a projection image projected on the screen 104, respectively. The projection imaging device 102-1 to the projection imaging device 102-4 have the same configuration and the same function. Hereinafter, the projection imaging apparatus 102-1 to the projection imaging apparatus 102-4 will be referred to as the projection imaging apparatus 102 when there is no need to distinguish between them.

図1に示されるように、投影撮像装置102−1は、画像を投影する投影部111−1、および、被写体を撮像して撮像画像を得る撮像部112−1を有する。同様に、投影撮像装置102−2は、画像を投影する投影部111−2、および、被写体を撮像して撮像画像を得る撮像部112−2を有する。同様に、投影撮像装置102−3は、画像を投影する投影部111−3、および、被写体を撮像して撮像画像を得る撮像部112−3を有する。同様に、投影撮像装置102−4は、画像を投影する投影部111−4、および、被写体を撮像して撮像画像を得る撮像部112−4を有する。   As shown in FIG. 1, the projection imaging apparatus 102-1 includes a projection unit 111-1 that projects an image, and an imaging unit 112-1 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-2 includes a projection unit 111-2 that projects an image, and an imaging unit 112-2 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-3 includes a projection unit 111-3 that projects an image, and an imaging unit 112-3 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-4 includes a projection unit 111-4 that projects an image, and an imaging unit 112-4 that captures a subject and obtains a captured image.

投影部111−1乃至111−4は、互いに同様の構成を有し、同様の機能を有する。以下において、投影部111−1乃至111−4を互いに区別して説明する必要が無い場合、投影部111と称する。また、撮像部112−1乃至撮像部112−4は、互いに同様の構成を有し、同様の機能を有する。以下において、撮像部112−1乃至撮像部112−4を互いに区別して説明する必要が無い場合、撮像部112と称する。   The projection units 111-1 to 111-4 have the same configuration and the same function. Hereinafter, the projection units 111-1 to 111-4 are referred to as the projection unit 111 when it is not necessary to distinguish between them. In addition, the imaging unit 112-1 to the imaging unit 112-4 have the same configuration and the same function. Hereinafter, the imaging units 112-1 to 112-4 will be referred to as imaging units 112 when there is no need to distinguish them from each other.

つまり、投影撮像装置102は、投影部111および撮像部112を有する。   That is, the projection imaging apparatus 102 includes a projection unit 111 and an imaging unit 112.

また、通信ケーブル103−1乃至通信ケーブル103−4は、互いに同様の規格に対応する通信媒体である。以下において、通信ケーブル103−1乃至通信ケーブル103−4を互いに区別して説明する必要が無い場合、通信ケーブル103と称する。   The communication cables 103-1 to 103-4 are communication media corresponding to the same standards. In the following, the communication cables 103-1 to 103-4 are referred to as communication cables 103 when it is not necessary to distinguish between them.

通信ケーブル103は、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)に準拠したケーブルである。もちろん、通信ケーブル103が対応する通信規格は任意であり、例えばディスプレイポート(DisplayPort)等、HDMI(登録商標)以外の規格であってもよい。   The communication cable 103 is, for example, a cable conforming to HDMI (High-Definition Multimedia Interface). Of course, the communication standard supported by the communication cable 103 is arbitrary, and may be a standard other than HDMI (registered trademark) such as a display port (DisplayPort).

スクリーン104は、投影撮像装置102が画像を投影する面(投影面)の一例である。このスクリーン104は、平面であってもよいし、曲面であってもよい。例えばスクリーン104の表面に凹凸が形成されていてもよい。また、スクリーン104の色は任意である。なお、スクリーン104の代わりに所定の立体構造物(例えば建造物、壁、床、天井、家具、小物、生物等)を投影面としてもよい。   The screen 104 is an example of a surface (projection surface) on which the projection imaging apparatus 102 projects an image. The screen 104 may be a flat surface or a curved surface. For example, irregularities may be formed on the surface of the screen 104. Further, the color of the screen 104 is arbitrary. Instead of the screen 104, a predetermined three-dimensional structure (for example, a building, a wall, a floor, a ceiling, furniture, an accessory, a living thing, etc.) may be used as the projection surface.

スクリーン104上の投影画像105−1は、投影部111−1が投影した画像である。同様に、投影画像105−2は、投影部111−2が投影した画像であり、投影画像105−3は、投影部111−3が投影した画像であり、投影画像105−4は、投影部111−4が投影した画像である。以下において、投影画像105−1乃至投影画像105−4を互いに区別して説明する必要が無い場合、投影画像105と称する。   A projected image 105-1 on the screen 104 is an image projected by the projection unit 111-1. Similarly, the projection image 105-2 is an image projected by the projection unit 111-2, the projection image 105-3 is an image projected by the projection unit 111-3, and the projection image 105-4 is projected by the projection unit. 111-4 is the projected image. In the following, the projected images 105-1 to 105-4 are referred to as projected images 105 when there is no need to distinguish them from each other for explanation.

図1に示されるように、例えば、スクリーン104に投影画像105−1乃至投影画像105−4が並び、1つの領域を形成するように、各投影撮像装置102を配置する。そして、制御装置101は、各投影撮像装置102を制御し、入力画像106の投影画像107が、その領域に、各投影画像105に跨るように投影させる。つまり、各投影部111は、それぞれ制御装置101に制御されて、入力画像106の部分画像(自身に割り当てられた画像)を投影し、スクリーン104上において、投影画像107が形成されるようにする。   As shown in FIG. 1, for example, the projection imaging devices 105-1 to 105-4 are arranged on the screen 104, and the projection imaging devices 102 are arranged so as to form one region. Then, the control device 101 controls each projection imaging device 102 to cause the projection image 107 of the input image 106 to be projected over the projection image 105 in that region. That is, each projection unit 111 is controlled by the control device 101 to project a partial image of the input image 106 (an image assigned to itself) so that a projection image 107 is formed on the screen 104. .

このように、制御装置101は、複数の投影撮像装置102を協働させることにより、投影画像の解像度を向上させる(換言するに、解像度(画質)の低減を抑制しながら画像サイズを増大させる)ことができる。なお、入力画像106(投影画像107)は、動画像であってもよいし、静止画像であってもよい。   As described above, the control device 101 improves the resolution of the projection image by cooperating the plurality of projection imaging devices 102 (in other words, increases the image size while suppressing the reduction of the resolution (image quality)). be able to. The input image 106 (projected image 107) may be a moving image or a still image.

このような処理を実現するためには、制御装置101が、各投影撮像装置102の相互姿勢(すなわち、各投影部111並びに各撮像部112の相互姿勢)を正確に把握する必要がある。この相互姿勢は外部変数として表すことができるが、この外部変数は、投影撮像装置102等を設置した際にキャリブレーションを行ったとしても、経年変化が生じるおそれがある。この外部変数の経年変化により各投影画像105の表示位置に誤差が生じると、本来1つの画像として表示されるはずの投影画像107にずれや歪等が生じるおそれがある。すなわち、投影画像の画質が低減するおそれがある。   In order to realize such processing, the control device 101 needs to accurately grasp the mutual postures of the projection imaging devices 102 (that is, the mutual postures of the projection units 111 and the imaging units 112). Although this mutual attitude can be expressed as an external variable, this external variable may change over time even if calibration is performed when the projection imaging apparatus 102 or the like is installed. If an error occurs in the display position of each projection image 105 due to the secular change of the external variable, there is a possibility that the projection image 107 that should originally be displayed as one image may be displaced or distorted. That is, the image quality of the projected image may be reduced.

そこで、制御装置101は、各撮像部112の撮像画像等を用いて外部変数のキャリブレーションを行う。各投影撮像装置102の撮像部112の撮像画像を用いることにより、制御装置101は、より容易かつ高精度にキャリブレーションを行うことができる。   Therefore, the control device 101 calibrates the external variable using the captured image of each imaging unit 112 or the like. By using the captured image of the imaging unit 112 of each projection imaging apparatus 102, the control apparatus 101 can perform calibration more easily and with high accuracy.

<制御装置>
図2は、本技術を適用した情報処理装置の一実施の形態である制御装置101の主な構成例を示す図である。
<Control device>
FIG. 2 is a diagram illustrating a main configuration example of the control device 101 which is an embodiment of the information processing device to which the present technology is applied.

図2に示されるように、制御装置101において、CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153は、バス154を介して相互に接続されている。   As shown in FIG. 2, in the control device 101, a CPU (Central Processing Unit) 151, a ROM (Read Only Memory) 152, and a RAM (Random Access Memory) 153 are connected to each other via a bus 154.

バス154にはまた、入出力インタフェース160も接続されている。入出力インタフェース160には、入力部161、出力部162、記憶部163、通信部164、およびドライブ165が接続されている。   An input / output interface 160 is also connected to the bus 154. An input unit 161, an output unit 162, a storage unit 163, a communication unit 164, and a drive 165 are connected to the input / output interface 160.

入力部161は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部161には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部161に含まれるようにしてもよい。   The input unit 161 includes an input device that accepts external information such as user input. For example, the input unit 161 includes operation buttons, a touch panel, a camera, a microphone, an input terminal, and the like. Various sensors such as an acceleration sensor, an optical sensor, and a temperature sensor may be included in the input unit 161.

出力部162は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部162には、ディスプレイ、スピーカ、出力端子等が含まれる。   The output unit 162 includes an output device that outputs information such as images and sounds. For example, the output unit 162 includes a display, a speaker, an output terminal, and the like.

記憶部163は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部164は、例えば、ネットワークインタフェースよりなる。例えば、通信部164は、通信ケーブル103に接続され、通信ケーブル103を介して接続される他の装置と通信を行う。ドライブ165は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア171を駆動する。   The storage unit 163 includes, for example, a hard disk, a RAM disk, and a nonvolatile memory. The communication unit 164 includes a network interface, for example. For example, the communication unit 164 is connected to the communication cable 103 and communicates with other devices connected via the communication cable 103. The drive 165 drives a removable medium 171 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

CPU151は、例えば、記憶部163に記憶されているプログラムを、入出力インタフェース160およびバス154を介して、RAM153にロードして実行することにより、各種処理を行う。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。   For example, the CPU 151 performs various processes by loading a program stored in the storage unit 163 to the RAM 153 via the input / output interface 160 and the bus 154 and executing the program. The RAM 153 also appropriately stores data necessary for the CPU 151 to execute various processes.

CPU151が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア171に記録して制御装置101に提供することができる。その場合、プログラムは、リムーバブルメディア171をドライブ165に装着することにより、入出力インタフェース160を介して、記憶部163にインストールすることができる。   The program executed by the CPU 151 can be recorded on a removable medium 171 as a package medium or the like and provided to the control device 101, for example. In that case, the program can be installed in the storage unit 163 via the input / output interface 160 by attaching the removable medium 171 to the drive 165.

また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して制御装置101に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部164で受信し、記憶部163にインストールすることができる。   This program can also be provided to the control apparatus 101 via a wired or wireless transmission medium such as a LAN, the Internet, or digital satellite broadcasting. In that case, the program can be received by the communication unit 164 via a wired or wireless transmission medium and installed in the storage unit 163.

その他、このプログラムは、ROM152や記憶部163に、あらかじめインストールしておくこともできる。   In addition, this program can be installed in the ROM 152 or the storage unit 163 in advance.

<機能ブロック>
制御装置101のCPU151は、プログラムを実行することにより、各種機能を実現する。図3は、CPU151が実現する主な機能の例を示す機能ブロック図である。
<Functional block>
The CPU 151 of the control device 101 implements various functions by executing programs. FIG. 3 is a functional block diagram illustrating an example of main functions realized by the CPU 151.

図3に示されるように、CPU151は、キャリブレーション処理部201、画像処理部202、投影制御部203、撮像制御部204等の機能ブロックを有する。   As illustrated in FIG. 3, the CPU 151 includes functional blocks such as a calibration processing unit 201, an image processing unit 202, a projection control unit 203, and an imaging control unit 204.

キャリブレーション処理部201は、投影撮像装置102の外部変数のキャリブレーションに関する処理を行う。投影画像105の補正に影響を及ぼす変数としては、例えば、投影部111や撮像部112の内部変数や歪パラメータ、投影撮像装置102内における投影部111と撮像部112との相互姿勢を表す外部変数(投影撮像装置102内の外部変数とも称する)、並びに、投影撮像装置102間における投影部111と撮像部112との相互姿勢を表す外部変数(投影撮像装置102間の外部変数とも称する)等がある。   The calibration processing unit 201 performs processing related to calibration of external variables of the projection imaging apparatus 102. Examples of variables that affect the correction of the projection image 105 include internal variables and distortion parameters of the projection unit 111 and the imaging unit 112, and external variables that represent the mutual postures of the projection unit 111 and the imaging unit 112 in the projection imaging apparatus 102. (Also referred to as an external variable in the projection imaging apparatus 102), and an external variable (also referred to as an external variable between the projection imaging apparatus 102) indicating the mutual attitude of the projection unit 111 and the imaging unit 112 between the projection imaging apparatus 102 is there.

画像処理部202は、キャリブレーション処理部201によりキャリブレーションされた外部変数等を用いて、投影画像の補正に関する処理を行う。投影制御部203は、投影撮像装置102の投影部111の制御に関する処理を行う。撮像制御部204は、投影撮像装置102の撮像部112の制御に関する処理を行う。   The image processing unit 202 performs processing related to the correction of the projection image using the external variable or the like calibrated by the calibration processing unit 201. The projection control unit 203 performs processing related to the control of the projection unit 111 of the projection imaging apparatus 102. The imaging control unit 204 performs processing related to control of the imaging unit 112 of the projection imaging apparatus 102.

キャリブレーション処理部201は、画素位置対応検出部211、投影面姿勢推定部212、仮相互姿勢推定部213、および相互姿勢再推定部214を有する。   The calibration processing unit 201 includes a pixel position correspondence detection unit 211, a projection plane posture estimation unit 212, a temporary mutual posture estimation unit 213, and a mutual posture re-estimation unit 214.

画素位置対応検出部211は、各投影部111と各撮像部112との間の画素位置の対応関係の検出に関する処理を行う。投影面姿勢推定部212は、投影面に対する各投影部111や各撮像部112の相互姿勢の推定に関する処理を行う。仮相互姿勢推定部213は、投影撮像装置102同士の仮の相互姿勢の推定に関する処理を行う。相互姿勢再推定部214は、投影部111と撮像部112との間の相互姿勢の推定に関する処理を行う。   The pixel position correspondence detection unit 211 performs processing related to detection of the correspondence relationship between the pixel positions between the projection units 111 and the imaging units 112. The projection plane posture estimation unit 212 performs processing related to estimation of the mutual postures of the projection units 111 and the imaging units 112 with respect to the projection plane. The provisional mutual attitude estimation unit 213 performs processing related to estimation of the provisional mutual attitude between the projection imaging apparatuses 102. The mutual attitude re-estimation unit 214 performs processing related to the estimation of the mutual attitude between the projection unit 111 and the imaging unit 112.

<投影撮像装置の外観>
図4に投影撮像装置102の外観の例を示す。投影撮像装置102は、上述したように投影部111と撮像部112を有しており、その筐体には、画像を投影するための投射口(レンズ機構)や、被写体を撮像するためのカメラ(レンズ機構)等の光学デバイスが設けられている。また、投影撮像装置102は、どのような大きさの装置であってもよいが、例えば、携帯型(小型)の装置としてもよい。その場合、図4に示されるように、投影撮像装置102の筐体にバッテリを設けるようにしてもよい。バッテリを設けることにより、外部電源なしに投影撮像装置102を駆動させることができるので、その設置位置の自由度を向上させることができる。
<Appearance of projection imaging device>
FIG. 4 shows an example of the external appearance of the projection imaging apparatus 102. The projection imaging apparatus 102 includes the projection unit 111 and the imaging unit 112 as described above, and a projection port (lens mechanism) for projecting an image or a camera for imaging a subject in the casing. An optical device such as (lens mechanism) is provided. The projection imaging device 102 may be any size device, but may be a portable (small) device, for example. In that case, as shown in FIG. 4, a battery may be provided in the housing of the projection imaging apparatus 102. By providing the battery, the projection imaging apparatus 102 can be driven without an external power source, so that the degree of freedom of the installation position can be improved.

<投影撮像装置>
図5は、投影撮像装置102の主な構成例を示すブロック図である。
<Projection imaging device>
FIG. 5 is a block diagram illustrating a main configuration example of the projection imaging apparatus 102.

図5に示されるように、投影撮像装置102は、制御部301、投影部111、撮像部112、入力部311、出力部312、記憶部313、通信部314、およびドライブ315を有する。   As illustrated in FIG. 5, the projection imaging apparatus 102 includes a control unit 301, a projection unit 111, an imaging unit 112, an input unit 311, an output unit 312, a storage unit 313, a communication unit 314, and a drive 315.

制御部301は、例えば、CPU、ROM、RAM等よりなり、装置内の各処理部を制御したり、例えば画像処理等、その制御に必要な各種処理を実行したりする。   The control unit 301 includes, for example, a CPU, a ROM, a RAM, and the like, and controls each processing unit in the apparatus and executes various processes necessary for the control such as image processing.

投影部111は、制御部301に制御されて、画像の投影に関する処理を行う。例えば、投影部111は、制御部301から供給される画像を投影撮像装置102の外部(例えばスクリーン104等)に投影する。つまり、投影部111は、投影機能を実現する。投影部111は、レーザ光を光源とし、MEMSミラーを用いてそのレーザ光を走査することにより、画像を投影する。もちろん、投影部111の光源は任意であり、レーザ光に限らず、LEDやキセノン等であってもよい。投影部111の詳細については後述する。   The projection unit 111 is controlled by the control unit 301 to perform processing related to image projection. For example, the projection unit 111 projects the image supplied from the control unit 301 to the outside of the projection imaging apparatus 102 (for example, the screen 104). That is, the projection unit 111 realizes a projection function. The projection unit 111 projects an image by using laser light as a light source and scanning the laser light using a MEMS mirror. Of course, the light source of the projection unit 111 is arbitrary, and is not limited to laser light, and may be an LED, xenon, or the like. Details of the projection unit 111 will be described later.

撮像部112は、制御部301に制御されて、装置外部の被写体を撮像し、撮像画像を生成し、その撮像画像を制御部301に供給する。つまり、撮像部112は、撮像機能を実現する。例えば、撮像部112は、投影部111がスクリーン104に投影した投影画像を撮像する。   The imaging unit 112 is controlled by the control unit 301 to capture a subject outside the apparatus, generate a captured image, and supply the captured image to the control unit 301. That is, the imaging unit 112 implements an imaging function. For example, the imaging unit 112 captures a projection image projected on the screen 104 by the projection unit 111.

入力部311は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部311には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部311に含まれるようにしてもよい。   The input unit 311 includes an input device that receives external information such as user input. For example, the input unit 311 includes operation buttons, a touch panel, a camera, a microphone, an input terminal, and the like. Various sensors such as an acceleration sensor, an optical sensor, and a temperature sensor may be included in the input unit 311.

出力部312は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部312には、ディスプレイ、スピーカ、出力端子等が含まれる。   The output unit 312 includes an output device that outputs information such as images and sounds. For example, the output unit 312 includes a display, a speaker, an output terminal, and the like.

記憶部313は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部314は、例えば、ネットワークインタフェースよりなる。例えば、通信部314は、通信ケーブル103に接続され、通信ケーブル103を介して接続される他の装置と通信を行う。ドライブ315は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア321を駆動する。   The storage unit 313 includes, for example, a hard disk, a RAM disk, a nonvolatile memory, and the like. The communication unit 314 includes a network interface, for example. For example, the communication unit 314 is connected to the communication cable 103 and communicates with other devices connected via the communication cable 103. The drive 315 drives a removable medium 321 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

制御部301は、例えば、記憶部313に記憶されているプログラムを、自身に内蔵されるRAMにロードして実行することにより、各種処理を行う。そのRAMにはまた、制御部301が各種の処理を実行する上において必要なデータなども適宜記憶される。   For example, the control unit 301 performs various types of processing by loading a program stored in the storage unit 313 into a RAM built therein and executing the program. The RAM also appropriately stores data necessary for the control unit 301 to execute various processes.

制御部301が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア321に記録して投影撮像装置102に提供することができる。その場合、プログラムは、リムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。   The program executed by the control unit 301 can be recorded on a removable medium 321 as a package medium or the like and provided to the projection imaging apparatus 102, for example. In that case, the program can be installed in the storage unit 313 by attaching the removable medium 321 to the drive 315.

また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して投影撮像装置102に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部314で受信し、記憶部313にインストールすることができる。   This program can also be provided to the projection imaging apparatus 102 via a wired or wireless transmission medium such as a LAN, the Internet, or digital satellite broadcasting. In that case, the program can be received by the communication unit 314 via a wired or wireless transmission medium and installed in the storage unit 313.

その他、このプログラムは、制御部301に内蔵されるROMや記憶部313に、あらかじめインストールしておくこともできる。   In addition, this program can be installed in advance in the ROM or the storage unit 313 built in the control unit 301.

<投影部>
図6は、投影部111の主な構成例を示すブロック図である。図6に示されるように、投影部111は、ビデオプロセッサ351、レーザドライバ352、レーザ出力部353−1、レーザ出力部353−2、レーザ出力部353−3、ミラー354−1、ミラー354−2、ミラー354−3、MEMS(Micro Electro Mechanical Systems)ドライバ355、および、MEMSミラー356を有する。
<Projection part>
FIG. 6 is a block diagram illustrating a main configuration example of the projection unit 111. As shown in FIG. 6, the projection unit 111 includes a video processor 351, a laser driver 352, a laser output unit 353-1, a laser output unit 353-2, a laser output unit 353-3, a mirror 354-1, and a mirror 354-. 2, a mirror 354-3, a MEMS (Micro Electro Mechanical Systems) driver 355, and a MEMS mirror 356.

ビデオプロセッサ351は、制御部301から供給される画像を保持したり、その画像に対して必要な画像処理を行ったりする。ビデオプロセッサ351は、その投影する画像をレーザドライバ352やMEMSドライバ355に供給する。   The video processor 351 holds an image supplied from the control unit 301 and performs necessary image processing on the image. The video processor 351 supplies the projected image to the laser driver 352 and the MEMS driver 355.

レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、レーザ出力部353−1乃至レーザ出力部353−3を制御する。レーザ出力部353−1乃至レーザ出力部353−3は、例えば、赤、青、緑等、互いに異なる色(波長域)のレーザ光を出力する。つまり、レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、各色のレーザ出力を制御する。なお、レーザ出力部353−1乃至レーザ出力部353−3を互いに区別して説明する必要が無い場合、レーザ出力部353と称する。   The laser driver 352 controls the laser output unit 353-1 to the laser output unit 353-3 so that the image supplied from the video processor 351 is projected. The laser output units 353-1 to 353-3 output laser beams having different colors (wavelength ranges) such as red, blue, and green. That is, the laser driver 352 controls the laser output of each color so that the image supplied from the video processor 351 is projected. Note that the laser output unit 353-1 to the laser output unit 353-3 are referred to as a laser output unit 353 when it is not necessary to distinguish between them.

ミラー354−1は、レーザ出力部353−1から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−2は、レーザ出力部353−2から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−3は、レーザ出力部353−3から出力されるレーザ光を反射し、MEMSミラー356に誘導する。なお、ミラー354−1乃至ミラー354−3を互いに区別して説明する必要が無い場合、ミラー354と称する。   The mirror 354-1 reflects the laser beam output from the laser output unit 353-1 and guides it to the MEMS mirror 356. The mirror 354-2 reflects the laser beam output from the laser output unit 353-2 and guides it to the MEMS mirror 356. The mirror 354-3 reflects the laser beam output from the laser output unit 353-3 and guides it to the MEMS mirror 356. Note that the mirrors 354-1 to 354-3 are referred to as mirrors 354 when there is no need to distinguish them from each other.

MEMSドライバ355は、ビデオプロセッサ351から供給される画像を投影するように、MEMSミラー356のミラーの駆動を制御する。MEMSミラー356は、MEMSドライバ355の制御に従ってMEMS上に取り付けられたミラー(鏡)を駆動することにより、例えば、図7の例のように各色のレーザ光を走査する。このレーザ光は、投射口から装置外部に出力され、例えばスクリーン104に照射される。これにより、ビデオプロセッサ351から供給される画像がスクリーン104に投影される。   The MEMS driver 355 controls the driving of the mirror of the MEMS mirror 356 so as to project the image supplied from the video processor 351. The MEMS mirror 356 scans the laser light of each color as shown in the example of FIG. 7, for example, by driving a mirror (mirror) mounted on the MEMS according to the control of the MEMS driver 355. This laser light is output from the projection port to the outside of the apparatus, and is irradiated on the screen 104, for example. As a result, the image supplied from the video processor 351 is projected onto the screen 104.

なお、図6の例においては、レーザ出力部353を3つ設け、3色のレーザ光を出力するように説明したが、レーザ光の数(または色数)は任意である。例えば、レーザ出力部353を4つ以上であってもよいし、2つ以下であってもよい。つまり、投影撮像装置102(投影部111)から出力されるレーザ光は、2本以下であってもよいし、4本いじょうであってもよい。そして、投影撮像装置102(投影部111)から出力されるレーザ光の色数も任意であり、2色以下であってもよいし、4色以上であってもよい。また、ミラー354やMEMSミラー356の構成も任意であり、図6の例に限定されない。もちろん、レーザ光の走査パターンは任意である。   In the example of FIG. 6, three laser output units 353 are provided to output laser beams of three colors, but the number of laser beams (or the number of colors) is arbitrary. For example, the number of laser output units 353 may be four or more, or two or less. That is, the number of laser beams output from the projection imaging apparatus 102 (projection unit 111) may be two or less, or four. The number of colors of the laser light output from the projection imaging apparatus 102 (projection unit 111) is also arbitrary, and may be two colors or less, or four colors or more. The configurations of the mirror 354 and the MEMS mirror 356 are also arbitrary, and are not limited to the example of FIG. Of course, the scanning pattern of the laser beam is arbitrary.

<キャリブレーション処理の流れ>
次に、制御装置101において実行される各種処理の流れについて説明する。
<Calibration process flow>
Next, the flow of various processes executed in the control apparatus 101 will be described.

投影撮像装置102の外部変数のキャリブレーションを行うために、制御装置101のキャリブレーション処理部201は、キャリブレーション処理を実行する。この処理は、任意のタイミングにおいて実行することができる。   In order to calibrate an external variable of the projection imaging apparatus 102, the calibration processing unit 201 of the control apparatus 101 executes a calibration process. This process can be executed at an arbitrary timing.

図8のフローチャートを参照して、キャリブレーション処理の流れの例を説明する。キャリブレーション処理が開始されると、画素位置対応検出部211は、ステップS101において、画素位置対応検出処理を行う。その処理が終了すると、投影面姿勢推定部212は、ステップS102において、投影面姿勢推定処理を行う。その処理が終了すると、仮相互姿勢推定部213は、ステップS103において、仮相互姿勢推定処理を行う。その処理が終了すると、相互姿勢再推定部214は、ステップS104において、相互姿勢再推定処理を行う。その処理が終了すると、キャリブレーション処理が終了する。   An example of the flow of calibration processing will be described with reference to the flowchart of FIG. When the calibration process is started, the pixel position correspondence detection unit 211 performs a pixel position correspondence detection process in step S101. When the process ends, the projection plane orientation estimation unit 212 performs a projection plane orientation estimation process in step S102. When the process ends, the temporary mutual posture estimation unit 213 performs a temporary mutual posture estimation process in step S103. When the process ends, the mutual posture re-estimation unit 214 performs a mutual posture re-estimation process in step S104. When the process ends, the calibration process ends.

<画素位置対応検出処理の流れ>
次に、図8のステップS101において実行される画素位置対応検出処理の流れについて、図9のフローチャートを参照して説明する。必要に応じて、図10乃至図13を参照して説明する。
<Flow of pixel position detection processing>
Next, the flow of the pixel position correspondence detection process executed in step S101 of FIG. 8 will be described with reference to the flowchart of FIG. This will be described with reference to FIGS. 10 to 13 as necessary.

画素位置対応検出処理が開始されると、画素位置対応検出部211は、ステップS121において、未処理の投影部111の中から処理対象とする投影部111を選択する。   When the pixel position correspondence detection process is started, the pixel position correspondence detection unit 211 selects the projection unit 111 to be processed from the unprocessed projection units 111 in step S121.

図10に示されるように、投影撮像システム100の各投影撮像装置102や制御装置101を、スクリーン104に画像を投影することができるように配置する。その際、各投影撮像装置102から投影された投影画像105の少なくとも一部が図10の例のように互いに重なる(オーバーラップする)ようにする。この状態において、各投影撮像装置102の撮像部112は、他の投影撮像装置102から投影された投影画像105の少なくとも一部を撮像することができる。投影面が曲面の場合、そのための補正が必要になり、キャリブレーションの難易度が高くなるので、スクリーン104は平面であることが望ましい。このように各装置を配置した状態において、処理対象とする投影部111が選択される。   As shown in FIG. 10, the projection imaging devices 102 and the control device 101 of the projection imaging system 100 are arranged so that an image can be projected onto the screen 104. At that time, at least a part of the projection image 105 projected from each projection imaging apparatus 102 is overlapped (overlapped) as in the example of FIG. In this state, the imaging unit 112 of each projection imaging apparatus 102 can capture at least a part of the projection image 105 projected from the other projection imaging apparatus 102. When the projection surface is a curved surface, correction for that is necessary, and the difficulty of calibration becomes high. Therefore, the screen 104 is preferably a flat surface. In a state where the devices are arranged in this way, the projection unit 111 to be processed is selected.

ステップS122において、画素位置対応検出部211は、選択された投影部にグレイコードの画像を投影させる。そして、ステップS123において、画素位置対応検出部211は、全ての撮像部112に、投影されたグレイコードの画像を撮像させる。   In step S122, the pixel position correspondence detection unit 211 projects a gray code image on the selected projection unit. In step S123, the pixel position correspondence detection unit 211 causes all the imaging units 112 to capture the projected gray code image.

グレイコードの画像の例を図11に示す。例えば、図11Aに示されるような所定のパターン画像をプロジェクタから時系列に切り替えながら投影して、各パターンをカメラで撮像する。そして、全てのパターンの撮像が完了したらカメラの各画素において、各撮像パターンの1(白)または0(黒)を検出して、図11Bに示されるように、その1,0パターンをデコードすることでプロジェクタ画素の位置を取得する。これにより画素の対応関係を取得することができる。   An example of a gray code image is shown in FIG. For example, a predetermined pattern image as shown in FIG. 11A is projected while switching in time series from the projector, and each pattern is captured by the camera. When imaging of all patterns is completed, 1 (white) or 0 (black) of each imaging pattern is detected in each pixel of the camera, and 1,0 patterns are decoded as shown in FIG. 11B. As a result, the position of the projector pixel is acquired. Thereby, the correspondence of pixels can be acquired.

ステップS124において、画素位置対応検出部211は、全ての投影部111にグレイコードの画像を投影させたか否かを判定する。未処理の投影部111が存在すると判定された場合、処理はステップS121に戻り、それ以降の処理を繰り返す。各投影部111に対して、ステップS121乃至ステップS124の処理が実行され、ステップS124において全ての投影部111にグレイコードの画像を投影させた(すなわち、未処理の投影部111が存在しない)と判定された場合、処理は、ステップS125に進む。   In step S <b> 124, the pixel position correspondence detection unit 211 determines whether or not the gray code images are projected on all the projection units 111. If it is determined that there is an unprocessed projection unit 111, the process returns to step S121, and the subsequent processes are repeated. The processing from step S121 to step S124 is executed for each projection unit 111, and gray code images are projected onto all projection units 111 in step S124 (that is, there is no unprocessed projection unit 111). If it is determined, the process proceeds to step S125.

ステップS125において、画素位置対応検出部211は、各対応点について、各投影撮像装置102内における、投影部111の画素位置と撮像部112の画素位置との対応関係を検出する。つまり、互いに同じ投影撮像装置102の構成である投影部111と撮像部112との間で、画素位置の対応関係が検出される。   In step S125, the pixel position correspondence detection unit 211 detects the correspondence between the pixel position of the projection unit 111 and the pixel position of the imaging unit 112 in each projection imaging apparatus 102 for each corresponding point. That is, a correspondence relationship between pixel positions is detected between the projection unit 111 and the imaging unit 112 having the same configuration of the projection imaging device 102.

対応点とは、グレイコードの画像の、画素位置の対応関係の検出に用いる注目画素である。つまり、グレイコードの画像の所定の注目画素を投影する投影部111の画素と、その注目画素を撮像する撮像部112の画素とが特定され、それらが紐付けされる(対応関係が検出される)。この対応点(注目画素)は、グレイコードの画像の全画素としてもよいし、グレイコードの画像の一部の画素(代表画素)としてもよい。その場合、代表画素とする画素の位置は任意である。   The corresponding point is a pixel of interest used for detecting a correspondence relationship between pixel positions of a gray code image. That is, the pixel of the projection unit 111 that projects a predetermined pixel of interest in the gray code image and the pixel of the imaging unit 112 that images the pixel of interest are identified and associated (correspondence is detected). ). The corresponding points (pixels of interest) may be all the pixels of the gray code image, or may be some pixels (representative pixels) of the gray code image. In that case, the position of the pixel as the representative pixel is arbitrary.

ステップS125においては、図12に示されるように、グレイコード401の所定の対応点402に注目し、投影部111の、その対応点402を投影する画素403と、撮像部112の、その対応点402を撮像する画素404とが特定され、それらが紐付けされる(画素位置の対応関係が検出される)。上述したように、グレイコードの画像の全画素について同様の画素位置対応関係を検出するようにしてもよいし、代表画素についてのみ、画素位置対応関係を検出するようにしてもよい。   In step S125, as shown in FIG. 12, paying attention to a predetermined corresponding point 402 of the Gray code 401, the pixel 403 that projects the corresponding point 402 of the projection unit 111 and the corresponding point of the imaging unit 112 A pixel 404 that captures an image 402 is identified and linked (a correspondence between pixel positions is detected). As described above, the same pixel position correspondence may be detected for all the pixels of the gray code image, or the pixel position correspondence may be detected only for the representative pixel.

ステップS126において、画素位置対応検出部211は、各対応点について、各投影撮像装置102間における、投影部111の画素位置と撮像部112の画素位置との対応関係を検出する。つまり、互いに異なる投影撮像装置102の構成である投影部111と撮像部112との間で、画素位置の対応関係が検出される。   In step S <b> 126, the pixel position correspondence detection unit 211 detects the correspondence between the pixel position of the projection unit 111 and the pixel position of the imaging unit 112 between the projection imaging devices 102 for each corresponding point. That is, a correspondence relationship between pixel positions is detected between the projection unit 111 and the imaging unit 112 which are different configurations of the projection imaging device 102.

この投影撮像装置102間における画素位置対応関係の検出も、ステップS125の処理の場合と同様に行われる。すなわち、図13に示されるように、グレイコード411の所定の対応点412に注目し、例えば投影撮像装置102−2の投影部111−2の、その対応点412を投影する画素と、投影撮像装置102−1の撮像部112−1の、その対応点412を撮像する画素とが特定され、それらが紐付けされる(画素位置の対応関係が検出される)。もちろん、この場合も、グレイコードの画像の全画素について同様の画素位置対応関係を検出するようにしてもよいし、代表画素についてのみ、画素位置対応関係を検出するようにしてもよい。   The detection of the pixel position correspondence between the projection imaging devices 102 is also performed in the same manner as in the process of step S125. That is, as shown in FIG. 13, paying attention to a predetermined corresponding point 412 of the Gray code 411, for example, a pixel that projects the corresponding point 412 of the projection unit 111-2 of the projection imaging apparatus 102-2, and projection imaging The pixel that captures the corresponding point 412 of the imaging unit 112-1 of the apparatus 102-1 is identified and linked (the correspondence between the pixel positions is detected). Of course, in this case as well, the same pixel position correspondence may be detected for all the pixels of the gray code image, or the pixel position correspondence may be detected only for the representative pixel.

ステップS126の処理が終了すると、画素位置対応検出処理が終了し、処理は図8に戻る。以上のように画素位置対応検出処理を行うことにより、各投影部111と各撮像部112との間で、画素位置の対応関係を検出することができる。   When the process of step S126 ends, the pixel position correspondence detection process ends, and the process returns to FIG. By performing the pixel position correspondence detection process as described above, the correspondence relationship between the pixel positions can be detected between each projection unit 111 and each imaging unit 112.

なお、投影部111と、その投影部111が投影した画像を撮像することができない位置にある撮像部112との間では、画素位置の対応関係は実質的に検出することができないので、上述した画素位置の対応関係の検出処理を省略するようにしてもよい。   Note that the correspondence between pixel positions cannot be substantially detected between the projection unit 111 and the imaging unit 112 at a position where the image projected by the projection unit 111 cannot be captured. You may make it abbreviate | omit the detection process of the correspondence of a pixel position.

また、以上においては、画素位置の対応関係を検出するためにグレイコードを用いるように説明したが、このグレイコードに限らず、画素位置の対応関係が特定が可能な画像であればどのようなパターンの画像を用いるようにしてもよい。例えば、非特許文献1に記載のチェッカーとチェッカーの4隅のうちどれかが欠けたパターンの画像を用いるようにしてもよいし、それ以外のパターンの画像を用いるようにしてもよい。   In the above description, the gray code is used to detect the correspondence between the pixel positions. However, the present invention is not limited to this gray code, and any image can be used as long as the correspondence between the pixel positions can be specified. A pattern image may be used. For example, an image of a pattern in which one of the checker and the four corners of the checker described in Non-Patent Document 1 is missing may be used, or an image of a pattern other than that may be used.

<投影面姿勢推定処理の流れ>
次に、図8のステップS102において実行される投影面姿勢推定処理の流れについて、図14のフローチャートを参照して説明する。必要に応じて、図15を参照して説明する。
<Flow of projection plane orientation estimation process>
Next, the flow of the projection plane attitude estimation process executed in step S102 of FIG. 8 will be described with reference to the flowchart of FIG. Description will be made with reference to FIG. 15 as necessary.

投影面姿勢推定処理が開始されると、投影面姿勢推定部212は、ステップS141において、未処理の投影撮像装置102の中から処理対象とする投影撮像装置102を選択する。   When the projection plane attitude estimation process is started, the projection plane attitude estimation unit 212 selects a projection imaging apparatus 102 to be processed from the unprocessed projection imaging apparatuses 102 in step S141.

ステップS142において、投影面姿勢推定部212は、画素位置対応関係検出処理(図9)により検出された、処理対象の投影撮像装置102内における投影部111と撮像部112との間の画素位置の対応関係と、キャリブレーション済みの内部変数や外部変数を用いて三角測量を行い、各対応点の3次元座標位置を求める。その際、事前にキャリブレーション済みの内部変数や外部変数を用いて三角測量を行う。この外部変数は、経年変化により、誤差を含む(実際とは異なっている)可能性がある値である。   In step S142, the projection plane orientation estimation unit 212 detects the pixel position between the projection unit 111 and the imaging unit 112 in the projection imaging apparatus 102 to be processed, which is detected by the pixel position correspondence detection process (FIG. 9). Triangulation is performed using the correspondence relationship and the calibrated internal variable or external variable to obtain the three-dimensional coordinate position of each corresponding point. At that time, triangulation is performed using previously calibrated internal variables and external variables. This external variable is a value that may contain an error (different from the actual) due to aging.

例えば、図15に示されるように、画素位置対応点検出処理の処理結果に基づいて、ある対応点の、投影部111が投影する画素421と、撮像部112が撮像する画素422とを求める。そして、それらの画素位置と、投影部111と撮像部112の内部変数やそれらの相互姿勢を示す外部変数423等とを用いて、三角測量を行い、その対応点が投影される三次元点座標424を求める。この三次元点座標424は、投影部111(画素421)の投影方向と、撮像部112(画素422)の撮像方向とが交差する位置(つまり、画素421が投影した位置と、画素422が撮像した位置とが一致する(位置ずれが生じない)座標である。このような処理を複数の対応点について行い、三次元点座標群425を求める。   For example, as illustrated in FIG. 15, a pixel 421 projected by the projection unit 111 and a pixel 422 captured by the imaging unit 112 at a certain corresponding point are obtained based on the processing result of the pixel position corresponding point detection processing. Then, using these pixel positions, internal variables of the projection unit 111 and the imaging unit 112, external variables 423 indicating their mutual postures, and the like, triangulation is performed, and the three-dimensional point coordinates on which the corresponding points are projected 424 is obtained. The three-dimensional point coordinates 424 are obtained by imaging the position where the projection direction of the projection unit 111 (pixel 421) and the imaging direction of the imaging unit 112 (pixel 422) intersect (that is, the position projected by the pixel 421 and the pixel 422). The coordinates coincide with each other (no positional deviation occurs), and such a process is performed for a plurality of corresponding points to obtain a three-dimensional point coordinate group 425.

ステップS143において、投影面姿勢推定部212は、ステップS142の処理により得られた、各対応点の3次元座標位置に基づいて、平面スクリーンモデルを求める。   In step S143, the projection plane attitude estimation unit 212 obtains a planar screen model based on the three-dimensional coordinate positions of the corresponding points obtained by the process of step S142.

図15の例の場合、投影面姿勢推定部212は、ステップS142の処理により求められた三次元点座標群425に最もよくあてはまる平面を求め、それを平面スクリーンモデル431とする。この平面スクリーンモデルの推定方法は任意であるが、例えば、RANSAC(RANDdom Sample Consensus)等の方法を用いて、外れ値に対してロバストに平面スクリーンモデルを推定するようにしてもよい。   In the case of the example of FIG. 15, the projection plane orientation estimation unit 212 obtains a plane that best fits the three-dimensional point coordinate group 425 obtained by the process of step S <b> 142 and sets it as the plane screen model 431. The method of estimating the flat screen model is arbitrary, but the flat screen model may be estimated robustly against outliers using a method such as RANSAC (RANDdom Sample Consensus).

ステップS144において、投影面姿勢推定部212は、ステップS143の処理により得られた平面スクリーンモデルに対する投影部111および撮像部112の姿勢を推定する。   In step S144, the projection plane attitude estimation unit 212 estimates the attitudes of the projection unit 111 and the imaging unit 112 with respect to the flat screen model obtained by the process of step S143.

図15の例の場合、投影部111の姿勢と撮像部112の姿勢とが、それぞれ、平面スクリーンモデル431の3次元座標(矢印432および矢印433)により表される。   In the case of the example in FIG. 15, the posture of the projection unit 111 and the posture of the imaging unit 112 are each represented by the three-dimensional coordinates (arrow 432 and arrow 433) of the flat screen model 431.

ステップS145において、投影面姿勢推定部212は、全ての投影撮像装置102を処理したか否かを判定する。未処理の投影撮像装置102が存在すると判定された場合、処理はステップS141に戻り、それ以降の処理を繰り返す。各投影撮像装置102に対して、ステップS141乃至ステップS145の各処理が実行され、ステップS145において、全ての投影撮像装置102を処理した(未処理の投影撮像装置102が存在しない)と判定された場合、投影面姿勢推定処理が終了し、処理は図8に戻る。   In step S145, the projection plane attitude estimation unit 212 determines whether all the projection imaging apparatuses 102 have been processed. If it is determined that there is an unprocessed projection imaging apparatus 102, the process returns to step S141, and the subsequent processes are repeated. Each process of step S141 to step S145 is executed for each projection imaging apparatus 102, and it is determined in step S145 that all the projection imaging apparatuses 102 have been processed (there is no unprocessed projection imaging apparatus 102). In this case, the projection plane orientation estimation process ends, and the process returns to FIG.

以上のように投影面姿勢推定処理を実行することにより、投影面に対する投影部111の姿勢と撮像部112の姿勢とを推定することができる。   By executing the projection plane attitude estimation process as described above, the attitude of the projection unit 111 and the attitude of the imaging unit 112 with respect to the projection plane can be estimated.

<仮相互姿勢推定処理の流れ>
次に、図8のステップS103において実行される仮相互姿勢推定処理の流れについて、図16のフローチャートを参照して説明する。必要に応じて、図17および図18を参照して説明する。
<Flow of temporary mutual posture estimation processing>
Next, the flow of the temporary mutual posture estimation process executed in step S103 of FIG. 8 will be described with reference to the flowchart of FIG. This will be described with reference to FIGS. 17 and 18 as necessary.

仮相互姿勢推定処理が開始されると、仮相互姿勢推定部213は、ステップS161において、未処理の投影撮像装置対の中から処理対象とする投影撮像装置対を選択する。投影撮像装置対とは、投影撮像システム100が有する投影撮像装置102群の中から選択された任意の2台の投影撮像装置102である。つまり、仮相互姿勢推定部213は、投影撮像装置102を2台ずつ処理対象とする。なお、お互いの投影画像がオーバーラップしない(投影画像に重なる部分がない)組み合わせは、省略するようにしてもよい。   When the temporary mutual posture estimation process is started, the temporary mutual posture estimation unit 213 selects a projection imaging device pair to be processed from the unprocessed projection imaging device pairs in step S161. The projection imaging device pair is any two projection imaging devices 102 selected from the group of projection imaging devices 102 included in the projection imaging system 100. That is, the temporary mutual posture estimation unit 213 sets two projection imaging apparatuses 102 as processing targets. Note that combinations in which the projected images do not overlap each other (there is no portion overlapping the projected images) may be omitted.

ステップS162において、仮相互姿勢推定部213は、処理対象の投影撮像装置対について、互いの平面スクリーンの3次元座標の誤差2乗和が最小となる相対姿勢を推定する。   In step S162, the provisional mutual posture estimation unit 213 estimates a relative posture that minimizes the sum of squares of errors of the three-dimensional coordinates of the flat screens of the processing target projection imaging device pair.

例えば、図17に示される例の場合、仮相互姿勢推定部213は、両矢印451に示されるように、投影撮像装置102−1の撮像部112−1の画素位置453に対応する平面スクリーンモデル431−1上の三次元点座標424−1と、その画素位置453に対応する投影撮像装置102−2の投影部111−2の画素位置452に対応する平面スクリーンモデル431−2上の三次元点座標424−2とが平面スクリーン上での位置の誤差の二乗和が最小になるという条件を解く。このような処理が、図17の三次元座標群425−1および三次元座標群425−2の各三次元点座標424について行われる。このとき、平面スクリーンを前提としているので求める外部変数は、ロール(Roll)回転成分とX, Y並進成分のみである(平面スクリーンを共有している前提なので,ピッチ(Pitch)やヨー(Yaw)回転成分,Z並進成分は変化しない)。   For example, in the case of the example shown in FIG. 17, the provisional mutual attitude estimation unit 213 is a flat screen model corresponding to the pixel position 453 of the imaging unit 112-1 of the projection imaging apparatus 102-1 as indicated by a double arrow 451. The three-dimensional point coordinates 424-1 on 431-1 and the three-dimensional on the flat screen model 431-2 corresponding to the pixel position 452 of the projection unit 111-2 of the projection imaging apparatus 102-2 corresponding to the pixel position 453 The condition that the sum of squares of the error of the position of the point coordinates 424-2 on the flat screen is minimized is solved. Such processing is performed for each three-dimensional point coordinate 424 of the three-dimensional coordinate group 425-1 and the three-dimensional coordinate group 425-2 in FIG. At this time, since the flat screen is assumed, the external variables to be calculated are only the roll rotation component and the X and Y translation components (the pitch and yaw are assumed because the flat screen is shared). The rotation component and Z translation component do not change).

これにより、図18に示されるように、平面スクリーンモデル431−1と平面スクリーンモデル431−2の互いの位置をできるだけ近似させたときの、投影部111−1の三次元座標471、撮像部112−1の三次元座標472、投影部111−2の三次元座標473、および撮像部112−2の三次元座標474(すなわち、選択した2台の投影撮像装置102の投影部111および撮像部112のそれぞれの三次元座標)が求まる。これにより、選択した2台の投影撮像装置102(図17や図18の例の場合、投影撮像装置102−1および投影撮像装置102−2)の間の外部変数が求まる。   Accordingly, as illustrated in FIG. 18, the three-dimensional coordinates 471 of the projection unit 111-1 and the imaging unit 112 when the positions of the flat screen model 431-1 and the flat screen model 431-2 are approximated as much as possible. -1 three-dimensional coordinates 472, three-dimensional coordinates 473 of the projection unit 111-2, and three-dimensional coordinates 474 of the imaging unit 112-2 (that is, the projection unit 111 and the imaging unit 112 of the two selected projection imaging devices 102). Each three-dimensional coordinate) is obtained. As a result, an external variable between the two selected projection imaging apparatuses 102 (in the case of the examples of FIGS. 17 and 18, the projection imaging apparatus 102-1 and the projection imaging apparatus 102-2) is obtained.

ステップS163において、仮相互姿勢推定部213は、全ての投影撮像装置対を処理したか否かを判定する。未処理の投影撮像装置対が存在すると判定された場合、処理はステップS161に戻り、それ以降の処理が繰り返される。つまり、投影撮像システム100が有する投影撮像装置102群の中の全ての2台の組み合わせについて、ステップS162の処理が行われる。そして、ステップS163において、全ての投影撮像装置対に対して処理を行った(未処理の投影撮像装置対が存在しない)と判定された場合、仮相互姿勢推定処理が終了し、処理は図8に戻る。   In step S163, the temporary mutual posture estimation unit 213 determines whether or not all the projection imaging device pairs have been processed. If it is determined that there is an unprocessed projection imaging device pair, the process returns to step S161, and the subsequent processes are repeated. That is, the process of step S162 is performed for all two combinations in the projection imaging apparatus 102 group included in the projection imaging system 100. If it is determined in step S163 that processing has been performed for all projection imaging device pairs (there are no unprocessed projection imaging device pairs), the temporary mutual posture estimation processing ends, and the processing is illustrated in FIG. Return to.

<相互姿勢再推定処理の流れ>
次に、図8のステップS104において実行される相互姿勢再推定処理の流れについて、図19のフローチャートを参照して説明する。必要に応じて、図20を参照して説明する。
<Flow of mutual posture re-estimation process>
Next, the flow of the mutual attitude re-estimation process executed in step S104 of FIG. 8 will be described with reference to the flowchart of FIG. Description will be made with reference to FIG. 20 as necessary.

相互姿勢再推定処理では、例えば、図20に示されるように、所定の平面スクリーンモデル481における各対応点の誤差(誤差二乗和)を最小とするように外部変数が求められる。   In the mutual posture re-estimation process, for example, as shown in FIG. 20, the external variable is obtained so as to minimize the error (sum of squared errors) of each corresponding point in a predetermined flat screen model 481.

例えば、対応点491について、撮像部112−1からみた対応点491の平面スクリーンモデル481上における位置491−2、投影部111−1からみた対応点491の平面スクリーンモデル481上における位置491−1、投影部111−2からみた対応点491の平面スクリーンモデル481上における位置491−3がそれぞれ求められ、位置491−2と位置491−1との距離、位置491−2と位置491−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−1、撮像部112−1、および投影部111−2の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。   For example, for the corresponding point 491, the position 491-2 of the corresponding point 491 on the flat screen model 481 viewed from the imaging unit 112-1, and the position 491-1 of the corresponding point 491 on the flat screen model 481 viewed from the projection unit 111-1. , The position 491-3 on the flat screen model 481 of the corresponding point 491 viewed from the projection unit 111-2 is obtained, and the distance between the position 491-2 and the position 491-1, the position 491-2 and the position 491-3, Distances are obtained. And the position on the three-dimensional coordinate of the plane screen model 481 of the projection part 111-1, the imaging part 112-1, and the projection part 111-2 is each estimated so that those distance may become the minimum.

同様に、対応点492について、撮像部112−2からみた対応点492の平面スクリーンモデル481上における位置492−2、投影部111−1からみた対応点492の平面スクリーンモデル481上における位置492−1、投影部111−2からみた対応点492の平面スクリーンモデル481上における位置492−3、投影部111−3からみた対応点492の平面スクリーンモデル481上における位置492−4がそれぞれ求められ、位置492−2と位置492−1との距離、位置492−2と位置492−3との距離、位置492−2と位置492−4との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−1、投影部111−2、撮像部112−2、および投影部111−3の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。   Similarly, for the corresponding point 492, the position 492-2 of the corresponding point 492 viewed from the imaging unit 112-2 on the flat screen model 481, and the position 492 of the corresponding point 492 viewed from the projection unit 111-1 on the flat screen model 481. 1. A position 492-3 of the corresponding point 492 viewed from the projection unit 111-2 on the flat screen model 481 and a position 492-4 of the corresponding point 492 viewed from the projection unit 111-3 on the flat screen model 481 are respectively obtained. The distance between the position 492-2 and the position 492-1, the distance between the position 492-2 and the position 492-3, and the distance between the position 492-2 and the position 492-4 are obtained. Then, the positions of the projection unit 111-1, the projection unit 111-2, the imaging unit 112-2, and the projection unit 111-3 on the three-dimensional coordinates of the planar screen model 481 are set so that those distances are minimized. Presumed.

同様に、対応点493について、撮像部112−3からみた対応点493の平面スクリーンモデル481上における位置493−2、投影部111−2からみた対応点493の平面スクリーンモデル481上における位置493−1、投影部111−3からみた対応点493の平面スクリーンモデル481上における位置493−3がそれぞれ求められ、位置493−2と位置493−1との距離、位置493−2と位置493−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−2、撮像部112−3、および投影部111−3の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。   Similarly, for the corresponding point 493, the position 493-2 of the corresponding point 493 on the flat screen model 481 viewed from the imaging unit 112-3, and the position 493 of the corresponding point 493 on the flat screen model 481 viewed from the projection unit 111-2. 1. A position 493-3 on the flat screen model 481 of the corresponding point 493 viewed from the projection unit 111-3 is obtained, and the distance between the position 493-2 and the position 493-1, the position 493-2 and the position 493-3, respectively. And the distance to each other. And the position on the three-dimensional coordinate of the plane screen model 481 of the projection part 111-2, the imaging part 112-3, and the projection part 111-3 is each estimated so that those distance may become the minimum.

同様に、対応点494について、撮像部112−4からみた対応点494の平面スクリーンモデル481上における位置494−2、投影部111−3からみた対応点494の平面スクリーンモデル481上における位置494−1、投影部111−4からみた対応点494の平面スクリーンモデル481上における位置494−3がそれぞれ求められ、位置494−2と位置494−1との距離、位置494−2と位置494−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−3、撮像部112−4、および投影部111−4の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。   Similarly, for the corresponding point 494, the position 494-2 of the corresponding point 494 viewed from the imaging unit 112-4 on the flat screen model 481 and the position 494 of the corresponding point 494 viewed from the projection unit 111-3 on the flat screen model 481. 1. The position 494-3 on the flat screen model 481 of the corresponding point 494 viewed from the projection unit 111-4 is obtained, and the distance between the position 494-2 and the position 494-1, and the position 494-2 and the position 494-3. And the distance to each other. And the position on the three-dimensional coordinate of the plane screen model 481 of the projection part 111-3, the imaging part 112-4, and the projection part 111-4 is each estimated so that those distance may become the minimum.

以上のように各対応点について誤差が求められ、それらの最小二乗和が算出され、その値が最小となるように、各投影部111および各撮像部112の、所定の平面スクリーンモデル481の三次元座標上の位置(図20の例の場合、矢印501−1乃至矢印501−8)がそれぞれ推定される。   As described above, an error is obtained for each corresponding point, the sum of the least squares thereof is calculated, and the cubic of the predetermined flat screen model 481 of each projection unit 111 and each imaging unit 112 so that the value is minimized. The positions on the original coordinates (in the example of FIG. 20, arrows 501-1 to 501-8) are estimated.

そして、その位置(姿勢)から、投影部111と撮像部112との相互姿勢をより高精度に示す外部変数(図20の例の場合、両矢印502−1乃至両矢印502−4)が推定される。   Then, from the position (posture), an external variable (double arrow 502-1 to double arrow 502-4 in the example of FIG. 20) indicating the mutual posture of the projection unit 111 and the imaging unit 112 with higher accuracy is estimated. Is done.

図19に戻り、相互姿勢再推定処理が開始されると、相互姿勢再推定部214は、ステップS181において、図8のステップS103の処理により得られた各投影撮像装置102の姿勢を初期値として、評価値を算出する。   Returning to FIG. 19, when the mutual posture re-estimation process is started, the mutual posture re-estimation unit 214 sets the posture of each projection imaging apparatus 102 obtained by the processing of step S <b> 103 of FIG. 8 as an initial value in step S <b> 181. The evaluation value is calculated.

評価値(誤差評価値E)は、例えば、以下のような式(1)を用いて算出される。   The evaluation value (error evaluation value E) is calculated using, for example, the following equation (1).

Figure 2016014720
・・・(1)
Figure 2016014720
... (1)

ここで、
M:撮像部台数/投影部台数
N:撮像部画像画素数
Xcn:撮像部cの画素nのスクリーン上投影座標(Xcn,Ycn
ACc,DCc,RCc,TCcの関数
Xcnp:撮像部cの画素nに対応する投影部pの画素のスクリーン上投影座標(Xcnp,Ycnp
ACc,DCc,RCc,TCc,APp,DPp,RPp,TPpの関数
Icnp:見えのフラグ0/1(撮像部cの画素nに対応する投影部pの画素が存在する場合は1)
とする。
here,
M: Number of imaging units / number of projection units
N: Number of pixels in the imaging unit
X cn : projected coordinates (X cn , Y cn ) of the pixel n of the imaging unit c
A Cc , D Cc , R Cc , T Cc functions
X cnp : On-screen projection coordinates (X cnp , Y cnp ) of the pixel of the projection unit p corresponding to the pixel n of the imaging unit c
A Cc , D Cc , R Cc , T Cc , A Pp , D Pp , R Pp , T Pp functions
I cnp : Appearance flag 0/1 (1 when there is a pixel of the projection unit p corresponding to the pixel n of the imaging unit c)
And

なお、ACc,DCc,RCc,TCc,APp,DPp,RPp,TPpの各変数は以下のとおりである。
ACc:撮像部cの内部変数(このキャリブレーション時は固定値とする)
DCc:撮像部cの歪みパラメータ(このキャリブレーション時は固定値とする)
RCc:撮像部cの回転行列(外部変数)
TCc:撮像部cの並進ベクトル(外部変数)
APp:投影部pの内部変数(このキャリブレーション時は固定値とする)
DPp:投影部pの歪みパラメータ(このキャリブレーション時は固定値とする)
RPp:投影部pの回転行列(外部変数)
TPp:投影部pの並進ベクトル(外部変数)
The variables A Cc , D Cc , R Cc , T Cc , A Pp , D Pp , R Pp and T Pp are as follows.
A Cc : Internal variable of imaging unit c (fixed value during this calibration)
D Cc : Distortion parameter of imaging unit c (fixed value at the time of calibration)
R Cc : rotation matrix of the imaging unit c (external variable)
T Cc : Translation vector of the imaging unit c (external variable)
A Pp : Internal variable of projection part p (fixed value at the time of this calibration)
D Pp : distortion parameter of the projection part p (fixed value at the time of this calibration)
R Pp : rotation matrix of projection part p (external variable)
T Pp : Translation vector of projection part p (external variable)

今回のキャリブレーションでは、式(1)の誤差評価値Eを最小化するRおよびTを求める(バンドル調整(Bundle Adjustment)の考え方)。ただし,基準とする投影部111あるいは撮像部112のZ座標値とロール(Roll)成分は固定とする。これは、対象とするパラメータのヤコビ行列(Jacobian)を計算する際にその値を0に強制的にすることで実現することができる。   In this calibration, R and T that minimize the error evaluation value E in Equation (1) are obtained (the idea of bundle adjustment). However, the Z coordinate value and the roll component of the projection unit 111 or the imaging unit 112 serving as a reference are fixed. This can be achieved by forcing the value to 0 when calculating the Jacobian of the target parameter.

ステップS182において、相互姿勢再推定部214は、更新値Δαを算出し、仮更新値α’を算出する。   In step S182, the mutual attitude re-estimation unit 214 calculates the update value Δα and calculates the temporary update value α ′.

相互姿勢再推定部214は、上述した誤差評価値E、ヤコビ行列(Jacobian)、およびヘッセ行列(Hessian)を用いて、仮更新値α’を算出する。   The mutual attitude re-estimation unit 214 calculates the temporary update value α ′ using the error evaluation value E, the Jacobian matrix (Jacobian), and the Hessian matrix (Hessian) described above.

ヤコビ行列(Jacobian)は、回転成分3成分と並進成分3成分のそれぞれを微小量振って、近似的に撮像部1画素毎の誤差ecnの変化量から求める。回転成分のヤコビ行列(Jacobian)は、無限小回転のパラメータω=(ω1 ω2 ω3)TをそれぞれΔωの微小量動かしたときの回転行列をR(ω)とし、現在の回転行列をRと定義したときに以下の式(2)で表される。 The Jacobian matrix (Jacobian) is obtained approximately from the amount of change in the error e cn for each pixel of the image pickup unit by shifting each of the three rotational component components and the three translation component components by a minute amount. The Jacobian matrix of the rotation component is the rotation matrix when the parameter of infinitesimal rotation ω = (ω 1 ω 2 ω 3 ) T is moved by a small amount of Δω, and R (ω), and the current rotation matrix is When defined as R, it is represented by the following formula (2).

Figure 2016014720
・・・(2)
Figure 2016014720
... (2)

また、並進成分のヤコビ行列(Jacobian)は並進パラメータT=(Tx Ty Tz)TのそれぞれをΔTの微小量動かしたときに以下の式(3)で表される。 The translational component Jacobian matrix (Jacobian) is expressed by the following equation (3) when each of the translation parameters T = (T x T y T z ) T is moved by a minute amount of ΔT.

Figure 2016014720
・・・(3)
Figure 2016014720
... (3)

そして、ヤコビ行列(Jacobian)と誤差ecnとから近似的にヘッセ行列(Hessian)を求める。上述した式(2)および式(3)のヤコビ行列(Jacobian)をそれぞれ∂ecn/∂αi ,(i=0,…,5)とする場合、ヘッセ行列(Hessian)は以下の式(4)で表される。 Then, a Hessian matrix (Hessian) is obtained approximately from the Jacobian matrix (Jacobian) and the error e cn . When the Jacobian matrix (Jacobian) in the above equations (2) and (3) is ∂e cn / ∂α i , (i = 0, ..., 5), the Hessian matrix (Hessian) is expressed by the following equation ( 4).

Figure 2016014720
・・・(4)
Figure 2016014720
... (4)

さらに対角要素に重み付けをしたH’は、以下の式(5)のように表すことができる。   Furthermore, H ′ obtained by weighting the diagonal elements can be expressed as the following equation (5).

Figure 2016014720
・・・(5)
Figure 2016014720
... (5)

なお、ここでwは、探索位置のステップ幅に関わる重みパラメータで、重みが大きいほど探索空間を一次近似した場合の更新ステップに近くなり、重みが小さいほど探索空間を二次近似した場合の更新ステップに近くなる。   Here, w is a weight parameter related to the step width of the search position. The larger the weight, the closer to the update step when the search space is first-order approximated, and the smaller the weight, the update when the search space is second-order approximated Get closer to the step.

この式(5)を考えて更新値αを求める。その場合、更新値αは、以下の式(6)のように表される。   Considering this equation (5), the update value α is obtained. In this case, the update value α is expressed as in the following formula (6).

Figure 2016014720
・・・(6)
Figure 2016014720
... (6)

ステップS183において、相互姿勢再推定部214は、評価値の変化に応じて、評価値、更新値、重みを更新する。例えば、ΔEが負ならαとEを更新してwを1/10倍する。ΔEが負でないならwを10倍する(一般的なLevenberg-Marqurdt法と同様)。   In step S183, the mutual attitude re-estimation unit 214 updates the evaluation value, the update value, and the weight according to the change in the evaluation value. For example, if ΔE is negative, α and E are updated and w is multiplied by 1/10. If ΔE is not negative, multiply w by 10 (similar to the general Levenberg-Marqurdt method).

ステップS184において、相互姿勢再推定部214は、ステップS182およびステップS183の各処理を、所定回数繰り返したか否かを判定する。所定回数に達していないと判定された場合、処理はステップS182に戻り、それ以降の処理を繰り返す。   In step S184, the mutual attitude re-estimation unit 214 determines whether each process of step S182 and step S183 has been repeated a predetermined number of times. If it is determined that the predetermined number of times has not been reached, the process returns to step S182 and the subsequent processes are repeated.

ステップS184において、ステップS182およびステップS183の各処理が所定回数繰り返されたと判定された場合、処理はステップS185に進む。   If it is determined in step S184 that the processes in steps S182 and S183 have been repeated a predetermined number of times, the process proceeds to step S185.

ステップS185において、相互姿勢再推定部214は、全ての投影部111および撮像部112について、相互姿勢を検出し、外部変数(投影撮像装置102内の外部変数、および投影撮像装置102間の外部変数)を求める。   In step S185, the mutual posture re-estimation unit 214 detects the mutual postures of all the projection units 111 and the imaging units 112, and uses external variables (external variables in the projection imaging device 102 and external variables between the projection imaging devices 102). )

ステップS185の処理が終了すると、相互姿勢再推定処理が終了し、処理は図8に戻る。   When the process of step S185 ends, the mutual attitude re-estimation process ends, and the process returns to FIG.

以上のように各処理を実行することにより、制御装置101は、より容易かつ高精度に投影部111と撮像部112との位置関係のキャリブレーションを行うことができる。そして、このようにキャリブレーションを行った投影撮像装置102を利用することで、投影撮像システム100は、平面スクリーンだけでなく、曲面や任意形状面の物体に対しても精度良く幾何補正を行うことができるようになる。   By executing each process as described above, the control apparatus 101 can calibrate the positional relationship between the projection unit 111 and the imaging unit 112 more easily and with high accuracy. By using the projection imaging apparatus 102 that has been calibrated in this way, the projection imaging system 100 can accurately perform geometric correction not only on a flat screen but also on an object with a curved surface or an arbitrary shape surface. Will be able to.

<投影撮像システムの構成例>
以上においては、投影撮像システム100において、制御装置101と各投影撮像装置102とが通信ケーブル103を介して接続されるように説明したが、制御装置101と各投影撮像装置102との接続方法は通信可能である限り任意である。例えば、図21に示される例のように、ネットワーク601を介して接続されるようにしてもよい。
<Configuration example of projection imaging system>
In the above description, in the projection imaging system 100, the control device 101 and each projection imaging device 102 have been described as being connected via the communication cable 103. However, the connection method between the control device 101 and each projection imaging device 102 is as follows. It is optional as long as communication is possible. For example, it may be connected via the network 601 as in the example shown in FIG.

ネットワーク601は、制御装置101および投影撮像装置102との間の通信媒体となる通信網である。ネットワーク601は、どのような通信網であってもよく、有線通信網であってもよいし、無線通信網であってもよいし、それらの両方であってもよい。例えば、有線LAN、無線LAN、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、またはインターネット等であってもよいし、それらの組み合わせであってもよい。また、ネットワーク601は、単数の通信網であってもよいし、複数の通信網であってもよい。また、例えば、ネットワーク601は、その一部が、例えばUSB(Universal Serial Bus)ケーブルやHDMI(登録商標)ケーブル等のような、所定の規格の通信ケーブルにより構成されるようにしてもよい。   A network 601 is a communication network serving as a communication medium between the control device 101 and the projection imaging device 102. The network 601 may be any communication network, a wired communication network, a wireless communication network, or both of them. For example, it may be a wired LAN, a wireless LAN, a public telephone line network, a so-called 3G line, a wide area communication network for a wireless mobile body such as a 4G line, or the Internet, or a combination thereof. The network 601 may be a single communication network or a plurality of communication networks. Further, for example, a part of the network 601 may be configured by a communication cable of a predetermined standard such as a USB (Universal Serial Bus) cable or an HDMI (registered trademark) cable.

また、上述したキャリブレーションに関する処理は、制御装置101以外の装置で行われるようにしてもよい。例えば、投影撮像装置102が行うようにしてもよい。図22の例では、投影撮像装置102が、上述したキャリブレーションに関する処理を行う。この場合、各投影撮像装置102に入力画像が入力され、各投影撮像装置102において、画像の補正が行われる。各投影撮像装置102がHDMI(登録商標)ケーブルのような通信ケーブルで互いに接続されており、補正情報や例えば撮像画像のようなセンサデータ等の情報を各投影撮像装置102の間で共有することができるようになされている。したがって、どの投影撮像装置102が上述したキャリブレーションに関する処理を行うようにすることもできる。例えば、投影撮像装置102−1乃至投影撮像装置102−4のいずれかが上述したキャリブレーションに関する処理を行い、そのキャリブレーション結果を他の投影撮像装置102と共有するようにしてもよいし、複数の投影撮像装置102が協働して上述したキャリブレーションに関する処理を行い、そのキャリブレーション結果を他の投影撮像装置102と共有するようにしてもよい。このような構成の場合、制御装置101を省略することもできる。   Further, the above-described processing related to calibration may be performed by a device other than the control device 101. For example, the projection imaging apparatus 102 may perform this. In the example of FIG. 22, the projection imaging apparatus 102 performs the above-described processing related to calibration. In this case, an input image is input to each projection imaging device 102, and each projection imaging device 102 corrects the image. Each projection imaging apparatus 102 is connected to each other by a communication cable such as an HDMI (registered trademark) cable, and information such as correction information and sensor data such as a captured image is shared among the projection imaging apparatuses 102. It is made to be able to. Accordingly, any projection imaging apparatus 102 can perform the above-described processing relating to calibration. For example, any one of the projection imaging apparatus 102-1 to the projection imaging apparatus 102-4 may perform the above-described processing relating to calibration, and the calibration result may be shared with other projection imaging apparatuses 102, The projection imaging apparatus 102 may cooperate to perform the above-described processing relating to calibration, and the calibration result may be shared with other projection imaging apparatuses 102. In the case of such a configuration, the control device 101 can be omitted.

また、以上においては、投影撮像システム100が4台の投影撮像装置102を有するように説明したが、投影撮像システム100を構成する投影撮像装置102の台数は任意であり、3台以下であってもよいし、5台以上であってもよい。   In the above description, the projection imaging system 100 has been described as having four projection imaging apparatuses 102. However, the number of projection imaging apparatuses 102 constituting the projection imaging system 100 is arbitrary, and is three or less. Or five or more.

また、図23に示される投影撮像装置612のように、他の情報処理装置611を介して、ネットワーク601(制御装置101や他の投影撮像装置102等)に接続されるようにしてもよい。投影撮像装置612は、上述した投影撮像装置102と同様の装置である、ただし、この投影撮像装置は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、通信機能を有する情報処理装置611を介してネットワーク601に接続される。また、投影撮像装置612は、この情報処理装置611に制御されて駆動する。このようにすることにより、通信に関する処理や投影や撮像の制御に関する処理を、元々処理能力が高い情報処理装置611に行わせることができるので、投影撮像装置612に必要な機能(情報処理能力等)の増大を抑制することができ、コストの増大を抑制することができる。   Further, like the projection imaging apparatus 612 shown in FIG. 23, it may be connected to the network 601 (the control apparatus 101, other projection imaging apparatus 102, etc.) via another information processing apparatus 611. The projection imaging device 612 is the same device as the projection imaging device 102 described above, but this projection imaging device has a communication function such as a mobile phone, a smartphone, a tablet computer, and a notebook computer. It is connected to the network 601 via the information processing device 611. The projection imaging device 612 is controlled and driven by the information processing device 611. By doing so, the information processing apparatus 611 having originally high processing capability can perform the processing related to communication and the processing related to the control of projection and imaging. Therefore, functions (information processing capability and the like) necessary for the projection imaging apparatus 612 can be performed. ) Can be suppressed, and an increase in cost can be suppressed.

また、上述した投影撮像装置102の機能をモジュール等(すなわち部品単位)として実現するようにしてもよい。図23の情報処理装置613は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、元々処理能力が高い情報処理装置であり、上述した投影撮像装置102の機能を有するモジュールが組み込まれている。すなわち、情報処理装置613は、情報処理装置611と投影撮像装置612の両方の機能を有する装置である。投影撮像装置102は、このような情報処理装置として実現することもできる。   Further, the function of the projection imaging apparatus 102 described above may be realized as a module or the like (that is, a component unit). The information processing apparatus 613 in FIG. 23 is an information processing apparatus with originally high processing capability, such as a mobile phone, a smartphone, a tablet computer, and a notebook computer, and a module having the function of the projection imaging apparatus 102 described above. Is incorporated. That is, the information processing device 613 is a device having both functions of the information processing device 611 and the projection imaging device 612. The projection imaging apparatus 102 can also be realized as such an information processing apparatus.

また、図23に示される例のように、投影撮像装置102として、互いに異なる機能を有するデバイスが混在するようにしてもよい。   Further, as in the example shown in FIG. 23, devices having different functions may be mixed as the projection imaging apparatus 102.

また、図24に示される例のように、投影撮像システム100には、投影部111を有しているが撮像部112を有していない投影装置621や投影装置623、撮像部112を有しているが投影部111を有してない撮像装置622等が含まれるようにしてもよい。また、1つのデバイスに投影部111や撮像部112が複数設けられるようにしてもよい。例えば、投影撮像装置624は、投影部111A、投影部111B、および撮像部112を有する。このような構成の投影撮像装置624の外部変数も、投影撮像装置102の場合と同様に、上述したキャリブレーションを行うことができる。さらに、投影撮像システム100全体において、投影部111の数と撮像部112の数が一致していなくてもよい。   Further, as in the example illustrated in FIG. 24, the projection imaging system 100 includes the projection device 621, the projection device 623, and the imaging unit 112 that include the projection unit 111 but do not include the imaging unit 112. However, an imaging device 622 or the like that does not have the projection unit 111 may be included. Further, a plurality of projection units 111 and imaging units 112 may be provided in one device. For example, the projection imaging device 624 includes a projection unit 111A, a projection unit 111B, and an imaging unit 112. The external variables of the projection imaging apparatus 624 having such a configuration can perform the above-described calibration as in the case of the projection imaging apparatus 102. Furthermore, in the entire projection imaging system 100, the number of projection units 111 and the number of imaging units 112 do not have to match.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図2や図5に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されているリムーバブルメディア171やリムーバブルメディア321により構成される。このリムーバブルメディア171やリムーバブルメディア321には、磁気ディスク(フレキシブルディスクを含む)や光ディスク(CD-ROMやDVDを含む)が含まれる。さらに、光磁気ディスク(MD(Mini Disc)を含む)や半導体メモリ等も含まれる。   For example, as shown in FIGS. 2 and 5, the recording medium is distributed by a removable medium 171 or a removable medium 321 on which a program is recorded, which is distributed to distribute a program to a user, separately from the apparatus main body. Composed. The removable medium 171 and the removable medium 321 include a magnetic disk (including a flexible disk) and an optical disk (including a CD-ROM and a DVD). Furthermore, a magneto-optical disk (including MD (Mini Disc)), a semiconductor memory, and the like are also included.

その場合、例えば制御装置101においては、プログラムは、そのリムーバブルメディア171をドライブ165に装着することにより、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、そのリムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。   In this case, for example, in the control device 101, the program can be installed in the storage unit 163 by mounting the removable medium 171 in the drive 165. For example, in the projection imaging apparatus 102, the program can be installed in the storage unit 313 by mounting the removable medium 321 in the drive 315.

また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、例えば制御装置101においては、プログラムは、通信部164で受信し、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、通信部314で受信し、記憶部313にインストールすることができる。   This program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In that case, for example, in the control device 101, the program can be received by the communication unit 164 and installed in the storage unit 163. For example, in the projection imaging apparatus 102, the program can be received by the communication unit 314 and installed in the storage unit 313.

その他、このプログラムは、記憶部やROM等に、あらかじめインストールしておくこともできる。例えば制御装置101の場合、プログラムは、記憶部163やROM153等に、あらかじめインストールしておくこともできる。また、例えば投影撮像装置102の場合、プログラムは、記憶部313や制御部301内のROM等に、あらかじめインストールしておくこともできる。   In addition, this program can be installed in advance in a storage unit, a ROM, or the like. For example, in the case of the control device 101, the program can be installed in advance in the storage unit 163, the ROM 153, or the like. For example, in the case of the projection imaging apparatus 102, the program can be installed in advance in the storage unit 313, the ROM in the control unit 301, or the like.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.

また、上述した各ステップの処理は、上述した各装置、若しくは、上述した各装置以外の任意の装置において、実行することができる。その場合、その処理を実行する装置が、上述した、その処理を実行するのに必要な機能(機能ブロック等)を有するようにすればよい。また、処理に必要な情報を、適宜、その装置に伝送するようにすればよい。   Moreover, the process of each step mentioned above can be performed in each apparatus mentioned above or arbitrary apparatuses other than each apparatus mentioned above. In that case, the device that executes the process may have the functions (functional blocks and the like) necessary for executing the process described above. Information necessary for processing may be transmitted to the apparatus as appropriate.

また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。   In addition, in the above description, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). Conversely, the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit). Of course, a configuration other than that described above may be added to the configuration of each device (or each processing unit). Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). .

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。   For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。   In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

また、本技術は、これに限らず、このような装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。   In addition, the present technology is not limited to this, and any configuration mounted on such a device or a device constituting the system, for example, a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a plurality of It is also possible to implement as a unit using other modules, a set obtained by further adding other functions to the unit (that is, a partial configuration of the apparatus), and the like.

なお、本技術は以下のような構成も取ることができる。
(1) 所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部
を備える情報処理装置。
(2) 前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離に基づいて、前記相互姿勢を決定する変数を推定する
(1)に記載の情報処理装置。
(3) 前記相互姿勢推定部は、
前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、
前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部と
を備える(2)に記載の情報処理装置。
(4) 前記更新部は、前記撮像部が撮像する前記画像に含まれる処理対象の画素の前記所定の面における位置と、前記画素を投影する各投影部が投影する前記画像の前記画素の前記所定の面における位置との距離の2乗平均を前記評価値とする
(3)に記載の情報処理装置。
(5) 前記変数推定部は、前記撮像部の回転行列、前記撮像部の並進ベクトル、前記投影部の回転行列、および前記投影部の並進ベクトルを含む
(3)または(4)に記載の情報処理装置。
(6) 前記投影部および前記撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備え、
前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定する
(1)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記仮相互姿勢推定部は、各投影撮像装置の投影面の位置の誤差が最小となるように前記仮の相互姿勢を推定する
(6)に記載の情報処理装置。
(8) 各投影撮像装置について、前記画像が投影される投影面に対する前記投影部および前記撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備え、
前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定する
(6)または(7)に記載の情報処理装置。
(9) 前記投影面姿勢推定部は、三角測量を行うことにより前記投影面を推定し、推定した前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(8)に記載の情報処理装置。
(10) 前記投影面姿勢推定部は、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(8)または(9)に記載の情報処理装置。
(11) 前記仮相互姿勢推定部は、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係に基づいて、前記仮の相互姿勢を推定する
(10)に記載の情報処理装置。
(12) 前記投影面姿勢推定部は、前記投影部に画素位置対応を求める際に用いるパターンを投影させ、前記撮像部に撮像させることにより検出される、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(10)または(11)に記載の情報処理装置。
(13) 投影された画像を撮像し撮像画像を得る撮像部をさらに備え、
前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定する
(1)乃至(12)のいずれかに記載の情報処理装置。
(14) 画像を投影する投影部をさらに備え、
前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定する
(13)に記載の情報処理装置。
(15) 前記相互姿勢推定部により推定された前記投影部と前記撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備える
(1)乃至(14)のいずれかに記載の情報処理装置。
(16) 所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する
情報処理方法。
In addition, this technique can also take the following structures.
(1) A mutual attitude that is a relative position and direction of the projection unit and the imaging unit on a predetermined plane based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit. An information processing apparatus comprising a mutual posture estimation unit for estimating a position.
(2) The mutual posture estimation unit may be configured based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The information processing apparatus according to (1), wherein a variable that determines a mutual posture is estimated.
(3) The mutual posture estimation unit
An update unit that updates an evaluation value of a distance between the position on the predetermined plane of the image projected by the projection unit and the position on the predetermined plane of the image captured by the imaging unit;
The information processing apparatus according to (2), further comprising: a variable estimation unit that estimates a variable that determines the mutual attitude based on the evaluation value updated by the update unit.
(4) The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined plane, and the pixel of the image projected by each projection unit that projects the pixel. The information processing apparatus according to (3), wherein a mean square of a distance to a position on a predetermined surface is the evaluation value.
(5) The information according to (3) or (4), wherein the variable estimation unit includes a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit. Processing equipment.
(6) It further includes a temporary mutual posture estimation unit that estimates a mutual posture between the projection imaging devices having the projection unit and the imaging unit as a temporary mutual posture,
The information processing apparatus according to any one of (1) to (5), wherein the mutual posture estimation unit estimates the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.
(7) The information processing apparatus according to (6), wherein the temporary mutual attitude estimation unit estimates the temporary mutual attitude so that an error in a position of a projection plane of each projection imaging apparatus is minimized.
(8) For each projection imaging apparatus, further comprising a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected,
The temporary mutual posture estimation unit estimates the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit. (6) or (7 ).
(9) The information according to (8), wherein the projection plane attitude estimation unit estimates the projection plane by performing triangulation, and estimates a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane. Processing equipment.
(10) The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a pixel position between the projection unit and the imaging unit between the projection imaging devices. The information processing apparatus according to (8) or (9), wherein a mutual attitude of the projection unit and the imaging unit with respect to the projection plane is estimated based on the corresponding relationship.
(11) The information according to (10), wherein the temporary mutual posture estimation unit estimates the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. Processing equipment.
(12) The projection plane orientation estimation unit may detect the projection unit in the projection imaging apparatus detected by causing the projection unit to project a pattern to be used when obtaining the pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence of the pixel position with the imaging unit and the correspondence of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the projection unit and the imaging unit are mutually connected to the projection plane. The information processing apparatus according to (10) or (11), wherein the posture is estimated.
(13) It further includes an imaging unit that captures the projected image and obtains a captured image,
The mutual posture estimation unit is configured to determine whether the projection unit and the imaging unit are based on a relative positional relationship between an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. The information processing apparatus according to any one of (1) to (12), wherein a mutual posture is estimated.
(14) It further includes a projection unit that projects an image,
The information processing apparatus according to (13), wherein the mutual posture estimation unit further estimates a mutual posture between the projection unit and the imaging unit.
(15) The image processing unit further includes an image processing unit that performs image processing for correcting an image to be projected using a variable according to the mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit. Thru | or the information processing apparatus in any one of (14).
(16) A mutual attitude that is a relative position and direction of the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. Information processing method to estimate

100 投影撮像システム, 101 制御装置, 102 投影撮像装置, 103 通信ケーブル, 104 スクリーン, 111 投影部, 112 撮像部, 151 CPU, 201 キャリブレーション処理部, 202 画像処理部, 203 投影制御部, 204 撮像制御部, 211 画素位置対応検出部, 212 投影面姿勢推定部, 213 仮相互姿勢推定部、 214 相互姿勢再推定部, 301 制御部, 351 ビデオプロセッサ, 352 レーザドライバ, 353 レーザ出力部, 354 ミラー, 355 MEMSドライバ, 356 MEMSミラー, 601 ネットワーク, 611 情報処理装置, 612 投影撮像装置, 613 情報処理装置, 621 投影装置, 622 撮像装置, 623 投影装置, 624 投影撮像装置   DESCRIPTION OF SYMBOLS 100 Projection imaging system, 101 Control apparatus, 102 Projection imaging apparatus, 103 Communication cable, 104 Screen, 111 Projection part, 112 Imaging part, 151 CPU, 201 Calibration processing part, 202 Image processing part, 203 Projection control part, 204 Imaging Control unit, 211 pixel position correspondence detection unit, 212 projection plane posture estimation unit, 213 provisional mutual posture estimation unit, 214 mutual posture re-estimation unit, 301 control unit, 351 video processor, 352 laser driver, 353 laser output unit, 354 mirror , 355 MEMS driver, 356 MEMS mirror, 601 network, 611 information processing device, 612 projection imaging device, 613 information processing device, 621 projection device, 622 imaging device, 623 projection device, 624 throwing Shadow imaging device

Claims (16)

所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部
を備える情報処理装置。
Based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane, a mutual attitude that is a relative position and direction between the projection unit and the imaging unit is estimated. An information processing apparatus comprising a mutual posture estimation unit.
前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離に基づいて、前記相互姿勢を決定する変数を推定する
請求項1に記載の情報処理装置。
The mutual posture estimation unit calculates the mutual posture based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The information processing apparatus according to claim 1, wherein a variable to be determined is estimated.
前記相互姿勢推定部は、
前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、
前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部と
を備える請求項2に記載の情報処理装置。
The mutual posture estimation unit
An update unit that updates an evaluation value of a distance between the position on the predetermined plane of the image projected by the projection unit and the position on the predetermined plane of the image captured by the imaging unit;
The information processing apparatus according to claim 2, further comprising: a variable estimation unit that estimates a variable that determines the mutual attitude based on the evaluation value updated by the update unit.
前記更新部は、前記撮像部が撮像する前記画像に含まれる処理対象の画素の前記所定の面における位置と、前記画素を投影する各投影部が投影する前記画像の前記画素の前記所定の面における位置との距離の2乗平均を前記評価値とする
請求項3に記載の情報処理装置。
The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined surface, and the predetermined surface of the pixel of the image projected by each projection unit that projects the pixel. The information processing apparatus according to claim 3, wherein the evaluation value is a mean square of a distance to a position at.
前記変数推定部は、前記撮像部の回転行列、前記撮像部の並進ベクトル、前記投影部の回転行列、および前記投影部の並進ベクトルを含む
請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the variable estimation unit includes a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.
前記投影部および前記撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備え、
前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定する
請求項1に記載の情報処理装置。
A provisional mutual attitude estimation unit that estimates a mutual attitude between the projection imaging apparatus having the projection unit and the imaging unit as a provisional mutual attitude;
The information processing apparatus according to claim 1, wherein the mutual posture estimation unit estimates the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.
前記仮相互姿勢推定部は、各投影撮像装置の投影面の位置の誤差が最小となるように前記仮の相互姿勢を推定する
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the temporary mutual attitude estimation unit estimates the temporary mutual attitude so that an error in a position of a projection plane of each projection imaging apparatus is minimized.
各投影撮像装置について、前記画像が投影される投影面に対する前記投影部および前記撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備え、
前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定する
請求項6に記載の情報処理装置。
For each projection imaging apparatus, the projection imaging apparatus further includes a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected,
The temporary mutual posture estimation unit estimates the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit. Information processing device.
前記投影面姿勢推定部は、三角測量を行うことにより前記投影面を推定し、推定した前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, wherein the projection plane attitude estimation unit estimates the projection plane by performing triangulation, and estimates a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane.
前記投影面姿勢推定部は、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
請求項8に記載の情報処理装置。
The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. The information processing apparatus according to claim 8, wherein the mutual attitude of the projection unit and the imaging unit with respect to the projection plane is estimated based on
前記仮相互姿勢推定部は、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係に基づいて、前記仮の相互姿勢を推定する
請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the temporary mutual posture estimation unit estimates the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices.
前記投影面姿勢推定部は、前記投影部に画素位置対応を求める際に用いるパターンを投影させ、前記撮像部に撮像させることにより検出される、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
請求項10に記載の情報処理装置。
The projection plane posture estimation unit detects the projection unit and the imaging unit in the projection imaging apparatus that are detected by causing the projection unit to project a pattern used when determining pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence relationship of the pixel position with respect to the projection imaging device and the correspondence relationship of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the mutual orientation of the projection unit and the imaging unit with respect to the projection plane is estimated The information processing apparatus according to claim 10.
投影された画像を撮像し撮像画像を得る撮像部をさらに備え、
前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定する
請求項1に記載の情報処理装置。
An imaging unit that captures the projected image and obtains the captured image;
The mutual posture estimation unit is configured to determine whether the projection unit and the imaging unit are based on a relative positional relationship between an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. The information processing apparatus according to claim 1, wherein the mutual attitude is estimated.
画像を投影する投影部をさらに備え、
前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定する
請求項13に記載の情報処理装置。
A projection unit for projecting an image;
The information processing apparatus according to claim 13, wherein the mutual posture estimation unit further estimates a mutual posture between the projection unit and the imaging unit.
前記相互姿勢推定部により推定された前記投影部と前記撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備える
請求項1に記載の情報処理装置。
The image processing part which performs the image process which correct | amends the image to project using the variable according to the mutual attitude | position of the said projection part estimated by the said mutual attitude | position estimation part and the said imaging part is provided. Information processing device.
所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する
情報処理方法。
Based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane, a mutual attitude that is a relative position and direction between the projection unit and the imaging unit is estimated. Information processing method.
JP2014135791A 2014-07-01 2014-07-01 Information processor and method Pending JP2016014720A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014135791A JP2016014720A (en) 2014-07-01 2014-07-01 Information processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014135791A JP2016014720A (en) 2014-07-01 2014-07-01 Information processor and method

Publications (1)

Publication Number Publication Date
JP2016014720A true JP2016014720A (en) 2016-01-28

Family

ID=55230966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014135791A Pending JP2016014720A (en) 2014-07-01 2014-07-01 Information processor and method

Country Status (1)

Country Link
JP (1) JP2016014720A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163928A1 (en) * 2016-03-24 2017-09-28 ソニー株式会社 Image processing device and method
JP2017183919A (en) * 2016-03-29 2017-10-05 ブラザー工業株式会社 Projection control apparatus, program, and projection system
KR101820905B1 (en) * 2016-12-16 2018-01-22 씨제이씨지브이 주식회사 An image-based projection area automatic correction method photographed by a photographing apparatus and a system therefor
JP2018207373A (en) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system
WO2019012774A1 (en) 2017-07-14 2019-01-17 ソニー株式会社 Information processing device, information processing method, and program
WO2019124070A1 (en) 2017-12-19 2019-06-27 ソニー株式会社 Image processing device, image processing method, program, and projection system
US10520797B2 (en) 2016-09-21 2019-12-31 Seiko Epson Corporation Projection system, control device, and control method of projection system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163928A1 (en) * 2016-03-24 2017-09-28 ソニー株式会社 Image processing device and method
US10872434B2 (en) 2016-03-24 2020-12-22 Sony Corporation Image processing apparatus and method
JP2017183919A (en) * 2016-03-29 2017-10-05 ブラザー工業株式会社 Projection control apparatus, program, and projection system
US10520797B2 (en) 2016-09-21 2019-12-31 Seiko Epson Corporation Projection system, control device, and control method of projection system
KR101820905B1 (en) * 2016-12-16 2018-01-22 씨제이씨지브이 주식회사 An image-based projection area automatic correction method photographed by a photographing apparatus and a system therefor
US10051250B2 (en) 2016-12-16 2018-08-14 Cj Cgv Co., Ltd. Method of automatically correcting projection area based on image photographed by photographing device and system therefor
JP2018207373A (en) * 2017-06-07 2018-12-27 パナソニックIpマネジメント株式会社 Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system
WO2019012774A1 (en) 2017-07-14 2019-01-17 ソニー株式会社 Information processing device, information processing method, and program
KR20200028331A (en) 2017-07-14 2020-03-16 소니 주식회사 Information processing apparatus, information processing method, and program
US11082670B2 (en) 2017-07-14 2021-08-03 Sony Corporation Information processing apparatus, information processing method, and program
WO2019124070A1 (en) 2017-12-19 2019-06-27 ソニー株式会社 Image processing device, image processing method, program, and projection system
US11115632B2 (en) 2017-12-19 2021-09-07 Sony Corporation Image processing device, image processing method, program, and projection system

Similar Documents

Publication Publication Date Title
JP2016014720A (en) Information processor and method
CN109194876B (en) Image processing method, apparatus, electronic device, and computer-readable storage medium
JP5389879B2 (en) Imaging apparatus, surveillance camera, and camera screen masking method
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
JP5338718B2 (en) Correction information calculation apparatus, image processing apparatus, image display system, and image correction method
TWI393072B (en) Multi-sensor array module with wide viewing angle; image calibration method, operating method and application for the same
US20180343388A1 (en) Image processing device, image processing method, and recording medium storing program
WO2017006780A1 (en) Information processing device and method, and program
EP3373236A1 (en) Image processing system, image generation apparatus, and image generation method
WO2016002511A1 (en) Image processing device and method
JP7548228B2 (en) Information processing device, information processing method, program, projection device, and information processing system
JP6636252B2 (en) Projection system, projector device, imaging device, and program
KR20140071330A (en) Method and apparatus for calibrating an imaging device
JP6915537B2 (en) Information processing equipment and methods, as well as projection imaging equipment and information processing methods
US9338417B2 (en) Image projecting system, master apparatus, image projecting apparatus, and image projecting method
WO2018225531A1 (en) Image processing device and method
WO2005084017A1 (en) Multiprojection system
US20200021787A1 (en) Projector, projection method, image processing system, and method
JP6318576B2 (en) Image projection system, image processing apparatus, image projection method, and program
US11483528B2 (en) Information processing apparatus and information processing method
JP6320020B2 (en) Electronic device, control method thereof, and program
WO2019203002A1 (en) Information processing device and method
CN113473027A (en) Image processing method, electronic device, and storage medium
CN117132665A (en) Calibration method and device for laser sensor, calibration equipment and computer medium
JP4168024B2 (en) Stack projection apparatus and adjustment method thereof