JP2016014720A - Information processor and method - Google Patents
Information processor and method Download PDFInfo
- Publication number
- JP2016014720A JP2016014720A JP2014135791A JP2014135791A JP2016014720A JP 2016014720 A JP2016014720 A JP 2016014720A JP 2014135791 A JP2014135791 A JP 2014135791A JP 2014135791 A JP2014135791 A JP 2014135791A JP 2016014720 A JP2016014720 A JP 2016014720A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- projection
- imaging
- mutual
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000003384 imaging method Methods 0.000 claims abstract description 400
- 230000036544 posture Effects 0.000 claims description 126
- 230000008569 process Effects 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 74
- 230000010365 information processing Effects 0.000 claims description 46
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 19
- 238000013519 translation Methods 0.000 claims description 15
- 238000003672 processing method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 20
- 238000004891 communication Methods 0.000 description 41
- 238000001514 detection method Methods 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本技術は、情報処理装置および方法に関し、特に、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるようにした情報処理装置および方法に関する。 The present technology relates to an information processing apparatus and method, and more particularly, to an information processing apparatus and method that can calibrate a positional relationship between a projection unit and an imaging unit more easily and with high accuracy.
従来、複数のプロジェクタを用いて画像を投影するシステムがあった。このようなシステムにおいては、各プロジェクタの投影画像を適切に繋げることにより、1つの画像を投影することができる。そのために、カメラ等により投影画像がセンシングされ、そのセンシング結果を用いて各プロジェクタにおいて投影する画像に対する補正が行われていた。 Conventionally, there has been a system for projecting an image using a plurality of projectors. In such a system, one image can be projected by appropriately connecting the projection images of the projectors. For this purpose, the projection image is sensed by a camera or the like, and the image projected by each projector is corrected using the sensing result.
その補正の際、各カメラやプロジェクタの内部変数だけでなく、カメラやプロジェクタの位置関係等の外部変数が用いられるが、これらの変数は、システムの出荷時や設置時等にキャリブレーションされていた。例えば、グレイコードを用いてプロジェクタとカメラの画素の対応関係を検出する方法や、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン画像を用いてプロジェクタとカメラの画素の対応関係を検出する方法が考えられた(例えば、非特許文献1参照)。 At the time of the correction, not only the internal variables of each camera and projector but also external variables such as the positional relationship of the camera and projector are used. These variables were calibrated at the time of system shipment or installation. . For example, a method of detecting the correspondence between the projector and the camera pixel using the Gray code, or a correspondence image between the projector and the camera pixel using a pattern image lacking any of the four corners of the checker and the checker. A method was conceived (for example, see Non-Patent Document 1).
しかしながら、カメラやプロジェクタの位置関係等の外部変数は、システム設置後に経年変化する可能性があるが、その場合、改めて特殊な装置を用いてキャリブレーションする必要があり、複数のカメラやプロジェクタの全てについてこのようなキャリブレーションを行うためには煩雑な作業を必要とした。また、このような方法では、全てのキャリブレーションを高精度に行うことは困難であった。 However, external variables such as the positional relationship of cameras and projectors may change over time after the system is installed, but in that case, it is necessary to calibrate again using a special device. In order to perform such calibration, complicated work is required. Further, with such a method, it is difficult to perform all calibrations with high accuracy.
本技術は、このような状況に鑑みて提案されたものであり、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるようにすることを目的とする。 The present technology has been proposed in view of such a situation, and an object thereof is to enable calibration of the positional relationship between a projection unit and an imaging unit more easily and with high accuracy.
本技術の一側面は、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部を備える情報処理装置である。 One aspect of the present technology provides a relative position and direction between the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. It is an information processing apparatus provided with the mutual attitude | position estimation part which estimates the mutual attitude | position which is.
前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離に基づいて、前記相互姿勢を決定する変数を推定することができる。 The mutual posture estimation unit calculates the mutual posture based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The variable to be determined can be estimated.
前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部とを備えることができる。 The mutual posture estimation unit updates an evaluation value of a distance between a position on the predetermined plane of the image projected by the projection unit and a position on the predetermined plane of the image captured by the imaging unit. And a variable estimation unit that estimates a variable for determining the mutual attitude based on the evaluation value updated by the update unit.
前記更新部は、前記撮像部が撮像する前記画像に含まれる処理対象の画素の前記所定の面における位置と、前記画素を投影する各投影部が投影する前記画像の前記画素の前記所定の面における位置との距離の2乗平均を前記評価値とすることができる。 The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined surface, and the predetermined surface of the pixel of the image projected by each projection unit that projects the pixel. The mean square of the distance to the position at can be used as the evaluation value.
前記変数推定部は、前記撮像部の回転行列、前記撮像部の並進ベクトル、前記投影部の回転行列、および前記投影部の並進ベクトルを含むようにすることができる。 The variable estimation unit may include a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.
前記投影部および前記撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備え、前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定することができる。 A provisional mutual attitude estimation unit that estimates a mutual attitude between the projection imaging device having the projection unit and the imaging unit as a provisional mutual attitude; the mutual attitude estimation unit estimated by the temporary mutual attitude estimation unit; The mutual posture can be estimated using the temporary mutual posture as an initial value.
前記仮相互姿勢推定部は、各投影撮像装置の投影面の位置の誤差が最小となるように前記仮の相互姿勢を推定することができる。 The temporary mutual posture estimation unit can estimate the temporary mutual posture so that an error in the position of the projection plane of each projection imaging apparatus is minimized.
各投影撮像装置について、前記画像が投影される投影面に対する前記投影部および前記撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備え、前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定することができる。 Each projection imaging apparatus further includes a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected, and the temporary mutual attitude estimation unit includes the projection plane attitude estimation The provisional mutual posture can be estimated using the mutual posture of the projection unit and the imaging unit with respect to the projection plane estimated by the unit.
前記投影面姿勢推定部は、三角測量を行うことにより前記投影面を推定し、推定した前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。 The projection plane attitude estimation unit can estimate the projection plane by performing triangulation, and can estimate a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane.
前記投影面姿勢推定部は、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。 The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. Based on the above, it is possible to estimate the mutual attitude of the projection unit and the imaging unit with respect to the projection plane.
前記仮相互姿勢推定部は、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係に基づいて、前記仮の相互姿勢を推定することができる。 The temporary mutual posture estimation unit can estimate the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices.
前記投影面姿勢推定部は、前記投影部に画素位置対応を求める際に用いるパターンを投影させ、前記撮像部に撮像させることにより検出される、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定することができる。 The projection plane posture estimation unit detects the projection unit and the imaging unit in the projection imaging apparatus that are detected by causing the projection unit to project a pattern used when determining pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence relationship of the pixel position with respect to the projection imaging device and the correspondence relationship of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the mutual attitude of the projection unit and the imaging unit with respect to the projection plane can do.
投影された画像を撮像し撮像画像を得る撮像部をさらに備え、前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定することができる。 The image processing apparatus further includes an imaging unit that captures a projected image and obtains a captured image, and the mutual posture estimation unit includes an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. Based on the relative positional relationship, the mutual posture of the projection unit and the imaging unit can be estimated.
画像を投影する投影部をさらに備え、前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定することができる。 The image processing apparatus further includes a projection unit that projects an image, and the mutual posture estimation unit can further estimate a mutual posture between the projection unit and the imaging unit.
前記相互姿勢推定部により推定された前記投影部と前記撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備えることができる。 The image processing unit may further include an image processing unit that performs image processing for correcting an image to be projected using a variable according to a mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit.
本技術の一側面は、また、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する情報処理方法である。 One aspect of the present technology also provides a relative position between the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. And an information processing method for estimating a mutual posture which is a direction.
本技術の一側面においては、所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢が推定される。 In one aspect of the present technology, based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined surface, the relative position between the projection unit and the imaging unit, and A mutual attitude which is a direction is estimated.
本技術によれば、画像に基づいて情報を処理することが出来る。また本技術によれば、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができる。 According to the present technology, information can be processed based on an image. According to the present technology, it is possible to calibrate the positional relationship between the projection unit and the imaging unit more easily and with high accuracy.
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(投影撮像システム)
Hereinafter, modes for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. First embodiment (projection imaging system)
<1.第1の実施の形態>
<外部変数の経年変化と再キャリブレーション>
従来、複数のプロジェクタを用いて画像を投影するシステムがあった。このようなシステムにおいては、各プロジェクタの投影画像を適切に繋げることにより、1つの画像を投影することができる。そのために、カメラ等により投影画像がセンシングされ、そのセンシング結果を用いて各プロジェクタにおいて投影する画像に対する補正が行われていた。
<1. First Embodiment>
<External variable aging and recalibration>
Conventionally, there has been a system for projecting an image using a plurality of projectors. In such a system, one image can be projected by appropriately connecting the projection images of the projectors. For this purpose, the projection image is sensed by a camera or the like, and the image projected by each projector is corrected using the sensing result.
その補正の際、各カメラやプロジェクタの内部変数だけでなく、カメラやプロジェクタの位置関係等の外部変数が用いられるが、これらの変数は、システムの出荷時や設置時等にキャリブレーションされていた。例えば、グレイコードを用いてプロジェクタとカメラの画素の対応関係を検出する方法や、非特許文献1に記載のような、チェッカーとチェッカーの4隅のうちどれかが欠けたパターン画像を用いてプロジェクタとカメラの画素の対応関係を検出する方法が考えられた。
At the time of the correction, not only the internal variables of each camera and projector but also external variables such as the positional relationship of the camera and projector are used. These variables were calibrated at the time of system shipment or installation. . For example, a method of detecting a correspondence relationship between a projector and a camera pixel using a Gray code, or a projector using a pattern image lacking any of the four corners of the checker and the checker as described in
しかしながら、カメラやプロジェクタの位置関係等の外部変数は、システム設置後に経年変化する可能性があるが、その場合、改めて特殊な装置を用いてキャリブレーションする必要があり、複数のカメラやプロジェクタの全てについてこのようなキャリブレーションを行うためには煩雑な作業を必要とした。また、このような方法では、全てのキャリブレーションを高精度に行うことは困難であった。 However, external variables such as the positional relationship of cameras and projectors may change over time after the system is installed, but in that case, it is necessary to calibrate again using a special device. In order to perform such calibration, complicated work is required. Further, with such a method, it is difficult to perform all calibrations with high accuracy.
そこで、より容易かつ高精度に投影部と撮像部との位置関係のキャリブレーションを行うことができるように、所定の面における、投影部が投影する画像と撮像部が撮像する画像との相対位置関係に基づいて、投影部と撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部を備えるようにする。 Therefore, the relative position between the image projected by the projection unit and the image captured by the imaging unit on a predetermined plane so that the positional relationship between the projection unit and the imaging unit can be calibrated more easily and with high accuracy. Based on the relationship, a mutual posture estimation unit that estimates a mutual posture that is a relative position and direction between the projection unit and the imaging unit is provided.
つまり、相互姿勢推定部は、共通の所定の面において各投影部が投影する画像の位置と撮像部が撮像する画像との位置をできるだけ近づけるように、その所定の面に対する投影部と撮像部の姿勢を求め、その所定の面を介して、投影部と撮像部の相互姿勢を求める。 In other words, the mutual posture estimation unit is configured so that the position of the image projected by each projection unit and the position of the image captured by the imaging unit are as close as possible to each other on the predetermined plane. The posture is obtained, and the mutual posture of the projection unit and the imaging unit is obtained through the predetermined plane.
このようにキャリブレーションを行うことにより、複数の投影部と撮像部の相互姿勢を容易に求めることができる。また、画像の位置合わせの方法としては、例えば投影部が投影する画像上において行う方法があるが、これに対して上述した方法の場合、投影先の面(投影面)において画像を揃えるようにキャリブレーションを行う。したがって、より高精度にキャリブレーションを行うことができる。 By performing calibration in this way, the mutual postures of the plurality of projection units and the imaging unit can be easily obtained. In addition, as an image alignment method, for example, there is a method performed on an image projected by a projection unit. On the other hand, in the case of the method described above, images are aligned on a projection destination surface (projection surface). Perform calibration. Therefore, calibration can be performed with higher accuracy.
なお、前記相互姿勢推定部が、投影部が投影する画像の所定の面における位置と、撮像部が撮像する画像の所定の面における位置との距離に基づいて、相互姿勢を決定する変数を推定するようにしてもよい。 The mutual posture estimation unit estimates a variable for determining the mutual posture based on a distance between a position on a predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. You may make it do.
また、相互姿勢推定部が、投影部が投影する画像の所定の面における位置と、撮像部が撮像する画像の所定の面における位置との距離の評価値を更新する更新部と、その更新部により更新された評価値に基づいて、相互姿勢を決定する変数を推定する変数推定部とを備えるようにしてもよい。 Further, the mutual posture estimation unit updates an evaluation value of a distance between a position on a predetermined plane of the image projected by the projection unit and a position on the predetermined plane of the image captured by the imaging unit, and the updating unit And a variable estimation unit for estimating a variable for determining the mutual posture based on the evaluation value updated by the above.
そして、その更新部が、撮像部が撮像する画像に含まれる処理対象の画素の所定の面における位置と、画素を投影する各投影部が投影する画像の画素の所定の面における位置との距離の2乗平均を前記評価値とするようにしてもよい。 And the update part is the distance between the position on the predetermined plane of the pixel to be processed included in the image captured by the imaging section and the position on the predetermined plane of the pixel of the image projected by each projection section that projects the pixel. May be used as the evaluation value.
さらに、変数推定部が、撮像部の回転行列、撮像部の並進ベクトル、投影部の回転行列、および投影部の並進ベクトルを含むようにしてもよい。 Further, the variable estimation unit may include a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.
また、投影部および撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、仮相互姿勢推定部により推定された仮の相互姿勢を初期値として、相互姿勢を推定するようにしてもよい。 Moreover, you may make it further provide the temporary mutual attitude | position estimation part which estimates the mutual attitude | position of the projection imaging devices which have a projection part and an imaging part as a temporary mutual attitude | position. The mutual posture estimation unit may estimate the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.
なお、その仮相互姿勢推定部が、各投影撮像装置の投影面の位置の誤差が最小となるように仮の相互姿勢を推定するようにしてもよい。 The temporary mutual posture estimation unit may estimate the temporary mutual posture so that the error in the position of the projection plane of each projection imaging apparatus is minimized.
また、各投影撮像装置について、画像が投影される投影面に対する投影部および撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備えるようにしてもよい。そして、仮相互姿勢推定部が、投影面姿勢推定部により推定された投影面に対する投影部および撮像部の相互姿勢を用いて、仮の相互姿勢を推定するようにしてもよい。 Each projection imaging apparatus may further include a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to the projection plane on which the image is projected. Then, the temporary mutual posture estimation unit may estimate the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit.
なお、その投影面姿勢推定部が、三角測量を行うことにより投影面を推定し、推定した投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。 The projection plane orientation estimation unit may estimate the projection plane by performing triangulation, and may estimate the mutual orientations of the projection unit and the imaging unit with respect to the estimated projection plane.
また、投影面姿勢推定部が、投影撮像装置内の投影部と撮像部との画素位置の対応関係と、投影撮像装置間の投影部と撮像部との画素位置の対応関係とに基づいて、投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。また、仮相互姿勢推定部が、投影撮像装置間の投影部と撮像部との画素位置の対応関係に基づいて、仮の相互姿勢を推定するようにしてもよい。 Further, the projection plane orientation estimation unit is based on the correspondence between the pixel positions of the projection unit and the imaging unit in the projection imaging device and the correspondence between the pixel positions of the projection unit and the imaging unit between the projection imaging devices, You may make it estimate the mutual attitude | position of the projection part and imaging part with respect to a projection surface. The temporary mutual posture estimation unit may estimate the temporary mutual posture based on the correspondence relationship between the pixel positions of the projection unit and the imaging unit between the projection imaging devices.
なお、投影面姿勢推定部が、投影部に画素位置対応を求める際に用いるパターンを投影させ、撮像部に撮像させることにより検出される、投影撮像装置内の投影部と撮像部との画素位置の対応関係と、投影撮像装置間の投影部と撮像部との画素位置の対応関係とに基づいて、投影面に対する投影部および撮像部の相互姿勢を推定するようにしてもよい。 Note that the pixel position between the projection unit and the imaging unit in the projection imaging apparatus is detected by causing the projection plane orientation estimation unit to project a pattern used when obtaining the pixel position correspondence to the projection unit and causing the imaging unit to capture an image. And the mutual orientation of the projection unit and the imaging unit with respect to the projection plane may be estimated based on the correspondence relationship between the projection unit and the imaging unit.
また、投影された画像を撮像し撮像画像を得る撮像部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、所定の面における、他の装置の投影部が投影する画像と撮像部が撮像する画像との相対位置関係に基づいて、投影部と撮像部との相互姿勢を推定するようにしてもよい。 Moreover, you may make it further provide the imaging part which images the projected image and acquires a captured image. Then, the mutual posture estimation unit estimates the mutual posture between the projection unit and the imaging unit based on the relative positional relationship between the image projected by the projection unit of another device and the image captured by the imaging unit on a predetermined plane. You may make it do.
また、画像を投影する投影部をさらに備えるようにしてもよい。そして、相互姿勢推定部が、さらに、投影部と撮像部との相互姿勢を推定するようにしてもよい。 Moreover, you may make it further provide the projection part which projects an image. The mutual posture estimation unit may further estimate the mutual posture between the projection unit and the imaging unit.
また、相互姿勢推定部により推定された投影部と撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備えるようにしてもよい。 In addition, an image processing unit that performs image processing for correcting an image to be projected using a variable according to the mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit may be further provided.
<投影撮像システム>
このような本技術を適用した情報処理装置の一実施の形態である制御装置を適用した投影撮像システムの主な構成例を、図1に示す。図1に示される投影撮像システム100は、画像を投影するシステムである。この投影撮像システム100は、例えば、上述したように複数の投影装置(投影撮像装置)を用いて1つの画像を投影することができる。図1に示されるように、投影撮像システム100は、制御装置101、投影撮像装置102−1乃至投影撮像装置102−4、並びに、通信ケーブル103−1乃至通信ケーブル103−4を有する。
<Projection imaging system>
FIG. 1 illustrates a main configuration example of a projection imaging system to which a control device that is an embodiment of an information processing device to which the present technology is applied is applied. A
投影撮像装置102−1は、通信ケーブル103−1により制御装置101と接続されている。投影撮像装置102−2は、通信ケーブル103−2により制御装置101と接続されている。投影撮像装置102−3は、通信ケーブル103−3により制御装置101と接続されている。投影撮像装置102−4は、通信ケーブル103−4により制御装置101と接続されている。
The projection imaging apparatus 102-1 is connected to the
制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4のそれぞれと通信を行い、それらの動作を制御する。例えば、制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4に対して、画像をスクリーン104に投影させたり、スクリーン104に投影された画像(投影画像)を撮像させたりする。
The
例えば、制御装置101は、投影撮像装置102−1乃至投影撮像装置102−4を制御し、それらを協働させて1つの画像をスクリーン104に投影させることもできる。また、制御装置101は、例えば、投影撮像装置102−1乃至投影撮像装置102−4が有する投影部や撮像部の相対的な位置や方向である相互姿勢(例えば回転成分や並進成分等)のキャリブレーションを行うことができる。また、制御装置101は、例えば、そのキャリブレーション結果を用いて、投影撮像装置102−1乃至投影撮像装置102−4のそれぞれが投影する画像に対する補正を行うことができる。
For example, the
投影撮像装置102−1乃至投影撮像装置102−4は、それぞれ、制御装置101に制御され、スクリーン104に画像を投影したり、スクリーン104に投影された投影画像を撮像したりする装置である。投影撮像装置102−1乃至投影撮像装置102−4は、互いに同様の構成を有し、同様の機能を有する。以下において、投影撮像装置102−1乃至投影撮像装置102−4を互いに区別して説明する必要が無い場合、投影撮像装置102と称する。
The projection imaging device 102-1 to the projection imaging device 102-4 are devices that are controlled by the
図1に示されるように、投影撮像装置102−1は、画像を投影する投影部111−1、および、被写体を撮像して撮像画像を得る撮像部112−1を有する。同様に、投影撮像装置102−2は、画像を投影する投影部111−2、および、被写体を撮像して撮像画像を得る撮像部112−2を有する。同様に、投影撮像装置102−3は、画像を投影する投影部111−3、および、被写体を撮像して撮像画像を得る撮像部112−3を有する。同様に、投影撮像装置102−4は、画像を投影する投影部111−4、および、被写体を撮像して撮像画像を得る撮像部112−4を有する。 As shown in FIG. 1, the projection imaging apparatus 102-1 includes a projection unit 111-1 that projects an image, and an imaging unit 112-1 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-2 includes a projection unit 111-2 that projects an image, and an imaging unit 112-2 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-3 includes a projection unit 111-3 that projects an image, and an imaging unit 112-3 that captures a subject and obtains a captured image. Similarly, the projection imaging apparatus 102-4 includes a projection unit 111-4 that projects an image, and an imaging unit 112-4 that captures a subject and obtains a captured image.
投影部111−1乃至111−4は、互いに同様の構成を有し、同様の機能を有する。以下において、投影部111−1乃至111−4を互いに区別して説明する必要が無い場合、投影部111と称する。また、撮像部112−1乃至撮像部112−4は、互いに同様の構成を有し、同様の機能を有する。以下において、撮像部112−1乃至撮像部112−4を互いに区別して説明する必要が無い場合、撮像部112と称する。
The projection units 111-1 to 111-4 have the same configuration and the same function. Hereinafter, the projection units 111-1 to 111-4 are referred to as the
つまり、投影撮像装置102は、投影部111および撮像部112を有する。
That is, the
また、通信ケーブル103−1乃至通信ケーブル103−4は、互いに同様の規格に対応する通信媒体である。以下において、通信ケーブル103−1乃至通信ケーブル103−4を互いに区別して説明する必要が無い場合、通信ケーブル103と称する。 The communication cables 103-1 to 103-4 are communication media corresponding to the same standards. In the following, the communication cables 103-1 to 103-4 are referred to as communication cables 103 when it is not necessary to distinguish between them.
通信ケーブル103は、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)に準拠したケーブルである。もちろん、通信ケーブル103が対応する通信規格は任意であり、例えばディスプレイポート(DisplayPort)等、HDMI(登録商標)以外の規格であってもよい。 The communication cable 103 is, for example, a cable conforming to HDMI (High-Definition Multimedia Interface). Of course, the communication standard supported by the communication cable 103 is arbitrary, and may be a standard other than HDMI (registered trademark) such as a display port (DisplayPort).
スクリーン104は、投影撮像装置102が画像を投影する面(投影面)の一例である。このスクリーン104は、平面であってもよいし、曲面であってもよい。例えばスクリーン104の表面に凹凸が形成されていてもよい。また、スクリーン104の色は任意である。なお、スクリーン104の代わりに所定の立体構造物(例えば建造物、壁、床、天井、家具、小物、生物等)を投影面としてもよい。
The
スクリーン104上の投影画像105−1は、投影部111−1が投影した画像である。同様に、投影画像105−2は、投影部111−2が投影した画像であり、投影画像105−3は、投影部111−3が投影した画像であり、投影画像105−4は、投影部111−4が投影した画像である。以下において、投影画像105−1乃至投影画像105−4を互いに区別して説明する必要が無い場合、投影画像105と称する。
A projected image 105-1 on the
図1に示されるように、例えば、スクリーン104に投影画像105−1乃至投影画像105−4が並び、1つの領域を形成するように、各投影撮像装置102を配置する。そして、制御装置101は、各投影撮像装置102を制御し、入力画像106の投影画像107が、その領域に、各投影画像105に跨るように投影させる。つまり、各投影部111は、それぞれ制御装置101に制御されて、入力画像106の部分画像(自身に割り当てられた画像)を投影し、スクリーン104上において、投影画像107が形成されるようにする。
As shown in FIG. 1, for example, the projection imaging devices 105-1 to 105-4 are arranged on the
このように、制御装置101は、複数の投影撮像装置102を協働させることにより、投影画像の解像度を向上させる(換言するに、解像度(画質)の低減を抑制しながら画像サイズを増大させる)ことができる。なお、入力画像106(投影画像107)は、動画像であってもよいし、静止画像であってもよい。
As described above, the
このような処理を実現するためには、制御装置101が、各投影撮像装置102の相互姿勢(すなわち、各投影部111並びに各撮像部112の相互姿勢)を正確に把握する必要がある。この相互姿勢は外部変数として表すことができるが、この外部変数は、投影撮像装置102等を設置した際にキャリブレーションを行ったとしても、経年変化が生じるおそれがある。この外部変数の経年変化により各投影画像105の表示位置に誤差が生じると、本来1つの画像として表示されるはずの投影画像107にずれや歪等が生じるおそれがある。すなわち、投影画像の画質が低減するおそれがある。
In order to realize such processing, the
そこで、制御装置101は、各撮像部112の撮像画像等を用いて外部変数のキャリブレーションを行う。各投影撮像装置102の撮像部112の撮像画像を用いることにより、制御装置101は、より容易かつ高精度にキャリブレーションを行うことができる。
Therefore, the
<制御装置>
図2は、本技術を適用した情報処理装置の一実施の形態である制御装置101の主な構成例を示す図である。
<Control device>
FIG. 2 is a diagram illustrating a main configuration example of the
図2に示されるように、制御装置101において、CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153は、バス154を介して相互に接続されている。
As shown in FIG. 2, in the
バス154にはまた、入出力インタフェース160も接続されている。入出力インタフェース160には、入力部161、出力部162、記憶部163、通信部164、およびドライブ165が接続されている。
An input /
入力部161は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部161には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部161に含まれるようにしてもよい。
The
出力部162は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部162には、ディスプレイ、スピーカ、出力端子等が含まれる。
The
記憶部163は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部164は、例えば、ネットワークインタフェースよりなる。例えば、通信部164は、通信ケーブル103に接続され、通信ケーブル103を介して接続される他の装置と通信を行う。ドライブ165は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア171を駆動する。
The
CPU151は、例えば、記憶部163に記憶されているプログラムを、入出力インタフェース160およびバス154を介して、RAM153にロードして実行することにより、各種処理を行う。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。
For example, the
CPU151が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア171に記録して制御装置101に提供することができる。その場合、プログラムは、リムーバブルメディア171をドライブ165に装着することにより、入出力インタフェース160を介して、記憶部163にインストールすることができる。
The program executed by the
また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して制御装置101に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部164で受信し、記憶部163にインストールすることができる。
This program can also be provided to the
その他、このプログラムは、ROM152や記憶部163に、あらかじめインストールしておくこともできる。
In addition, this program can be installed in the
<機能ブロック>
制御装置101のCPU151は、プログラムを実行することにより、各種機能を実現する。図3は、CPU151が実現する主な機能の例を示す機能ブロック図である。
<Functional block>
The
図3に示されるように、CPU151は、キャリブレーション処理部201、画像処理部202、投影制御部203、撮像制御部204等の機能ブロックを有する。
As illustrated in FIG. 3, the
キャリブレーション処理部201は、投影撮像装置102の外部変数のキャリブレーションに関する処理を行う。投影画像105の補正に影響を及ぼす変数としては、例えば、投影部111や撮像部112の内部変数や歪パラメータ、投影撮像装置102内における投影部111と撮像部112との相互姿勢を表す外部変数(投影撮像装置102内の外部変数とも称する)、並びに、投影撮像装置102間における投影部111と撮像部112との相互姿勢を表す外部変数(投影撮像装置102間の外部変数とも称する)等がある。
The
画像処理部202は、キャリブレーション処理部201によりキャリブレーションされた外部変数等を用いて、投影画像の補正に関する処理を行う。投影制御部203は、投影撮像装置102の投影部111の制御に関する処理を行う。撮像制御部204は、投影撮像装置102の撮像部112の制御に関する処理を行う。
The
キャリブレーション処理部201は、画素位置対応検出部211、投影面姿勢推定部212、仮相互姿勢推定部213、および相互姿勢再推定部214を有する。
The
画素位置対応検出部211は、各投影部111と各撮像部112との間の画素位置の対応関係の検出に関する処理を行う。投影面姿勢推定部212は、投影面に対する各投影部111や各撮像部112の相互姿勢の推定に関する処理を行う。仮相互姿勢推定部213は、投影撮像装置102同士の仮の相互姿勢の推定に関する処理を行う。相互姿勢再推定部214は、投影部111と撮像部112との間の相互姿勢の推定に関する処理を行う。
The pixel position
<投影撮像装置の外観>
図4に投影撮像装置102の外観の例を示す。投影撮像装置102は、上述したように投影部111と撮像部112を有しており、その筐体には、画像を投影するための投射口(レンズ機構)や、被写体を撮像するためのカメラ(レンズ機構)等の光学デバイスが設けられている。また、投影撮像装置102は、どのような大きさの装置であってもよいが、例えば、携帯型(小型)の装置としてもよい。その場合、図4に示されるように、投影撮像装置102の筐体にバッテリを設けるようにしてもよい。バッテリを設けることにより、外部電源なしに投影撮像装置102を駆動させることができるので、その設置位置の自由度を向上させることができる。
<Appearance of projection imaging device>
FIG. 4 shows an example of the external appearance of the
<投影撮像装置>
図5は、投影撮像装置102の主な構成例を示すブロック図である。
<Projection imaging device>
FIG. 5 is a block diagram illustrating a main configuration example of the
図5に示されるように、投影撮像装置102は、制御部301、投影部111、撮像部112、入力部311、出力部312、記憶部313、通信部314、およびドライブ315を有する。
As illustrated in FIG. 5, the
制御部301は、例えば、CPU、ROM、RAM等よりなり、装置内の各処理部を制御したり、例えば画像処理等、その制御に必要な各種処理を実行したりする。
The
投影部111は、制御部301に制御されて、画像の投影に関する処理を行う。例えば、投影部111は、制御部301から供給される画像を投影撮像装置102の外部(例えばスクリーン104等)に投影する。つまり、投影部111は、投影機能を実現する。投影部111は、レーザ光を光源とし、MEMSミラーを用いてそのレーザ光を走査することにより、画像を投影する。もちろん、投影部111の光源は任意であり、レーザ光に限らず、LEDやキセノン等であってもよい。投影部111の詳細については後述する。
The
撮像部112は、制御部301に制御されて、装置外部の被写体を撮像し、撮像画像を生成し、その撮像画像を制御部301に供給する。つまり、撮像部112は、撮像機能を実現する。例えば、撮像部112は、投影部111がスクリーン104に投影した投影画像を撮像する。
The
入力部311は、ユーザ入力等の外部の情報を受け付ける入力デバイスよりなる。例えば、入力部311には、操作ボタン、タッチパネル、カメラ、マイクロホン、入力端子等が含まれる。また、加速度センサ、光センサ、温度センサ等の各種センサが入力部311に含まれるようにしてもよい。
The
出力部312は、画像や音声等の情報を出力する出力デバイスよりなる。例えば、出力部312には、ディスプレイ、スピーカ、出力端子等が含まれる。
The
記憶部313は、例えば、ハードディスク、RAMディスク、不揮発性メモリなどよりなる。通信部314は、例えば、ネットワークインタフェースよりなる。例えば、通信部314は、通信ケーブル103に接続され、通信ケーブル103を介して接続される他の装置と通信を行う。ドライブ315は、例えば磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア321を駆動する。
The
制御部301は、例えば、記憶部313に記憶されているプログラムを、自身に内蔵されるRAMにロードして実行することにより、各種処理を行う。そのRAMにはまた、制御部301が各種の処理を実行する上において必要なデータなども適宜記憶される。
For example, the
制御部301が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア321に記録して投影撮像装置102に提供することができる。その場合、プログラムは、リムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。
The program executed by the
また、このプログラムは、LAN、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して投影撮像装置102に提供することもできる。その場合、プログラムは、有線または無線の伝送媒体を介して、通信部314で受信し、記憶部313にインストールすることができる。
This program can also be provided to the
その他、このプログラムは、制御部301に内蔵されるROMや記憶部313に、あらかじめインストールしておくこともできる。
In addition, this program can be installed in advance in the ROM or the
<投影部>
図6は、投影部111の主な構成例を示すブロック図である。図6に示されるように、投影部111は、ビデオプロセッサ351、レーザドライバ352、レーザ出力部353−1、レーザ出力部353−2、レーザ出力部353−3、ミラー354−1、ミラー354−2、ミラー354−3、MEMS(Micro Electro Mechanical Systems)ドライバ355、および、MEMSミラー356を有する。
<Projection part>
FIG. 6 is a block diagram illustrating a main configuration example of the
ビデオプロセッサ351は、制御部301から供給される画像を保持したり、その画像に対して必要な画像処理を行ったりする。ビデオプロセッサ351は、その投影する画像をレーザドライバ352やMEMSドライバ355に供給する。
The
レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、レーザ出力部353−1乃至レーザ出力部353−3を制御する。レーザ出力部353−1乃至レーザ出力部353−3は、例えば、赤、青、緑等、互いに異なる色(波長域)のレーザ光を出力する。つまり、レーザドライバ352は、ビデオプロセッサ351から供給される画像を投影するように、各色のレーザ出力を制御する。なお、レーザ出力部353−1乃至レーザ出力部353−3を互いに区別して説明する必要が無い場合、レーザ出力部353と称する。
The
ミラー354−1は、レーザ出力部353−1から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−2は、レーザ出力部353−2から出力されるレーザ光を反射し、MEMSミラー356に誘導する。ミラー354−3は、レーザ出力部353−3から出力されるレーザ光を反射し、MEMSミラー356に誘導する。なお、ミラー354−1乃至ミラー354−3を互いに区別して説明する必要が無い場合、ミラー354と称する。
The mirror 354-1 reflects the laser beam output from the laser output unit 353-1 and guides it to the
MEMSドライバ355は、ビデオプロセッサ351から供給される画像を投影するように、MEMSミラー356のミラーの駆動を制御する。MEMSミラー356は、MEMSドライバ355の制御に従ってMEMS上に取り付けられたミラー(鏡)を駆動することにより、例えば、図7の例のように各色のレーザ光を走査する。このレーザ光は、投射口から装置外部に出力され、例えばスクリーン104に照射される。これにより、ビデオプロセッサ351から供給される画像がスクリーン104に投影される。
The
なお、図6の例においては、レーザ出力部353を3つ設け、3色のレーザ光を出力するように説明したが、レーザ光の数(または色数)は任意である。例えば、レーザ出力部353を4つ以上であってもよいし、2つ以下であってもよい。つまり、投影撮像装置102(投影部111)から出力されるレーザ光は、2本以下であってもよいし、4本いじょうであってもよい。そして、投影撮像装置102(投影部111)から出力されるレーザ光の色数も任意であり、2色以下であってもよいし、4色以上であってもよい。また、ミラー354やMEMSミラー356の構成も任意であり、図6の例に限定されない。もちろん、レーザ光の走査パターンは任意である。
In the example of FIG. 6, three laser output units 353 are provided to output laser beams of three colors, but the number of laser beams (or the number of colors) is arbitrary. For example, the number of laser output units 353 may be four or more, or two or less. That is, the number of laser beams output from the projection imaging apparatus 102 (projection unit 111) may be two or less, or four. The number of colors of the laser light output from the projection imaging apparatus 102 (projection unit 111) is also arbitrary, and may be two colors or less, or four colors or more. The configurations of the mirror 354 and the
<キャリブレーション処理の流れ>
次に、制御装置101において実行される各種処理の流れについて説明する。
<Calibration process flow>
Next, the flow of various processes executed in the
投影撮像装置102の外部変数のキャリブレーションを行うために、制御装置101のキャリブレーション処理部201は、キャリブレーション処理を実行する。この処理は、任意のタイミングにおいて実行することができる。
In order to calibrate an external variable of the
図8のフローチャートを参照して、キャリブレーション処理の流れの例を説明する。キャリブレーション処理が開始されると、画素位置対応検出部211は、ステップS101において、画素位置対応検出処理を行う。その処理が終了すると、投影面姿勢推定部212は、ステップS102において、投影面姿勢推定処理を行う。その処理が終了すると、仮相互姿勢推定部213は、ステップS103において、仮相互姿勢推定処理を行う。その処理が終了すると、相互姿勢再推定部214は、ステップS104において、相互姿勢再推定処理を行う。その処理が終了すると、キャリブレーション処理が終了する。
An example of the flow of calibration processing will be described with reference to the flowchart of FIG. When the calibration process is started, the pixel position
<画素位置対応検出処理の流れ>
次に、図8のステップS101において実行される画素位置対応検出処理の流れについて、図9のフローチャートを参照して説明する。必要に応じて、図10乃至図13を参照して説明する。
<Flow of pixel position detection processing>
Next, the flow of the pixel position correspondence detection process executed in step S101 of FIG. 8 will be described with reference to the flowchart of FIG. This will be described with reference to FIGS. 10 to 13 as necessary.
画素位置対応検出処理が開始されると、画素位置対応検出部211は、ステップS121において、未処理の投影部111の中から処理対象とする投影部111を選択する。
When the pixel position correspondence detection process is started, the pixel position
図10に示されるように、投影撮像システム100の各投影撮像装置102や制御装置101を、スクリーン104に画像を投影することができるように配置する。その際、各投影撮像装置102から投影された投影画像105の少なくとも一部が図10の例のように互いに重なる(オーバーラップする)ようにする。この状態において、各投影撮像装置102の撮像部112は、他の投影撮像装置102から投影された投影画像105の少なくとも一部を撮像することができる。投影面が曲面の場合、そのための補正が必要になり、キャリブレーションの難易度が高くなるので、スクリーン104は平面であることが望ましい。このように各装置を配置した状態において、処理対象とする投影部111が選択される。
As shown in FIG. 10, the
ステップS122において、画素位置対応検出部211は、選択された投影部にグレイコードの画像を投影させる。そして、ステップS123において、画素位置対応検出部211は、全ての撮像部112に、投影されたグレイコードの画像を撮像させる。
In step S122, the pixel position
グレイコードの画像の例を図11に示す。例えば、図11Aに示されるような所定のパターン画像をプロジェクタから時系列に切り替えながら投影して、各パターンをカメラで撮像する。そして、全てのパターンの撮像が完了したらカメラの各画素において、各撮像パターンの1(白)または0(黒)を検出して、図11Bに示されるように、その1,0パターンをデコードすることでプロジェクタ画素の位置を取得する。これにより画素の対応関係を取得することができる。 An example of a gray code image is shown in FIG. For example, a predetermined pattern image as shown in FIG. 11A is projected while switching in time series from the projector, and each pattern is captured by the camera. When imaging of all patterns is completed, 1 (white) or 0 (black) of each imaging pattern is detected in each pixel of the camera, and 1,0 patterns are decoded as shown in FIG. 11B. As a result, the position of the projector pixel is acquired. Thereby, the correspondence of pixels can be acquired.
ステップS124において、画素位置対応検出部211は、全ての投影部111にグレイコードの画像を投影させたか否かを判定する。未処理の投影部111が存在すると判定された場合、処理はステップS121に戻り、それ以降の処理を繰り返す。各投影部111に対して、ステップS121乃至ステップS124の処理が実行され、ステップS124において全ての投影部111にグレイコードの画像を投影させた(すなわち、未処理の投影部111が存在しない)と判定された場合、処理は、ステップS125に進む。
In step S <b> 124, the pixel position
ステップS125において、画素位置対応検出部211は、各対応点について、各投影撮像装置102内における、投影部111の画素位置と撮像部112の画素位置との対応関係を検出する。つまり、互いに同じ投影撮像装置102の構成である投影部111と撮像部112との間で、画素位置の対応関係が検出される。
In step S125, the pixel position
対応点とは、グレイコードの画像の、画素位置の対応関係の検出に用いる注目画素である。つまり、グレイコードの画像の所定の注目画素を投影する投影部111の画素と、その注目画素を撮像する撮像部112の画素とが特定され、それらが紐付けされる(対応関係が検出される)。この対応点(注目画素)は、グレイコードの画像の全画素としてもよいし、グレイコードの画像の一部の画素(代表画素)としてもよい。その場合、代表画素とする画素の位置は任意である。
The corresponding point is a pixel of interest used for detecting a correspondence relationship between pixel positions of a gray code image. That is, the pixel of the
ステップS125においては、図12に示されるように、グレイコード401の所定の対応点402に注目し、投影部111の、その対応点402を投影する画素403と、撮像部112の、その対応点402を撮像する画素404とが特定され、それらが紐付けされる(画素位置の対応関係が検出される)。上述したように、グレイコードの画像の全画素について同様の画素位置対応関係を検出するようにしてもよいし、代表画素についてのみ、画素位置対応関係を検出するようにしてもよい。
In step S125, as shown in FIG. 12, paying attention to a predetermined
ステップS126において、画素位置対応検出部211は、各対応点について、各投影撮像装置102間における、投影部111の画素位置と撮像部112の画素位置との対応関係を検出する。つまり、互いに異なる投影撮像装置102の構成である投影部111と撮像部112との間で、画素位置の対応関係が検出される。
In step S <b> 126, the pixel position
この投影撮像装置102間における画素位置対応関係の検出も、ステップS125の処理の場合と同様に行われる。すなわち、図13に示されるように、グレイコード411の所定の対応点412に注目し、例えば投影撮像装置102−2の投影部111−2の、その対応点412を投影する画素と、投影撮像装置102−1の撮像部112−1の、その対応点412を撮像する画素とが特定され、それらが紐付けされる(画素位置の対応関係が検出される)。もちろん、この場合も、グレイコードの画像の全画素について同様の画素位置対応関係を検出するようにしてもよいし、代表画素についてのみ、画素位置対応関係を検出するようにしてもよい。
The detection of the pixel position correspondence between the
ステップS126の処理が終了すると、画素位置対応検出処理が終了し、処理は図8に戻る。以上のように画素位置対応検出処理を行うことにより、各投影部111と各撮像部112との間で、画素位置の対応関係を検出することができる。
When the process of step S126 ends, the pixel position correspondence detection process ends, and the process returns to FIG. By performing the pixel position correspondence detection process as described above, the correspondence relationship between the pixel positions can be detected between each
なお、投影部111と、その投影部111が投影した画像を撮像することができない位置にある撮像部112との間では、画素位置の対応関係は実質的に検出することができないので、上述した画素位置の対応関係の検出処理を省略するようにしてもよい。
Note that the correspondence between pixel positions cannot be substantially detected between the
また、以上においては、画素位置の対応関係を検出するためにグレイコードを用いるように説明したが、このグレイコードに限らず、画素位置の対応関係が特定が可能な画像であればどのようなパターンの画像を用いるようにしてもよい。例えば、非特許文献1に記載のチェッカーとチェッカーの4隅のうちどれかが欠けたパターンの画像を用いるようにしてもよいし、それ以外のパターンの画像を用いるようにしてもよい。
In the above description, the gray code is used to detect the correspondence between the pixel positions. However, the present invention is not limited to this gray code, and any image can be used as long as the correspondence between the pixel positions can be specified. A pattern image may be used. For example, an image of a pattern in which one of the checker and the four corners of the checker described in
<投影面姿勢推定処理の流れ>
次に、図8のステップS102において実行される投影面姿勢推定処理の流れについて、図14のフローチャートを参照して説明する。必要に応じて、図15を参照して説明する。
<Flow of projection plane orientation estimation process>
Next, the flow of the projection plane attitude estimation process executed in step S102 of FIG. 8 will be described with reference to the flowchart of FIG. Description will be made with reference to FIG. 15 as necessary.
投影面姿勢推定処理が開始されると、投影面姿勢推定部212は、ステップS141において、未処理の投影撮像装置102の中から処理対象とする投影撮像装置102を選択する。
When the projection plane attitude estimation process is started, the projection plane
ステップS142において、投影面姿勢推定部212は、画素位置対応関係検出処理(図9)により検出された、処理対象の投影撮像装置102内における投影部111と撮像部112との間の画素位置の対応関係と、キャリブレーション済みの内部変数や外部変数を用いて三角測量を行い、各対応点の3次元座標位置を求める。その際、事前にキャリブレーション済みの内部変数や外部変数を用いて三角測量を行う。この外部変数は、経年変化により、誤差を含む(実際とは異なっている)可能性がある値である。
In step S142, the projection plane
例えば、図15に示されるように、画素位置対応点検出処理の処理結果に基づいて、ある対応点の、投影部111が投影する画素421と、撮像部112が撮像する画素422とを求める。そして、それらの画素位置と、投影部111と撮像部112の内部変数やそれらの相互姿勢を示す外部変数423等とを用いて、三角測量を行い、その対応点が投影される三次元点座標424を求める。この三次元点座標424は、投影部111(画素421)の投影方向と、撮像部112(画素422)の撮像方向とが交差する位置(つまり、画素421が投影した位置と、画素422が撮像した位置とが一致する(位置ずれが生じない)座標である。このような処理を複数の対応点について行い、三次元点座標群425を求める。
For example, as illustrated in FIG. 15, a
ステップS143において、投影面姿勢推定部212は、ステップS142の処理により得られた、各対応点の3次元座標位置に基づいて、平面スクリーンモデルを求める。
In step S143, the projection plane
図15の例の場合、投影面姿勢推定部212は、ステップS142の処理により求められた三次元点座標群425に最もよくあてはまる平面を求め、それを平面スクリーンモデル431とする。この平面スクリーンモデルの推定方法は任意であるが、例えば、RANSAC(RANDdom Sample Consensus)等の方法を用いて、外れ値に対してロバストに平面スクリーンモデルを推定するようにしてもよい。
In the case of the example of FIG. 15, the projection plane
ステップS144において、投影面姿勢推定部212は、ステップS143の処理により得られた平面スクリーンモデルに対する投影部111および撮像部112の姿勢を推定する。
In step S144, the projection plane
図15の例の場合、投影部111の姿勢と撮像部112の姿勢とが、それぞれ、平面スクリーンモデル431の3次元座標(矢印432および矢印433)により表される。
In the case of the example in FIG. 15, the posture of the
ステップS145において、投影面姿勢推定部212は、全ての投影撮像装置102を処理したか否かを判定する。未処理の投影撮像装置102が存在すると判定された場合、処理はステップS141に戻り、それ以降の処理を繰り返す。各投影撮像装置102に対して、ステップS141乃至ステップS145の各処理が実行され、ステップS145において、全ての投影撮像装置102を処理した(未処理の投影撮像装置102が存在しない)と判定された場合、投影面姿勢推定処理が終了し、処理は図8に戻る。
In step S145, the projection plane
以上のように投影面姿勢推定処理を実行することにより、投影面に対する投影部111の姿勢と撮像部112の姿勢とを推定することができる。
By executing the projection plane attitude estimation process as described above, the attitude of the
<仮相互姿勢推定処理の流れ>
次に、図8のステップS103において実行される仮相互姿勢推定処理の流れについて、図16のフローチャートを参照して説明する。必要に応じて、図17および図18を参照して説明する。
<Flow of temporary mutual posture estimation processing>
Next, the flow of the temporary mutual posture estimation process executed in step S103 of FIG. 8 will be described with reference to the flowchart of FIG. This will be described with reference to FIGS. 17 and 18 as necessary.
仮相互姿勢推定処理が開始されると、仮相互姿勢推定部213は、ステップS161において、未処理の投影撮像装置対の中から処理対象とする投影撮像装置対を選択する。投影撮像装置対とは、投影撮像システム100が有する投影撮像装置102群の中から選択された任意の2台の投影撮像装置102である。つまり、仮相互姿勢推定部213は、投影撮像装置102を2台ずつ処理対象とする。なお、お互いの投影画像がオーバーラップしない(投影画像に重なる部分がない)組み合わせは、省略するようにしてもよい。
When the temporary mutual posture estimation process is started, the temporary mutual
ステップS162において、仮相互姿勢推定部213は、処理対象の投影撮像装置対について、互いの平面スクリーンの3次元座標の誤差2乗和が最小となる相対姿勢を推定する。
In step S162, the provisional mutual
例えば、図17に示される例の場合、仮相互姿勢推定部213は、両矢印451に示されるように、投影撮像装置102−1の撮像部112−1の画素位置453に対応する平面スクリーンモデル431−1上の三次元点座標424−1と、その画素位置453に対応する投影撮像装置102−2の投影部111−2の画素位置452に対応する平面スクリーンモデル431−2上の三次元点座標424−2とが平面スクリーン上での位置の誤差の二乗和が最小になるという条件を解く。このような処理が、図17の三次元座標群425−1および三次元座標群425−2の各三次元点座標424について行われる。このとき、平面スクリーンを前提としているので求める外部変数は、ロール(Roll)回転成分とX, Y並進成分のみである(平面スクリーンを共有している前提なので,ピッチ(Pitch)やヨー(Yaw)回転成分,Z並進成分は変化しない)。
For example, in the case of the example shown in FIG. 17, the provisional mutual
これにより、図18に示されるように、平面スクリーンモデル431−1と平面スクリーンモデル431−2の互いの位置をできるだけ近似させたときの、投影部111−1の三次元座標471、撮像部112−1の三次元座標472、投影部111−2の三次元座標473、および撮像部112−2の三次元座標474(すなわち、選択した2台の投影撮像装置102の投影部111および撮像部112のそれぞれの三次元座標)が求まる。これにより、選択した2台の投影撮像装置102(図17や図18の例の場合、投影撮像装置102−1および投影撮像装置102−2)の間の外部変数が求まる。
Accordingly, as illustrated in FIG. 18, the three-
ステップS163において、仮相互姿勢推定部213は、全ての投影撮像装置対を処理したか否かを判定する。未処理の投影撮像装置対が存在すると判定された場合、処理はステップS161に戻り、それ以降の処理が繰り返される。つまり、投影撮像システム100が有する投影撮像装置102群の中の全ての2台の組み合わせについて、ステップS162の処理が行われる。そして、ステップS163において、全ての投影撮像装置対に対して処理を行った(未処理の投影撮像装置対が存在しない)と判定された場合、仮相互姿勢推定処理が終了し、処理は図8に戻る。
In step S163, the temporary mutual
<相互姿勢再推定処理の流れ>
次に、図8のステップS104において実行される相互姿勢再推定処理の流れについて、図19のフローチャートを参照して説明する。必要に応じて、図20を参照して説明する。
<Flow of mutual posture re-estimation process>
Next, the flow of the mutual attitude re-estimation process executed in step S104 of FIG. 8 will be described with reference to the flowchart of FIG. Description will be made with reference to FIG. 20 as necessary.
相互姿勢再推定処理では、例えば、図20に示されるように、所定の平面スクリーンモデル481における各対応点の誤差(誤差二乗和)を最小とするように外部変数が求められる。
In the mutual posture re-estimation process, for example, as shown in FIG. 20, the external variable is obtained so as to minimize the error (sum of squared errors) of each corresponding point in a predetermined
例えば、対応点491について、撮像部112−1からみた対応点491の平面スクリーンモデル481上における位置491−2、投影部111−1からみた対応点491の平面スクリーンモデル481上における位置491−1、投影部111−2からみた対応点491の平面スクリーンモデル481上における位置491−3がそれぞれ求められ、位置491−2と位置491−1との距離、位置491−2と位置491−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−1、撮像部112−1、および投影部111−2の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。
For example, for the corresponding point 491, the position 491-2 of the corresponding point 491 on the
同様に、対応点492について、撮像部112−2からみた対応点492の平面スクリーンモデル481上における位置492−2、投影部111−1からみた対応点492の平面スクリーンモデル481上における位置492−1、投影部111−2からみた対応点492の平面スクリーンモデル481上における位置492−3、投影部111−3からみた対応点492の平面スクリーンモデル481上における位置492−4がそれぞれ求められ、位置492−2と位置492−1との距離、位置492−2と位置492−3との距離、位置492−2と位置492−4との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−1、投影部111−2、撮像部112−2、および投影部111−3の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。
Similarly, for the corresponding point 492, the position 492-2 of the corresponding point 492 viewed from the imaging unit 112-2 on the
同様に、対応点493について、撮像部112−3からみた対応点493の平面スクリーンモデル481上における位置493−2、投影部111−2からみた対応点493の平面スクリーンモデル481上における位置493−1、投影部111−3からみた対応点493の平面スクリーンモデル481上における位置493−3がそれぞれ求められ、位置493−2と位置493−1との距離、位置493−2と位置493−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−2、撮像部112−3、および投影部111−3の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。
Similarly, for the corresponding point 493, the position 493-2 of the corresponding point 493 on the
同様に、対応点494について、撮像部112−4からみた対応点494の平面スクリーンモデル481上における位置494−2、投影部111−3からみた対応点494の平面スクリーンモデル481上における位置494−1、投影部111−4からみた対応点494の平面スクリーンモデル481上における位置494−3がそれぞれ求められ、位置494−2と位置494−1との距離、位置494−2と位置494−3との距離がそれぞれ求められる。そしてそれらの距離が最小となるように、投影部111−3、撮像部112−4、および投影部111−4の、平面スクリーンモデル481の三次元座標上の位置がそれぞれ推定される。
Similarly, for the corresponding point 494, the position 494-2 of the corresponding point 494 viewed from the imaging unit 112-4 on the
以上のように各対応点について誤差が求められ、それらの最小二乗和が算出され、その値が最小となるように、各投影部111および各撮像部112の、所定の平面スクリーンモデル481の三次元座標上の位置(図20の例の場合、矢印501−1乃至矢印501−8)がそれぞれ推定される。
As described above, an error is obtained for each corresponding point, the sum of the least squares thereof is calculated, and the cubic of the predetermined
そして、その位置(姿勢)から、投影部111と撮像部112との相互姿勢をより高精度に示す外部変数(図20の例の場合、両矢印502−1乃至両矢印502−4)が推定される。
Then, from the position (posture), an external variable (double arrow 502-1 to double arrow 502-4 in the example of FIG. 20) indicating the mutual posture of the
図19に戻り、相互姿勢再推定処理が開始されると、相互姿勢再推定部214は、ステップS181において、図8のステップS103の処理により得られた各投影撮像装置102の姿勢を初期値として、評価値を算出する。
Returning to FIG. 19, when the mutual posture re-estimation process is started, the mutual posture
評価値(誤差評価値E)は、例えば、以下のような式(1)を用いて算出される。 The evaluation value (error evaluation value E) is calculated using, for example, the following equation (1).
ここで、
M:撮像部台数/投影部台数
N:撮像部画像画素数
Xcn:撮像部cの画素nのスクリーン上投影座標(Xcn,Ycn)
ACc,DCc,RCc,TCcの関数
Xcnp:撮像部cの画素nに対応する投影部pの画素のスクリーン上投影座標(Xcnp,Ycnp)
ACc,DCc,RCc,TCc,APp,DPp,RPp,TPpの関数
Icnp:見えのフラグ0/1(撮像部cの画素nに対応する投影部pの画素が存在する場合は1)
とする。
here,
M: Number of imaging units / number of projection units
N: Number of pixels in the imaging unit
X cn : projected coordinates (X cn , Y cn ) of the pixel n of the imaging unit c
A Cc , D Cc , R Cc , T Cc functions
X cnp : On-screen projection coordinates (X cnp , Y cnp ) of the pixel of the projection unit p corresponding to the pixel n of the imaging unit c
A Cc , D Cc , R Cc , T Cc , A Pp , D Pp , R Pp , T Pp functions
I cnp : Appearance
And
なお、ACc,DCc,RCc,TCc,APp,DPp,RPp,TPpの各変数は以下のとおりである。
ACc:撮像部cの内部変数(このキャリブレーション時は固定値とする)
DCc:撮像部cの歪みパラメータ(このキャリブレーション時は固定値とする)
RCc:撮像部cの回転行列(外部変数)
TCc:撮像部cの並進ベクトル(外部変数)
APp:投影部pの内部変数(このキャリブレーション時は固定値とする)
DPp:投影部pの歪みパラメータ(このキャリブレーション時は固定値とする)
RPp:投影部pの回転行列(外部変数)
TPp:投影部pの並進ベクトル(外部変数)
The variables A Cc , D Cc , R Cc , T Cc , A Pp , D Pp , R Pp and T Pp are as follows.
A Cc : Internal variable of imaging unit c (fixed value during this calibration)
D Cc : Distortion parameter of imaging unit c (fixed value at the time of calibration)
R Cc : rotation matrix of the imaging unit c (external variable)
T Cc : Translation vector of the imaging unit c (external variable)
A Pp : Internal variable of projection part p (fixed value at the time of this calibration)
D Pp : distortion parameter of the projection part p (fixed value at the time of this calibration)
R Pp : rotation matrix of projection part p (external variable)
T Pp : Translation vector of projection part p (external variable)
今回のキャリブレーションでは、式(1)の誤差評価値Eを最小化するRおよびTを求める(バンドル調整(Bundle Adjustment)の考え方)。ただし,基準とする投影部111あるいは撮像部112のZ座標値とロール(Roll)成分は固定とする。これは、対象とするパラメータのヤコビ行列(Jacobian)を計算する際にその値を0に強制的にすることで実現することができる。
In this calibration, R and T that minimize the error evaluation value E in Equation (1) are obtained (the idea of bundle adjustment). However, the Z coordinate value and the roll component of the
ステップS182において、相互姿勢再推定部214は、更新値Δαを算出し、仮更新値α’を算出する。
In step S182, the mutual attitude
相互姿勢再推定部214は、上述した誤差評価値E、ヤコビ行列(Jacobian)、およびヘッセ行列(Hessian)を用いて、仮更新値α’を算出する。
The mutual attitude
ヤコビ行列(Jacobian)は、回転成分3成分と並進成分3成分のそれぞれを微小量振って、近似的に撮像部1画素毎の誤差ecnの変化量から求める。回転成分のヤコビ行列(Jacobian)は、無限小回転のパラメータω=(ω1 ω2 ω3)TをそれぞれΔωの微小量動かしたときの回転行列をR(ω)とし、現在の回転行列をRと定義したときに以下の式(2)で表される。 The Jacobian matrix (Jacobian) is obtained approximately from the amount of change in the error e cn for each pixel of the image pickup unit by shifting each of the three rotational component components and the three translation component components by a minute amount. The Jacobian matrix of the rotation component is the rotation matrix when the parameter of infinitesimal rotation ω = (ω 1 ω 2 ω 3 ) T is moved by a small amount of Δω, and R (ω), and the current rotation matrix is When defined as R, it is represented by the following formula (2).
また、並進成分のヤコビ行列(Jacobian)は並進パラメータT=(Tx Ty Tz)TのそれぞれをΔTの微小量動かしたときに以下の式(3)で表される。 The translational component Jacobian matrix (Jacobian) is expressed by the following equation (3) when each of the translation parameters T = (T x T y T z ) T is moved by a minute amount of ΔT.
・・・(3) ... (3)
そして、ヤコビ行列(Jacobian)と誤差ecnとから近似的にヘッセ行列(Hessian)を求める。上述した式(2)および式(3)のヤコビ行列(Jacobian)をそれぞれ∂ecn/∂αi ,(i=0,…,5)とする場合、ヘッセ行列(Hessian)は以下の式(4)で表される。 Then, a Hessian matrix (Hessian) is obtained approximately from the Jacobian matrix (Jacobian) and the error e cn . When the Jacobian matrix (Jacobian) in the above equations (2) and (3) is ∂e cn / ∂α i , (i = 0, ..., 5), the Hessian matrix (Hessian) is expressed by the following equation ( 4).
・・・(4) ... (4)
さらに対角要素に重み付けをしたH’は、以下の式(5)のように表すことができる。 Furthermore, H ′ obtained by weighting the diagonal elements can be expressed as the following equation (5).
・・・(5) ... (5)
なお、ここでwは、探索位置のステップ幅に関わる重みパラメータで、重みが大きいほど探索空間を一次近似した場合の更新ステップに近くなり、重みが小さいほど探索空間を二次近似した場合の更新ステップに近くなる。 Here, w is a weight parameter related to the step width of the search position. The larger the weight, the closer to the update step when the search space is first-order approximated, and the smaller the weight, the update when the search space is second-order approximated Get closer to the step.
この式(5)を考えて更新値αを求める。その場合、更新値αは、以下の式(6)のように表される。 Considering this equation (5), the update value α is obtained. In this case, the update value α is expressed as in the following formula (6).
・・・(6) ... (6)
ステップS183において、相互姿勢再推定部214は、評価値の変化に応じて、評価値、更新値、重みを更新する。例えば、ΔEが負ならαとEを更新してwを1/10倍する。ΔEが負でないならwを10倍する(一般的なLevenberg-Marqurdt法と同様)。
In step S183, the mutual attitude
ステップS184において、相互姿勢再推定部214は、ステップS182およびステップS183の各処理を、所定回数繰り返したか否かを判定する。所定回数に達していないと判定された場合、処理はステップS182に戻り、それ以降の処理を繰り返す。
In step S184, the mutual attitude
ステップS184において、ステップS182およびステップS183の各処理が所定回数繰り返されたと判定された場合、処理はステップS185に進む。 If it is determined in step S184 that the processes in steps S182 and S183 have been repeated a predetermined number of times, the process proceeds to step S185.
ステップS185において、相互姿勢再推定部214は、全ての投影部111および撮像部112について、相互姿勢を検出し、外部変数(投影撮像装置102内の外部変数、および投影撮像装置102間の外部変数)を求める。
In step S185, the mutual posture
ステップS185の処理が終了すると、相互姿勢再推定処理が終了し、処理は図8に戻る。 When the process of step S185 ends, the mutual attitude re-estimation process ends, and the process returns to FIG.
以上のように各処理を実行することにより、制御装置101は、より容易かつ高精度に投影部111と撮像部112との位置関係のキャリブレーションを行うことができる。そして、このようにキャリブレーションを行った投影撮像装置102を利用することで、投影撮像システム100は、平面スクリーンだけでなく、曲面や任意形状面の物体に対しても精度良く幾何補正を行うことができるようになる。
By executing each process as described above, the
<投影撮像システムの構成例>
以上においては、投影撮像システム100において、制御装置101と各投影撮像装置102とが通信ケーブル103を介して接続されるように説明したが、制御装置101と各投影撮像装置102との接続方法は通信可能である限り任意である。例えば、図21に示される例のように、ネットワーク601を介して接続されるようにしてもよい。
<Configuration example of projection imaging system>
In the above description, in the
ネットワーク601は、制御装置101および投影撮像装置102との間の通信媒体となる通信網である。ネットワーク601は、どのような通信網であってもよく、有線通信網であってもよいし、無線通信網であってもよいし、それらの両方であってもよい。例えば、有線LAN、無線LAN、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、またはインターネット等であってもよいし、それらの組み合わせであってもよい。また、ネットワーク601は、単数の通信網であってもよいし、複数の通信網であってもよい。また、例えば、ネットワーク601は、その一部が、例えばUSB(Universal Serial Bus)ケーブルやHDMI(登録商標)ケーブル等のような、所定の規格の通信ケーブルにより構成されるようにしてもよい。
A network 601 is a communication network serving as a communication medium between the
また、上述したキャリブレーションに関する処理は、制御装置101以外の装置で行われるようにしてもよい。例えば、投影撮像装置102が行うようにしてもよい。図22の例では、投影撮像装置102が、上述したキャリブレーションに関する処理を行う。この場合、各投影撮像装置102に入力画像が入力され、各投影撮像装置102において、画像の補正が行われる。各投影撮像装置102がHDMI(登録商標)ケーブルのような通信ケーブルで互いに接続されており、補正情報や例えば撮像画像のようなセンサデータ等の情報を各投影撮像装置102の間で共有することができるようになされている。したがって、どの投影撮像装置102が上述したキャリブレーションに関する処理を行うようにすることもできる。例えば、投影撮像装置102−1乃至投影撮像装置102−4のいずれかが上述したキャリブレーションに関する処理を行い、そのキャリブレーション結果を他の投影撮像装置102と共有するようにしてもよいし、複数の投影撮像装置102が協働して上述したキャリブレーションに関する処理を行い、そのキャリブレーション結果を他の投影撮像装置102と共有するようにしてもよい。このような構成の場合、制御装置101を省略することもできる。
Further, the above-described processing related to calibration may be performed by a device other than the
また、以上においては、投影撮像システム100が4台の投影撮像装置102を有するように説明したが、投影撮像システム100を構成する投影撮像装置102の台数は任意であり、3台以下であってもよいし、5台以上であってもよい。
In the above description, the
また、図23に示される投影撮像装置612のように、他の情報処理装置611を介して、ネットワーク601(制御装置101や他の投影撮像装置102等)に接続されるようにしてもよい。投影撮像装置612は、上述した投影撮像装置102と同様の装置である、ただし、この投影撮像装置は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、通信機能を有する情報処理装置611を介してネットワーク601に接続される。また、投影撮像装置612は、この情報処理装置611に制御されて駆動する。このようにすることにより、通信に関する処理や投影や撮像の制御に関する処理を、元々処理能力が高い情報処理装置611に行わせることができるので、投影撮像装置612に必要な機能(情報処理能力等)の増大を抑制することができ、コストの増大を抑制することができる。
Further, like the
また、上述した投影撮像装置102の機能をモジュール等(すなわち部品単位)として実現するようにしてもよい。図23の情報処理装置613は、例えば、携帯型電話機、スマートフォン、タブレット型コンピュータ、ノート型コンピュータのような、元々処理能力が高い情報処理装置であり、上述した投影撮像装置102の機能を有するモジュールが組み込まれている。すなわち、情報処理装置613は、情報処理装置611と投影撮像装置612の両方の機能を有する装置である。投影撮像装置102は、このような情報処理装置として実現することもできる。
Further, the function of the
また、図23に示される例のように、投影撮像装置102として、互いに異なる機能を有するデバイスが混在するようにしてもよい。
Further, as in the example shown in FIG. 23, devices having different functions may be mixed as the
また、図24に示される例のように、投影撮像システム100には、投影部111を有しているが撮像部112を有していない投影装置621や投影装置623、撮像部112を有しているが投影部111を有してない撮像装置622等が含まれるようにしてもよい。また、1つのデバイスに投影部111や撮像部112が複数設けられるようにしてもよい。例えば、投影撮像装置624は、投影部111A、投影部111B、および撮像部112を有する。このような構成の投影撮像装置624の外部変数も、投影撮像装置102の場合と同様に、上述したキャリブレーションを行うことができる。さらに、投影撮像システム100全体において、投影部111の数と撮像部112の数が一致していなくてもよい。
Further, as in the example illustrated in FIG. 24, the
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、例えば、図2や図5に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されているリムーバブルメディア171やリムーバブルメディア321により構成される。このリムーバブルメディア171やリムーバブルメディア321には、磁気ディスク(フレキシブルディスクを含む)や光ディスク(CD-ROMやDVDを含む)が含まれる。さらに、光磁気ディスク(MD(Mini Disc)を含む)や半導体メモリ等も含まれる。
For example, as shown in FIGS. 2 and 5, the recording medium is distributed by a
その場合、例えば制御装置101においては、プログラムは、そのリムーバブルメディア171をドライブ165に装着することにより、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、そのリムーバブルメディア321をドライブ315に装着することにより、記憶部313にインストールすることができる。
In this case, for example, in the
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、例えば制御装置101においては、プログラムは、通信部164で受信し、記憶部163にインストールすることができる。また、例えば投影撮像装置102においては、プログラムは、通信部314で受信し、記憶部313にインストールすることができる。
This program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In that case, for example, in the
その他、このプログラムは、記憶部やROM等に、あらかじめインストールしておくこともできる。例えば制御装置101の場合、プログラムは、記憶部163やROM153等に、あらかじめインストールしておくこともできる。また、例えば投影撮像装置102の場合、プログラムは、記憶部313や制御部301内のROM等に、あらかじめインストールしておくこともできる。
In addition, this program can be installed in advance in a storage unit, a ROM, or the like. For example, in the case of the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
また、上述した各ステップの処理は、上述した各装置、若しくは、上述した各装置以外の任意の装置において、実行することができる。その場合、その処理を実行する装置が、上述した、その処理を実行するのに必要な機能(機能ブロック等)を有するようにすればよい。また、処理に必要な情報を、適宜、その装置に伝送するようにすればよい。 Moreover, the process of each step mentioned above can be performed in each apparatus mentioned above or arbitrary apparatuses other than each apparatus mentioned above. In that case, the device that executes the process may have the functions (functional blocks and the like) necessary for executing the process described above. Information necessary for processing may be transmitted to the apparatus as appropriate.
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 In addition, in the above description, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). Conversely, the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit). Of course, a configuration other than that described above may be added to the configuration of each device (or each processing unit). Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). .
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processed.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
また、本技術は、これに限らず、このような装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。 In addition, the present technology is not limited to this, and any configuration mounted on such a device or a device constituting the system, for example, a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a plurality of It is also possible to implement as a unit using other modules, a set obtained by further adding other functions to the unit (that is, a partial configuration of the apparatus), and the like.
なお、本技術は以下のような構成も取ることができる。
(1) 所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する相互姿勢推定部
を備える情報処理装置。
(2) 前記相互姿勢推定部は、前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離に基づいて、前記相互姿勢を決定する変数を推定する
(1)に記載の情報処理装置。
(3) 前記相互姿勢推定部は、
前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、
前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部と
を備える(2)に記載の情報処理装置。
(4) 前記更新部は、前記撮像部が撮像する前記画像に含まれる処理対象の画素の前記所定の面における位置と、前記画素を投影する各投影部が投影する前記画像の前記画素の前記所定の面における位置との距離の2乗平均を前記評価値とする
(3)に記載の情報処理装置。
(5) 前記変数推定部は、前記撮像部の回転行列、前記撮像部の並進ベクトル、前記投影部の回転行列、および前記投影部の並進ベクトルを含む
(3)または(4)に記載の情報処理装置。
(6) 前記投影部および前記撮像部を有する投影撮像装置同士の相互姿勢を仮の相互姿勢として推定する仮相互姿勢推定部をさらに備え、
前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定する
(1)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記仮相互姿勢推定部は、各投影撮像装置の投影面の位置の誤差が最小となるように前記仮の相互姿勢を推定する
(6)に記載の情報処理装置。
(8) 各投影撮像装置について、前記画像が投影される投影面に対する前記投影部および前記撮像部の相互姿勢を推定する投影面姿勢推定部をさらに備え、
前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定する
(6)または(7)に記載の情報処理装置。
(9) 前記投影面姿勢推定部は、三角測量を行うことにより前記投影面を推定し、推定した前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(8)に記載の情報処理装置。
(10) 前記投影面姿勢推定部は、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(8)または(9)に記載の情報処理装置。
(11) 前記仮相互姿勢推定部は、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係に基づいて、前記仮の相互姿勢を推定する
(10)に記載の情報処理装置。
(12) 前記投影面姿勢推定部は、前記投影部に画素位置対応を求める際に用いるパターンを投影させ、前記撮像部に撮像させることにより検出される、前記投影撮像装置内の前記投影部と前記撮像部との画素位置の対応関係と、前記投影撮像装置間の前記投影部と前記撮像部との画素位置の対応関係とに基づいて、前記投影面に対する前記投影部および前記撮像部の相互姿勢を推定する
(10)または(11)に記載の情報処理装置。
(13) 投影された画像を撮像し撮像画像を得る撮像部をさらに備え、
前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定する
(1)乃至(12)のいずれかに記載の情報処理装置。
(14) 画像を投影する投影部をさらに備え、
前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定する
(13)に記載の情報処理装置。
(15) 前記相互姿勢推定部により推定された前記投影部と前記撮像部との相互姿勢に応じた変数を用いて、投影する画像を補正する画像処理を行う画像処理部をさらに備える
(1)乃至(14)のいずれかに記載の情報処理装置。
(16) 所定の面における、投影部が投影する画像と撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相対的な位置および方向である相互姿勢を推定する
情報処理方法。
In addition, this technique can also take the following structures.
(1) A mutual attitude that is a relative position and direction of the projection unit and the imaging unit on a predetermined plane based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit. An information processing apparatus comprising a mutual posture estimation unit for estimating a position.
(2) The mutual posture estimation unit may be configured based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The information processing apparatus according to (1), wherein a variable that determines a mutual posture is estimated.
(3) The mutual posture estimation unit
An update unit that updates an evaluation value of a distance between the position on the predetermined plane of the image projected by the projection unit and the position on the predetermined plane of the image captured by the imaging unit;
The information processing apparatus according to (2), further comprising: a variable estimation unit that estimates a variable that determines the mutual attitude based on the evaluation value updated by the update unit.
(4) The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined plane, and the pixel of the image projected by each projection unit that projects the pixel. The information processing apparatus according to (3), wherein a mean square of a distance to a position on a predetermined surface is the evaluation value.
(5) The information according to (3) or (4), wherein the variable estimation unit includes a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit. Processing equipment.
(6) It further includes a temporary mutual posture estimation unit that estimates a mutual posture between the projection imaging devices having the projection unit and the imaging unit as a temporary mutual posture,
The information processing apparatus according to any one of (1) to (5), wherein the mutual posture estimation unit estimates the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.
(7) The information processing apparatus according to (6), wherein the temporary mutual attitude estimation unit estimates the temporary mutual attitude so that an error in a position of a projection plane of each projection imaging apparatus is minimized.
(8) For each projection imaging apparatus, further comprising a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected,
The temporary mutual posture estimation unit estimates the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit. (6) or (7 ).
(9) The information according to (8), wherein the projection plane attitude estimation unit estimates the projection plane by performing triangulation, and estimates a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane. Processing equipment.
(10) The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a pixel position between the projection unit and the imaging unit between the projection imaging devices. The information processing apparatus according to (8) or (9), wherein a mutual attitude of the projection unit and the imaging unit with respect to the projection plane is estimated based on the corresponding relationship.
(11) The information according to (10), wherein the temporary mutual posture estimation unit estimates the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. Processing equipment.
(12) The projection plane orientation estimation unit may detect the projection unit in the projection imaging apparatus detected by causing the projection unit to project a pattern to be used when obtaining the pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence of the pixel position with the imaging unit and the correspondence of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the projection unit and the imaging unit are mutually connected to the projection plane. The information processing apparatus according to (10) or (11), wherein the posture is estimated.
(13) It further includes an imaging unit that captures the projected image and obtains a captured image,
The mutual posture estimation unit is configured to determine whether the projection unit and the imaging unit are based on a relative positional relationship between an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. The information processing apparatus according to any one of (1) to (12), wherein a mutual posture is estimated.
(14) It further includes a projection unit that projects an image,
The information processing apparatus according to (13), wherein the mutual posture estimation unit further estimates a mutual posture between the projection unit and the imaging unit.
(15) The image processing unit further includes an image processing unit that performs image processing for correcting an image to be projected using a variable according to the mutual posture between the projection unit and the imaging unit estimated by the mutual posture estimation unit. Thru | or the information processing apparatus in any one of (14).
(16) A mutual attitude that is a relative position and direction of the projection unit and the imaging unit based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane. Information processing method to estimate
100 投影撮像システム, 101 制御装置, 102 投影撮像装置, 103 通信ケーブル, 104 スクリーン, 111 投影部, 112 撮像部, 151 CPU, 201 キャリブレーション処理部, 202 画像処理部, 203 投影制御部, 204 撮像制御部, 211 画素位置対応検出部, 212 投影面姿勢推定部, 213 仮相互姿勢推定部、 214 相互姿勢再推定部, 301 制御部, 351 ビデオプロセッサ, 352 レーザドライバ, 353 レーザ出力部, 354 ミラー, 355 MEMSドライバ, 356 MEMSミラー, 601 ネットワーク, 611 情報処理装置, 612 投影撮像装置, 613 情報処理装置, 621 投影装置, 622 撮像装置, 623 投影装置, 624 投影撮像装置
DESCRIPTION OF
Claims (16)
を備える情報処理装置。 Based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane, a mutual attitude that is a relative position and direction between the projection unit and the imaging unit is estimated. An information processing apparatus comprising a mutual posture estimation unit.
請求項1に記載の情報処理装置。 The mutual posture estimation unit calculates the mutual posture based on a distance between a position on the predetermined surface of the image projected by the projection unit and a position on the predetermined surface of the image captured by the imaging unit. The information processing apparatus according to claim 1, wherein a variable to be determined is estimated.
前記投影部が投影する前記画像の前記所定の面における位置と、前記撮像部が撮像する前記画像の前記所定の面における位置との距離の評価値を更新する更新部と、
前記更新部により更新された前記評価値に基づいて、前記相互姿勢を決定する変数を推定する変数推定部と
を備える請求項2に記載の情報処理装置。 The mutual posture estimation unit
An update unit that updates an evaluation value of a distance between the position on the predetermined plane of the image projected by the projection unit and the position on the predetermined plane of the image captured by the imaging unit;
The information processing apparatus according to claim 2, further comprising: a variable estimation unit that estimates a variable that determines the mutual attitude based on the evaluation value updated by the update unit.
請求項3に記載の情報処理装置。 The update unit includes the position of the processing target pixel included in the image captured by the imaging unit on the predetermined surface, and the predetermined surface of the pixel of the image projected by each projection unit that projects the pixel. The information processing apparatus according to claim 3, wherein the evaluation value is a mean square of a distance to a position at.
請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the variable estimation unit includes a rotation matrix of the imaging unit, a translation vector of the imaging unit, a rotation matrix of the projection unit, and a translation vector of the projection unit.
前記相互姿勢推定部は、前記仮相互姿勢推定部により推定された前記仮の相互姿勢を初期値として、前記相互姿勢を推定する
請求項1に記載の情報処理装置。 A provisional mutual attitude estimation unit that estimates a mutual attitude between the projection imaging apparatus having the projection unit and the imaging unit as a provisional mutual attitude;
The information processing apparatus according to claim 1, wherein the mutual posture estimation unit estimates the mutual posture using the temporary mutual posture estimated by the temporary mutual posture estimation unit as an initial value.
請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the temporary mutual attitude estimation unit estimates the temporary mutual attitude so that an error in a position of a projection plane of each projection imaging apparatus is minimized.
前記仮相互姿勢推定部は、前記投影面姿勢推定部により推定された前記投影面に対する前記投影部および前記撮像部の相互姿勢を用いて、前記仮の相互姿勢を推定する
請求項6に記載の情報処理装置。 For each projection imaging apparatus, the projection imaging apparatus further includes a projection plane attitude estimation unit that estimates a mutual attitude of the projection unit and the imaging unit with respect to a projection plane on which the image is projected,
The temporary mutual posture estimation unit estimates the temporary mutual posture using the mutual postures of the projection unit and the imaging unit with respect to the projection plane estimated by the projection plane posture estimation unit. Information processing device.
請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the projection plane attitude estimation unit estimates the projection plane by performing triangulation, and estimates a mutual attitude of the projection unit and the imaging unit with respect to the estimated projection plane.
請求項8に記載の情報処理装置。 The projection plane orientation estimation unit includes a correspondence relationship between pixel positions of the projection unit and the imaging unit in the projection imaging device, and a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices. The information processing apparatus according to claim 8, wherein the mutual attitude of the projection unit and the imaging unit with respect to the projection plane is estimated based on
請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, wherein the temporary mutual posture estimation unit estimates the temporary mutual posture based on a correspondence relationship between pixel positions of the projection unit and the imaging unit between the projection imaging devices.
請求項10に記載の情報処理装置。 The projection plane posture estimation unit detects the projection unit and the imaging unit in the projection imaging apparatus that are detected by causing the projection unit to project a pattern used when determining pixel position correspondence and causing the imaging unit to capture an image. Based on the correspondence relationship of the pixel position with respect to the projection imaging device and the correspondence relationship of the pixel position between the projection unit and the imaging unit between the projection imaging devices, the mutual orientation of the projection unit and the imaging unit with respect to the projection plane is estimated The information processing apparatus according to claim 10.
前記相互姿勢推定部は、前記所定の面における、他の装置の投影部が投影する画像と前記撮像部が撮像する前記画像との相対位置関係に基づいて、前記投影部と前記撮像部との相互姿勢を推定する
請求項1に記載の情報処理装置。 An imaging unit that captures the projected image and obtains the captured image;
The mutual posture estimation unit is configured to determine whether the projection unit and the imaging unit are based on a relative positional relationship between an image projected by a projection unit of another device and the image captured by the imaging unit on the predetermined plane. The information processing apparatus according to claim 1, wherein the mutual attitude is estimated.
前記相互姿勢推定部は、さらに、前記投影部と前記撮像部との相互姿勢を推定する
請求項13に記載の情報処理装置。 A projection unit for projecting an image;
The information processing apparatus according to claim 13, wherein the mutual posture estimation unit further estimates a mutual posture between the projection unit and the imaging unit.
請求項1に記載の情報処理装置。 The image processing part which performs the image process which correct | amends the image to project using the variable according to the mutual attitude | position of the said projection part estimated by the said mutual attitude | position estimation part and the said imaging part is provided. Information processing device.
情報処理方法。 Based on a relative positional relationship between an image projected by the projection unit and the image captured by the imaging unit on a predetermined plane, a mutual attitude that is a relative position and direction between the projection unit and the imaging unit is estimated. Information processing method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014135791A JP2016014720A (en) | 2014-07-01 | 2014-07-01 | Information processor and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014135791A JP2016014720A (en) | 2014-07-01 | 2014-07-01 | Information processor and method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016014720A true JP2016014720A (en) | 2016-01-28 |
Family
ID=55230966
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014135791A Pending JP2016014720A (en) | 2014-07-01 | 2014-07-01 | Information processor and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016014720A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017163928A1 (en) * | 2016-03-24 | 2017-09-28 | ソニー株式会社 | Image processing device and method |
| JP2017183919A (en) * | 2016-03-29 | 2017-10-05 | ブラザー工業株式会社 | Projection control apparatus, program, and projection system |
| KR101820905B1 (en) * | 2016-12-16 | 2018-01-22 | 씨제이씨지브이 주식회사 | An image-based projection area automatic correction method photographed by a photographing apparatus and a system therefor |
| JP2018207373A (en) * | 2017-06-07 | 2018-12-27 | パナソニックIpマネジメント株式会社 | Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system |
| WO2019012774A1 (en) | 2017-07-14 | 2019-01-17 | ソニー株式会社 | Information processing device, information processing method, and program |
| WO2019124070A1 (en) | 2017-12-19 | 2019-06-27 | ソニー株式会社 | Image processing device, image processing method, program, and projection system |
| US10520797B2 (en) | 2016-09-21 | 2019-12-31 | Seiko Epson Corporation | Projection system, control device, and control method of projection system |
-
2014
- 2014-07-01 JP JP2014135791A patent/JP2016014720A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017163928A1 (en) * | 2016-03-24 | 2017-09-28 | ソニー株式会社 | Image processing device and method |
| US10872434B2 (en) | 2016-03-24 | 2020-12-22 | Sony Corporation | Image processing apparatus and method |
| JP2017183919A (en) * | 2016-03-29 | 2017-10-05 | ブラザー工業株式会社 | Projection control apparatus, program, and projection system |
| US10520797B2 (en) | 2016-09-21 | 2019-12-31 | Seiko Epson Corporation | Projection system, control device, and control method of projection system |
| KR101820905B1 (en) * | 2016-12-16 | 2018-01-22 | 씨제이씨지브이 주식회사 | An image-based projection area automatic correction method photographed by a photographing apparatus and a system therefor |
| US10051250B2 (en) | 2016-12-16 | 2018-08-14 | Cj Cgv Co., Ltd. | Method of automatically correcting projection area based on image photographed by photographing device and system therefor |
| JP2018207373A (en) * | 2017-06-07 | 2018-12-27 | パナソニックIpマネジメント株式会社 | Calibration apparatus of projection type display device, calibration method, program, projection type display device, and projection type display system |
| WO2019012774A1 (en) | 2017-07-14 | 2019-01-17 | ソニー株式会社 | Information processing device, information processing method, and program |
| KR20200028331A (en) | 2017-07-14 | 2020-03-16 | 소니 주식회사 | Information processing apparatus, information processing method, and program |
| US11082670B2 (en) | 2017-07-14 | 2021-08-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
| WO2019124070A1 (en) | 2017-12-19 | 2019-06-27 | ソニー株式会社 | Image processing device, image processing method, program, and projection system |
| US11115632B2 (en) | 2017-12-19 | 2021-09-07 | Sony Corporation | Image processing device, image processing method, program, and projection system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2016014720A (en) | Information processor and method | |
| CN109194876B (en) | Image processing method, apparatus, electronic device, and computer-readable storage medium | |
| JP5389879B2 (en) | Imaging apparatus, surveillance camera, and camera screen masking method | |
| JP5961945B2 (en) | Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program | |
| JP5338718B2 (en) | Correction information calculation apparatus, image processing apparatus, image display system, and image correction method | |
| TWI393072B (en) | Multi-sensor array module with wide viewing angle; image calibration method, operating method and application for the same | |
| US20180343388A1 (en) | Image processing device, image processing method, and recording medium storing program | |
| WO2017006780A1 (en) | Information processing device and method, and program | |
| EP3373236A1 (en) | Image processing system, image generation apparatus, and image generation method | |
| WO2016002511A1 (en) | Image processing device and method | |
| JP7548228B2 (en) | Information processing device, information processing method, program, projection device, and information processing system | |
| JP6636252B2 (en) | Projection system, projector device, imaging device, and program | |
| KR20140071330A (en) | Method and apparatus for calibrating an imaging device | |
| JP6915537B2 (en) | Information processing equipment and methods, as well as projection imaging equipment and information processing methods | |
| US9338417B2 (en) | Image projecting system, master apparatus, image projecting apparatus, and image projecting method | |
| WO2018225531A1 (en) | Image processing device and method | |
| WO2005084017A1 (en) | Multiprojection system | |
| US20200021787A1 (en) | Projector, projection method, image processing system, and method | |
| JP6318576B2 (en) | Image projection system, image processing apparatus, image projection method, and program | |
| US11483528B2 (en) | Information processing apparatus and information processing method | |
| JP6320020B2 (en) | Electronic device, control method thereof, and program | |
| WO2019203002A1 (en) | Information processing device and method | |
| CN113473027A (en) | Image processing method, electronic device, and storage medium | |
| CN117132665A (en) | Calibration method and device for laser sensor, calibration equipment and computer medium | |
| JP4168024B2 (en) | Stack projection apparatus and adjustment method thereof |
