JP2013105002A - 3d video photography control system, 3d video photography control method, and program - Google Patents
3d video photography control system, 3d video photography control method, and program Download PDFInfo
- Publication number
- JP2013105002A JP2013105002A JP2011248419A JP2011248419A JP2013105002A JP 2013105002 A JP2013105002 A JP 2013105002A JP 2011248419 A JP2011248419 A JP 2011248419A JP 2011248419 A JP2011248419 A JP 2011248419A JP 2013105002 A JP2013105002 A JP 2013105002A
- Authority
- JP
- Japan
- Prior art keywords
- pair
- imaging devices
- parallax
- convergence angle
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000003384 imaging method Methods 0.000 claims abstract description 187
- 230000006870 function Effects 0.000 claims description 37
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000002789 length control Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 19
- 238000012545 processing Methods 0.000 description 32
- 230000003287 optical effect Effects 0.000 description 24
- 238000005259 measurement Methods 0.000 description 19
- 230000001276 controlling effect Effects 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012885 constant function Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
この発明は、3D映像を撮影するための撮像装置(カメラ)の位置および方向を制御するシステムに関する。 The present invention relates to a system for controlling the position and direction of an imaging apparatus (camera) for capturing 3D video.
近年、3D映画や3Dテレビジョンに代表されるように、様々な分野で、立体的な表現が可能な3次元(3D)映像が用いられることが多くなってきている。こうした3D映像は通常、一対の3D撮影用カメラ(左目映像用のカメラと右目映像用のカメラ)によって撮影される。 In recent years, as represented by 3D movies and 3D television, three-dimensional (3D) images capable of three-dimensional expression are often used in various fields. Such 3D video is usually shot by a pair of 3D shooting cameras (a left-eye video camera and a right-eye video camera).
一対の3D撮影用カメラは常に位置が固定され、その状態で撮影が行われる。また、このとき、箱庭効果(巨人視)等の問題が生じないように、3D撮影用カメラの間隔(基線長)は常に約65mmに保つことが普通である。さらに、3D撮影用カメラの間隔と、その画角との関係は手動(たとえば、ユーザの手作業)で調整される。 The position of the pair of 3D shooting cameras is always fixed, and shooting is performed in that state. At this time, the distance (baseline length) of the 3D camera is usually kept at about 65 mm so that problems such as the miniature garden effect (giantness of the giant) do not occur. Further, the relationship between the interval between the 3D imaging cameras and the angle of view is manually adjusted (for example, manually by the user).
こうした、3D効果のための基線長の調整は、特許文献1の「3次元撮影装置および方法並びにプログラム」に開示があり、当該文献では、3D映像の立体効果を得るために、2台の3D撮影用カメラの基線長を調整する点が記載されている。 Such adjustment of the base line length for the 3D effect is disclosed in “Three-dimensional imaging apparatus and method and program” in Patent Document 1. In this document, two 3D images are obtained in order to obtain a three-dimensional effect of 3D video. The point which adjusts the base line length of the camera for imaging | photography is described.
上記のような、2台の3D撮影用カメラによる撮影方法、すなわち、カメラの間隔が固定され、この間隔と画角との関係が手動により調整されるような撮影方法では、基本的に、近距離の3D映像しか撮影することができない。 In the above-described shooting method using two 3D shooting cameras, that is, a shooting method in which the interval between the cameras is fixed and the relationship between the interval and the angle of view is manually adjusted, basically, Only 3D images at a distance can be taken.
遠距離の物体を撮影する場合は、ズームまたは望遠レンズを利用する必要があるので、このときにカメラの間隔を65mmに設定したのでは、撮影対象の立体感を得ることができない。このように、これまでの3D撮影において、カメラの間隔や画角等を含む撮影条件は、撮影者(たとえば、カメラマンや3Dグラファー)の経験や勘によって設定されているのが現状である。 When shooting an object at a long distance, it is necessary to use a zoom or a telephoto lens. Therefore, if the camera interval is set to 65 mm at this time, it is not possible to obtain a stereoscopic effect of the shooting target. As described above, in the conventional 3D shooting, the shooting conditions including the camera interval and the angle of view are set based on the experience and intuition of the photographer (for example, a cameraman or a 3D grapher).
たとえば、従来の3D撮影方法では、近いシーンと遠いシーンの3D撮影では立体感が異なるものとなってしまう。特に近距離撮影の難しいスポーツなどの3D撮影は非常に困難である。 For example, in the conventional 3D shooting method, the stereoscopic effect is different between 3D shooting of a near scene and a far scene. In particular, it is very difficult to perform 3D shooting such as sports that are difficult to shoot at close range.
しかしながら、これまで、カメラの画角や基線長、輻輳角、対象物までの距離といった撮影条件の好適な関係を表す関係式は提供されておらず、また撮影条件や鑑賞条件を総合的に考慮した3D撮影システムの理論的体系も確立されていない。さらに、安全視差(たとえば、視差は50mm以内)と3D効果の両方を考慮した撮影条件の明確な関係式が存在しないため、この場合も、カメラの基線長や画角などをどのように設定するかは、撮影者の経験や勘に頼ることになる。 However, up to now, no relational expression has been provided that represents a suitable relationship between shooting conditions such as camera angle of view, base line length, convergence angle, and distance to the target, and comprehensive consideration of shooting conditions and viewing conditions has been provided. The theoretical system of the 3D imaging system has not been established. Furthermore, since there is no clear relational expression of shooting conditions that considers both safe parallax (for example, parallax is within 50 mm) and 3D effect, how to set the baseline length and angle of view of the camera in this case as well It depends on the experience and intuition of the photographer.
このように、上記特許文献1を含む従来の技術において、3D撮影における好適な撮影条件を求める関係式や好適な制御方法を具体的に示したものはない。上記特許文献1には、ズーム操作がされた場合に、撮影された映像での立体視ができなくなるという不具合を解消すべく、2台の3D撮影用カメラの基線長を変更する旨の記載があるが、変更後の基線長を、どのような情報に基づいて決定するのかは具体的にされていない。 As described above, none of the conventional techniques including the above-described Patent Document 1 specifically show a relational expression for obtaining a suitable photographing condition in 3D photographing or a suitable control method. In the above-mentioned Patent Document 1, there is a description that the base line lengths of the two 3D photographing cameras are changed in order to solve the problem that stereoscopic viewing in the photographed image becomes impossible when the zoom operation is performed. However, what kind of information is used to determine the baseline length after the change is not specified.
したがって、本発明の目的は、撮影条件および鑑賞条件を総合的に考慮し、好適な3D効果を得るため、または安全性を維持するために、一対のカメラの位置および方向の少なくとも一方を制御する3D映像撮影制御システムを提供することにある。 Accordingly, an object of the present invention is to comprehensively consider shooting conditions and viewing conditions, and control at least one of the position and direction of a pair of cameras in order to obtain a suitable 3D effect or maintain safety. The object is to provide a 3D video shooting control system.
上記課題を解決するために、まず、理論的に2台の3D撮影用カメラに関し、3D効果および安全視差に関連するすべてのパラメータを抽出し、それらの関係を数式により表現する。次に、撮影者の立場から、実際に撮影する場合に調節が必要なパラメータ(たとえば、被写体視差、画角(ズーム)、輻輳角等)を決定し、それに基づいて他のパラメータを、関係式により算出する。その後、求められたパラメータに基づいて、3D撮影用カメラをそれぞれ制御する。 In order to solve the above-described problem, first, all the parameters related to the 3D effect and the safety parallax are theoretically extracted with respect to the two 3D photographing cameras, and their relationship is expressed by a mathematical expression. Next, from the photographer's standpoint, parameters (for example, subject parallax, angle of view (zoom), convergence angle, etc.) that need to be adjusted in actual shooting are determined, and other parameters are based on the parameters based on the parameters. Calculated by Thereafter, the 3D imaging camera is controlled based on the obtained parameters.
本発明の第1の実施態様は、3D映像の撮影制御を行うための3D映像撮影制御システムである。この3D映像撮影制御システムは、被写体を撮影する一対の撮像装置から得られた映像から、被写体に関する視差を算出する視差算出手段と、一対の撮像装置の基線長を決定する基線長決定手段と、決定された基線長となるよう一対の撮像装置を移動させるよう制御する基線長制御手段とを有する。ここで、基線長決定手段は、一対の撮像装置の基線長と人間両眼の基線長との比率と、撮影時における一対の撮像装置の基線から被写体までの距離(実際距離)と3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、一対の撮像装置の基線長を決定し、感知距離を、視差に基づいて求めるように構成される。 A first embodiment of the present invention is a 3D video shooting control system for performing shooting control of 3D video. The 3D video imaging control system includes: a parallax calculation unit that calculates parallax related to a subject from video obtained from a pair of imaging devices that shoot a subject; a baseline length determination unit that determines a baseline length of the pair of imaging devices; Baseline length control means for controlling the pair of imaging devices to move so as to have the determined baseline length. Here, the baseline length determination means is configured to determine the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes, the distance (actual distance) from the baseline of the pair of imaging devices to the subject at the time of shooting, and the 3D video. The base line length of the pair of imaging devices is determined based on the relationship (the pull-in rate) with the distance (sensing distance) from the baseline of both human eyes to the subject at the time of viewing (sensing distance) being correlated by a predetermined function. The sensing distance is determined based on the parallax.
このような本発明の第1の実施態様に係る3D映像撮影制御システムによって、好適な3D効果の得られる基線長が、「一対の撮像装置の基線長と人間両眼の基線長との比率と引込率が、所定関数により対応付けられる関係」に基づいて求められ、一対の撮像装置(カメラ)が、その決定された基線長に調整される。なお、人間両眼の基線長は、ユーザ等により指定されたもののほか、事前に設定された定数であってもよい。 With such a 3D video shooting control system according to the first embodiment of the present invention, a baseline length that provides a suitable 3D effect is “the ratio between the baseline length of a pair of imaging devices and the baseline length of both human eyes” The pull-in rate is obtained based on “a relationship associated with a predetermined function”, and the pair of imaging devices (cameras) is adjusted to the determined baseline length. Note that the baseline length of both human eyes may be a constant set in advance in addition to the one specified by the user or the like.
本発明の第2の実施態様は、第1の実施態様において、指定された視差を受信する視差受信手段と、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段とをさらに有する3D映像撮影制御システムである。ここで、輻輳角制御手段は、指定された視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定手段は、感知距離を、指定された視差に基づいて求めるように構成される。 According to a second embodiment of the present invention, in the first embodiment, a parallax receiving unit that receives a designated parallax and a convergence angle control unit that controls a pair of imaging devices to move in order to adjust the convergence angle. Is a 3D video shooting control system. Here, the convergence angle control means is configured to move the pair of imaging devices so as to obtain a convergence angle corresponding to the designated parallax, and the baseline length determination means is configured to obtain the sensing distance based on the designated parallax. Is done.
このような本発明の第2の実施態様に係る3D映像撮影制御システムによって、ユーザ等によって視差が指定された場合に、この視差に基づいて、好適な3D効果の得られる輻輳角と基線長が決定され、一対の撮像装置(カメラ)が、当該基線長および輻輳角に調整される。 When the parallax is specified by the user or the like by the 3D video shooting control system according to the second embodiment of the present invention, the vergence angle and the base line length at which a suitable 3D effect is obtained are based on the parallax. The pair of imaging devices (cameras) is adjusted to the baseline length and the convergence angle.
本発明の第3の実施態様は、第1の実施態様において、指定された引込率を受信する引込率受信手段と、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段とをさらに有する3D映像撮影制御システムである。ここで、輻輳角制御手段は、指定された引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定手段は、指定された引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 According to a third embodiment of the present invention, in the first embodiment, a pull-in rate receiving unit that receives a specified pull-in rate, and a convergence angle that controls to move a pair of imaging devices to adjust the convergence angle. A 3D video shooting control system further comprising control means. Here, the convergence angle control means moves the pair of imaging devices so as to obtain a convergence angle corresponding to the parallax obtained based on the designated pull-in rate, and the baseline length determining means is based on the designated pull-in rate. It is comprised so that the base line length of a pair of imaging device may be determined.
このような本発明の第3の実施態様に係る3D映像撮影制御システムによって、ユーザ等によって引込率が指定された場合に、この引込率に基づいて、好適な3D効果の得られる輻輳角と基線長が決定され、一対の撮像装置(カメラ)が、当該基線長および輻輳角に調整される。 When the pull-in rate is specified by the user or the like by the 3D video shooting control system according to the third embodiment of the present invention, the convergence angle and the base line that provide a suitable 3D effect based on the pull-in rate The length is determined, and the pair of imaging devices (cameras) is adjusted to the baseline length and the convergence angle.
本発明の第4の実施態様は、第1の実施態様において、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段をさらに有する3D映像撮影制御システムである。ここで、引込率は、引込率と一対の撮像装置の画角との掛け算が定数となる関係に基づいて、画角から求められ、輻輳角制御手段は、求められた引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、 基線長決定手段は、求められた引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 A fourth embodiment of the present invention is a 3D video shooting control system further comprising a convergence angle control unit that controls to move a pair of imaging devices in order to adjust a convergence angle in the first embodiment. Here, the pull-in rate is obtained from the angle of view based on a relationship in which the multiplication of the pull-in rate and the angle of view of the pair of imaging devices is a constant, and the convergence angle control means is obtained based on the obtained pull-in rate. The pair of imaging devices are moved so as to obtain a convergence angle corresponding to the parallax to be obtained, and the baseline length determining means is configured to determine the baseline length of the pair of imaging devices based on the obtained pull-in rate.
このような本発明の第4の実施態様に係る3D映像撮影制御システムによって、引込率は、「引込率と一対の撮像装置の画角との掛け算が定数となる関係」に基づいて求められ、基線長と輻輳角は、この関係とは異なる関係(すなわち、「一対の撮像装置の基線長と人間両眼の基線長との比率と引込率が、所定関数により対応付けられる関係」)に基づいて求められる。こうして求められた輻輳角と基線長により、好適な3D効果が得られ、一対の撮像装置(カメラ)が、当該基線長および輻輳角に調整される。 By such a 3D video shooting control system according to the fourth embodiment of the present invention, the pull-in rate is obtained based on “a relationship in which the multiplication between the pull-in rate and the angle of view of the pair of imaging devices is a constant”, The baseline length and the convergence angle are different from this relationship (that is, “a relationship in which the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes and the pull-in rate is associated by a predetermined function”). Is required. A suitable 3D effect is obtained based on the convergence angle and the baseline length thus obtained, and the pair of imaging devices (cameras) are adjusted to the baseline length and the convergence angle.
本発明の第5の実施態様は、第4の実施態様において、画角が、画角を計測する画角計測手段によって計測され、または一対の撮像装置における焦点距離および撮像素子幅によって算出されるように構成される。 According to a fifth embodiment of the present invention, in the fourth embodiment, the angle of view is measured by an angle-of-view measuring unit that measures the angle of view, or is calculated by a focal length and an imaging element width in a pair of imaging devices. Configured as follows.
本発明の第6の実施態様は、第4または第5の実施態様において、指定された横幅拡大倍率を受信する横幅拡大倍率受信手段をさらに有する3D映像撮影制御システムである。ここで、引込率は、引込率、一対の撮像装置の画角、および指定された横幅拡大倍率の掛け算が定数となる関係に基づいて、画角および横幅拡大倍率から求められるように構成される。 A sixth embodiment of the present invention is a 3D video shooting control system further comprising a horizontal magnification enlargement receiving means for receiving a designated horizontal magnification in the fourth or fifth embodiment. Here, the pull-in rate is configured to be obtained from the angle of view and the horizontal magnification factor based on a relationship in which the multiplication factor of the pull-in rate, the angle of view of the pair of imaging devices, and the specified horizontal magnification factor becomes a constant. .
本発明の第7の実施態様は、第1ないし第6の実施態様において、指定された奥行横幅比率を受信する奥行横幅比率受信手段をさらに有する3D映像撮影制御システムである。ここで、基線長決定手段は、一対の撮像装置の基線長と人間両眼の基線長との比率が、引込率と奥行横幅比率との掛け算に比例する関係に基づいて、一対の撮像装置の基線長を決定するように構成される。 A seventh embodiment of the present invention is a 3D video shooting control system further comprising a depth width ratio receiving means for receiving a specified depth width ratio in the first to sixth embodiments. Here, the base line length determining unit is configured to determine whether the ratio between the base line length of the pair of imaging devices and the baseline length of both human eyes is proportional to the multiplication of the pull-in rate and the depth width ratio. Configured to determine a baseline length.
本発明の第8の実施態様は、第2ないし第7の実施態様において、指定された許容視差範囲を受信する許容視差範囲受信手段と、視差が許容視差範囲になるよう各種パラメータを調整する撮影条件調整手段とをさらに有する3D映像撮影制御システムである。ここで、視差算出手段は、一対の撮像装置から得られた映像における画像全体の視差範囲を算出し、撮影条件調整手段は、算出された画像全体の視差範囲と許容視差範囲とから、一対の撮像装置の基線長についての許容範囲および輻輳角についての許容範囲の少なくとも一方を決定し、当該決定された許容範囲に一対の撮像装置の基線長または輻輳角を調整するように構成される。 According to an eighth embodiment of the present invention, in the second to seventh embodiments, an allowable parallax range receiving unit that receives a specified allowable parallax range, and shooting that adjusts various parameters so that the parallax is within the allowable parallax range. A 3D video shooting control system further comprising condition adjusting means. Here, the parallax calculation unit calculates the parallax range of the entire image in the video obtained from the pair of imaging devices, and the shooting condition adjustment unit calculates the pair of parallax from the calculated parallax range of the entire image and the allowable parallax range. At least one of an allowable range for the base line length of the imaging device and an allowable range for the convergence angle is determined, and the base line length or the convergence angle of the pair of imaging devices is adjusted to the determined allowable range.
このような本発明の第8の実施態様に係る3D映像撮影制御システムによって、カメラの基線長および輻輳角が、安全な視差範囲で3D映像の撮影がされるように制御される。 By such a 3D video shooting control system according to the eighth embodiment of the present invention, the base line length and the convergence angle of the camera are controlled so that 3D video is shot within a safe parallax range.
本発明の第9の実施態様は、第1ないし第8の実施態様において、基線長決定手段が、前記感知距離を、視差および鑑賞条件に基づいて求め、鑑賞条件が、人間両眼の基線長、スクリーンの幅、および人間両眼の基線とスクリーンとの距離を含むように構成される。 According to a ninth embodiment of the present invention, in any one of the first to eighth embodiments, the baseline length determining means obtains the sensing distance based on parallax and viewing conditions, and the viewing conditions are the baseline lengths of human eyes. , The width of the screen, and the distance between the base line of the human binocular and the screen.
本発明の第10の実施態様は、第1ないし第9の実施態様において、実際距離が、実際距離を計測する実際距離計測手段によって計測され、または視差、一対の撮像装置の基線長、輻輳角、および画角によって求められるように構成される。 According to a tenth embodiment of the present invention, in the first to ninth embodiments, the actual distance is measured by an actual distance measuring unit that measures the actual distance, or the parallax, the baseline length of the pair of imaging devices, and the convergence angle. , And the angle of view.
本発明の第11の実施態様は、第1ないし第10の実施態様において、被写体を撮影する3台以上の撮像装置で構成される2対以上の撮像装置についてそれぞれ、3D映像の撮影制御を行うように構成される。 In an eleventh embodiment of the present invention, in the first to tenth embodiments, 3D video shooting control is performed for each of two or more pairs of imaging devices configured by three or more imaging devices that shoot a subject. Configured as follows.
本発明の第12の実施態様は、3D映像の撮影制御を行うための3D映像撮影制御方法である。この3D映像撮影制御方法は、被写体を撮影する一対の撮像装置から得られた映像から、被写体に関する視差を算出する視差算出ステップと、一対の撮像装置の基線長を決定する基線長決定ステップと、決定された基線長となるよう一対の撮像装置を移動させるよう制御する基線長制御ステップとを有する。ここで、基線長決定ステップは、一対の撮像装置の基線長と人間両眼の基線長との比率が、撮影時における一対の撮像装置の基線から被写体までの距離(実際距離)と3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、一対の撮像装置の基線長を決定し、感知距離を、視差に基づいて求めるように構成される。 A twelfth embodiment of the present invention is a 3D video shooting control method for performing shooting control of 3D video. The 3D video shooting control method includes: a parallax calculation step that calculates parallax related to a subject from video obtained from a pair of imaging devices that shoot a subject; a baseline length determination step that determines a baseline length of the pair of imaging devices; A baseline length control step for controlling to move the pair of imaging devices so as to have the determined baseline length. Here, in the baseline length determination step, the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes is the distance from the baseline of the pair of imaging devices to the subject at the time of shooting (actual distance) and the 3D video The base line length of the pair of imaging devices is determined based on the relationship (the pull-in rate) with the distance (sensing distance) from the baseline of both human eyes to the subject at the time of viewing (sensing distance) being correlated by a predetermined function. The sensing distance is determined based on the parallax.
本発明の第13の実施態様は、第12の実施態様において、指定された視差を受信する視差受信ステップと、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御ステップとをさらに有する3D映像撮影制御方法である。ここで、輻輳角制御ステップは、指定された視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定ステップは、感知距離を、指定された視差に基づいて求めるように構成される。 In a thirteenth embodiment of the present invention, in the twelfth embodiment, a parallax receiving step for receiving a designated parallax and a convergence angle control step for controlling the pair of imaging devices to move in order to adjust the convergence angle Is a 3D video shooting control method. Here, the convergence angle control step is configured to move the pair of imaging devices so that the convergence angle corresponds to the designated parallax, and the baseline length determination step is configured to obtain the sensing distance based on the designated parallax. Is done.
本発明の第14の実施態様は、第12の実施態様において、指定された引込率を受信する引込率受信ステップと、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御ステップとをさらに有する3D映像撮影制御方法である。ここで、輻輳角制御ステップは、指定された引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定ステップは、指定された引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 In a fourteenth embodiment of the present invention, in the twelfth embodiment, a pull-in rate receiving step for receiving a specified pull-in rate, and a convergence angle for controlling the pair of imaging devices to move to adjust the vergence angle. A 3D video shooting control method further comprising a control step. Here, the convergence angle control step moves the pair of imaging devices so as to obtain a convergence angle corresponding to the parallax obtained based on the specified pull-in rate, and the baseline length determination step is based on the specified pull-in rate. It is comprised so that the base line length of a pair of imaging device may be determined.
本発明の第15の実施態様は、第12の実施態様において、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御方法をさらに有する3D映像撮影制御方法である。ここで、引込率は、引込率と一対の撮像装置の画角との掛け算が定数となる関係に基づいて、画角から求められ、輻輳角制御ステップは、求められた引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定ステップは、求められた引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 The fifteenth embodiment of the present invention is a 3D video shooting control method according to the twelfth embodiment, further comprising a convergence angle control method for controlling the pair of imaging devices to move in order to adjust the convergence angle. Here, the pull-in rate is obtained from the angle of view based on a relationship in which the multiplication of the pull-in rate and the angle of view of the pair of imaging devices is a constant, and the convergence angle control step is obtained based on the obtained pull-in rate. The pair of imaging devices are moved so as to have a convergence angle corresponding to the parallax, and the baseline length determination step is configured to determine the baseline length of the pair of imaging devices based on the obtained pull-in rate.
本発明の第16の実施態様は、コンピュータに、被写体を撮影する一対の撮像装置から得られた映像から、被写体に関する視差を算出する視差算出手段、一対の撮像装置の基線長を決定する基線長決定手段、および、決定された基線長となるよう一対の撮像装置を移動させるよう制御する基線長制御手段として機能させる、3D映像の撮影制御を行うための3D映像撮影制御を行うプログラムである。ここで、基線長決定手段は、一対の撮像装置の基線長と人間両眼の基線長との比率が、撮影時における一対の撮像装置の基線から被写体までの距離(実際距離)と3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、一対の撮像装置の基線長を決定し、感知距離を、視差に基づいて求めるように構成される。 In a sixteenth embodiment of the present invention, a computer calculates parallax calculation means for calculating parallax related to a subject from video obtained from a pair of imaging devices that shoot the subject, and a baseline length for determining a baseline length of the pair of imaging devices. This is a program for performing 3D video shooting control for performing 3D video shooting control, which functions as a determination unit and a baseline length control unit that controls to move the pair of imaging devices so as to have the determined baseline length. Here, the baseline length determining means is configured such that the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes is the distance (actual distance) from the baseline of the pair of imaging devices to the subject at the time of shooting and the 3D video. The base line length of the pair of imaging devices is determined based on the relationship (the pull-in rate) with the distance (sensing distance) from the baseline of both human eyes to the subject at the time of viewing (sensing distance) being correlated by a predetermined function. The sensing distance is determined based on the parallax.
本発明の第17の実施態様は、第16の実施態様において、指定された視差を受信する視差受信手段、および、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含むプログラムである。ここで、輻輳角制御手段は、指定された視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定手段は、感知距離を、指定された視差に基づいて求めるように構成される。 According to a seventeenth embodiment of the present invention, in the sixteenth embodiment, a parallax receiving unit that receives a designated parallax, and a convergence angle control that controls to move a pair of imaging devices to adjust the convergence angle It is a program further including a program that functions as means. Here, the convergence angle control means is configured to move the pair of imaging devices so as to obtain a convergence angle corresponding to the designated parallax, and the baseline length determination means is configured to obtain the sensing distance based on the designated parallax. Is done.
本発明の第18の実施態様は、第16の実施態様において、指定された引込率を受信する引込率受信手段、および、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含むプログラムである。ここで、輻輳角制御手段は、指定された引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定手段は、指定された引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 According to an eighteenth embodiment of the present invention, in the sixteenth embodiment, a pull-in rate receiving unit that receives a specified pull-in rate, and a congestion that controls to move a pair of imaging devices to adjust a convergence angle The program further includes a program that functions as an angle control means. Here, the convergence angle control means moves the pair of imaging devices so as to obtain a convergence angle corresponding to the parallax obtained based on the designated pull-in rate, and the baseline length determining means is based on the designated pull-in rate. It is comprised so that the base line length of a pair of imaging device may be determined.
本発明の第19の実施態様は、第16の実施態様において、輻輳角を調整するために一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含むプログラムである。ここで、引込率は、引込率と一対の撮像装置の画角との掛け算が定数となる関係に基づいて、画角から求められ、輻輳角制御手段は、求められた引込率に基づいて得られる視差に応じた輻輳角となるよう一対の撮像装置を移動させ、基線長決定手段は、求められた引込率に基づいて一対の撮像装置の基線長を決定するように構成される。 A nineteenth embodiment of the present invention is a program that further includes a program that functions as a convergence angle control unit that controls to move a pair of imaging devices in order to adjust a convergence angle in the sixteenth embodiment. Here, the pull-in rate is obtained from the angle of view based on a relationship in which the multiplication of the pull-in rate and the angle of view of the pair of imaging devices is a constant, and the convergence angle control means is obtained based on the obtained pull-in rate. The pair of imaging devices are moved so as to have a convergence angle corresponding to the parallax to be obtained, and the baseline length determining means is configured to determine the baseline length of the pair of imaging devices based on the obtained pull-in rate.
本発明に係る3D映像撮影制御システムによって、撮影条件および鑑賞条件を総合的に考慮したパラメータが求められ、当該パラメータによって好適な3D効果を得るため、または安全性を維持するために、一対のカメラの位置および方向の少なくとも一方が制御される。 In the 3D video shooting control system according to the present invention, a parameter that comprehensively considers shooting conditions and viewing conditions is obtained. In order to obtain a suitable 3D effect by the parameters or to maintain safety, a pair of cameras At least one of the position and direction is controlled.
本発明の一実施形態に係る3D映像撮影制御システムは、撮影条件および鑑賞条件に基づいて、好適な3D効果が得られるように、または好適な安全視差となるように、一対の3D撮像用カメラの間隔(基線長)および方向(輻輳角)の少なくとも一方を制御する。 A 3D video imaging control system according to an embodiment of the present invention is a pair of 3D imaging cameras so that a suitable 3D effect is obtained or a suitable safety parallax is obtained based on imaging conditions and viewing conditions. And controlling at least one of the interval (baseline length) and the direction (convergence angle).
最初に、図1を参照して、本発明の一実施形態に係る3D映像撮影制御システム7と、3D映像撮影制御システム7によって取得された3D映像データを鑑賞者に対して表示するまでの装置について説明する。 First, referring to FIG. 1, a 3D video shooting control system 7 according to an embodiment of the present invention and an apparatus for displaying 3D video data acquired by the 3D video shooting control system 7 to a viewer. Will be described.
図1の3D映像撮影制御システム7は、3D撮影機構5および制御装置6を含み、3D撮影機構5はカメラ1、アクチュエータ2、移動量計測装置3(図2参照)、およびカメラ制御雲台4を含む。カメラ1は、3D映像を撮影するための撮像装置であり、一対のカメラ、すなわち、左画像撮影用カメラ1−Lと右画像撮影用カメラ1−Rからなり、ズーム等の一部操作はこれらのカメラ1が制御装置6を介さずに直接、連動制御される。本明細書では、これらの2台のカメラを集合的に指す場合に、カメラ1と表記する。 1 includes a 3D imaging mechanism 5 and a control device 6. The 3D imaging mechanism 5 includes a camera 1, an actuator 2, a movement amount measuring device 3 (see FIG. 2), and a camera control platform 4. including. The camera 1 is an imaging device for capturing 3D video images, and includes a pair of cameras, that is, a left image capturing camera 1-L and a right image capturing camera 1-R. The camera 1 is directly linked and controlled without using the control device 6. In the present specification, when these two cameras are collectively referred to, they are referred to as a camera 1.
アクチュエータ2は、制御装置6からの制御信号に応じて、カメラ1(左画像撮影用カメラ1−Lおよび右画像撮影用カメラ1−Rのそれぞれ)を移動させる。アクチュエータ2は、カメラ1の3軸方向の回転移動、基線方向の水平移動を実現する。この例では、移動手段としてアクチュエータ2が用いられているが、それ以外の既知の手段によってカメラ1を任意の位置・方向に移動させることができる。移動量計測装置3は、アクチュエータ2によって移動されたカメラ1の移動量(回転角度、移動距離)を計測し、計測結果を制御装置6に送信する。 The actuator 2 moves the camera 1 (each of the left image capturing camera 1-L and the right image capturing camera 1-R) in accordance with a control signal from the control device 6. The actuator 2 realizes the rotational movement of the camera 1 in the three axis directions and the horizontal movement in the baseline direction. In this example, the actuator 2 is used as the moving means, but the camera 1 can be moved to an arbitrary position and direction by other known means. The movement amount measuring device 3 measures the movement amount (rotation angle, movement distance) of the camera 1 moved by the actuator 2 and transmits the measurement result to the control device 6.
カメラ制御雲台4の基盤4aには、2台のカメラ1が、基本的には同じ高さに併設される。また、左画像撮影用カメラ1−Lは、アクチュエータ2により、3軸方向に回転移動可能かつ基線方向に水平移動可能な状態で、基盤4aに取り付けられる。同様に、右画像撮影用カメラ1−Rも、アクチュエータ2により、3軸方向に回転移動可能かつ基線方向に水平移動可能な状態で、基盤4aに取り付けられる。また、基盤4aは、カメラ制御雲台4に対してパン回転可能な状態に取り付けられる。 Two cameras 1 are basically provided at the same height on the base 4 a of the camera control platform 4. The left image capturing camera 1-L is attached to the base 4a by the actuator 2 so as to be able to rotate and move in three axial directions and horizontally in the baseline direction. Similarly, the right image capturing camera 1-R is also attached to the base 4a by the actuator 2 so as to be able to rotate and move in the three axis directions and horizontally in the baseline direction. The base 4a is attached to the camera control pan head 4 in a state in which pan rotation is possible.
制御装置6は、カメラ1から受信した3D映像データに対し所定の処理を行い、これを送信装置8に送信する。その後、3D映像データは、インターネットやWANのようなネットワークを介して(たとえば、送信装置8から遠く離れた)受信装置9に送信され、さらに映画館、放送局、中継局、家庭などに配置された3D画質調整装置10に送られる。3D画質調整装置10では、3D映像データの画質調整や他の映像処理が行われる。 The control device 6 performs predetermined processing on the 3D video data received from the camera 1 and transmits this to the transmission device 8. Thereafter, the 3D video data is transmitted to the receiving device 9 (for example, far away from the transmitting device 8) via a network such as the Internet or WAN, and is further arranged in a movie theater, a broadcasting station, a relay station, a home, etc. Sent to the 3D image quality adjustment apparatus 10. The 3D image quality adjustment apparatus 10 performs image quality adjustment of the 3D video data and other video processing.
次に、画質調整や映像処理が行われた3D映像データは、鑑賞者による鑑賞に供される。たとえば、図1に示すように、映画館では、3D映像データが3D映写機11に送信され、3D映写機11からスクリーン12に対して3D映像が投射される。一方、一般的な家庭では、送信されてきた3D映像データが3Dテレビジョン13のモニターに表示される。 Next, the 3D video data that has undergone image quality adjustment and video processing is provided for viewing by the viewer. For example, as shown in FIG. 1, in a movie theater, 3D video data is transmitted to the 3D projector 11, and 3D video is projected from the 3D projector 11 onto the screen 12. On the other hand, in a general home, the transmitted 3D video data is displayed on the monitor of the 3D television 13.
図1の例では、3D映像撮影制御システム7は、3D撮影機構5を含むように構成されるが、カメラ1やカメラ制御雲台4等を備えず、実質的にカメラ1の制御を行うための制御装置6のみを含むように構成されてもよい。 In the example of FIG. 1, the 3D image capturing control system 7 is configured to include the 3D image capturing mechanism 5, but does not include the camera 1, the camera control platform 4, or the like, and substantially controls the camera 1. It may be configured to include only the control device 6.
次に、図2を参照して、3D撮影機構5におけるカメラ1の位置および方向の調整・移動について説明する。 Next, adjustment / movement of the position and direction of the camera 1 in the 3D imaging mechanism 5 will be described with reference to FIG.
左カメラ(左画像撮影用カメラ)1−Lの光軸15Lと右カメラ(右画像撮影用カメラ)1−Rの光軸15Rが、これらの光軸を含む平面上でなす角の1/2が輻輳角(図4参照)であり、左カメラ1−Lおよび右カメラ1−Rの被写体(視標)が被写体20として図2に示されている。 The optical axis 15L of the left camera (left image capturing camera) 1-L and the optical axis 15R of the right camera (right image capturing camera) 1-R are ½ of the angle formed on the plane including these optical axes. Is the convergence angle (see FIG. 4), and the subjects (targets) of the left camera 1-L and the right camera 1-R are shown in FIG.
左カメラ1−Lの光軸15Lを基準とした被写体20の角度は、パン方向の角度φl−p、チルド方向の角度φl−t、ロール方向の角度φl−rでそれぞれ表される。同様に、右カメラ1−Rの光軸15Rを基準とした被写体20の角度は、パン方向の角度φr−p、チルド方向の角度φr−t、ロール方向の角度φr−rでそれぞれ表される。 The angle of the subject 20 with respect to the optical axis 15L of the left camera 1-L is expressed by an angle φ l-p in the pan direction, an angle φ l-t in the chilled direction, and an angle φ l-r in the roll direction, respectively. . Similarly, the angle of the object 20 relative to the optical axis 15R of the right camera 1-R, the angle in the pan direction phi r-p, chilled direction of angle phi r-t, with the roll direction of the angle phi r-r, respectively expressed.
図2には、左カメラ1−Lと右カメラ1−Rの基線長bが示されている。ここで基線長とは、2つのカメラ(または人間の眼)の光学中心の距離であり、光学中心とは、カメラをピンホールモデルに近似した場合のピンホールの位置をいう。また、この基線長bは、2つのカメラのパン方向の回転軸の距離として表すこともできる。その他、2つのカメラの基線長bとして、上記距離を近似する他の基点を用いることもできる(ただし、この場合は、当該パラメータの誤差について考慮する必要がある)。 FIG. 2 shows the base line length b of the left camera 1-L and the right camera 1-R. Here, the baseline length is the distance between the optical centers of two cameras (or human eyes), and the optical center is the position of a pinhole when the camera is approximated to a pinhole model. The baseline length b can also be expressed as the distance between the rotation axes of the two cameras in the pan direction. In addition, as the base line length b of the two cameras, another base point that approximates the distance can be used (however, in this case, it is necessary to consider the error of the parameter).
アクチュエータ2は、2つのカメラのそれぞれについて、たとえば、3自由度を有するように構成され、各回転軸に対してカメラを回転させるよう配置される。さらに、基線長を変化させるアクチュエータ2も備える。また、2台のカメラ1が設置されている基盤4aは、上述のようにパン方向に回転させることができるが、この回転をアクチュエータ2で制御することができる。 The actuator 2 is configured to have, for example, three degrees of freedom for each of the two cameras, and is arranged to rotate the camera about each rotation axis. Further, an actuator 2 for changing the base line length is provided. The base 4a on which the two cameras 1 are installed can be rotated in the pan direction as described above, and this rotation can be controlled by the actuator 2.
図2において、アクチュエータ2−L-Pは、左カメラ1−Lのパン方向回転用アクチュエータであり、その回転角度はθl−pで表され、アクチュエータ2−R-Pは、右カメラ1−Rのパン方向回転用アクチュエータであり、その回転角度はθr−pで表される。アクチュエータ2−L-Tは、左カメラ1−Lのチルト方向回転用アクチュエータであり、その回転角度はθl−tで表され、アクチュエータ2−R-Tは、右カメラ1−Rのチルト方向回転用アクチュエータであり、その回転角度はθr−tで表される。アクチュエータ2−L-Rは、左カメラ1−Lのロール方向(視軸方向)回転用アクチュエータであり、その回転角度はθl−rで表され、アクチュエータ2−R-Rは、右カメラ1−Rのロール方向(視軸方向)回転用アクチュエータであり、その回転角度はθr−rで表される。 In FIG. 2, the actuator 2-LP is an actuator for rotating the pan direction of the left camera 1-L, the rotation angle is represented by θ 1-p , and the actuator 2-RP is represented by the right camera 1-P. R is an actuator for rotating in the pan direction, and the rotation angle is represented by θ r−p . The actuator 2-LT is a tilt direction rotation actuator of the left camera 1-L, and the rotation angle is represented by θ 1-t , and the actuator 2-RT is the tilt direction of the right camera 1-R. It is a rotation actuator, and its rotation angle is represented by θ r−t . Actuator 2-LR is an actuator for rotating the left camera 1-L in the roll direction (visual axis direction), and its rotation angle is represented by θ l-r , and actuator 2-RR is the right camera 1. It is an actuator for rotating in the roll direction (visual axis direction) of −R, and the rotation angle is represented by θ r−r .
アクチュエータ2−Bは、2つのカメラ1の間隔を変化させる(基線長を変化させる)アクチュエータであり、カメラ1の間隔は、上述の通り基線長bで表される。また、アクチュエータ2−Nは、カメラ制御雲台4の基盤4aをパン方向に回転させるアクチュエータであり、その回転角はθnで表される。 The actuator 2-B is an actuator that changes the interval between the two cameras 1 (changes the baseline length), and the interval between the cameras 1 is represented by the baseline length b as described above. The actuator 2-N is the foundation 4a of the camera control camera platform 4 an actuator for rotating the pan direction, its rotation angle is expressed by theta n.
ここで、図1に示す制御装置6から、所定の距離に基線長bを変化させる制御信号が送信された場合は、アクチュエータ2−Bが当該所定の距離に基線長を変化させるよう動作する。同様に、制御装置6から、2つのカメラ1の輻輳角を所定の角度に変化させる制御信号が送信された場合は、アクチュエータ2−L-Pおよびアクチュエータ2−L-Rが当該所定の角度に輻輳角を変化させるよう動作する。 Here, when a control signal for changing the base length b to a predetermined distance is transmitted from the control device 6 shown in FIG. 1, the actuator 2-B operates to change the base length to the predetermined distance. Similarly, when a control signal for changing the convergence angle of the two cameras 1 to a predetermined angle is transmitted from the control device 6, the actuator 2-LP and the actuator 2-LR are set to the predetermined angle. Operates to change the convergence angle.
基線長は、図2では、1つのアクチュエータ2−Bにより変化させるような機構として模式的に表されているが、図1に示すように、それぞれのカメラ1を移動させる2つのアクチュエータにより制御されてもよい。また、輻輳角を変化させる2つのアクチュエータ(アクチュエータ2−L-P、アクチュエータ2−L-R)は基本的に、それぞれのカメラを同じ角度だけ回転させることによって所定の輻輳角となるよう動作する。 In FIG. 2, the base line length is schematically represented as a mechanism that is changed by one actuator 2-B. However, as shown in FIG. 1, the base line length is controlled by two actuators that move each camera 1. May be. Further, the two actuators (actuator 2-LP and actuator 2-LR) that change the convergence angle basically operate so as to have a predetermined convergence angle by rotating the respective cameras by the same angle. .
また、本明細書で説明する実施例では、アクチュエータ(モータ)によってカメラ1の位置および方向が調整されるが、これに限定されるものではなく、他の機構によってカメラ1を移動させてもよい。 In the embodiment described in this specification, the position and direction of the camera 1 are adjusted by an actuator (motor). However, the present invention is not limited to this, and the camera 1 may be moved by another mechanism. .
ここで、図3を参照して、3D映像の撮影と放送についてのモデル化を説明する。図3Aには、2台のカメラ(左カメラ1−L、右カメラ1−R)が輻輳撮影法により3D撮影を行う、3D撮影モデルが示されている。左カメラ1−Lと右カメラ1−Rは、基線長bの間隔で配置され、この2台のカメラの光軸がなす角の1/2が輻輳角βで表される。左カメラ1−Lと右カメラ1−Rの画角はそれぞれαであり、カメラの光学中心からの距離(2つの光学中心を結ぶ基線の中点から当該基線に対し垂直に伸ばした直線の距離)が1となる平面を正規化平面と呼び、当該正規化平面上の画角範囲を正規化画角rとする。 Here, with reference to FIG. 3, modeling of shooting and broadcasting of 3D video will be described. FIG. 3A shows a 3D shooting model in which two cameras (the left camera 1-L and the right camera 1-R) perform 3D shooting by the convergence shooting method. The left camera 1-L and the right camera 1-R are arranged at an interval of the base line length b, and 1/2 of the angle formed by the optical axes of the two cameras is represented by the convergence angle β. The angle of view of each of the left camera 1-L and the right camera 1-R is α, and the distance from the optical center of the camera (the distance of a straight line extending perpendicularly to the base line from the midpoint of the base line connecting the two optical centers) A plane in which) is 1 is called a normalized plane, and a field angle range on the normalized plane is a normalized field angle r.
この一対のカメラの光軸交点を通り、両方のカメラの画角範囲が一致する平面が輻輳平面であり、カメラの光学中心から輻輳平面までの距離(2つの光学中心を結ぶ基線の中点から当該基線に対し垂直に伸ばした直線の距離)をgとする。2台のカメラのパン操作によって輻輳角βと距離gが変化し、ズーム操作によって画角αと正規化画角rが変化する。また、基線長bと輻輳角βによって距離gが決定される。基線長b、輻輳角β、および画角αは、撮影条件を表すパラメータである。 The plane passing through the intersection of the optical axes of the pair of cameras and having the same field angle range of both cameras is the convergence plane, and the distance from the optical center of the camera to the convergence plane (from the midpoint of the base line connecting the two optical centers) Let g be the distance of a straight line extending perpendicularly to the base line. The convergence angle β and the distance g are changed by the pan operation of the two cameras, and the view angle α and the normalized view angle r are changed by the zoom operation. The distance g is determined by the base line length b and the convergence angle β. The base line length b, the convergence angle β, and the angle of view α are parameters representing imaging conditions.
図3Bには、3D映像が放送または上映されて人間の両眼により鑑賞がされる、3D放送モデルが示されている。人間の両眼の間隔(光学中心の距離)は、基線長mで表され、スクリーン幅がwで表される。人間の両眼の光学中心からスクリーンまでの距離(2つの光学中心を結ぶ基線の中点から当該基線に対し垂直に伸ばした直線の距離)はdで表される。人間両眼の基線長m、スクリーン幅w、人間両眼の基線とスクリーンとの距離dは、鑑賞条件を表すパラメータである。 FIG. 3B shows a 3D broadcast model in which 3D video is broadcasted or screened and viewed with both human eyes. The distance between human eyes (the distance between the optical centers) is represented by the baseline length m, and the screen width is represented by w. The distance from the optical center of both human eyes to the screen (the distance of a straight line extending perpendicularly to the base line from the midpoint of the base line connecting the two optical centers) is represented by d. The base line length m of human eyes, the screen width w, and the distance d between the base lines of human eyes and the screen are parameters representing viewing conditions.
ここで、正規化画角rは以下の式で近似される。
r=2tan(α/2) ・・・(式1)
また、距離gは、以下の式で近似される。
g=(b/2)cot(β) ・・・(式2)
Here, the normalized angle of view r is approximated by the following equation.
r = 2 tan (α / 2) (Formula 1)
The distance g is approximated by the following expression.
g = (b / 2) cot (β) (Formula 2)
次に、図4を参照して、3D映像の撮影および放送における被写体モデルについて説明する。図4Aは、図3Aにおける3D撮影モデルに対応する被写体モデルを示している。ここで、3D撮影をする際の2台のカメラの光学中心を結ぶ直線(基線)の中点を原点とし、原点から右カメラ1−Rの光学中心に向かう軸をx軸とし、当該原点から2台のカメラの光軸交点に向かう軸をy軸とする二次元平面を撮影平面と定義する。 Next, a subject model in 3D video shooting and broadcasting will be described with reference to FIG. FIG. 4A shows a subject model corresponding to the 3D shooting model in FIG. 3A. Here, the midpoint of the straight line (base line) connecting the optical centers of the two cameras at the time of 3D shooting is the origin, the axis from the origin to the optical center of the right camera 1-R is the x axis, and from the origin A two-dimensional plane having the y-axis as the axis toward the optical axis intersection of the two cameras is defined as an imaging plane.
図4Aの例では、被写体20aが、基線からの距離yにおいて2台のカメラに撮影されている。2台のカメラ(左カメラ1−L、右カメラ1−R)が被写体20aを撮影すると、撮影された画像から、この被写体における左目画像(左カメラ1−Lで撮影された画像)と右目画像(右カメラ1−Rで撮影された画像)の横軸座標の差(視差)が算出され、この視差とスクリーンの幅との比率である視差情報pが求められる。 In the example of FIG. 4A, the subject 20a is captured by two cameras at a distance y from the base line. When two cameras (the left camera 1-L and the right camera 1-R) photograph the subject 20a, a left eye image (an image photographed by the left camera 1-L) and a right eye image of the subject are taken from the photographed image. A difference (parallax) in the horizontal axis coordinate of (an image photographed by the right camera 1-R) is calculated, and parallax information p, which is a ratio between the parallax and the screen width, is obtained.
被写体20aの撮影平面における座標を(x、y)とし、yを被写体の実際距離と定義する。被写体20aの実際距離y、2台のカメラの基線長b、カメラと輻輳平面の距離g、正規化画角r、および被写体の視差情報pの関係は、以下の式で表すことができる。
(g−y)/y=grp/b ・・・(式3)
これより、実際距離は、以下のように求められる。
y=bg/(b+grp) ・・・(式4)
The coordinates of the subject 20a on the photographing plane are defined as (x, y), and y is defined as the actual distance of the subject. The relationship between the actual distance y of the subject 20a, the base line length b of the two cameras, the distance g between the camera and the convergence plane, the normalized angle of view r, and the parallax information p of the subject can be expressed by the following equations.
(G−y) / y = grp / b (Formula 3)
From this, the actual distance is obtained as follows.
y = bg / (b + grp) (Formula 4)
一方、図4Bは、図3Bにおける3D放送モデルに対応する被写体モデルを示している。ここで、3D映像の放送または上映を鑑賞する際の人間両眼の光学中心を結ぶ直線(基線)の中点を原点とし、原点から右眼の光学中心に向かう軸をa軸とし、原点から人間両眼の光学中心を結ぶ基線に垂直方向(正前方)に伸びる軸をz軸とする二次元平面を感知平面と定義する。3D撮影モデルと3D放送モデルとで、撮影平面から感知平面への空間変換が発生する。 On the other hand, FIG. 4B shows a subject model corresponding to the 3D broadcast model in FIG. 3B. Here, the origin of the midpoint of the straight line (base line) connecting the optical centers of the human eyes when viewing 3D video broadcasts or screenings is the origin, and the axis from the origin to the optical center of the right eye is the a-axis. A sensing plane is defined as a two-dimensional plane whose z axis is an axis extending in a direction perpendicular to the base line connecting the optical centers of both human eyes. In the 3D shooting model and the 3D broadcast model, spatial conversion from the shooting plane to the sensing plane occurs.
図4Bの例では、図4Aに示す被写体20aに対応する被写体20bが、基線からの距離zにおいて感知される。被写体20bの感知平面における座標を(a、z)とし、zを被写体の感知距離と定義する。被写体20bの感知距離z、人間両眼の基線長m、人間両眼の基線とスクリーンとの距離d、スクリーン幅w、および被写体の視差情報pの関係は、以下の式で表すことができる。
(d−z)/z=wp/m ・・・(式5)
これより、感知距離は、以下のように求められる。
z=md/(m+wp) ・・・(式6)
In the example of FIG. 4B, the subject 20b corresponding to the subject 20a shown in FIG. 4A is detected at a distance z from the base line. The coordinates on the sensing plane of the subject 20b are (a, z), and z is defined as the sensing distance of the subject. The relationship between the sensing distance z of the subject 20b, the baseline length m of both human eyes, the distance d between the baseline of the human eyes and the screen, the screen width w, and the parallax information p of the subject can be expressed by the following equations.
(D−z) / z = wp / m (Formula 5)
From this, the sensing distance is obtained as follows.
z = md / (m + wp) (Formula 6)
シーンが撮影された後に放送または上映された場合、実際より被写体が近く見える程度(すなわち、被写体の実際距離と被写体の感知距離との比率)を引込率hと定義し、被写体の奥行きの拡大倍率を奥行拡大倍率tと定義する。さらに、被写体の横幅の拡大倍率を横幅拡大倍率sと定義し、奥行拡大倍率と横幅拡大倍率の比率を奥行横幅比率qと定義する。 When a scene is broadcasted or screened after being shot, the extent to which the subject can be seen closer to the actual size (that is, the ratio between the actual distance of the subject and the perceived distance of the subject) is defined as the pulling rate h, and the magnification of the depth of the subject Is defined as a depth enlargement magnification t. Further, the magnification of the width of the subject is defined as the width magnification s, and the ratio between the depth magnification and the width magnification is defined as the depth width ratio q.
箱庭効果(巨人視)は横幅拡大倍率が小さい時に発生する。一方、書割効果は奥行横幅比率が小さい時に発生する。 The miniature garden effect (giant's vision) occurs when the horizontal magnification is small. On the other hand, the book split effect occurs when the depth width ratio is small.
次に、上記で説明した3D撮影モデル、3D放送モデル、および被写体モデルを統合した、統合モデルについて説明する。最初に、3D撮影モデルおよび3D放送モデルに関して、撮影平面の1点(x、y)を感知平面の1点(a、z)に変換する、空間変換関数を求める。 Next, an integrated model obtained by integrating the 3D shooting model, the 3D broadcast model, and the subject model described above will be described. First, regarding the 3D shooting model and the 3D broadcasting model, a spatial conversion function for converting one point (x, y) on the shooting plane to one point (a, z) on the sensing plane is obtained.
A=m−(bw/gr)、B=bw/r、C=lw/r、D=dlとすると、座標aおよび座標zは、それぞれ以下のように求められる。
a=Cx/(Ay+B) ・・・(式7)
z=Dy/(Ay+B) ・・・(式8)
When A = m− (bw / gr), B = bw / r, C = lw / r, and D = dl, the coordinates a and the coordinates z are obtained as follows.
a = Cx / (Ay + B) (Expression 7)
z = Dy / (Ay + B) (Formula 8)
次に、上記空間変換関数を用いて、シーン中の被写体に関する引込率h、奥行拡大倍率t、横幅拡大倍率s、および奥行横幅比率qをそれぞれ求める。
引込率h =y/z=(Ay+B)/D ・・・(式9)
奥行拡大倍率t=∂z/∂y=BD/(Ay+B)2 ・・・(式10)
横幅拡大倍率s=∂a/∂x=C/(Ay+B) ・・・(式11)
奥行横幅比率q=t/s=BD/C(Ay+B) ・・・(式12)
Next, using the space conversion function, the pull-in rate h, the depth enlargement magnification t, the width enlargement magnification s, and the depth width ratio q regarding the subject in the scene are obtained.
Pull-in rate h = y / z = (Ay + B) / D (formula 9)
Depth magnification t = ∂z / ∂y = BD / (Ay + B) 2 (Equation 10)
Width magnification factor s = ∂a / ∂x = C / (Ay + B) (Formula 11)
Depth width ratio q = t / s = BD / C (Ay + B) (Formula 12)
最後に、任意の3D撮影モデル、3D放送モデルで、シーン中の任意の被写体に適用可能な次の2つの方程式が得られる。
hq=B/C=b/m ・・・(式13)
hs=C/D=w/dr ・・・(式14)
Finally, the following two equations that can be applied to any subject in the scene with any 3D shooting model and 3D broadcast model are obtained.
hq = B / C = b / m (Formula 13)
hs = C / D = w / dr (Expression 14)
ここで、式13のb/mは、2台のカメラの基線長bと人間両眼の基線長mの比率であり、これを基線長拡大倍率と定義する。そうすると、式13は、以下の式15(統合モデル式1)で表すことができる。
被写体の引込率×被写体の奥行横幅比率 = 基線長拡大倍率 ・・・(式15)
Here, b / m in Expression 13 is a ratio between the base line length b of the two cameras and the base line length m of both human eyes, and this is defined as the base line length magnification. Then, Expression 13 can be expressed by the following Expression 15 (Integrated Model Expression 1).
Subject pull-in rate x Subject depth width ratio = Baseline length enlargement magnification (Equation 15)
また、式14のd/wは、人間両眼からスクリーンまでの距離とスクリーンの幅との比率であり、これを鑑賞距離倍率と定義する。そうすると、式14は、以下の式16(統合モデル式2)で表すことができる。
被写体の引込率×被写体の横幅拡大倍率×鑑賞距離倍率×正規化画角 = 1
・・・(式16)
Further, d / w in Expression 14 is a ratio of the distance from both human eyes to the screen and the width of the screen, and this is defined as a viewing distance magnification. Then, the equation 14 can be expressed by the following equation 16 (integrated model equation 2).
Subject pull-in rate × Subject width magnification × Viewing distance magnification × Normalized angle of view = 1
... (Formula 16)
次に、図5を参照して、制御装置6の各機能について説明する。本発明の一実施形態に係る制御装置6は、図5に示すように、映像データ受信部6a、撮影条件受信部6b、視差算出部6c、撮影制御処理部6d、カメラ制御部6e、鑑賞条件等受信部6f、設定値受信部6g、エンコーダ部6h、および輻輳角算出部6iを含むよう構成される。さらに、撮影制御処理部6dは、基線長決定部6d−1、輻輳角制御部6d−2、および撮影条件調整部6d−3を含む。 Next, each function of the control device 6 will be described with reference to FIG. As shown in FIG. 5, the control device 6 according to an embodiment of the present invention includes a video data receiving unit 6a, a shooting condition receiving unit 6b, a parallax calculating unit 6c, a shooting control processing unit 6d, a camera control unit 6e, and viewing conditions. An equal reception unit 6f, a set value reception unit 6g, an encoder unit 6h, and a convergence angle calculation unit 6i are configured. Furthermore, the imaging control processing unit 6d includes a baseline length determination unit 6d-1, a convergence angle control unit 6d-2, and an imaging condition adjustment unit 6d-3.
映像データ受信部6aは、2台のカメラ1(左カメラ1−Lおよび右カメラ1−R)にケーブル等で接続され、これらのカメラ1を用いて輻輳撮影法により3D撮影された(左右で同期のとれた)映像データを受信する。また、映像データ受信部6aは、カメラ1においてユーザが指定した、または、被写体の追従等による自動的な指定によって生成された被写体を指すデータ等(たとえば、座標データ)も、必要に応じて受信する。 The video data receiving unit 6a is connected to two cameras 1 (the left camera 1-L and the right camera 1-R) with a cable or the like, and these cameras 1 are used to perform 3D shooting by the convergence shooting method (on the left and right sides). Receive synchronized video data. The video data receiving unit 6a also receives data (for example, coordinate data) indicating a subject specified by the user in the camera 1 or generated by automatic designation by subject tracking or the like as needed. To do.
撮影条件受信部6bは、2台のカメラ1にケーブル等で接続され、これらのカメラ1から、撮影条件を表すパラメータを受信する。また、移動量計測装置3(画角計測装置3a、実際距離計測装置3b)にケーブル等で接続され、これらの装置からも撮影条件を表すパラメータを受信する。また、基線長計測装置3cにより計測された基線長bや、輻輳角算出部6iが記憶する輻輳角βも必要に応じて受信する。 The imaging condition receiving unit 6b is connected to the two cameras 1 with cables or the like, and receives parameters representing the imaging conditions from these cameras 1. Further, the movement amount measuring device 3 (view angle measuring device 3a, actual distance measuring device 3b) is connected by a cable or the like, and parameters representing imaging conditions are also received from these devices. Further, the base line length b measured by the base line length measuring device 3c and the convergence angle β stored by the convergence angle calculation unit 6i are received as necessary.
パラメータとしては、たとえば、カメラ1から焦点距離や撮像素子幅を必要に応じて受信する。焦点距離および撮像素子幅は、画角αを計算する場合に使用される。また、画角計測装置3aからは、計測された画角αを受信し、実際距離計測装置3bからは、計測された(カメラ1の基線中点から)被写体までの実際距離y、または実際距離yを求めるために使用される距離データを受信する。画角計測装置3aおよび実際距離計測装置3bは、図5では、カメラ1の外部に別の装置として構成されている。たとえば、実際距離計測装置3bとして、アクティブ方式レーザーセンサなどのレーザー距離計を用いることができ、この場合は、近距離の被写体を計測するのに特に適している。しかしながら、画角計測装置3aや実際距離計測装置3bの少なくとも一部の機能部が、カメラ1に組み込まれるように構成されてもよい。 As parameters, for example, the focal length and the image sensor width are received from the camera 1 as necessary. The focal length and the imaging element width are used when calculating the angle of view α. Further, the measured angle of view α is received from the angle of view measuring device 3a, and the actual distance y or the actual distance to the subject (from the base line midpoint of the camera 1) is measured from the actual distance measuring device 3b. Receive distance data used to determine y. The angle-of-view measuring device 3a and the actual distance measuring device 3b are configured as separate devices outside the camera 1 in FIG. For example, a laser distance meter such as an active laser sensor can be used as the actual distance measuring device 3b, and in this case, it is particularly suitable for measuring a subject at a short distance. However, at least some of the functional units of the angle-of-view measurement device 3a and the actual distance measurement device 3b may be configured to be incorporated in the camera 1.
視差算出部6cは、映像データ受信部6aで受信したカメラ1の左右の映像データから、それぞれ被写体の特徴点を抽出し、これらの特徴点をマッチングすることにより横軸座標の差(視差)を算出する。被写体は、撮影された映像のなかの特定のオブジェクトであり、カメラマンや3Dグラファーが撮影時に(たとえば、カメラの入力手段を用いて入力することにより)選択したり、あるいは自動的に選択するなど、様々な方法で指定することができる。こうして指定された被写体に関する座標データは、映像データと同様、カメラ1から映像データ受信部6aを経由して視差算出部6cに送信される。 The parallax calculation unit 6c extracts the feature points of the subject from the left and right video data of the camera 1 received by the video data reception unit 6a, and matches these feature points to obtain the difference (parallax) in the horizontal axis. calculate. The subject is a specific object in the captured video, and is selected by a photographer or 3D grapher at the time of shooting (for example, by inputting using the input means of the camera) or automatically. It can be specified in various ways. The coordinate data relating to the subject thus designated is transmitted from the camera 1 to the parallax calculation unit 6c via the video data reception unit 6a in the same manner as the video data.
特徴点の抽出方法としては、被写体選択位置のある半径内の特徴点、分割された特定の領域分内の特徴点、すべての特徴点(すべての視差の平均や重み付け平均値を視差とする)など、様々な方法を採用することができる。また、特徴点のマッチング方法は、SIFT法等の既知の様々な方法を用いて行うことができる。 Feature point extraction methods include feature points within a radius where the subject is selected, feature points within a specific segmented area, and all feature points (all parallax averages and weighted average values are parallaxes) Various methods can be employed. The feature point matching method can be performed using various known methods such as the SIFT method.
ここで求められる視差は、後述する撮影制御処理部6dにおいて、スクリーン幅wとの比率(ピクセルベースまたは物理長(メートル)ベース)が求められ、求められた値が視差情報pとして、その後の計算に用いられる。 The parallax obtained here is obtained by calculating the ratio (pixel base or physical length (meter) base) with the screen width w in the photographing control processing unit 6d described later, and the obtained value is the parallax information p. Used for.
撮影制御処理部6dは、上述した統合モデル等から導かれる条件にしたがって、3D撮影に好適なカメラ1の基線長を決定し、輻輳角を制御する。また、安全な基線長および輻輳角の範囲を決定する。詳細な方法については後で説明する。 The imaging control processing unit 6d determines the baseline length of the camera 1 suitable for 3D imaging according to the conditions derived from the above-described integrated model and the like, and controls the convergence angle. It also determines the safe baseline length and range of convergence angles. A detailed method will be described later.
カメラ制御部6eは、撮影制御処理部6dの基線長決定部6d−1によって決定された基線長を受信するとともに、移動量計測装置3(基線長計測装置3c)からの計測データを受信し、カメラ1がその基線長になるよう、カメラ1の水平位置(間隔)を、カメラ1の角度を変えることなく調整する。そのために、カメラ制御部6eは、アクチュエータ2を動作させるための制御データをアクチュエータ2に送信する。たとえば、カメラ1の基線長bを調整するために、アクチュエータ2−Bの動作を制御する(図2参照)。 The camera control unit 6e receives the baseline length determined by the baseline length determination unit 6d-1 of the imaging control processing unit 6d and receives measurement data from the movement amount measurement device 3 (baseline length measurement device 3c). The horizontal position (interval) of the camera 1 is adjusted without changing the angle of the camera 1 so that the camera 1 has the baseline length. For this purpose, the camera control unit 6 e transmits control data for operating the actuator 2 to the actuator 2. For example, in order to adjust the base line length b of the camera 1, the operation of the actuator 2-B is controlled (see FIG. 2).
また、カメラ制御部6eは、撮影制御処理部6dの輻輳角制御部6d−2によってカメラ1の輻輳角βをフィードバック制御する。輻輳角制御部6d−2は、視差算出部6cから受信する視差に応じて、カメラ1の角度を調整する。そのために、カメラ制御部6eは、アクチュエータ2を動作させるための制御データをアクチュエータ2に送信する。カメラ1の輻輳角βを調整するために、アクチュエータ2−L-P、およびアクチュエータ2−R-Pの動作を制御する(図2参照)。 In addition, the camera control unit 6e feedback-controls the convergence angle β of the camera 1 by the convergence angle control unit 6d-2 of the imaging control processing unit 6d. The convergence angle control unit 6d-2 adjusts the angle of the camera 1 according to the parallax received from the parallax calculation unit 6c. For this purpose, the camera control unit 6 e transmits control data for operating the actuator 2 to the actuator 2. In order to adjust the convergence angle β of the camera 1, the operations of the actuator 2-LP and the actuator 2-RP are controlled (see FIG. 2).
アクチュエータ(モータ)の制御は、たとえば、カメラ制御部6eから出力されたデジタル信号がD/A変換され、変換後のアナログ信号がモータのドライバに入力され、そのドライバによってモータが指定された移動量だけ移動するよう駆動される。移動量計測装置3は、たとえば、モータに設置されている移動量検出センサであり、これによって検出されたモータの回転角信号がA/D変換され、変換後のデジタル信号がカメラ制御部6eに送信される。 For the control of the actuator (motor), for example, the digital signal output from the camera control unit 6e is D / A converted, the converted analog signal is input to the motor driver, and the motor is designated by the driver. Driven to move only. The movement amount measuring device 3 is, for example, a movement amount detection sensor installed in a motor. A rotation angle signal of the motor detected thereby is A / D converted, and the converted digital signal is sent to the camera control unit 6e. Sent.
アクチュエータ2−Bによる制御の結果として生じるカメラ1の基線長bの変化は、基線長計測装置3cによって計測され、計測結果がカメラ制御部6eに送信される。カメラ制御部6eは、この計測結果を用いて、アクチュエータ2−Bの動作について、PID制御のようなフィードバック制御やフィードフォワード制御等を行う。 The change in the baseline length b of the camera 1 that occurs as a result of the control by the actuator 2-B is measured by the baseline length measuring device 3c, and the measurement result is transmitted to the camera control unit 6e. The camera control unit 6e performs feedback control such as PID control, feedforward control, and the like on the operation of the actuator 2-B using the measurement result.
図5では、基線長計測装置3cおよび回転角計測装置3dは、説明の便宜のため、カメラ1やアクチュエータ2の外部に別の装置として構成されているが、これらの少なくとも一部の機能部が、カメラ1やアクチュエータ2に組み込まれるように構成されてもよい(上述のように、モータに設置されている移動量検出センサのようなものであってもよい)。また、アクチュエータ2は、ここではフィードバック制御やフィードフォワード制御がされることを前提としているが、必ずしもこのような制御は必須ではない。 In FIG. 5, for the convenience of explanation, the baseline length measuring device 3 c and the rotation angle measuring device 3 d are configured as separate devices outside the camera 1 and the actuator 2, but at least some of these functional units are included. The camera 1 or the actuator 2 may be incorporated (as described above, it may be a movement amount detection sensor installed in the motor). The actuator 2 is premised on feedback control or feedforward control here, but such control is not necessarily required.
鑑賞条件等受信部6fは、人間両眼の基線長m、スクリーン幅w、および人間両眼の基線とスクリーンとの距離dといった、鑑賞者が3D映像を鑑賞する鑑賞条件に関するデータを受信する。また、カメラ1の撮像素子の幅といった、カメラ1の基線長bを求めるために、または輻輳角βを制御するために利用されるデータ等を受信する。これらのデータは、ユーザ等からキーボードなどの入力手段を介して入力してもよいし、任意の手段で自動的に送信されるようにしてもよい。なお、この実施例においては、人間両眼の基線長mを鑑賞条件等受信部6fで受信するように構成されるが、事前に設定した定数(たとえば、60mm)を登録しておくことができ、この場合、人間両眼の基線長mとして、その定数を使用することができる。 The viewing condition receiving unit 6f receives data related to viewing conditions for the viewer to view the 3D video, such as the baseline length m of the human eyes, the screen width w, and the distance d between the baseline of the human eyes and the screen. In addition, data used for obtaining the base line length b of the camera 1 such as the width of the image sensor of the camera 1 or for controlling the convergence angle β is received. These data may be input from a user or the like via input means such as a keyboard, or may be automatically transmitted by any means. In this embodiment, the base line length m of both human eyes is configured to be received by the receiving unit 6f such as viewing conditions, but a preset constant (for example, 60 mm) can be registered. In this case, the constant can be used as the baseline length m of both human eyes.
設定値受信部6gは、カメラ1の基線長bを求めるため、または輻輳角βを制御するための前提とされる、ユーザ等により指定された指定データを受信する。たとえば、指定された視差を受信する視差受信部、指定された引込率を受信する引込率受信部を含む。さらに、指定された奥行横幅比率を受信する奥行横幅比率受信部や、指定された横幅拡大倍率を受信する横幅拡大倍率部を含む。また、安全視差の調整に利用される、許容視差範囲を受信する許容視差範囲受信手段も含む。これらの指定データは通常、ユーザ等からキーボードなどの入力手段を介して入力され登録される。 The set value receiving unit 6g receives designated data designated by a user or the like, which is a precondition for obtaining the base line length b of the camera 1 or controlling the convergence angle β. For example, a parallax receiving unit that receives a specified parallax and a pull-in rate receiving unit that receives a specified pull-in rate are included. Further, a depth width ratio receiving unit that receives the specified depth width ratio and a width expansion magnification unit that receives the specified width expansion ratio are included. Also included is an allowable parallax range receiving means for receiving the allowable parallax range, which is used for adjusting the safe parallax. These designation data are usually entered and registered by a user or the like via an input means such as a keyboard.
エンコーダ部6hは、映像データ受信部6aで受信した映像に必要な処理を施した後に所定のデータ形式にエンコードし、これを3D映像データとして出力する。 The encoder 6h performs necessary processing on the video received by the video data receiver 6a, encodes it into a predetermined data format, and outputs this as 3D video data.
輻輳角算出部6iは、回転角計測装置3dから回転角θを受信し、このデータに基づいてカメラ1の輻輳角βを算出し記憶する。輻輳角βの値は、カメラ制御部6eに送信されるとともに、撮影条件受信部6bに送信される。 The convergence angle calculation unit 6i receives the rotation angle θ from the rotation angle measurement device 3d, and calculates and stores the convergence angle β of the camera 1 based on this data. The value of the convergence angle β is transmitted to the camera control unit 6e and to the imaging condition reception unit 6b.
次に、撮影制御処理部6dにおける制御方法について説明する。 Next, a control method in the imaging control processing unit 6d will be described.
[統合モデル式1に基づく制御]
撮影制御処理部6dは、上述の統合モデル式1で表される関係を用いて、いくつかのパターンの制御を行う。ここでは、代表的な4つのパターンについて説明を行う。
[Control based on integrated model formula 1]
The imaging control processing unit 6d controls several patterns using the relationship expressed by the integrated model equation 1 described above. Here, four typical patterns will be described.
・第1の制御
統合モデル式1で示されるように、好適な基線長拡大率(b/m)は、被写体の引込率h×被写体の奥行横幅比率qに比例する。被写体の引込率hは、被写体の実際距離yと感知距離zを用いて算出される。ここで、書割効果の問題を効果的に排除できるよう、統合モデル式1の被写体の奥行横幅比率qを既定値1に設定する。
First Control As shown in the integrated model equation 1, the preferred baseline length enlargement ratio (b / m) is proportional to the subject pull-in rate h × the subject depth width ratio q. The pull-in rate h of the subject is calculated using the actual distance y and the sensing distance z of the subject. Here, the depth width ratio q of the subject of the integrated model equation 1 is set to a default value 1 so that the problem of the book split effect can be effectively eliminated.
このような場合、すなわち、被写体の奥行横幅比率qを定数に指定した場合、好適な基線長拡大率(b/m)は、被写体の引込率hに比例する。ただし、被写体の奥行横幅比率qは、他の所定関数とすることもでき(ここで、定数は一種の関数(定数関数)である)、この場合、好適な基線長拡大率(b/m)と被写体の引込率hが、この所定関数により対応付けられる関係を有する。ここで、所定関数は、たとえば、被写体とカメラ1の距離が近い場合は1で、遠い場合は0.5となるような、実際距離yの関数として表現することができる。また、被写体の奥行横幅比率qは、以下のような式(所定関数)で表すこともできる(ただし、kは係数)。
q=k2/3 ・・・ (式17)
また、統合モデル式1では、被写体の奥行横幅比率qは、被写体の実際距離y、カメラの基線長b、カメラと輻輳平面の距離g、正規化画角rの関数となる。
In such a case, that is, when the depth width ratio q of the subject is designated as a constant, a suitable baseline length enlargement rate (b / m) is proportional to the subject pulling rate h. However, the depth width ratio q of the subject may be another predetermined function (here, the constant is a kind of function (constant function)), and in this case, a suitable baseline length enlargement ratio (b / m) And the subject pull-in rate h have a relationship associated with each other by this predetermined function. Here, the predetermined function can be expressed as a function of the actual distance y, for example, 1 when the distance between the subject and the camera 1 is short and 0.5 when the distance is long. The depth width ratio q of the subject can also be expressed by the following formula (predetermined function) (where k is a coefficient).
q = k 2/3 (Formula 17)
In the integrated model equation 1, the depth width ratio q of the subject is a function of the actual distance y of the subject, the base length b of the camera, the distance g between the camera and the convergence plane, and the normalized angle of view r.
そうすると、統合モデル式1によって、カメラ1の基線長を求めることができる。基線長決定部6d−1は、このようにしてカメラ1の基線長を決定し、決定された基線長bをカメラ制御部6eに送信し、カメラ制御部6eの制御によって、カメラ1の基線長が、当該決定された基線長bに調整される。 Then, the baseline length of the camera 1 can be obtained by the integrated model equation 1. The base line length determination unit 6d-1 determines the base line length of the camera 1 in this way, transmits the determined base line length b to the camera control unit 6e, and is controlled by the camera control unit 6e, so that the base line length of the camera 1 is determined. Is adjusted to the determined baseline length b.
カメラ1の基線長bを求めるためには、被写体の実際距離y、被写体の感知距離z、および人間両眼の基線長mが分かればよい。被写体の実際距離yは、実際距離計測装置3bの計測結果を用いることができる。また、被写体の実際距離yは、被写体の視差情報p、カメラ1の基線長b、カメラ1の基線と輻輳平面の距離g、正規化画角rにより算出することができるので、カメラ1の基線長b以外の値を求めることによって、最終的にカメラ1の基線長bを求めることができる。 In order to obtain the baseline length b of the camera 1, it is only necessary to know the actual distance y of the subject, the sensing distance z of the subject, and the baseline length m of both human eyes. As the actual distance y of the subject, the measurement result of the actual distance measuring device 3b can be used. The actual distance y of the subject can be calculated from the parallax information p of the subject, the base line length b of the camera 1, the distance g between the base line of the camera 1 and the convergence plane, and the normalized angle of view r. By obtaining a value other than the length b, the base line length b of the camera 1 can be finally obtained.
被写体の視差情報pは、視差算出部6cから送信された視差とスクリーン幅wとから求められる。カメラ1の基線と輻輳平面の距離gは、上述したように、カメラ1の基線長bと輻輳角βから求めることができる。輻輳角βは、回転角計測装置3dで計測される回転角に基づいて求めることができ、たとえば、輻輳角算出部6iにより記憶された輻輳角βが、撮影条件受信部6bを経由して撮影制御処理部6dに送信される。正規化画角rは、上述のように、カメラ1の画角αから求めることができ、画角αは、画角計測装置3aで計測された画角、または、撮影条件受信部6bで受信したカメラ1の焦点距離およびカメラ1の撮像素子幅から求められる。カメラ1の撮像素子幅は、鑑賞条件等受信部6fからユーザ等によって入力された値を用いることもできる。 The parallax information p of the subject is obtained from the parallax transmitted from the parallax calculation unit 6c and the screen width w. The distance g between the base line of the camera 1 and the convergence plane can be obtained from the base line length b of the camera 1 and the convergence angle β as described above. The convergence angle β can be obtained based on the rotation angle measured by the rotation angle measurement device 3d. For example, the convergence angle β stored by the convergence angle calculation unit 6i is imaged via the imaging condition reception unit 6b. It is transmitted to the control processing unit 6d. The normalized angle of view r can be obtained from the angle of view α of the camera 1 as described above. The angle of view α is received by the angle of view measured by the angle of view measuring device 3a or the photographing condition receiving unit 6b. Obtained from the focal length of the camera 1 and the image sensor width of the camera 1. As the image sensor width of the camera 1, a value input by the user or the like from the viewing condition receiving unit 6f can be used.
被写体の感知距離zは、被写体の視差情報pと鑑賞条件(すなわち、人間両眼の基線長m、スクリーン幅w、人間両眼の基線とスクリーンとの距離d)を用いて算出される。 The sensing distance z of the subject is calculated using the parallax information p of the subject and viewing conditions (that is, the baseline length m of the human eyes, the screen width w, and the distance d between the baseline of the human eyes and the screen).
・第2の制御
第2の制御では、ユーザ等から視差の値が指定される。設定値受信部6gによって、ユーザ等から指定された視差の値が撮影制御処理部6dに提供されると、輻輳角制御部6d−2は、カメラ1が撮影する映像データを元に視差算出部6cで算出された視差を受信しながら、指定された視差が維持されるようにカメラ制御部6eを制御し、輻輳角βを調整する(フィードバック制御(PID制御))。
Second control In the second control, a parallax value is designated by the user or the like. When the setting value receiving unit 6g provides the parallax value designated by the user or the like to the shooting control processing unit 6d, the convergence angle control unit 6d-2 uses the parallax calculation unit based on the video data shot by the camera 1. While receiving the parallax calculated in 6c, the camera control unit 6e is controlled so that the designated parallax is maintained, and the convergence angle β is adjusted (feedback control (PID control)).
このとき、統合モデル式1においては、視差が指定されたことによって、視差情報pが求まり(wが既知)、次いで、視差情報pと鑑賞条件(人間両眼の基線長m、スクリーン幅w、人間両眼の基線とスクリーンとの距離d)とから被写体の感知距離zも求められる。そして、調整された輻輳角βにより変化した被写体の実際距離yが把握される。撮影制御処理部6dの基線長決定部6d−1は、被写体の実際距離yと被写体の感知距離zから、変化した引込率hを求め、これに基づいて基線長bを決定し、カメラ制御部6eによって、カメラ1の基線長が、決定された基線長bに制御される。 At this time, in the integrated model equation 1, by specifying the parallax, the parallax information p is obtained (w is known), and then the parallax information p and the viewing conditions (base line length m of human binoculars, screen width w, The sensing distance z of the subject can also be obtained from the distance d) between the base line of both human eyes and the screen. Then, the actual distance y of the subject changed by the adjusted convergence angle β is grasped. The baseline length determination unit 6d-1 of the imaging control processing unit 6d obtains the changed pulling rate h from the actual distance y of the subject and the sensing distance z of the subject, determines the baseline length b based on this, and the camera control unit The base line length of the camera 1 is controlled to the determined base line length b by 6e.
なお、被写体の実際距離yは、実際距離計測装置3bの計測結果を用いることもできるが、上記第1の制御で説明したように、当該計測結果を用いずに最終的に基線長bを決定するようにもできる。 As the actual distance y of the subject, the measurement result of the actual distance measuring device 3b can be used, but as described in the first control, the baseline length b is finally determined without using the measurement result. You can also
また、第2の制御においては、ユーザ等から視差の値が指定された後、輻輳角βを調整するプロセスと基線長bを制御するプロセスは、非同期で実行され得る。 In the second control, after the parallax value is specified by the user or the like, the process of adjusting the convergence angle β and the process of controlling the baseline length b can be executed asynchronously.
・第3の制御
第3の制御では、ユーザ等から被写体の引込率hの値が指定される。設定値受信部6gによって、ユーザ等から指定された引込率の値が撮影制御処理部6dに提供される。撮影制御処理部6dの基線長決定部6d−1は、指定された引込率hによって基線長bを決定し、カメラ制御部6eによって、カメラ1の基線長が、決定された基線長bに制御される。
Third Control In the third control, the value of the subject pull-in rate h is designated by the user or the like. The set value receiving unit 6g provides the value of the pull-in rate designated by the user or the like to the imaging control processing unit 6d. The baseline length determination unit 6d-1 of the imaging control processing unit 6d determines the baseline length b based on the specified pull-in rate h, and the camera control unit 6e controls the baseline length of the camera 1 to the determined baseline length b. Is done.
また、撮影制御処理部6dは、指定された引込率hと被写体の実際距離yから被写体の感知距離zを求め、被写体の感知距離zと鑑賞条件(m、w、dは既知)とからさらに視差情報pおよび視差を求める。そうすると、輻輳角制御部6d−2は、カメラ1が撮影する映像データを元に視差算出部6cで算出された視差を受信しながら、求められた視差が維持されるように、カメラ制御部6eの制御により輻輳角βをフィードバック制御(PID制御)する。 Further, the photographing control processing unit 6d obtains the sensing distance z of the subject from the designated pull-in rate h and the actual distance y of the subject, and further from the sensing distance z of the subject and the viewing conditions (m, w, and d are known). The parallax information p and the parallax are obtained. Then, the convergence angle control unit 6d-2 receives the parallax calculated by the parallax calculation unit 6c based on the video data captured by the camera 1, and maintains the calculated parallax so as to maintain the parallax. The convergence angle β is feedback controlled (PID control) by the above control.
なお、被写体の実際距離yは、実際距離計測装置3bの計測結果を用いることもできるが、上記第1の制御で説明したように、当該計測結果を用いずに実際距離yを算出することもできる。 As the actual distance y of the subject, the measurement result of the actual distance measuring device 3b can be used. However, as described in the first control, the actual distance y can be calculated without using the measurement result. it can.
また、第3の制御においては、第2の制御と同様、ユーザ等から被写体の引込率hの値が指定された後、輻輳角βを調整するプロセスと基線長bを制御するプロセスは、非同期で実行され得る。 In the third control, the process of adjusting the convergence angle β and the process of controlling the baseline length b are asynchronous after the subject pull-in rate h is specified by the user or the like, as in the second control. Can be executed in
・第4の制御
第4の制御では、これまで既定値1または他の所定関数として扱ってきた奥行横幅比率qの値を、ユーザ等が指定した値とする。設定値受信部6gによって、ユーザ等から指定された奥行横幅比率の値が撮影制御処理部6dに提供される。撮影制御処理部6dは、上述した第1の制御から第3の制御の処理において、奥行横幅比率qに、ここで指定された値を(これまでの値の代わりに)用いて基線長の決定等を行う。
-Fourth control In the fourth control, the value of the depth width ratio q that has been treated as the default value 1 or other predetermined function so far is set to a value designated by the user or the like. The setting value receiving unit 6g provides the photographing control processing unit 6d with the value of the depth width ratio designated by the user or the like. The imaging control processing unit 6d determines the baseline length using the value specified here (instead of the previous value) for the depth width ratio q in the first to third control processes described above. Etc.
[統合モデル式1および統合モデル式2に基づく制御]
撮影制御処理部6dは、上述の統合モデル式1と統合モデル式2で表される関係を用いて、いくつかのパターンの制御を行う。ここでは、代表的な2つのパターンについて説明を行う。
[Control based on integrated model formula 1 and integrated model formula 2]
The imaging control processing unit 6d controls several patterns using the relationship expressed by the integrated model equation 1 and the integrated model equation 2 described above. Here, two typical patterns will be described.
・第5の制御
統合モデル式2で示されるように、被写体の引込率h、被写体の横幅拡大倍率s、鑑賞距離倍率(d/w)、および正規化画角rの乗算は、定数(=1)になる。ここで、箱庭効果の問題を効果的に制御できるよう、カメラ1のズームを調整して画角αを変化させ、被写体の横幅拡大倍率sを1に保持する。また、鑑賞距離倍率(d/w)は、ユーザ等により鑑賞条件として事前に入力されるため、被写体の引込率hと正規化画角rの乗算も定数になる。
-Fifth Control As shown in the integrated model equation 2, the multiplication of the subject pull-in rate h, the subject horizontal magnification s, the viewing distance magnification (d / w), and the normalized angle of view r is a constant (= 1). Here, in order to effectively control the problem of the miniature garden effect, the zoom of the camera 1 is adjusted to change the angle of view α, and the horizontal magnification factor s of the subject is held at 1. Since the viewing distance magnification (d / w) is input in advance as viewing conditions by the user or the like, the multiplication of the subject drawing rate h and the normalized angle of view r is also a constant.
被写体の横幅拡大倍率sは、上述した被写体の奥行横幅比率qと同様、定数ではなく、所定関数とすることもできる。統合モデル式2に従えば、被写体の被写体の横幅拡大倍率sは、被写体の実際距離y、カメラの基線長b、カメラと輻輳平面の距離g、正規化画角rの関数となる。 The horizontal width magnification factor s of the subject is not a constant, but can be a predetermined function, like the depth width ratio q of the subject described above. According to the integrated model equation 2, the horizontal width magnification factor s of the subject is a function of the actual distance y of the subject, the base length b of the camera, the distance g of the camera and the convergence plane, and the normalized angle of view r.
このとき、撮影制御処理部6dは、統合モデル式2に基づいて、画角計測装置3aによって計測された、あるいは焦点距離から求められた画角αにより正規化画角rを求め、これによって好適な引込率hを算出する。 At this time, the imaging control processing unit 6d obtains the normalized view angle r based on the view angle α measured by the view angle measurement device 3a or obtained from the focal length based on the integrated model equation 2, and is thus preferable. The pull-in rate h is calculated.
次に、基線長決定部6d−1は、算出された引込率hから基線長bを決定し、カメラ制御部6eによって、カメラ1の基線長が、決定された基線長bに制御される。 Next, the baseline length determination unit 6d-1 determines the baseline length b from the calculated pull-in rate h, and the camera control unit 6e controls the baseline length of the camera 1 to the determined baseline length b.
また、撮影制御処理部6dは、統合モデル式1に基づいて、算出された引込率hと被写体の実際距離yから被写体の感知距離zを求め、被写体の感知距離zと鑑賞条件(m、w、dは既知)とからさらに視差情報pおよび視差を求める。ここで、輻輳角制御部6d−2は、カメラ1が撮影する映像データを元に視差算出部6cで算出された視差を受信しながら、求められた視差が維持されるように、カメラ制御部6eの制御により輻輳角βをフィードバック制御(PID制御)する。 Further, the imaging control processing unit 6d obtains the subject sensing distance z from the calculated pull-in rate h and the subject actual distance y based on the integrated model equation 1, and obtains the subject sensing distance z and the viewing conditions (m, w). , D are known), and further, parallax information p and parallax are obtained. Here, the convergence angle control unit 6d-2 receives the parallax calculated by the parallax calculation unit 6c based on the video data captured by the camera 1, and maintains the obtained parallax. The convergence angle β is feedback controlled (PID control) by the control of 6e.
なお、被写体の実際距離yは、実際距離計測装置3bの計測結果を用いることもできるが、上記第1の制御で説明したように、当該計測結果を用いずに実際距離yを算出することもできる。 As the actual distance y of the subject, the measurement result of the actual distance measuring device 3b can be used. However, as described in the first control, the actual distance y can be calculated without using the measurement result. it can.
また、第5の制御においては、引込率hが算出された後、輻輳角βを調整するプロセスと基線長bを制御するプロセスは、非同期で実行され得る。 In the fifth control, after the pull-in rate h is calculated, the process for adjusting the convergence angle β and the process for controlling the baseline length b can be executed asynchronously.
・第6の制御
第6の制御では、第5の制御において1として保持していた横幅拡大倍率sの値を、ユーザ等が指定した値とする。設定値受信部6gによって、ユーザ等から指定された横幅拡大倍率の値が撮影制御処理部6dに提供される。撮影制御処理部6dは、上述した第5の制御の処理において、横幅拡大倍率sに、ここで指定された値を用いて輻輳角の制御等を行う。
-Sixth control In the sixth control, the value of the horizontal magnification factor s held as 1 in the fifth control is set to a value designated by the user or the like. The set value receiving unit 6g provides the photographing control processing unit 6d with the value of the horizontal width magnification specified by the user or the like. In the fifth control process described above, the imaging control processing unit 6d controls the convergence angle and the like using the value specified here for the horizontal magnification factor s.
[安全性に基づく制御]
撮影制御処理部6dは、3D映像の安全性に関して、第7の制御を行うことができる。撮影制御処理部6dは、所定の安全ガイドライン、たとえば、3Dに関する安全ガイドライン(3DC安全ガイドライン(3Dコンソーシアム、安全ガイドライン部会))に基づいて、安全な視差範囲となるよう、基線長bおよび輻輳角βを制御する。
[Control based on safety]
The imaging control processing unit 6d can perform the seventh control regarding the safety of the 3D video. The imaging control processing unit 6d uses a baseline length b and a convergence angle β so that a safe parallax range is obtained based on a predetermined safety guideline, for example, a 3D safety guideline (3DC safety guideline (3D consortium, safety guideline group)). To control.
撮影制御処理部6dの撮影条件調整部6d−3は、ユーザ等により事前に指定され設定値受信部6gより受信した許容視差範囲(p_lower, p_upper)、視差算出部6cにより算出された画像全体の視差の範囲(p_min(t), p_max(t))の現在値、および基線長計測装置3cから受信したカメラ1の現在の基線長b(t)を用いて、次の時刻の基線長の許容範囲(特に最大値b_upper(t+1)を指す)を、以下の式18を用いて決定する。ここで、画像全体の視差とは、カメラ1により撮影された画像について、一部の特徴点ではなく、全部またはほとんどのピクセル(画素)における視差であり、この視差を求めることによって、画像全体の視差の範囲(p_min(t), p_max(t))が得られる。 The shooting condition adjustment unit 6d-3 of the shooting control processing unit 6d specifies the allowable parallax range (p_lower, p_upper) specified in advance by the user or the like and received from the set value receiving unit 6g, and the entire image calculated by the parallax calculation unit 6c. Using the current value of the parallax range (p_min (t), p_max (t)) and the current baseline length b (t) of the camera 1 received from the baseline length measuring device 3c, the tolerance of the baseline length at the next time A range (particularly pointing to the maximum value b_upper (t + 1)) is determined using Equation 18 below. Here, the parallax of the entire image refers to the parallax of all or most of the pixels (pixels) instead of some feature points of the image taken by the camera 1. By obtaining this parallax, The parallax range (p_min (t), p_max (t)) is obtained.
b_upper(t+1)=b(t)・(p_upper−p_lower)/(p_max(t)−p_min(t))
・・・(式18)
b_upper (t + 1) = b (t) · (p_upper−p_lower) / (p_max (t) −p_min (t))
... (Formula 18)
式18が示すように、次の時刻(t+1)における基線長bの上限b_upper(t+1)は、現在時刻(t)の基線長b(t)と画像全体の視差の範囲の最大値と最小値の差、および許容視差範囲の上限と下限の差との比率に基づいて定められる。 As shown in Equation 18, the upper limit b_upper (t + 1) of the baseline length b at the next time (t + 1) is the maximum and minimum values of the baseline length b (t) at the current time (t) and the parallax range of the entire image. And the ratio of the difference between the upper limit and the lower limit of the allowable parallax range.
また、撮影条件調整部6d−3は、ユーザ等により事前に指定され設定値受信部6gより受信した許容視差範囲(p_lower, p_upper)、視差算出部6cにより算出された画像全体の視差の範囲(p_min(t), p_max(t))の現在値、および輻輳角算出部6iにより記憶されているカメラ1の現在の輻輳角β(t)を用いて、次の時刻の輻輳角の許容範囲を、以下の式19および式20を用いて決定する。 Further, the imaging condition adjustment unit 6d-3 specifies the allowable parallax ranges (p_lower, p_upper) designated in advance by the user or the like and received from the set value receiving unit 6g, and the parallax range of the entire image calculated by the parallax calculation unit 6c ( Using the current value of p_min (t), p_max (t)) and the current convergence angle β (t) of the camera 1 stored by the convergence angle calculation unit 6i, the allowable range of the convergence angle at the next time is determined. The following equations 19 and 20 are used for determination.
β_upper(t+1)=β(t)+δ (p_max(t)<p_upper)
=β(t)−δ (p_max(t)>p_upper) ・・・(式19)
β_lower(t+1)=β(t)+δ (p_min(t)>p_lower)
=β(t)−δ (p_min(t)<p_lower) ・・・(式20)
ここで、δの大きさは、許容視差範囲と画像全体の視差との差や時刻(t)をはじめとする様々な要素に応じて適宜調整することができ、たとえば、0.01度といった値が用いられ得る。
β_upper (t + 1) = β (t) + δ (p_max (t) <p_upper)
= Β (t) −δ (p_max (t)> p_upper) (Equation 19)
β_lower (t + 1) = β (t) + δ (p_min (t)> p_lower)
= Β (t) −δ (p_min (t) <p_lower) (Equation 20)
Here, the magnitude of δ can be appropriately adjusted according to various factors including the difference between the allowable parallax range and the parallax of the entire image and the time (t). Can be used.
式19からわかるように、次の時刻(t+1)における輻輳角の上限β_upper(t+1)は、現在時刻(t)の輻輳角β(t)に基づいて求められ、画像全体の視差の最大値(p_max(t))が、許容視差範囲の上限(p_upper)を超えると、β(t)からδだけマイナスされた値がβ_upper(t+1)とされ、逆に、画像全体の視差の最大値(p_max(t))が、許容視差範囲の上限(p_upper)より小さいと、β(t)にδをプラスした値がβ_upper(t+1)とされる。同様に、式19から、次の時刻(t+1)における輻輳角の下限β_lower(t+1)は、画像全体の視差の最小値(p_min(t))が、許容視差範囲の下限(p_lower)より小さいと、β(t)からδだけマイナスされた値がβ_lower(t+1)とされ、逆に、画像全体の視差の最小値(p_min(t))が、許容視差範囲の下限(p_lower)を超えると、β(t)にδをプラスした値がβ_lower(t+1)とされる。 As can be seen from Equation 19, the upper limit β_upper (t + 1) of the convergence angle at the next time (t + 1) is obtained based on the convergence angle β (t) at the current time (t), and the maximum parallax value ( When p_max (t)) exceeds the upper limit (p_upper) of the allowable parallax range, a value obtained by subtracting δ from β (t) is set to β_upper (t + 1). Conversely, the maximum parallax value (p_max) of the entire image If (t)) is smaller than the upper limit (p_upper) of the allowable parallax range, a value obtained by adding δ to β (t) is set to β_upper (t + 1). Similarly, from Expression 19, when the convergence angle lower limit β_lower (t + 1) at the next time (t + 1) is smaller than the lower limit (p_lower) of the allowable parallax range, the minimum parallax value (p_min (t)) of the entire image , Β (t) minus δ is β_lower (t + 1), and conversely, when the minimum parallax value (p_min (t)) of the entire image exceeds the lower limit (p_lower) of the allowable parallax range, A value obtained by adding δ to β (t) is defined as β_lower (t + 1).
またここで、画像全体の視差の最大値(p_max(t))が、許容視差範囲の上限(p_upper)を超えるとともに、画像全体の視差の最小値(p_min(t))が、許容視差範囲の下限(p_lower)より小さくなる場合は、式18に基づいて、b_upper(t+1)が、b(t)よりも小さい値となって基線長bが小さく調整されるので、時間が経過すると、画像全体の視差が許容範囲内に収まるようになる。 Also, here, the maximum parallax value (p_max (t)) of the entire image exceeds the upper limit (p_upper) of the allowable parallax range, and the minimum parallax value (p_min (t)) of the entire image is within the allowable parallax range. When smaller than the lower limit (p_lower), b_upper (t + 1) becomes a value smaller than b (t) and the base line length b is adjusted to be smaller based on Expression 18, so that when the time elapses, the entire image The parallax becomes within an allowable range.
撮影条件調整部6d−3は、基線長決定部6d−1または輻輳角制御部6d−2の決定内容や制御内容をチェックして、基線長bが、上述の基線長bの上限b_upper(t+1)を超える場合や、輻輳角βが、輻輳角の範囲(β_lower(t+1)〜β_upper(t+1))を超える場合、基線長bおよび輻輳角βを当該範囲内になるよう調整する。また、本発明の一実施形態に係る3D映像撮影制御システム7では、このような撮影条件調整部6d−3による、基線長bおよび輻輳角βの調整機能は必須ではなく、必要に応じて適宜組み込むことができる。 The imaging condition adjustment unit 6d-3 checks the determination content and control content of the baseline length determination unit 6d-1 or the convergence angle control unit 6d-2, and the baseline length b is the upper limit b_upper (t + 1) of the above-described baseline length b. ) Or when the convergence angle β exceeds the range of the convergence angle (β_lower (t + 1) to β_upper (t + 1)), the base line length b and the convergence angle β are adjusted to be within the range. Further, in the 3D video shooting control system 7 according to the embodiment of the present invention, such a function of adjusting the baseline length b and the convergence angle β by the shooting condition adjusting unit 6d-3 is not essential, and is appropriately selected as necessary. Can be incorporated.
ここまで、図1から図5を参照して説明してきた本発明の一実施形態に係る3D映像撮影制御システム7は、一対のカメラからなる構成のカメラ1を備えるものであったが、複数の鑑賞条件に対応して、一度に複数パターンの3D撮影ができるように、複数のカメラセット(カメラの対)を使用することができ、制御装置6は、それぞれのカメラセットに対して、好ましい基線長および輻輳角を決定し、対応するカメラセットの位置および方向を制御するようにできる。 The 3D video shooting control system 7 according to the embodiment of the present invention described above with reference to FIGS. 1 to 5 includes the camera 1 having a configuration including a pair of cameras. A plurality of camera sets (camera pairs) can be used so that 3D imaging of a plurality of patterns can be performed at a time in accordance with viewing conditions, and the control device 6 provides a preferable baseline for each camera set. The length and angle of convergence can be determined and the position and orientation of the corresponding camera set can be controlled.
たとえば、3D映像撮影制御システム7が、4台のカメラ(カメラA、カメラB、カメラC、カメラD)を備えるものとすると、複数のカメラセット(カメラA+カメラB)(カメラC+カメラD)や、(カメラA+カメラB)(カメラA+カメラC)(カメラA+カメラD)等を構成することができる。 For example, if the 3D video shooting control system 7 includes four cameras (camera A, camera B, camera C, camera D), a plurality of camera sets (camera A + camera B) (camera C + camera D), , (Camera A + Camera B) (Camera A + Camera C) (Camera A + Camera D), etc. can be configured.
次に、図6を参照して、本発明の一実施形態に係る3D映像撮影制御システム7の制御装置6を構成するコンピュータの構成例について説明する。ただし、図6のコンピュータ100は、制御装置6の各機能を実現するコンピュータの代表的な構成を例示したにすぎない。 Next, with reference to FIG. 6, a configuration example of a computer constituting the control device 6 of the 3D video shooting control system 7 according to an embodiment of the present invention will be described. However, the computer 100 in FIG. 6 only exemplifies a typical configuration of a computer that implements each function of the control device 6.
コンピュータ100は、CPU(Central
Processing Unit)101、メモリ102、撮像装置インタフェース103、アクチュエータインタフェース104、移動量計測装置インタフェース105、ディスプレイコントローラ106、ディスプレイ107、入力機器インタフェース108、キーボード109、マウス110、外部記録媒体インタフェース111、外部記憶装置112、ネットワークインタフェース113、およびこれらの構成要素を互いに接続するバス114を含んでいる。
The computer 100 includes a CPU (Central
Processing Unit) 101, memory 102, imaging device interface 103, actuator interface 104, movement amount measuring device interface 105, display controller 106, display 107, input device interface 108, keyboard 109, mouse 110, external recording medium interface 111, external storage It includes a device 112, a network interface 113, and a bus 114 that connects these components to each other.
CPU101は、コンピュータ100の各構成要素の動作を制御し、OSの制御下で、各機能を実行する。たとえば、図5に示す視差算出部6cや撮影制御処理部6d等の処理についての制御を行う。 The CPU 101 controls the operation of each component of the computer 100 and executes each function under the control of the OS. For example, control is performed on processing such as the parallax calculation unit 6c and the imaging control processing unit 6d illustrated in FIG.
メモリ102は、通常RAM(Random Access Memory)により構成される。メモリ102には、CPU101で実行される各機能(視差算出部6cや撮影制御処理部6d等の機能)を実現するためのプログラムがロードされ、当該プログラムに必要なデータ等(たとえば、現在の輻輳角βや画角α)が一時的に記憶される。 The memory 102 is usually composed of a RAM (Random Access Memory). The memory 102 is loaded with a program for realizing each function executed by the CPU 101 (functions such as the parallax calculation unit 6c and the imaging control processing unit 6d), and data necessary for the program (for example, current congestion) The angle β and the angle of view α) are temporarily stored.
撮像装置インタフェース103は、カメラ1(左画像撮影用カメラ1−L、右画像撮影用カメラ1−Rのそれぞれ)に接続され、カメラ1とのデータ送受信を制御してカメラ1から映像データ等を受信する。 The imaging device interface 103 is connected to the camera 1 (each of the left image capturing camera 1-L and the right image capturing camera 1-R), and controls data transmission / reception with the camera 1 to transmit video data and the like from the camera 1. Receive.
アクチュエータインタフェース104は、アクチュエータ2に接続され、アクチュエータ2に対して、アクチュエータの動作を制御するための制御データを送信する。また、移動量計測装置インタフェース105は、移動量計測装置3から角度や距離などの計測データを受信する。 The actuator interface 104 is connected to the actuator 2 and transmits control data for controlling the operation of the actuator to the actuator 2. Further, the movement amount measuring device interface 105 receives measurement data such as an angle and a distance from the movement amount measuring device 3.
ディスプレイコントローラ106は、CPU101等から送信される描画データを処理して、LCD(Liquid Crystal
Display)で構成される表示装置やタッチスクリーンなどを含むディスプレイ107に画面を表示する。たとえば、制御装置6に対してユーザ等から設定値が入力される場合、ディスプレイ107には設定値入力画面が表示される。
The display controller 106 processes drawing data transmitted from the CPU 101 or the like and displays an LCD (Liquid Crystal).
A screen is displayed on a display 107 including a display device including a display) and a touch screen. For example, when a set value is input from the user or the like to the control device 6, a set value input screen is displayed on the display 107.
入力機器インタフェース108は、ユーザが制御装置6に対して入力を行うために操作するキーボード109、マウス110、タッチスクリーンなどの入力装置から信号を受け取り、CPU101に送信する。また、入力データ等はメモリ102等に記憶される。 The input device interface 108 receives signals from input devices such as a keyboard 109, a mouse 110, and a touch screen that are operated by the user to input to the control device 6, and transmits the signals to the CPU 101. Input data and the like are stored in the memory 102 and the like.
外部記録媒体インタフェース111は、外部記録媒体120にアクセスしてデータの送受信を制御する。たとえば、光ディスク121を駆動して記録面にアクセスし、記録されているデータを読み取り、または外部記憶装置112に記憶されたデータを光ディスク121に書き出す。また、可搬型のフラッシュメモリ122にアクセスし、コンピュータ100との間でデータをやりとりする。 The external recording medium interface 111 accesses the external recording medium 120 to control data transmission / reception. For example, the optical disk 121 is driven to access the recording surface, and the recorded data is read, or the data stored in the external storage device 112 is written to the optical disk 121. In addition, the portable flash memory 122 is accessed and data is exchanged with the computer 100.
外部記憶装置112は、一般的には、ハードディスクのような記憶装置である。外部記憶装置112は、CPU101で実行される各機能を実現するためのプログラムを記憶するほか、当該プログラムが利用するデータなどが格納される。 The external storage device 112 is generally a storage device such as a hard disk. The external storage device 112 stores a program for realizing each function executed by the CPU 101 and stores data used by the program.
ネットワークインタフェース113は、LANやインターネットを含むネットワーク130との接続を実現し、コンピュータ100とネットワーク130との間のデータの送受信を制御する。ネットワークインタフェース113により、コンピュータ100は、LANやインターネットと接続してデータの送受信を行うことができる。CPU101で実行され、本発明の各機能を実現するためのプログラムは、このネットワークインタフェース113や、上述の外部記録媒体インタフェース111を経由して、外部からコンピュータ100に提供されうる。 The network interface 113 realizes connection with a network 130 including a LAN and the Internet, and controls data transmission / reception between the computer 100 and the network 130. The network interface 113 allows the computer 100 to transmit and receive data by connecting to a LAN or the Internet. A program executed by the CPU 101 and realizing each function of the present invention can be provided to the computer 100 from the outside via the network interface 113 and the external recording medium interface 111 described above.
また、本発明の各機能を実現するためのプログラムのすべて、または一部は、チップ化されて市場に流通する場合もある。 In addition, all or part of a program for realizing each function of the present invention may be made into a chip and distributed in the market.
1・・・カメラ、2・・・アクチュエータ、3・・・移動量計測装置、4・・・カメラ制御雲台、5・・・3D撮影機構、6・・・制御装置、7・・・3D映像撮影制御システム、8・・・送信装置、9・・・受信装置、10・・・3D画質調整装置、11・・・3D映写機、12・・・スクリーン、13・・・3Dテレビジョン DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Actuator, 3 ... Movement amount measuring device, 4 ... Camera control pan head, 5 ... 3D imaging | photography mechanism, 6 ... Control apparatus, 7 ... 3D Image capturing control system, 8 ... transmitting device, 9 ... receiving device, 10 ... 3D image quality adjusting device, 11 ... 3D projector, 12 ... screen, 13 ... 3D television
Claims (19)
被写体を撮影する一対の撮像装置から得られた映像から、前記被写体に関する視差を算出する視差算出手段と、
前記一対の撮像装置の基線長を決定する基線長決定手段と、
前記決定された基線長となるよう前記一対の撮像装置を移動させるよう制御する基線長制御手段とを有し、
前記基線長決定手段は、前記一対の撮像装置の基線長と人間両眼の基線長との比率と、撮影時における前記一対の撮像装置の基線から被写体までの距離(実際距離)と前記3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、前記一対の撮像装置の基線長を決定し、前記感知距離を、前記視差に基づいて求めることを特徴とする3D映像撮影制御システム。 A 3D video imaging control system for performing 3D video imaging control, wherein the 3D video imaging control system includes:
Parallax calculating means for calculating parallax related to the subject from video obtained from a pair of imaging devices that photograph the subject;
Baseline length determining means for determining a baseline length of the pair of imaging devices;
Baseline length control means for controlling to move the pair of imaging devices so as to be the determined baseline length;
The baseline length determination means includes a ratio of a baseline length of the pair of imaging devices to a baseline length of both human eyes, a distance (actual distance) from the baseline of the pair of imaging devices to a subject at the time of shooting, and the 3D video. The base line length of the pair of imaging devices is calculated based on the fact that the ratio (the pull-in rate) to the distance (sensed distance) from the base line of both human eyes to the subject at the time of viewing is related by a predetermined function. A 3D video shooting control system, wherein the 3D video shooting control system determines and determines the sensing distance based on the parallax.
指定された視差を受信する視差受信手段と、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段とをさらに有し、
前記輻輳角制御手段は、前記指定された視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記感知距離を、前記指定された視差に基づいて求めることを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to claim 1,
Parallax receiving means for receiving the specified parallax;
A convergence angle control means for controlling to move the pair of imaging devices in order to adjust the convergence angle;
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle corresponding to the designated parallax,
The 3D video shooting control system characterized in that the base line length determining means determines the sensing distance based on the designated parallax.
指定された引込率を受信する引込率受信手段と、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段とをさらに有し、
前記輻輳角制御手段は、前記指定された引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記指定された引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to claim 1,
A pull-in rate receiving means for receiving a specified pull-in rate;
A convergence angle control means for controlling to move the pair of imaging devices in order to adjust the convergence angle;
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle according to the parallax obtained based on the designated pull-in rate,
The 3D video imaging control system characterized in that the baseline length determining means determines a baseline length of the pair of imaging devices based on the designated pull-in rate.
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段をさらに有し、
前記引込率と前記一対の撮像装置の画角との掛け算が定数となる関係に基づいて、前記画角から前記引込率を求め、
前記輻輳角制御手段は、前記求められた引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記求められた引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to claim 1,
Convergence angle control means for controlling to move the pair of imaging devices in order to adjust the convergence angle,
Based on the relationship that the multiplication of the drawing rate and the angle of view of the pair of imaging devices becomes a constant, the drawing rate is obtained from the angle of view,
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle according to the parallax obtained based on the obtained pull-in rate,
The 3D video imaging control system characterized in that the baseline length determining means determines a baseline length of the pair of imaging devices based on the obtained pull-in rate.
前記画角は、画角を計測する画角計測手段によって計測され、または前記一対の撮像装置における焦点距離および撮像素子幅によって算出されることを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to claim 4,
The 3D video shooting control system, wherein the angle of view is measured by an angle-of-view measuring unit that measures the angle of view, or is calculated by a focal length and an imaging element width in the pair of imaging devices.
指定された横幅拡大倍率を受信する横幅拡大倍率受信手段をさらに有し、
前記引込率、前記一対の撮像装置の画角、および前記指定された横幅拡大倍率の掛け算が定数となる関係に基づいて、前記画角および前記横幅拡大倍率から前記引込率を求めることを特徴とする3D映像撮影制御システム。 In the 3D video imaging control system according to claim 4 or 5,
It further has a width expansion ratio receiving means for receiving the specified width expansion ratio,
The pull-in rate is obtained from the angle of view and the width enlargement magnification based on a relationship in which the multiplication of the drawing rate, the angle of view of the pair of imaging devices, and the designated width enlargement magnification is a constant. 3D video shooting control system.
指定された奥行横幅比率を受信する奥行横幅比率受信手段をさらに有し、
前記基線長決定手段は、前記一対の撮像装置の基線長と人間両眼の基線長との比率が、前記引込率と前記奥行横幅比率との掛け算に比例する関係に基づいて、前記一対の撮像装置の基線長を決定することを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to any one of claims 1 to 6,
A depth width ratio receiving means for receiving the specified depth width ratio;
The baseline length determining means is configured to determine whether the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes is proportional to the multiplication of the pull-in rate and the depth width ratio. A 3D video shooting control system for determining a base line length of an apparatus.
指定された許容視差範囲を受信する許容視差範囲受信手段と、
視差が許容視差範囲になるよう各種パラメータを調整する撮影条件調整手段とをさらに有し、
前記視差算出手段は、前記一対の撮像装置から得られた映像における画像全体の視差範囲を算出し、
前記撮影条件調整手段は、前記算出された画像全体の視差範囲と前記許容視差範囲とから、前記一対の撮像装置の基線長についての許容範囲および前記輻輳角についての許容範囲の少なくとも一方を決定し、当該決定された許容範囲に前記一対の撮像装置の基線長または前記輻輳角を調整することを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to any one of claims 2 to 7,
An allowable parallax range receiving means for receiving the specified allowable parallax range;
Photographing condition adjusting means for adjusting various parameters so that the parallax falls within the allowable parallax range;
The parallax calculating means calculates a parallax range of the entire image in the video obtained from the pair of imaging devices;
The imaging condition adjusting unit determines at least one of an allowable range for the baseline length of the pair of imaging devices and an allowable range for the convergence angle from the calculated parallax range of the entire image and the allowable parallax range. A 3D video shooting control system, wherein the base line length or the convergence angle of the pair of imaging devices is adjusted to the determined allowable range.
前記基線長決定手段は、前記感知距離を、前記視差および鑑賞条件に基づいて求め、
前記鑑賞条件は、人間両眼の基線長、スクリーンの幅、および前記人間両眼の基線と前記スクリーンとの距離を含むことを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to any one of claims 1 to 8,
The baseline length determination means determines the sensing distance based on the parallax and viewing conditions,
The viewing condition includes a base line length of human binocular eyes, a screen width, and a distance between the base line of human binocular eyes and the screen.
前記実際距離は、実際距離を計測する実際距離計測手段によって計測され、または前記視差、前記一対の撮像装置の基線長、輻輳角、および画角によって求められることを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to any one of claims 1 to 9,
The actual distance is measured by an actual distance measuring unit that measures the actual distance, or is obtained from the parallax, the base line length of the pair of imaging devices, the convergence angle, and the angle of view. .
前記被写体を撮影する3台以上の撮像装置で構成される2対以上の撮像装置についてそれぞれ、前記3D映像の撮影制御を行うことを特徴とする3D映像撮影制御システム。 The 3D video shooting control system according to any one of claims 1 to 10,
A 3D video shooting control system that performs shooting control of the 3D video for each of two or more pairs of imaging devices configured of three or more imaging devices for shooting the subject.
被写体を撮影する一対の撮像装置から得られた映像から、前記被写体に関する視差を算出する視差算出ステップと、
前記一対の撮像装置の基線長を決定する基線長決定ステップと、
前記決定された基線長となるよう前記一対の撮像装置を移動させるよう制御する基線長制御ステップとを有し、
前記基線長決定ステップは、前記一対の撮像装置の基線長と人間両眼の基線長との比率が、撮影時における前記一対の撮像装置の基線から被写体までの距離(実際距離)と前記3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、前記一対の撮像装置の基線長を決定し、前記感知距離を、前記視差に基づいて求めることを特徴とする3D映像撮影制御方法。 A 3D video shooting control method for performing shooting control of 3D video, wherein the 3D video shooting control method includes:
A parallax calculation step of calculating parallax related to the subject from video obtained from a pair of imaging devices that shoot the subject;
A baseline length determining step for determining a baseline length of the pair of imaging devices;
A baseline length control step for controlling the pair of imaging devices to move to the determined baseline length, and
In the baseline length determination step, the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes is the distance (actual distance) from the baseline of the pair of imaging devices to the subject at the time of shooting and the 3D video The base line length of the pair of imaging devices is calculated based on the fact that the ratio (the pull-in rate) to the distance (sensed distance) from the base line of both human eyes to the subject at the time of viewing is related by a predetermined function. A 3D video shooting control method, comprising: determining and determining the sensing distance based on the parallax.
指定された視差を受信する視差受信ステップと、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御ステップとをさらに有し、
前記輻輳角制御ステップは、前記指定された視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定ステップは、前記感知距離を、前記指定された視差に基づいて求めることを特徴とする3D映像撮影制御方法。 The 3D video shooting control method according to claim 12,
A parallax receiving step for receiving the specified parallax;
A convergence angle control step for controlling to move the pair of imaging devices to adjust a convergence angle,
The convergence angle control step moves the pair of imaging devices so as to have a convergence angle corresponding to the designated parallax,
In the 3D video shooting control method, the base line length determining step obtains the sensing distance based on the designated parallax.
指定された引込率を受信する引込率受信ステップと、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御ステップとをさらに有し、
前記輻輳角制御ステップは、前記指定された引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定ステップは、前記指定された引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とする3D映像撮影制御方法。 The 3D video shooting control method according to claim 12,
A withdrawal rate receiving step for receiving a specified withdrawal rate;
A convergence angle control step for controlling to move the pair of imaging devices to adjust a convergence angle,
The convergence angle control step moves the pair of imaging devices so as to have a convergence angle corresponding to the parallax obtained based on the designated pull-in rate,
The base line length determination step determines a base line length of the pair of imaging devices based on the designated pull-in rate.
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御方法をさらに有し、
前記引込率と前記一対の撮像装置の画角との掛け算が定数となる関係に基づいて、前記画角から前記引込率を求め、
前記輻輳角制御ステップは、前記求められた引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定ステップは、前記求められた引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とする3D映像撮影制御方法。 The 3D video shooting control method according to claim 12,
A convergence angle control method for controlling the movement of the pair of imaging devices to adjust the convergence angle;
Based on the relationship that the multiplication of the drawing rate and the angle of view of the pair of imaging devices becomes a constant, the drawing rate is obtained from the angle of view,
The convergence angle control step moves the pair of imaging devices so that the convergence angle corresponds to the parallax obtained based on the obtained pull-in rate,
The base line length determination step determines a base line length of the pair of imaging devices based on the obtained pull-in rate.
被写体を撮影する一対の撮像装置から得られた映像から、前記被写体に関する視差を算出する視差算出手段、
前記一対の撮像装置の基線長を決定する基線長決定手段、および、
前記決定された基線長となるよう前記一対の撮像装置を移動させるよう制御する基線長制御手段として機能させる、3D映像の撮影制御を行うための3D映像撮影制御を行うプログラムであって、
前記基線長決定手段は、前記一対の撮像装置の基線長と人間両眼の基線長との比率が、撮影時における前記一対の撮像装置の基線から被写体までの距離(実際距離)と前記3D映像の鑑賞時における人間両眼の基線から被写体までの距離(感知距離)との比率(引込率)が、所定関数により対応付けられる関係であることに基づいて、前記一対の撮像装置の基線長を決定し、前記感知距離を、前記視差に基づいて求めることを特徴とするプログラム。 On the computer,
Parallax calculating means for calculating a parallax related to the subject from video obtained from a pair of imaging devices that shoot the subject;
Baseline length determining means for determining a baseline length of the pair of imaging devices; and
A program for performing 3D video imaging control for performing 3D video imaging control, which functions as a baseline length control unit that controls to move the pair of imaging devices so as to have the determined baseline length,
The baseline length determination means is configured such that the ratio between the baseline length of the pair of imaging devices and the baseline length of both human eyes is the distance (actual distance) from the baseline of the pair of imaging devices to the subject at the time of shooting and the 3D video The base line length of the pair of imaging devices is calculated based on the fact that the ratio (the pull-in rate) to the distance (sensed distance) from the base line of both human eyes to the subject at the time of viewing is related by a predetermined function. A program for determining and obtaining the sensing distance based on the parallax.
指定された視差を受信する視差受信手段、および、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含み、
前記輻輳角制御手段は、前記指定された視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記感知距離を、前記指定された視差に基づいて求めることを特徴とするプログラム。 The program according to claim 16, wherein the computer includes:
Parallax receiving means for receiving the specified parallax, and
A program that functions as a convergence angle control unit that controls to move the pair of imaging devices in order to adjust a convergence angle;
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle corresponding to the designated parallax,
The base line length determination means obtains the sensing distance based on the designated parallax.
指定された引込率を受信する引込率受信手段、および、
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含み、
前記輻輳角制御手段は、前記指定された引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記指定された引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とするプログラム。 The program according to claim 16, wherein the computer includes:
A pull-in rate receiving means for receiving a specified pull-in rate; and
A program that functions as a convergence angle control unit that controls to move the pair of imaging devices in order to adjust a convergence angle;
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle according to the parallax obtained based on the designated pull-in rate,
The base line length determining means determines a base line length of the pair of imaging devices based on the designated pull-in rate.
輻輳角を調整するために前記一対の撮像装置を移動させるよう制御する輻輳角制御手段として機能させるプログラムをさらに含み、
前記引込率と前記一対の撮像装置の画角との掛け算が定数となる関係に基づいて、前記画角から前記引込率を求め、
前記輻輳角制御手段は、前記求められた引込率に基づいて得られる視差に応じた輻輳角となるよう前記一対の撮像装置を移動させ、
前記基線長決定手段は、前記求められた引込率に基づいて前記一対の撮像装置の基線長を決定することを特徴とするプログラム。 The program according to claim 16, wherein the computer includes:
A program that functions as a convergence angle control unit that controls to move the pair of imaging devices in order to adjust a convergence angle;
Based on the relationship that the multiplication of the drawing rate and the angle of view of the pair of imaging devices becomes a constant, the drawing rate is obtained from the angle of view,
The convergence angle control means moves the pair of imaging devices so as to have a convergence angle according to the parallax obtained based on the obtained pull-in rate,
The base line length determining means determines a base line length of the pair of imaging devices based on the obtained pull-in rate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248419A JP5223096B2 (en) | 2011-11-14 | 2011-11-14 | 3D video shooting control system, 3D video shooting control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248419A JP5223096B2 (en) | 2011-11-14 | 2011-11-14 | 3D video shooting control system, 3D video shooting control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013105002A true JP2013105002A (en) | 2013-05-30 |
JP5223096B2 JP5223096B2 (en) | 2013-06-26 |
Family
ID=48624570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011248419A Active JP5223096B2 (en) | 2011-11-14 | 2011-11-14 | 3D video shooting control system, 3D video shooting control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5223096B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018521416A (en) * | 2016-03-30 | 2018-08-02 | シャンハイ ビジ バイオニック テクノロジー カンパニー リミテッドShanghai Bizhi Bionic Technology Co., Ltd | Image processing method and system for vision system |
WO2018235256A1 (en) * | 2017-06-23 | 2018-12-27 | 株式会社日立製作所 | Stereo measurement device and system |
CN111292367A (en) * | 2020-02-18 | 2020-06-16 | 青岛联合创智科技有限公司 | Binocular camera depth map generation method with variable baseline |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103759670B (en) * | 2014-01-06 | 2016-09-28 | 四川虹微技术有限公司 | A kind of object dimensional information getting method based on numeral up short |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60236394A (en) * | 1984-05-10 | 1985-11-25 | Mitsubishi Heavy Ind Ltd | Stereoscopic television |
JPH08111874A (en) * | 1994-10-13 | 1996-04-30 | Minolta Co Ltd | Three-dimensional camera |
JPH11187425A (en) * | 1997-12-18 | 1999-07-09 | Victor Co Of Japan Ltd | Stereoscopic video system and method |
JP2011250022A (en) * | 2010-05-25 | 2011-12-08 | Olympus Imaging Corp | Camera system |
-
2011
- 2011-11-14 JP JP2011248419A patent/JP5223096B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60236394A (en) * | 1984-05-10 | 1985-11-25 | Mitsubishi Heavy Ind Ltd | Stereoscopic television |
JPH08111874A (en) * | 1994-10-13 | 1996-04-30 | Minolta Co Ltd | Three-dimensional camera |
JPH11187425A (en) * | 1997-12-18 | 1999-07-09 | Victor Co Of Japan Ltd | Stereoscopic video system and method |
JP2011250022A (en) * | 2010-05-25 | 2011-12-08 | Olympus Imaging Corp | Camera system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018521416A (en) * | 2016-03-30 | 2018-08-02 | シャンハイ ビジ バイオニック テクノロジー カンパニー リミテッドShanghai Bizhi Bionic Technology Co., Ltd | Image processing method and system for vision system |
WO2018235256A1 (en) * | 2017-06-23 | 2018-12-27 | 株式会社日立製作所 | Stereo measurement device and system |
JPWO2018235256A1 (en) * | 2017-06-23 | 2020-05-21 | 株式会社日立製作所 | Stereo measuring device and system |
CN111292367A (en) * | 2020-02-18 | 2020-06-16 | 青岛联合创智科技有限公司 | Binocular camera depth map generation method with variable baseline |
CN111292367B (en) * | 2020-02-18 | 2023-04-07 | 青岛联合创智科技有限公司 | Binocular camera depth map generation method with variable baseline |
Also Published As
Publication number | Publication date |
---|---|
JP5223096B2 (en) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101824439B1 (en) | Mobile Stereoscopic Camera Apparatus and Method of Shooting thereof | |
US10171792B2 (en) | Device and method for three-dimensional video communication | |
EP2593835B1 (en) | Variable three-dimensional camera assembly for still photography | |
US10659763B2 (en) | Stereo camera system with wide and narrow interocular distance cameras | |
US8265477B2 (en) | Stereo camera with preset modes | |
US20170026634A1 (en) | Multi-planar camera apparatus | |
US8090251B2 (en) | Frame linked 2D/3D camera system | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
US20030112508A1 (en) | Method and system for controlling space magnification for stereoscopic images | |
CN103888750B (en) | 3-dimensional image shoot control system and method | |
US8698878B2 (en) | 3-D auto-convergence camera | |
US8879902B2 (en) | Integrated 2D/3D camera with fixed imaging parameters | |
US9161020B2 (en) | 3D video shooting control system, 3D video shooting control method and program | |
JP2014501086A (en) | Stereo image acquisition system and method | |
JP5223096B2 (en) | 3D video shooting control system, 3D video shooting control method, and program | |
WO2019111227A1 (en) | Imaging apparatus | |
JP5840022B2 (en) | Stereo image processing device, stereo image imaging device, stereo image display device | |
WO2017118662A1 (en) | Spherical virtual reality camera | |
KR20080040542A (en) | The both eyes type automation three-dimensional imaging system | |
JP6622621B2 (en) | Multi-view camera control device, program thereof, and multi-view video shooting system | |
US20140168381A1 (en) | Stereoscopic image signal processing device and stereoscopic image capture device | |
JP2014103491A (en) | Robot camera control device, program for the same, and multi-viewpoint robot camera system | |
KR20160008666A (en) | System and method for calibration of stereo camera | |
JP2016208275A (en) | Image capturing apparatus and control method of the same | |
JP2013038729A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5223096 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |