JP5362157B1 - Stereoscopic imaging apparatus and stereoscopic imaging method - Google Patents

Stereoscopic imaging apparatus and stereoscopic imaging method Download PDF

Info

Publication number
JP5362157B1
JP5362157B1 JP2013529461A JP2013529461A JP5362157B1 JP 5362157 B1 JP5362157 B1 JP 5362157B1 JP 2013529461 A JP2013529461 A JP 2013529461A JP 2013529461 A JP2013529461 A JP 2013529461A JP 5362157 B1 JP5362157 B1 JP 5362157B1
Authority
JP
Japan
Prior art keywords
imaging
unit
image
shooting
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013529461A
Other languages
Japanese (ja)
Other versions
JPWO2013132797A1 (en
Inventor
浩昭 島崎
賢治郎 津田
裕二 永石
貴司 増野
孝好 古山
達郎 重里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2013529461A priority Critical patent/JP5362157B1/en
Application granted granted Critical
Publication of JP5362157B1 publication Critical patent/JP5362157B1/en
Publication of JPWO2013132797A1 publication Critical patent/JPWO2013132797A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

第1の撮影部(101)および第2の撮影部(111)と、撮影パラメータを決定する撮影パラメータ決定部(11a)と、撮影パラメータを設定して立体視用の映像を撮影する制御を行う撮影制御部(11b)とを備え、撮影制御部(11b)が、所定の撮影パラメータで第1映像を撮影した場合、撮影パラメータ決定部(11a)は、第1映像において最大視差量が所定の範囲外となる第1期間を特定し、当該第1期間における第1映像の最大視差量が所定の範囲内に収まる第1補正パラメータを決定し、撮影制御部(11b)は、第1映像の撮影後に第2映像を撮影する場合、当該第2映像を撮影中の、第1期間に対応する第2期間においては、第1補正パラメータで第2映像を撮影する制御を行う立体視用映像撮影装置。   The first imaging unit (101) and the second imaging unit (111), an imaging parameter determination unit (11a) for determining imaging parameters, and control for setting imaging parameters and imaging a stereoscopic image When the imaging control unit (11a) includes the imaging control unit (11b) and the imaging control unit (11b) captures the first image with a predetermined imaging parameter, the imaging parameter determining unit (11a) determines that the maximum parallax amount in the first image is a predetermined amount. The first period which is out of the range is specified, and the first correction parameter in which the maximum parallax amount of the first image in the first period falls within the predetermined range is determined, and the imaging control unit (11b) When the second video is shot after shooting, control for shooting the second video with the first correction parameter is performed during the second period corresponding to the first period during shooting of the second video. apparatus.

Description

本開示は、立体視用の映像を撮影する立体視用映像撮影装置に関する。   The present disclosure relates to a stereoscopic image capturing device that captures a stereoscopic image.

特許文献1に記載されているように、立体映像を撮影する際に、レンズ間隔等の撮影パラメータを被写体の深度範囲から導出して撮像する方法が提案されている。特許文献1に開示された技術によれば、撮影者が専門的な知識を有することなく立体視用の映像(ステレオ3D映像)を撮影することが可能である。   As described in Patent Document 1, a method has been proposed in which, when shooting a stereoscopic video, a shooting parameter such as a lens interval is derived from a depth range of a subject for shooting. According to the technology disclosed in Patent Document 1, it is possible to capture a stereoscopic video (stereo 3D video) without the photographer having specialized knowledge.

特開2001−142166号公報JP 2001-142166 A

しかしながら、上述の特許文献1の技術では、例えば、カメラがパン・ティルト等の動きを伴いながら映像を撮影しているようなときに、より近くに位置する被写体またはより遠くに位置する被写体が撮影範囲(撮影画角)に入ってきた場合は、撮影された映像のうち該被写体が映っている場面は過大視差を伴うという課題がある。   However, in the technique of Patent Document 1 described above, for example, when the camera captures an image with pan / tilt movement, a closer subject or a farther subject is captured. In the case of entering a range (shooting angle of view), there is a problem that a scene in which the subject is shown in the captured video is accompanied by excessive parallax.

本開示は、上記のような過大視差を伴う映像が撮影される危険性を容易に低減できる立体視用映像撮影装置を提供する。   The present disclosure provides a stereoscopic image capturing device capable of easily reducing the risk of capturing an image with such excessive parallax.

本開示の一態様に係る立体視用映像撮影装置は、立体視用の映像を撮影する第1の撮影部および第2の撮影部と、前記第1の撮影部および前記第2の撮影部のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを決定する撮影パラメータ決定部と、前記第1の撮影部および前記第2の撮影部に前記撮影パラメータを設定して前記立体視用の映像を撮影する制御を行う撮影制御部とを備え、前記撮影制御部が、所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって第1映像を撮影した場合、前記撮影パラメータ決定部は、前記第1映像において最大視差量が所定の範囲外となる第1期間を特定し、前記第1期間における前記第1映像の最大視差量が前記所定の範囲内に収まる前記撮影パラメータである第1補正パラメータを決定し、前記撮影制御部は、前記第1映像の撮影後に前記第1映像に対応する第2映像を撮影する場合、前記所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像の撮影を開始し、前記第2映像を撮影中の、前記第1期間に対応する第2期間においては、前記第1補正パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像を撮影する制御を行う。   A stereoscopic image capturing apparatus according to an aspect of the present disclosure includes a first imaging unit and a second imaging unit that capture an image for stereoscopic viewing, and the first imaging unit and the second imaging unit. The imaging parameter determining unit configured to determine an imaging parameter that is at least one of an inter-lens distance and a convergence angle, and setting the imaging parameters in the first imaging unit and the second imaging unit And a shooting control unit for performing control of shooting a video, wherein the shooting control unit shoots the first video by the first and second shooting units set to predetermined shooting parameters. The photographing parameter determination unit specifies a first period in which the maximum parallax amount is out of a predetermined range in the first image, and the maximum parallax amount of the first image in the first period falls within the predetermined range. Shooting parameter The first correction parameter, which is a first correction parameter, is determined, and the shooting control unit sets the first shooting parameter to the predetermined shooting parameter when shooting a second video corresponding to the first video after shooting the first video. The second imaging unit and the second imaging unit start capturing the second image, and during the second period corresponding to the first period while the second image is being captured, the first correction parameter is set. Control is performed to capture the second image by the first capturing unit and the second capturing unit.

このように、事前の撮影(第1映像の撮影)によって、第1補正パラメータを決定することにより、本番撮影(第2映像の撮影)においては、撮影途中にカットインする被写体に適した第1補正パラメータを自動的に設定することができる。すなわち、過大視差を伴う映像が撮影される危険性を容易に低減できる。   As described above, by determining the first correction parameter by prior shooting (shooting of the first image), in the case of production shooting (shooting of the second image), the first suitable for the subject to be cut in during shooting Correction parameters can be set automatically. That is, it is possible to easily reduce the risk of capturing an image with excessive parallax.

また、前記撮影制御部は、前記第2映像の撮影中の、前記第2期間に時間的に連続する所定の長さの期間である第3期間においては、前記第1補正パラメータに設定した前記第1の撮影部および第2の撮影部によって前記第2映像を撮影する制御を行ってもよい。   Further, the photographing control unit is configured to set the first correction parameter in a third period, which is a period of a predetermined length temporally continuous to the second period, during photographing of the second image. Control may be performed to capture the second image by the first imaging unit and the second imaging unit.

これにより、第1映像の撮影時と第2映像の撮影時とにおいて、撮影時間や撮影位置に多少のずれが生じた場合であっても、過大視差が発生するリスクを低減することができる。   As a result, even when a slight deviation occurs in the photographing time and the photographing position between the photographing of the first video and the photographing of the second video, it is possible to reduce the risk of occurrence of excessive parallax.

また、前記撮影パラメータ決定部は、前記第2映像の撮影中の、前記第2期間に時間的に連続する所定の長さの期間である第3期間のための前記撮影パラメータとして、前記レンズ間距離が時間の経過とともに単調に増加もしくは減少する、または前記輻輳角が時間の経過とともに単調に増加もしくは減少する前記撮影パラメータである第2補正パラメータを決定し、前記撮影制御部は、前記第3期間においては、前記第2補正パラメータに設定した前記第1の撮影部および第2の撮影部によって前記第2映像を撮影する制御を行ってもよい。   In addition, the imaging parameter determination unit may be configured to set the imaging parameter as the imaging parameter for a third period, which is a period of a predetermined length temporally continuous to the second period, during imaging of the second image. The second correction parameter, which is the shooting parameter, in which the distance monotonously increases or decreases with the passage of time, or the convergence angle monotonously increases or decreases with the passage of time is determined. During the period, control may be performed to capture the second image by the first imaging unit and the second imaging unit set in the second correction parameter.

これにより、第1補正パラメータへの撮影パラメータの変更がスムーズに行われるため、映像の視認者が撮影パラメータの変更に気づきにくい、より高品位な映像を撮影することができる。   As a result, since the change of the shooting parameter to the first correction parameter is smoothly performed, it is possible to shoot a higher quality video that makes it difficult for the viewer of the video to notice the change of the shooting parameter.

また、本開示の一態様に係る立体視用映像撮影装置は、立体視用の映像を撮影する第1の撮影部および第2の撮影部を有するカメラ部と、前記カメラ部の位置を動かす可動部と、前記第1の撮影部および前記第2の撮影部のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを決定する撮影パラメータ決定部と、前記第1の撮影部および前記第2の撮影部に前記撮影パラメータを設定し、前記立体視用の映像を撮影する制御を行う撮影制御部とを備え、前記撮影制御部が、前記可動部によって前記カメラ部の位置を動かしながら、所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって第1映像を撮影した場合、前記撮影パラメータ決定部は、最大視差量が所定の範囲外となる前記カメラ部の位置である第1位置を特定し、前記第1位置において撮影した前記第1映像の最大視差量が前記所定の範囲内に収まる前記撮影パラメータである第1補正パラメータを決定し、前記撮影制御部は、前記第1映像の撮影後に前記第1映像に対応する前記第2映像を撮影する場合、前記所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像の撮影を開始し、前記第2映像の撮影中に前記カメラ部が前記第1位置に位置するときは、前記第1補正パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像を撮影する制御を行う。   Further, according to an embodiment of the present disclosure, there is provided a stereoscopic image capturing device including: a camera unit including a first imaging unit and a second imaging unit configured to capture a stereoscopic image; and a movable unit configured to move a position of the camera unit. An imaging parameter determination unit that determines an imaging parameter that is at least one of an inter-lens distance and a convergence angle of the first imaging unit and the second imaging unit; a first imaging unit; And a shooting control unit configured to set the shooting parameters in the second shooting unit and control to shoot the image for stereoscopic viewing, the shooting control unit moving the position of the camera unit by the movable unit, When the first imaging unit and the second imaging unit set to predetermined imaging parameters capture the first image, the imaging parameter determination unit determines that the maximum parallax amount is outside the predetermined range. A first position, which is a position, is specified, and a first correction parameter, which is the shooting parameter, in which the maximum parallax amount of the first image shot at the first position falls within the predetermined range is determined. When shooting the second video corresponding to the first video after shooting the first video, the second shooting unit and the second shooting unit set in the predetermined shooting parameters When shooting of a video is started and the camera unit is positioned at the first position during shooting of the second video, the first shooting unit and the second shooting unit set in the first correction parameter Control to shoot the second image according to

このように、撮影位置に応じて撮影パラメータを制御する構成とすることで、撮影時間によらず、過大視差を伴う映像が撮影される危険性を低減できる。   As described above, by controlling the imaging parameter according to the imaging position, it is possible to reduce the risk of imaging an image with excessive parallax regardless of the imaging time.

上記構成において、さらに、前記第1映像の撮影時の前記カメラ部の位置の時間変化である位置情報が記憶される記憶部を備え、前記撮影制御部は、前記第2映像を撮影中は、さらに、前記可動部を制御することによって、前記位置情報にしたがって前記カメラ部の位置を動かしながら前記第2映像を撮影する制御を行ってもよい。   In the above-described configuration, the image capturing apparatus further includes a storage unit that stores position information that is a time change of the position of the camera unit at the time of shooting the first video, and the shooting control unit is configured to shoot the second video. Furthermore, by controlling the movable portion, control may be performed to capture the second image while moving the position of the camera unit according to the position information.

上記構成によれば、最初の撮影と二回目以降の撮影のカメラの動きを合わせることができ、二回目以降の撮影における立体撮影パラメータの動的な変化を、撮影している映像により正確に合わせることが可能となる。   According to the above configuration, it is possible to match the motion of the camera for the first shooting and the shooting for the second and subsequent shots, and to more accurately match the dynamic change of the stereoscopic shooting parameter in the second and subsequent shootings with the video being shot It becomes possible.

本開示に係る立体視用映像撮影装置は、過大視差を伴う映像が撮影される危険性を容易に低減できる。   The stereoscopic image capturing device according to the present disclosure can easily reduce the risk of capturing an image with excessive parallax.

図1は、実施の形態1に係る立体視用映像撮影装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of a stereoscopic video imaging apparatus according to the first embodiment. 図2は、実施の形態1に係る立体視用映像撮影装置の詳細な構成を示すブロック図である。FIG. 2 is a block diagram showing a detailed configuration of the stereoscopic video imaging device according to the first embodiment. 図3Aは、実施の形態1に係る立体視用映像撮影装置を用いた立体視用の映像の撮影方法を説明するための図である。FIG. 3A is a diagram for explaining a method of capturing a stereoscopic video using the stereoscopic video capturing device according to the first embodiment. 図3Bは、図3Aに示される撮影条件で撮影された左眼画像および右眼画像を示す図である。FIG. 3B is a view showing a left eye image and a right eye image captured under the imaging conditions shown in FIG. 3A. 図4は、実施の形態1に係る立体視用映像撮影装置の撮影において大きな視差を持つ動画像が得られる例を説明するための図である。FIG. 4 is a diagram for explaining an example in which a moving image having large parallax is obtained in shooting with the stereoscopic video imaging device according to the first embodiment. 図5は、実施の形態1に係る立体視用映像撮影装置の撮影パラメータ制御の例を示す図である。FIG. 5 is a diagram showing an example of shooting parameter control of the stereoscopic video shooting apparatus according to the first embodiment. 図6は、立体視用映像撮影装置の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the stereoscopic video imaging apparatus. 図7は、実施の形態2に係る立体視用映像撮影装置における、撮影の失敗の一例を示す図である。FIG. 7 is a diagram showing an example of shooting failure in the stereoscopic video shooting device according to the second embodiment. 図8は、実施の形態2に係る立体視用映像撮影装置における、撮影の失敗の通知の一例を示す図である。FIG. 8 is a diagram showing an example of imaging failure notification in the stereoscopic video imaging device according to the second embodiment. 図9は、可動部を備える立体視用映像撮影装置の一例を示す図である。FIG. 9 is a diagram showing an example of a stereoscopic video imaging apparatus including a movable portion. 図10は、実施の形態3に係る立体視用映像撮影装置における、撮影位置を用いた撮影パラメータ制御の例を示す図である。FIG. 10 is a diagram showing an example of shooting parameter control using a shooting position in the stereoscopic video shooting apparatus according to the third embodiment.

以下、実施の形態に係る立体視用映像撮影装置について図面を参照しながら説明する。   Hereinafter, a stereoscopic video imaging apparatus according to the embodiment will be described with reference to the drawings.

但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   However, the detailed description may be omitted if necessary. For example, detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art.

なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。   It is noted that the inventors provide the attached drawings and the following description so that those skilled in the art can fully understand the present disclosure, and intend to limit the claimed subject matter by these Absent.

(実施の形態1)
図1は、実施の形態1に係る立体視用映像撮影装置の構成を示す図である。
Embodiment 1
FIG. 1 is a diagram showing the configuration of a stereoscopic video imaging apparatus according to the first embodiment.

図1(a)は、実施の形態1に係る立体視用映像撮影装置の側面図を示す。図1(b)は本実施形態に係る立体視用映像撮影装置の平面図(上面視した図)を示す。さらに、図2は、立体視用映像撮影装置の詳細な構成を示すブロック図である。   FIG. 1A shows a side view of the stereoscopic video imaging apparatus according to the first embodiment. FIG. 1B is a plan view (a top view) of the stereoscopic image capturing device according to the present embodiment. Furthermore, FIG. 2 is a block diagram showing a detailed configuration of the stereoscopic video imaging apparatus.

図1(a)および図1(b)に示す立体視用映像撮影装置200は、制御ユニット100、第1のレンズ鏡筒101、第1のレンズ鏡筒保持部材102、ビームスプリッター蒸着面105、第2のレンズ鏡筒111、第2のレンズ鏡筒保持部材112、レンズ間距離可変機構113、基礎部材120、垂直固定部材121、前面窓122、ビームスプリッタープリズム130、プリズム保持部材131、第1のレンズ鏡筒支持部材135、および第2のレンズ鏡筒支持部材136を備える。   The stereoscopic image photographing apparatus 200 shown in FIGS. 1A and 1B includes a control unit 100, a first lens barrel 101, a first lens barrel holding member 102, a beam splitter evaporation surface 105, and the like. Second lens barrel 111, second lens barrel holding member 112, inter-lens distance variable mechanism 113, base member 120, vertical fixing member 121, front window 122, beam splitter prism 130, prism holding member 131, first And a second lens barrel support member 136.

制御ユニット100は、立体視用映像撮影装置200の全体を制御する。制御ユニット100の具体的な内容については後述する。   The control unit 100 controls the entire stereoscopic video imaging device 200. Specific contents of the control unit 100 will be described later.

第1のレンズ鏡筒101および第2のレンズ鏡筒111は、立体視用の映像を構成する対になる映像、つまり左眼用の映像および右眼用の映像をそれぞれ撮影する。説明の便宜上、第1のレンズ鏡筒101は左眼用の映像を撮影するものとする。また、第2のレンズ鏡筒111は、右眼用の映像を撮影するものとする。   The first lens barrel 101 and the second lens barrel 111 respectively capture a pair of images constituting an image for stereoscopic vision, that is, an image for the left eye and an image for the right eye. For convenience of description, it is assumed that the first lens barrel 101 captures an image for the left eye. In addition, the second lens barrel 111 is assumed to capture an image for the right eye.

なお、図2に示すように、第1のレンズ鏡筒101は、第1のレンズ群211、第1の撮像部212および第1のA/D変換部213から構成される。また、第2のレンズ鏡筒111は、第2のレンズ群221、第2の撮像部222および、第2のA/D変換部223から構成される。以下、第1のレンズ鏡筒101および第2のレンズ鏡筒111をカメラ部1とも記載する。   As shown in FIG. 2, the first lens barrel 101 includes a first lens group 211, a first imaging unit 212, and a first A / D converter 213. The second lens barrel 111 is configured of a second lens group 221, a second imaging unit 222, and a second A / D conversion unit 223. Hereinafter, the first lens barrel 101 and the second lens barrel 111 will also be described as the camera unit 1.

第1のレンズ群211および第2のレンズ群221は、複数の光学レンズから構成される。第1のレンズ群211および第2のレンズ群221は、被写体からの光をそれぞれ第1の撮像部212および第2の撮像部222に集光する。   The first lens group 211 and the second lens group 221 are composed of a plurality of optical lenses. The first lens group 211 and the second lens group 221 focus light from the subject on the first imaging unit 212 and the second imaging unit 222, respectively.

第1の撮像部212および第2の撮像部222は、少なくとも撮像素子を含み、第1のレンズ群211および第2のレンズ群221を介して入力された光を撮像する。具体的には、第1の撮像部212および第2の撮像部222は、入力された光信号をアナログ信号(電気信号)に変換して、当該アナログ信号をそれぞれ第1のA/D変換部213および第2のA/D変換部223に出力する。   The first imaging unit 212 and the second imaging unit 222 include at least an imaging element, and images the light input through the first lens group 211 and the second lens group 221. Specifically, the first imaging unit 212 and the second imaging unit 222 convert the input light signal into an analog signal (electric signal), and respectively convert the analog signal into a first A / D conversion unit. 213 and the second A / D converter 223.

第1のA/D変換部213および第2のA/D変換部223は、第1の撮像部212および第2の撮像部222から出力されたアナログ信号をデジタル信号に変換する。第1のA/D変換部213および第2のA/D変換部223は、変換したデジタル信号を構成する画像データをそれぞれ制御ユニット100内部の視差量算出部2および信号処理部3に出力する。   The first A / D converter 213 and the second A / D converter 223 convert analog signals output from the first imaging unit 212 and the second imaging unit 222 into digital signals. The first A / D converter 213 and the second A / D converter 223 respectively output the image data constituting the converted digital signal to the parallax amount calculator 2 and the signal processor 3 in the control unit 100. .

第1のレンズ鏡筒保持部材102および第2のレンズ鏡筒保持部材112は、それぞれ第1のレンズ鏡筒101および第2のレンズ鏡筒111を垂直固定部材121および基礎部材120に支持する支持部材である。   The first lens barrel holding member 102 and the second lens barrel holding member 112 support the first lens barrel 101 and the second lens barrel 111 to the vertical fixing member 121 and the base member 120, respectively. It is a member.

なお、第2のレンズ鏡筒保持部材112は、レンズ間距離可変機構113を介して基礎部材120に支持される。   The second lens barrel holding member 112 is supported by the base member 120 via the inter-lens distance changing mechanism 113.

使用者は、第1のレンズ鏡筒保持部材102および第2のレンズ鏡筒保持部材112における第1のレンズ鏡筒101および第2のレンズ鏡筒111の取付け位置を調整することにより、光軸の平行度を調整することができる。   The user adjusts the mounting position of the first lens barrel 101 and the second lens barrel 111 in the first lens barrel holding member 102 and the second lens barrel holding member 112 to thereby adjust the optical axis. You can adjust the parallelism of the.

また、第1のレンズ鏡筒保持部材102および第2のレンズ鏡筒保持部材112は、図示しない内蔵モータでの駆動もしくは外部モータからのベルトドライブでの駆動等により、輻輳角を自動制御可能な構成となっている。自動制御のための制御信号は、制御ユニット100から与えられる。   The first lens barrel holding member 102 and the second lens barrel holding member 112 can automatically control the convergence angle by driving with a built-in motor (not shown) or driving with a belt drive from an external motor. It is a structure. Control signals for automatic control are provided from the control unit 100.

レンズ間距離可変機構113は、第2のレンズ鏡筒111を基礎部材120に支持する支持部材である。レンズ間距離可変機構113は、制御ユニット100からの制御信号に基づいて、第2のレンズ鏡筒111の光軸と直交する方向(レンズ間距離可変機構113の長手方向)に第2のレンズ鏡筒111を移動させることができる。この移動機構により、使用者は第1のレンズ鏡筒101および第2のレンズ鏡筒111におけるレンズ間の距離を調整することができる。レンズ間距離可変機構113は、一般的なレールとスライダ等で実現することが可能であり、モータで駆動される。   The inter-lens distance variable mechanism 113 is a support member that supports the second lens barrel 111 on the base member 120. The inter-lens distance variable mechanism 113 is configured to move the second lens mirror in a direction (longitudinal direction of the inter-lens distance variable mechanism 113) orthogonal to the optical axis of the second lens barrel 111 based on the control signal from the control unit 100. The tube 111 can be moved. This movement mechanism allows the user to adjust the distance between the lenses in the first lens barrel 101 and the second lens barrel 111. The inter-lens distance variable mechanism 113 can be realized by a general rail, a slider or the like, and is driven by a motor.

なお、レンズ間の距離は、例えば、第1のレンズ鏡筒101および第2のレンズ鏡筒111の前玉間の距離となる。なお、第1のレンズ鏡筒101の光軸と第2のレンズ鏡筒111の光軸との間の距離をレンズ間距離としても構わない。つまり、第1のレンズ鏡筒101の撮影位置と第2のレンズ鏡筒111の撮影位置との間の距離を示すものであれば、どのようなものを利用しても構わない。   The distance between the lenses is, for example, the distance between the front lenses of the first lens barrel 101 and the second lens barrel 111. The distance between the optical axis of the first lens barrel 101 and the optical axis of the second lens barrel 111 may be the inter-lens distance. That is, as long as it indicates the distance between the shooting position of the first lens barrel 101 and the shooting position of the second lens barrel 111, any type may be used.

ビームスプリッター蒸着面105は、ビームスプリッタープリズム130が備える蒸着面である。ビームスプリッター蒸着面105は、ビームスプリッタープリズム130に入射される光を分光する特性を有する。具体的には、ビームスプリッター蒸着面105は、入射される光のうち一部を透過光として第2のレンズ鏡筒111に入射させる。また、ビームスプリッター蒸着面105は、入射される光のうち一部を反射光として第1のレンズ鏡筒101に入射させる。なお、ビームスプリッター蒸着面105における分光特性は、立体視用映像撮影装置200の製造者が意図的に設定できるものであり、第1のレンズ鏡筒101および第2のレンズ鏡筒111の特性によって設定されても構わない。   The beam splitter deposition surface 105 is a deposition surface provided to the beam splitter prism 130. The beam splitter deposition surface 105 has a characteristic of splitting light incident on the beam splitter prism 130. Specifically, the beam splitter vapor deposition surface 105 causes a part of the incident light to be incident on the second lens barrel 111 as transmission light. In addition, the beam splitter vapor deposition surface 105 causes a part of the incident light to be incident on the first lens barrel 101 as a reflected light. The spectral characteristics of the beam splitter vapor deposition surface 105 can be intentionally set by the manufacturer of the stereoscopic image pickup device 200, and depending on the characteristics of the first lens barrel 101 and the second lens barrel 111. It may be set.

基礎部材120は、第2のレンズ鏡筒保持部材112を介して第2のレンズ鏡筒111を支持する。   The base member 120 supports the second lens barrel 111 via the second lens barrel holding member 112.

垂直固定部材121は、第1のレンズ鏡筒保持部材102を介して第1のレンズ鏡筒101を支持する。なお、垂直固定部材121には前面窓122が設けられ、被写体からの光をビームスプリッタープリズム130に導光できるように構成される。   The vertical fixing member 121 supports the first lens barrel 101 via the first lens barrel holding member 102. The vertical fixing member 121 is provided with a front window 122 so as to guide light from the subject to the beam splitter prism 130.

ビームスプリッタープリズム130は、被写体からの光を分光するビームスプリッター蒸着面105を有する略立方形状のプリズムである。   The beam splitter prism 130 is a substantially cubic prism having a beam splitter vapor deposition surface 105 for splitting light from an object.

プリズム保持部材131は、ビームスプリッタープリズム130を保持する。   The prism holding member 131 holds the beam splitter prism 130.

第1のレンズ鏡筒支持部材135は、ビームスプリッタープリズム130と第1のレンズ鏡筒101を接合する。   The first lens barrel support member 135 joins the beam splitter prism 130 and the first lens barrel 101.

第2のレンズ鏡筒支持部材136は、ビームスプリッタープリズム130と第2のレンズ鏡筒111を接合する。   The second lens barrel support member 136 joins the beam splitter prism 130 and the second lens barrel 111.

なお、立体視用の映像を撮影する際、第1のレンズ鏡筒保持部材102、第2のレンズ鏡筒保持部材112およびレンズ間距離可変機構113を調整し、第1のレンズ鏡筒101の第1のレンズ鏡筒光軸104と、第2のレンズ鏡筒111の第2のレンズ鏡筒光軸114を略平行に調整するのが好ましい。このように調整することにより、撮影して得られる画像の左右差が小さくなり、高品位な立体視用の映像を撮影することができる。   The first lens barrel holding member 102, the second lens barrel holding member 112, and the inter-lens distance variable mechanism 113 are adjusted when capturing a stereoscopic vision image. It is preferable to adjust the first lens barrel optical axis 104 and the second lens barrel optical axis 114 of the second lens barrel 111 substantially in parallel. By adjusting in this way, the left-right difference of the image obtained by shooting becomes small, and it is possible to shoot a high quality image for stereoscopic vision.

なお、第1のレンズ鏡筒101の第1のレンズ鏡筒光軸104と、第2のレンズ鏡筒111の第2のレンズ鏡筒光軸114とが平行か否かは、図1(a)において、第1のレンズ鏡筒光軸104をビームスプリッター蒸着面105で反射した左方向の軸と、第2のレンズ鏡筒光軸114がビームスプリッター蒸着面105を透過した左方向の軸とが、ビームスプリッター蒸着面と平行なプリズム横方向から見たときに、1本にそろった状態か否かで確認できる。   Note that whether or not the first lens barrel optical axis 104 of the first lens barrel 101 and the second lens barrel optical axis 114 of the second lens barrel 111 are parallel is shown in FIG. Of the first lens barrel optical axis 104 reflected by the beam splitter deposition surface 105, and the left axis of the second lens barrel optical axis 114 transmitted through the beam splitter deposition surface 105; However, when viewed from the lateral direction of the prism parallel to the beam splitter deposition surface, it can be confirmed whether or not they are all in one.

以下、制御ユニット100の具体的構成について説明する。   Hereinafter, the specific configuration of the control unit 100 will be described.

図2に示すように制御ユニット100は、視差量算出部2、信号処理部3、表示処理部4、表示部5、GUI生成部6、入力部9、制御部11、記録処理部12およびカメラ制御部13で構成される。なお、各構成要素はバス10を介して接続される。   As shown in FIG. 2, the control unit 100 includes a parallax amount calculation unit 2, a signal processing unit 3, a display processing unit 4, a display unit 5, a GUI generation unit 6, an input unit 9, a control unit 11, a recording processing unit 12 and a camera. The control unit 13 is configured. Each component is connected via a bus 10.

視差量算出部2は、入力された第1の画像および第2の画像を構成する画像データを基に、当該第1の画像および当該第2の画像で構成される立体視用の映像の視差に関する情報(以下、視差情報と称す)を算出する。そして、視差量算出部2は算出した視差情報をGUI生成部6にバス10経由で出力する。なお、実施の形態1では、第1の画像は、第1のレンズ鏡筒101によって撮影される左眼用の画像であり、第2の画像は、第2のレンズ鏡筒111によって撮影される右眼用の画像であるものとする。   Based on the input first image and the image data forming the second image, the parallax amount calculation unit 2 generates the parallax of the stereoscopic video composed of the first image and the second image. Information related to the image (hereinafter referred to as disparity information) is calculated. Then, the parallax amount calculation unit 2 outputs the calculated parallax information to the GUI generation unit 6 via the bus 10. In the first embodiment, the first image is an image for the left eye taken by the first lens barrel 101, and the second image is taken by the second lens barrel 111. It is assumed that the image is for the right eye.

例えば、視差量算出部2は、第1の画像および前記第2の画像を複数の領域に分割し、分割した領域毎に視差情報を算出する。この領域は例えば16×16画素単位など、どのような大きさでも構わない。なお、視差量算出部2は、視差情報を算出する際、ブロックマッチング法など、どのような方法を用いても構わない。ここで、視差情報とは、第1の画像と第2の画像ともに写っているオブジェクトの第1の画像の当該オブジェクト位置を基準にした際の第2の画像における水平方向の移動量を示す値である。例えば、視差情報は、水平方向の移動量であるピクセル値であっても構わない。   For example, the parallax amount calculation unit 2 divides the first image and the second image into a plurality of areas, and calculates parallax information for each of the divided areas. This area may have any size, for example, 16 × 16 pixel units. When the parallax amount calculation unit 2 calculates parallax information, any method such as a block matching method may be used. Here, the parallax information is a value indicating the amount of horizontal movement of the first image of the object in which both the first image and the second image are taken with reference to the object position of the first image. It is. For example, the parallax information may be a pixel value which is the amount of movement in the horizontal direction.

また、視差量算出部2は算出した視差情報のうち、最大の視差情報に関する情報を制御部11に出力する。ここで、最大の視差情報とは、使用者が第1の画像および第2の画像を立体映像として視認した際、最も飛び出して視認されるオブジェクトにおける視差情報および最も引っ込んで視認されるオブジェクトの視差情報のうち、少なくとも一方を示す。   Further, the parallax amount calculation unit 2 outputs, to the control unit 11, information related to the maximum parallax information among the calculated parallax information. Here, the maximum disparity information refers to disparity information in an object that is most viewed out when viewed by the user as the stereoscopic image and a disparity of an object that is most viewed in a retracted state when the user views the first image and the second image as a stereoscopic image. Indicates at least one of the information.

要するに、最も飛び出して視認されるオブジェクトにおける視差情報を最大の視差情報としても構わない。また、最も引っ込んで視認されるオブジェクトの視差情報を最大の視差情報としても構わない。さらに、最も飛び出して視認されるオブジェクトにおける視差情報および最も引っ込んで視認されるオブジェクトの視差情報の双方を最大の視差情報としても構わない。   In short, disparity information in an object that is most popped out and viewed may be used as maximum disparity information. In addition, disparity information of an object that is viewed backward most may be used as maximum disparity information. Furthermore, both of the parallax information in the object that is most popped out and visually recognized and the parallax information of the object that is most recessed and visually recognized may be set as the maximum parallax information.

信号処理部3は、カメラ部1で生成された第1の画像および第2の画像に対して各種の処理を施す。信号処理部3は、第1の画像および第2の画像のうちいずれか1つまたは双方の画像を構成する画像データに対して処理を施し、表示部5に表示するための画像データであるレビュー画像を生成したり、記録する映像信号を生成したりする。   The signal processing unit 3 performs various processes on the first image and the second image generated by the camera unit 1. The signal processing unit 3 performs processing on image data constituting one or both of the first image and the second image, and a review is image data to be displayed on the display unit 5. It generates an image and generates a video signal to be recorded.

例えば、信号処理部3は、第1の画像および第2の画像に対してガンマ補正やホワイトバランス補正、傷補正などの各種映像処理を行う。信号処理部3は、生成したレビュー画像を表示処理部4に出力する。なお、信号処理部3が生成するレビュー画像は、2次元の画像でも構わないし、3次元の画像でも構わない。   For example, the signal processing unit 3 performs various video processing such as gamma correction, white balance correction, and scratch correction on the first image and the second image. The signal processing unit 3 outputs the generated review image to the display processing unit 4. The review image generated by the signal processing unit 3 may be a two-dimensional image or a three-dimensional image.

さらに、信号処理部3は、上記処理された第1の画像および第2の画像に対して、それぞれH.264/AVC等の動画圧縮規格に準拠した圧縮形式等により圧縮処理する。第1の画像および第2の画像を圧縮して得られる圧縮信号は2つが関連付けられて、記録処理部12を介して記憶部14(記録媒体)に記憶(記録)される。   Furthermore, the signal processing unit 3 applies H.264 to the processed first image and second image, respectively. The image data is compressed by a compression format or the like conforming to a moving image compression standard such as H.264 / AVC. Two compressed signals obtained by compressing the first image and the second image are associated with each other and stored (recorded) in the storage unit 14 (recording medium) via the recording processing unit 12.

なお、2つが記録される際、動画の各フレーム、あるいは動画撮影中にユーザが選択した画像をJPEG規格に準拠した圧縮形式等により圧縮処理して記録しても良い。この場合、MPF(Multi Picture Format)を用いて記録されるのが望ましい。また、MPFと、JPEG画像若しくはMPEG動画とを同時に記録する構成にしても構わない。なお、第1の画像および第2の画像を記録する際に適用する圧縮形式およびファイルフォーマットは、立体視用の映像に適した形式であればどのようなものを利用しても構わない。   When two are recorded, each frame of a moving image or an image selected by the user during moving image shooting may be compressed and recorded by a compression format or the like conforming to the JPEG standard. In this case, it is desirable to record using MPF (Multi Picture Format). In addition, the MPF and the JPEG image or the MPEG moving image may be simultaneously recorded. The compression format and file format applied when recording the first image and the second image may be any format as long as it is a format suitable for stereoscopic video.

信号処理部3は、DSPやマイコンなどで実現可能である。なお、レビュー画像の解像度は、表示部5の画面解像度に設定されても構わないし、JPEG規格に準拠した圧縮形式等により圧縮され形成される画像データの解像度に設定されても構わない。   The signal processing unit 3 can be realized by a DSP or a microcomputer. The resolution of the review image may be set to the screen resolution of the display unit 5, or may be set to the resolution of the image data to be compressed and formed by a compression format or the like conforming to the JPEG standard.

表示処理部4は、信号処理部3から入力されるレビュー画像と、GUI生成部6から入力されたGUI画像とを重畳する。そして表示処理部4は、重畳して得られる映像信号を表示部5に出力する。   The display processing unit 4 superimposes the review image input from the signal processing unit 3 and the GUI image input from the GUI generation unit 6. Then, the display processing unit 4 outputs the video signal obtained by the superposition to the display unit 5.

表示部5は、表示処理部4から入力された映像信号を表示する。また、GUI生成部6が生成したGUI画像を表示する。   The display unit 5 displays the video signal input from the display processing unit 4. Also, the GUI image generated by the GUI generation unit 6 is displayed.

GUI生成部6は、制御部11から入力される信号に基づいてGUI画像を生成する。例えばGUI生成部6は、視差量算出部2が算出した視差情報が表示されるGUI画像を生成する。或いはGUI生成部6は、使用者が入力部9を用いて指定した動作を確認するためのGUI画像を生成する。   The GUI generation unit 6 generates a GUI image based on the signal input from the control unit 11. For example, the GUI generation unit 6 generates a GUI image on which the parallax information calculated by the parallax amount calculation unit 2 is displayed. Alternatively, the GUI generation unit 6 generates a GUI image for confirming the operation designated by the user using the input unit 9.

入力部9は、スイッチ、タッチパネル等で構成され、使用者による操作を受け付ける。入力部9は、使用者の操作を受け付けた場合、当該操作を電気信号に変換して制御部11に出力する。なお、入力部9は、スイッチ、タッチパネルに限定されるものではなく、使用者の操作を受け付けるデバイスであれば、どのようなものを利用しても構わない。   The input unit 9 is configured by a switch, a touch panel, and the like, and receives an operation by the user. When the input unit 9 receives an operation of the user, the input unit 9 converts the operation into an electric signal and outputs the electric signal to the control unit 11. The input unit 9 is not limited to the switch and the touch panel, and any device may be used as long as it is a device that accepts the user's operation.

入力部9は、事前学習指示部7および本番録画指示部8を少なくとも備える。   The input unit 9 includes at least a prior learning instruction unit 7 and a production recording instruction unit 8.

事前学習指示部7は、撮影パラメータを設定するための立体視用の映像の撮影を制御部11に指示する指示部である。ここでの撮影パラメータは、時間的に後で撮影する立体視用の映像に適用されるパラメータである。また、撮影パラメータは、第1のレンズ鏡筒光軸104および第2のレンズ鏡筒光軸114のレンズ間距離および第1のレンズ鏡筒光軸104および第2のレンズ鏡筒光軸114が構成する輻輳角のうち少なくとも一方を含む。   The prior learning instruction unit 7 is an instruction unit that instructs the control unit 11 to shoot a stereoscopic video for setting shooting parameters. The shooting parameters here are parameters applied to a stereoscopic video to be shot later in time. Further, the photographing parameters are the distance between the first lens barrel optical axis 104 and the second lens barrel optical axis 114 and the first lens barrel optical axis 104 and the second lens barrel optical axis 114. At least one of the convergence angles to be configured is included.

また、本番録画指示部8は、記録用の立体視用の映像の撮影を制御部11に指示する指示部である。本番録画指示部8が撮影を指示した場合、事前学習指示部7の指示により行われた撮影時に得られる撮影パラメータを用いて撮影する。   Also, the production recording instruction unit 8 is an instruction unit that instructs the control unit 11 to shoot a stereoscopic video for recording. When the production recording instruction unit 8 instructs the imaging, imaging is performed using the imaging parameters obtained at the time of imaging performed by the instruction of the prior learning instruction unit 7.

つまり、事前学習指示部7は、事前学習のために立体視用の映像の撮影を指示する指示部であり、本番録画指示部8は、事前学習指示部7の撮影指示に基づく事前学習した結果を用いて立体視用の映像の撮影を指示する指示部である。なお、説明の便宜上、図2において事前学習指示部7および本番録画指示部8は、独立した構成と成っているが、事前学習指示部7および本番録画指示部8が一体の構成でも構わない。この場合、立体視用映像撮影装置200にはモード選択ダイアルが備えられ、事前学習指示部7と本番録画指示部8に対応するモードが選択できる構成となる。以下、実施の形態1では、事前学習を行うための撮影モードを事前学習モード(第1撮影モード)と記載し、事前学習した結果を用いて撮影を行う撮影モードを本番撮影モード(第2撮影モード)と記載する。   That is, the prior learning instruction unit 7 is an instruction unit that instructs shooting of a video for stereoscopic viewing for prior learning, and the production recording instruction unit 8 is a result of prior learning based on the shooting instruction of the prior learning instruction unit 7 It is an instruction | indication part which instruct | indicates imaging | photography of the image | video for stereoscopic vision, Although the preliminary learning instruction unit 7 and the actual recording instruction unit 8 in FIG. 2 are configured independently for convenience of explanation, the preliminary learning instruction unit 7 and the actual recording instruction unit 8 may be integrated. In this case, the stereoscopic video imaging apparatus 200 is provided with a mode selection dial, and can select a mode corresponding to the prior learning instruction unit 7 and the actual recording instruction unit 8. Hereinafter, in the first embodiment, a shooting mode for performing prior learning is described as a prior learning mode (first shooting mode), and a shooting mode for shooting using the result of prior learning is referred to as a real shooting mode (second shooting Mode).

バス10は、各構成要素間でデータの授受を可能とするデータ伝送路である。   The bus 10 is a data transmission path that enables exchange of data between each component.

制御部11は、立体視用映像撮影装置200全体の制御を行う。制御部11は、撮影パラメータ決定部11aと、撮影制御部11bとを備える。   The control unit 11 controls the entire stereoscopic video imaging device 200. The control unit 11 includes an imaging parameter determination unit 11a and an imaging control unit 11b.

撮影パラメータ決定部11aは、第1のレンズ鏡筒101(第1の撮影部)および第2のレンズ鏡筒111(第2の撮影部)のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを決定する。   The photographing parameter determination unit 11 a is at least one of the inter-lens distance and the convergence angle of the first lens barrel 101 (first imaging unit) and the second lens barrel 111 (second imaging unit). Determine the imaging parameters.

また、撮影制御部11bは、第1のレンズ鏡筒101および第2のレンズ鏡筒111に撮影パラメータを設定して立体視用の映像を撮影する制御を行う。すなわち、撮影制御部11bは、視差量算出部2から入力された最大の視差情報に関する情報を用いて、図1における第1のレンズ鏡筒保持部材102、第2のレンズ鏡筒保持部材112、レンズ間距離可変機構113を制御することにより、第1のレンズ鏡筒101と第2のレンズ鏡筒111との輻輳角とレンズ間距離を自動制御する。   Further, the imaging control unit 11 b sets imaging parameters in the first lens barrel 101 and the second lens barrel 111 and performs control to capture an image for stereoscopic vision. That is, using the information on the maximum parallax information input from the parallax amount calculation unit 2, the photographing control unit 11b uses the first lens barrel holding member 102 and the second lens barrel holding member 112 in FIG. By controlling the inter-lens distance variable mechanism 113, the convergence angle between the first lens barrel 101 and the second lens barrel 111 and the inter-lens distance are automatically controlled.

記録処理部12は、信号処理部3から入力される第1の画像および第2の画像を、図示しない記憶部14に記憶(記録)する。   The recording processing unit 12 stores (records) the first image and the second image input from the signal processing unit 3 in the storage unit 14 (not shown).

カメラ制御部13は、制御部11からの制御に基づき、第1のレンズ鏡筒101および第2のレンズ鏡筒111の各部が焦点距離や絞り値など必要な撮影パラメータに対応した動作を行うよう制御する。   Under the control of the control unit 11, the camera control unit 13 causes the respective units of the first lens barrel 101 and the second lens barrel 111 to perform operations corresponding to necessary imaging parameters such as focal length and aperture value. Control.

記憶部14には、本番撮影モードで撮影された映像(画像)または当該映像(画像)が圧縮された映像が記憶される。記憶部14は、具体的には、HDD(Hard Disc Drive)、DRAM(Dynamic Random Access Memory)、または強誘電体メモリなどである。記憶部14は、立体視用映像撮影装置200に着脱可能な形態であってもよい。   The storage unit 14 stores a video (image) captured in the actual shooting mode or a video obtained by compressing the video (image). Specifically, the storage unit 14 is a hard disc drive (HDD), a dynamic random access memory (DRAM), a ferroelectric memory, or the like. The storage unit 14 may be removable from the stereoscopic video imaging device 200.

(レンズ間距離、輻輳角の調整について)
以下、制御部11におけるレンズ間距離および輻輳角の自動調整について図面を参照しながら説明する。
(About adjustment of distance between lenses, convergence angle)
Hereinafter, automatic adjustment of the distance between lenses and the convergence angle in the control unit 11 will be described with reference to the drawings.

図3Aおよび図3Bは、立体視用映像撮影装置を用いた立体視用の映像の撮影方法を説明するための図である。   FIGS. 3A and 3B are diagrams for explaining a method of capturing a stereoscopic video using a stereoscopic video capturing device.

なお、図3Aでは、説明を簡単にするため、ビームスプリッタープリズム130を省略し、第1のレンズ鏡筒101と第2のレンズ鏡筒111とが同一平面に位置するとして図示されている。   In FIG. 3A, the beam splitter prism 130 is omitted and the first lens barrel 101 and the second lens barrel 111 are illustrated as being located on the same plane, for the sake of simplicity.

図3Aは、図1の立体視用映像撮影装置における、第1および第2のレンズ鏡筒およびレンズ鏡筒の光軸と被写体の位置関係を示す図である。図3Bは、第1のレンズ鏡筒101および第2のレンズ鏡筒111が生成する画像を示す図である。なお、図3B中のLは、第1のレンズ鏡筒101が撮影する左眼画像、図3B中のRは、第2のレンズ鏡筒111が撮影する右眼画像である。   FIG. 3A is a diagram showing the positional relationship between the optical axes of the first and second lens barrels and the lens barrel and the subject in the stereoscopic image capturing apparatus of FIG. FIG. 3B is a view showing an image generated by the first lens barrel 101 and the second lens barrel 111. L in FIG. 3B is a left-eye image captured by the first lens barrel 101, and R in FIG. 3B is a right-eye image captured by the second lens barrel 111.

図3Aにおいて、第1のレンズ鏡筒101の光軸28と、第2のレンズ鏡筒111の光軸29とが交わる点には、被写体24が位置する。よって、被写体24の左眼画像内の水平方向の位置と、被写体24の右眼画像内の水平方向における位置とは、同じ位置となる。   In FIG. 3A, the subject 24 is located at a point where the optical axis 28 of the first lens barrel 101 and the optical axis 29 of the second lens barrel 111 intersect. Therefore, the horizontal position in the left-eye image of the subject 24 and the horizontal position in the right-eye image of the subject 24 are at the same position.

これに対し、被写体22は、被写体24よりも手前に位置する。ここで、被写体22は、被写体24を含む、図3A中のY方向に垂直な面である仮想スクリーン(画面)26を想定した場合、この仮想スクリーンに投影された像として撮影される。すなわち、被写体22は、左眼視点に相当する第1のレンズ鏡筒101によって仮想スクリーン26に投影された像25として撮影される。また、被写体22は、右眼視点に相当する第2のレンズ鏡筒111によって、仮想スクリーン26に投影された像23として撮影される。   On the other hand, the subject 22 is positioned in front of the subject 24. Here, the subject 22 is photographed as an image projected on the virtual screen (screen) 26 which is a plane perpendicular to the Y direction in FIG. 3A including the subject 24. That is, the subject 22 is photographed as an image 25 projected on the virtual screen 26 by the first lens barrel 101 corresponding to the left eye viewpoint. Further, the subject 22 is photographed as an image 23 projected on the virtual screen 26 by the second lens barrel 111 corresponding to the right eye viewpoint.

したがって、左眼画像における被写体22の像25と右眼画像における被写体22の像23とは、図3Bに示した視差量27だけ離れて位置する。この視差量27により、左眼画像および右眼画像を視認する視認者は、被写体22を立体視することが可能となる。   Therefore, the image 25 of the subject 22 in the left-eye image and the image 23 of the subject 22 in the right-eye image are separated by the parallax amount 27 shown in FIG. 3B. The amount of parallax 27 enables a viewer who visually recognizes the left eye image and the right eye image to view the subject 22 stereoscopically.

図3Bに示されるように像23が、像25よりも水平方向において左側に位置する場合、視差量27の絶対値が大きくなるほど(像23と像25の間隔が開くほど)、被写体22の像は、画面26より手前に飛び出して見える。また、像23と像25との位置関係が逆転し、像23が像25よりも水平方向において右側に位置する場合、視差量27の絶対値が大きくなるほど被写体22の像は、画面26よりも奥に引っ込んで見える。   As shown in FIG. 3B, when the image 23 is positioned on the left side in the horizontal direction with respect to the image 25, the image of the subject 22 increases as the absolute value of the parallax amount 27 increases (as the distance between the image 23 and the image 25 increases). Appears to pop out in front of the screen 26. Further, when the positional relationship between the image 23 and the image 25 is reversed, and the image 23 is positioned on the right side in the horizontal direction with respect to the image 25, the image of the object 22 is larger than the screen 26 as the absolute value of the parallax amount 27 increases. I can see it in the back.

すなわち、像23が、像25よりも水平方向において左側に位置する場合の視差量を正の値、像23が、像25よりも水平方向において右側に位置する場合の視差量を負の値とした場合、視差量27が大きくなるほど被写体22は、飛び出して見え、視差量が小さくなるほど被写体22は、奥に引っ込んで見える。   That is, the parallax amount when the image 23 is positioned on the left side in the horizontal direction relative to the image 25 is a positive value, and the parallax amount when the image 23 is positioned on the right side in the horizontal direction with respect to the image 25 is a negative value. In this case, as the parallax amount 27 increases, the subject 22 appears to pop out, and as the parallax amount decreases, the object 22 appears to be drawn backward.

ここで、上記のような視差量27が大きくなりすぎる(像が飛び出しすぎるまたは引っ込みすぎる)ことは、視認者の眼精疲労を引き起こす。これは、実際に目が焦点を結んでいる画面26と被写体22との距離が開き過ぎることに起因する。また、同じ画面26のなかで視差の範囲(飛び出し方向の最大視差量と、引っ込み方向の最大視差量との差)が大きすぎる場合、すなわち飛び出す像と引っ込む像の間の距離が開き過ぎることも、視認者の眼精疲労を引き起こす。さらには、時間経過に応じた視差量の変化が急であることも、視認者の目が追従できなくなるため、視認者の眼精疲労を引き起こす。   Here, the fact that the amount of parallax 27 as described above is too large (the image is too popped up or retracted too much) causes eyestrain of the viewer. This is due to the fact that the distance between the screen 26 to which the eye is in focus and the subject 22 is too wide. In addition, if the range of parallax (the difference between the maximum amount of parallax in the pop-out direction and the maximum amount of parallax in the retraction direction) in the same screen 26 is too large, that is, the distance between the image to pop out and the image to retract is too wide. , Cause eyestrain of the viewer. Furthermore, the abrupt change in the amount of parallax according to the passage of time also causes eyestrain of the viewer because the viewer's eyes can not follow.

このような視認者の眼精疲労の要因を考慮しつつ、立体視の効果が得られるように立体視用の映像を撮影するためには、レンズ間距離20と、輻輳角21のうち少なくとも一方を撮影対象の被写体の位置分布と照らし合わせて最適な値に設定する必要がある。ここでレンズ間距離20とは、第1のレンズ鏡筒光軸104上の結像位置と、第2のレンズ鏡筒光軸114上の結像位置との間隔(図3AにおけるX方向の距離)を意味する。輻輳角21とは、第1のレンズ鏡筒光軸104と、第2のレンズ鏡筒光軸114とがなす角度を意味する。   In order to capture an image for stereoscopic vision so as to obtain the effect of stereoscopic vision while considering such factors of eye strain of the viewer, at least one of the inter-lens distance 20 and the convergence angle 21 It is necessary to set the optimal value by comparing the position distribution of the subject to be photographed. Here, the inter-lens distance 20 is the distance between the imaging position on the first lens barrel optical axis 104 and the imaging position on the second lens barrel optical axis 114 (the distance in the X direction in FIG. 3A Means). The convergence angle 21 means an angle formed by the first lens barrel optical axis 104 and the second lens barrel optical axis 114.

例えば、制御部11は、視差量算出部2から入力された最大の視差情報に関する情報を用いて、立体映像内の飛出し方向の最大視差量と、引っ込み方向の最大視差量とが所定の範囲に収まるようにレンズ間距離と輻輳角のうちいずれか一方を制御する。例えば、制御部11は、飛び出し方向の最大視差量の絶対値と、引っ込み方向の最大視差量の絶対値とが同じ値となるように輻輳角21を制御する。そのうえで、制御部11は、最大視差量が所定の範囲を超えていれば、レンズ間距離20を小さくすることで最大視差量を減らし、立体映像内の視差量が所定の範囲に収まるように制御する。   For example, using the information on the maximum parallax information input from the parallax amount calculation unit 2, the control unit 11 sets the maximum parallax amount in the pop-out direction in the stereoscopic video and the maximum parallax amount in the retraction direction to a predetermined range Control one of the distance between the lenses and the convergence angle so as to be within For example, the control unit 11 controls the convergence angle 21 so that the absolute value of the maximum parallax amount in the pop-out direction and the absolute value of the maximum parallax amount in the retraction direction become the same value. In addition, if the maximum parallax amount exceeds the predetermined range, the control unit 11 reduces the maximum parallax amount by reducing the inter-lens distance 20 so that the parallax amount in the stereoscopic image falls within the predetermined range. Do.

なお、レンズ間距離20と輻輳角21とを制御する方法は、上記の方法に限定されるものではない。例えば、制御部11は、図3Aにおける被写体24の位置に焦点が合うように輻輳角を調整したうえで、最大視差量が所定の範囲に収まるようにレンズ間距離20を制御しても構わない。また、制御部11は、最大視差量が事前に設定した値より小さい場合には、レンズ間距離20を大きくすることで最大視差量を上記所定の範囲内で増やしてもよい。すなわち、視差量算出部2から入力された最大の視差情報に関する情報を用いて、輻輳角とレンズ間距離のうち少なくとも一方を制御する方法であれば、制御部11は、どのような方法を用いても良い。   The method of controlling the inter-lens distance 20 and the convergence angle 21 is not limited to the method described above. For example, after adjusting the convergence angle so that the position of the subject 24 in FIG. 3A is in focus, the control unit 11 may control the inter-lens distance 20 so that the maximum parallax amount falls within the predetermined range. . In addition, when the maximum parallax amount is smaller than a preset value, the control unit 11 may increase the maximum parallax amount within the predetermined range by increasing the inter-lens distance 20. That is, as long as at least one of the convergence angle and the inter-lens distance is controlled using the information on the maximum parallax information input from the parallax amount calculation unit 2, the control unit 11 uses any method. It is good.

(カメラの動きによる過大視差発生)
上述のように、例えば、立体視用映像撮影装置200がパン・ティルト等の動きを伴いながら映像を撮影しているようなときに、より近くに位置する被写体またはより遠くに位置する被写体が撮影範囲に入ってくる場合がある。このような場合、大きな視差を持つ映像(動画像)が撮影されてしまう。
(Excessive parallax due to camera movement)
As described above, for example, when the stereoscopic image capturing device 200 captures an image with pan / tilt movement, a closer subject or a farther subject is captured. It may come in range. In such a case, a video (moving image) having a large parallax is captured.

以下、立体視用映像撮影装置200を用いて動画像を撮影した際、大きな視差を持つ動画像が得られる例を図面を参照しながら説明する。   Hereinafter, an example in which a moving image having a large parallax is obtained when a moving image is captured using the stereoscopic video capturing device 200 will be described with reference to the drawings.

図4は、立体視用映像撮影装置200を用いた撮影において大きな視差を持つ動画像が得られる例を説明するための図である。なお、図4は、立体視用映像撮影装置200および被写体を上面から見た図である。   FIG. 4 is a diagram for describing an example in which a moving image having large parallax is obtained in shooting using the stereoscopic video imaging apparatus 200. FIG. 4 is a top view of the stereoscopic video imaging device 200 and the subject.

図4において、撮影位置30は、立体視用映像撮影装置200の撮影開始時の撮影位置を表す。撮影位置31は、立体視用映像撮影装置200のパン動作後の撮影位置を表す。   In FIG. 4, the shooting position 30 represents a shooting position at the start of shooting of the stereoscopic video shooting device 200. The shooting position 31 represents a shooting position after the panning operation of the stereoscopic video shooting device 200.

立体視用映像撮影装置200は当初、上面から見たときに撮影位置30で被写体40を撮影している。このとき、第1のレンズ鏡筒101の光軸36、および第2のレンズ鏡筒111の光軸35は被写体40の方向を向いている。このときの撮影パラメータは、被写体40が適切に(最大視差が所定の範囲内に収まるように)立体視できるように最適化されている。   The stereoscopic video imaging device 200 initially captures the subject 40 at the imaging position 30 when viewed from the top. At this time, the optical axis 36 of the first lens barrel 101 and the optical axis 35 of the second lens barrel 111 are directed to the subject 40. The imaging parameters at this time are optimized so that the subject 40 can stereoscopically view appropriately (the maximum parallax falls within a predetermined range).

この状態から、立体視用映像撮影装置200が撮影位置30から撮影位置31までパン動作しながら撮影した場合、上述のように撮影パラメータは、被写体40が適切に立体視できるように設定されている。ここで、立体視用映像撮影装置200から被写体41および42までの距離それぞれは、立体視用映像撮影装置200から被写体40までの距離に近いため、被写体41および42は視認者が適切に立体視できるように撮影される。   In this state, when shooting is performed while the stereoscopic video shooting device 200 pans from the shooting position 30 to the shooting position 31, as described above, the shooting parameters are set so that the subject 40 can be appropriately viewed stereoscopically. . Here, since each of the distances from the stereoscopic video imaging device 200 to the subjects 41 and 42 is close to the distance from the stereoscopic video imaging device 200 to the subject 40, the viewers of the subjects 41 and 42 can appropriately view stereoscopically It is taken to be able to.

しかし、パン動作の途中において、より立体視用映像撮影装置200に近い位置にある被写体43が入りこむ。   However, in the middle of the panning operation, the subject 43 at a position closer to the stereoscopic video imaging device 200 enters.

ここで、図示されるように、第1のレンズ鏡筒101の光軸38にのみ被写体43が入り込むような場合、被写体43は、第2のレンズ鏡筒111によって撮影される右眼画像には写らないため、被写体43が撮影された場面は、視認者が見づらい映像となる。   Here, as illustrated, when the subject 43 enters only the optical axis 38 of the first lens barrel 101, the subject 43 has a right eye image captured by the second lens barrel 111. Since the subject 43 is not captured, the scene where the subject 43 is captured is a video that is difficult for a viewer to see.

また、被写体43が光軸37および38の両方に入り込むような場合も、上述のように撮影パラメータは、被写体43を考慮して設定されていないため、被写体43は、非常に大きい視差を持って撮影されてしまう。   Also, even when the subject 43 enters both of the optical axes 37 and 38, as described above, since the shooting parameters are not set in consideration of the subject 43, the subject 43 has a very large parallax. It will be taken.

(撮影パラメータの制御について)
上記のような課題を解決するための、立体視用映像撮影装置200の撮影パラメータの制御について図面を参照しながら説明する。
(About control of imaging parameters)
Control of shooting parameters of the stereoscopic video shooting apparatus 200 for solving the above-described problems will be described with reference to the drawings.

図5は、立体視用映像撮影装置200における、撮影パラメータ制御の例を示す図である。図5に示される各図はいずれも、図4に示されるように、撮影位置をパンさせながら所定の撮影時間、撮影を行った場合の最大視差量と撮影パラメータの時間変化を示す図である。   FIG. 5 is a diagram showing an example of shooting parameter control in the stereoscopic video shooting apparatus 200. As shown in FIG. Each of the drawings shown in FIG. 5 is a diagram showing the time change of the maximum parallax amount and the photographing parameter when photographing is performed for a predetermined photographing time while panning the photographing position as shown in FIG. .

なお、図5を用いた以下の説明では、一例として、視差量を輻輳角で表し、視差量の所定の範囲は、輻輳角が±0.7度以内であるとする。また、図5を用いた以下の説明では、撮影パラメータの一例として、レンズ間距離が制御されるものとする。なお、図5では、視差量としての輻輳角は、正の符号を持つ値である場合に、映像が飛び出して視認されるものとする。   In the following description using FIG. 5, as an example, the amount of parallax is represented by a convergence angle, and the predetermined range of the amount of parallax is a convergence angle within ± 0.7 degrees. Further, in the following description using FIG. 5, the distance between lenses is controlled as an example of the imaging parameter. Note that, in FIG. 5, when the convergence angle as the amount of parallax is a value having a positive sign, the image is projected to be visually recognized.

図5(a1)は、撮影中に撮影パラメータが制御されない場合の撮影パラメータの時間変化を示す図である。図5(a2)は、撮影中に撮影パラメータが制御されない場合の最大視差量の時間変化を示す図である。   FIG. 5 (a1) is a diagram showing time change of the imaging parameter when the imaging parameter is not controlled during imaging. FIG. 5A2 is a diagram showing a time change of the maximum amount of parallax when the shooting parameter is not controlled during shooting.

図5(a1)に示されるように、撮影中に撮影パラメータが制御されない場合(レンズ間距離がL1で一定の場合)、図5(a2)に示されるように時刻50までは、最大視差量は所定の範囲内である。しかしながら、時刻50以降は、撮影位置がパンするとともに、図4において説明した被写体43が撮影範囲に入るため、最大視差量が飛び出し側である+0.7度を超えてしまう。   As shown in FIG. 5 (a1), when the imaging parameter is not controlled during imaging (when the distance between lenses is constant at L1), the maximum parallax amount up to time 50 as shown in FIG. 5 (a2) Is within a predetermined range. However, after time 50, the imaging position pans, and the subject 43 described in FIG. 4 falls within the imaging range, so the maximum parallax amount exceeds +0.7 degrees on the fly-out side.

ここで、図4に示されるような、風景画像をパン動作で撮影する場合においては、事前に被写体配置や、撮影装置と被写体との距離が分かっていれば、予め最大視差量を考慮して撮影パラメータを設定し、過大視差の発生を回避する方法がある。   Here, in the case where a landscape image is photographed by a pan operation as shown in FIG. 4, if the subject arrangement and the distance between the photographing device and the subject are known in advance, the maximum parallax amount is considered in advance. There is a method of setting imaging parameters and avoiding the occurrence of excessive parallax.

図5(b1)は、最大視差量を考慮して撮影パラメータを設定した場合の撮影パラメータの時間変化を示す図である。図5(b2)は、最大視差量を考慮して撮影パラメータを設定した場合の最大視差量の時間変化を示す図である。   FIG. 5 (b 1) is a diagram showing time change of the imaging parameter when the imaging parameter is set in consideration of the maximum parallax amount. FIG. 5 (b 2) is a diagram showing a time change of the maximum amount of parallax when the imaging parameter is set in consideration of the maximum amount of parallax.

この場合は、被写体43が撮影装置の撮影範囲に入った状態で、飛び出し側の最大視差量が+0.7度以下になるようにレンズ間距離をL1よりも小さいL2に設定した状態で最初から撮影が行われている(図5(b1))。この方法によれば、図5(b2)に示されるように過大視差を回避することが可能である。しかしながら、この方法では、時刻50以前の時間帯においてもレンズ間距離が小さくなる、すなわち得られる視差量が小さくなるため、全体的に立体感に乏しい映像になるという課題がある。   In this case, with the subject 43 in the imaging range of the imaging device, the inter-lens distance is set to L2, which is smaller than L1, so that the maximum parallax amount on the launch side is +0.7 degrees or less. A picture is taken (FIG. 5 (b1)). According to this method, it is possible to avoid excessive parallax as shown in FIG. 5 (b 2). However, in this method, the inter-lens distance becomes small even in the time zone before time 50, that is, the amount of parallax obtained becomes small, so there is a problem that the image is poor in three-dimensional feeling as a whole.

これに対し、図5(c1)および(c2)は、立体視用映像撮影装置200によって撮影パラメータが制御された場合の最大視差量と撮影パラメータの関係を示す図である。   5C1 and 5C2 are diagrams showing the relationship between the maximum amount of parallax and the imaging parameter when the imaging parameter is controlled by the stereoscopic video imaging device 200.

立体視用映像撮影装置200は、事前にリハーサルとしてレンズ間距離L1で撮影した第1映像に基づき、第1映像において最大視差量が所定の範囲外となる第1期間を特定する。なお、ここで第1映像は、図4に示されるように撮影位置をパンさせながら上記所定の撮影時間、撮影を行った映像である。すなわち、第1映像の最大視差量の時間変化は、図5(a2)に示される特性となり、第1期間は、図5(a2)に示される期間t1に相当する。   The stereoscopic video imaging apparatus 200 specifies a first period in which the maximum parallax amount is out of a predetermined range in the first video based on the first video captured at the inter-lens distance L1 as rehearsal in advance. Here, the first video is a video obtained by shooting with the predetermined shooting time while panning the shooting position as shown in FIG. That is, the temporal change of the maximum parallax amount of the first image has the characteristic shown in FIG. 5 (a2), and the first period corresponds to the period t1 shown in FIG. 5 (a2).

また、立体視用映像撮影装置200は、さらに、第1期間における第1映像の最大視差量が所定の範囲内に収まるように設定されたレンズ間距離L2(第1補正パラメータ)を第1期間における第1映像の最大視差量に基づいて決定する。   Further, the stereoscopic video imaging apparatus 200 further sets the inter-lens distance L2 (first correction parameter) set such that the maximum parallax amount of the first image in the first period falls within the predetermined range. It determines based on the largest amount of parallax of the 1st picture in a.

続いて、立体視用映像撮影装置200は、再度、第1映像と同一の被写体(シーン)について、最初から撮影を開始する(このとき撮影される映像を第2映像とする)。ここで、図5(c1)に示されるように、撮影中の上記第1期間に対応する期間t2(第2期間)においては、レンズ間距離L2で映像を撮影する制御を行う。また、期間t0においては、立体視用映像撮影装置200は、レンズ間距離L1で映像を撮影する制御を行う。   Subsequently, the stereoscopic video imaging apparatus 200 again starts capturing from the beginning the same subject (scene) as the first video (the video captured at this time is taken as the second video). Here, as shown in FIG. 5 (c1), in a period t2 (second period) corresponding to the first period during shooting, control is performed to shoot an image at the inter-lens distance L2. In addition, in the period t0, the stereoscopic video imaging device 200 performs control of capturing an image at the inter-lens distance L1.

すなわち、図5(c2)に示される期間t0では、図5(a2)の場合と、ほぼ同様の視差量の映像が撮影される。その後の、時刻50以降では、図5(b2)の場合と、ほぼ同様の視差量の映像が撮影される。   That is, in a period t0 shown in FIG. 5 (c2), an image with almost the same amount of parallax as that in the case of FIG. Thereafter, after time 50, an image with almost the same amount of parallax as that in the case of FIG. 5 (b2) is captured.

以上のように、立体視用映像撮影装置200によれば、撮影者は、全体的な立体感を確保しつつ、最大視差量を所定の範囲に収めた映像を簡単に撮影することができる。   As described above, according to the stereoscopic image capturing device 200, the photographer can easily capture an image in which the maximum amount of parallax is within a predetermined range while securing the overall stereoscopic effect.

また、図5の(c1)の例では、最大視差量が所定の範囲内である期間t3(第3期間)においても、レンズ間距離の制御が行われている。すなわち、立体視用映像撮影装置200は、期間t1と時間的に連続する所定の長さの期間である期間t3においてレンズ間距離を制御している。なお、期間t3は、期間t1および期間t2のいずれの期間よりも短い期間でも構わない。   Further, in the example of (c1) of FIG. 5, the control of the inter-lens distance is performed also in the period t3 (third period) in which the maximum parallax amount is within the predetermined range. That is, the stereoscopic video imaging device 200 controls the inter-lens distance in a period t3 which is a period of a predetermined length which is temporally continuous with the period t1. Note that the period t3 may be shorter than any of the periods t1 and t2.

第1映像の撮影と第2映像の撮影とは、撮影時間や、撮影位置をパンするタイミングが完全に一致することが望ましい。しかしながら、例えば、撮影者が手動で立体視用映像撮影装置200を動かして撮影位置をパンさせるような場合、過大視差が発生するタイミングと、レンズ間距離を小さくするタイミングとが完全に一致しない場合がある。   It is desirable that the shooting of the first video and the shooting of the second video have the same shooting time and the same timing for panning the shooting position. However, for example, when the photographer manually moves the stereoscopic image pickup device 200 to pan the photographing position, the timing at which the excessive parallax occurs and the timing to reduce the distance between the lenses do not coincide completely. There is.

このような場合、期間t2に加えて、期間t3においてもレンズ間距離を制御する期間とすることによって、過大視差が発生するタイミングと、レンズ間距離を制御するタイミングとがずれた場合に過大視差が発生するリスクを低減することができる。   In such a case, when the inter-lens distance is controlled also in the period t3 in addition to the period t2, the excessive parallax occurs when the timing when the inter-lens distance is controlled deviates from the timing when the inter-lens distance is controlled Can reduce the risk of

期間t3においては、期間t2と同様にレンズ間距離L2で撮影が行われてもよいが、図5(c1)に示されるようにレンズ間距離を動的に制御してもよい。   In the period t3, as in the period t2, imaging may be performed with the inter-lens distance L2, but the inter-lens distance may be dynamically controlled as shown in FIG. 5 (c1).

具体的には、期間t3においては、レンズ間距離が時間の経過とともに単調に減少するように制御される。これにより、急激にレンズ間距離が変更されないため、視認者にとってより見やすい映像を撮影することができる。   Specifically, in the period t3, the distance between lenses is controlled so as to decrease monotonously with the passage of time. As a result, the inter-lens distance is not rapidly changed, so it is possible to capture an image that is more easily viewed by the viewer.

なお、図5(c1)に示されるようにレンズ間距離が期間t3において時間の経過とともに比例して減少する必要はない。期間t3においてレンズ間距離の減少が続けばよい。なお、期間t3における上記のような撮影パラメータは、撮影パラメータ決定部が決定する。   As shown in FIG. 5 (c1), it is not necessary for the distance between lenses to decrease in proportion to the passage of time in the period t3. The reduction of the inter-lens distance may continue in the period t3. Note that the imaging parameter determination unit determines the above imaging parameters in the period t3.

以下、立体視用映像撮影装置200の動作の詳細について説明する。   The details of the operation of the stereoscopic video imaging device 200 will be described below.

図6は、立体視用映像撮影装置200の動作を示すフローチャートである。   FIG. 6 is a flowchart showing the operation of the stereoscopic video imaging apparatus 200.

まず、立体視用映像撮影装置200は、所定の撮影パラメータで第1映像を撮影する(S101)。具体的には、撮影者は、事前学習指示部7を操作して、制御部11を事前学習モードに設定したうえで、図4で説明したように撮影位置をパンしながら第1映像を撮影する。事前学習モードでは、所定の撮影パラメータによって撮影が行われる。実施の形態1では、レンズ間距離はL1に固定された状態で撮影が行なわれる。   First, the stereoscopic video imaging device 200 captures a first video image with predetermined imaging parameters (S101). Specifically, the photographer operates the prior learning instruction unit 7 to set the control unit 11 to the prior learning mode, and then captures the first image while panning the shooting position as described in FIG. 4 Do. In the pre-learning mode, imaging is performed with predetermined imaging parameters. In the first embodiment, shooting is performed with the inter-lens distance fixed at L1.

第1映像の撮影中または撮影後には、制御部11は、視差量算出部2が算出した視差量の時間変化をデータとして取得し、制御部11に内蔵されるメモリに記憶する。このとき、図5(a2)に示されるような視差量の時間変化データが得られる。   During or after shooting of the first image, the control unit 11 acquires, as data, the time change of the parallax amount calculated by the parallax amount calculation unit 2 and stores the data in a memory incorporated in the control unit 11. At this time, temporal change data of the amount of parallax as shown in FIG. 5 (a2) is obtained.

次に、撮影パラメータ決定部11aは、上記視差量の時間変化に基づいて、最大視差量が第1映像において最大視差量が所定の範囲外となる第1期間を特定する(S102)。   Next, the imaging parameter determination unit 11a specifies a first period in which the maximum parallax amount is outside the predetermined range in the first image based on the temporal change of the parallax amount (S102).

続いて、撮影パラメータ決定部11aは、第1期間における第1映像の最大視差量が所定の範囲内に収まる撮影パラメータである補正パラメータを決定する(S103)。具体的には、撮影パラメータ決定部11aは、第1期間における第1映像の最大視差量が輻輳角±0.7度以内に収まるように第1のレンズ鏡筒101と第2のレンズ鏡筒111とのレンズ間距離をL2に決定する。   Subsequently, the imaging parameter determination unit 11a determines a correction parameter that is an imaging parameter in which the maximum parallax amount of the first image in the first period falls within a predetermined range (S103). Specifically, the imaging parameter determination unit 11a sets the first lens barrel 101 and the second lens barrel so that the maximum parallax amount of the first image in the first period falls within the convergence angle of ± 0.7 degrees. The distance between lenses with 111 is determined as L2.

次に、立体視用映像撮影装置200は、所定の撮影パラメータで第2映像の撮影を開始する(S104)。具体的には、撮影者は、本番録画指示部8を操作して、制御部11を本番撮影モードに設定したうえで、図4で説明したように撮影位置をパンしながら第2映像を撮影する。   Next, the stereoscopic video imaging device 200 starts imaging of the second image with a predetermined imaging parameter (S104). Specifically, the photographer operates the production recording instruction unit 8 to set the control unit 11 to the production shooting mode, and then shoots the second image while panning the shooting position as described in FIG. 4 Do.

第2映像を撮影中の、第1期間に対応する第2期間(図5(c1)および(c2)に示される期間t2)においては、撮影制御部11bは、撮影パラメータ決定部11aが決定した補正パラメータで第2映像を撮影する(S105)。具体的には、撮影制御部11bは、第1のレンズ鏡筒101と第2のレンズ鏡筒111とのレンズ間距離をL2に変更する。   In the second period (period t2 shown in (c1) and (c2) in FIG. 5) corresponding to the first period during shooting of the second image, the shooting control unit 11b determines the shooting parameter determination unit 11a. The second image is captured using the correction parameter (S105). Specifically, the imaging control unit 11 b changes the inter-lens distance between the first lens barrel 101 and the second lens barrel 111 to L2.

なお、図6のフローチャートでは省略されているが、撮影制御部11bは、期間t3では、レンズ間距離が時間の経過とともに単調に減少するようにレンズ間距離を制御する。   Although not shown in the flowchart of FIG. 6, the imaging control unit 11b controls the inter-lens distance so that the inter-lens distance decreases monotonically with the passage of time in a period t3.

このように、本番撮影モードにおいて、撮影制御部11bは、事前学習モードで取得した視差量の時間変化データに基づいてレンズ間距離を自動制御する。   Thus, in the actual shooting mode, the shooting control unit 11 b automatically controls the inter-lens distance based on the time change data of the parallax amount acquired in the advance learning mode.

つまり、立体視用映像撮影装置200では、撮影パラメータを所定の撮影パラメータに固定して撮影するのではなく、撮影中の時間の経過とともに動的に撮影パラメータを変化させる。これにより、撮影パラメータを調整せずともいい場面と、突然物体が飛び込んでくる場面のそれぞれにおける立体感の低減を抑制することができる。   That is, in the stereoscopic video imaging apparatus 200, the imaging parameters are changed dynamically with the passage of time during imaging, instead of imaging with fixing the imaging parameters to the predetermined imaging parameters. As a result, it is possible to suppress the reduction of the stereoscopic effect in each of a scene in which the shooting parameter is not adjusted and a scene in which an object jumps in suddenly.

以上、説明したように、実施の形態1に係る立体視用映像撮影装置200は、過大視差を伴う映像が撮影される危険性を容易に低減できる。   As described above, the stereoscopic image capturing apparatus 200 according to the first embodiment can easily reduce the risk of capturing an image with excessive parallax.

なお、実施の形態1では、撮影制御部11bは、補正パラメータとしてレンズ間距離を制御したが、撮影制御部11bは、輻輳角を制御してもよい。また、撮影制御部11bは、補正パラメータとしてレンズ間距離および輻輳角を組み合わせて制御してもよい。   In the first embodiment, although the imaging control unit 11b controls the inter-lens distance as the correction parameter, the imaging control unit 11b may control the convergence angle. Further, the imaging control unit 11b may control by combining the distance between lenses and the convergence angle as the correction parameter.

具体的には、期間t1において、飛び出し方向の過大視差が発生する場合には、レンズ間距離を小さくする代わりに輻輳角が大きくなるように制御されてもよい。また、期間t1において、引っ込み方向の過大視差が発生する場合には、レンズ間距離を小さくする代わりに輻輳角が小さくなるように制御されてもよい。   Specifically, when an excessive parallax in the pop-out direction occurs in the period t1, instead of reducing the distance between lenses, the convergence angle may be controlled to be large. In addition, when excessive parallax in the retraction direction occurs in the period t1, instead of reducing the distance between lenses, control may be performed so that the convergence angle is reduced.

また、例えば、期間t3においては、輻輳角が時間の経過とともに単調に増加または単調に減少するように制御されてもよい。また、期間t3が最大視差量が所定の範囲外となる期間t1に後続する期間である場合は、当該期間t3においては、レンズ間距離が単調に増加するように制御されてもよい。   Also, for example, in the period t3, the convergence angle may be controlled so as to increase or decrease monotonously with the passage of time. When the period t3 is a period following the period t1 in which the maximum parallax amount is out of the predetermined range, the distance between lenses may be controlled to monotonously increase in the period t3.

なお、実施の形態1では、所定の視差範囲を輻輳角が±0.7度以内としたが、所定の視差範囲は任意に設定されてもよい。例えば、所定の視差範囲として、生体安全ガイドラインで定められた視差範囲を用いてもよい。   In the first embodiment, the predetermined parallax range is set within ± 0.7 degrees of the convergence angle, but the predetermined parallax range may be set arbitrarily. For example, as the predetermined parallax range, the parallax range defined by the biosafety guideline may be used.

なお、実施の形態1では、期間t3(第3期間)は、期間t1の直前の期間であって、期間t1に時間的に連続する期間であるが、期間t1の直後の期間であって、期間t1に時間的に連続する期間であってもよい。また、期間t1の直前および直後の期間であって、期間t1に時間的に連続する期間を期間t3としてもよい。また、期間t3は、設けられなくてもよい。   In the first embodiment, the period t3 (third period) is a period immediately before the period t1 and is a period that is temporally continuous to the period t1, but is a period immediately after the period t1. It may be a period that is temporally continuous to the period t1. Further, a period immediately before and after the period t1 and temporally continuous to the period t1 may be set as the period t3. Also, the period t3 may not be provided.

なお、実施の形態1では、期間t1および期間t2において用いられる撮影パラメータは、時間の経過とともに変化しない固定の撮影パラメータであるとしたが、時間の経過とともに変化する動的な撮影パラメータであってもよい。   In the first embodiment, the imaging parameters used in period t1 and period t2 are fixed imaging parameters that do not change with the passage of time, but are dynamic imaging parameters that change with the passage of time. It is also good.

なお、実施の形態1では、撮影位置をパンする場合について説明したが、その他の撮影位置の変更を伴う撮影においても、立体視用映像撮影装置200は適用可能である。また、撮影位置が固定される場合であっても、撮影範囲に被写体が飛び込んでくるようなシチュエーションであれば、立体視用映像撮影装置200の撮影パラメータの制御を適用することができる。   In the first embodiment, the case of panning the shooting position has been described. However, the stereoscopic video shooting device 200 is also applicable to shooting involving other changes in the shooting position. Further, even in the case where the shooting position is fixed, in the situation where the subject jumps into the shooting range, the control of the shooting parameters of the stereoscopic video shooting device 200 can be applied.

なお、実施の形態1では、動画像を撮影する例について説明したが、静止画を連続して撮影するような場合においても、立体視用映像撮影装置200は適用可能である。すなわち、静止画の撮影においても立体視用映像撮影装置200は適用可能である。   In the first embodiment, an example of capturing a moving image has been described. However, even in the case of capturing a still image continuously, the stereoscopic video capturing device 200 is applicable. That is, the stereoscopic video imaging apparatus 200 is also applicable to capturing a still image.

(実施の形態2)
上述のように、第2映像の撮影時(本番撮影モードにおける撮影時)には、過大視差が発生するタイミングと、レンズ間距離を小さくするタイミングとが完全に一致しない場合がある。
Second Embodiment
As described above, at the time of shooting of the second image (at the time of shooting in the actual shooting mode), the timing at which the excessive parallax occurs may not completely coincide with the timing at which the distance between lenses is reduced.

単純でなおかつ回転角度の少ない撮影位置のパンを伴う撮影等においては、撮影者の感覚だけで本番撮影モードの撮影を行っても、本番撮影モードの撮影位置の時間変化を、事前学習モードの撮影位置の時間変化に概ね問題ない程度に合わせることは可能である。よって、この場合、本番撮影モードの撮影位置の時間変化(パンの速度)が、事前学習モードの撮影位置の時間変化よりも所定の値以上変化したときに、失敗警告を出すことが有効である。   In the case of shooting with a pan at a shooting position with a small angle of rotation, even if shooting in the actual shooting mode with only the photographer's sense, the time change of the shooting position in the actual shooting mode can be taken in advance learning mode It is possible to adjust the position to a time without any problem. Therefore, in this case, it is effective to give a failure warning when the time change (pan speed) of the shooting position in the actual shooting mode changes by a predetermined value or more than the time change of the shooting position in the advance learning mode. .

図7は、立体視用映像撮影装置200における、撮影の失敗例を示す図である。   FIG. 7 is a diagram showing an example of shooting failure in the stereoscopic video shooting device 200.

図7(a)は、事前学習モードでの撮影で取得された最大視差量の時間変化を示す図である。これに対し、図7(b)は、本番撮影モードでのパンの速度が速すぎる場合の最大視差量の時間変化を示す図である。なお、図7(a)および図7(b)はいずれも、図4に示されるように、撮影位置をパンさせながら撮影を行った場合の最大視差量の時間変化を示す図である。   Fig.7 (a) is a figure which shows the time change of the largest amount of parallax acquired by imaging | photography in prior learning mode. On the other hand, FIG. 7B is a diagram showing a time change of the maximum parallax amount when the pan speed in the real shooting mode is too fast. 7 (a) and 7 (b) are diagrams showing the time change of the maximum parallax amount when shooting is performed while panning the shooting position as shown in FIG.

図7(a)および図7(b)では、時刻60以降において、レンズ間距離が小さい値に自動制御される。しかしながら、図7(b)に示されるように、本番撮影モードでのパンの速度が速すぎる場合、レンズ間距離が小さい値に自動制御される前の時刻61において図4の被写体43が撮影範囲(画角)に入ってきてしまう。よって、結果として、撮影した映像において、時刻61から時刻60までの間は、過大視差が発生する。   In FIG. 7A and FIG. 7B, after the time 60, the distance between lenses is automatically controlled to a small value. However, as shown in FIG. 7B, when the panning speed in the actual shooting mode is too fast, the subject 43 in FIG. 4 is in the shooting range at time 61 before the distance between the lenses is automatically controlled to a small value. (Angle of view) come in. Therefore, as a result, in the captured video, excessive parallax occurs between time 61 and time 60.

発生した過大視差の視差量は、視差量算出部2が検出して制御部11に入力されるため、制御部11は、本番撮影モードの撮影時に何らかの失敗があったことを検出可能である。   The generated parallax amount of the excessive parallax is detected by the parallax amount calculation unit 2 and input to the control unit 11, so that the control unit 11 can detect that there is some failure at the time of shooting in the actual shooting mode.

また、制御部11は、入力部9を操作して事前学習モードおよび本番撮影モードのそれぞれにおいて撮影開始時点から、過大視差が発生する時点までの時間を測定することで本番撮影モードにおける撮影位置の時間変化(パンの速度)が速過ぎる、遅過ぎるという状況を把握することも可能である。   In addition, the control unit 11 operates the input unit 9 to measure the time from the shooting start time to the time when the excessive parallax occurs in each of the preliminary learning mode and the real shooting mode, thereby setting the shooting position in the real shooting mode. It is also possible to grasp the situation that the time change (pan speed) is too fast or too slow.

このような場合、制御部11は、GUI生成部6を制御し、表示部5に表示しているレビュー画像に対して、図8に示されるような警告表示を重畳する。すなわち、制御部11(通知部)は、最大視差量が所定の範囲外となる期間が第2映像に含まれる場合に、第2映像の撮影が失敗であることを撮影者に通知する。これにより、立体視用映像撮影装置200は、撮影者に本番撮影モードによる撮影のやり直しを求め、その際の修正方針を示すことが可能である。   In such a case, the control unit 11 controls the GUI generation unit 6 and superimposes a warning display as shown in FIG. 8 on the review image displayed on the display unit 5. That is, the control unit 11 (notification unit) notifies the photographer that the shooting of the second video is a failure when the second video includes a period in which the maximum parallax amount is outside the predetermined range. As a result, the stereoscopic video imaging device 200 can request the photographer to redo imaging in the actual imaging mode, and can indicate the correction policy at that time.

なお、事前学習モードおよび本番撮影モードのそれぞれにおいて、撮影開始時点から撮影終了時点までの時間が所定の時間以上異なる場合に、制御部11は、警告表示を表示してもよい。すなわち、制御部11(通知部)は、第2映像の撮影時間と、初期撮影時間(第1映像の撮影時間)との差が所定の時間以上である場合に、第2映像の撮影が失敗であることを撮影者に通知してもよい。このとき、初期撮影時間は、記憶部14または制御部11に内蔵されるメモリ内に記憶される。   In each of the advance learning mode and the actual shooting mode, when the time from the shooting start time to the shooting end time differs by a predetermined time or more, the control unit 11 may display a warning display. That is, when the difference between the imaging time of the second image and the initial imaging time (imaging time of the first image) is equal to or more than a predetermined time, the control unit 11 (notification unit) fails in the imaging of the second image. The photographer may be notified that At this time, the initial imaging time is stored in a memory incorporated in the storage unit 14 or the control unit 11.

これにより、立体視用映像撮影装置200は、より簡単な処理で撮影者に本番撮影モードによる撮影のやり直しを求めることができる。   As a result, the stereoscopic video imaging device 200 can request the photographer to retake imaging in the actual imaging mode with simpler processing.

なお、実施の形態2では、制御部11は、撮影者への通知の一態様として、表示部5に警告表示を行ったが、制御部11の通知は、これに限定されるものではない。例えば、制御部11の通知は、音声によるものであってもよい。   In the second embodiment, the control unit 11 displays a warning on the display unit 5 as one mode of the notification to the photographer. However, the notification of the control unit 11 is not limited to this. For example, the notification of the control unit 11 may be voiced.

(実施の形態3)
また、立体視用映像撮影装置200と三脚とを用いたパン動作、チルト動作での撮影においては、立体視用映像撮影装置200(または三脚)に、撮影方向を検出することによって制御部11(撮影制御部11b)が制御可能な可動部を設ければよい。これにより、事前学習モードにおける撮影位置の時間変化を本番撮影モードにおいて再現することが可能になる。以下、図9を用いて説明する。
Third Embodiment
In the pan and tilt operations using the stereoscopic video imaging device 200 and a tripod, the control unit 11 (the imaging unit 200 (or the tripod) detects the imaging direction. A movable unit that can be controlled by the imaging control unit 11 b) may be provided. Thereby, it is possible to reproduce the time change of the imaging position in the advance learning mode in the actual imaging mode. This will be described below with reference to FIG.

図9は、可動部を備える立体視用映像撮影装置200aの一例を示す図である。   FIG. 9 is a diagram showing an example of a stereoscopic video imaging device 200a including a movable portion.

図9に示されるように、立体視用映像撮影装置200aは可動部70を備え、可動部70を介して三脚に接続される。可動部70は、三脚の回転軸回りに回転可能であり、同時にセンサにより回転速度を検出可能である。可動部70は、具体的には、三脚を自動回転させるモータと、その回転軸に合わせて設けられるロータリーエンコーダを組み合わせた構成等で実現できる。   As shown in FIG. 9, the stereoscopic video imaging device 200 a includes a movable portion 70 and is connected to a tripod via the movable portion 70. The movable portion 70 is rotatable around the rotation axis of the tripod, and at the same time, the sensor can detect the rotational speed. Specifically, the movable portion 70 can be realized by a combination of a motor for automatically rotating a tripod and a rotary encoder provided in accordance with the rotation axis of the motor.

事前学習モードでは、撮影者は、手動で可動部を回転させながら第1映像の撮影を行う。すなわち、立体視用映像撮影装置200aの撮影位置をパンさせながら撮影を行う。このとき、撮影制御部11bは、可動部70の回転速度を測定し、測定結果を制御部11に内蔵されるメモリ(または記憶部14)に記憶する。すなわち、撮影制御部11bは、撮影位置の時間変化である位置情報を記憶する。   In the pre-learning mode, the photographer shoots the first image while manually rotating the movable part. That is, shooting is performed while panning the shooting position of the stereoscopic video shooting device 200a. At this time, the imaging control unit 11 b measures the rotational speed of the movable unit 70 and stores the measurement result in a memory (or storage unit 14) incorporated in the control unit 11. That is, the imaging control unit 11b stores position information that is a time change of the imaging position.

本番撮影モードでは、撮影制御部11bは、可動部を制御し、上記測定結果(位置情報)にしたがって立体視用映像撮影装置200a(カメラ部1)の位置を動かしながら第2映像を撮影する制御を行う。   In the actual shooting mode, the shooting control unit 11b controls the movable unit, and controls the shooting of the second video while moving the position of the stereoscopic video shooting device 200a (camera unit 1) according to the measurement result (position information). I do.

これにより、事前学習モードにおける撮影位置の時間変化を本番撮影モードにおいて再現することが可能になる。すなわち、事前学習モードにおいて、過大視差が発生するタイミングと、レンズ間距離を小さくするタイミングとを一致させることができる。   Thereby, it is possible to reproduce the time change of the imaging position in the advance learning mode in the actual imaging mode. That is, in the pre-learning mode, it is possible to coincide the timing at which the excessive parallax occurs with the timing at which the inter-lens distance is reduced.

また、このように、可動部70を備える立体視用映像撮影装置200aを用いれば、撮影位置に応じて撮影パラメータを制御することも可能である。図9においては、本番撮影モードでは、可動部70を制御部11が制御した。これを本番撮影モードでも撮影者が手動で可動部70を回転させながら撮影を行い、可動部70から入力される情報を用いて制御部11が立体視用映像撮影装置200a(カメラ部1)を制御する構成とするものである。この構成について、以下、説明する。   Further, as described above, by using the stereoscopic video imaging device 200a including the movable portion 70, it is also possible to control imaging parameters according to the imaging position. In FIG. 9, the control unit 11 controls the movable unit 70 in the real shooting mode. Even in the actual shooting mode, the photographer manually shoots while rotating the movable unit 70, and using the information input from the movable unit 70, the control unit 11 performs the stereoscopic video imaging device 200a (camera unit 1). The configuration is to control. This configuration will be described below.

図10は、立体視用映像撮影装置200aにおける、撮影位置を用いた撮影パラメータ制御の例を示す図である。図10は、図4に示されるように、撮影位置をパン、すなわち撮影角度を変化させながら撮影を行った場合の最大視差量の時間変化を示す図である。撮影角度は、撮影開始時のカメラ部1の向きを0度として、0度から45度に変化するものとする。   FIG. 10 is a diagram showing an example of shooting parameter control using the shooting position in the stereoscopic video shooting apparatus 200a. FIG. 10 is a diagram showing a time change of the maximum parallax amount when shooting is performed while the shooting position is pan, that is, the shooting angle is changed, as shown in FIG. The shooting angle changes from 0 degrees to 45 degrees, where the direction of the camera unit 1 at the start of shooting is 0 degrees.

この場合、事前学習モードでは、実施の形態1と同様に、撮影者は、手動で可動部を0度から45度に回転させながら第1映像の撮影を行う。   In this case, in the advance learning mode, as in the first embodiment, the photographer manually captures the first image while rotating the movable portion from 0 degrees to 45 degrees.

第1映像においては、図10に示されるように、撮影角度が0度〜30度の場合は、最大視差量は、所定の範囲内である。撮影角度が30度を超えると、立体視用映像撮影装置200aに近い位置にある被写体43が入りこむため、撮影角度が0度〜30度の場合は、最大視差量は、所定の範囲外である。   In the first image, as shown in FIG. 10, when the imaging angle is 0 degrees to 30 degrees, the maximum parallax amount is within a predetermined range. When the shooting angle exceeds 30 degrees, the subject 43 at a position close to the stereoscopic video shooting device 200a enters, so when the shooting angle is 0 degrees to 30 degrees, the maximum parallax amount is outside the predetermined range. .

続いて、撮影パラメータ決定部11aは、実施の形態1のように第1映像における第1期間t1を特定する代わりに、最大視差量が所定の範囲外となるカメラ部1の位置である第1位置を特定する。実施の形態3では、撮影パラメータ決定部11aは、最大視差量が所定の範囲外となるカメラ部1の撮影角度である30度〜45度の撮影角度を第1位置として特定する。なお、撮影位置の特定は、可動部70にセンサを設け、センサが検出した撮影位置を制御部11(撮影パラメータ決定部11a)が取得することで実現可能である。   Subsequently, instead of specifying the first period t1 of the first image as in the first embodiment, the shooting parameter determination unit 11a does not specify the first position where the maximum parallax amount is outside the predetermined range. Identify the location. In the third embodiment, the shooting parameter determination unit 11a specifies, as the first position, a shooting angle of 30 degrees to 45 degrees, which is the shooting angle of the camera unit 1 where the maximum parallax amount is outside the predetermined range. The specification of the imaging position can be realized by providing a sensor in the movable unit 70 and acquiring the imaging position detected by the sensor by the control unit 11 (imaging parameter determination unit 11a).

また、撮影パラメータ決定部11aは、実施の形態1と同様に、第1位置において撮影した第1映像の最大視差量が所定の範囲内に収まる撮影パラメータである補正パラメータを決定する。   Further, as in the first embodiment, the imaging parameter determination unit 11a determines a correction parameter that is an imaging parameter in which the maximum parallax amount of the first image captured at the first position falls within a predetermined range.

本番撮影モードでは、撮影者は、再度、手動で可動部を0度〜45度に回転させながら第2映像の撮影を行う。   In the actual shooting mode, the photographer manually shoots the second image while manually rotating the movable portion to 0 degrees to 45 degrees.

このとき、撮影制御部11bは、上述のように可動部70から撮影角度を取得し、第2映像の撮影中にカメラ部1の撮影角度が30度〜45度であるときは、補正パラメータで第2映像を撮影する制御を行う。   At this time, as described above, the photographing control unit 11b acquires the photographing angle from the movable unit 70, and when the photographing angle of the camera unit 1 is 30 degrees to 45 degrees while photographing the second image, the correction parameter is used. Control to shoot the second image.

このように、撮影位置に応じて撮影パラメータを制御する構成とすることで、撮影時間によらず、過大視差を伴う映像が撮影される危険性を低減できる。   As described above, by controlling the imaging parameter according to the imaging position, it is possible to reduce the risk of imaging an image with excessive parallax regardless of the imaging time.

なお、実施の形態3では、立体視用映像撮影装置が可動部70により回転する例について説明したが、例えば、立体視用映像撮影装置が備える可動部によりレール上を移動するような構成であってもよい。この場合、制御部11は、立体視用映像撮影装置のレール上における位置に応じて撮影パラメータの制御を行う。このように、可動部の構成は、実施の形態3の例に限定されず、どのようなものであってもよい。   In the third embodiment, the example in which the stereoscopic video imaging apparatus is rotated by the movable unit 70 has been described, but for example, the configuration is such that the movable portion provided in the stereoscopic video imaging apparatus moves on the rail. May be In this case, the control unit 11 controls imaging parameters in accordance with the position on the rail of the stereoscopic video imaging device. As described above, the configuration of the movable portion is not limited to the example of the third embodiment, and may be any configuration.

なお、実施の形態3では、事前学習モードでは、撮影者が手動で撮影するものとしたが、事前学習モードにおける撮影は、自動で行われてもよい。例えば、撮影位置をプログラムしておき、制御部11が可動部70をプログラムにしたがって制御することで事前学習モードにおける撮影が自動で行われてもよい。   In the third embodiment, in the prior learning mode, the photographer manually performs the shooting, but the shooting in the prior learning mode may be performed automatically. For example, the imaging position may be programmed, and the control unit 11 may control the movable unit 70 according to the program to automatically perform imaging in the advance learning mode.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, Embodiments 1 to 3 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and is also applicable to embodiments in which changes, replacements, additions, omissions, and the like are appropriately made. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1-3, and to set it as a new embodiment.

上記実施の形態においては、第1のレンズ鏡筒、第2のレンズ鏡筒、それらの保持機構、および制御ユニットをまとめた一つの撮像装置(立体視用映像撮影装置)として利用可能な形態について説明した。しかしながら、本開示は、これらの形態に限られるものではない。例えば、第1のレンズ鏡筒、第2のレンズ鏡筒、保持機構、制御ユニットをそれぞれ個別の装置として実現したうえで、立体視用映像の撮影時にのみ組み合わせて利用する形態としてもよい。   In the above embodiment, an embodiment which can be used as one imaging device (stereoscopic image capturing device) combining the first lens barrel, the second lens barrel, the holding mechanism thereof, and the control unit explained. However, the present disclosure is not limited to these forms. For example, the first lens barrel, the second lens barrel, the holding mechanism, and the control unit may be realized as individual devices, and then may be combined and used only at the time of shooting a stereoscopic image.

また、以下のような場合も本開示に含まれる。   Further, the following cases are also included in the present disclosure.

(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムで実現され得る。RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。   (1) Each of the above-described devices can be specifically realized by a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse and the like. A computer program is stored in the RAM or the hard disk unit. Each device achieves its function by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions to the computer in order to achieve a predetermined function.

(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、ROMからRAMにコンピュータプログラムをロードし、ロードしたコンピュータプログラムにしたがって演算等の動作することにより、システムLSIは、その機能を達成する。   (2) Some or all of the components constituting each of the above-described devices may be configured from one system LSI (Large Scale Integration: large scale integrated circuit). The system LSI is a super-multifunctional LSI manufactured by integrating a plurality of components on one chip, and more specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. . A computer program is stored in the ROM. The system LSI achieves its functions as the microprocessor loads a computer program from the ROM to the RAM and operates according to the loaded computer program.

(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールには、上記の超多機能LSIが含まれてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。   (3) A part or all of the components constituting each of the above-described devices may be configured from an IC card or a single module which can be detached from each device. The IC card or module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or module may include the above-described ultra-multifunctional LSI. The IC card or module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

(4)本開示は、上記に示す方法で実現されてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムで実現してもよいし、コンピュータプログラムからなるデジタル信号で実現してもよい。   (4) The present disclosure may be realized by the method shown above. Also, these methods may be realized by a computer program realized by a computer, or may be realized by a digital signal consisting of a computer program.

また、本開示は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したもので実現してもよい。また、これらの記録媒体に記録されているデジタル信号で実現してもよい。   In addition, the present disclosure relates to a computer program or a recording medium from which a computer signal or a digital signal can be read, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray (registered trademark) Disc), semiconductor memory, etc. may be realized. Also, it may be realized by digital signals recorded in these recording media.

また、本開示は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。   In addition, the present disclosure may transmit a computer program or a digital signal via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, and the like.

また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムにしたがって動作してもよい。   Further, the present disclosure is a computer system including a microprocessor and a memory, the memory storing a computer program, and the microprocessor may operate according to the computer program.

また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。   In addition, it may be implemented by another independent computer system by recording and transporting a program or digital signal on a recording medium, or by transporting a program or digital signal via a network or the like.

(5)上記実施の形態および上記変形例をそれぞれ組み合わせるとしてもよい。   (5) The above embodiment and the above modification may be combined respectively.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiment has been described as an example of the technology in the present disclosure. For that purpose, the attached drawings and the detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Therefore, among the components described in the attached drawings and the detailed description, not only components essential for solving the problem but also components not essential for solving the problem in order to exemplify the above-mentioned technology May also be included. Therefore, the fact that those non-essential components are described in the attached drawings and the detailed description should not immediately mean that those non-essential components are essential.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for illustrating the technique in this indication, various change, substitution, addition, omission, etc. can be performed within the range of a claim or its equivalent.

本開示の立体視用映像撮影装置は、映像制作者が行う、風景撮影や、テレビドラマ等の作品撮影等、リハーサルを行うことが可能な撮影であって、特に、パンやチルトなどのカメラの動きを伴う撮影において、簡単に高品位な立体映像を撮影することが可能である。すなわち、本開示の立体視用映像撮影装置は、カメラもしくはビデオカメラとして好適に利用可能である。   The stereoscopic image capturing apparatus according to the present disclosure is an image capturer capable of performing rehearsal such as landscape shooting, shooting a work such as a TV drama, and the like performed by a video creator, and in particular, a camera such as pan or tilt. In shooting with motion, it is possible to shoot high-quality 3D images easily. That is, the stereoscopic video imaging device of the present disclosure can be suitably used as a camera or a video camera.

1 カメラ部
2 視差量算出部
3 信号処理部
4 表示処理部
5 表示部
6 GUI生成部
7 事前学習指示部
8 本番録画指示部
9 入力部
10 バス
11 制御部
11a 撮影パラメータ決定部
11b 撮影制御部
12 記録処理部
13 カメラ制御部
14 記憶部
20 レンズ間距離
21 輻輳角
22、24 被写体
23、25 像
26 仮想スクリーン(画面)
27 視差量
28、29、35、36、37、38 光軸
30、31 撮影位置
40、41、42、43 被写体
50、60、61 時刻
70 可動部
100 制御ユニット
101 第1のレンズ鏡筒(第1の撮影部)
102 第1のレンズ鏡筒保持部材
104 第1のレンズ鏡筒光軸
105 ビームスプリッター蒸着面
111 第2のレンズ鏡筒(第2の撮影部)
112 第2のレンズ鏡筒保持部材
113 レンズ間距離可変機構
114 第2のレンズ鏡筒光軸
120 基礎部材
121 垂直固定部材
122 前面窓
130 ビームスプリッタープリズム
131 プリズム保持部材
135 第1のレンズ鏡筒支持部材
136 第2のレンズ鏡筒支持部材
200、200a 立体視用映像撮影装置
211 第1のレンズ群
212 第1の撮像部
213 第1のA/D変換部
221 第2のレンズ群
222 第2の撮像部
223 第2のA/D変換部
Reference Signs List 1 camera unit 2 parallax amount calculation unit 3 signal processing unit 4 display processing unit 5 display unit 6 GUI generation unit 7 prior learning instruction unit 8 production recording instruction unit 9 input unit 10 bus 11 control unit 11 a imaging parameter determination unit 11 b imaging control unit 12 recording processing unit 13 camera control unit 14 storage unit 20 distance between lenses 21 convergence angle 22, 24 object 23, 25 image 26 virtual screen (screen)
27 Parallax amount 28, 29, 35, 36, 37, 38 Optical axis 30, 31 Shooting position 40, 41, 42, 43 Subject 50, 60, 61 Time 70 Movable part 100 Control unit 101 First lens barrel (first 1 shooting unit)
102 first lens barrel holding member 104 first lens barrel optical axis 105 beam splitter deposition surface 111 second lens barrel (second photographing unit)
112 second lens barrel holding member 113 inter-lens distance variable mechanism 114 second lens barrel light axis 120 base member 121 vertical fixing member 122 front window 130 beam splitter prism 131 prism holding member 135 first lens barrel support Member 136 Second lens barrel support member 200, 200a Stereoscopic imaging device 211 First lens group 212 First imaging unit 213 First A / D conversion unit 221 Second lens group 222 Second Imaging unit 223 Second A / D converter

Claims (10)

立体視用の映像を撮影する第1の撮影部および第2の撮影部と、
前記第1の撮影部および前記第2の撮影部のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを決定する撮影パラメータ決定部と、
前記第1の撮影部および前記第2の撮影部に前記撮影パラメータを設定して前記立体視用の映像を撮影する制御を行う撮影制御部とを備え、
前記撮影制御部が、所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって第1映像を撮影した場合、前記撮影パラメータ決定部は、前記第1映像において最大視差量が所定の範囲外となる第1期間を特定し、前記第1期間における前記第1映像の最大視差量が前記所定の範囲内に収まる前記撮影パラメータである第1補正パラメータを決定し、
前記撮影制御部は、前記第1映像の撮影後に前記第1映像に対応する第2映像を撮影する場合、前記所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像の撮影を開始し、前記第2映像を撮影中の、前記第1期間に対応する第2期間においては、前記第1補正パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像を撮影する制御を行う
立体視用映像撮影装置。
A first imaging unit and a second imaging unit that capture an image for stereoscopic viewing;
An imaging parameter determination unit that determines an imaging parameter that is at least one of an inter-lens distance and a convergence angle of the first imaging unit and the second imaging unit;
And an imaging control unit configured to set the imaging parameters in the first imaging unit and the second imaging unit and control the imaging of the stereoscopic image.
When the first imaging unit and the second imaging unit set the imaging parameters to the predetermined imaging parameters, the imaging parameter determination unit determines the maximum parallax amount in the first image. Specifies a first period in which the first image is out of a predetermined range, and determines a first correction parameter as the imaging parameter in which the maximum parallax amount of the first image in the first period falls within the predetermined range
The photographing control unit, when photographing the second image corresponding to the first image after the photographing of the first image, is performed by the first photographing unit and the second photographing unit set to the predetermined photographing parameter. During the second period corresponding to the first period, which starts capturing the second video and is capturing the second video, the first capturing unit and the second set to the first correction parameter A stereoscopic image capturing apparatus, which performs control of capturing the second image by the capturing unit.
前記撮影制御部は、前記第2映像の撮影中の、前記第2期間に時間的に連続する所定の長さの期間である第3期間においては、前記第1補正パラメータに設定した前記第1の撮影部および第2の撮影部によって前記第2映像を撮影する制御を行う
請求項1に記載の立体視用映像撮影装置。
The imaging control unit sets the first correction parameter to the first correction parameter during a third period, which is a period of a predetermined length temporally continuous with the second period, during imaging of the second image. The image capturing device for stereoscopic vision according to claim 1, wherein the image capturing unit and the second image capturing unit perform control to capture the second image.
前記撮影パラメータ決定部は、前記第2映像の撮影中の、前記第2期間に時間的に連続する所定の長さの期間である第3期間のための前記撮影パラメータとして、前記レンズ間距離が時間の経過とともに単調に増加もしくは減少する、または前記輻輳角が時間の経過とともに単調に増加もしくは減少する前記撮影パラメータである第2補正パラメータを決定し、
前記撮影制御部は、前記第3期間においては、前記第2補正パラメータに設定した前記第1の撮影部および第2の撮影部によって前記第2映像を撮影する制御を行う
請求項1に記載の立体視用映像撮影装置。
The imaging parameter determination unit determines the inter-lens distance as the imaging parameter for a third period, which is a period of a predetermined length temporally consecutive to the second period, during imaging of the second image. Determining a second correction parameter, which is the imaging parameter, which monotonously increases or decreases with the passage of time, or the convergence angle monotonously increases or decreases with the passage of time;
The imaging control unit performs control of imaging the second image by the first imaging unit and the second imaging unit set in the second correction parameter in the third period. Stereoscopic imaging device.
前記撮影制御部は、前記第2映像の撮影中の前記第2期間以外の期間においては、前記所定の撮影パラメータに設定した前記第1の撮影部および第2の撮影部によって前記第2映像を撮影する制御を行う
請求項1に記載の立体視用映像撮影装置。
The imaging control unit controls the first imaging unit and the second imaging unit set in the predetermined imaging parameters in a period other than the second period during imaging of the second image. The video imaging apparatus for stereoscopic vision according to claim 1, which performs control of photographing.
さらに、
前記第1映像の撮影時間が初期撮影時間として記憶される記憶部と、
前記第2映像の撮影時間と、前記初期撮影時間との差が所定の時間以上である場合に、前記第2映像の撮影が失敗であることを撮影者に通知する通知部とを備える
請求項1〜4のいずれか1項に記載の立体視用映像撮影装置。
further,
A storage unit that stores an imaging time of the first image as an initial imaging time;
A notification unit configured to notify a photographer that shooting of the second video has failed when a difference between the shooting time of the second video and the initial shooting time is equal to or longer than a predetermined time. The image | video imaging device for stereoscopic vision of any one of 1-4.
さらに、最大視差量が前記所定の範囲外となる期間が前記第2映像に含まれる場合に、前記第2映像の撮影が失敗であることを撮影者に通知する通知部を備える
請求項1〜4のいずれか1項に記載の立体視用映像撮影装置。
And a notification unit configured to notify the photographer that shooting of the second video is unsuccessful when a period in which the maximum parallax amount is outside the predetermined range is included in the second video. The stereoscopic video imaging device according to any one of 4.
前記第2映像は、前記第1映像において撮影対象となったシーンと略同一のシーンを撮影した映像である
請求項1〜6のいずれか1項に記載の立体視用映像撮影装置。
The stereoscopic video imaging apparatus according to any one of claims 1 to 6, wherein the second video is a video obtained by shooting a scene substantially the same as a scene to be photographed in the first video.
立体視用の映像を撮影する第1の撮影部および第2の撮影部を有するカメラ部と、
前記カメラ部の位置を動かす可動部と、
前記第1の撮影部および前記第2の撮影部のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを決定する撮影パラメータ決定部と、
前記第1の撮影部および前記第2の撮影部に前記撮影パラメータを設定し、前記立体視用の映像を撮影する制御を行う撮影制御部とを備え、
前記撮影制御部が、前記可動部によって前記カメラ部の位置を動かしながら、所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって第1映像を撮影した場合、前記撮影パラメータ決定部は、最大視差量が所定の範囲外となる前記カメラ部の位置である第1位置を特定し、前記第1位置において撮影した前記第1映像の最大視差量が前記所定の範囲内に収まる前記撮影パラメータである第1補正パラメータを決定し、
前記撮影制御部は、前記第1映像の撮影後に前記第1映像に対応する前記第2映像を撮影する場合、前記所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像の撮影を開始し、前記第2映像の撮影中に前記カメラ部が前記第1位置に位置するときは、前記第1補正パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像を撮影する制御を行う
立体視用映像撮影装置。
A camera unit having a first imaging unit and a second imaging unit that capture an image for stereoscopic viewing;
A movable unit that moves the position of the camera unit;
An imaging parameter determination unit that determines an imaging parameter that is at least one of an inter-lens distance and a convergence angle of the first imaging unit and the second imaging unit;
The imaging control unit is configured to set the imaging parameters in the first imaging unit and the second imaging unit and perform control of imaging the stereoscopic video.
When the imaging control unit moves the position of the camera unit by the movable unit, the first imaging unit and the second imaging unit set the predetermined imaging parameters capture the first image, the imaging is performed The parameter determination unit identifies a first position, which is the position of the camera unit where the maximum amount of parallax falls outside a predetermined range, and the maximum amount of parallax of the first image captured at the first position falls within the predetermined range. Determine a first correction parameter that is the imaging parameter that fits within
The imaging control unit sets the first imaging unit and the second imaging unit set to the predetermined imaging parameter when imaging the second image corresponding to the first image after imaging the first image. Start shooting the second video, and when the camera unit is positioned at the first position during shooting of the second video, the first shooting unit set in the first correction parameter and the first shooting parameter A stereoscopic video imaging device that performs control to capture the second image by the imaging unit;
さらに、前記第1映像の撮影時の前記カメラ部の位置の時間変化である位置情報が記憶される記憶部を備え、
前記撮影制御部は、前記第2映像を撮影中は、さらに、前記可動部を制御することによって、前記位置情報にしたがって前記カメラ部の位置を動かしながら前記第2映像を撮影する制御を行う
請求項8に記載の立体視用映像撮影装置。
And a storage unit for storing position information which is a time change of the position of the camera unit at the time of shooting the first image.
The imaging control unit performs control to capture the second image while moving the position of the camera unit according to the position information by further controlling the movable unit while capturing the second image. Item 9. The stereoscopic image capturing device according to item 8.
第1の撮影部および第2の撮影部のレンズ間距離および輻輳角のうちの少なくとも一方である撮影パラメータを前記第1の撮影部および前記第2の撮影部に設定して立体視用の映像を撮影する立体視用映像撮影方法であって、
所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって第1映像を撮影する撮影ステップと、
前記第1映像において最大視差量が所定の範囲外となる第1期間を特定する特定ステップと、
前記第1期間における前記第1映像の最大視差量が前記所定の範囲内に収まる前記撮影パラメータである補正パラメータを決定する決定ステップと、
前記第1映像の撮影後に前記第1映像に対応する第2映像を撮影する場合、前記所定の撮影パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像の撮影を開始し、前記第2映像を撮影中の、前記第1期間に対応する第2期間においては、前記補正パラメータに設定した前記第1の撮影部および前記第2の撮影部によって前記第2映像を撮影する制御を行う制御ステップとを含む
立体視用映像撮影方法。
An image for stereoscopic viewing by setting an imaging parameter which is at least one of the distance between lenses and the convergence angle of the first imaging unit and the second imaging unit in the first imaging unit and the second imaging unit A stereoscopic image capturing method for capturing
A photographing step of photographing a first image by the first photographing unit and the second photographing unit set to predetermined photographing parameters;
A specifying step of specifying a first period in which the maximum parallax amount is out of a predetermined range in the first image;
A determination step of determining a correction parameter which is the imaging parameter in which the maximum parallax amount of the first image in the first period falls within the predetermined range;
When shooting a second video corresponding to the first video after shooting the first video, shooting of the second video by the first shooting unit and the second shooting unit set in the predetermined shooting parameter During a second period corresponding to the first period, the second imaging unit and the second imaging unit set in the correction parameter. And a control step of performing control to shoot an image.
JP2013529461A 2012-03-08 2013-02-28 Stereoscopic imaging apparatus and stereoscopic imaging method Expired - Fee Related JP5362157B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013529461A JP5362157B1 (en) 2012-03-08 2013-02-28 Stereoscopic imaging apparatus and stereoscopic imaging method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012051359 2012-03-08
JP2012051359 2012-03-08
PCT/JP2013/001220 WO2013132797A1 (en) 2012-03-08 2013-02-28 Stereoscopic video imaging device and stereoscopic video imaging method
JP2013529461A JP5362157B1 (en) 2012-03-08 2013-02-28 Stereoscopic imaging apparatus and stereoscopic imaging method

Publications (2)

Publication Number Publication Date
JP5362157B1 true JP5362157B1 (en) 2013-12-11
JPWO2013132797A1 JPWO2013132797A1 (en) 2015-07-30

Family

ID=49116293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013529461A Expired - Fee Related JP5362157B1 (en) 2012-03-08 2013-02-28 Stereoscopic imaging apparatus and stereoscopic imaging method

Country Status (2)

Country Link
JP (1) JP5362157B1 (en)
WO (1) WO2013132797A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148869A (en) * 1999-09-15 2001-05-29 Sharp Corp Stereoscopic image with pleasant perceptional depth
JP2008116790A (en) * 2006-11-07 2008-05-22 Fujifilm Corp Multiple-lens photographing device, exposure setting method in same, and program
WO2011121841A1 (en) * 2010-03-31 2011-10-06 富士フイルム株式会社 3d-image capturing device
WO2012002018A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic image playback device, parallax adjustment method of same, parallax adjustment program, and image capture device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1085769B1 (en) * 1999-09-15 2012-02-01 Sharp Kabushiki Kaisha Stereoscopic image pickup apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148869A (en) * 1999-09-15 2001-05-29 Sharp Corp Stereoscopic image with pleasant perceptional depth
JP2008116790A (en) * 2006-11-07 2008-05-22 Fujifilm Corp Multiple-lens photographing device, exposure setting method in same, and program
WO2011121841A1 (en) * 2010-03-31 2011-10-06 富士フイルム株式会社 3d-image capturing device
WO2012002018A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Stereoscopic image playback device, parallax adjustment method of same, parallax adjustment program, and image capture device

Also Published As

Publication number Publication date
JPWO2013132797A1 (en) 2015-07-30
WO2013132797A1 (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5789793B2 (en) Three-dimensional imaging device, lens control device, and program
US9523836B2 (en) Image pickup device and program
JP5258722B2 (en) Compound eye camera and control method thereof
US8743174B2 (en) Digital camera and method for controlling the same
US9077976B2 (en) Single-eye stereoscopic image capturing device
US8384802B2 (en) Image generating apparatus and image regenerating apparatus
WO2012002046A1 (en) Stereoscopic panorama image synthesizing device and compound-eye imaging device as well as stereoscopic panorama image synthesizing method
KR101824439B1 (en) Mobile Stereoscopic Camera Apparatus and Method of Shooting thereof
US20110280563A1 (en) Camera body, imaging device, method for controlling camera body, program, and storage medium storing program
WO2011162227A1 (en) Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
JP5166650B2 (en) Stereo imaging device, image playback device, and editing software
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP5420075B2 (en) Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
CN102135722B (en) Camera structure, camera system and method of producing the same
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2012090259A (en) Imaging apparatus
CN103339948B (en) 3D video playing device, 3D imaging device, and 3D video playing method
JP2011095431A (en) Stereoscopic video pickup device and stereoscopic video pickup method
US20130088580A1 (en) Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded
JP5362157B1 (en) Stereoscopic imaging apparatus and stereoscopic imaging method
US20120069148A1 (en) Image production device, image production method, program, and storage medium storing program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees