JP2013090180A - Stereoscopic image photographing/displaying apparatus - Google Patents

Stereoscopic image photographing/displaying apparatus Download PDF

Info

Publication number
JP2013090180A
JP2013090180A JP2011229532A JP2011229532A JP2013090180A JP 2013090180 A JP2013090180 A JP 2013090180A JP 2011229532 A JP2011229532 A JP 2011229532A JP 2011229532 A JP2011229532 A JP 2011229532A JP 2013090180 A JP2013090180 A JP 2013090180A
Authority
JP
Japan
Prior art keywords
eye
video
unit
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011229532A
Other languages
Japanese (ja)
Inventor
Fumio Okano
文男 岡野
Hiroshi Senoo
宏 妹尾
Toshiyoshi Numazawa
俊義 沼澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
Nippon Hoso Kyokai NHK
NHK Engineering Services Inc
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, NHK Engineering Services Inc, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011229532A priority Critical patent/JP2013090180A/en
Publication of JP2013090180A publication Critical patent/JP2013090180A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a stereoscopic image where stereoscopic effect has been enhanced.SOLUTION: A stereoscopic image photographing/displaying apparatus includes: a left eye corresponding photographing part 10L for photographing a subject to thereby generate left eye corresponding photographic data corresponding to a left eye; a right eye corresponding photographing part 10R for photographing the subject while setting an inter-optical axis distance from a photographing optical axis of the left eye corresponding photographing part 10L at a predetermined distance to thereby generate right eye corresponding photographic data corresponding to a right eye; a left eye image area extracting part 20 L for extracting a rectangular image area from left eye corresponding image data to thereby generate left eye image area data; a right eye image area extracting part 20R for extracting a rectangular image area from right eye corresponding image data to thereby generate right eye image area data; an image synthesizing part 30 for synthesizing the left eye image area data and the right eye image area data with each other to thereby generate synthetic image data; and an image presenting part 40 for displaying the synthetic image data, presenting the left eye image area data contained in the synthetic image data so as to correspond to the left eye, and presenting the right eye image area data contained in the synthetic image data so as to correspond to the right eye.

Description

本発明は、立体映像撮影表示装置に関する。   The present invention relates to a stereoscopic video shooting and display device.

観察者が両眼でとらえた網膜像に基づき得られる視覚的な立体感と同等の立体感を映像表示によって得るために、二台の撮影装置それぞれの撮影光学系の光軸間距離を、人間の両眼の標準的な中心間距離と同等な約65ミリメートルに設定した立体映像撮像装置が知られている(例えば、特許文献1参照)。この立体映像撮像装置によれば、撮影における被写体に対する視野および撮影映像の表示画面における視野と、これら両方の視野それぞれにおける解像度は概ね一致する。   In order to obtain a three-dimensional effect equivalent to the visual three-dimensional effect obtained from the retinal image captured by the observer with both eyes, the distance between the optical axes of the photographic optical systems of each of the two imaging devices is There is known a stereoscopic video imaging apparatus set to about 65 mm, which is equivalent to the standard center-to-center distance of both eyes (see, for example, Patent Document 1). According to this stereoscopic image capturing apparatus, the field of view for the subject in photographing and the field of view on the display screen of the photographed image are approximately the same in resolution.

また、観察者と観察の対象物との距離が離れるほど、その観察者が知覚する対象物の立体感は弱まる。同様に、観察者と対象物との距離が一定であっても、観察者の両眼の間隔が狭くなるほどその観察者が知覚する対象物の立体感は弱まる。   In addition, as the distance between the observer and the object to be observed increases, the stereoscopic effect of the object perceived by the observer becomes weaker. Similarly, even if the distance between the observer and the object is constant, the stereoscopic effect of the object perceived by the observer becomes weaker as the distance between the eyes of the observer becomes narrower.

特開2001−147401号公報JP 2001-147401 A

立体映像を鑑賞させる娯楽施設等において、より臨場感を高めて娯楽性を向上させたいとの要望がある。また、立体映像を用いて監視を行う映像監視分野において、奥行を高精度に求めたいとの要望がある。また、医療分野において、例えば開腹手術の詳細な様子を立体映像としてとらえ、手術医療や医療教育に役立てたいとの要望がある。
つまり、より立体感が強調された立体映像を取得したいという課題がある。
本発明は、上記課題を解決するためになされたものであり、立体感が強調された立体映像を得る、立体映像撮影表示装置を提供することを目的とする。
There is a desire to improve the amusement by enhancing the sense of reality in entertainment facilities that allow viewers to view stereoscopic images. In addition, there is a demand for obtaining the depth with high accuracy in the field of video surveillance in which monitoring is performed using stereoscopic video. In the medical field, for example, there is a demand for taking a detailed state of laparotomy as a stereoscopic image and using it for surgery and medical education.
That is, there is a problem that it is desired to acquire a stereoscopic video with a more enhanced stereoscopic effect.
The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a stereoscopic video shooting and display device that obtains a stereoscopic video with enhanced stereoscopic effect.

[1]上記の課題を解決するため、本発明の一態様である立体映像撮影表示装置は、被写体を撮影して、利用者の左眼に対応する左眼対応撮影データを生成する左眼対応撮影部と、前記左眼対応撮影部の撮影光軸との光軸間距離を所定距離として設け、前記被写体を撮影して、前記利用者の右眼に対応する右眼対応撮影データを生成する右眼対応撮影部と、前記左眼対応撮影部が生成する前記左眼対応撮影データを取り込み、前記左眼対応映像データから矩形の映像領域を抽出して左眼映像領域データを生成する左眼映像領域抽出部と、前記右眼対応撮影部が生成する前記右眼対応撮影データを取り込み、前記右眼対応映像データから矩形の映像領域を抽出して右眼映像領域データを生成する右眼映像領域抽出部と、左眼映像領域抽出部が生成する前記左眼映像領域データと右眼映像領域抽出部が生成する前記右眼映像領域データとを取り込み、前記左眼映像領域データと前記右眼映像領域データとを合成して合成映像データを生成する映像合成部と、前記映像合成部が生成する前記合成映像データを取り込んで前記合成映像データを表示し、前記合成映像データに含まれる前記左眼映像領域データを前記利用者の左眼に対応させて提示し、前記合成映像データに含まれる前記右眼映像領域データを前記利用者の右眼に対応させて提示する映像提示部と、を備えることを特徴とする。
ここで、左眼対応撮影部および右眼対応撮影部は、左眼対応撮影映像データと右眼対応撮影映像データとの間に視差が生ずるように設けられる。具体的に、例えば、左眼対応撮影部の撮影光学系の光軸(撮影光軸)と、右眼対応撮影部の撮影光学系の光軸とが平行、または輻輳(左眼対応撮影部および右眼対応撮影部の前方で交差)し、且つ撮影光学系における両光軸の間隔(光軸間距離)が、人間の両眼の標準的な中心間距離である約65ミリメートルに対して約5倍から約10倍またはそれ以上の距離となるように、左眼対応撮影部および右眼対応撮影部が設けられる。
[2]上記[1]記載の立体映像撮影表示装置において、前記映像提示部の方向を検出し、前記方向に基づいて、前記左眼映像領域抽出部と前記右眼映像領域抽出部とがそれぞれ抽出する矩形の映像領域の切出位置を決定し、前記切出位置を前記左眼映像領域抽出部と前記右眼映像領域抽出部とに供給する切出位置指定部をさらに備え、前記左眼映像領域抽出部は、前記切出位置指定部から供給される切出位置を取り込み、前記切出位置に基づいて前記左眼対応映像データから矩形の映像領域を抽出し、前記右眼映像領域抽出部は、前記切出位置指定部から供給される切出位置を取り込み、前記切出位置に基づいて前記右眼対応映像データから矩形の映像領域を抽出することを特徴とする。
ここで、切出位置指定部は、外部の方向センサから、映像表示部のパン方向およびチルト方向ならびに方向ごとの移動量を移動情報として取り込み、この移動情報に基づいて矩形の映像領域の切出位置を決定する。または、切出位置指定部は、レバーやボタン等の方向操作部からパン動作およびチルト動作に対応する移動情報を取り込む。つまり、移動情報は、映像表示装置200の物理的な方向を示す情報である。
[1] In order to solve the above-described problem, a stereoscopic video shooting and display device according to an aspect of the present invention captures a subject and generates left-eye corresponding shooting data corresponding to the left eye of the user. A distance between the optical axes of the photographing unit and the photographing optical axis of the left-eye photographing unit is provided as a predetermined distance, and the subject is photographed to generate right-eye photographing data corresponding to the right eye of the user. A left eye that captures the left-eye corresponding photographing data generated by the right-eye corresponding photographing unit and the left-eye corresponding photographing unit, extracts a rectangular image region from the left-eye corresponding video data, and generates left-eye image region data. A right-eye image that captures the right-eye-captured shooting data generated by the video-region extraction unit and the right-eye-capable shooting unit, extracts a rectangular video region from the right-eye-corresponding video data, and generates right-eye video region data A region extraction unit and a left eye image region extraction unit Capturing the left-eye video area data and the right-eye video area data generated by the right-eye video area extraction unit, and generating the synthesized video data by combining the left-eye video area data and the right-eye video area data And the composite video data generated by the video composite unit is displayed to display the composite video data, and the left eye video area data included in the composite video data corresponds to the left eye of the user And a video presentation unit that presents the right-eye video region data included in the composite video data in correspondence with the right eye of the user.
Here, the left-eye corresponding photographing unit and the right-eye corresponding photographing unit are provided so that a parallax is generated between the left-eye corresponding photographing video data and the right-eye corresponding photographing video data. Specifically, for example, the optical axis (imaging optical axis) of the imaging optical system of the imaging unit corresponding to the left eye is parallel to the optical axis of the imaging optical system of the imaging unit corresponding to the right eye, or convergence (the imaging unit corresponding to the left eye and The distance between the optical axes in the imaging optical system (inter-optical axis distance) is about 65 mm, which is the standard center-to-center distance between both human eyes. The left-eye imaging unit and the right-eye imaging unit are provided so that the distance is 5 times to about 10 times or more.
[2] In the stereoscopic video shooting and display device according to [1], the direction of the video presentation unit is detected, and the left eye video region extraction unit and the right eye video region extraction unit are respectively based on the direction. A left-eye image region extraction unit that determines a cut-out position of a rectangular video region to be extracted and supplies the cut-out position to the left-eye video region extraction unit and the right-eye video region extraction unit; The video area extraction unit takes in the cut-out position supplied from the cut-out position designation unit, extracts a rectangular video area from the left-eye corresponding video data based on the cut-out position, and extracts the right-eye video area The unit captures the cut-out position supplied from the cut-out position specifying unit, and extracts a rectangular video area from the right-eye corresponding video data based on the cut-out position.
Here, the cut-out position designation unit takes in the pan direction and tilt direction of the video display unit and the movement amount for each direction as movement information from an external direction sensor, and cuts out a rectangular video area based on the movement information. Determine the position. Alternatively, the cut-out position designation unit takes in movement information corresponding to the pan operation and the tilt operation from the direction operation unit such as a lever or a button. That is, the movement information is information indicating the physical direction of the video display device 200.

本発明によれば、立体感が強調された立体映像を得ることができる。   According to the present invention, it is possible to obtain a stereoscopic image in which the stereoscopic effect is emphasized.

本発明の第1実施形態である立体映像撮影表示装置の概略の外観を示す斜視図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a perspective view showing an outline appearance of a stereoscopic video shooting and display device that is a first embodiment of the present invention. 同実施形態における、立体映像撮影表示装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the three-dimensional video imaging | photography display apparatus in the same embodiment. 切出位置指定部により指定された切出位置に基づき、左眼映像領域抽出部によって左眼対応撮影映像のフレーム画像から抽出される矩形の映像領域を模式的に示す図である。It is a figure which shows typically the rectangular video area | region extracted from the frame image of a left-eye corresponding | compatible imaging | video image | video by the left eye image | video area extraction part based on the cutting position designated by the cutting position designation | designated part. 同実施形態における、映像合成部が生成する合成映像データおよび制御信号の概略のタイミングチャートである。4 is a schematic timing chart of synthesized video data and control signals generated by a video synthesis unit in the embodiment. 同実施形態における、映像提示部の上面視による、概略の模式的な断面図である。FIG. 2 is a schematic schematic cross-sectional view of the video presentation unit as viewed from above in the same embodiment. 本発明の第2実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the stereoscopic video imaging | photography display apparatus which is 2nd Embodiment of this invention. 同実施形態における、映像提示部の上面視による、概略の模式的な断面図である。FIG. 2 is a schematic schematic cross-sectional view of the video presentation unit as viewed from above in the same embodiment. 本発明の第3実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the stereo image imaging | photography display device which is 3rd Embodiment of this invention. 映像合成部が生成する合成映像データにおけるフレーム画像の構成を模式的に示す図である。It is a figure which shows typically the structure of the frame image in the synthetic | combination video data which a video synthetic | combination part produces | generates. 同実施形態における、映像提示部の上面視による、概略の模式的な断面図である。FIG. 2 is a schematic schematic cross-sectional view of the video presentation unit as viewed from above in the same embodiment. 本発明の第4実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the three-dimensional video imaging | photography display apparatus which is 4th Embodiment of this invention. 同実施形態における、映像提示部の上面視による、概略の模式的な断面図である。FIG. 2 is a schematic schematic cross-sectional view of the video presentation unit as viewed from above in the same embodiment.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1実施形態である立体映像撮影表示装置の概略の外観を示す斜視図である。同図に示すように、立体映像撮影表示装置1は、撮影装置100および映像表示装置200を備える。撮影装置100は、左眼対応撮影部10Lおよび右眼対応撮影部10Rを備えるステレオ撮影装置(双眼鏡型撮影装置)である。左眼対応撮影部10Lと右眼対応撮影部10Rとの位置関係については後述する。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a perspective view showing an outline of the appearance of a stereoscopic video shooting and display apparatus according to the first embodiment of the present invention. As shown in the figure, the stereoscopic video shooting and display device 1 includes a shooting device 100 and a video display device 200. The imaging device 100 is a stereo imaging device (binocular imaging device) including a left-eye imaging unit 10L and a right-eye imaging unit 10R. The positional relationship between the left-eye imaging unit 10L and the right-eye imaging unit 10R will be described later.

撮影装置100は地面に対して固定される。具体的には、左眼対応撮影部10Lは、柱の軸が略鉛直(鉛直を含む。以下同様。)となるよう一端を地面に固定した支柱301の他端に固定される。また、右眼対応撮影部10Rは、柱の軸が略鉛直となるよう一端を地面に固定した支柱302の他端に固定される。
映像表示装置200は、支柱400に可動支持される。映像表示装置200は、支柱400の軸(図1における一点鎖線)を中心としたパン動作と、それと直交する軸を中心としたチルト動作とにより、方向を変更できる。映像表示装置200は、利用者(観察者、鑑賞者等)による手動操作によってパン動作およびチルト動作を実現し、パン方向およびチルト方向ならびに方向ごとの移動量(例えば、回転角度)を移動情報として取得する。
The imaging device 100 is fixed with respect to the ground. Specifically, the left-eye corresponding imaging unit 10L is fixed to the other end of the column 301 having one end fixed to the ground so that the axis of the column is substantially vertical (including vertical, the same applies hereinafter). Further, the right-eye imaging unit 10R is fixed to the other end of the column 302 having one end fixed to the ground so that the column axis is substantially vertical.
The video display device 200 is movably supported by the support column 400. The video display device 200 can change the direction by a panning operation centered on the axis of the support column 400 (a chain line in FIG. 1) and a tilting operation centered on an axis orthogonal thereto. The video display device 200 realizes a pan operation and a tilt operation by a manual operation by a user (observer, viewer, etc.), and uses a pan direction, a tilt direction, and a movement amount (for example, a rotation angle) for each direction as movement information. get.

立体映像撮影表示装置1は、例えば、景勝地の風景等を観察させる風景観察装置、競技場等における競技を観戦させる鑑賞装置、監視区域の監視を行う監視装置等に適用される。   The stereoscopic video shooting and display device 1 is applied to, for example, a landscape observation device for observing scenic scenery, an appreciation device for watching a game in a stadium, a monitoring device for monitoring a monitoring area, and the like.

図2は、立体映像撮影表示装置1の機能構成を示すブロック図である。
同図において、撮影装置100は、被写体を撮影し、立体映像撮影表示装置1の利用者の左眼に対応する左眼対応撮影映像データと、前記の利用者の右眼に対応する右眼対応撮影映像データとをそれぞれ生成し、これら左眼対応撮影映像データおよび右眼対応撮影映像データを映像表示装置200に供給する。具体的に、撮影装置100は、被写体を撮影して左眼対応撮影映像データを生成する左眼対応撮影部10Lと、前記の被写体を撮影して右眼対応撮影映像データを生成する右眼対応撮影部10Rとを備える。
FIG. 2 is a block diagram showing a functional configuration of the stereoscopic video shooting and display apparatus 1.
In the figure, an imaging device 100 captures a subject and captures left-eye-corresponding captured video data corresponding to the left eye of the user of the stereoscopic image capturing and display device 1 and a right-eye corresponding to the right eye of the user. Shooting video data is generated, and the left-eye corresponding shooting video data and the right-eye corresponding shooting video data are supplied to the video display device 200. Specifically, the imaging apparatus 100 captures a subject and generates a left-eye-capable shooting video data 10L, and a right-eye support that captures the subject and generates a right-eye-captured shooting video data. And an imaging unit 10R.

左眼対応撮影部10Lおよび右眼対応撮影部10Rは、同等の撮影機能を備えたビデオカメラ装置である。左眼対応撮影部10Lが生成する左眼対応撮影映像データと、右眼対応撮影部10Rが生成する右眼対応撮影映像データとのそれぞれは、例えば、超高精細映像のデータである。具体的に、超高精細映像は、横7680画素×縦4320画素の解像度を有するスーパーハイビジョン映像や、横4096画素×縦2160画素の解像度を有するデジタルシネマ映像等である。   The left-eye imaging unit 10L and the right-eye imaging unit 10R are video camera devices having an equivalent imaging function. Each of the left-eye corresponding captured video data generated by the left-eye corresponding capturing unit 10L and the right-eye corresponding captured video data generated by the right-eye corresponding capturing unit 10R is, for example, ultra-high-definition image data. Specifically, the super high-definition video is a super high-definition video having a resolution of horizontal 7680 pixels × vertical 4320 pixels, a digital cinema video having a resolution of horizontal 4096 pixels × vertical 2160 pixels, or the like.

左眼対応撮影部10Lおよび右眼対応撮影部10Rは、左眼対応撮影映像データと右眼対応撮影映像データとの間に視差が生ずるように設けられる。具体的に、例えば、左眼対応撮影部10Lの撮影光学系の光軸(撮影光軸)と、右眼対応撮影部10Rの撮影光学系の光軸とが平行または輻輳(左眼対応撮影部10Lおよび右眼対応撮影部10Rの前方で交差)し、且つ撮影光学系における両光軸の間隔(光軸間距離)が、人間の両眼の標準的な中心間距離である約65ミリメートルに対して約5倍から約10倍またはそれ以上の距離となるように、左眼対応撮影部10Lおよび右眼対応撮影部10Rが設けられる。   The left eye corresponding photographing unit 10L and the right eye corresponding photographing unit 10R are provided so that a parallax is generated between the left eye corresponding photographing video data and the right eye corresponding photographing video data. Specifically, for example, the optical axis (imaging optical axis) of the imaging optical system of the left-eye imaging unit 10L and the optical axis of the imaging optical system of the right-eye imaging unit 10R are parallel or converged (left-eye imaging unit). 10L and the right-eye imaging unit 10R in front of each other), and the distance between the optical axes in the imaging optical system (the distance between the optical axes) is about 65 mm, which is the standard center-to-center distance between the human eyes. On the other hand, the left-eye imaging unit 10L and the right-eye imaging unit 10R are provided so that the distance is about 5 times to about 10 times or more.

左眼対応撮影部10Lと右眼対応撮影部10Rとの光軸間距離を一定とした場合、撮影装置100と被写体との距離が長くなるほど、左眼対応撮影映像データと右眼対応撮影映像データとから得られる視差は小さくなる。また、撮影装置100と被写体との距離を一定とした場合、左眼対応撮影部10Lと右眼対応撮影部10Rとの光軸間距離が長くなるほど、左眼対応撮影映像データと右眼対応撮影映像データとから得られる視差は大きくなる。
よって、立体映像撮影表示装置1の設置環境、用途、使用目的等によって想定される、立体映像撮影表示装置1と被写体との距離に応じて、左眼対応撮影部10Lと右眼対応撮影部10Rとの光軸間距離が決められる。
When the distance between the optical axes of the left-eye imaging unit 10L and the right-eye imaging unit 10R is constant, the longer the distance between the imaging device 100 and the subject, the longer the left-eye imaging data and the right-eye imaging data. The parallax obtained from Further, when the distance between the photographing apparatus 100 and the subject is constant, the longer the distance between the optical axes of the left-eye corresponding photographing unit 10L and the right-eye corresponding photographing unit 10R, the longer the left-eye corresponding photographing video data and the right-eye corresponding photographing. The parallax obtained from the video data increases.
Accordingly, the left-eye corresponding photographing unit 10L and the right-eye corresponding photographing unit 10R are assumed in accordance with the distance between the three-dimensional image photographing display device 1 and the subject, which is assumed depending on the installation environment, usage, purpose of use, and the like of the three-dimensional image photographing display device 1. The distance between the optical axes is determined.

映像表示装置200は、撮影装置100から供給される左眼対応撮影映像データおよび右眼対応撮影映像データを取り込み、これら左眼対応撮影映像データおよび右眼対応撮影映像データそれぞれから矩形の映像領域を抽出し、これら矩形の映像領域を合成して表示する。ただし、映像表示装置200は、撮影映像のフレーム画像における矩形の映像領域の位置を、あらかじめ決定された基準方向に対する映像表示装置200の方向の変化量に応じて決定する。   The video display device 200 takes in the left-eye-capable photographic video data and the right-eye-captured photographic video data supplied from the photographic device 100, and forms a rectangular video area from each of the left-eye-capable photographic video data and the right-eye photographic video data. Extract and synthesize and display these rectangular video areas. However, the video display device 200 determines the position of the rectangular video region in the frame image of the captured video according to the amount of change in the direction of the video display device 200 with respect to a predetermined reference direction.

映像表示装置200は、その機能構成として、左眼映像領域抽出部20Lと、右眼映像領域抽出部20Rと、映像合成部30と、映像提示部40と、切出位置指定部50とを備える。   The video display device 200 includes a left-eye video region extraction unit 20L, a right-eye video region extraction unit 20R, a video composition unit 30, a video presentation unit 40, and a cut-out position designation unit 50 as functional configurations. .

左眼映像領域抽出部20Lは、撮影装置100の左眼対応撮影部10Lから供給される左眼対応撮影映像データを取り込み、また、切出位置指定部50から供給される切出位置信号を取り込む。切出位置信号は、左眼対応撮影映像データおよび右眼対応撮影映像データそれぞれから切り出す矩形の映像領域の切出位置を示す信号である。切出位置は、例えば、撮影映像のフレーム画像における切出しの起点(基準点)である。
左眼映像領域抽出部20Lは、切出位置信号が示す切出位置に基づいて、左眼対応撮影映像データから、映像提示部40が表示可能な最大画素数分の矩形の映像領域またはそれよりも少ない画素数分の矩形の映像領域を抽出し、この映像領域のデータを左眼映像領域データとして映像合成部30に供給する。
The left-eye video region extraction unit 20L takes in the left-eye-corresponding photographic video data supplied from the left-eye-corresponding photographing unit 10L of the photographing apparatus 100, and takes in the cut-out position signal supplied from the cut-out position designation unit 50. . The cut-out position signal is a signal indicating the cut-out position of a rectangular video region cut out from each of the left-eye-corresponding captured video data and the right-eye-capable captured video data. The cutout position is, for example, a cutout start point (reference point) in the frame image of the captured video.
The left-eye video region extraction unit 20L, based on the cut-out position indicated by the cut-out position signal, is a rectangular video region corresponding to the maximum number of pixels that can be displayed by the video presentation unit 40 from the left-eye-captured video data. A rectangular video area corresponding to a smaller number of pixels is extracted, and data of this video area is supplied to the video composition unit 30 as left-eye video area data.

右眼映像領域抽出部20Rは、撮影装置100の右眼対応撮影部10Rから供給される右眼対応撮影映像データを取り込み、また、切出位置指定部50から供給される切出位置信号を取り込む。
右眼映像領域抽出部20Rは、切出位置信号が示す切出位置に基づいて、右眼対応撮影映像データから、映像提示部40が表示可能な最大画素数分の矩形の映像領域またはそれよりも少ない画素数分の矩形の映像領域を抽出し、この映像領域のデータを右眼映像領域データとして映像合成部30に供給する。
The right-eye video region extracting unit 20R takes in the right-eye-captured video data supplied from the right-eye-capturing photographing unit 10R of the photographing apparatus 100, and takes in the cut-out position signal supplied from the cut-out position specifying unit 50. .
The right-eye video region extraction unit 20R uses a rectangular video region corresponding to the maximum number of pixels that can be displayed by the video presentation unit 40 based on the cut-out position indicated by the cut-out position signal. A rectangular video area corresponding to a smaller number of pixels is extracted, and the video area data is supplied to the video composition unit 30 as right-eye video area data.

このように、左眼映像領域抽出部20Lおよび右眼映像領域抽出部20Rが、左眼対応撮影映像データおよび右眼対応撮影映像データから矩形の映像領域を抽出する(切出す)ことにより、左眼対応の矩形の映像領域と右眼対応の矩形の映像領域との視差は、左眼対応撮影映像と右眼対応撮影映像との視差よりも大きくなる。よって、映像提示部40により提供される立体映像は立体感がより強調された映像となる。   As described above, the left-eye video area extraction unit 20L and the right-eye video area extraction unit 20R extract (cut out) a rectangular video area from the left-eye-captured video data and the right-eye-captured video data. The parallax between the rectangular image area corresponding to the eye and the rectangular image area corresponding to the right eye is larger than the parallax between the captured image corresponding to the left eye and the captured image corresponding to the right eye. Therefore, the stereoscopic video provided by the video presentation unit 40 is a video with a more enhanced stereoscopic effect.

映像合成部30は、左眼映像領域抽出部20Lから供給される左眼映像領域データを取り込み、右眼映像領域抽出部20Rから供給される右眼映像領域データを取り込む。そして、映像合成部30は、左眼映像領域データと右眼映像領域データとを時間方向に合成して合成映像データを生成する。具体的に、映像合成部30は、左眼映像領域データと右眼映像領域データとの各フレーム画像を、交互に且つ時系列に並び替えた合成映像データを生成する。   The video composition unit 30 takes in the left eye video region data supplied from the left eye video region extraction unit 20L, and takes in the right eye video region data supplied from the right eye video region extraction unit 20R. The video composition unit 30 then synthesizes the left-eye video region data and the right-eye video region data in the time direction to generate composite video data. Specifically, the video compositing unit 30 generates composite video data in which the frame images of the left eye video area data and the right eye video area data are rearranged alternately and in time series.

また、映像合成部30は、合成映像を映像提示部40に表示させるための制御信号を生成する。本実施形態における制御信号は、左眼対応シャッタ制御信号および右眼対応シャッタ制御信号である。左眼対応シャッタ制御信号は、利用者の左眼に対応する左眼対応シャッタの開閉を制御する信号である。右眼対応シャッタ制御信号は、利用者の右眼に対応する右眼対応シャッタの開閉を制御する信号である。制御信号と左眼対応シャッタと右眼対応シャッタとについては、その詳細を後述する。
映像合成部30は、合成映像データおよび制御信号を映像提示部40に供給する。
Further, the video composition unit 30 generates a control signal for causing the video presentation unit 40 to display the composite video. The control signals in the present embodiment are a left-eye shutter control signal and a right-eye shutter control signal. The left-eye shutter control signal is a signal for controlling opening / closing of the left-eye shutter corresponding to the left eye of the user. The right-eye shutter control signal is a signal that controls opening and closing of the right-eye shutter corresponding to the right eye of the user. Details of the control signal, the left-eye shutter, and the right-eye shutter will be described later.
The video composition unit 30 supplies the composite video data and the control signal to the video presentation unit 40.

映像提示部40は、映像合成部30から供給される合成映像データを取り込んで合成映像を表示し、合成映像データに含まれる左眼映像領域データを利用者の左眼に対応させて提示し、合成映像データに含まれる右眼映像領域データを利用者の右眼に対応させて提示する。具体的に、映像提示部40は、映像合成部30から供給される合成映像データおよび制御信号を取り込み、合成映像を表示するとともに、左眼対応シャッタおよび右眼対応シャッタそれぞれの開閉を制御する。映像提示部40の詳細な構成については後述する。   The video presentation unit 40 captures the composite video data supplied from the video synthesis unit 30, displays the composite video, and presents the left-eye video region data included in the composite video data corresponding to the left eye of the user, The right eye image area data included in the composite image data is presented in correspondence with the right eye of the user. Specifically, the video presentation unit 40 takes in the synthesized video data and the control signal supplied from the video synthesis unit 30, displays the synthesized video, and controls the opening / closing of the left-eye shutter and the right-eye shutter. A detailed configuration of the video presentation unit 40 will be described later.

切出位置指定部50は、外部の方向センサから、映像表示装置200のパン方向およびチルト方向ならびに方向ごとの移動量を移動情報として取り込み、この移動情報に基づいて矩形の映像領域の切出位置を決定する。つまり、移動情報は、映像表示装置200の物理的な方向を示す情報である。切出位置指定部50は、取り込んだ移動情報に基づき、パン方向およびチルト方向を、撮影映像データ(左眼対応撮影映像データおよび右眼対応撮影映像データ)のフレーム画像の水平方向および垂直方向に対応付ける。そして、切出位置指定部50は、フレーム画像の中央位置から移動量に応じた位置を切出位置として決定する。
切出位置指定部50は、切出位置を示す切出位置信号を生成し、この切出位置信号を左眼映像領域抽出部20Lおよび右眼映像領域抽出部20Rに供給する。
The cut-out position designation unit 50 takes in the pan direction and tilt direction of the video display device 200 and the movement amount for each direction as movement information from an external direction sensor, and cuts out the rectangular video area based on the movement information. To decide. That is, the movement information is information indicating the physical direction of the video display device 200. Based on the captured movement information, the cutout position designation unit 50 sets the pan direction and the tilt direction in the horizontal direction and the vertical direction of the frame image of the captured video data (left-eye-captured video data and right-eye-captured video data). Associate. Then, the cutout position designation unit 50 determines a position corresponding to the movement amount from the center position of the frame image as the cutout position.
The cut position specifying unit 50 generates a cut position signal indicating the cut position, and supplies the cut position signal to the left eye video region extracting unit 20L and the right eye video region extracting unit 20R.

図3は、切出位置指定部50により指定された切出位置に基づき、左眼映像領域抽出部20Lによって左眼対応撮影映像のフレーム画像から抽出される矩形の映像領域を模式的に示す図である。
なお、同図は、左眼映像領域抽出部20Lによる映像領域の抽出の例を示す図であるが、右眼映像領域抽出部20Rによる映像領域の抽出も同様に行われる。よって、ここでは、左眼の例について説明し、右眼の例についての説明を省略する。
FIG. 3 is a diagram schematically showing a rectangular video region extracted from the frame image of the left-eye-captured video image by the left-eye video region extraction unit 20L based on the cut-out position designated by the cut-out position designation unit 50. It is.
The figure shows an example of video region extraction by the left-eye video region extraction unit 20L, but the video region extraction by the right-eye video region extraction unit 20R is similarly performed. Therefore, here, an example of the left eye will be described, and description of the example of the right eye will be omitted.

図3において、フレーム画像Fは、左眼対応撮影映像データにおけるフレーム画像であり、横7680画素×縦4320画素の解像度を有する超高精細画像である。位置O(オー)は、撮影の基準方向に対応する映像領域Psの切出位置であり、例えば、フレーム画像Fの中心位置である。フレーム画像Fの左上端を原点(0,0)とし、横方向および縦方向の二次元座標系をフレーム画像Fに適用した場合、位置O(オー)の座標値は(3840,2160)である。映像領域Psは、位置O(オー)を中心とした矩形の映像領域である。位置Sは、切出位置指定部50により指定された切出位置である。例えば、位置Sの座標値は(5600,1000)である。映像領域Peは、位置Sを中心とした矩形の映像領域である。映像領域Psおよび映像領域Peは、横1920画素×縦1080画素の解像度を有する高精細映像の領域である。同図における例では、位置O(オー)から位置Sまでの変化量は、横1760画素、縦1160画素である。なお、位置O(オー)および位置Sは、前記の切出しの基点(基準点)である。   In FIG. 3, a frame image F is a frame image in the left-eye-captured captured video data, and is an ultra-high-definition image having a resolution of horizontal 7680 pixels × vertical 4320 pixels. The position O (O) is a cut-out position of the video area Ps corresponding to the shooting reference direction, for example, the center position of the frame image F. When the upper left corner of the frame image F is the origin (0, 0) and the two-dimensional coordinate system in the horizontal and vertical directions is applied to the frame image F, the coordinate value of the position O (O) is (3840, 2160). . The video area Ps is a rectangular video area centered on the position O (O). The position S is a cut position specified by the cut position specifying unit 50. For example, the coordinate value of the position S is (5600, 1000). The video area Pe is a rectangular video area centered on the position S. The video area Ps and the video area Pe are areas of high-definition video having a resolution of horizontal 1920 pixels × vertical 1080 pixels. In the example in the figure, the amount of change from the position O (O) to the position S is 1760 pixels wide and 1160 pixels vertical. Note that the position O (O) and the position S are the above-described base points (reference points) for cutting.

図4は、映像合成部30が生成する合成映像データおよび制御信号の概略のタイミングチャートである。
同図において、横軸は時間を表す。垂直同期信号は、左眼映像領域抽出部20Lから供給された左眼映像領域データと、右眼映像領域抽出部20Rから供給された右眼映像領域データとを同期させて得られるフレーム同期信号である。この垂直同期信号において、ローレベルに対応する期間は、垂直ブランキング期間に相当し、ハイレベルに対応する期間は、映像有効期間に相当する。垂直同期の周波数は、例えば120ヘルツ(Hz)である。
FIG. 4 is a schematic timing chart of synthesized video data and control signals generated by the video synthesis unit 30.
In the figure, the horizontal axis represents time. The vertical synchronization signal is a frame synchronization signal obtained by synchronizing the left eye image area data supplied from the left eye image area extraction unit 20L and the right eye image area data supplied from the right eye image area extraction unit 20R. is there. In this vertical synchronization signal, the period corresponding to the low level corresponds to the vertical blanking period, and the period corresponding to the high level corresponds to the video valid period. The frequency of vertical synchronization is, for example, 120 hertz (Hz).

合成映像データは、左眼映像領域データのフレーム画像(左眼画像)と右眼映像領域データのフレーム画像(右眼画像)とを交互に且つ時系列に並べ、垂直同期信号に同期させて得られた映像データである。左眼対応シャッタ制御信号は、合成映像データにおけるフレーム画像が左眼映像領域データのフレーム画像であるときに“開”を示し、右眼映像領域データのフレーム画像であるときに“閉”を示す信号である。右眼対応シャッタ制御信号は、合成映像データにおけるフレーム画像が右眼映像領域データのフレーム画像であるときに“開”を示し、左眼映像領域データのフレーム画像であるときに“閉”を示す信号である。図4において、左眼対応シャッタ制御信号および右眼対応シャッタ制御信号におけるローレベルは“開”を示し、ハイレベルは“閉”を示す。   The composite video data is obtained by arranging the frame image of the left eye video area data (left eye image) and the frame image of the right eye video area data (right eye image) alternately and in time series, and synchronizing them with the vertical synchronization signal. Video data. The left-eye shutter control signal indicates “open” when the frame image in the composite video data is the frame image of the left-eye video region data, and indicates “closed” when the frame image is the frame image of the right-eye video region data. Signal. The right-eye shutter control signal indicates “open” when the frame image in the composite video data is the frame image of the right-eye video region data, and indicates “closed” when the frame image is the frame image of the left-eye video region data. Signal. In FIG. 4, the low level in the left-eye shutter control signal and the right-eye shutter control signal indicates “open”, and the high level indicates “closed”.

図5は、映像提示部40の上面視による、概略の模式的な断面図である。同図に示すように、映像提示部40は、表示部41と、左眼対応接眼レンズ42Lと、右眼対応接眼レンズ42Rと、左眼対応シャッタ43Lと、右眼対応シャッタ43Rとを備える。   FIG. 5 is a schematic schematic cross-sectional view of the video presentation unit 40 as viewed from above. As shown in the figure, the video presentation unit 40 includes a display unit 41, a left-eye compatible eyepiece 42L, a right-eye compatible eyepiece 42R, a left-eye compatible shutter 43L, and a right-eye compatible shutter 43R.

表示部41は、表示面を有し、映像合成部30から供給される合成映像データを取り込み、この合成映像データを表示面に表示させる。この表示面に表示される合成映像は、水平方向(図5におけるH方向)に視差を有する。また、表示部41が有する表示面の解像度は、映像合成部30が生成する合成映像データの解像度よりも低く、例えば、横1920画素×縦1080画素である。表示部41は、例えば、液晶表示パネルにより実現される。   The display unit 41 has a display surface, takes in the composite video data supplied from the video composition unit 30, and displays the composite video data on the display surface. The composite image displayed on the display surface has parallax in the horizontal direction (H direction in FIG. 5). Further, the resolution of the display surface included in the display unit 41 is lower than the resolution of the synthesized video data generated by the video synthesizing unit 30, and is, for example, horizontal 1920 pixels × vertical 1080 pixels. The display unit 41 is realized by, for example, a liquid crystal display panel.

左眼対応接眼レンズ42Lは、表示部41の表示面から左眼対応シャッタ43Lを介して到来する画像を拡大して利用者の左眼に提示する光学系である。同様に、右眼対応接眼レンズ42Rは、表示部41の表示面から右眼対応シャッタ43Rを介して到来する画像を拡大して利用者の右眼に提示する光学系である。左眼対応接眼レンズ42Lおよび右眼対応接眼レンズ42Rは、それぞれの光軸を平行にし、これら両光軸を含む平面が水平方向(H方向)に平行となるよう設けられる。左眼対応接眼レンズ42Lおよび右眼対応接眼レンズ42Rの両光軸の間隔は、人間の標準的な眼の間隔である約65ミリメートルである。   The left-eye eyepiece 42L is an optical system that enlarges an image that arrives from the display surface of the display unit 41 via the left-eye shutter 43L and presents it to the left eye of the user. Similarly, the right-eye eyepiece 42R is an optical system that enlarges an image that arrives from the display surface of the display unit 41 via the right-eye shutter 43R and presents it to the right eye of the user. The left-eye eyepiece lens 42L and the right-eye eyepiece lens 42R are provided so that their optical axes are parallel, and a plane including these optical axes is parallel to the horizontal direction (H direction). The distance between the optical axes of the left-eye-compatible eyepiece 42L and the right-eye-compatible eyepiece 42R is about 65 millimeters, which is a standard human eye-space.

左眼対応シャッタ43Lは、表示部41の表示面と左眼対応接眼レンズ42Lとの間の光路上に設けられる。左眼対応シャッタ43Lは、映像合成部30から供給される左眼対応シャッタ制御信号を取り込み、この左眼対応シャッタ制御信号に基づいて、表示面から到来する合成映像の光束のうち左眼対応映像の光束を左眼対応接眼レンズ42Lに通すために開けたり、遮断するために閉めたりするシャッタである。   The left-eye corresponding shutter 43L is provided on the optical path between the display surface of the display unit 41 and the left-eye corresponding eyepiece 42L. The left-eye corresponding shutter 43L takes in the left-eye corresponding shutter control signal supplied from the image synthesizing unit 30, and based on the left-eye corresponding shutter control signal, the left-eye corresponding image out of the combined image light flux coming from the display surface. This is a shutter that is opened to allow the light beam to pass through the left-eye corresponding eyepiece lens 42L and closed to block it.

右眼対応シャッタ43Rは、表示部41の表示面と右眼対応接眼レンズ42Rとの間の光路上に設けられる。右眼対応シャッタ43Rは、映像合成部30から供給される右眼対応シャッタ制御信号を取り込み、この右眼対応シャッタ制御信号に基づいて、表示面から到来する合成映像の光束のうち右眼対応映像の光束を右眼対応接眼レンズ42Rに通すために開けたり、遮断するために閉めたりするシャッタである。   The right-eye shutter 43R is provided on the optical path between the display surface of the display unit 41 and the right-eye eyepiece 42R. The right-eye shutter 43R receives the right-eye shutter control signal supplied from the video composition unit 30, and based on the right-eye shutter control signal, the right-eye corresponding image out of the combined image light flux coming from the display surface. Is a shutter that is opened to pass through the right eye corresponding eyepiece 42R and closed to block.

左眼対応シャッタ43Lおよび右眼対応シャッタ43Rのそれぞれは、電子式シャッタ回路(例えば、液晶シャッタ)や、機械式シャッタ(メカニカルシャッタ)により実現される。   Each of the left-eye shutter 43L and the right-eye shutter 43R is realized by an electronic shutter circuit (for example, a liquid crystal shutter) or a mechanical shutter (mechanical shutter).

このように、左眼対応撮影部10Lと右眼対応撮影部10Rとの光軸間距離を、人間の両眼の標準的な中心間距離よりも大幅(例えば、約5倍から約10倍またはそれ以上)に長くすることにより、立体映像撮影表示装置1の利用者に提示する立体映像は立体感が強調された映像となる。遠方にある被写体の立体感が高まるため、立体映像による臨場感も高まる。また、視差が大きくなるため、視差から求められる奥行の精度を高めることができる。また、撮影映像の解像度は、表示部に表示される立体映像の解像度よりも高い。映像表示装置200は、映像提示部40の方向に基づいて矩形の映像領域の切出位置を変更するため、画角が広い撮影映像をダイナミックに提示することができる。   As described above, the distance between the optical axes of the left-eye imaging unit 10L and the right-eye imaging unit 10R is much larger than the standard center-to-center distance between both eyes (for example, about 5 times to about 10 times or 3), the stereoscopic video presented to the user of the stereoscopic video shooting and display device 1 becomes a video with enhanced stereoscopic effect. Since the stereoscopic effect of a distant subject is enhanced, the sense of reality by the stereoscopic image is also enhanced. In addition, since the parallax is increased, the depth accuracy obtained from the parallax can be increased. Also, the resolution of the captured video is higher than the resolution of the stereoscopic video displayed on the display unit. Since the video display device 200 changes the cutout position of the rectangular video area based on the direction of the video presentation unit 40, the video display device 200 can dynamically present a shot video with a wide angle of view.

[第2の実施の形態]
図6は、本発明の第2実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。同図に示すように、立体映像撮影表示装置1aは、第1実施形態である立体映像撮影表示装置1における映像表示装置200を映像表示装置200aに変更した構成を有する。
[Second Embodiment]
FIG. 6 is a block diagram showing a functional configuration of a stereoscopic video shooting and display apparatus according to the second embodiment of the present invention. As shown in the figure, the stereoscopic video shooting and display device 1a has a configuration in which the video display device 200 in the stereoscopic video shooting and display device 1 according to the first embodiment is changed to a video display device 200a.

映像表示装置200aは、映像表示装置200に対して、映像合成部30および映像提示部40を、映像合成部30aおよび映像提示部40aに変更した構成を有する。   The video display device 200a has a configuration in which the video synthesis unit 30 and the video presentation unit 40 are changed to the video synthesis unit 30a and the video presentation unit 40a with respect to the video display device 200.

映像合成部30aは、左眼映像領域抽出部20Lから供給される左眼映像領域データを取り込み、右眼映像領域抽出部20Rから供給される右眼映像領域データを取り込む。そして、映像合成部30aは、左眼映像領域データおよび右眼映像領域データそれぞれのフレーム画像から水平1ライン分の画像データ(ラインデータ)を交互に抽出し、垂直方向に並べて合成映像データを生成する。具体的に、映像合成部30は、左眼映像領域データと右眼映像領域データとを、例えば、偶数ラインが左眼映像領域データのラインデータ、奇数ラインが右眼映像領域データのラインデータとなるように並び替えた合成映像データを生成する。
映像合成部30aは、合成映像データを映像提示部40aに供給する。
The video composition unit 30a takes in the left eye video region data supplied from the left eye video region extraction unit 20L, and takes in the right eye video region data supplied from the right eye video region extraction unit 20R. Then, the video composition unit 30a alternately extracts image data (line data) for one horizontal line from the frame images of the left-eye video region data and the right-eye video region data, and generates the composite video data by arranging them in the vertical direction. To do. Specifically, the video composition unit 30 performs left eye video area data and right eye video area data, for example, even lines are line data of left eye video area data, and odd lines are line data of right eye video area data. The composite video data rearranged as described above is generated.
The video composition unit 30a supplies the composite video data to the video presentation unit 40a.

映像提示部40aは、映像合成部30aから供給される合成映像データを取り込んで合成映像を表示する。
図7は、映像提示部40aの上面視による、概略の模式的な断面図である。同図に示すように、映像提示部40aは、第1実施形態における映像提示部40に対して、表示部41を表示部41aに変更するとともに、左眼対応シャッタ43Lおよび右眼対応シャッタ43Rを、左眼対応フィルタ44Lおよび右眼対応フィルタ44Rに変更した構成を有する。
The video presentation unit 40a takes in the synthesized video data supplied from the video synthesis unit 30a and displays the synthesized video.
FIG. 7 is a schematic schematic cross-sectional view of the video presentation unit 40a as viewed from above. As shown in the figure, the video presentation unit 40a changes the display unit 41 to the display unit 41a with respect to the video presentation unit 40 in the first embodiment, and includes a left-eye shutter 43L and a right-eye shutter 43R. The left-eye corresponding filter 44L and the right-eye corresponding filter 44R are changed.

表示部41aは、水平方向(図7におけるH方向)のラインのうち、偶数ラインと奇数ラインとの偏光特性を異ならせた表示面を有する。表示部41aは、例えば、左円偏光特性を有する偶数ラインと、右円偏光特性を有する奇数ラインとを含む表示面を有する。または、表示部41aは、例えば、水平方向の直線偏光特性を有する偶数ラインと、垂直方向の直線偏光特性を有する奇数ラインとを含む表示面を有する。
表示部41aは、映像合成部30aから供給される合成映像データを取り込み、この合成映像データを表示面に表示させる。具体的に、例えば、表示部41aは、合成映像データのうち、左眼映像領域データに対応するラインデータを表示面の偶数ラインに表示させ、右眼映像領域データに対応するラインデータを表示面の奇数ラインに表示させる。この表示面に表示される合成映像は、水平方向(H方向)に視差を有する。また、表示部41aが有する表示面の解像度は、映像合成部30aが生成する合成映像データの解像度よりも低く、例えば、横1920画素×縦1080画素である。表示部41aは、例えば、液晶表示パネルにより実現される。
The display unit 41a has a display surface in which the polarization characteristics of the even-numbered lines and the odd-numbered lines among the lines in the horizontal direction (H direction in FIG. 7) are different. The display unit 41a has a display surface including, for example, an even line having a left circular polarization characteristic and an odd line having a right circular polarization characteristic. Alternatively, the display unit 41a has a display surface including, for example, even lines having horizontal linear polarization characteristics and odd lines having vertical linear polarization characteristics.
The display unit 41a takes in the synthesized video data supplied from the video synthesis unit 30a and displays the synthesized video data on the display surface. Specifically, for example, the display unit 41a displays line data corresponding to the left-eye video region data in the composite video data on an even line on the display surface, and displays line data corresponding to the right-eye video region data on the display surface. Display on odd lines. The composite image displayed on the display surface has parallax in the horizontal direction (H direction). The resolution of the display surface of the display unit 41a is lower than the resolution of the synthesized video data generated by the video synthesis unit 30a, for example, horizontal 1920 pixels × vertical 1080 pixels. The display unit 41a is realized by a liquid crystal display panel, for example.

左眼対応フィルタ44Lは、左眼映像領域データのラインデータが表示される表示面に対応する偏光特性と同一の偏光特性を有するフィルタである。左眼対応フィルタ44Lは、左眼映像領域データのラインデータが表示される表示面に対応する偏光特性と同一の偏光特性となる状態で、表示部41aの表示面と左眼対応接眼レンズ42Lとの間の光路上に設けられる。   The left-eye correspondence filter 44L is a filter having the same polarization characteristic as the polarization characteristic corresponding to the display surface on which the line data of the left-eye video area data is displayed. The left-eye correspondence filter 44L has the same polarization characteristic as that corresponding to the display surface on which the line data of the left-eye video area data is displayed, and the display surface of the display unit 41a and the left-eye correspondence eyepiece 42L. On the optical path between the two.

右眼対応フィルタ44Rは、右眼映像領域データのラインデータが表示される表示面に対応する偏光特性と同一の偏光特性を有するフィルタである。右眼対応フィルタ44Rは、右眼映像領域データのラインデータが表示される表示面に対応する偏光特性と同一の偏光特性となる状態で、表示部41aの表示面と右眼対応接眼レンズ42Rとの間の光路上に設けられる。   The right eye corresponding filter 44R is a filter having the same polarization characteristic as the polarization characteristic corresponding to the display surface on which the line data of the right eye image area data is displayed. The right-eye correspondence filter 44R has the same polarization characteristic as the polarization characteristic corresponding to the display surface on which the line data of the right-eye video area data is displayed, and the right-eye corresponding eyepiece 42R. On the optical path between the two.

このように構成することにより、左眼対応フィルタ44Lは、表示部41aの表示面に表示された左眼映像領域データのラインデータによる光束を透過させる。また、右眼対応フィルタ44Rは、表示部41aの表示面に表示された右眼映像領域データのラインデータによる光束を透過させる。
よって、映像表示装置200aによれば、シャッタ制御を行うことなく、左眼対応接眼レンズ42Lを通して左眼映像領域データの映像を捉えるとともに、右眼対応接眼レンズ42Rを通して右眼映像領域データの映像を捉えることができる。
By configuring in this way, the left-eye correspondence filter 44L transmits the light flux based on the line data of the left-eye video area data displayed on the display surface of the display unit 41a. Further, the right eye corresponding filter 44R transmits the light flux by the line data of the right eye video region data displayed on the display surface of the display unit 41a.
Therefore, according to the video display device 200a, without performing shutter control, the video of the left eye video area data is captured through the left eye corresponding eyepiece 42L, and the right eye video area data is displayed through the right eye compatible eyepiece 42R. Can be caught.

[第3の実施の形態]
図8は、本発明の第3実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。同図に示すように、立体映像撮影表示装置1bは、第1実施形態である立体映像撮影表示装置1における映像表示装置200を映像表示装置200bに変更した構成を有する。
[Third Embodiment]
FIG. 8 is a block diagram showing a functional configuration of a stereoscopic video shooting and display apparatus according to the third embodiment of the present invention. As shown in the figure, the stereoscopic video shooting and display device 1b has a configuration in which the video display device 200 in the stereoscopic video shooting and display device 1 according to the first embodiment is changed to a video display device 200b.

映像表示装置200bは、映像表示装置200に対して、映像合成部30および映像提示部40を、映像合成部30bおよび映像提示部40bに変更した構成を有する。   The video display device 200b has a configuration in which the video synthesis unit 30 and the video presentation unit 40 are changed to the video synthesis unit 30b and the video presentation unit 40b with respect to the video display device 200.

映像合成部30bは、左眼映像領域抽出部20Lから供給される左眼映像領域データを取り込み、右眼映像領域抽出部20Rから供給される右眼映像領域データを取り込む。そして、映像合成部30bは、左眼映像領域データと右眼映像領域データとを単一映像フレーム内に合成して合成映像データを生成する。具体的に、映像合成部30bは、左眼映像領域データのフレーム画像を向かって左側、右眼映像領域データのフレーム画像を向かって右側に隣接させた合成映像データを生成する。
映像合成部30bは、合成映像データを映像提示部40bに供給する。
映像提示部40bは、映像合成部30bから供給される合成映像データを取り込んで合成映像を表示する。映像提示部40bの詳細な構成については後述する。
The video composition unit 30b takes in the left eye video region data supplied from the left eye video region extraction unit 20L and takes in the right eye video region data supplied from the right eye video region extraction unit 20R. Then, the video composition unit 30b synthesizes the left-eye video region data and the right-eye video region data into a single video frame to generate composite video data. Specifically, the video composition unit 30b generates composite video data in which the frame image of the left eye video area data is adjacent to the left side and the frame image of the right eye video area data is adjacent to the right side.
The video composition unit 30b supplies the composite video data to the video presentation unit 40b.
The video presentation unit 40b takes in the synthesized video data supplied from the video synthesis unit 30b and displays the synthesized video. The detailed configuration of the video presentation unit 40b will be described later.

図9は、映像合成部30bが生成する合成映像データにおけるフレーム画像の構成を模式的に示す図である。同図に示すように、合成映像データのフレーム画像Pは、水平方向を横にした場合の左側に左眼対応画像DL、右側に右眼対応画像DRを隣接させて含む。左眼対応画像DLは、左眼映像領域データのフレーム画像を縮小した画像である。右眼対応画像DRは、右眼映像領域データのフレーム画像を縮小した画像である。フレーム画像Pの解像度が、横1920画素×縦1080画素である場合、左眼対応画像DLおよび右眼対応画像DRそれぞれの解像度は、横960画素×縦540画素である。フレーム画像Pにおいて、左眼対応画像DLおよび右眼対応画像DRより上部の領域BUと、左眼対応画像DLおよび右眼対応画像DRより下部の領域BBは、合成映像データを含まない領域であり、例えば、黒色や灰色等のモノトーンの領域である。   FIG. 9 is a diagram schematically illustrating a configuration of a frame image in the synthesized video data generated by the video synthesis unit 30b. As shown in the figure, the frame image P of the composite video data includes the left eye corresponding image DL on the left side and the right eye corresponding image DR on the right side when the horizontal direction is horizontal. The left eye corresponding image DL is an image obtained by reducing the frame image of the left eye video area data. The right eye corresponding image DR is an image obtained by reducing the frame image of the right eye video area data. When the resolution of the frame image P is 1920 horizontal pixels × 1080 vertical pixels, the resolution of each of the left-eye corresponding image DL and the right-eye corresponding image DR is 960 horizontal pixels × vertical 540 pixels. In the frame image P, a region BU above the left eye corresponding image DL and the right eye corresponding image DR and a region BB below the left eye corresponding image DL and the right eye corresponding image DR are regions not including the composite video data. For example, it is a monotone region such as black or gray.

図10は、映像提示部40bの上面視による、概略の模式的な断面図である。同図に示すように、映像提示部40bは、第1実施形態における映像提示部40に対して、遮光部45を追加するとともに、左眼対応シャッタ43Lおよび右眼対応シャッタ43Rを削除した構成を有する。   FIG. 10 is a schematic schematic cross-sectional view of the video presentation unit 40b as viewed from above. As shown in the figure, the video presentation unit 40b has a configuration in which a light shielding unit 45 is added to the video presentation unit 40 in the first embodiment and the left-eye shutter 43L and the right-eye shutter 43R are deleted. Have.

遮光部45は、光の反射率を低く抑えた平板状の遮光板であり、表示部41の表示面に表示される合成映像データにおける左眼対応画像DLと右眼対応画像DRとの境界部分に平板が沿うように設けられる。遮光部45によって、左眼対応画像DLは右眼対応接眼レンズ42Rに到達せず、また、右眼対応画像DRは左眼対応接眼レンズ42Lに到達しない。   The light shielding unit 45 is a flat light shielding plate with a low light reflectance, and a boundary portion between the left eye corresponding image DL and the right eye corresponding image DR in the composite video data displayed on the display surface of the display unit 41. Are provided so that a flat plate follows. The light shielding unit 45 prevents the left eye corresponding image DL from reaching the right eye corresponding eyepiece 42R, and the right eye corresponding image DR does not reach the left eye corresponding eyepiece 42L.

よって、映像表示装置200bによれば、シャッタ制御を行うことなく、左眼対応接眼レンズ42Lを通して左眼映像領域データの映像を捉えるとともに、右眼対応接眼レンズ42Rを通して右眼映像領域データの映像を捉えることができる。   Therefore, according to the video display device 200b, the left eye video area data is captured through the left eye corresponding eyepiece lens 42L and the right eye video area data is captured through the right eye corresponding eyepiece lens 42R without performing shutter control. Can be caught.

[第4の実施の形態]
図11は、本発明の第4実施形態である立体映像撮影表示装置の機能構成を示すブロック図である。同図に示すように、立体映像撮影表示装置1cは、第1実施形態である立体映像撮影表示装置1における映像表示装置200を映像表示装置200cに変更した構成を有する。
[Fourth Embodiment]
FIG. 11 is a block diagram showing a functional configuration of a stereoscopic video shooting and display apparatus according to the fourth embodiment of the present invention. As shown in the figure, the stereoscopic video shooting and display device 1c has a configuration in which the video display device 200 in the stereoscopic video shooting and display device 1 according to the first embodiment is changed to a video display device 200c.

映像表示装置200cは、映像表示装置200に対して、映像提示部40を映像提示部40cに変更するとともに、映像合成部30を削除した構成を有する。
映像表示装置200cにおいて、左眼映像領域抽出部20Lは左眼映像領域データを映像提示部40cに供給し、右眼映像領域抽出部20Rは右眼映像領域データを映像提示部40cに供給する。
The video display device 200c has a configuration in which the video presentation unit 40 is changed to the video presentation unit 40c and the video synthesis unit 30 is deleted from the video display device 200.
In the video display device 200c, the left eye video region extraction unit 20L supplies the left eye video region data to the video presentation unit 40c, and the right eye video region extraction unit 20R supplies the right eye video region data to the video presentation unit 40c.

映像提示部40cは、左眼映像領域抽出部20Lから供給される左眼映像領域データと、右眼映像領域抽出部20Rから供給される右眼映像領域データとをそれぞれ取り込み、左眼映像領域データの映像と右眼映像領域データの映像とをそれぞれ表示する。   The video presentation unit 40c takes in the left-eye video region data supplied from the left-eye video region extraction unit 20L and the right-eye video region data supplied from the right-eye video region extraction unit 20R, respectively. And the image of the right eye image area data are respectively displayed.

図12は、映像提示部40cの上面視による、概略の模式的な断面図である。同図に示すように、映像提示部40cは、第3実施形態における映像提示部40bに対して、表示部41を表示部41Lcおよび表示部41Rcに変更した構成を有する。
表示部41Lcおよび表示部41Rcは、同一の表示機能を有する表示装置である。表示部41Lcおよび表示部41Rcそれぞれは、表示部41に対して、水平方向(図12のH方向)の画素数を半数にした表示装置である。
FIG. 12 is a schematic schematic cross-sectional view of the video presentation unit 40c as viewed from above. As shown in the figure, the video presentation unit 40c has a configuration in which the display unit 41 is changed to a display unit 41Lc and a display unit 41Rc with respect to the video presentation unit 40b in the third embodiment.
The display unit 41Lc and the display unit 41Rc are display devices having the same display function. Each of the display unit 41Lc and the display unit 41Rc is a display device in which the number of pixels in the horizontal direction (H direction in FIG. 12) is halved with respect to the display unit 41.

表示部41Lcは、左眼映像領域抽出部20Lから供給される左眼映像領域データを取り込み、この左眼映像領域データを表示面に表示させる。
表示部41Rcは、左眼映像領域抽出部20Rから供給される右眼映像領域データを取り込み、この右眼映像領域データを表示面に表示させる。
The display unit 41Lc takes in the left eye video region data supplied from the left eye video region extraction unit 20L and displays the left eye video region data on the display surface.
The display unit 41Rc takes in the right-eye video region data supplied from the left-eye video region extraction unit 20R and displays the right-eye video region data on the display surface.

よって、映像表示装置200cによれば、シャッタ制御を行うことなく、左眼対応接眼レンズ42Lを通して左眼映像領域データの映像を捉えるとともに、右眼対応接眼レンズ42Rを通して右眼映像領域データの映像を捉えることができる。   Therefore, according to the video display device 200c, the left eye video area data is captured through the left eye corresponding eyepiece lens 42L and the right eye video area data is captured through the right eye corresponding eyepiece lens 42R without performing shutter control. Can be caught.

なお、映像提示部40cにおいて、遮光部45の代わりにハーフミラーを用いて表示部41Lcからの光束と表示部41Rcからの光束とを合成してもよい。具体的には、映像提示部40cにおいて、左眼対応フィルタ44Lを表示部41Lcの表示面と左眼対応接眼レンズ42Lとの間の光路上に設け、右眼対応フィルタ44Rを表示部41Rcの表示面と右眼対応接眼レンズ42Rとの間の光路上に設け、遮光部45を削除する。そして、映像提示部40cにおいて、表示部41Lcからの光束と表示部41Rcからの光束とを直交させてハーフミラーで合成し、この合成光を左眼対応フィルタ44Lおよび右眼対応フィルタ44Rに導光させる。   In the video presentation unit 40c, the light beam from the display unit 41Lc and the light beam from the display unit 41Rc may be combined using a half mirror instead of the light shielding unit 45. Specifically, in the video presentation unit 40c, the left eye correspondence filter 44L is provided on the optical path between the display surface of the display unit 41Lc and the left eye correspondence eyepiece 42L, and the right eye correspondence filter 44R is displayed on the display unit 41Rc. It is provided on the optical path between the surface and the right eye corresponding eyepiece 42R, and the light shielding portion 45 is deleted. Then, in the video presentation unit 40c, the luminous flux from the display unit 41Lc and the luminous flux from the display unit 41Rc are orthogonalized and synthesized by a half mirror, and this synthesized light is guided to the left-eye correspondence filter 44L and the right-eye correspondence filter 44R. Let me.

また、上述した立体映像撮影表示装置1,1a,1b,1cにおいて、映像表示装置200を固定するとともにレバーやボタン等の方向操作部を設け、利用者によるその方向操作部の操作にしたがって、切出位置指定部50が、方向操作部からパン動作およびチルト動作に対応する移動情報を取り込んでもよい。   Further, in the above-described stereoscopic video shooting and display devices 1, 1a, 1b, and 1c, the video display device 200 is fixed and a direction operation unit such as a lever or a button is provided, and is switched according to the operation of the direction operation unit by the user. The outgoing position designating unit 50 may capture movement information corresponding to the pan operation and the tilt operation from the direction operation unit.

また、立体映像撮影表示装置1,1a,1b,1cを利用者の頭部に装着可能に構成してもよい。例えば、立体映像撮影表示装置1,1a,1b,1cをヘッドマウントディスプレイ(Head Mounted Display;HMD)タイプにより構成してもよい。   Moreover, you may comprise so that the stereoscopic video imaging display apparatus 1, 1a, 1b, 1c can be mounted | worn on a user's head. For example, the three-dimensional image photographing display devices 1, 1a, 1b, and 1c may be configured by a head mounted display (HMD) type.

また、立体映像撮影表示装置1,1a,1b,1cにおいて、撮影装置100と映像表示装置200とを離間して設置してもよい。例えば、撮影装置100を、景勝地を一望できる場所に設置し、映像表示装置200,200a,200b,200cをその場所から離れた展望室内に設置するようにしてもよい。また、撮影装置100を、監視領域を視野に含められる場所に設置し、映像表示装置200,200a,200b,200cをその場所から離れた監視室内に設置するようにしてもよい。   Further, in the stereoscopic video imaging display devices 1, 1a, 1b, and 1c, the imaging device 100 and the video display device 200 may be installed separately. For example, the photographing apparatus 100 may be installed in a place where a scenic spot can be seen, and the video display apparatuses 200, 200a, 200b, and 200c may be installed in an observation room away from the place. In addition, the imaging device 100 may be installed in a place where the monitoring area can be included in the field of view, and the video display devices 200, 200a, 200b, and 200c may be installed in a monitoring room away from the location.

この場合、撮影装置100と映像表示装置200,200a,200b,200cとの接続を例えばネットワークケーブルや光ファイバケーブルにより接続し、撮影装置100から映像表示装置200,200a,200b,200cに左眼対応撮影データおよび右眼対応撮影データを伝送するように構成する。   In this case, the connection between the photographing device 100 and the video display devices 200, 200a, 200b, and 200c is connected by, for example, a network cable or an optical fiber cable, and the left eye is supported from the photographing device 100 to the video display devices 200, 200a, 200b, and 200c. The imaging data and the right-eye imaging data are configured to be transmitted.

また、立体映像撮影表示装置1,1a,1b,1cでは、左眼対応撮影部10Lの撮影光学系の光軸と、右眼対応撮影部10Rの撮影光学系の光軸とが平行または輻輳し、且つ撮影光学系における光軸間距離が、人間の両眼の標準的な中心間距離(約65ミリメートル)に対して約5倍から約10倍またはそれ以上の距離となるように、左眼対応撮影部10Lおよび右眼対応撮影部10Rを設けた。左眼対応撮影部10Lと右眼対応撮影部10Rとの光軸間距離は、これに限られることなく、立体映像撮影表示装置1,1a,1b,1cまたは撮影装置100の設置環境、用途、使用目的等によって想定される、撮影装置100と被写体との距離に応じて、例えば、数メートル〜100メートル程度であってもよい。   Further, in the stereoscopic video imaging display devices 1, 1a, 1b, and 1c, the optical axis of the imaging optical system of the left-eye imaging unit 10L and the optical axis of the imaging optical system of the right-eye imaging unit 10R are parallel or converged. And the distance between the optical axes in the photographing optical system is about 5 times to about 10 times or more than the standard center distance (about 65 millimeters) of both human eyes. A corresponding photographing unit 10L and a right eye corresponding photographing unit 10R are provided. The distance between the optical axes of the left-eye corresponding photographing unit 10L and the right-eye corresponding photographing unit 10R is not limited to this, and the installation environment, application, and use of the stereoscopic image photographing display devices 1, 1a, 1b, and 1c or the photographing device 100 are not limited thereto. Depending on the distance between the photographing apparatus 100 and the subject, which is assumed depending on the purpose of use, for example, the distance may be about several meters to 100 meters.

これとは逆に、各実施形態において、左眼対応撮影部10Lの撮影光学系の光軸と、右眼対応撮影部10Rの撮影光学系の光軸とが平行または輻輳し、且つ撮影光学系における光軸間距離が、上記の人間の両眼の標準的な中心間距離に対して約0.2倍から約0.1倍またはそれ以下の距離となるように、左眼対応撮影部10Lおよび右眼対応撮影部10Rを設けてもよい。
この場合、左眼映像領域抽出部20Lおよび右眼映像領域抽出部20Rそれぞれは、抽出した映像領域を拡大し、この拡大したデータを左眼映像領域データおよび右眼映像領域データとして出力する。
On the contrary, in each embodiment, the optical axis of the imaging optical system of the left-eye imaging unit 10L and the optical axis of the imaging optical system of the right-eye imaging unit 10R are parallel or converged, and the imaging optical system. The left-eye imaging unit 10L is set so that the distance between the optical axes at is about 0.2 times to about 0.1 times or less than the standard distance between the centers of both eyes of the human. Alternatively, a right-eye imaging unit 10R may be provided.
In this case, each of the left eye video region extraction unit 20L and the right eye video region extraction unit 20R enlarges the extracted video region, and outputs the enlarged data as left eye video region data and right eye video region data.

このように、光軸間距離を人間の両眼の標準的な中心間距離よりも短くする一方、映像領域を拡大することにより、撮影映像と利用者との相対的な視差を大きくすることができ、前述した各実施形態と同様に立体感が強調された立体像を得ることができる。
左眼対応撮影部10Lおよび右眼対応撮影部10Rそれぞれをマイクロカメラのような超小型撮影装置により実現すれば、立体映像撮影表示装置1,1a,1b,1cは、例えば、手術部位を近距離で撮影して、立体感が強調された立体映像を得ることができる。
Thus, while making the distance between the optical axes shorter than the standard distance between the centers of both human eyes, the relative parallax between the captured image and the user can be increased by enlarging the image area. It is possible to obtain a stereoscopic image in which the stereoscopic effect is emphasized as in the above-described embodiments.
If each of the left-eye corresponding photographing unit 10L and the right-eye corresponding photographing unit 10R is realized by an ultra-small photographing device such as a micro camera, the stereoscopic image photographing display devices 1, 1a, 1b, and 1c can, for example, close the surgical site at a short distance. The three-dimensional image in which the stereoscopic effect is emphasized can be obtained.

以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.

1,1a,1b,1c 立体映像撮影表示装置
10L 左眼対応撮影部
10R 右眼対応撮影部
20L 左眼映像領域抽出部
20R 右眼映像領域抽出部
30,30a,30b 映像合成部
40,40a,40b,40c 映像提示部
41,41a,41b,41Lc,41Rc 表示部
42L 左眼対応接眼レンズ
42R 右眼対応接眼レンズ
43L 左眼対応シャッタ
43R 右眼対応シャッタ
44L 左眼対応フィルタ
44R 右眼対応フィルタ
45 遮光部
50 切出位置指定部
100 撮影装置
200,200a,200b,200c 映像表示装置
1, 1a, 1b, 1c Stereoscopic image capturing and displaying apparatus 10L Left-eye corresponding capturing unit 10R Right-eye corresponding capturing unit 20L Left-eye image region extracting unit 20R Right-eye image region extracting unit 30, 30a, 30b Image combining unit 40, 40a, 40b, 40c Video presentation unit 41, 41a, 41b, 41Lc, 41Rc Display unit 42L Left-eye eyepiece 42R Right-eye eyepiece 43L Left-eye shutter 43R Right-eye shutter 44L Left-eye filter 44R Right-eye filter 45 Light-shielding part 50 Cutting position designation part 100 Image pick-up device 200, 200a, 200b, 200c Video display device

Claims (2)

被写体を撮影して、利用者の左眼に対応する左眼対応撮影データを生成する左眼対応撮影部と、
前記左眼対応撮影部の撮影光軸との光軸間距離を所定距離として設け、前記被写体を撮影して、前記利用者の右眼に対応する右眼対応撮影データを生成する右眼対応撮影部と、
前記左眼対応撮影部が生成する前記左眼対応撮影データを取り込み、前記左眼対応映像データから矩形の映像領域を抽出して左眼映像領域データを生成する左眼映像領域抽出部と、
前記右眼対応撮影部が生成する前記右眼対応撮影データを取り込み、前記右眼対応映像データから矩形の映像領域を抽出して右眼映像領域データを生成する右眼映像領域抽出部と、
左眼映像領域抽出部が生成する前記左眼映像領域データと右眼映像領域抽出部が生成する前記右眼映像領域データとを取り込み、前記左眼映像領域データと前記右眼映像領域データとを合成して合成映像データを生成する映像合成部と、
前記映像合成部が生成する前記合成映像データを取り込んで前記合成映像データを表示し、前記合成映像データに含まれる前記左眼映像領域データを前記利用者の左眼に対応させて提示し、前記合成映像データに含まれる前記右眼映像領域データを前記利用者の右眼に対応させて提示する映像提示部と、
を備えることを特徴とする立体映像撮影表示装置。
A left-eye imaging unit that captures a subject and generates left-eye imaging data corresponding to the left eye of the user;
A right-eye-capable photographing that creates a right-eye-captured photographing data corresponding to the right eye of the user by photographing the subject and providing a distance between the optical axes of the photographing portion of the left-eye corresponding to the photographing optical axis as a predetermined distance. And
A left-eye video region extraction unit that captures the left-eye-captured shooting data generated by the left-eye-captured shooting unit, extracts a rectangular video region from the left-eye-corresponding video data, and generates left-eye video region data;
A right-eye video region extracting unit that captures the right-eye-capable shooting data generated by the right-eye-capable shooting unit, extracts a rectangular video region from the right-eye-corresponding video data, and generates right-eye video region data;
The left eye image area data generated by the left eye image area extracting unit and the right eye image area data generated by the right eye image area extracting unit are captured, and the left eye image area data and the right eye image area data are obtained. A video composition unit that synthesizes and generates composite video data;
The composite video data generated by the video composite unit is captured to display the composite video data, the left eye video region data included in the composite video data is presented in correspondence with the left eye of the user, A video presentation unit that presents the right-eye video region data included in the composite video data in correspondence with the right eye of the user;
A stereoscopic video shooting and display device comprising:
前記映像提示部の方向を検出し、前記方向に基づいて、前記左眼映像領域抽出部と前記右眼映像領域抽出部とがそれぞれ抽出する矩形の映像領域の切出位置を決定し、前記切出位置を前記左眼映像領域抽出部と前記右眼映像領域抽出部とに供給する切出位置指定部をさらに備え、
前記左眼映像領域抽出部は、前記切出位置指定部から供給される切出位置を取り込み、前記切出位置に基づいて前記左眼対応映像データから矩形の映像領域を抽出し、
前記右眼映像領域抽出部は、前記切出位置指定部から供給される切出位置を取り込み、前記切出位置に基づいて前記右眼対応映像データから矩形の映像領域を抽出する
ことを特徴とする請求項1記載の立体映像撮影表示装置。
A direction of the video presentation unit is detected, and based on the direction, a cutout position of a rectangular video region extracted by the left eye video region extraction unit and the right eye video region extraction unit is determined, and the cutout position is determined. Further comprising a cut-out position specifying unit for supplying a position to the left-eye video region extracting unit and the right-eye video region extracting unit;
The left-eye video region extraction unit takes in the cut-out position supplied from the cut-out position designation unit, and extracts a rectangular video region from the left-eye corresponding video data based on the cut-out position,
The right-eye video area extracting unit takes in a cut-out position supplied from the cut-out position specifying unit, and extracts a rectangular video area from the right-eye corresponding video data based on the cut-out position. The stereoscopic video shooting and display device according to claim 1.
JP2011229532A 2011-10-19 2011-10-19 Stereoscopic image photographing/displaying apparatus Pending JP2013090180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011229532A JP2013090180A (en) 2011-10-19 2011-10-19 Stereoscopic image photographing/displaying apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011229532A JP2013090180A (en) 2011-10-19 2011-10-19 Stereoscopic image photographing/displaying apparatus

Publications (1)

Publication Number Publication Date
JP2013090180A true JP2013090180A (en) 2013-05-13

Family

ID=48533666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011229532A Pending JP2013090180A (en) 2011-10-19 2011-10-19 Stereoscopic image photographing/displaying apparatus

Country Status (1)

Country Link
JP (1) JP2013090180A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158153A (en) * 2016-03-04 2017-09-07 キヤノン株式会社 Image processing apparatus and image processing method
JP2019103023A (en) * 2017-12-05 2019-06-24 キヤノン株式会社 Stereoscopic binocular telescope
JPWO2018055899A1 (en) * 2016-09-23 2019-07-18 シャープ株式会社 Display device and control method of display device
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435395A (en) * 1990-05-28 1992-02-06 Shigeo Nakagawa Stereoscopic monitor
JPH08191419A (en) * 1995-01-10 1996-07-23 Yamaha Corp Head mount display system
JPH0927971A (en) * 1995-07-10 1997-01-28 Shimadzu Corp Image display system
JP2004165876A (en) * 2002-11-12 2004-06-10 Mega Chips Corp Image processing apparatus, digital camera, and compound eye system
JP2007050862A (en) * 2005-08-19 2007-03-01 East Japan Railway Co Crossing monitoring system and control method for crossing monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435395A (en) * 1990-05-28 1992-02-06 Shigeo Nakagawa Stereoscopic monitor
JPH08191419A (en) * 1995-01-10 1996-07-23 Yamaha Corp Head mount display system
JPH0927971A (en) * 1995-07-10 1997-01-28 Shimadzu Corp Image display system
JP2004165876A (en) * 2002-11-12 2004-06-10 Mega Chips Corp Image processing apparatus, digital camera, and compound eye system
JP2007050862A (en) * 2005-08-19 2007-03-01 East Japan Railway Co Crossing monitoring system and control method for crossing monitoring system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017158153A (en) * 2016-03-04 2017-09-07 キヤノン株式会社 Image processing apparatus and image processing method
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP2021122109A (en) * 2016-08-04 2021-08-26 ドルビー ラボラトリーズ ライセンシング コーポレイション Single-depth pursuit type accommodation-vergence solution
US20210264631A1 (en) 2016-08-04 2021-08-26 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US11694353B2 (en) 2016-08-04 2023-07-04 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP7335285B2 (en) 2016-08-04 2023-08-29 ドルビー ラボラトリーズ ライセンシング コーポレイション Single Depth Tracking Accommodation-Binocular Diversion Solution
JPWO2018055899A1 (en) * 2016-09-23 2019-07-18 シャープ株式会社 Display device and control method of display device
JP2019103023A (en) * 2017-12-05 2019-06-24 キヤノン株式会社 Stereoscopic binocular telescope

Similar Documents

Publication Publication Date Title
JP4863527B2 (en) Stereoscopic imaging device
JP3978392B2 (en) 3D image signal generation circuit and 3D image display device
JP5607146B2 (en) Imaging control apparatus, immersive position information generating apparatus, imaging control method, and immersive position information generating method
WO2004049734A1 (en) Three-dimensional image signal producing circuit and three-dimensional image display apparatus
US8115803B2 (en) Apparatus and method for projecting spatial image
JP6878389B2 (en) Stereoscopic image display device and stereoscopic image display method
JP3579585B2 (en) Multi-view simultaneous observation type horizontally arranged stereoscopic image display system
JPH09238369A (en) Three-dimension image display device
US9479761B2 (en) Document camera, method for controlling document camera, program, and display processing system
JP2013090180A (en) Stereoscopic image photographing/displaying apparatus
JP2016032227A (en) Image display system, three-dimensional image pointing device, and image display device
JP2005157033A (en) Stereoscopic display device
JP2011151676A (en) Video display system
JP3420060B2 (en) Horizontally arranged stereoscopic image display system
JP2005175539A (en) Stereoscopic video display apparatus and video display method
JPH03226198A (en) Stereoscopic picture display device
JP2004258594A (en) Three-dimensional image display device realizing appreciation from wide angle
JP2011135252A (en) Stereoscopic video photographing camera adjustment assisting device
JPH05191838A (en) Recording and reproducing device for three-dimensional information
JP5275760B2 (en) Stereoscopic image display system
JP4496122B2 (en) Stereoscopic video shooting and playback device
JP2003333622A (en) Three-dimensional model display device
JP2005328332A (en) Three-dimensional image communication terminal
JP2006003823A (en) Three-dimensional picture observation system
TWI413404B (en) 3d image processing system and camera and 3d image generating device applying to 3d image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201