JP2011119825A - Video processor and video processing method - Google Patents

Video processor and video processing method Download PDF

Info

Publication number
JP2011119825A
JP2011119825A JP2009273290A JP2009273290A JP2011119825A JP 2011119825 A JP2011119825 A JP 2011119825A JP 2009273290 A JP2009273290 A JP 2009273290A JP 2009273290 A JP2009273290 A JP 2009273290A JP 2011119825 A JP2011119825 A JP 2011119825A
Authority
JP
Japan
Prior art keywords
data
convergence angle
parallax
message data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009273290A
Other languages
Japanese (ja)
Inventor
Masateru Uesugi
征輝 上杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2009273290A priority Critical patent/JP2011119825A/en
Publication of JP2011119825A publication Critical patent/JP2011119825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To output message data at a proper image forming position without any discomfort even when the image forming position of an object or the like is changed due to convergence. <P>SOLUTION: The video processor 100 includes: a data acquisition part 156 for acquiring three-dimensional video data and convergence information; a message acquisition part 158 for acquiring message data; an insertion surface determination part 160 for determining an insertion surface 184 for superimposing the message data and deriving the parallax of the message data; a parallax change part 162 for changing the parallax of the message data so as not to change the positional relation of two imaging parts 110a, 110b and the insertion surface in an imaging space on the basis of the convergence indicated in the convergence information; a data superimposing part 164 for superimposing the message data on the three-dimensional video data according to the parallax; and a data output part 128 for outputting the superimposed three-dimensional video data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、両眼視差によって立体映像を知覚させるための立体映像データを生成する映像処理装置および映像処理方法に関する。   The present invention relates to a video processing apparatus and a video processing method for generating stereoscopic video data for causing stereoscopic video to be perceived by binocular parallax.

近年、ディスプレイ上に、水平視差(両眼視差)を有する2つの映像(立体映像データ)を提示し、観察者に対してあたかも被写体が立体的に存在するように知覚させる映像処理装置が脚光を浴びている。かかる映像処理装置で用いられる立体映像データは、視点の異なる2つの撮像部で撮像された映像である。   In recent years, an image processing apparatus that presents two images (stereoscopic image data) having horizontal parallax (binocular parallax) on a display and perceives the viewer as if the subject exists in a three-dimensional manner. I'm bathing. The stereoscopic video data used in such a video processing device is video captured by two imaging units with different viewpoints.

また、一般的に、映像に関するメッセージデータ(例えば、チャンネルやテロップ)や映像処理装置の状態を示すメッセージデータ(例えば、時間、動作モード、アイコン、入出力ライン案内、エラー情報等)は、映像と共にディスプレイに示される。しかし、立体映像を実現する映像処理装置におけるメッセージデータは、立体的に知覚されるように加工されないと、観察者に情報を正しく伝達することができない。そこで、映像処理装置は、メッセージデータにも視差を設け、立体映像データに重畳することで、メッセージデータの立体感も実現している。   In general, message data related to video (for example, channel and telop) and message data indicating the status of the video processing device (for example, time, operation mode, icon, input / output line guidance, error information, etc.) Shown on the display. However, message data in a video processing device that realizes a stereoscopic video cannot be correctly transmitted to an observer unless it is processed so as to be perceived stereoscopically. Therefore, the video processing apparatus also provides parallax to the message data and superimposes the message data on the stereoscopic video data, thereby realizing a stereoscopic effect of the message data.

また、このような視差を用いたメッセージデータの表示方法の応用例として、観察者が任意に入力したテキストに視差を設け、立体映像データに重畳し、ボタンの押下に応じてメッセージデータの遠近感を切り換える技術が開示されている(例えば、特許文献1)。さらに、注目点の視差角(視軸が交わる角)の変化量に基づき注目点の奥行き位置に予めメッセージデータを重畳しておいて、事後的に再生する技術も公開されている(例えば、特許文献2)。   In addition, as an application example of the display method of message data using such parallax, parallax is provided to text arbitrarily input by the observer, superimposed on the stereoscopic video data, and the perspective of the message data according to the button press. Has been disclosed (for example, Patent Document 1). Furthermore, a technique for superimposing message data on the depth position of the attention point in advance based on the amount of change in the parallax angle of the attention point (the angle at which the visual axis intersects) and reproducing it later is disclosed (for example, patents). Reference 2).

特開2004−104331号公報JP 2004-104331 A 特開2009−135686号公報JP 2009-135686 A

上述した技術、特に、特許文献2の技術では、視差角に応じてメッセージデータの位置が変更されているものの、注目点の特定が人為的であり、撮像者は、撮像した映像を見ながら手動で注目点を特定するといった煩雑な作業を強いられていた。また、メッセージデータが撮像時に重畳されるので、映像に関するメッセージデータを再生時に削除することや、再生時に生じる、例えば、映像処理装置の状態を示すメッセージデータを撮像時に重畳することができなかった。さらに、再生時に、予め重畳されているメッセージデータの位置を把握する術がないため、予め重畳されているメッセージデータを避けて新たなメッセージデータを重畳することができなかった。   In the technique described above, in particular, in the technique of Patent Document 2, although the position of the message data is changed according to the parallax angle, the point of interest is artificially specified, and the photographer manually operates while watching the captured video. In such a case, it was forced to perform complicated work such as specifying a point of interest. Further, since the message data is superimposed at the time of imaging, message data relating to the video cannot be deleted at the time of reproduction, and message data indicating the state of the video processing device, for example, generated at the time of reproduction cannot be superimposed at the time of imaging. Furthermore, since there is no way of grasping the position of the pre-superimposed message data at the time of reproduction, new message data cannot be superposed avoiding the pre-superimposed message data.

一方、映像処理装置では、2つの撮像部の光軸が輻輳する角、所謂輻輳角を調整することもできる。これは、撮像を所望している被写体の前後に存在する前景や背景との関係で、被写体の周囲の立体感をより鮮明に表すためである。しかし、上述した特許文献1、2の技術は、輻輳角の変化に対応していないので、被写体が静止している状態で輻輳角が変化してもメッセージデータを被写体に対応した適切な奥行き位置に追従させることができなかった。   On the other hand, the video processing apparatus can also adjust the angle at which the optical axes of the two imaging units converge, the so-called convergence angle. This is because the stereoscopic effect around the subject is more clearly expressed in relation to the foreground and background existing before and after the subject for which imaging is desired. However, since the techniques of Patent Documents 1 and 2 described above do not support the change in the convergence angle, even if the convergence angle changes while the subject is stationary, the message data can be stored in an appropriate depth position corresponding to the subject. Could not be followed.

本発明は、このような課題に鑑み、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能な、映像処理装置および映像処理方法を提供することを目的としている。   In view of such a problem, the present invention provides a video processing apparatus capable of causing message data to be perceived at an appropriate imaging position without a sense of incongruity even when the imaging position of a subject or the like changes with the convergence angle. And an image processing method.

上記課題を解決するために、本発明の映像処理装置は、両眼視差による立体映像を知覚させるための立体映像データと、立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得するデータ取得部と、立体映像データに重畳するメッセージデータを取得するメッセージ取得部と、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための挿入面を決定して、メッセージデータの視差を導出する挿入面決定部と、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部と挿入面との位置関係が変わらないようにメッセージデータの視差を変更する視差変更部と、視差に従ってメッセージデータを立体映像データに重畳するデータ重畳部と、重畳した立体映像データを出力するデータ出力部と、を備えたことを特徴とする。   In order to solve the above-described problem, the video processing apparatus of the present invention has a convergence angle formed by the optical axis of two imaging units that capture stereoscopic video data and stereoscopic video data for perceiving stereoscopic video due to binocular parallax. A data acquisition unit for acquiring convergence angle information, a message acquisition unit for acquiring message data to be superimposed on stereoscopic video data, and an insertion for superimposing message data that intersects perpendicularly with a bisector of the convergence angle The positional relationship between the two imaging units and the insertion plane in the imaging space does not change based on the insertion plane determination unit that determines the plane and derives the parallax of the message data and the convergence angle indicated in the convergence angle information The parallax changing unit for changing the parallax of the message data, the data superimposing unit for superimposing the message data on the stereoscopic video data according to the parallax, and the data for outputting the superimposed stereoscopic video data Characterized by comprising an output section.

視差変更部は、輻輳角が2αから2αに変化した場合に、cosα/cosαおよびsinα/sinαそれぞれに所定の係数を乗じて加算した比率に基づいて視差を変更してもよい。 The parallax changing unit may change the parallax based on a ratio obtained by multiplying each of cosα B / cosα A and sinα B / sinα A by a predetermined coefficient when the convergence angle is changed from 2α A to 2α B. Good.

映像処理装置は、特定された被写体を追尾する被写体追尾部と、輻輳角の二等分線方向における、2つの撮像部と追尾された被写体との距離である被写体距離を導出する距離導出部と、導出された被写体距離に基づいて輻輳角を制御する輻輳角制御部と、をさらに備えてもよい。   An image processing apparatus includes a subject tracking unit that tracks a specified subject, and a distance deriving unit that derives a subject distance that is a distance between the two imaging units and the tracked subject in the bisector direction of the convergence angle. And a convergence angle control unit that controls the convergence angle based on the derived subject distance.

上記課題を解決するために、本発明の映像処理方法は、両眼視差による立体映像を知覚させるための立体映像データと、立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得し、立体映像データに重畳するメッセージデータを取得し、メッセージデータの取得が初めてであれば、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための挿入面を決定して、メッセージデータの視差を導出し、初めてでなければ、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部と挿入面との位置関係が変わらないようにメッセージデータの視差を変更し、視差に従ってメッセージデータを立体映像データに重畳し、重畳した立体映像データを出力することを特徴とする。   In order to solve the above-described problems, the video processing method of the present invention provides a stereoscopic image data for perceiving stereoscopic video due to binocular parallax and a convergence angle formed by the optical axes of two imaging units that have captured stereoscopic video data. In order to superimpose message data that intersects perpendicularly to the bisector of the convergence angle if the message data is obtained for the first time, the message data to be superimposed on the stereoscopic video data is acquired. If it is not the first time, based on the convergence angle indicated in the convergence angle information, the positional relationship between the two imaging units and the insertion surface is determined. The parallax of the message data is changed so as not to change, the message data is superimposed on the stereoscopic video data according to the parallax, and the superimposed stereoscopic video data is output.

以上説明したように本発明は、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。したがって、観察者は、メッセージデータが重畳された立体映像データを通じて眼に疲労を覚えることもなく、立体映像データの立体感を鮮明に実感することができる。   As described above, according to the present invention, message data can be perceived at an appropriate image formation position with no sense of incongruity even when the image formation position of a subject or the like changes with the convergence angle. Therefore, the observer can clearly feel the stereoscopic effect of the stereoscopic image data without feeling tired eyes through the stereoscopic image data on which the message data is superimposed.

映像処理装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the video processing apparatus. 映像処理装置の一例を示した外観図である。It is the external view which showed an example of the video processing apparatus. 輻輳角を説明するための説明図である。It is explanatory drawing for demonstrating a convergence angle. 輻輳角を説明するための説明図である。It is explanatory drawing for demonstrating a convergence angle. 挿入面決定部の詳細な動作について説明するための説明図である。It is explanatory drawing for demonstrating the detailed operation | movement of an insertion surface determination part. 輻輳角の変化によるメッセージデータの奥行き感の変化を説明するための説明図である。It is explanatory drawing for demonstrating the change of the depth feeling of message data by the change of a convergence angle. 視差変更部の詳細な動作について説明するための説明図である。It is explanatory drawing for demonstrating the detailed operation | movement of a parallax change part. 視差変更部の詳細な動作について説明するための説明図である。It is explanatory drawing for demonstrating the detailed operation | movement of a parallax change part. 輻輳角の変化によるメッセージデータの知覚を説明するための説明図である。It is explanatory drawing for demonstrating perception of the message data by the change of a convergence angle. 映像処理方法の具体的な処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the specific process of the video processing method.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

映像処理装置では、人物に代表される被写体の前後に存在する前景や背景との関係で、被写体の周囲の立体感をより鮮明に表すため、撮像空間において2つの撮像部の光軸が輻輳する輻輳角を調整している。このように輻輳角が変化すると再生空間における被写体の結像位置も変化するが、メッセージデータの結像位置が再生空間において固定されていると、被写体の奥行き感が変化しているのに対しメッセージデータが静止していることとなり、観察者は、違和感を覚えて眼が疲れる場合があった。ここで、撮像空間は、撮像を実行しているときの映像処理装置と被写体との実際の位置関係を表す空間を示し、再生空間は、撮像した立体映像データを再生しているときの観察者と被写体の結像位置との位置関係を表す空間を示す。本実施形態では、撮像空間における輻輳角の変化に伴い、再生空間における被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることを目的としている。以下、かかる映像処理装置の構成を説明し、その後で映像処理方法の処理の流れを詳述する。   In the video processing apparatus, the optical axes of the two imaging units are congested in the imaging space in order to more clearly represent the stereoscopic effect around the subject in relation to the foreground and background existing before and after the subject represented by a person. The convergence angle is adjusted. When the convergence angle changes in this way, the subject image formation position in the reproduction space also changes. However, if the message data image formation position is fixed in the reproduction space, the subject's depth perception changes. The data was stationary, and the observer sometimes felt uncomfortable and the eyes were tired. Here, the imaging space indicates a space representing the actual positional relationship between the video processing apparatus and the subject when imaging is being performed, and the reproduction space is an observer when reproducing the captured stereoscopic video data And a space representing the positional relationship between the subject and the imaging position of the subject. The purpose of this embodiment is to cause message data to be perceived at an appropriate imaging position without any sense of incongruity even if the imaging position of a subject or the like in the reproduction space changes with a change in the convergence angle in the imaging space. Hereinafter, the configuration of the video processing apparatus will be described, and then the processing flow of the video processing method will be described in detail.

(映像処理装置100)
図1は、映像処理装置100の概略的な機能を示した機能ブロック図であり、図2は、映像処理装置100の一例を示した外観図である。図1に示すように、映像処理装置100は、撮像ユニット110と、距離導出部112と、輻輳角制御部114と、輻輳角導出部116と、映像処理部118と、データバッファ120と、操作部122と、立体表示部124と、映像圧縮部126と、データ出力部128と、中央制御部130とを含んで構成される。ここでは、映像処理装置100としてビデオカメラを挙げているが、デジタルスチルカメラ等、撮像が可能な様々な電子機器を採用することができる。
(Video processing apparatus 100)
FIG. 1 is a functional block diagram illustrating schematic functions of the video processing apparatus 100, and FIG. 2 is an external view illustrating an example of the video processing apparatus 100. As shown in FIG. 1, the video processing apparatus 100 includes an imaging unit 110, a distance deriving unit 112, a convergence angle control unit 114, a convergence angle deriving unit 116, a video processing unit 118, a data buffer 120, and an operation. Unit 122, stereoscopic display unit 124, video compression unit 126, data output unit 128, and central control unit 130. Here, a video camera is cited as the video processing apparatus 100, but various electronic devices capable of imaging such as a digital still camera can be employed.

撮像ユニット110は、2つの撮像部110a、110bで構成され、かかる2つの撮像部110a、110bは、図2に示すそれぞれの光軸102a、102bが撮像方向のいずれかの位置で輻輳し(交わり、集中し)、撮像者が映像処理装置100の本体104を水平に把持した際に、その光軸102a、102bが同じ水平面に含まれるように配置される。   The imaging unit 110 includes two imaging units 110a and 110b. In the two imaging units 110a and 110b, the optical axes 102a and 102b shown in FIG. 2 are converging (intersection) at any position in the imaging direction. When the photographer grips the main body 104 of the video processing apparatus 100 horizontally, the optical axes 102a and 102b are arranged so as to be included in the same horizontal plane.

撮像ユニット110では、それぞれの撮像部110a、110bにおいて撮像された、観察者の左眼に知覚させるための左眼用映像データと観察者の右眼に知覚させるための右眼用映像データとを併合し、両眼視差によって立体映像を知覚させるための立体映像データを生成する。立体映像データは、動画および静止画のいずれでも形成可能である。また、立体映像データは、左眼用映像データと右眼用映像データの物理的配置または時間的配置の違いによってサイドバイサイド方式、トップアンドボトム方式等、様々な方式によって形成される。   In the imaging unit 110, the left-eye video data for the viewer's left eye and the right-eye video data for the viewer's right eye perceived by the respective imaging units 110a and 110b. The three-dimensional video data for perceiving the stereoscopic video by binocular parallax is generated by merging. The stereoscopic video data can be formed as either a moving image or a still image. The stereoscopic video data is formed by various methods such as a side-by-side method and a top-and-bottom method depending on the physical arrangement or temporal arrangement of the left-eye video data and the right-eye video data.

また、2つの撮像部110a、110bは、鉛直軸回りに回転可能に形成され、後述する輻輳角制御部114によって2つの撮像部110a、110bが回転し、その光軸102a、102bがなす輻輳角が制御される。かかる輻輳角の制御は、撮像部110a、110bのハード的な回転のみならず、撮像された立体映像データの切り出し位置および範囲を調整することでも実現可能である。   The two imaging units 110a and 110b are formed so as to be rotatable about the vertical axis, and the convergence angle control unit 114 (to be described later) rotates the two imaging units 110a and 110b, and the convergence angles formed by the optical axes 102a and 102b. Is controlled. Such control of the convergence angle can be realized not only by hardware rotation of the imaging units 110a and 110b but also by adjusting the cut-out position and range of the captured stereoscopic video data.

図3および図4は、輻輳角を説明するための説明図である。例えば、輻輳点(光軸102a、102bの交点)が撮像空間において図3の位置Bにあったとすると、再生空間において、観察者は、被写体Pを飛び出しているように知覚し、被写体Qを奥まっているように知覚する。このとき、被写体Pおよび被写体Qと輻輳点である位置Bとの距離を等しくすると、2つの撮像部110a、110bの光軸102a、102bとの距離XPBとXQBも等しくなる。かかる光軸102a、102bとの距離XPB、XQBは、2つの撮像部110a、110bに撮像された立体映像データの視差に相当する。したがって、位置Bを輻輳点として撮像された立体映像データを再生すると、被写体Pが飛び出して知覚される結像位置と立体表示部124との距離と、被写体Qが奥まって知覚される結像位置と立体表示部124との距離がほぼ等しくなる。 3 and 4 are explanatory diagrams for explaining the convergence angle. For example, assuming that the convergence point (intersection of the optical axes 102a and 102b) is at the position B in FIG. 3 in the imaging space, the observer perceives the subject P as popping out in the reproduction space, and the subject Q To perceive. At this time, when an equal distance between the position B is a point of convergence between the object P and the object Q, 2 one imaging unit 110a, 110b of the optical axis 102a, even if the distance X PB and X QB and 102b equal. The distances X PB and X QB with respect to the optical axes 102a and 102b correspond to the parallax of the stereoscopic video data captured by the two imaging units 110a and 110b. Therefore, when the stereoscopic image data captured with the position B as the convergence point is reproduced, the distance between the imaging position where the subject P is projected and perceived and the stereoscopic display unit 124, and the imaging position where the subject Q is perceived deeply. And the three-dimensional display unit 124 become substantially equal.

一方、輻輳点が撮像空間において図3の位置Aにあったとすると、被写体Pと2つの撮像部110a、110bの光軸102a、102bとの距離XPAが短くなる反面、被写体Qと2つの撮像部110a、110bの光軸102a、102bとの距離XQAが長くなる。ここで、位置Aを輻輳点として撮像された立体映像データを再生すると、被写体Pが飛び出して知覚される結像位置と立体表示部124との距離が短くなり、被写体Qが奥まって知覚される結像位置と立体表示部124との距離が長くなる。即ち、再生空間における被写体Pの飛び出し感が損なわれ、被写体Qの奥まり感が増幅される。 On the other hand, if the convergence point is at the position A in FIG. 3 in the imaging space, the distance X PA between the subject P and the optical axes 102a and 102b of the two imaging units 110a and 110b is shortened, while the subject Q and the two imagings. parts 110a, 110b of the optical axis 102a, the distance X QA and 102b becomes longer. Here, when the stereoscopic video data captured with the position A as the convergence point is reproduced, the distance between the imaging position perceived by the subject P popping out and the stereoscopic display unit 124 is shortened, and the subject Q is perceived deeper. The distance between the imaging position and the stereoscopic display unit 124 becomes longer. That is, the feeling of popping out of the subject P in the reproduction space is impaired, and the feeling of depth of the subject Q is amplified.

換言すると、撮像空間における、撮像ユニット110と被写体P、Qとの位置関係が変化しなくとも、即ち、被写体P、Qが静止していても、輻輳点を奥行き方向に変化させることで、再生空間における被写体P、Qの奥行き感を変化させることができる。本実施形態では、再生空間において被写体P、Qをどのような奥行き感で表現するかのポリシーに応じて輻輳角を制御している。   In other words, even if the positional relationship between the imaging unit 110 and the subjects P and Q in the imaging space does not change, that is, even if the subjects P and Q are stationary, the convergence point is changed in the depth direction to reproduce the image. It is possible to change the depth of the subjects P and Q in the space. In the present embodiment, the convergence angle is controlled in accordance with a policy of how to express the subjects P and Q in the reproduction space.

例えば、被写体としての人物が奥行き方向を前後に移動しても常に前に飛び出して見えるようにしたい場合、図4(a)に示すように、撮像空間における、被写体Rより非常に遠い位置Cに輻輳点を設定する。しかし、その輻輳点が遠いほど、再生空間において、被写体Rの周囲における被写体同士(例えば、被写体Rと被写体S)の奥行き感が損なわれ、視覚的な立体感を十分に得られなくなる。一方、図4(b)に示すように、撮像空間における、被写体Rとほぼ等しい位置Dに輻輳点を設定すると、再生空間において、被写体Rの周囲における被写体同士の奥行き感は増すが、被写体Rが輻輳点の前後のいずれにいるかによって、飛び出したり、奥まったりしてしまう。   For example, when it is desired that a person as a subject always jumps forward even if the person moves in the depth direction back and forth, as shown in FIG. 4 (a), the person is placed at a position C far from the subject R in the imaging space. Set the convergence point. However, the farther the convergence point is, the less the sense of depth between the subjects around the subject R (for example, the subject R and the subject S) in the reproduction space becomes, and a sufficient visual stereoscopic effect cannot be obtained. On the other hand, as shown in FIG. 4B, when a convergence point is set at a position D that is substantially equal to the subject R in the imaging space, the sense of depth between subjects around the subject R increases in the reproduction space, but the subject R Depending on whether or not it is before or after the convergence point, it will pop out or be deepened.

したがって、被写体Rの周囲における被写体同士の奥行き感を維持しつつ、被写体Rをある程度飛び出させるような適切な位置に輻輳点を設定することが望まれる。このとき、被写体Rは静止し続けるとは限らないので、被写体Rが奥行き方向に移動した場合、それに伴って輻輳点(輻輳角)も変化させるのが好ましい。具体的には、以下に示す距離導出部112と輻輳角制御部114とを用い、撮像ユニット110(焦点位置)から被写体Rまでの距離である被写体距離を導出し、その被写体距離に応じて自動的に輻輳角を変化させる。   Therefore, it is desirable to set a convergence point at an appropriate position that makes the subject R pop out to some extent while maintaining the sense of depth between the subjects around the subject R. At this time, since the subject R does not always remain stationary, when the subject R moves in the depth direction, it is preferable to change the convergence point (convergence angle) accordingly. Specifically, using the distance deriving unit 112 and the convergence angle control unit 114 shown below, a subject distance, which is a distance from the imaging unit 110 (focal position) to the subject R, is derived, and automatic according to the subject distance. The convergence angle is changed.

距離導出部112は、光切断法に基づいて光の反射に費やす時間(TOF:Time Of Flight)を測定することで、輻輳角の二等分線方向における、2つの撮像部110a、110bと、後述する被写体追尾部152によって追尾されている被写体Rとの被写体距離を導出する。   The distance deriving unit 112 measures the time spent on reflection of light (TOF: Time Of Flight) based on the light cutting method, so that the two imaging units 110a and 110b in the bisector direction of the convergence angle, A subject distance from a subject R tracked by a subject tracking unit 152 described later is derived.

輻輳角制御部114は、被写体Rの周囲の立体感をより鮮明に表すため、マクロ、人物、景色といった撮像時の撮像モードと、距離導出部112によって導出された被写体距離とに基づいて、例えば、被写体距離より所定の距離遠いところに輻輳点が位置するように、2つの撮像部110a、110bを鉛直軸回りに回転させ輻輳角を制御する。かかる構成により、被写体Rの周囲の立体感が鮮明に表された良好な立体映像を観察者に知覚させることができる。   In order to more clearly represent the stereoscopic effect around the subject R, the convergence angle control unit 114 is based on the imaging mode at the time of imaging such as a macro, a person, and a landscape, and the subject distance derived by the distance deriving unit 112, for example. The convergence angle is controlled by rotating the two imaging units 110a and 110b around the vertical axis so that the convergence point is located at a predetermined distance from the subject distance. With this configuration, it is possible to make the observer perceive a good stereoscopic image in which the stereoscopic effect around the subject R is clearly expressed.

輻輳角導出部116は、2つの撮像部110a、110bの本体104に対する回転角を加算して、2つの撮像部110a、110bの光軸102a、102bがなす輻輳角を導出する。また、輻輳角の調整を撮像ユニット110におけるレンズやミラーによって遂行する場合、それらの回転角を加算して輻輳角を導出する。輻輳角の導出処理は、上記の場合に限られず、既存の様々な導出処理を適用することができる。   The convergence angle deriving unit 116 adds the rotation angles of the two imaging units 110a and 110b with respect to the main body 104 to derive the convergence angle formed by the optical axes 102a and 102b of the two imaging units 110a and 110b. When the convergence angle is adjusted by a lens or mirror in the imaging unit 110, the rotation angle is added to derive the convergence angle. The convergence angle derivation process is not limited to the above case, and various existing derivation processes can be applied.

ここでは、輻輳角が一意かつ自動的に導出されるので、輻輳角を手動で入力するといった煩雑な手作業を要さず、効率的に適切な立体映像データを生成することができる。   Here, since the convergence angle is uniquely and automatically derived, it is possible to efficiently generate appropriate stereoscopic video data without requiring a complicated manual operation of manually inputting the convergence angle.

映像処理部118は、撮像ユニット110で生成された立体映像データに対して、R(Red)G(Green)B(Blue)処理(γ補正や色補正)、エンハンス処理、ノイズ低減処理などの映像信号処理を行う。所定の映像信号処理が行なわれた立体映像データは、データバッファ120に一時的に保持される。   The video processing unit 118 performs video processing such as R (Red) G (Green) B (Blue) processing (γ correction and color correction), enhancement processing, noise reduction processing, and the like on the stereoscopic video data generated by the imaging unit 110. Perform signal processing. The stereoscopic video data that has undergone predetermined video signal processing is temporarily held in the data buffer 120.

データバッファ120は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、立体映像データを一時的に保持する。このとき、立体映像データと共に、立体映像データを撮像したその時々の輻輳角を示す輻輳角情報も立体映像データに関連付けられて保持される。   The data buffer 120 includes a RAM (Random Access Memory), a flash memory, an HDD (Hard Disk Drive), and the like, and temporarily holds stereoscopic video data. At this time, together with the stereoscopic video data, the convergence angle information indicating the convergence angle at the time of capturing the stereoscopic video data is also stored in association with the stereoscopic video data.

操作部122は、操作キー、十字キー、ジョイスティック、後述する立体表示部124の表示面に配されたタッチパネル等のスイッチから構成され、撮像者の操作入力を受け付ける。   The operation unit 122 includes operation keys, a cross key, a joystick, and a switch such as a touch panel arranged on a display surface of a stereoscopic display unit 124 described later, and receives an operation input from the photographer.

立体表示部(ビューファインダ)124は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、例えば偏光特性が隔行で(1ライン毎に)異なるように(ラインシーケンシャル方式)形成される。撮像者は、撮像時に、立体表示部124を通じて立体映像データを立体的に知覚し、その知覚した立体映像に基づいて操作部122を操作することで、被写体Rを所望する位置および占有面積で捉えることが可能となる。   The stereoscopic display unit (viewfinder) 124 is configured by a liquid crystal display, an organic EL (Electro Luminescence) display, or the like, and is formed so that, for example, the polarization characteristics are different (for each line) (line sequential method). The photographer perceives stereoscopic video data stereoscopically through the stereoscopic display unit 124 during imaging, and operates the operation unit 122 based on the perceived stereoscopic video, thereby capturing the subject R at a desired position and occupied area. It becomes possible.

ここで、立体表示部124として、例えば、ラインシーケンシャル方式を採用すると、立体映像データに含まれる被写体や背景は、交差視(交差法)および平行視(平行法)のいずれの立体表示も可能となるので、視差によっては、立体表示部124の表示面より手前側または奥側のいずれの位置にも被写体や背景を結像させることができる。   Here, for example, when a line sequential method is adopted as the stereoscopic display unit 124, the subject and the background included in the stereoscopic video data can be displayed in either a stereoscopic view (crossing method) or a parallel view (parallel method). Therefore, depending on the parallax, the subject or the background can be imaged at either the front side or the back side of the display surface of the stereoscopic display unit 124.

また、立体表示部124の表示方式としては、ラインシーケンシャル方式に限られず、例えば、左眼用映像データと右眼用映像データとを1フレーム毎に交互に表示し電子シャッター式眼鏡を通じて視認させるフレームシーケンシャル方式、レンティキュラレンズを介して左眼用映像と右眼用映像それぞれの光の進行方向を制御するレンティキュラー方式等を用いることもできる。   The display method of the stereoscopic display unit 124 is not limited to the line sequential method. For example, the left-eye video data and the right-eye video data are alternately displayed frame by frame and visually viewed through the electronic shutter glasses. A sequential method, a lenticular method for controlling the light traveling directions of the left-eye image and the right-eye image via a lenticular lens, or the like can also be used.

映像圧縮部126は、中央制御部130の制御指令により、データバッファ120に保持された立体映像データを、M−JPEG(Motion-Joint Photographic Experts Group)やMPEG(Moving Picture Experts Group)−2、H.264などの所定の符号化方式で符号化した符号データとし、任意の記録媒体180に記録する。任意の記録媒体180としては、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)といった光ディスク媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の媒体を適用することができる。   The video compression unit 126 converts the stereoscopic video data held in the data buffer 120 into M-JPEG (Motion-Joint Photographic Experts Group), MPEG (Moving Picture Experts Group) -2, H, in response to a control command from the central control unit 130. . The encoded data is encoded by a predetermined encoding method such as H.264 and recorded on an arbitrary recording medium 180. As the arbitrary recording medium 180, an optical disk medium such as a DVD (Digital Versatile Disk) and a BD (Blu-ray Disc), a medium such as a RAM, an EEPROM, a nonvolatile RAM, a flash memory, and an HDD can be applied.

データ出力部128は、後述するデータ重畳部164が重畳した立体映像データを映像処理装置100に接続されたディスプレイ182に出力する。ディスプレイ182は、立体表示部124同様、液晶ディスプレイ、有機ELディスプレイ等で構成され、例えば、偏光特性が1ライン毎に異なるように形成される。   The data output unit 128 outputs the stereoscopic video data superimposed by the data superimposing unit 164 described later to the display 182 connected to the video processing device 100. The display 182 is configured by a liquid crystal display, an organic EL display, or the like, like the stereoscopic display unit 124, and is formed so that, for example, the polarization characteristics are different for each line.

中央制御部130は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、映像処理装置100全体を管理および制御する。また、本実施形態において、中央制御部130は、被写体特定部150、被写体追尾部152、記憶制御部154、データ取得部156、メッセージ取得部158、挿入面決定部160、視差変更部162、データ重畳部164、表示制御部166としても機能する。   The central control unit 130 manages and controls the entire video processing apparatus 100 by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing programs and the like, a RAM as a work area, and the like. In the present embodiment, the central control unit 130 includes a subject specifying unit 150, a subject tracking unit 152, a storage control unit 154, a data acquisition unit 156, a message acquisition unit 158, an insertion plane determination unit 160, a parallax change unit 162, data It also functions as a superimposing unit 164 and a display control unit 166.

被写体特定部150は、操作部122としての例えば立体表示部124の表示面に配されたタッチパネルの操作入力を通じて、立体映像データ中の被写体を特定する。また、被写体特定部150は、例えば映像中の背景に対して相対移動している等の条件に基づいて自動的に特定することもできる。   The subject specifying unit 150 specifies a subject in the stereoscopic video data through an operation input of a touch panel arranged on the display surface of the stereoscopic display unit 124 as the operation unit 122, for example. The subject specifying unit 150 can also automatically specify based on conditions such as relative movement with respect to the background in the video, for example.

被写体追尾部152は、被写体特定部150によって特定された被写体が人物であった場合、例えば、その人物の顔画像を既存の画像処理技術を用いて追尾する。かかる構成により、撮像中に被写体が移動した場合であっても、距離導出部112は、被写体距離を適切に導出することが可能となる。   When the subject specified by the subject specifying unit 150 is a person, the subject tracking unit 152 tracks the face image of the person using an existing image processing technique, for example. With this configuration, the distance deriving unit 112 can appropriately derive the subject distance even when the subject moves during imaging.

記憶制御部154は、輻輳角導出部116が導出した輻輳角を示す輻輳角情報を立体映像データに関連付けてデータバッファ120に記憶する。ここでは、メッセージデータそのものではなく、メッセージデータを重畳するための輻輳角を記憶しているので、かかる輻輳角を用いてメッセージデータ等を事後的に立体映像データに重畳することが可能となる。   The storage control unit 154 stores the convergence angle information indicating the convergence angle derived by the convergence angle deriving unit 116 in the data buffer 120 in association with the stereoscopic video data. Here, since the convergence angle for superimposing the message data is stored instead of the message data itself, it is possible to superimpose the message data or the like on the stereoscopic video data later using the convergence angle.

データ取得部156は、データバッファ120から、立体映像データと輻輳角情報とを取得する。また、当該映像処理装置100を再生装置として機能させるとき、データ取得部156は、外部から直接、立体映像データと輻輳角情報とを取得する。   The data acquisition unit 156 acquires stereoscopic video data and convergence angle information from the data buffer 120. In addition, when the video processing apparatus 100 functions as a playback apparatus, the data acquisition unit 156 acquires stereoscopic video data and convergence angle information directly from the outside.

メッセージ取得部158は、立体映像データに重畳するメッセージデータを取得する。ここで、メッセージデータは、OSD(On Screen Display)、チャンネル、テロップ、時間、動作モード、アイコン、入出力ライン案内、エラー情報等の映像または映像処理装置100自体の情報を視覚的に表したデータである。   The message acquisition unit 158 acquires message data to be superimposed on the stereoscopic video data. Here, the message data is data that visually represents information of the video processing apparatus 100 itself such as OSD (On Screen Display), channel, telop, time, operation mode, icon, input / output line guidance, error information, and the like. It is.

挿入面決定部160は、撮像空間における、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための仮想的な挿入面を決定して、メッセージデータの視差を導出する。挿入面決定部160は、再生空間において、立体映像データに含まれる被写体より観察者側にメッセージデータを知覚させたい場合、撮像空間における2つの撮像部110a、110b側に挿入面を設定し、再生空間における被写体より遠方にメッセージデータを知覚させたい場合、撮像空間における背景側に挿入面を設定する。   The insertion surface determination unit 160 determines a virtual insertion surface for superimposing the message data that intersects the bisector of the convergence angle in the imaging space, and derives the parallax of the message data. In the reproduction space, the insertion plane determination unit 160 sets the insertion plane on the two imaging units 110a and 110b side in the imaging space and reproduces the message data when the viewer wants the viewer to perceive the message data from the subject included in the stereoscopic video data. When it is desired to perceive message data farther than the subject in the space, an insertion surface is set on the background side in the imaging space.

図5は、挿入面決定部160の詳細な動作について説明するための説明図である。ここでは理解を容易にするため、一方の眼に関する視差について説明し、他方の眼に関する視差については導出方法が実質的に等しいのでその説明を省略する。挿入面決定部160は、図5における挿入面184にメッセージデータを事後的に挿入しようとした場合、そのときの輻輳角2αによって、メッセージデータの視差(距離Xに相当)を以下から導き出すことができる。 FIG. 5 is an explanatory diagram for describing a detailed operation of the insertion surface determination unit 160. Here, in order to facilitate understanding, the parallax related to one eye will be described, and since the derivation method is substantially the same for the parallax related to the other eye, the description thereof will be omitted. Insertion face determination unit 160, when an attempt afterwards insert message data to insertion surface 184 in FIG. 5, the convergence angle 2.alpha A at that time, deriving the disparity of the message data (corresponding to the distance X A) from the following be able to.

2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離をs、その中心点Tから挿入面184までの距離をp、位置Aにおける輻輳角を2αとすると、中心点Tから輻輳点である位置Aまでの距離Lは、数式1で表される。
=s/tanα=s×cosα/sinα …(数式1)
Two imaging units 110a, 110b a distance from each object-side principal point to the center point T s, and the distance to the insertion face 184 from the center point T p, and 2.alpha A convergence angle at the position A, the center point distance L a from T position to a, a congestion point is represented by equation 1.
L A = s / tan α A = s × cos α A / sin α A (Formula 1)

また、2つの撮像部110a、110bの光軸102a、102bとの距離Xは、数式2で表される。
=(L−p)×sinα …(数式2)
したがって、メッセージデータの挿入面184を決定して中心点Tから挿入面184までの距離pが決まれば、挿入面決定部160は、視差に相当する距離Xを一意に導出することができる。後述するデータ重畳部164は、このようにして導出された視差(距離X)をつけてメッセージデータを立体映像データに重畳する。かかる構成により、メッセージデータが事後的に挿入され、そのメッセージデータが撮像空間における挿入面184にあたかも存在していたかのように知覚させることができる。
A distance XA between the optical axes 102a and 102b of the two imaging units 110a and 110b is expressed by Equation 2.
X A = (L A −p) × sin α A (Formula 2)
Thus, once the distance p from the center point T and determines the insertion surface 184 of the message data to the insertion plane 184, insertion plane determination unit 160 is able to uniquely derive the distance X A corresponding to parallax. The data superimposing unit 164 described later superimposes the message data on the stereoscopic video data with the parallax (distance X A ) derived in this way. With this configuration, message data can be inserted afterwards, and the message data can be perceived as if it existed on the insertion surface 184 in the imaging space.

視差変更部162は、輻輳角情報に示された輻輳角に基づいて、撮像空間における、撮像部110a、110bと挿入面との位置関係が変わらないようにメッセージデータの視差を変更する。   Based on the convergence angle indicated by the convergence angle information, the parallax changing unit 162 changes the parallax of the message data so that the positional relationship between the imaging units 110a and 110b and the insertion surface in the imaging space does not change.

図6は、輻輳角の変化によるメッセージデータの奥行き感の変化を説明するための説明図である。観察者が例えば被写体Rを立体的に知覚するのは、立体映像データにおいて被写体Rに視差が設けられているからである。このとき、輻輳点が位置Aから位置Bに推移すると、撮像空間における被写体Rと輻輳点との距離が大きくなり、再生空間における被写体Rの結像位置は観察者側に推移して、観察者は被写体Rが徐々に飛び出してくるように知覚する。   FIG. 6 is an explanatory diagram for explaining a change in the depth feeling of the message data due to a change in the convergence angle. The observer perceives the subject R in a three-dimensional manner, for example, because the subject R is provided with parallax in the stereoscopic video data. At this time, when the convergence point changes from the position A to the position B, the distance between the subject R and the convergence point in the imaging space increases, and the imaging position of the subject R in the reproduction space changes to the observer side. Perceives that the subject R gradually pops out.

一方、メッセージデータ186が、挿入面決定部160によって導出された視差(距離X)で固定されていた場合、再生空間においてメッセージデータ186の結像位置は変化しないので、観察者は、被写体Rが飛び出してくるのと比較してメッセージデータ186が、白抜き矢印の如く相対的に奥まっていくように知覚する。そこで、本実施形態では、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させる。ここでは、視差変更部162が、輻輳角の変化に伴う被写体等の結像位置の変化に合わせてメッセージデータの視差を変更する。 On the other hand, when the message data 186 is fixed with the parallax (distance X A ) derived by the insertion plane determination unit 160, the image formation position of the message data 186 does not change in the reproduction space, so that the observer It is perceived that the message data 186 is relatively deeper as indicated by the white arrow as compared to the pop-up. Therefore, in the present embodiment, even if the imaging position of the subject or the like changes with the convergence angle, the message data is perceived at an appropriate imaging position with no sense of incongruity. Here, the parallax changing unit 162 changes the parallax of the message data in accordance with the change in the imaging position of the subject or the like accompanying the change in the convergence angle.

図7および図8は、視差変更部162の詳細な動作について説明するための説明図である。ここでも理解を容易にするため、一方の眼に関する視差について説明し、他方の眼に関する視差については導出方法が実質的に等しいのでその説明を省略する。挿入面決定部160が挿入面184を決定した段階では、輻輳点が位置Aにある状態で、メッセージデータが挿入面184に配されている。このとき、図7の白抜き矢印で示すように輻輳点が位置Aから位置Bに移動すると、視差変更部162は、メッセージデータの視差を以下のように導き出す。   7 and 8 are explanatory diagrams for explaining the detailed operation of the parallax changing unit 162. FIG. Here, in order to facilitate understanding, the parallax related to one eye will be described, and the description of the parallax related to the other eye will be omitted because the derivation method is substantially the same. At the stage where the insertion surface determination unit 160 determines the insertion surface 184, message data is arranged on the insertion surface 184 with the convergence point at the position A. At this time, when the convergence point moves from the position A to the position B as indicated by the white arrow in FIG. 7, the parallax changing unit 162 derives the parallax of the message data as follows.

図5同様、2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離をs、その中心点Tから挿入面184までの距離をp、位置Aにおける輻輳角を2α、位置Bにおける輻輳角を2αとすると、中心点から輻輳点である位置Aまでの距離Lと位置Bまでの距離Lは、数式1および数式3で表される。
=s/tanα=s×cosα/sinα …(数式1)
=s/tanα=s×cosα/sinα …(数式3)
As in FIG. 5, the distance from the object principal point of each of the two imaging units 110a and 110b to the center point T is s, the distance from the center point T to the insertion surface 184 is p, and the convergence angle at the position A is 2α A , When the convergence angle at the position B and 2.alpha B, the distance L B between the distance L a between the center point position to a, a congestion point to the position B is expressed by equations 1 and 3.
L A = s / tan α A = s × cos α A / sin α A (Formula 1)
L B = s / tan α B = s × cos α B / sin α B (Formula 3)

また、輻輳点を位置Aとしたときの2つの撮像部110a、110bの光軸102a、102bとの距離X、および、輻輳点を位置Bとしたときの光軸102a、102bとの距離Xは、数式2および数式4で表される。
=(L−p)×sinα …(数式2)
=(L−p)×sinα …(数式4)
Further, the distance X A between the optical axes 102a and 102b of the two imaging units 110a and 110b when the convergence point is the position A, and the distance X between the optical axes 102a and 102b when the convergence point is the position B B is expressed by Equation 2 and Equation 4.
X A = (L A −p) × sin α A (Formula 2)
X B = (L B −p) × sin α B (Formula 4)

ここで、数式1と数式3で示された距離Lと距離Lを数式2および数式4に代入すると、距離Xと距離Xとの比率であるX/Xは数式5で表される。
/X=(s×cosα−p×sinα)/(s×cosα−p×sinα)…(数式5)
また、図8(a)に示すように、輻輳点がメッセージデータを跨って推移した場合、X/Xは、数式6で表される。
/X=(s×cosα−p×sinα)/(p×sinα−s×cosα)…(数式6)
さらに、図8(b)に示すように、輻輳点がメッセージデータより近い領域を推移した場合、X/Xは、数式7で表される。
/X=(p×sinα−s×cosα)/(p×sinα−s×cosα)…(数式7)
ただし、数式7は数式5と実質的に等しく、数式6は数式5や数式7の符号を反転したものとなる。
Here, by substituting the distance L A and the distance L B indicated by Equations 1 and 3 in Formula 2 and Formula 4, the distance is a ratio between X A and the distance X B X B / X A in Equation 5 expressed.
X B / X A = (s × cosα B -p × sinα B) / (s × cosα A -p × sinα A) ... ( Equation 5)
Further, as shown in FIG. 8A, when the congestion point changes across the message data, X A / X B is expressed by Expression 6.
X B / X A = (s × cos α B −p × sin α B ) / (p × sin α A −s × cos α A ) (Formula 6)
Further, as shown in FIG. 8B, when the convergence point changes in an area closer to the message data, X B / X A is expressed by Expression 7.
X B / X A = (p × sin α B −s × cos α B ) / (p × sin α A −s × cos α A ) (Expression 7)
However, Expression 7 is substantially equal to Expression 5, and Expression 6 is obtained by inverting the signs of Expression 5 and Expression 7.

図7に戻って、中心点Tから挿入面184までの距離pを、距離Lと係数F(Fは正数)用いて、例えば、p=F×Lとすると、数式5および数式6は、数式8および数式9に変形することができる。
/X=1/(1−F)×cosα/cosα−F/(1−F)×sinα/sinα…(数式8)
/X=1/(F−1)×cosα/cosα−F/(F−1)×sinα/sinα…(数式9)
Returning to FIG. 7, the distance p from the center point T to the insertion face 184, a distance L A and the coefficient F (F is a positive number) with, for example, when p = F × L A, Equation 5 and Equation 6 Can be transformed into Equation 8 and Equation 9.
X B / X A = 1 / (1-F) × cosα B / cosα A -F / (1-F) × sinα B / sinα A ... ( Equation 8)
X B / X A = 1 / (F-1) × cosα B / cosα A -F / (F-1) × sinα B / sinα A ... ( Equation 9)

かかる数式8および数式9を参照して理解できるように、2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離s、中心点Tから挿入面184までの距離p、中心点Tから位置Aまでの距離L、中心点Tから位置Bまでの距離Lの情報が無くとも、位置Aにおける輻輳角2α、位置Bにおける輻輳角2αさえ把握できれば、距離Xと距離Xとの比率であるX/Xを一意に求めることが可能である。 As can be understood with reference to Equation 8 and Equation 9, the distance s from the object principal point to the center point T of each of the two imaging units 110a and 110b, the distance p from the center point T to the insertion surface 184, and the center distance L a between the point T to the position a, even without information of the distance L B between the center point T to the position B, the convergence angle 2.alpha a at position a, if even grasp convergence angle 2.alpha B at position B, a distance X a X B / X A , which is the ratio of the distance to the distance X B , can be determined uniquely.

したがって、視差変更部162は、輻輳角が2αから2αに推移した場合においても、挿入面決定部160が導出した輻輳角2αのときの視差である距離Xに、数式8および数式9によるX/Xを乗算することで、輻輳角2αにおける新たな距離X、即ち新たな視差を導出することが可能となる。このようにメッセージデータの視差を随時変更する構成により、輻輳角に対する被写体等の奥行き感にメッセージデータを追従させることができ、再生空間における違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。 Therefore, even when the convergence angle changes from 2α A to 2α B , the parallax changing unit 162 sets the formula 8 and the formula to the distance X A that is the parallax at the convergence angle 2α A derived by the insertion plane determination unit 160. by multiplying X B / X a by 9, it is possible to derive a new distance X B, i.e. a new disparity in convergence angle 2.alpha B. In this way, the parallax of the message data can be changed as needed so that the message data can follow the depth of the subject etc. with respect to the convergence angle, and the message data can be perceived at an appropriate imaging position in the reproduction space. Is possible.

また、視差変更部162は、必ずしも数式8や数式9を用いて計算する必要もなく、輻輳角の推移とそのときの視差の比率とを1対1に対応させたテーブルを用いて視差を導出することもできる。かかる構成により、数式8や数式9を計算するための計算負荷を大幅に軽減することが可能となる。   Also, the parallax changing unit 162 does not necessarily need to calculate using the formulas 8 and 9, and derives the parallax using a table in which the transition of the convergence angle and the ratio of the parallax at that time correspond one-to-one. You can also With this configuration, it is possible to significantly reduce the calculation load for calculating Equation 8 and Equation 9.

データ重畳部164は、挿入面決定部160によって導出された視差または視差変更部162によって変更された視差に従ってメッセージデータを立体映像データに重畳する。   The data superimposing unit 164 superimposes the message data on the stereoscopic video data according to the parallax derived by the insertion plane determining unit 160 or the parallax changed by the parallax changing unit 162.

表示制御部166は、データ重畳部164によってメッセージデータが重畳された立体映像データを立体表示部124に表示する。このとき、表示制御部166は、立体表示部124の表示形式、例えば、ラインシーケンシャル方式、フレームシーケンシャル方式等に従って、立体映像データを加工する。   The display control unit 166 displays the stereoscopic video data on which the message data is superimposed by the data superimposing unit 164 on the stereoscopic display unit 124. At this time, the display control unit 166 processes the stereoscopic video data according to the display format of the stereoscopic display unit 124, for example, the line sequential method, the frame sequential method, or the like.

図9は、輻輳角の変化によるメッセージデータの知覚を説明するための説明図である。輻輳点を位置Aとして撮像した後、撮像した立体映像データを再生すると、図9(a)に示すように、撮像空間における輻輳点の位置Aが再生空間における立体表示部124の位置に相当するようになり、観察者は、左眼188aおよび右眼188bを通じて、被写体Rとメッセージデータ186が立体表示部124より飛び出しているように知覚する。そして、輻輳点を位置Bに変更した立体映像データを再生すると、図9(b)に示すように、撮像空間における輻輳点の位置Bが再生空間における立体表示部124の位置に相当するようになり、白抜き矢印で示したように、被写体Rの結像位置が観察者側に推移し、観察者は、左眼188aおよび右眼188bを通じ、被写体Rを図9(a)の場合と比較して、より飛び出しているように知覚する。   FIG. 9 is an explanatory diagram for explaining perception of message data due to a change in the convergence angle. When the captured stereoscopic video data is reproduced after the convergence point is imaged as the position A, the position A of the convergence point in the imaging space corresponds to the position of the stereoscopic display unit 124 in the reproduction space, as shown in FIG. Thus, the observer perceives the subject R and the message data 186 as protruding from the stereoscopic display unit 124 through the left eye 188a and the right eye 188b. Then, when the stereoscopic video data with the convergence point changed to the position B is reproduced, as shown in FIG. 9B, the position B of the convergence point in the imaging space corresponds to the position of the stereoscopic display unit 124 in the reproduction space. As shown by the white arrow, the imaging position of the subject R shifts to the observer side, and the observer compares the subject R with the case of FIG. 9A through the left eye 188a and the right eye 188b. And perceive that it is more popping out.

また、本実施形態では、視差変更部162によってメッセージデータ186にも被写体R同様の視差をつけるため、観察者は、メッセージデータ186も被写体R同様図9(a)の場合と比較して、より飛び出しているように知覚する。   Further, in this embodiment, since the parallax changing unit 162 applies the same parallax to the message data 186 as in the subject R, the observer can also compare the message data 186 in the same way as the subject R in FIG. Perceived as popping out.

(映像処理装置100の他の実施例)
上述した映像処理装置100では、撮像ユニット110で撮像された立体映像データにリアルタイムにメッセージデータを重畳する構成を述べた。しかし、本実施形態の目的は、立体映像データに輻輳角、またはそれに相当する輻輳点や、輻輳点までの距離が関連付けられていれば、達成できる。例えば、上述した映像処理装置100によって立体映像データと輻輳角情報とを関連付けて一旦任意の記録媒体180に記録した後、事後的にその輻輳角情報を用いてメッセージデータの視差を被写体の奥行き感に追従させることができる。
(Another embodiment of the video processing apparatus 100)
In the video processing apparatus 100 described above, the configuration in which the message data is superimposed in real time on the stereoscopic video data captured by the imaging unit 110 has been described. However, the object of the present embodiment can be achieved if the convergence angle, the corresponding convergence point, or the distance to the convergence point is associated with the stereoscopic video data. For example, after the stereoscopic video data and the convergence angle information are associated with each other by the video processing apparatus 100 described above and once recorded on an arbitrary recording medium 180, the parallax of the message data is subsequently used to determine the depth perception of the subject using the convergence angle information. Can be followed.

したがって、本実施形態の映像処理装置100では、立体映像データに輻輳角が関連付けられてさえいれば、撮像時とは異なる再生時に、新たなメッセージデータを容易に追加することができ、そのメッセージデータの視差を適切に変更することが可能となる。   Therefore, in the video processing apparatus 100 of the present embodiment, as long as the convergence angle is associated with the stereoscopic video data, new message data can be easily added at the time of reproduction different from that at the time of imaging. It is possible to appropriately change the parallax.

(映像処理方法)
次に、上述した映像処理装置100を用いて、立体映像データにメッセージデータを重畳する映像処理方法について説明する。
(Video processing method)
Next, a video processing method for superimposing message data on stereoscopic video data using the video processing apparatus 100 described above will be described.

図10は、映像処理方法の具体的な処理の流れを示したフローチャートである。まず、映像処理装置100の撮像部110a、110bは、両眼視差による立体映像を知覚させるための立体映像データを生成し(S200)、被写体追尾部152は、立体映像データ中の特定された被写体を追尾し(S202)、距離導出部112は、輻輳角の二等分線方向における、2つの撮像部110a、110bと追尾された被写体との距離である被写体距離を導出し(S204)、輻輳角制御部114は、導出された被写体距離に基づいて輻輳角を制御する(S206)。   FIG. 10 is a flowchart showing a specific processing flow of the video processing method. First, the imaging units 110a and 110b of the video processing apparatus 100 generate stereoscopic video data for perceiving stereoscopic video based on binocular parallax (S200), and the subject tracking unit 152 specifies the subject specified in the stereoscopic video data. (S202), the distance deriving unit 112 derives a subject distance that is a distance between the two imaging units 110a and 110b and the tracked subject in the bisecting direction of the convergence angle (S204). The angle control unit 114 controls the convergence angle based on the derived subject distance (S206).

そして、輻輳角導出部116は、2つの撮像部110a、110bの輻輳角を導出し(S208)、記憶制御部154は、導出された輻輳角を示す輻輳角情報を立体映像データに関連付けてデータバッファ120に記憶する(S210)。   Then, the convergence angle deriving unit 116 derives the convergence angles of the two imaging units 110a and 110b (S208), and the storage control unit 154 associates the convergence angle information indicating the derived convergence angle with the stereoscopic video data and performs data processing. Store in the buffer 120 (S210).

続いて、データ取得部156は、立体映像データと輻輳角情報とをデータバッファ120から取得する(S212)。ここで、立体表示部124に重畳可能なメッセージデータが発生すると(S214のYES)、メッセージ取得部158は、立体映像データに重畳するメッセージデータを取得する(S216)。   Subsequently, the data acquisition unit 156 acquires stereoscopic video data and convergence angle information from the data buffer 120 (S212). Here, when message data that can be superimposed is generated on the stereoscopic display unit 124 (YES in S214), the message acquisition unit 158 acquires message data to be superimposed on the stereoscopic video data (S216).

そして、メッセージデータの取得が初めてであれば(S218のYES)、挿入面決定部160は、輻輳角の二等分線と垂直に交わる、メッセージデータの挿入面を決定し(S220)、数式1および数式2を用いてメッセージデータの視差を導出し(S222)、初めてでなければ(S218のNO)、視差変更部162は、数式8および数式9を用い、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部110a、110bと挿入面184との位置関係が変わらないようにメッセージデータの視差を変更する(S224)。   If the message data acquisition is the first time (YES in S218), the insertion surface determination unit 160 determines the message data insertion surface that intersects perpendicularly with the bisector of the convergence angle (S220). And the parallax of the message data is derived using Equation 2 (S222), and if not the first time (NO in S218), the parallax changing unit 162 uses Equation 8 and Equation 9 to express the convergence angle indicated in the convergence angle information. Based on the above, the parallax of the message data is changed so that the positional relationship between the two imaging units 110a and 110b and the insertion surface 184 in the imaging space does not change (S224).

データ重畳部164は、導出された視差に従ってメッセージデータを立体映像データに重畳し(S226)、データ出力部128は、メッセージデータを重畳した立体映像データを立体表示部124に出力する(S228)。ただし、メッセージデータが発生してないと(S214のNO)、データ出力部128は、メッセージデータを重畳していない元の立体映像データのみを立体表示部124に出力する(S228)。   The data superimposing unit 164 superimposes the message data on the stereoscopic video data according to the derived parallax (S226), and the data output unit 128 outputs the stereoscopic video data on which the message data is superimposed to the stereoscopic display unit 124 (S228). However, if no message data is generated (NO in S214), the data output unit 128 outputs only the original stereoscopic video data on which the message data is not superimposed to the stereoscopic display unit 124 (S228).

かかる映像処理方法を用いることで、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。   By using such a video processing method, it is possible to perceive message data at an appropriate image formation position without a sense of incongruity even when the image formation position of a subject or the like changes with the convergence angle.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

なお、本明細書の映像処理方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the video processing method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、両眼視差によって立体映像を知覚させるための立体映像データを生成する映像処理装置および映像処理方法に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a video processing apparatus and a video processing method that generate stereoscopic video data for causing stereoscopic video to be perceived by binocular parallax.

100 …映像処理装置
110a …撮像部
110b …撮像部
112 …距離導出部
114 …輻輳角制御部
116 …輻輳角導出部
118 …映像処理部
120 …データバッファ
152 …被写体追尾部
154 …記憶制御部
156 …データ取得部
158 …メッセージ取得部
160 …挿入面決定部
162 …視差変更部
164 …データ重畳部
DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 110a ... Imaging part 110b ... Imaging part 112 ... Distance deriving part 114 ... Convergence angle control part 116 ... Convergence angle deriving part 118 ... Video processing part 120 ... Data buffer 152 ... Subject tracking part 154 ... Storage control part 156 ... data acquisition unit 158 ... message acquisition unit 160 ... insertion plane determination unit 162 ... parallax change unit 164 ... data superimposition unit

Claims (4)

両眼視差による立体映像を知覚させるための立体映像データと、前記立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得するデータ取得部と、
前記立体映像データに重畳するメッセージデータを取得するメッセージ取得部と、
前記輻輳角の二等分線と垂直に交わる、前記メッセージデータを重畳するための挿入面を決定して、前記メッセージデータの視差を導出する挿入面決定部と、
前記輻輳角情報に示された輻輳角に基づいて、撮像空間における、前記2つの撮像部と前記挿入面との位置関係が変わらないように前記メッセージデータの視差を変更する視差変更部と、
前記視差に従って前記メッセージデータを前記立体映像データに重畳するデータ重畳部と、
重畳した前記立体映像データを出力するデータ出力部と、
を備えたことを特徴とする映像処理装置。
A data acquisition unit for acquiring stereoscopic video data for perceiving stereoscopic video due to binocular parallax, and convergence angle information indicating a convergence angle formed by optical axes of two imaging units that have captured the stereoscopic video data;
A message acquisition unit for acquiring message data to be superimposed on the stereoscopic video data;
An insertion plane determination unit that determines an insertion plane for superimposing the message data, which intersects perpendicularly with a bisector of the convergence angle, and derives a parallax of the message data;
A parallax changing unit that changes the parallax of the message data so that the positional relationship between the two imaging units and the insertion surface in the imaging space does not change based on the convergence angle indicated in the convergence angle information;
A data superimposing unit that superimposes the message data on the stereoscopic video data according to the parallax;
A data output unit for outputting the superimposed stereoscopic video data;
A video processing apparatus comprising:
前記視差変更部は、前記輻輳角が2αから2αに変化した場合に、cosα/cosαおよびsinα/sinαそれぞれに所定の係数を乗じて加算した比率に基づいて視差を変更することを特徴とする請求項1に記載の映像処理装置。 The parallax changing unit changes the parallax based on a ratio obtained by multiplying each of cosα B / cosα A and sin α B / sin α A by a predetermined coefficient and adding the same when the convergence angle changes from 2α A to 2α B. The video processing apparatus according to claim 1. 特定された被写体を追尾する被写体追尾部と、
前記輻輳角の二等分線方向における、前記2つの撮像部と追尾された前記被写体との距離である被写体距離を導出する距離導出部と、
導出された前記被写体距離に基づいて前記輻輳角を制御する輻輳角制御部と、
をさらに備えたことを特徴とする請求項1または2に記載の映像処理装置。
A subject tracking unit for tracking the identified subject;
A distance deriving unit for deriving a subject distance that is a distance between the two imaging units and the tracked subject in the bisector direction of the convergence angle;
A convergence angle control unit for controlling the convergence angle based on the derived subject distance;
The video processing apparatus according to claim 1, further comprising:
両眼視差による立体映像を知覚させるための立体映像データと、前記立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得し、
前記立体映像データに重畳するメッセージデータを取得し、
前記メッセージデータの取得が初めてであれば、前記輻輳角の二等分線と垂直に交わる、前記メッセージデータを重畳するための挿入面を決定して、前記メッセージデータの視差を導出し、初めてでなければ、前記輻輳角情報に示された輻輳角に基づいて、撮像空間における、前記2つの撮像部と前記挿入面との位置関係が変わらないように前記メッセージデータの視差を変更し、
前記視差に従って前記メッセージデータを前記立体映像データに重畳し、
重畳した前記立体映像データを出力することを特徴とする映像処理方法。
Obtaining stereoscopic video data for perceiving stereoscopic video due to binocular parallax, and convergence angle information indicating a convergence angle formed by optical axes of two imaging units that have captured the stereoscopic video data;
Obtaining message data to be superimposed on the stereoscopic video data;
If acquisition of the message data is the first time, the insertion plane for superimposing the message data that intersects perpendicularly with the bisector of the convergence angle is determined, and the parallax of the message data is derived for the first time. Otherwise, based on the convergence angle indicated in the convergence angle information, change the parallax of the message data so that the positional relationship between the two imaging units and the insertion surface in the imaging space does not change,
Superimposing the message data on the stereoscopic video data according to the parallax;
A video processing method comprising outputting the superimposed stereoscopic video data.
JP2009273290A 2009-12-01 2009-12-01 Video processor and video processing method Pending JP2011119825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009273290A JP2011119825A (en) 2009-12-01 2009-12-01 Video processor and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009273290A JP2011119825A (en) 2009-12-01 2009-12-01 Video processor and video processing method

Publications (1)

Publication Number Publication Date
JP2011119825A true JP2011119825A (en) 2011-06-16

Family

ID=44284650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273290A Pending JP2011119825A (en) 2009-12-01 2009-12-01 Video processor and video processing method

Country Status (1)

Country Link
JP (1) JP2011119825A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019213036A (en) * 2018-06-04 2019-12-12 オリンパス株式会社 Endoscope processor, display setting method, and display setting program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019213036A (en) * 2018-06-04 2019-12-12 オリンパス株式会社 Endoscope processor, display setting method, and display setting program

Similar Documents

Publication Publication Date Title
JP5299214B2 (en) Image processing apparatus, image processing method, and program
CN102165785B (en) Three-dimensional imaging device, method, and program
US8514275B2 (en) Three-dimensional (3D) display method and system
JP5420075B2 (en) Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus
JP2011211450A (en) Three-dimensional video display device, three-dimensional video photographing device, and three-dimensional video display method
JP2012156680A (en) Three dimensional image processing device
CN102177721A (en) A method of processing parallax information comprised in a signal
TW201242335A (en) Image processing device, image processing method, and program
JP2007036528A (en) Image processing apparatus
CA2933704A1 (en) Systems and methods for producing panoramic and stereoscopic videos
JP2010171628A (en) Image processing device, program, image processing method, recording method, and recording medium
US9154771B2 (en) Apparatus for capturing stereoscopic image
JP5347987B2 (en) Video processing device
KR20090014927A (en) Method and apparatus for reproducing stereoscopic image using depth control
JP2011119825A (en) Video processor and video processing method
JP4475201B2 (en) Stereoscopic image display device and stereoscopic image display device system
JP2011259012A (en) Three-dimensional image reproduction device and three-dimensional image reproduction method
JP2012134885A (en) Image processing system and image processing method
KR20160106267A (en) layered Hologram System using Auto-stereoscopic 3D image
JP2011119810A (en) Video processor and video processing method
JP5250604B2 (en) Stereoscopic image display apparatus, stereoscopic image display method, and program
JP5304760B2 (en) Stereoscopic imaging device and stereoscopic imaging method
JP5222718B2 (en) Stereoscopic image reproduction apparatus, stereoscopic image reproduction program, and imaging apparatus
JP2004242000A (en) Encoding device and method, and decoding device and method
JP2012114751A (en) Stereoscopic video imaging device and stereoscopic video imaging method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012