JP2011119825A - Video processor and video processing method - Google Patents
Video processor and video processing method Download PDFInfo
- Publication number
- JP2011119825A JP2011119825A JP2009273290A JP2009273290A JP2011119825A JP 2011119825 A JP2011119825 A JP 2011119825A JP 2009273290 A JP2009273290 A JP 2009273290A JP 2009273290 A JP2009273290 A JP 2009273290A JP 2011119825 A JP2011119825 A JP 2011119825A
- Authority
- JP
- Japan
- Prior art keywords
- data
- convergence angle
- parallax
- message data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、両眼視差によって立体映像を知覚させるための立体映像データを生成する映像処理装置および映像処理方法に関する。 The present invention relates to a video processing apparatus and a video processing method for generating stereoscopic video data for causing stereoscopic video to be perceived by binocular parallax.
近年、ディスプレイ上に、水平視差(両眼視差)を有する2つの映像(立体映像データ)を提示し、観察者に対してあたかも被写体が立体的に存在するように知覚させる映像処理装置が脚光を浴びている。かかる映像処理装置で用いられる立体映像データは、視点の異なる2つの撮像部で撮像された映像である。 In recent years, an image processing apparatus that presents two images (stereoscopic image data) having horizontal parallax (binocular parallax) on a display and perceives the viewer as if the subject exists in a three-dimensional manner. I'm bathing. The stereoscopic video data used in such a video processing device is video captured by two imaging units with different viewpoints.
また、一般的に、映像に関するメッセージデータ(例えば、チャンネルやテロップ)や映像処理装置の状態を示すメッセージデータ(例えば、時間、動作モード、アイコン、入出力ライン案内、エラー情報等)は、映像と共にディスプレイに示される。しかし、立体映像を実現する映像処理装置におけるメッセージデータは、立体的に知覚されるように加工されないと、観察者に情報を正しく伝達することができない。そこで、映像処理装置は、メッセージデータにも視差を設け、立体映像データに重畳することで、メッセージデータの立体感も実現している。 In general, message data related to video (for example, channel and telop) and message data indicating the status of the video processing device (for example, time, operation mode, icon, input / output line guidance, error information, etc.) Shown on the display. However, message data in a video processing device that realizes a stereoscopic video cannot be correctly transmitted to an observer unless it is processed so as to be perceived stereoscopically. Therefore, the video processing apparatus also provides parallax to the message data and superimposes the message data on the stereoscopic video data, thereby realizing a stereoscopic effect of the message data.
また、このような視差を用いたメッセージデータの表示方法の応用例として、観察者が任意に入力したテキストに視差を設け、立体映像データに重畳し、ボタンの押下に応じてメッセージデータの遠近感を切り換える技術が開示されている(例えば、特許文献1)。さらに、注目点の視差角(視軸が交わる角)の変化量に基づき注目点の奥行き位置に予めメッセージデータを重畳しておいて、事後的に再生する技術も公開されている(例えば、特許文献2)。 In addition, as an application example of the display method of message data using such parallax, parallax is provided to text arbitrarily input by the observer, superimposed on the stereoscopic video data, and the perspective of the message data according to the button press. Has been disclosed (for example, Patent Document 1). Furthermore, a technique for superimposing message data on the depth position of the attention point in advance based on the amount of change in the parallax angle of the attention point (the angle at which the visual axis intersects) and reproducing it later is disclosed (for example, patents). Reference 2).
上述した技術、特に、特許文献2の技術では、視差角に応じてメッセージデータの位置が変更されているものの、注目点の特定が人為的であり、撮像者は、撮像した映像を見ながら手動で注目点を特定するといった煩雑な作業を強いられていた。また、メッセージデータが撮像時に重畳されるので、映像に関するメッセージデータを再生時に削除することや、再生時に生じる、例えば、映像処理装置の状態を示すメッセージデータを撮像時に重畳することができなかった。さらに、再生時に、予め重畳されているメッセージデータの位置を把握する術がないため、予め重畳されているメッセージデータを避けて新たなメッセージデータを重畳することができなかった。
In the technique described above, in particular, in the technique of
一方、映像処理装置では、2つの撮像部の光軸が輻輳する角、所謂輻輳角を調整することもできる。これは、撮像を所望している被写体の前後に存在する前景や背景との関係で、被写体の周囲の立体感をより鮮明に表すためである。しかし、上述した特許文献1、2の技術は、輻輳角の変化に対応していないので、被写体が静止している状態で輻輳角が変化してもメッセージデータを被写体に対応した適切な奥行き位置に追従させることができなかった。
On the other hand, the video processing apparatus can also adjust the angle at which the optical axes of the two imaging units converge, the so-called convergence angle. This is because the stereoscopic effect around the subject is more clearly expressed in relation to the foreground and background existing before and after the subject for which imaging is desired. However, since the techniques of
本発明は、このような課題に鑑み、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能な、映像処理装置および映像処理方法を提供することを目的としている。 In view of such a problem, the present invention provides a video processing apparatus capable of causing message data to be perceived at an appropriate imaging position without a sense of incongruity even when the imaging position of a subject or the like changes with the convergence angle. And an image processing method.
上記課題を解決するために、本発明の映像処理装置は、両眼視差による立体映像を知覚させるための立体映像データと、立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得するデータ取得部と、立体映像データに重畳するメッセージデータを取得するメッセージ取得部と、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための挿入面を決定して、メッセージデータの視差を導出する挿入面決定部と、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部と挿入面との位置関係が変わらないようにメッセージデータの視差を変更する視差変更部と、視差に従ってメッセージデータを立体映像データに重畳するデータ重畳部と、重畳した立体映像データを出力するデータ出力部と、を備えたことを特徴とする。 In order to solve the above-described problem, the video processing apparatus of the present invention has a convergence angle formed by the optical axis of two imaging units that capture stereoscopic video data and stereoscopic video data for perceiving stereoscopic video due to binocular parallax. A data acquisition unit for acquiring convergence angle information, a message acquisition unit for acquiring message data to be superimposed on stereoscopic video data, and an insertion for superimposing message data that intersects perpendicularly with a bisector of the convergence angle The positional relationship between the two imaging units and the insertion plane in the imaging space does not change based on the insertion plane determination unit that determines the plane and derives the parallax of the message data and the convergence angle indicated in the convergence angle information The parallax changing unit for changing the parallax of the message data, the data superimposing unit for superimposing the message data on the stereoscopic video data according to the parallax, and the data for outputting the superimposed stereoscopic video data Characterized by comprising an output section.
視差変更部は、輻輳角が2αAから2αBに変化した場合に、cosαB/cosαAおよびsinαB/sinαAそれぞれに所定の係数を乗じて加算した比率に基づいて視差を変更してもよい。 The parallax changing unit may change the parallax based on a ratio obtained by multiplying each of cosα B / cosα A and sinα B / sinα A by a predetermined coefficient when the convergence angle is changed from 2α A to 2α B. Good.
映像処理装置は、特定された被写体を追尾する被写体追尾部と、輻輳角の二等分線方向における、2つの撮像部と追尾された被写体との距離である被写体距離を導出する距離導出部と、導出された被写体距離に基づいて輻輳角を制御する輻輳角制御部と、をさらに備えてもよい。 An image processing apparatus includes a subject tracking unit that tracks a specified subject, and a distance deriving unit that derives a subject distance that is a distance between the two imaging units and the tracked subject in the bisector direction of the convergence angle. And a convergence angle control unit that controls the convergence angle based on the derived subject distance.
上記課題を解決するために、本発明の映像処理方法は、両眼視差による立体映像を知覚させるための立体映像データと、立体映像データを撮像した2つの撮像部の光軸がなす輻輳角を示す輻輳角情報と、を取得し、立体映像データに重畳するメッセージデータを取得し、メッセージデータの取得が初めてであれば、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための挿入面を決定して、メッセージデータの視差を導出し、初めてでなければ、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部と挿入面との位置関係が変わらないようにメッセージデータの視差を変更し、視差に従ってメッセージデータを立体映像データに重畳し、重畳した立体映像データを出力することを特徴とする。 In order to solve the above-described problems, the video processing method of the present invention provides a stereoscopic image data for perceiving stereoscopic video due to binocular parallax and a convergence angle formed by the optical axes of two imaging units that have captured stereoscopic video data. In order to superimpose message data that intersects perpendicularly to the bisector of the convergence angle if the message data is obtained for the first time, the message data to be superimposed on the stereoscopic video data is acquired. If it is not the first time, based on the convergence angle indicated in the convergence angle information, the positional relationship between the two imaging units and the insertion surface is determined. The parallax of the message data is changed so as not to change, the message data is superimposed on the stereoscopic video data according to the parallax, and the superimposed stereoscopic video data is output.
以上説明したように本発明は、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。したがって、観察者は、メッセージデータが重畳された立体映像データを通じて眼に疲労を覚えることもなく、立体映像データの立体感を鮮明に実感することができる。 As described above, according to the present invention, message data can be perceived at an appropriate image formation position with no sense of incongruity even when the image formation position of a subject or the like changes with the convergence angle. Therefore, the observer can clearly feel the stereoscopic effect of the stereoscopic image data without feeling tired eyes through the stereoscopic image data on which the message data is superimposed.
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.
映像処理装置では、人物に代表される被写体の前後に存在する前景や背景との関係で、被写体の周囲の立体感をより鮮明に表すため、撮像空間において2つの撮像部の光軸が輻輳する輻輳角を調整している。このように輻輳角が変化すると再生空間における被写体の結像位置も変化するが、メッセージデータの結像位置が再生空間において固定されていると、被写体の奥行き感が変化しているのに対しメッセージデータが静止していることとなり、観察者は、違和感を覚えて眼が疲れる場合があった。ここで、撮像空間は、撮像を実行しているときの映像処理装置と被写体との実際の位置関係を表す空間を示し、再生空間は、撮像した立体映像データを再生しているときの観察者と被写体の結像位置との位置関係を表す空間を示す。本実施形態では、撮像空間における輻輳角の変化に伴い、再生空間における被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることを目的としている。以下、かかる映像処理装置の構成を説明し、その後で映像処理方法の処理の流れを詳述する。 In the video processing apparatus, the optical axes of the two imaging units are congested in the imaging space in order to more clearly represent the stereoscopic effect around the subject in relation to the foreground and background existing before and after the subject represented by a person. The convergence angle is adjusted. When the convergence angle changes in this way, the subject image formation position in the reproduction space also changes. However, if the message data image formation position is fixed in the reproduction space, the subject's depth perception changes. The data was stationary, and the observer sometimes felt uncomfortable and the eyes were tired. Here, the imaging space indicates a space representing the actual positional relationship between the video processing apparatus and the subject when imaging is being performed, and the reproduction space is an observer when reproducing the captured stereoscopic video data And a space representing the positional relationship between the subject and the imaging position of the subject. The purpose of this embodiment is to cause message data to be perceived at an appropriate imaging position without any sense of incongruity even if the imaging position of a subject or the like in the reproduction space changes with a change in the convergence angle in the imaging space. Hereinafter, the configuration of the video processing apparatus will be described, and then the processing flow of the video processing method will be described in detail.
(映像処理装置100)
図1は、映像処理装置100の概略的な機能を示した機能ブロック図であり、図2は、映像処理装置100の一例を示した外観図である。図1に示すように、映像処理装置100は、撮像ユニット110と、距離導出部112と、輻輳角制御部114と、輻輳角導出部116と、映像処理部118と、データバッファ120と、操作部122と、立体表示部124と、映像圧縮部126と、データ出力部128と、中央制御部130とを含んで構成される。ここでは、映像処理装置100としてビデオカメラを挙げているが、デジタルスチルカメラ等、撮像が可能な様々な電子機器を採用することができる。
(Video processing apparatus 100)
FIG. 1 is a functional block diagram illustrating schematic functions of the
撮像ユニット110は、2つの撮像部110a、110bで構成され、かかる2つの撮像部110a、110bは、図2に示すそれぞれの光軸102a、102bが撮像方向のいずれかの位置で輻輳し(交わり、集中し)、撮像者が映像処理装置100の本体104を水平に把持した際に、その光軸102a、102bが同じ水平面に含まれるように配置される。
The
撮像ユニット110では、それぞれの撮像部110a、110bにおいて撮像された、観察者の左眼に知覚させるための左眼用映像データと観察者の右眼に知覚させるための右眼用映像データとを併合し、両眼視差によって立体映像を知覚させるための立体映像データを生成する。立体映像データは、動画および静止画のいずれでも形成可能である。また、立体映像データは、左眼用映像データと右眼用映像データの物理的配置または時間的配置の違いによってサイドバイサイド方式、トップアンドボトム方式等、様々な方式によって形成される。
In the
また、2つの撮像部110a、110bは、鉛直軸回りに回転可能に形成され、後述する輻輳角制御部114によって2つの撮像部110a、110bが回転し、その光軸102a、102bがなす輻輳角が制御される。かかる輻輳角の制御は、撮像部110a、110bのハード的な回転のみならず、撮像された立体映像データの切り出し位置および範囲を調整することでも実現可能である。
The two
図3および図4は、輻輳角を説明するための説明図である。例えば、輻輳点(光軸102a、102bの交点)が撮像空間において図3の位置Bにあったとすると、再生空間において、観察者は、被写体Pを飛び出しているように知覚し、被写体Qを奥まっているように知覚する。このとき、被写体Pおよび被写体Qと輻輳点である位置Bとの距離を等しくすると、2つの撮像部110a、110bの光軸102a、102bとの距離XPBとXQBも等しくなる。かかる光軸102a、102bとの距離XPB、XQBは、2つの撮像部110a、110bに撮像された立体映像データの視差に相当する。したがって、位置Bを輻輳点として撮像された立体映像データを再生すると、被写体Pが飛び出して知覚される結像位置と立体表示部124との距離と、被写体Qが奥まって知覚される結像位置と立体表示部124との距離がほぼ等しくなる。
3 and 4 are explanatory diagrams for explaining the convergence angle. For example, assuming that the convergence point (intersection of the
一方、輻輳点が撮像空間において図3の位置Aにあったとすると、被写体Pと2つの撮像部110a、110bの光軸102a、102bとの距離XPAが短くなる反面、被写体Qと2つの撮像部110a、110bの光軸102a、102bとの距離XQAが長くなる。ここで、位置Aを輻輳点として撮像された立体映像データを再生すると、被写体Pが飛び出して知覚される結像位置と立体表示部124との距離が短くなり、被写体Qが奥まって知覚される結像位置と立体表示部124との距離が長くなる。即ち、再生空間における被写体Pの飛び出し感が損なわれ、被写体Qの奥まり感が増幅される。
On the other hand, if the convergence point is at the position A in FIG. 3 in the imaging space, the distance X PA between the subject P and the
換言すると、撮像空間における、撮像ユニット110と被写体P、Qとの位置関係が変化しなくとも、即ち、被写体P、Qが静止していても、輻輳点を奥行き方向に変化させることで、再生空間における被写体P、Qの奥行き感を変化させることができる。本実施形態では、再生空間において被写体P、Qをどのような奥行き感で表現するかのポリシーに応じて輻輳角を制御している。
In other words, even if the positional relationship between the
例えば、被写体としての人物が奥行き方向を前後に移動しても常に前に飛び出して見えるようにしたい場合、図4(a)に示すように、撮像空間における、被写体Rより非常に遠い位置Cに輻輳点を設定する。しかし、その輻輳点が遠いほど、再生空間において、被写体Rの周囲における被写体同士(例えば、被写体Rと被写体S)の奥行き感が損なわれ、視覚的な立体感を十分に得られなくなる。一方、図4(b)に示すように、撮像空間における、被写体Rとほぼ等しい位置Dに輻輳点を設定すると、再生空間において、被写体Rの周囲における被写体同士の奥行き感は増すが、被写体Rが輻輳点の前後のいずれにいるかによって、飛び出したり、奥まったりしてしまう。 For example, when it is desired that a person as a subject always jumps forward even if the person moves in the depth direction back and forth, as shown in FIG. 4 (a), the person is placed at a position C far from the subject R in the imaging space. Set the convergence point. However, the farther the convergence point is, the less the sense of depth between the subjects around the subject R (for example, the subject R and the subject S) in the reproduction space becomes, and a sufficient visual stereoscopic effect cannot be obtained. On the other hand, as shown in FIG. 4B, when a convergence point is set at a position D that is substantially equal to the subject R in the imaging space, the sense of depth between subjects around the subject R increases in the reproduction space, but the subject R Depending on whether or not it is before or after the convergence point, it will pop out or be deepened.
したがって、被写体Rの周囲における被写体同士の奥行き感を維持しつつ、被写体Rをある程度飛び出させるような適切な位置に輻輳点を設定することが望まれる。このとき、被写体Rは静止し続けるとは限らないので、被写体Rが奥行き方向に移動した場合、それに伴って輻輳点(輻輳角)も変化させるのが好ましい。具体的には、以下に示す距離導出部112と輻輳角制御部114とを用い、撮像ユニット110(焦点位置)から被写体Rまでの距離である被写体距離を導出し、その被写体距離に応じて自動的に輻輳角を変化させる。
Therefore, it is desirable to set a convergence point at an appropriate position that makes the subject R pop out to some extent while maintaining the sense of depth between the subjects around the subject R. At this time, since the subject R does not always remain stationary, when the subject R moves in the depth direction, it is preferable to change the convergence point (convergence angle) accordingly. Specifically, using the
距離導出部112は、光切断法に基づいて光の反射に費やす時間(TOF:Time Of Flight)を測定することで、輻輳角の二等分線方向における、2つの撮像部110a、110bと、後述する被写体追尾部152によって追尾されている被写体Rとの被写体距離を導出する。
The
輻輳角制御部114は、被写体Rの周囲の立体感をより鮮明に表すため、マクロ、人物、景色といった撮像時の撮像モードと、距離導出部112によって導出された被写体距離とに基づいて、例えば、被写体距離より所定の距離遠いところに輻輳点が位置するように、2つの撮像部110a、110bを鉛直軸回りに回転させ輻輳角を制御する。かかる構成により、被写体Rの周囲の立体感が鮮明に表された良好な立体映像を観察者に知覚させることができる。
In order to more clearly represent the stereoscopic effect around the subject R, the convergence
輻輳角導出部116は、2つの撮像部110a、110bの本体104に対する回転角を加算して、2つの撮像部110a、110bの光軸102a、102bがなす輻輳角を導出する。また、輻輳角の調整を撮像ユニット110におけるレンズやミラーによって遂行する場合、それらの回転角を加算して輻輳角を導出する。輻輳角の導出処理は、上記の場合に限られず、既存の様々な導出処理を適用することができる。
The convergence
ここでは、輻輳角が一意かつ自動的に導出されるので、輻輳角を手動で入力するといった煩雑な手作業を要さず、効率的に適切な立体映像データを生成することができる。 Here, since the convergence angle is uniquely and automatically derived, it is possible to efficiently generate appropriate stereoscopic video data without requiring a complicated manual operation of manually inputting the convergence angle.
映像処理部118は、撮像ユニット110で生成された立体映像データに対して、R(Red)G(Green)B(Blue)処理(γ補正や色補正)、エンハンス処理、ノイズ低減処理などの映像信号処理を行う。所定の映像信号処理が行なわれた立体映像データは、データバッファ120に一時的に保持される。
The
データバッファ120は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、立体映像データを一時的に保持する。このとき、立体映像データと共に、立体映像データを撮像したその時々の輻輳角を示す輻輳角情報も立体映像データに関連付けられて保持される。
The
操作部122は、操作キー、十字キー、ジョイスティック、後述する立体表示部124の表示面に配されたタッチパネル等のスイッチから構成され、撮像者の操作入力を受け付ける。
The
立体表示部(ビューファインダ)124は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、例えば偏光特性が隔行で(1ライン毎に)異なるように(ラインシーケンシャル方式)形成される。撮像者は、撮像時に、立体表示部124を通じて立体映像データを立体的に知覚し、その知覚した立体映像に基づいて操作部122を操作することで、被写体Rを所望する位置および占有面積で捉えることが可能となる。
The stereoscopic display unit (viewfinder) 124 is configured by a liquid crystal display, an organic EL (Electro Luminescence) display, or the like, and is formed so that, for example, the polarization characteristics are different (for each line) (line sequential method). The photographer perceives stereoscopic video data stereoscopically through the
ここで、立体表示部124として、例えば、ラインシーケンシャル方式を採用すると、立体映像データに含まれる被写体や背景は、交差視(交差法)および平行視(平行法)のいずれの立体表示も可能となるので、視差によっては、立体表示部124の表示面より手前側または奥側のいずれの位置にも被写体や背景を結像させることができる。
Here, for example, when a line sequential method is adopted as the
また、立体表示部124の表示方式としては、ラインシーケンシャル方式に限られず、例えば、左眼用映像データと右眼用映像データとを1フレーム毎に交互に表示し電子シャッター式眼鏡を通じて視認させるフレームシーケンシャル方式、レンティキュラレンズを介して左眼用映像と右眼用映像それぞれの光の進行方向を制御するレンティキュラー方式等を用いることもできる。
The display method of the
映像圧縮部126は、中央制御部130の制御指令により、データバッファ120に保持された立体映像データを、M−JPEG(Motion-Joint Photographic Experts Group)やMPEG(Moving Picture Experts Group)−2、H.264などの所定の符号化方式で符号化した符号データとし、任意の記録媒体180に記録する。任意の記録媒体180としては、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)といった光ディスク媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の媒体を適用することができる。
The
データ出力部128は、後述するデータ重畳部164が重畳した立体映像データを映像処理装置100に接続されたディスプレイ182に出力する。ディスプレイ182は、立体表示部124同様、液晶ディスプレイ、有機ELディスプレイ等で構成され、例えば、偏光特性が1ライン毎に異なるように形成される。
The
中央制御部130は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、映像処理装置100全体を管理および制御する。また、本実施形態において、中央制御部130は、被写体特定部150、被写体追尾部152、記憶制御部154、データ取得部156、メッセージ取得部158、挿入面決定部160、視差変更部162、データ重畳部164、表示制御部166としても機能する。
The
被写体特定部150は、操作部122としての例えば立体表示部124の表示面に配されたタッチパネルの操作入力を通じて、立体映像データ中の被写体を特定する。また、被写体特定部150は、例えば映像中の背景に対して相対移動している等の条件に基づいて自動的に特定することもできる。
The subject specifying unit 150 specifies a subject in the stereoscopic video data through an operation input of a touch panel arranged on the display surface of the
被写体追尾部152は、被写体特定部150によって特定された被写体が人物であった場合、例えば、その人物の顔画像を既存の画像処理技術を用いて追尾する。かかる構成により、撮像中に被写体が移動した場合であっても、距離導出部112は、被写体距離を適切に導出することが可能となる。
When the subject specified by the subject specifying unit 150 is a person, the
記憶制御部154は、輻輳角導出部116が導出した輻輳角を示す輻輳角情報を立体映像データに関連付けてデータバッファ120に記憶する。ここでは、メッセージデータそのものではなく、メッセージデータを重畳するための輻輳角を記憶しているので、かかる輻輳角を用いてメッセージデータ等を事後的に立体映像データに重畳することが可能となる。
The
データ取得部156は、データバッファ120から、立体映像データと輻輳角情報とを取得する。また、当該映像処理装置100を再生装置として機能させるとき、データ取得部156は、外部から直接、立体映像データと輻輳角情報とを取得する。
The
メッセージ取得部158は、立体映像データに重畳するメッセージデータを取得する。ここで、メッセージデータは、OSD(On Screen Display)、チャンネル、テロップ、時間、動作モード、アイコン、入出力ライン案内、エラー情報等の映像または映像処理装置100自体の情報を視覚的に表したデータである。
The message acquisition unit 158 acquires message data to be superimposed on the stereoscopic video data. Here, the message data is data that visually represents information of the
挿入面決定部160は、撮像空間における、輻輳角の二等分線と垂直に交わる、メッセージデータを重畳するための仮想的な挿入面を決定して、メッセージデータの視差を導出する。挿入面決定部160は、再生空間において、立体映像データに含まれる被写体より観察者側にメッセージデータを知覚させたい場合、撮像空間における2つの撮像部110a、110b側に挿入面を設定し、再生空間における被写体より遠方にメッセージデータを知覚させたい場合、撮像空間における背景側に挿入面を設定する。
The insertion surface determination unit 160 determines a virtual insertion surface for superimposing the message data that intersects the bisector of the convergence angle in the imaging space, and derives the parallax of the message data. In the reproduction space, the insertion plane determination unit 160 sets the insertion plane on the two
図5は、挿入面決定部160の詳細な動作について説明するための説明図である。ここでは理解を容易にするため、一方の眼に関する視差について説明し、他方の眼に関する視差については導出方法が実質的に等しいのでその説明を省略する。挿入面決定部160は、図5における挿入面184にメッセージデータを事後的に挿入しようとした場合、そのときの輻輳角2αAによって、メッセージデータの視差(距離XAに相当)を以下から導き出すことができる。
FIG. 5 is an explanatory diagram for describing a detailed operation of the insertion surface determination unit 160. Here, in order to facilitate understanding, the parallax related to one eye will be described, and since the derivation method is substantially the same for the parallax related to the other eye, the description thereof will be omitted. Insertion face determination unit 160, when an attempt afterwards insert message data to
2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離をs、その中心点Tから挿入面184までの距離をp、位置Aにおける輻輳角を2αAとすると、中心点Tから輻輳点である位置Aまでの距離LAは、数式1で表される。
LA=s/tanαA=s×cosαA/sinαA …(数式1)
Two
L A = s / tan α A = s × cos α A / sin α A (Formula 1)
また、2つの撮像部110a、110bの光軸102a、102bとの距離XAは、数式2で表される。
XA=(LA−p)×sinαA …(数式2)
したがって、メッセージデータの挿入面184を決定して中心点Tから挿入面184までの距離pが決まれば、挿入面決定部160は、視差に相当する距離XAを一意に導出することができる。後述するデータ重畳部164は、このようにして導出された視差(距離XA)をつけてメッセージデータを立体映像データに重畳する。かかる構成により、メッセージデータが事後的に挿入され、そのメッセージデータが撮像空間における挿入面184にあたかも存在していたかのように知覚させることができる。
A distance XA between the
X A = (L A −p) × sin α A (Formula 2)
Thus, once the distance p from the center point T and determines the
視差変更部162は、輻輳角情報に示された輻輳角に基づいて、撮像空間における、撮像部110a、110bと挿入面との位置関係が変わらないようにメッセージデータの視差を変更する。
Based on the convergence angle indicated by the convergence angle information, the parallax changing unit 162 changes the parallax of the message data so that the positional relationship between the
図6は、輻輳角の変化によるメッセージデータの奥行き感の変化を説明するための説明図である。観察者が例えば被写体Rを立体的に知覚するのは、立体映像データにおいて被写体Rに視差が設けられているからである。このとき、輻輳点が位置Aから位置Bに推移すると、撮像空間における被写体Rと輻輳点との距離が大きくなり、再生空間における被写体Rの結像位置は観察者側に推移して、観察者は被写体Rが徐々に飛び出してくるように知覚する。 FIG. 6 is an explanatory diagram for explaining a change in the depth feeling of the message data due to a change in the convergence angle. The observer perceives the subject R in a three-dimensional manner, for example, because the subject R is provided with parallax in the stereoscopic video data. At this time, when the convergence point changes from the position A to the position B, the distance between the subject R and the convergence point in the imaging space increases, and the imaging position of the subject R in the reproduction space changes to the observer side. Perceives that the subject R gradually pops out.
一方、メッセージデータ186が、挿入面決定部160によって導出された視差(距離XA)で固定されていた場合、再生空間においてメッセージデータ186の結像位置は変化しないので、観察者は、被写体Rが飛び出してくるのと比較してメッセージデータ186が、白抜き矢印の如く相対的に奥まっていくように知覚する。そこで、本実施形態では、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させる。ここでは、視差変更部162が、輻輳角の変化に伴う被写体等の結像位置の変化に合わせてメッセージデータの視差を変更する。
On the other hand, when the
図7および図8は、視差変更部162の詳細な動作について説明するための説明図である。ここでも理解を容易にするため、一方の眼に関する視差について説明し、他方の眼に関する視差については導出方法が実質的に等しいのでその説明を省略する。挿入面決定部160が挿入面184を決定した段階では、輻輳点が位置Aにある状態で、メッセージデータが挿入面184に配されている。このとき、図7の白抜き矢印で示すように輻輳点が位置Aから位置Bに移動すると、視差変更部162は、メッセージデータの視差を以下のように導き出す。
7 and 8 are explanatory diagrams for explaining the detailed operation of the parallax changing unit 162. FIG. Here, in order to facilitate understanding, the parallax related to one eye will be described, and the description of the parallax related to the other eye will be omitted because the derivation method is substantially the same. At the stage where the insertion surface determination unit 160 determines the
図5同様、2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離をs、その中心点Tから挿入面184までの距離をp、位置Aにおける輻輳角を2αA、位置Bにおける輻輳角を2αBとすると、中心点から輻輳点である位置Aまでの距離LAと位置Bまでの距離LBは、数式1および数式3で表される。
LA=s/tanαA=s×cosαA/sinαA …(数式1)
LB=s/tanαB=s×cosαB/sinαB …(数式3)
As in FIG. 5, the distance from the object principal point of each of the two
L A = s / tan α A = s × cos α A / sin α A (Formula 1)
L B = s / tan α B = s × cos α B / sin α B (Formula 3)
また、輻輳点を位置Aとしたときの2つの撮像部110a、110bの光軸102a、102bとの距離XA、および、輻輳点を位置Bとしたときの光軸102a、102bとの距離XBは、数式2および数式4で表される。
XA=(LA−p)×sinαA …(数式2)
XB=(LB−p)×sinαB …(数式4)
Further, the distance X A between the
X A = (L A −p) × sin α A (Formula 2)
X B = (L B −p) × sin α B (Formula 4)
ここで、数式1と数式3で示された距離LAと距離LBを数式2および数式4に代入すると、距離XAと距離XBとの比率であるXB/XAは数式5で表される。
XB/XA=(s×cosαB−p×sinαB)/(s×cosαA−p×sinαA)…(数式5)
また、図8(a)に示すように、輻輳点がメッセージデータを跨って推移した場合、XA/XBは、数式6で表される。
XB/XA=(s×cosαB−p×sinαB)/(p×sinαA−s×cosαA)…(数式6)
さらに、図8(b)に示すように、輻輳点がメッセージデータより近い領域を推移した場合、XB/XAは、数式7で表される。
XB/XA=(p×sinαB−s×cosαB)/(p×sinαA−s×cosαA)…(数式7)
ただし、数式7は数式5と実質的に等しく、数式6は数式5や数式7の符号を反転したものとなる。
Here, by substituting the distance L A and the distance L B indicated by Equations 1 and 3 in
X B / X A = (s × cosα B -p × sinα B) / (s × cosα A -p × sinα A) ... ( Equation 5)
Further, as shown in FIG. 8A, when the congestion point changes across the message data, X A / X B is expressed by Expression 6.
X B / X A = (s × cos α B −p × sin α B ) / (p × sin α A −s × cos α A ) (Formula 6)
Further, as shown in FIG. 8B, when the convergence point changes in an area closer to the message data, X B / X A is expressed by Expression 7.
X B / X A = (p × sin α B −s × cos α B ) / (p × sin α A −s × cos α A ) (Expression 7)
However, Expression 7 is substantially equal to Expression 5, and Expression 6 is obtained by inverting the signs of Expression 5 and Expression 7.
図7に戻って、中心点Tから挿入面184までの距離pを、距離LAと係数F(Fは正数)用いて、例えば、p=F×LAとすると、数式5および数式6は、数式8および数式9に変形することができる。
XB/XA=1/(1−F)×cosαB/cosαA−F/(1−F)×sinαB/sinαA…(数式8)
XB/XA=1/(F−1)×cosαB/cosαA−F/(F−1)×sinαB/sinαA…(数式9)
Returning to FIG. 7, the distance p from the center point T to the
X B / X A = 1 / (1-F) × cosα B / cosα A -F / (1-F) × sinα B / sinα A ... ( Equation 8)
X B / X A = 1 / (F-1) × cosα B / cosα A -F / (F-1) × sinα B / sinα A ... ( Equation 9)
かかる数式8および数式9を参照して理解できるように、2つの撮像部110a、110bそれぞれの物側主点から中心点Tまでの距離s、中心点Tから挿入面184までの距離p、中心点Tから位置Aまでの距離LA、中心点Tから位置Bまでの距離LBの情報が無くとも、位置Aにおける輻輳角2αA、位置Bにおける輻輳角2αBさえ把握できれば、距離XAと距離XBとの比率であるXB/XAを一意に求めることが可能である。
As can be understood with reference to Equation 8 and Equation 9, the distance s from the object principal point to the center point T of each of the two
したがって、視差変更部162は、輻輳角が2αAから2αBに推移した場合においても、挿入面決定部160が導出した輻輳角2αAのときの視差である距離XAに、数式8および数式9によるXB/XAを乗算することで、輻輳角2αBにおける新たな距離XB、即ち新たな視差を導出することが可能となる。このようにメッセージデータの視差を随時変更する構成により、輻輳角に対する被写体等の奥行き感にメッセージデータを追従させることができ、再生空間における違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。 Therefore, even when the convergence angle changes from 2α A to 2α B , the parallax changing unit 162 sets the formula 8 and the formula to the distance X A that is the parallax at the convergence angle 2α A derived by the insertion plane determination unit 160. by multiplying X B / X a by 9, it is possible to derive a new distance X B, i.e. a new disparity in convergence angle 2.alpha B. In this way, the parallax of the message data can be changed as needed so that the message data can follow the depth of the subject etc. with respect to the convergence angle, and the message data can be perceived at an appropriate imaging position in the reproduction space. Is possible.
また、視差変更部162は、必ずしも数式8や数式9を用いて計算する必要もなく、輻輳角の推移とそのときの視差の比率とを1対1に対応させたテーブルを用いて視差を導出することもできる。かかる構成により、数式8や数式9を計算するための計算負荷を大幅に軽減することが可能となる。 Also, the parallax changing unit 162 does not necessarily need to calculate using the formulas 8 and 9, and derives the parallax using a table in which the transition of the convergence angle and the ratio of the parallax at that time correspond one-to-one. You can also With this configuration, it is possible to significantly reduce the calculation load for calculating Equation 8 and Equation 9.
データ重畳部164は、挿入面決定部160によって導出された視差または視差変更部162によって変更された視差に従ってメッセージデータを立体映像データに重畳する。 The data superimposing unit 164 superimposes the message data on the stereoscopic video data according to the parallax derived by the insertion plane determining unit 160 or the parallax changed by the parallax changing unit 162.
表示制御部166は、データ重畳部164によってメッセージデータが重畳された立体映像データを立体表示部124に表示する。このとき、表示制御部166は、立体表示部124の表示形式、例えば、ラインシーケンシャル方式、フレームシーケンシャル方式等に従って、立体映像データを加工する。
The display control unit 166 displays the stereoscopic video data on which the message data is superimposed by the data superimposing unit 164 on the
図9は、輻輳角の変化によるメッセージデータの知覚を説明するための説明図である。輻輳点を位置Aとして撮像した後、撮像した立体映像データを再生すると、図9(a)に示すように、撮像空間における輻輳点の位置Aが再生空間における立体表示部124の位置に相当するようになり、観察者は、左眼188aおよび右眼188bを通じて、被写体Rとメッセージデータ186が立体表示部124より飛び出しているように知覚する。そして、輻輳点を位置Bに変更した立体映像データを再生すると、図9(b)に示すように、撮像空間における輻輳点の位置Bが再生空間における立体表示部124の位置に相当するようになり、白抜き矢印で示したように、被写体Rの結像位置が観察者側に推移し、観察者は、左眼188aおよび右眼188bを通じ、被写体Rを図9(a)の場合と比較して、より飛び出しているように知覚する。
FIG. 9 is an explanatory diagram for explaining perception of message data due to a change in the convergence angle. When the captured stereoscopic video data is reproduced after the convergence point is imaged as the position A, the position A of the convergence point in the imaging space corresponds to the position of the
また、本実施形態では、視差変更部162によってメッセージデータ186にも被写体R同様の視差をつけるため、観察者は、メッセージデータ186も被写体R同様図9(a)の場合と比較して、より飛び出しているように知覚する。
Further, in this embodiment, since the parallax changing unit 162 applies the same parallax to the
(映像処理装置100の他の実施例)
上述した映像処理装置100では、撮像ユニット110で撮像された立体映像データにリアルタイムにメッセージデータを重畳する構成を述べた。しかし、本実施形態の目的は、立体映像データに輻輳角、またはそれに相当する輻輳点や、輻輳点までの距離が関連付けられていれば、達成できる。例えば、上述した映像処理装置100によって立体映像データと輻輳角情報とを関連付けて一旦任意の記録媒体180に記録した後、事後的にその輻輳角情報を用いてメッセージデータの視差を被写体の奥行き感に追従させることができる。
(Another embodiment of the video processing apparatus 100)
In the
したがって、本実施形態の映像処理装置100では、立体映像データに輻輳角が関連付けられてさえいれば、撮像時とは異なる再生時に、新たなメッセージデータを容易に追加することができ、そのメッセージデータの視差を適切に変更することが可能となる。
Therefore, in the
(映像処理方法)
次に、上述した映像処理装置100を用いて、立体映像データにメッセージデータを重畳する映像処理方法について説明する。
(Video processing method)
Next, a video processing method for superimposing message data on stereoscopic video data using the
図10は、映像処理方法の具体的な処理の流れを示したフローチャートである。まず、映像処理装置100の撮像部110a、110bは、両眼視差による立体映像を知覚させるための立体映像データを生成し(S200)、被写体追尾部152は、立体映像データ中の特定された被写体を追尾し(S202)、距離導出部112は、輻輳角の二等分線方向における、2つの撮像部110a、110bと追尾された被写体との距離である被写体距離を導出し(S204)、輻輳角制御部114は、導出された被写体距離に基づいて輻輳角を制御する(S206)。
FIG. 10 is a flowchart showing a specific processing flow of the video processing method. First, the
そして、輻輳角導出部116は、2つの撮像部110a、110bの輻輳角を導出し(S208)、記憶制御部154は、導出された輻輳角を示す輻輳角情報を立体映像データに関連付けてデータバッファ120に記憶する(S210)。
Then, the convergence
続いて、データ取得部156は、立体映像データと輻輳角情報とをデータバッファ120から取得する(S212)。ここで、立体表示部124に重畳可能なメッセージデータが発生すると(S214のYES)、メッセージ取得部158は、立体映像データに重畳するメッセージデータを取得する(S216)。
Subsequently, the
そして、メッセージデータの取得が初めてであれば(S218のYES)、挿入面決定部160は、輻輳角の二等分線と垂直に交わる、メッセージデータの挿入面を決定し(S220)、数式1および数式2を用いてメッセージデータの視差を導出し(S222)、初めてでなければ(S218のNO)、視差変更部162は、数式8および数式9を用い、輻輳角情報に示された輻輳角に基づいて、撮像空間における、2つの撮像部110a、110bと挿入面184との位置関係が変わらないようにメッセージデータの視差を変更する(S224)。
If the message data acquisition is the first time (YES in S218), the insertion surface determination unit 160 determines the message data insertion surface that intersects perpendicularly with the bisector of the convergence angle (S220). And the parallax of the message data is derived using Equation 2 (S222), and if not the first time (NO in S218), the parallax changing unit 162 uses Equation 8 and Equation 9 to express the convergence angle indicated in the convergence angle information. Based on the above, the parallax of the message data is changed so that the positional relationship between the two
データ重畳部164は、導出された視差に従ってメッセージデータを立体映像データに重畳し(S226)、データ出力部128は、メッセージデータを重畳した立体映像データを立体表示部124に出力する(S228)。ただし、メッセージデータが発生してないと(S214のNO)、データ出力部128は、メッセージデータを重畳していない元の立体映像データのみを立体表示部124に出力する(S228)。
The data superimposing unit 164 superimposes the message data on the stereoscopic video data according to the derived parallax (S226), and the
かかる映像処理方法を用いることで、輻輳角に伴って被写体等の結像位置が変化したとしても、違和感のない適切な結像位置でメッセージデータを知覚させることが可能となる。 By using such a video processing method, it is possible to perceive message data at an appropriate image formation position without a sense of incongruity even when the image formation position of a subject or the like changes with the convergence angle.
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.
なお、本明細書の映像処理方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。 Note that each step of the video processing method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.
本発明は、両眼視差によって立体映像を知覚させるための立体映像データを生成する映像処理装置および映像処理方法に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for a video processing apparatus and a video processing method that generate stereoscopic video data for causing stereoscopic video to be perceived by binocular parallax.
100 …映像処理装置
110a …撮像部
110b …撮像部
112 …距離導出部
114 …輻輳角制御部
116 …輻輳角導出部
118 …映像処理部
120 …データバッファ
152 …被写体追尾部
154 …記憶制御部
156 …データ取得部
158 …メッセージ取得部
160 …挿入面決定部
162 …視差変更部
164 …データ重畳部
DESCRIPTION OF
Claims (4)
前記立体映像データに重畳するメッセージデータを取得するメッセージ取得部と、
前記輻輳角の二等分線と垂直に交わる、前記メッセージデータを重畳するための挿入面を決定して、前記メッセージデータの視差を導出する挿入面決定部と、
前記輻輳角情報に示された輻輳角に基づいて、撮像空間における、前記2つの撮像部と前記挿入面との位置関係が変わらないように前記メッセージデータの視差を変更する視差変更部と、
前記視差に従って前記メッセージデータを前記立体映像データに重畳するデータ重畳部と、
重畳した前記立体映像データを出力するデータ出力部と、
を備えたことを特徴とする映像処理装置。 A data acquisition unit for acquiring stereoscopic video data for perceiving stereoscopic video due to binocular parallax, and convergence angle information indicating a convergence angle formed by optical axes of two imaging units that have captured the stereoscopic video data;
A message acquisition unit for acquiring message data to be superimposed on the stereoscopic video data;
An insertion plane determination unit that determines an insertion plane for superimposing the message data, which intersects perpendicularly with a bisector of the convergence angle, and derives a parallax of the message data;
A parallax changing unit that changes the parallax of the message data so that the positional relationship between the two imaging units and the insertion surface in the imaging space does not change based on the convergence angle indicated in the convergence angle information;
A data superimposing unit that superimposes the message data on the stereoscopic video data according to the parallax;
A data output unit for outputting the superimposed stereoscopic video data;
A video processing apparatus comprising:
前記輻輳角の二等分線方向における、前記2つの撮像部と追尾された前記被写体との距離である被写体距離を導出する距離導出部と、
導出された前記被写体距離に基づいて前記輻輳角を制御する輻輳角制御部と、
をさらに備えたことを特徴とする請求項1または2に記載の映像処理装置。 A subject tracking unit for tracking the identified subject;
A distance deriving unit for deriving a subject distance that is a distance between the two imaging units and the tracked subject in the bisector direction of the convergence angle;
A convergence angle control unit for controlling the convergence angle based on the derived subject distance;
The video processing apparatus according to claim 1, further comprising:
前記立体映像データに重畳するメッセージデータを取得し、
前記メッセージデータの取得が初めてであれば、前記輻輳角の二等分線と垂直に交わる、前記メッセージデータを重畳するための挿入面を決定して、前記メッセージデータの視差を導出し、初めてでなければ、前記輻輳角情報に示された輻輳角に基づいて、撮像空間における、前記2つの撮像部と前記挿入面との位置関係が変わらないように前記メッセージデータの視差を変更し、
前記視差に従って前記メッセージデータを前記立体映像データに重畳し、
重畳した前記立体映像データを出力することを特徴とする映像処理方法。 Obtaining stereoscopic video data for perceiving stereoscopic video due to binocular parallax, and convergence angle information indicating a convergence angle formed by optical axes of two imaging units that have captured the stereoscopic video data;
Obtaining message data to be superimposed on the stereoscopic video data;
If acquisition of the message data is the first time, the insertion plane for superimposing the message data that intersects perpendicularly with the bisector of the convergence angle is determined, and the parallax of the message data is derived for the first time. Otherwise, based on the convergence angle indicated in the convergence angle information, change the parallax of the message data so that the positional relationship between the two imaging units and the insertion surface in the imaging space does not change,
Superimposing the message data on the stereoscopic video data according to the parallax;
A video processing method comprising outputting the superimposed stereoscopic video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009273290A JP2011119825A (en) | 2009-12-01 | 2009-12-01 | Video processor and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009273290A JP2011119825A (en) | 2009-12-01 | 2009-12-01 | Video processor and video processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011119825A true JP2011119825A (en) | 2011-06-16 |
Family
ID=44284650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009273290A Pending JP2011119825A (en) | 2009-12-01 | 2009-12-01 | Video processor and video processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011119825A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019213036A (en) * | 2018-06-04 | 2019-12-12 | オリンパス株式会社 | Endoscope processor, display setting method, and display setting program |
-
2009
- 2009-12-01 JP JP2009273290A patent/JP2011119825A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019213036A (en) * | 2018-06-04 | 2019-12-12 | オリンパス株式会社 | Endoscope processor, display setting method, and display setting program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5299214B2 (en) | Image processing apparatus, image processing method, and program | |
CN102165785B (en) | Three-dimensional imaging device, method, and program | |
US8514275B2 (en) | Three-dimensional (3D) display method and system | |
JP5420075B2 (en) | Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus | |
JP2011211450A (en) | Three-dimensional video display device, three-dimensional video photographing device, and three-dimensional video display method | |
JP2012156680A (en) | Three dimensional image processing device | |
CN102177721A (en) | A method of processing parallax information comprised in a signal | |
TW201242335A (en) | Image processing device, image processing method, and program | |
JP2007036528A (en) | Image processing apparatus | |
CA2933704A1 (en) | Systems and methods for producing panoramic and stereoscopic videos | |
JP2010171628A (en) | Image processing device, program, image processing method, recording method, and recording medium | |
US9154771B2 (en) | Apparatus for capturing stereoscopic image | |
JP5347987B2 (en) | Video processing device | |
KR20090014927A (en) | Method and apparatus for reproducing stereoscopic image using depth control | |
JP2011119825A (en) | Video processor and video processing method | |
JP4475201B2 (en) | Stereoscopic image display device and stereoscopic image display device system | |
JP2011259012A (en) | Three-dimensional image reproduction device and three-dimensional image reproduction method | |
JP2012134885A (en) | Image processing system and image processing method | |
KR20160106267A (en) | layered Hologram System using Auto-stereoscopic 3D image | |
JP2011119810A (en) | Video processor and video processing method | |
JP5250604B2 (en) | Stereoscopic image display apparatus, stereoscopic image display method, and program | |
JP5304760B2 (en) | Stereoscopic imaging device and stereoscopic imaging method | |
JP5222718B2 (en) | Stereoscopic image reproduction apparatus, stereoscopic image reproduction program, and imaging apparatus | |
JP2004242000A (en) | Encoding device and method, and decoding device and method | |
JP2012114751A (en) | Stereoscopic video imaging device and stereoscopic video imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111012 |