JP2013085054A - Stereoscopic video processor - Google Patents

Stereoscopic video processor Download PDF

Info

Publication number
JP2013085054A
JP2013085054A JP2011222476A JP2011222476A JP2013085054A JP 2013085054 A JP2013085054 A JP 2013085054A JP 2011222476 A JP2011222476 A JP 2011222476A JP 2011222476 A JP2011222476 A JP 2011222476A JP 2013085054 A JP2013085054 A JP 2013085054A
Authority
JP
Japan
Prior art keywords
viewer
unit
video
parallax
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011222476A
Other languages
Japanese (ja)
Inventor
Satoshi Suzuki
諭 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011222476A priority Critical patent/JP2013085054A/en
Publication of JP2013085054A publication Critical patent/JP2013085054A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic video processor capable of providing optimal parallax for plural viewers by adjusting the parallax for stereoscopic video according to the position and distance of the viewers with respect to the TV.SOLUTION: When a stereoscopic video is being viewed by plural persons, viewing attitude of each of the viewers is estimated based on the position and direction of the face of the viewer. The parallax is adjusted by weighing to each viewer. With this, optimal parallax for viewers who are interested in the video is provided while neglecting the influence by a viewer who is not interested in the video.

Description

本発明は立体映像処理装置に関する。より詳しくは、立体映像の視差を調整する立体映像処理装置に関する。   The present invention relates to a stereoscopic video processing apparatus. More specifically, the present invention relates to a stereoscopic video processing apparatus that adjusts the parallax of a stereoscopic video.

近年、立体映像を表示する表示装置の開発が進んでいる。   In recent years, display devices that display stereoscopic images have been developed.

従来、立体映像を表示する表示装置では、メガネに搭載された座標検出からの座標に応じて、視差量を調整するものが知られている(例えば特許文献1参照)。   2. Description of the Related Art Conventionally, a display device that displays stereoscopic images is known that adjusts the amount of parallax according to coordinates from coordinate detection mounted on glasses (see, for example, Patent Document 1).

特開2011−141381号公報JP 2011-141381 A

上記従来の技術によれば、テレビに対する視聴者の位置や距離に応じた視差を付加することで、適切な立体映像が表示される。   According to the above conventional technique, an appropriate stereoscopic video is displayed by adding parallax according to the position and distance of the viewer with respect to the television.

しかし、複数人が同時に立体映像を視聴した際には適切に立体映像を表示することが出来ない。   However, when a plurality of people watch a stereoscopic video at the same time, the stereoscopic video cannot be displayed appropriately.

例えば視聴者A、Bの2人が立体映像を視聴していたとする。ここで、視聴者Aの位置、距離に合わせて視差の調整を行うと、調整された視差が視聴者Bに対しては不適切なものとなるおそれがある。結果として、視聴者Bが過度の立体効果を感じ、あるいは、立体効果を得られないおそれがある。   For example, it is assumed that two viewers A and B are viewing stereoscopic video. Here, if the parallax is adjusted in accordance with the position and distance of the viewer A, the adjusted parallax may be inappropriate for the viewer B. As a result, the viewer B may feel an excessive three-dimensional effect or may not obtain the three-dimensional effect.

前記従来の課題を解決する為に、本発明の立体映像視聴装置は、立体映像を視聴している視聴者の画像を取得する視聴者画像取得部と、前記視聴者画像取得部が取得した前記画像を解析して、視聴者ごとの顔の傾きを検出する傾き検出部と、前記視聴者画像取得部が取得した前記画像を解析して、視聴者ごとの視聴位置を検出する位置検出部と、前記傾き検出部で検出した視聴者ごとの顔の傾きと、前記位置検出部で検出した視聴者ごとの視聴位置とに基づいて、視聴者ごとに視差量調整の重み付けを行う視差量調整部と、前記視差量調整部の重み付けに基づいて、前記立体映像を構成する左目用映像と右目用映像とに視差を付加する視差合成部と、を有する立体映像処理装置とした。   In order to solve the conventional problems, a stereoscopic video viewing apparatus according to the present invention includes a viewer image acquisition unit that acquires an image of a viewer who is viewing a stereoscopic video, and the viewer image acquisition unit that acquires the viewer image. An inclination detection unit that analyzes an image and detects a tilt of a face for each viewer; a position detection unit that analyzes the image acquired by the viewer image acquisition unit and detects a viewing position for each viewer; A parallax amount adjustment unit that performs weighting for parallax amount adjustment for each viewer based on the face inclination for each viewer detected by the tilt detection unit and the viewing position for each viewer detected by the position detection unit And a parallax synthesis unit that adds parallax to the left-eye video and the right-eye video constituting the stereoscopic video based on the weighting of the parallax amount adjustment unit.

本発明の立体映像処理装置によれば、複数の視聴者のテレビに対する位置、視聴状態を判別するので、視聴者全員に対して適した視差を立体映像に付加することができる。   According to the stereoscopic video processing apparatus of the present invention, the positions and viewing states of a plurality of viewers on the television are determined, so that a parallax suitable for all viewers can be added to the stereoscopic video.

実施の形態1にかかる映像処理装置、及び当該映像処理装置に対する外部入力を含むブロック図1 is a block diagram including a video processing apparatus according to a first embodiment and external inputs to the video processing apparatus. 実施の形態1にかかる傾き検出部のブロック図FIG. 3 is a block diagram of an inclination detection unit according to the first embodiment. 実施の形態1にかかる重み算出部のブロック図FIG. 3 is a block diagram of a weight calculation unit according to the first embodiment. 実施の形態1にかかる映像処理装置を用いる視聴者の態様を示した図The figure which showed the aspect of the viewer who uses the video processing apparatus concerning Embodiment 1.

以下、本発明の一実施の形態について図面を参照しながら説明する。
(実施の形態1)
以下、図1から図4を参照しながら、実施の形態1について説明する。
(機器の構成)
以下、図1を参照しながら実施の形態1にかかる映像処理装置の構成を説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)
The first embodiment will be described below with reference to FIGS.
(Device configuration)
The configuration of the video processing apparatus according to the first embodiment will be described below with reference to FIG.

図1は実施の形態1にかかる映像処理装置、及び当該映像処理装置に対する外部入力を含むブロック図である。   FIG. 1 is a block diagram including a video processing apparatus according to the first embodiment and external inputs to the video processing apparatus.

以下、図1に示された各構成要素について説明を行う。   Hereinafter, each component shown in FIG. 1 will be described.

映像処理装置100は、外部から取得した視聴者の画像に基づいて、映像コンテンツに視差を付加するものである。映像処理装置100は、映像解析部104と視差生成部105と視差合成部106とを含む。映像処理装置100は具体的にはLSIなどの大規模回路素子、あるいはプログラムの処理によって実現される。   The video processing apparatus 100 adds parallax to video content based on viewer images acquired from the outside. The video processing apparatus 100 includes a video analysis unit 104, a parallax generation unit 105, and a parallax synthesis unit 106. Specifically, the video processing apparatus 100 is realized by processing a large-scale circuit element such as an LSI or a program.

左目用映像取得部101は、立体映像における左目用の映像信号を取得、あるいは生成するものである。左目用映像取得部101は立体表示記録対応カメラや立体表示コンテンツが収録されたパッケージメディアや放送信号などから左目用の映像信号を取得する。左目用映像取得部101が立体表示記録対応カメラから左目用の映像信号を取得するには、例えば左目用の映像を撮像する撮像素子からの信号を取得すれば良い。左目用映像取得部101がパッケージメディアや放送信号から左目用の映像信号を取得するには、デコードされた映像信号から左目用映像に該当するフレームを構成する信号を取得すれば良い。具体的に当該フレームを構成する信号を取得するには、映像信号から一定の規約に従って偶数フレーム、あるいは奇数フレームを構成する信号を選択的に取得することが一例として挙げられる。あるいは、映像信号の特定のフレームが左目用映像と右目用映像の組み合わせから構成されている場合には当該フレームの特定の領域を構成する映像信号を選択的に取得することが一例として挙げられる。映像信号の特定のフレームが左目用映像と右目用映像の組み合わせから構成されている場合とは、具体的にはサイドバイサイドやトップアンドボトムなどのフォーマット形式に従って映像信号が構成されている場合である。また、左目用映像取得部101が左目用の映像信号を生成する一例としては、立体のOSD(On Screen Display)など、外部映像源に依存しない映像を生成する場合が挙げられる。   The left-eye video acquisition unit 101 acquires or generates a left-eye video signal in a stereoscopic video. The left-eye video acquisition unit 101 acquires a left-eye video signal from a stereoscopic display recording-compatible camera, package media in which stereoscopic display content is recorded, a broadcast signal, or the like. In order for the left-eye video acquisition unit 101 to acquire the left-eye video signal from the stereoscopic display recording compatible camera, for example, a signal from an image sensor that captures the left-eye video may be acquired. In order for the left-eye video acquisition unit 101 to acquire the left-eye video signal from the package media or the broadcast signal, a signal constituting a frame corresponding to the left-eye video may be acquired from the decoded video signal. In order to acquire the signal which comprises the said flame | frame concretely, selectively acquiring the signal which comprises an even-numbered frame or an odd-numbered frame from a video signal according to a fixed rule is mentioned as an example. Alternatively, when a specific frame of a video signal is composed of a combination of a left-eye video and a right-eye video, an example is to selectively acquire a video signal constituting a specific area of the frame. The case where a specific frame of a video signal is composed of a combination of a left-eye video and a right-eye video is specifically a case where the video signal is configured according to a format format such as side-by-side or top-and-bottom. Further, as an example in which the left-eye video acquisition unit 101 generates a left-eye video signal, there is a case where a video that does not depend on an external video source, such as a three-dimensional OSD (On Screen Display), is generated.

右目用映像取得部102は、立体映像における右目用の映像信号を取得、あるいは生成するものである。詳しい機能は左目用映像取得部101の説明と同様である。   The right-eye video acquisition unit 102 acquires or generates a right-eye video signal in a stereoscopic video. Detailed functions are the same as those of the left-eye video acquisition unit 101.

視聴者画像取得部103は、視聴者を撮影した画像を取得するものである。視聴者画像取得部103は具体的には、カメラなどの外部機器が撮影した画像を取得する。カメラは映像処理装置100に内蔵されたものでもよいし、視聴者の周囲に配置されたものでもよいが、映像処理装置100で処理された映像を表示するディスプレイの近辺から視聴者に正対する位置に配置することが望ましい。後述する映像解析部104が視聴者画像取得部103が取得した画像からディスプレイに対する視聴者の位置を検出する必要があるからである。   The viewer image acquisition unit 103 acquires an image obtained by photographing the viewer. Specifically, the viewer image acquisition unit 103 acquires an image captured by an external device such as a camera. The camera may be built in the video processing apparatus 100 or may be arranged around the viewer, but the position facing the viewer from the vicinity of the display that displays the video processed by the video processing apparatus 100 It is desirable to arrange in. This is because the video analysis unit 104 described later needs to detect the position of the viewer with respect to the display from the image acquired by the viewer image acquisition unit 103.

映像解析部104は視聴者画像取得部103で取得した画像を解析する。   The video analysis unit 104 analyzes the image acquired by the viewer image acquisition unit 103.

視差生成部105は左目用映像と右目用映像から原映像の視差を取得する。さらに、視差生成部105は取得した視差と、映像解析部での解析結果に基づいて、左目用映像と右目用映像に合成すべき視差量を算出する。   The parallax generation unit 105 acquires the parallax of the original video from the left-eye video and the right-eye video. Furthermore, the parallax generation unit 105 calculates the amount of parallax to be combined with the left-eye video and the right-eye video based on the acquired parallax and the analysis result of the video analysis unit.

視差合成部106は前記視差生成部105で生成された視差を左目用映像と右目用映像に合成する。   The parallax synthesis unit 106 synthesizes the parallax generated by the parallax generation unit 105 into a left-eye video and a right-eye video.

以下、映像解析部104の各構成要素について説明する。   Hereinafter, each component of the video analysis unit 104 will be described.

顔領域検出部401は視聴者画像取得部103で取得した画像から視聴者の顔の存在を検出する。具体的には、顔領域検出部401は取得した画像から肌色の円形領域を検出することによって顔の存在を検出する。   The face area detection unit 401 detects the presence of the viewer's face from the image acquired by the viewer image acquisition unit 103. Specifically, the face area detection unit 401 detects the presence of a face by detecting a skin-colored circular area from the acquired image.

傾き検出部402は顔領域検出部401で検出されたそれぞれの顔について傾きを検出する。具体的には、傾き検出部402は顔領域において黒い矩形領域を切り出し、その矩形領域の傾きを計算する。黒い矩形領域とは、視聴者の装着している立体表示用メガネの領域に相当する。視聴者が首を傾けていれば、視聴者の装着しているメガネも傾く。よって黒い矩形領域の傾きを視聴者の首の傾きとみなすことが可能となる。   The inclination detection unit 402 detects the inclination of each face detected by the face area detection unit 401. Specifically, the inclination detection unit 402 cuts out a black rectangular area in the face area and calculates the inclination of the rectangular area. The black rectangular region corresponds to the region of the stereoscopic display glasses worn by the viewer. If the viewer is tilted, the glasses worn by the viewer are also tilted. Therefore, the inclination of the black rectangular area can be regarded as the inclination of the viewer's neck.

傾き検出部402について図2を用いてさらに詳細に説明する。図2は実施の形態1にかかる傾き検出部のブロック図である。   The tilt detection unit 402 will be described in more detail with reference to FIG. FIG. 2 is a block diagram of the inclination detecting unit according to the first embodiment.

傾き検出部402を詳細に機能ブロック図で表現すると、傾き検出部402はメガネ領域検出部421と傾き検出部422とを有する。   If the tilt detection unit 402 is expressed in detail by a functional block diagram, the tilt detection unit 402 includes a glasses region detection unit 421 and a tilt detection unit 422.

メガネ領域検出部421は顔領域検出部401で検出された顔領域からさらに立体表示用メガネの領域を検出するものである。具体的には検出された顔領域において、黒色領域が顔領域の一定以上の面積を占めつつ、黒領域の四角さの度合いが高いことを検出するものである。黒色領域の検出は画素の輝度に従って行うことができる。四角さの度合いは黒色領域のX軸範囲とY軸範囲とを算出し、矩形領域を定義した後に、その矩形領域に占める黒色の割合で判断することができる。   The eyeglass region detection unit 421 further detects a region of stereoscopic display glasses from the face region detected by the face region detection unit 401. Specifically, in the detected face area, the black area occupies a certain area or more of the face area, and detects that the black area has a high degree of squareness. The black area can be detected according to the luminance of the pixel. The degree of squareness can be determined by calculating the X-axis range and the Y-axis range of the black region, defining the rectangular region, and then determining the proportion of black in the rectangular region.

傾き検出部422はメガネ領域検出部421で検出された立体表示用メガネの領域が、テレビに対してどの程度傾いているかを検出するものである。傾きを検出するには、検出されたメガネ領域に対して、あらかじめ定められた数種類の角度別に用意した矩形領域をマッチングさせ、該当パタンから傾きを検出する。   The tilt detection unit 422 detects how much the region of the 3D display glasses detected by the glasses region detection unit 421 is tilted with respect to the television. In order to detect the inclination, the detected eyeglass area is matched with a rectangular area prepared for several predetermined angles, and the inclination is detected from the corresponding pattern.

再び図1に戻って残りの構成要素の説明を行う。   Returning to FIG. 1 again, the remaining components will be described.

位置検出部403は、顔領域検出部401で検出された顔から視聴者の位置を検出する。具体的には、位置検出部403は視聴者画像取得部103で取得された画像中において、顔領域検出部401で検出された顔がどの位置に存在するかを検出する。メガネ領域検出部421からメガネ領域を取得して行う方法が挙げられる。取得したメガネ領域の中心に視聴者がいると仮定することによって視聴者の位置を判断する。ここで、位置とは画像の中心からの顔の距離(視聴者が正面にいるか端にいるか)を少なくとも検出する。また、顔のサイズ(顔が近辺にあるか遠方にあるか)をさらに検出しても良い。   The position detection unit 403 detects the position of the viewer from the face detected by the face area detection unit 401. Specifically, the position detection unit 403 detects in which position the face detected by the face area detection unit 401 exists in the image acquired by the viewer image acquisition unit 103. There is a method in which a spectacle region is acquired from the spectacle region detection unit 421 and performed. The viewer's position is determined by assuming that the viewer is at the center of the acquired glasses region. Here, the position is at least the distance of the face from the center of the image (whether the viewer is in front or at the end). Further, the size of the face (whether the face is near or far away) may be further detected.

視聴者数検出部404は顔領域検出部401または位置検出部403で検出される視聴者の顔または位置情報をカウントして視聴者の数を特定するものである。   The viewer number detection unit 404 counts the viewer's face or position information detected by the face area detection unit 401 or the position detection unit 403, and specifies the number of viewers.

重み算出部405は、傾き検出部402の出力および位置検出部403の出力を基に視聴者の視聴状況を判断し、各視聴者に対して視差量調整の重みづけを行う。   The weight calculation unit 405 determines the viewing status of the viewer based on the output of the tilt detection unit 402 and the output of the position detection unit 403, and weights each viewer for parallax amount adjustment.

図3を用いて重み算出部405について詳細に説明する。図3は実施の形態1にかかる重み算出部のブロック図である。   The weight calculation unit 405 will be described in detail with reference to FIG. FIG. 3 is a block diagram of the weight calculation unit according to the first embodiment.

第一の重み算出部451は傾き検出部402で検出された傾き量から視差量調整のための重みを算出するものである。具体的には、第一の重み算出部451は傾き検出部402で検出された傾きがテレビに対して平行に近いほど、当該視聴者に対する重みを大きくする。   The first weight calculating unit 451 calculates a weight for adjusting the parallax amount from the tilt amount detected by the tilt detecting unit 402. Specifically, the first weight calculation unit 451 increases the weight for the viewer as the inclination detected by the inclination detection unit 402 is closer to the television.

第二の重み算出部452は位置検出部403で検出された視聴者のテレビに対する位置から視差量調整のための重みを算出するためのものである。具体的には、第二の重み検出部は位置検出部403で検出された視聴者の位置情報をもとに取得画像の左右中央に位置する視聴者に対する重みを大きくする。   The second weight calculation unit 452 is for calculating a weight for adjusting the parallax amount from the position of the viewer with respect to the television detected by the position detection unit 403. Specifically, the second weight detection unit increases the weight for the viewer located at the left and right center of the acquired image based on the viewer position information detected by the position detection unit 403.

重み合成部453は第一の重み算出部451、第二の重み算出部452で算出された各重みと404で検出された視聴者数から視差量を調整する際の最終的な重みを決定するものである。詳細は後述する。
(重み付けについて)
以下図4を用いて、上述のように構成した映像処理装置における映像処理について述べる。
The weight synthesis unit 453 determines the final weight when adjusting the parallax amount from the respective weights calculated by the first weight calculation unit 451 and the second weight calculation unit 452 and the number of viewers detected in 404. Is. Details will be described later.
(About weighting)
Hereinafter, video processing in the video processing apparatus configured as described above will be described with reference to FIG.

図4は実施の形態1にかかる映像処理装置を用いる視聴者の態様を示した図である。   FIG. 4 is a diagram illustrating a viewer using the video processing apparatus according to the first embodiment.

図4(a)は各視聴者が正対して、かつ、画面の中央に対し略均等に位置して、映像処理装置によって処理された映像を鑑賞する様子を表す図である。   FIG. 4A is a diagram illustrating a state in which each viewer is viewing the video processed by the video processing device with the viewer facing each other and substantially equally positioned with respect to the center of the screen.

第一の重み算出部451は各視聴者に対する重み付けを均等に行う。各視聴者の顔の傾きが平行であるからである。   The first weight calculation unit 451 equally weights each viewer. This is because the inclination of each viewer's face is parallel.

第二の重み算出部452は中央に位置する視聴者に対して左右に位置する視聴者より重く重み付けを行う。   The second weight calculation unit 452 weights the viewer positioned at the center more heavily than the viewer positioned at the left and right.

このような場合、視差合成部106は現映像と等しい視差を用いて視差を合成する。   In such a case, the parallax synthesis unit 106 synthesizes the parallax using the same parallax as the current video.

図4(b)は各視聴者が正対して、かつ、右側の視聴者がやや中央からずれて、左側の視聴者が中央から大きくずれて視聴している様子を表す図である。   FIG. 4B is a diagram showing a state in which each viewer is facing directly, the right viewer is slightly deviated from the center, and the left viewer is deviated greatly from the center.

第一の重み算出部451は各視聴者に対する重み付けを均等に行う。各視聴者の顔の傾きが平行であるからである。   The first weight calculation unit 451 equally weights each viewer. This is because the inclination of each viewer's face is parallel.

第二の重み算出部452は右側の視聴者に対する重み付けを重く行う。左側の視聴者は画面に興味がないと判断できるからである。   The second weight calculation unit 452 weights the right viewer heavily. This is because the viewer on the left can determine that he is not interested in the screen.

このような場合、視差合成部106は中央に位置する視聴者に合せて視差合成を行う。   In such a case, the parallax synthesis unit 106 performs parallax synthesis in accordance with the viewer located at the center.

図4(c)は左側の視聴者が横になって視聴している様子を表す図である。   FIG. 4C is a diagram illustrating a state where the viewer on the left side is viewing sideways.

第一の重み算出部451は右側の視聴者に対する重み付けを重く行う。左側の視聴者は顔が傾いているので画面に集中していないと判断できるからである。   The first weight calculation unit 451 weights the right viewer heavily. This is because it can be determined that the viewer on the left has not concentrated on the screen because his / her face is tilted.

第二の重み算出部452は各視聴者に対する重み付けを均等に行う。左右の視聴者ともに中央からの距離はほぼ等しいからである。   The second weight calculation unit 452 equally weights each viewer. This is because the distance from the center is almost equal for the left and right viewers.

このような場合、視差合成部106は右側に位置する視聴者に合せて視差合成を行う。   In such a case, the parallax synthesis unit 106 performs parallax synthesis in accordance with the viewer positioned on the right side.

図4(d)は左側の視聴者が横になって視聴して、かつ、右側の視聴者が中央から離れて視聴している様子を表す図である。   FIG. 4D is a diagram illustrating a situation in which the left viewer is viewing sideways and the right viewer is viewing away from the center.

第一の重み算出部451は右側の視聴者に対する重み付けを重く行う。左側の視聴者は顔が傾いているので画面に集中していないと判断できるからである。   The first weight calculation unit 451 weights the right viewer heavily. This is because it can be determined that the viewer on the left has not concentrated on the screen because his / her face is tilted.

第二の重み算出部452は左側の視聴者に対する重み付けを重く行う。右側の視聴者は画面に興味がないと判断できるからである。   The second weight calculation unit 452 weights the left viewer heavily. This is because it can be determined that the viewer on the right side is not interested in the screen.

このような場合、視差合成部106が、第一の重み算出部451の重み付けと、第二の重み算出部452の重み付けとのどちらを重視するかを、適宜視聴者が設定できるように映像処理装置100を構成しておくことが考えられる。このようにすれば、第一の重み算出部451の算出結果と、第二の重み算出部452の算出結果とが相反する場合に指針を与えることができるからである。   In such a case, video processing is performed so that the viewer can appropriately set which one of the weights of the first weight calculation unit 451 and the weight of the second weight calculation unit 452 the parallax synthesis unit 106 prioritizes. It is conceivable that the apparatus 100 is configured. This is because a guideline can be given when the calculation result of the first weight calculation unit 451 and the calculation result of the second weight calculation unit 452 are in conflict.

なお、第一の重み算出部451では、メガネの傾きに応じてリニアに重みを置くが、数〜数十段階のステップで重みを設定しても良い。同様に、第二の重み算出部452も画面中央からの距離に応じてリニアで重みを設定、もしくはステップ状の重みを設定しても良い。   In the first weight calculation unit 451, the weight is linearly set according to the inclination of the glasses, but the weight may be set in steps of several to several tens of steps. Similarly, the second weight calculation unit 452 may set a weight linearly or set a stepped weight according to the distance from the center of the screen.

本発明は、家庭用のテレビなどにおける映像処理装置として有効である。   The present invention is effective as a video processing apparatus in a home television or the like.

100 映像処理装置
101 左目用映像取得部
102 右目用映像取得部
103 視聴者画像取得部
104 映像解析部
105 視差生成部
106 視差合成部
401 顔領域検出部
402 傾き検出部
403 位置検出部
404 視聴者数検出部
405 重み算出部
421 メガネ領域検出部
422 傾き検出部
451 第一の重み算出部
452 第二の重み算出部
453 重み合成部
100 Video processing apparatus 101 Left-eye video acquisition unit 102 Right-eye video acquisition unit 103 Viewer image acquisition unit 104 Video analysis unit 105 Parallax generation unit 106 Parallax synthesis unit 401 Face area detection unit 402 Inclination detection unit 403 Position detection unit 404 Viewer Number detecting unit 405 Weight calculating unit 421 Glasses region detecting unit 422 Inclination detecting unit 451 First weight calculating unit 452 Second weight calculating unit 453 Weight combining unit

Claims (1)

立体映像を視聴している視聴者の画像を取得する視聴者画像取得部と、
前記視聴者画像取得部が取得した前記画像を解析して、視聴者ごとの顔の傾きを検出する傾き検出部と、
前記視聴者画像取得部が取得した前記画像を解析して、視聴者ごとの視聴位置を検出する位置検出部と、
前記傾き検出部で検出した視聴者ごとの顔の傾きと、前記位置検出部で検出した視聴者ごとの視聴位置とに基づいて、視聴者ごとに視差量調整の重み付けを行う視差量調整部と、
前記視差量調整部の重み付けに基づいて、前記立体映像を構成する左目用映像と右目用映像とに視差を付加する視差合成部と、
を有する立体映像処理装置。
A viewer image acquisition unit that acquires an image of a viewer who is viewing stereoscopic video;
An inclination detection unit that analyzes the image acquired by the viewer image acquisition unit and detects the inclination of the face for each viewer;
A position detection unit that analyzes the image acquired by the viewer image acquisition unit and detects a viewing position for each viewer;
A parallax amount adjustment unit that performs weighting for parallax amount adjustment for each viewer based on the face inclination for each viewer detected by the tilt detection unit and the viewing position for each viewer detected by the position detection unit; ,
A parallax synthesis unit that adds parallax to the left-eye video and the right-eye video that form the stereoscopic video based on the weighting of the parallax amount adjustment unit;
3D image processing apparatus.
JP2011222476A 2011-10-07 2011-10-07 Stereoscopic video processor Pending JP2013085054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011222476A JP2013085054A (en) 2011-10-07 2011-10-07 Stereoscopic video processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011222476A JP2013085054A (en) 2011-10-07 2011-10-07 Stereoscopic video processor

Publications (1)

Publication Number Publication Date
JP2013085054A true JP2013085054A (en) 2013-05-09

Family

ID=48529828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011222476A Pending JP2013085054A (en) 2011-10-07 2011-10-07 Stereoscopic video processor

Country Status (1)

Country Link
JP (1) JP2013085054A (en)

Similar Documents

Publication Publication Date Title
JP5149435B1 (en) Video processing apparatus and video processing method
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
JP6020923B2 (en) Viewer having variable focus lens and video display system
US20120154551A1 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
US20110316881A1 (en) Display device
JP5833667B2 (en) Method and apparatus for providing monovision in a multi-view system
US20120200680A1 (en) Display device and method for providing 3D image of the display device
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
KR20120016408A (en) Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
KR20140038366A (en) Three-dimensional display with motion parallax
US20120242803A1 (en) Stereo image capturing device, stereo image capturing method, stereo image display device, and program
JP2013051627A (en) Vision adjustment device, image processor, and vision adjustment method
US10616568B1 (en) Video see-through head mounted display and control method thereof
US20130088574A1 (en) Detective Adjusting Apparatus for Stereoscopic Image and Related Method
WO2012124150A1 (en) Video display device
US20130050449A1 (en) Video processing apparatus and video processing method
JP5257248B2 (en) Image processing apparatus and method, and image display apparatus
JP5129376B1 (en) Video processing apparatus and video processing method
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
US20130162630A1 (en) Method and apparatus for displaying stereoscopic image contents using pixel mapping
KR20130033815A (en) Image display apparatus, and method for operating the same
TWI500314B (en) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP5725159B2 (en) Measuring device, stereoscopic image display device, and measuring method
JP2014089521A (en) Detecting device, video display system, and detecting method