JP2011193463A - Image processor, image processing method and stereoscopic image display device - Google Patents

Image processor, image processing method and stereoscopic image display device Download PDF

Info

Publication number
JP2011193463A
JP2011193463A JP2011054241A JP2011054241A JP2011193463A JP 2011193463 A JP2011193463 A JP 2011193463A JP 2011054241 A JP2011054241 A JP 2011054241A JP 2011054241 A JP2011054241 A JP 2011054241A JP 2011193463 A JP2011193463 A JP 2011193463A
Authority
JP
Japan
Prior art keywords
display
parameter information
stereoscopic
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011054241A
Other languages
Japanese (ja)
Inventor
Yuki Iwanaka
中 由 紀 岩
Masahiro Baba
場 雅 裕 馬
Kenichi Shimoyama
山 賢 一 下
Ryusuke Hirai
井 隆 介 平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011054241A priority Critical patent/JP2011193463A/en
Publication of JP2011193463A publication Critical patent/JP2011193463A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for giving a proper stereoscopic effect to various images. <P>SOLUTION: A stereoscopic image display device includes a setting part, a generation part, and a display part. The setting part sets parameter information for controlling the stereoscopic effect used in displaying the display image, based on viewing environment information. The generation part generates the stereoscopic image by adjusting the stereoscopic effect of the display image, in accordance with the parameter information. The display part displays the adjusted stereoscopic image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本開示は、映像処理装置、映像処理方法および立体映像表示装置に関する。   The present disclosure relates to a video processing device, a video processing method, and a stereoscopic video display device.

平面映像2枚で両眼視差が提示され、画面を中心に奥行き方向に立体像を再生する装置、立体(3次元)ディスプレイが開発されている。立体ディスプレイは、大きく分類すると、ディスプレイそのものを覗き込んだり、頭部に搭載するビュアー方式、左右の映像を分割して提示するために、特殊なメガネを用いるグラス方式(メガネ式)、観察時に特殊なメガネを必要としない裸眼方式(裸眼式)がある。メガネ式は、現在、立体映画の上映などに用いられている。   A device that displays binocular parallax with two flat images and reproduces a three-dimensional image in the depth direction around the screen has been developed. Three-dimensional displays can be broadly categorized into: a viewer system that looks into the display itself, a viewer system that is mounted on the head, a glass system that uses special glasses to divide left and right images (glasses system), and special observations. There is a naked eye method (naked eye method) that does not require special glasses. The glasses type is currently used for screening 3D movies.

立体映像における立体感は、異なる2つの視点における映像の差などから奥行き感が計算される。代表的な奥行き手がかりとして、両眼視差と輻輳がある。両眼視差とは、左右の眼で得られる情報のずれのことであり、対象を注視した際の網膜の像は、注視点より離れた位置でずれを生じ、このずれの量(視差量)と奥行き方向の距離とが対応しているため、両眼視差を奥行き感に変換している。輻輳は対象に視線を交差させようとする両眼の動きのことであり、この動きの量と対象までの距離が対応していることから、立体知覚ができるといわれている。   As for the stereoscopic effect in the stereoscopic image, the sense of depth is calculated from the difference between the images at two different viewpoints. Representative depth cues include binocular parallax and convergence. Binocular parallax is a shift in information obtained by the left and right eyes. The image of the retina when the subject is watched is shifted at a position away from the gazing point, and the amount of this shift (parallax amount) And the distance in the depth direction correspond to each other, so that binocular parallax is converted into a sense of depth. Convergence is a movement of both eyes that attempts to cross the line of sight with the object. Since the amount of this movement corresponds to the distance to the object, it is said that stereoscopic perception is possible.

立体ディスプレイにおいて、飛び出し量の多い映像や長時間の観察に対して、観察者が眼の疲労を訴えることがある。この主な原因としては、視覚系との不整合が考えられる。自然視の状態では、輻輳と調節の位置は常に1つの対象に固定されている。調節とは、対象にピントをあわせることを意味する。しかし、立体映像を観察している場合では、輻輳は立体像に働き、調節は画面上に固定されている。このように立体ディスプレイでは、視覚系の輻輳と調節の距離情報が異なるという問題が起こっていて、立体効果と視覚系の不整合が生じている。立体映像コンテンツを制作・表示する際には、このような視覚系への配慮をする必要がある。   In a three-dimensional display, an observer may complain of eye fatigue for images with a large amount of pop-up and long-time observation. The main cause is inconsistency with the visual system. In natural vision, the position of convergence and accommodation is always fixed to one object. Adjustment means focusing on the subject. However, when observing a stereoscopic image, the convergence works on the stereoscopic image and the adjustment is fixed on the screen. As described above, in the stereoscopic display, there is a problem that the convergence information of the visual system is different from the adjustment distance information, and the stereoscopic effect is inconsistent with the visual system. When producing and displaying stereoscopic video content, it is necessary to consider such a visual system.

ステレオカメラでの撮影情報(カメラ間隔とクロスポイントまでの距離)と表示装置情報(画面サイズ、視距離)に基づいて、視差量を設定し、立体感を調整することによって、画面サイズが異なる表示装置で再生しても自然な飛び出し量の立体映像を得ることができる技術が提案されている(例えば、特許文献1)。 Display with different screen sizes by setting the amount of parallax and adjusting the stereoscopic effect based on shooting information (camera interval and distance to the cross point) and display device information (screen size, viewing distance) with a stereo camera There has been proposed a technique capable of obtaining a stereoscopic image with a natural pop-out amount even when played back by an apparatus (for example, Patent Document 1).

特許第3978392号Patent No. 3978392

様々な映像に対して適切な立体感を与えるような技術を提供する。   Providing technology that gives appropriate 3D effect to various images.

上記目的を達成するために、本発明の一態様に係る立体映像表示装置は、設定部と、生成部と、表示部とを備える。設定部は、表示映像を表示する際の立体感を制御するパラメータ情報を、視聴環境情報に基づいて設定する。生成部は、前記パラメータ情報に従って、前記表示映像の立体感を調整した立体映像を生成する。表示部は、調整された前記立体映像を表示可能である。   In order to achieve the above object, a stereoscopic video display device according to an aspect of the present invention includes a setting unit, a generation unit, and a display unit. The setting unit sets parameter information for controlling the stereoscopic effect when displaying the display image based on the viewing environment information. The generation unit generates a stereoscopic image in which the stereoscopic effect of the display image is adjusted according to the parameter information. The display unit can display the adjusted stereoscopic video.

第1の実施形態の表示装置を示す図。The figure which shows the display apparatus of 1st Embodiment. 記憶部が保持するテーブルの一例を示す図。The figure which shows an example of the table which a memory | storage part hold | maintains. 正規化の例を示す図。The figure which shows the example of normalization. 視差量の調整方法の例を示す図。The figure which shows the example of the adjustment method of parallax amount. 第1の実施形態の映像処理装置を示す図。The figure which shows the video processing apparatus of 1st Embodiment.

図面を参照して、本発明の実施の形態を説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。   Embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the structure and process which mutually perform the same operation | movement, and the overlapping description is abbreviate | omitted.

各実施形態の立体表示装置は、立体表示を行うことが可能であれば眼鏡方式、裸眼方式の種々の方式のいずれであっても構わない。また、時分割方式や空間分離方式等のいずれであっても構わない。以下の実施形態では、眼鏡を用いたフレームシーケンシャルの時間分割方式で立体表示を行う2眼式ディスプレイに関して例示する。時間分割方式には、液晶シャッター眼鏡方式、偏光フィルタ眼鏡方式、RGB波帯分割フィルタ眼鏡方式などがある。本実施形態では、液晶シャッター眼鏡方式の眼鏡を用いた時間分割方式について例示する。時間分割方式は、フィールドシーケンシャル、フレームシーケンシャルのどちらでも構わない。   The stereoscopic display device of each embodiment may be any of various types such as a glasses type and a naked eye type as long as stereoscopic display can be performed. Further, any of a time division method, a space separation method, and the like may be used. In the following embodiments, a twin-lens display that performs stereoscopic display using a frame sequential time division method using glasses will be described. Examples of the time division method include a liquid crystal shutter glasses method, a polarization filter glasses method, and an RGB waveband division filter glasses method. In this embodiment, a time division method using liquid crystal shutter glasses is exemplified. The time division method may be either field sequential or frame sequential.

(第1の実施形態)
図1は、本実施形態の表示装置200を示す図である。映像が供給される方法は、種々の方法であって構わない。チューナーを介して、または光ディスクに記憶された情報の読み込みによって取得する等種々の方式であって構わない。
(First embodiment)
FIG. 1 is a diagram illustrating a display device 200 according to the present embodiment. Various methods may be used for supplying the video. Various methods may be used such as obtaining through a tuner or reading information stored on an optical disk.

表示装置200は、映像処理部100と、表示部210を有する。表示装置200に入力される表示映像は、テレビジョン放送によって送られるテレビ番組コンテンツや、ネット配信される映像コンテンツ等様々な映像コンテンツが含まれる。本実施形態では、表示映像と共に番組に関する情報が入力される。以下の実施形態では、VBI(Vertical Blanking Interval)に重畳されたEPG(Electric Program Guide:電子番組表)が入力される場合について例示する。なお、番組に関する情報はこれに限られるものではなく、Gコード、インターネットから取得できる番組情報、または電子指紋などであってもよい。   The display device 200 includes a video processing unit 100 and a display unit 210. The display video input to the display device 200 includes various video content such as TV program content transmitted by television broadcasting and video content distributed on the Internet. In this embodiment, information related to the program is input together with the display video. In the following embodiment, a case where an EPG (Electric Program Guide) superimposed on a VBI (Vertical Blanking Interval) is input will be exemplified. In addition, the information regarding a program is not restricted to this, A G code, the program information which can be acquired from the internet, or an electronic fingerprint may be sufficient.

表示部210は、映像コンテンツを、たとえば立体映像として表示を行う。なお、表示部210は立体映像の表示だけでなく、2次元画像を表示可能なものであってもよい。表示部201は、生成部104が生成した表示映像を表示する。   The display unit 210 displays the video content as, for example, a stereoscopic video. The display unit 210 may be capable of displaying not only a stereoscopic video but also a two-dimensional image. The display unit 201 displays the display video generated by the generation unit 104.

映像処理部100は、映像コンテンツから、その表示映像の属性に関する属性情報を取得する取得部101と、表示映像を表示する際の立体感を制御するパラメータ情報を属性情報に基づいて設定する選択部102と、パラメータ情報が記憶された記憶部103と、映像コンテンツに対してパラメータ情報に従って表示映像の立体感を調整した映像を生成する生成部104を有する。   The video processing unit 100 acquires attribute information related to the attribute of the display video from the video content, and a selection unit that sets parameter information for controlling stereoscopic effect when displaying the display video based on the attribute information. 102, a storage unit 103 in which parameter information is stored, and a generation unit 104 that generates a video in which the stereoscopic effect of the display video is adjusted according to the parameter information for the video content.

取得部101は、映像コンテンツおよびEPGを含む放送受信信号を受け取ると、放送受信信号中のEPGを抽出して、表示映像の番組に関する属性情報を取得する。属性情報として、例えば、番組のジャンル、放送時間帯、チャンネル、出演者、キーワードの情報を取得する。取得部101の詳細な構成については図2を用いて後述する。EPG以外のGコード、インターネットから取得できる番組情報、または電子指紋などが入力された場合には、それらの信号(放送受信信号)から、属性情報を取得しても構わない。EPGから属性情報を取得する場合、例えば、放送受信信号からスライサー(図示しない)によって抽出されたEPGより、取得部101がジャンル、時間帯、チャンネル等の解析を行うことで番組に関する情報を取得する。取得した、番組に関する情報と対応する属性情報を求める。例えば、番組に関する情報(例えばタイトル、詳細情報に含まれるキーワード)と属性情報の対応付けをあらかじめ定めておくものであってもよい。   When receiving the broadcast reception signal including the video content and the EPG, the acquisition unit 101 extracts the EPG in the broadcast reception signal and acquires the attribute information regarding the program of the display video. As attribute information, for example, program genre, broadcast time zone, channel, performer, and keyword information are acquired. The detailed configuration of the acquisition unit 101 will be described later with reference to FIG. When a G code other than EPG, program information that can be acquired from the Internet, or an electronic fingerprint is input, attribute information may be acquired from those signals (broadcast reception signals). When acquiring attribute information from an EPG, for example, the acquisition unit 101 acquires information about a program by analyzing a genre, a time zone, a channel, and the like from an EPG extracted from a broadcast reception signal by a slicer (not shown). . The obtained attribute information corresponding to the information about the program is obtained. For example, the association between information about a program (for example, a keyword included in a title and detailed information) and attribute information may be determined in advance.

記憶部103には、属性情報と対応付けて、表示映像を表示する際のパラメータ情報が記憶されている。パラメータ情報として、本実施形態では視差量が記憶されている例について述べる。それ以外に、視域、視点数、飛び出し量等を記憶しておく構成であっても構わない。なお、記憶部103は、データを格納することが出来るものであれば、HDD、CD−ROM、ハードディスク、メモリカード、ROM、パンチカード、テープ等のどのような方法であっても構わない。また、ネットワークを介して接続されるものであっても構わない。   The storage unit 103 stores parameter information for displaying the display video in association with the attribute information. In the present embodiment, an example in which the parallax amount is stored as parameter information will be described. In addition, a configuration may be used in which the viewing zone, the number of viewpoints, the pop-out amount, and the like are stored. The storage unit 103 may be any method such as an HDD, a CD-ROM, a hard disk, a memory card, a ROM, a punch card, and a tape as long as it can store data. Further, it may be connected via a network.

選択部102は、表示映像の属性情報と対応して記憶部103に記憶されたパラメータ情報を選択し、パラメータ情報に設定する。本実施形態では、視差量の変換を行うためのパラメータ情報を生成部104に送る。   The selection unit 102 selects the parameter information stored in the storage unit 103 corresponding to the attribute information of the display video, and sets the parameter information. In the present embodiment, parameter information for converting the amount of parallax is sent to the generation unit 104.

生成部104には、映像コンテンツとともにパラメータ情報が供給される。生成部104は、選択部103が設定したパラメータ情報に基づいて、表示映像の視差量を調整した立体映像を生成する。例えば、入力された映像が、立体映像の場合には、そのどちらか一方又は双方の視差量を調整する。また、外部からは1枚の2次元映像が供給されて、生成部104が当該2次元画像から奥行き値を推定することで両眼視差のある異なる視点の複数画像を生成する方法であっても構わない。その際には、選択部102が設定したパラメータ情報に従って立体映像は生成される。   The parameter information is supplied to the generation unit 104 together with the video content. The generation unit 104 generates a stereoscopic video in which the parallax amount of the display video is adjusted based on the parameter information set by the selection unit 103. For example, when the input video is a stereoscopic video, the parallax amount of either one or both is adjusted. In addition, even when a single 2D video is supplied from the outside, and the generation unit 104 estimates a depth value from the 2D image, the method generates multiple images from different viewpoints with binocular parallax. I do not care. At that time, a stereoscopic video is generated according to the parameter information set by the selection unit 102.

図2は、記憶部103に記憶された属性情報と、パラメータ情報との対応を例示する図である。図2に示す例では、パラメータ情報として、最大視差量を設定するものを示す。図2(a)は、属性情報が番組のジャンルである例を示す。図2(b)は、属性情報が放送時間帯である例を示す。図2(c)は、属性情報がチャンネルである例を示す。選択部102は、記憶部103を参照し、EPGから抽出された属性情報(例えば放送番組のジャンル、時間帯、チャンネル等)と対応するパラメータ情報(例えば、最大視差量)を選択する。   FIG. 2 is a diagram illustrating the correspondence between the attribute information stored in the storage unit 103 and the parameter information. In the example shown in FIG. 2, the parameter information that sets the maximum parallax amount is shown. FIG. 2A shows an example in which the attribute information is a program genre. FIG. 2B shows an example in which the attribute information is a broadcast time zone. FIG. 2C shows an example in which the attribute information is a channel. The selection unit 102 refers to the storage unit 103 and selects parameter information (for example, the maximum amount of parallax) corresponding to the attribute information extracted from the EPG (for example, the genre, time zone, channel, etc. of the broadcast program).

図2(a)は、放送番組のジャンルと視差量を対応つけたテーブルである。例えば、子供向け番組や教育番組は子供が視聴する可能性が高いので、視差量は小さく設定することが望ましい。なぜなら、子供は大人に比べ眼間距離が狭いため、同じ視差量でも大人に比べ子供の方が立体感が大きくなるからである。図2(b)は、放送時間帯と視差量を対応つけたテーブルである。時間帯によって、眼の疲労回復能力が異なることが知られている。一般的に夜は体全体の疲労蓄積により、眼の疲労回復能力も鈍いと報告されている。そのため、例えば夜の時間帯の番組に関しては、視差量を小さく設定することが望ましい。図2(c)は、放送番組のチャンネルと視差量を対応付けたテーブルである。チャンネルによって、番組ジャンルの傾向があらわれると考えられる。そのため、チャンネルと視差量を対応つけるのも有効な方法である。   FIG. 2A is a table in which broadcast program genres are associated with parallax amounts. For example, since the program for children and educational programs are likely to be viewed by children, it is desirable to set the parallax amount small. This is because the distance between the eyes of a child is narrower than that of an adult, and the stereoscopic effect of the child is larger than that of an adult even with the same amount of parallax. FIG. 2B is a table in which the broadcast time zone is associated with the amount of parallax. It is known that the eye fatigue recovery ability varies depending on the time of day. In general, it has been reported that at night, the fatigue recovery ability of the eye is dull due to fatigue accumulation throughout the body. Therefore, for example, it is desirable to set a small amount of parallax for a program in the night time zone. FIG. 2C is a table in which channels of broadcast programs are associated with parallax amounts. Depending on the channel, the trend of the program genre appears. Therefore, associating channels with parallax amounts is also an effective method.

次に、図2で例示した最大視差量を用いた視差量設定方法について説明する。例えば、記憶部103には、画素ごとの相対的な視差量が保持されているとする。相対的な視差量とは、奥行き位置が画面位置である場合を視差量ゼロとした場合の視差量の大きさを示す。以下、画面位置よりも手前の場合の視差量を負の値、奥の場合の視差量を正の値で表して説明する。最大視差量は、飛び出し・奥行きの限界値を示している。例えば、最大視差量が10の場合には、飛び出し限界位置の視差量は−10、奥行き限界位置の視差量は+10となる。そして、相対最大視差量が最大視差量となるように、全体的に相対補正量を正規化する。図3は、正規化の前後で視差量の変化を例示する図である。記憶部103に保存する最大視差量は、手前側・奥側で等しい値とし絶対値を保存する構成について説明したが、手前側・奥側で異なった最大視差量を設定してもよい。   Next, a parallax amount setting method using the maximum parallax amount illustrated in FIG. 2 will be described. For example, it is assumed that the storage unit 103 holds a relative amount of parallax for each pixel. The relative amount of parallax indicates the amount of parallax when the depth position is the screen position and the amount of parallax is zero. In the following description, the parallax amount in front of the screen position is expressed as a negative value, and the parallax amount in the rear is expressed as a positive value. The maximum amount of parallax indicates the limit value of pop-out / depth. For example, when the maximum parallax amount is 10, the parallax amount at the pop-out limit position is −10, and the parallax amount at the depth limit position is +10. Then, the relative correction amount is normalized as a whole so that the relative maximum parallax amount becomes the maximum parallax amount. FIG. 3 is a diagram illustrating a change in the amount of parallax before and after normalization. The maximum parallax amount to be stored in the storage unit 103 has been described as a configuration in which the absolute value is stored with the same value on the near side and the far side, but different maximum parallax amounts may be set on the near side and the far side.

なお、記憶部103に保存するのは、最大視差量以外のものであっても構わない。   Note that what is stored in the storage unit 103 may be other than the maximum amount of parallax.

図4は、視差量の調整前後の奥行き位置の関係を示す図である。図4(a)は、番組情報にゲイン定数が対応付けられている例について述べる。ゲイン定数とは、画素毎に設定された視差量に対して積算する定数を意味する。ゲイン定数により、飛び出し・奥行き範囲を拡大もしくは縮小することができる。例えば、放送時間帯が夜の番組においては、ゲイン定数を1以下と設定することにより、全体的に飛び出し・奥行き感を弱めることが可能である。   FIG. 4 is a diagram illustrating a relationship between depth positions before and after adjustment of the parallax amount. FIG. 4A describes an example in which a gain constant is associated with program information. The gain constant means a constant that is integrated with respect to the parallax amount set for each pixel. Depending on the gain constant, the pop-out / depth range can be expanded or reduced. For example, in a program in which the broadcast time zone is night, setting the gain constant to 1 or less makes it possible to reduce the overall pop-out / depth feeling.

図4(b)は番組情報に対応づけてオフセット量を用いる例について示す。オフセット量とは、画素毎に設定された視差量に対して加算する定数を意味し、オフセット量により、飛び出し・奥行き範囲を前後にシフトさせることができる。例えば、飛び出させるよりも、奥まらせる方が、輻輳角が小さくなる。そのため、目が疲れにくいということが報告されている。そのため、放送時間帯が夜の番組においては、オフセット量を正の値で設定することにより、全体的に飛び出し・奥行き範囲を奥側にシフトさせることができる。   FIG. 4B shows an example in which an offset amount is used in association with program information. The offset amount means a constant added to the parallax amount set for each pixel, and the pop-out / depth range can be shifted back and forth by the offset amount. For example, the vergence angle is smaller when the inner side is deeper than when the outer side is jumped out. For this reason, it has been reported that the eyes are less tired. Therefore, in a program in which the broadcast time zone is night, the pop-out / depth range can be shifted to the far side as a whole by setting the offset amount to a positive value.

また、視差量をフレーム間で大きく変更することによって、目が疲れるということが報告されている。フレームごとに視差量テーブルで視差量を設定した後、フレーム間でそれら視差量が大きく変動する画素がないように、時間方向にフィルタをかけることによって、変動が小さくなるように調整を行うことが好ましい。   Further, it has been reported that the eyes get tired when the amount of parallax is changed greatly between frames. After setting the amount of parallax in the parallax amount table for each frame, it is possible to make adjustments so that the fluctuation is reduced by filtering in the time direction so that there are no pixels in which the amount of parallax varies greatly between frames. preferable.

また、本実施形態では、番組情報と視差量の対応について、いくつかの例について述べたが、これら例だけに限定されるものではない。例えば、視聴環境や視聴者、視覚特性に基づき立体感を適宜補正するものであっても構わない。   In this embodiment, some examples of the correspondence between program information and the amount of parallax have been described, but the present invention is not limited to these examples. For example, the stereoscopic effect may be appropriately corrected based on the viewing environment, viewers, and visual characteristics.

(第2の実施形態)
本実施形態は、入力された信号に、属性情報として表示映像を立体表示させるか否かを指示する情報(以下、可否情報と記載)が重畳されている例について示す。これによって、例えば、放送番組の著作権による立体表示の承認の有無に基づき、立体表示を行うことが出来る。本実施形態の映像処理部は、図1の映像処理部100と同様の構成のため図示は省略する。なお、記憶部103は設けられている必要はない。
(Second Embodiment)
The present embodiment shows an example in which information (hereinafter referred to as availability information) indicating whether or not to display a display video as a stereoscopic display is superimposed on the input signal as attribute information. Accordingly, for example, stereoscopic display can be performed based on whether or not the stereoscopic display is approved by the copyright of the broadcast program. Since the video processing unit of the present embodiment has the same configuration as the video processing unit 100 of FIG. Note that the storage unit 103 is not necessarily provided.

取得部101は、入力された放送信号に重畳された放送番組の立体表示の可否情報を取得する。可否情報とは、例えば、その放送番組を立体映像として表示可能か否かを示す情報である。   The acquisition unit 101 acquires information on whether or not a 3D display of a broadcast program superimposed on the input broadcast signal is possible. The availability information is, for example, information indicating whether the broadcast program can be displayed as a stereoscopic video.

選択部102は、取得部より得た可否情報をもとに、視差量を設定する。例えば、立体映像として表示不可の場合には、パラメータ情報として視差量をゼロに設定する。   The selection unit 102 sets the amount of parallax based on the availability information obtained from the acquisition unit. For example, when display is impossible as a stereoscopic video, the parallax amount is set to zero as parameter information.

生成部104は、視差量がゼロの場合には表示部201に2次元画像を送る。   The generation unit 104 sends a two-dimensional image to the display unit 201 when the amount of parallax is zero.

映像処理部100の動作を説明する。放送信号が入力されると、重畳されたEPG情報より放送番組の立体表示の可否情報を抽出し、その可否情報をもとに、もう1視点の映像を作成する際の視差量を設定する。   The operation of the video processing unit 100 will be described. When a broadcast signal is input, information on whether or not a 3D display of a broadcast program can be displayed is extracted from the superimposed EPG information, and a parallax amount for creating another viewpoint video is set based on the information on the availability.

なお、本実施形態では、放送番組の著作権情報を取得するために、放送信号に重畳されたEPG情報を使用する例について述べたが、他の入力情報であっても構わない。例えば、放送信号に重畳されたフラグ情報や、インターネットから取得できる番組情報や、電子指紋などが挙げられる。   In this embodiment, an example in which EPG information superimposed on a broadcast signal is used to acquire copyright information of a broadcast program has been described. However, other input information may be used. For example, flag information superimposed on a broadcast signal, program information that can be acquired from the Internet, electronic fingerprints, and the like can be given.

また、本実施形態では、著作権情報として立体映像としての表示OK/NGかを示す情報の例について述べたが、この例だけに限定されるものではない。著作者が指定した立体感情報なども含まれる。   In this embodiment, an example of information indicating whether display as a stereoscopic video is OK / NG as copyright information has been described. However, the present invention is not limited to this example. 3D information specified by the author is also included.

(第3の実施形態)
本実施形態では、放送番組の所定時間の映像を解析することによって、番組の属性情報を取得し、取得した属性情報に基づき視差量を設定する点が上記の各実施形態とは異なる。映像を解析するタイミングは、例えば放送番組の開始時、または視聴者がチャンネルを変更した時、またはその両方である。
(Third embodiment)
This embodiment is different from the above embodiments in that the attribute information of the program is acquired by analyzing the video of the broadcast program for a predetermined time, and the parallax amount is set based on the acquired attribute information. The timing of analyzing the video is, for example, at the start of a broadcast program or when the viewer changes the channel, or both.

図5は本実施形態の映像処理部300を示す図である。   FIG. 5 is a diagram illustrating the video processing unit 300 of the present embodiment.

取得部301は、番組の所定時間の映像を解析することによって、番組のジャンルを推定する。   The acquisition unit 301 estimates the genre of the program by analyzing the video of the program for a predetermined time.

取得部301は、放送番組の開始タイミングを検出する番組開始検出部801と、視聴者がチャンネルを変更したタイミングを検出するチャンネル検出部802と、所定期間の映像を保持するフレームメモリ803と、所定フレーム分の映像から、放送番組の属性情報を解析する解析部804を有する。   The acquisition unit 301 includes a program start detection unit 801 that detects the start timing of a broadcast program, a channel detection unit 802 that detects the timing when the viewer changes the channel, a frame memory 803 that holds video for a predetermined period, and a predetermined An analysis unit 804 that analyzes attribute information of the broadcast program from the video for the frame is included.

チャンネル検出部802が、入力された信号から番組の開始、または/及び、チャンネルの変更を検出する。解析部804は、フレームメモリ803に保存されている所定期間の映像を解析し、放送番組の属性情報(例えばジャンル)を推定する。そして、推定されたジャンルに基づいて視差量テーブルを参照し、もう1視点の映像を作成する際の視差量を設定する。   A channel detection unit 802 detects the start of a program or / and a channel change from the input signal. The analysis unit 804 analyzes the video of a predetermined period stored in the frame memory 803 and estimates broadcast program attribute information (for example, genre). Then, referring to the parallax amount table based on the estimated genre, the parallax amount at the time of creating another viewpoint video is set.

解析方法としては、例えば映像中に含まれる文字量を検出する手法がある。字幕やテロップの部分は、一般的に視差量を小さくすることが望ましいという知見が報告されている。したがって、文字量の多い番組では、視差量を小さく設定することが望ましいと考えられる。   As an analysis method, for example, there is a method of detecting the amount of characters included in a video. The knowledge that it is generally desirable to reduce the amount of parallax for subtitles and telops has been reported. Therefore, it may be desirable to set a small amount of parallax for a program with a large amount of characters.

なお、本実施形態では、映像を解析した結果得られる被写体情報として、映像中の文字量を使用する例について述べたが、他の被写体の情報であっても構わない。   In this embodiment, the example in which the text amount in the video is used as the subject information obtained as a result of analyzing the video has been described. However, information on other subjects may be used.

100、300 映像処理部
200 表示装置
101、301 取得部
102 選択部
801 番組開始検出部
802 チャンネル検出部
803 フレームメモリ
804 解析部
103 記憶部
104 生成部
100, 300 Video processing unit 200 Display device 101, 301 Acquisition unit 102 Selection unit 801 Program start detection unit 802 Channel detection unit 803 Frame memory 804 Analysis unit 103 Storage unit 104 Generation unit

Claims (11)

表示映像を表示する際の立体感を制御するパラメータ情報を、視聴環境情報に基づいて設定する設定部と、
前記パラメータ情報に従って、前記表示映像の立体感を調整した立体映像を生成する生成部と、
調整された前記立体映像を表示可能な表示部と、を備えることを特徴とする立体映像表示装置。
A setting unit for setting the parameter information for controlling the stereoscopic effect when displaying the display video based on the viewing environment information;
A generating unit that generates a stereoscopic image in which the stereoscopic effect of the display image is adjusted according to the parameter information;
A stereoscopic image display device comprising: a display unit capable of displaying the adjusted stereoscopic image.
前記設定部は、
前記パラメータ情報を、前記視聴環境情報と対応づけて記憶した記憶部と、
前記視聴環境情報に応じて、前記記憶部から前記パラメータ情報を選択する選択部と、を有することを特徴とする請求項1に記載の立体映像表示装置。
The setting unit
A storage unit that stores the parameter information in association with the viewing environment information;
The stereoscopic image display apparatus according to claim 1, further comprising: a selection unit that selects the parameter information from the storage unit according to the viewing environment information.
前記生成部は、前記表示映像から互いに視差のある複数の前記表示映像を前記パラメータ情報に従って生成することを特徴とする請求項1または2に記載の立体映像表示装置。   The stereoscopic image display device according to claim 1, wherein the generation unit generates a plurality of the display images having parallax from the display image according to the parameter information. 前記パラメータ情報は、視差量、視域、視点数および飛び出し量のうちの少なくとも1つを含むことを特徴とする請求項1乃至3のいずれかに記載の立体映像表示装置。   The stereoscopic image display apparatus according to any one of claims 1 to 3, wherein the parameter information includes at least one of a parallax amount, a viewing zone, a viewpoint number, and a pop-out amount. 表示映像を表示する際の立体感を制御するパラメータ情報を、視聴環境情報に基づいて設定する設定部と、
前記パラメータ情報に従って、前記表示映像の立体感を調整した立体映像を生成する生成部と、を備えることを特徴とする映像処理装置。
A setting unit for setting the parameter information for controlling the stereoscopic effect when displaying the display video based on the viewing environment information;
An image processing apparatus comprising: a generation unit configured to generate a stereoscopic image in which the stereoscopic effect of the display image is adjusted according to the parameter information.
前記設定部は、
前記パラメータ情報を、前記視聴環境情報と対応づけて記憶した記憶部と、
前記視聴環境情報に応じて、前記記憶部から前記パラメータ情報を選択する選択部と、を有することを特徴とする請求項5に記載の映像処理装置。
The setting unit
A storage unit that stores the parameter information in association with the viewing environment information;
The video processing apparatus according to claim 5, further comprising: a selection unit that selects the parameter information from the storage unit according to the viewing environment information.
前記生成部は、前記表示映像から互いに視差のある複数の前記表示映像を前記パラメータ情報に従って生成することを特徴とする請求項5または6に記載の映像処理装置。   The video processing apparatus according to claim 5, wherein the generation unit generates a plurality of the display videos having parallax from the display video according to the parameter information. 前記パラメータ情報は、視差量、視域、視点数および飛び出し量のうちの少なくとも1つを含むことを特徴とする請求項5乃至7のいずれかに記載の映像処理装置。   The video processing apparatus according to claim 5, wherein the parameter information includes at least one of a parallax amount, a viewing zone, the number of viewpoints, and a pop-out amount. 表示映像を表示する際の立体感を制御するパラメータ情報を、視聴環境情報に基づいて設定するステップと、
前記パラメータ情報に従って、前記表示映像の立体感を調整した立体映像を生成するステップと、を備えることを特徴とする映像処理方法。
Setting parameter information for controlling stereoscopic effect when displaying a display image based on viewing environment information;
Generating a stereoscopic image in which the stereoscopic effect of the display image is adjusted according to the parameter information.
前記立体映像を生成するステップでは、前記表示映像から互いに視差のある複数の前記表示映像を前記パラメータ情報に従って生成することを特徴とする請求項9に記載の映像処理方法。   The video processing method according to claim 9, wherein in the step of generating the stereoscopic video, a plurality of the display videos having a parallax are generated from the display video according to the parameter information. 前記パラメータ情報は、視差量、視域、視点数および飛び出し量のうちの少なくとも1つを含むことを特徴とする請求項9または10に記載の映像処理方法。   11. The video processing method according to claim 9, wherein the parameter information includes at least one of a parallax amount, a viewing zone, the number of viewpoints, and a pop-out amount.
JP2011054241A 2011-03-11 2011-03-11 Image processor, image processing method and stereoscopic image display device Pending JP2011193463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011054241A JP2011193463A (en) 2011-03-11 2011-03-11 Image processor, image processing method and stereoscopic image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011054241A JP2011193463A (en) 2011-03-11 2011-03-11 Image processor, image processing method and stereoscopic image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010055104A Division JP4951079B2 (en) 2010-03-11 2010-03-11 3D display device, video processing device

Publications (1)

Publication Number Publication Date
JP2011193463A true JP2011193463A (en) 2011-09-29

Family

ID=44797857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011054241A Pending JP2011193463A (en) 2011-03-11 2011-03-11 Image processor, image processing method and stereoscopic image display device

Country Status (1)

Country Link
JP (1) JP2011193463A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262191A (en) * 2005-03-17 2006-09-28 Victor Co Of Japan Ltd Multiple viewpoint solid image display method, multiple viewpoint solid image display unit and multiple viewpoint solid image display program
JP2010045584A (en) * 2008-08-12 2010-02-25 Sony Corp Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262191A (en) * 2005-03-17 2006-09-28 Victor Co Of Japan Ltd Multiple viewpoint solid image display method, multiple viewpoint solid image display unit and multiple viewpoint solid image display program
JP2010045584A (en) * 2008-08-12 2010-02-25 Sony Corp Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium

Similar Documents

Publication Publication Date Title
US10154243B2 (en) Method and apparatus for customizing 3-dimensional effects of stereo content
EP2315450A2 (en) 2D/3D display apparatus and 2D/3D image display method therein
US20110316881A1 (en) Display device
US20100045780A1 (en) Three-dimensional video apparatus and method providing on screen display applied thereto
US20130169543A1 (en) Rendering Apparatuses, Display System and Methods for Rendering Multimedia Data Objects with a Function to Avoid Eye Fatigue
US8933878B2 (en) Display apparatus and display method
US20110181593A1 (en) Image processing apparatus, 3d display apparatus, and image processing method
JP4951079B2 (en) 3D display device, video processing device
JP4908624B1 (en) 3D image signal processing apparatus and method
EP2914003A1 (en) Method and apparatus for processing edge violation phenomenon in multi-view 3dtv service
JP5426593B2 (en) Video processing device, video processing method, and stereoscopic video display device
KR102143472B1 (en) Multi view image processing apparatus and image processing method thereof
JP5500645B2 (en) Video adjustment device, television receiver, and program
US9407901B2 (en) Method of displaying content list using 3D GUI and 3D display apparatus applied to the same
JP5417356B2 (en) Video processing device, video processing method, and stereoscopic video display device
Xu et al. Quality of experience for the horizontal pixel parallax adjustment of stereoscopic 3D videos
JP2011193463A (en) Image processor, image processing method and stereoscopic image display device
JP2011193464A (en) Image processor, image processing method and stereoscopic image display device
US9237334B2 (en) Method and device for controlling subtitle applied to display apparatus
KR101674688B1 (en) A method for displaying a stereoscopic image and stereoscopic image playing device
WO2014199127A1 (en) Stereoscopic image generation with asymmetric level of sharpness
KR20120014701A (en) Method for displaying image and image display device thereof
JP5032694B1 (en) Video processing apparatus and video processing method
KR20110037068A (en) An apparatus for displaying stereoscopic image and a method for controlling video quality
EP2549768A2 (en) 3D display apparatus and content displaying method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130618