JP2010283528A - Video processor and method of controlling the same - Google Patents

Video processor and method of controlling the same Download PDF

Info

Publication number
JP2010283528A
JP2010283528A JP2009134298A JP2009134298A JP2010283528A JP 2010283528 A JP2010283528 A JP 2010283528A JP 2009134298 A JP2009134298 A JP 2009134298A JP 2009134298 A JP2009134298 A JP 2009134298A JP 2010283528 A JP2010283528 A JP 2010283528A
Authority
JP
Japan
Prior art keywords
image
display
video
eye
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009134298A
Other languages
Japanese (ja)
Other versions
JP5185202B2 (en
Inventor
Teruki Yoshikawa
輝樹 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009134298A priority Critical patent/JP5185202B2/en
Priority to US13/322,893 priority patent/US9253429B2/en
Priority to PCT/JP2010/056894 priority patent/WO2010140430A1/en
Priority to KR1020117031254A priority patent/KR101318711B1/en
Priority to CN201080024839.9A priority patent/CN102804756B/en
Publication of JP2010283528A publication Critical patent/JP2010283528A/en
Application granted granted Critical
Publication of JP5185202B2 publication Critical patent/JP5185202B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/007Use of pixel shift techniques, e.g. by mechanical shift of the physical pixels or by optical shift of the perceived pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/046Dealing with screen burn-in prevention or compensation of the effects thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a burn reducing technique for 3D video images. <P>SOLUTION: The video processor for outputting video images to a display having a display area including a first display part for displaying an image for a left eye and a second display part for displaying an image for a right eye includes: a generation means for generating a three-dimensional image for display processed such that the arrangement pattern of the image for the left eye and the image for the right eye matches with the arrangement pattern of the first display part and the second display part in the display area from three-dimensional video images configured as a set of the image for the left eye and the image for the right eye corresponding to the same scene; a video processing means for segmenting a part of the three-dimensional image for the display; and an output means for outputting a partial image segmented by the video processing means to the display. When changing the segmenting position of the partial image, the video processing means segments the partial image from the three-dimensional image for the display so that the arrangement pattern of the image for the left eye and the image for the right eye in the partial image after changing the segmenting position matches with the arrangement pattern of the first display part and the second display part in the display area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像処理装置及び映像処理装置の制御方法に関する。   The present invention relates to a video processing apparatus and a video processing apparatus control method.

現在、3次元(3D)映像の放送(3D放送)が行われている。例えば、デジタル衛星放送のBS11チャンネルでは、1画面の映像を左目用映像と右目用映像とに分割して送信する「サイドバイサイド方式」による3D放送が行われている。また、3D映像の主な表示方式として、「偏光方式」と「アクティブシャッタ方式」とが知られている。   Currently, three-dimensional (3D) video broadcasting (3D broadcasting) is performed. For example, in the BS11 channel of digital satellite broadcasting, 3D broadcasting is performed by a “side-by-side method” in which one-screen video is divided into left-eye video and right-eye video and transmitted. As main display methods for 3D images, a “polarization method” and an “active shutter method” are known.

偏光方式の場合、3D放送の受信装置は、表示パネル上に偏光特性を有するフィルムを持ち、左目用映像と、右目用映像とをインターレース表示する。視聴者は、偏光メガネを装着し、左目用映像の表示ラインを左目で、右目用映像の表示ラインを右目で見ることにより、映像を立体的に認識することができる。   In the case of the polarization method, a 3D broadcast receiving apparatus has a film having polarization characteristics on a display panel, and displays an image for left eye and an image for right eye interlaced. The viewer can recognize the image three-dimensionally by wearing polarized glasses and viewing the left eye image display line with the left eye and the right eye image display line with the right eye.

アクティブシャッタ方式の場合、3D放送の受信装置は、左目用映像と右目用映像とを交互に表示する。視聴者は、液晶シャッタを有するメガネを装着する。メガネは、左目用映像は左目のみに、右目用映像は右目のみに入るように液晶シャッタを制御する。これにより、視聴者は映像を立体的に認識することができる。   In the case of the active shutter system, the 3D broadcast receiving apparatus alternately displays the left-eye video and the right-eye video. The viewer wears glasses having a liquid crystal shutter. The glasses control the liquid crystal shutter so that the left-eye video only enters the left eye and the right-eye video only enters the right eye. Thus, the viewer can recognize the image three-dimensionally.

ところで、表示パネルでは、「焼き付き」と呼ばれる現象が発生する場合がある。焼き付きとは、発光素子を長時間点灯させることにより素子の劣化が進み発光機能が正常に働かなくなる現象である。特に、静止画像や、静止領域の含まれる動画像が長時間に亘って表示される場合には、焼き付きにより画像が残像のように残る場合がある。   Incidentally, a phenomenon called “burn-in” may occur in the display panel. Burn-in is a phenomenon in which the light emitting element is deteriorated by lighting the light emitting element for a long time and the light emitting function does not work normally. In particular, when a still image or a moving image including a still area is displayed for a long time, the image may remain like an afterimage due to burn-in.

このように、焼き付きは発光素子の劣化により発生するものであり、2次元(2D)映像及び3D映像のいずれの場合においても発生し得る。現在、焼き付きの発生を抑制するためのいくつかの技術が知られている。   As described above, image sticking occurs due to deterioration of the light emitting element, and can occur in any of a two-dimensional (2D) image and a 3D image. Currently, several techniques for suppressing the occurrence of burn-in are known.

特許文献1は、入力画像が一定時間変化しない場合に、画像の表示サイズを変更して表示位置を移動させる、いわゆる「画素ずらし」と呼ばれる手法で焼き付きを軽減する技術を開示する。   Patent Document 1 discloses a technique for reducing burn-in by a so-called “pixel shift” method in which the display position is moved by changing the display size of an image when the input image does not change for a certain period of time.

特許文献2は、入力フォーマットを検出し、表示サイズに合わせて補間処理を行うことを開示する。そして、画像の表示位置を水平方向および垂直方向に所定の画素範囲で、所定時間毎に1画素ずつ移動させることにより、画像の移動が視覚的に気になることを軽減しつつ、焼き付きを軽減している。   Patent Document 2 discloses that an input format is detected and interpolation processing is performed in accordance with the display size. Then, by moving the display position of the image horizontally and vertically in a predetermined pixel range by one pixel every predetermined time, it is possible to reduce image burn-in and reduce burn-in. is doing.

特開2000−338947号公報JP 2000-338947 A 特開2004−264366号公報JP 2004-264366 A

特許文献1及び2は、2D映像に対して画素ずらしを適用することを意図したものであり、映像が左目用映像と右目用映像とを含むということを考慮していない。しかしながら、3D映像に対して従来の画素ずらしなどの処理を適用すると、以下の理由により、3D映像の製作者が意図した本来の立体感とは異なる立体感で映像が認識される可能性がある。   Patent Documents 1 and 2 are intended to apply pixel shifting to 2D video, and do not consider that the video includes a left-eye video and a right-eye video. However, when conventional processing such as pixel shifting is applied to 3D video, the video may be recognized with a stereoscopic effect different from the original stereoscopic effect intended by the 3D video producer for the following reasons. .

例えば、偏光方式の場合、左目用映像の画素が右目用映像の画素の位置に移動し、右目用映像の画素が左目用映像の画素の位置に移動すると、左右の視差が反転してしまう。また、アクティブシャッタ方式の場合、左目用映像における画素の移動量と右目用映像における画素の移動量とが異なると、両映像の視差が変化してしまう。3D映像では、左目用映像と右目用映像の視差(両眼視差)が設けられていることで、人間は映像を立体的に認識することができる。しかし、映像設計時に考慮された視差が焼き付き制御により変化してしまうことで、立体映像がぼけてしまったり、場合によっては3Dに見えなくなったりすることが想定される。つまり、従来の焼き付き軽減技術は3D映像における焼き付きの問題について考慮されていなかった。   For example, in the case of the polarization method, when the pixel of the left-eye image moves to the position of the pixel of the right-eye image and the pixel of the right-eye image moves to the position of the pixel of the left-eye image, the left and right parallax are reversed. In the case of the active shutter system, if the amount of pixel movement in the left-eye image is different from the amount of pixel movement in the right-eye image, the parallax between the two images changes. In the 3D video, the parallax (binocular parallax) between the left-eye video and the right-eye video is provided, so that a human can recognize the video three-dimensionally. However, it is assumed that the parallax considered at the time of video design changes due to the burn-in control, so that the stereoscopic video is blurred or invisible in some cases. That is, the conventional burn-in reduction technology has not considered the problem of burn-in in 3D video.

本発明はこのような状況に鑑みてなされたものであり、3D映像用の焼き付き軽減技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to provide a burn-in reduction technique for 3D video.

上記課題を解決するために、本発明は、左目用画像を表示する第1表示部と右目用画像を表示する第2表示部とを含む表示領域を持つ表示装置に映像を出力する映像処理装置であって、同一の場面に対応する1組の左目用画像と右目用画像の集合として構成される3次元映像から、左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように処理された表示用3次元画像を生成する生成手段と、前記表示用3次元画像の一部を切り出す映像処理手段と、前記映像処理手段が切り出した部分画像を前記表示装置に出力する出力手段と、を備え、前記映像処理手段は、前記部分画像の切り出し位置を変更する場合、切り出し位置の変更後の部分画像における左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように、前記表示用3次元画像から前記部分画像を切り出すことを特徴とする映像処理装置を提供する。   In order to solve the above problems, the present invention provides a video processing apparatus that outputs video to a display device having a display area including a first display unit that displays a left-eye image and a second display unit that displays a right-eye image. The arrangement pattern of the left-eye image and the right-eye image is displayed in the display area from the three-dimensional video configured as a set of a left-eye image and a right-eye image corresponding to the same scene. Generating means for generating a display three-dimensional image processed so as to match the arrangement pattern of the display unit and the second display part, video processing means for cutting out a part of the display three-dimensional image, and the video processing means Output means for outputting the partial image cut out to the display device, and the video processing means, when changing the cut-out position of the partial image, the left-eye image and the partial image after the change of the cut-out position. Video processing, wherein the partial image is cut out from the display three-dimensional image so that the arrangement pattern of the right-eye image matches the arrangement pattern of the first display unit and the second display unit in the display region Providing equipment.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the preferred embodiments.

以上の構成により、本発明によれば、3D映像用の焼き付き軽減技術が提供される。   With the above configuration, according to the present invention, a burn-in reduction technique for 3D video is provided.

偏光方式による3D映像を表示する表示パネル101を側面から見た概念図。The conceptual diagram which looked at the display panel 101 which displays 3D image | video by a polarization system from the side. 表示パネル101を正面から見た概念図。The conceptual diagram which looked at the display panel 101 from the front. 実施例1に係る放送受信装置300の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a broadcast receiving apparatus 300 according to Embodiment 1. FIG. 2D用画素ずらしテーブル、及び3D用画素ずらしテーブルの概念図。The conceptual diagram of the pixel shift table for 2D and the pixel shift table for 3D. 放送受信装置300による焼き付き軽減処理を示すフローチャート。5 is a flowchart showing burn-in reduction processing by the broadcast receiving apparatus 300. アクティブシャッタ方式による3D映像表示の概念図。The conceptual diagram of 3D video display by an active shutter system. 実施例2に係る放送受信装置700の概略構成を示すブロック図。FIG. 6 is a block diagram illustrating a schematic configuration of a broadcast receiving apparatus 700 according to a second embodiment. 放送受信装置700による焼き付き軽減処理を示すフローチャート。7 is a flowchart showing burn-in reduction processing by the broadcast receiving apparatus 700. 図8のフローチャートに従って表示開始位置が移動する様子を示す概念図。The conceptual diagram which shows a mode that a display start position moves according to the flowchart of FIG.

以下、添付図面を参照して、本発明の実施例を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施例によって限定されるわけではない。また、実施例の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments. In addition, all combinations of features described in the embodiments are not necessarily essential to the present invention.

以下の各実施例では、本発明の映像処理装置を放送受信装置に適用した場合を説明するが、適用例はこれに限定されず、例えばDVDプレーヤなどの映像再生装置に本発明の映像処理装置を適用することも可能である。   In each of the following embodiments, the case where the video processing apparatus of the present invention is applied to a broadcast receiving apparatus will be described. However, the application example is not limited thereto, and the video processing apparatus of the present invention is applied to a video reproduction apparatus such as a DVD player. It is also possible to apply.

実施例1では、3次元映像(3D映像)の表示方式として偏光方式を使用する場合を説明する。従って、3次元映像は、同一の場面に対応する1組の左目用画像と右目用画像の集合として構成される。図1は、偏光方式による3D映像を表示する表示パネル101を側面から見た概念図である。図2は、表示パネル101を正面から見た概念図である。   In the first embodiment, a case where a polarization method is used as a display method of a three-dimensional image (3D image) will be described. Accordingly, the 3D video is configured as a set of a left-eye image and a right-eye image corresponding to the same scene. FIG. 1 is a conceptual view of a display panel 101 that displays a 3D image by a polarization method as viewed from the side. FIG. 2 is a conceptual diagram of the display panel 101 as viewed from the front.

表示パネル101は、放送受信装置が出力した映像を受信して表示する。表示パネル101は、液晶方式、プラズマ方式、又はSED(Surface-Conduction Electron-emitter Display)方式などの任意の方式により構成される。   The display panel 101 receives and displays the video output from the broadcast receiving device. The display panel 101 is configured by an arbitrary method such as a liquid crystal method, a plasma method, or a surface-conduction electron-emitter display (SED) method.

表示パネル101(表示装置)上には、偏光フィルタ102が貼り付けられている。図2に示すように、偏光フィルタ102は、奇数ライン(L1、L2、...)が左目用表示ライン(第1表示部)となり、偶数ライン(R1、R2、...)が右目用表示ライン(第2表示部)となるように構成される。そのため、左目用画像と右目用画像とがそれぞれ異なる振動方向の光により表示される。視聴者(ユーザ)は、左右の目(図1は片目103のみを示す)でそれぞれ異なる方向の偏光フィルタを使った専用の偏光メガネ104を装着して映像を視聴することにより、映像を3D映像として認識する。   A polarizing filter 102 is affixed on the display panel 101 (display device). As shown in FIG. 2, in the polarizing filter 102, odd-numbered lines (L1, L2,...) Serve as left-eye display lines (first display section), and even-numbered lines (R1, R2,. It is comprised so that it may become a display line (2nd display part). Therefore, the left-eye image and the right-eye image are displayed by light having different vibration directions. The viewer (user) views the video by wearing dedicated polarizing glasses 104 using polarization filters in different directions with the left and right eyes (FIG. 1 shows only one eye 103), thereby viewing the video as a 3D video. Recognize as

図3は、実施例1に係る放送受信装置300の概略構成を示すブロック図である。図3において、CPU301は、ROM302に格納されたプログラムに従って放送受信装置300全体を制御する。   FIG. 3 is a block diagram illustrating a schematic configuration of the broadcast receiving apparatus 300 according to the first embodiment. In FIG. 3, the CPU 301 controls the entire broadcast receiving apparatus 300 according to a program stored in the ROM 302.

RAM303は揮発性メモリであり、CPU301のワークメモリとして使用される、また、各種データの一時記憶エリアとしても使用される。特に、第1メモリエリア304には2D用画素ずらしテーブルが格納され、第2メモリエリア305には3D用画素ずらしテーブルが格納される。   A RAM 303 is a volatile memory, used as a work memory for the CPU 301, and also used as a temporary storage area for various data. In particular, the first memory area 304 stores a 2D pixel shift table, and the second memory area 305 stores a 3D pixel shift table.

図4は、2D用画素ずらしテーブル、及び3D用画素ずらしテーブルの概念図である。各テーブルは、焼き付き軽減トリガ信号(表示位置制御部311の説明と併せて後述)の発生回数(N=1、2、3、...)に対応する映像の表示開始位置(例えば、[1,1])を示す。図4の例では、2D用画素ずらしテーブルは、トリガ信号が発生する度に表示開始位置をx方向又はy方向に1画素ずつ変更する(変更処理)ように構成される。また、3D用画素ずらしテーブルは、トリガ信号が発生する度に表示開始位置をx方向(水平方向)には1画素ずつ、y方向(垂直方向)には2n画素ずつ(nは自然数)変更するように構成される。即ち、各フレームが同一の場面に対応する1組の左目用映像と右目用映像とを水平ライン単位で交互に含む3次元映像に対して画素ずらしを行う場合、表示開始位置は垂直方向については2n(nは自然数)ライン移動する。また、映像フォーマット(2D映像であるか3D映像であるか)に応じた法則で移動を行うことにより、映像の乱れを抑制することができる。   FIG. 4 is a conceptual diagram of a 2D pixel shifting table and a 3D pixel shifting table. Each table displays a video display start position (for example, [1] corresponding to the number of occurrences (N = 1, 2, 3,...) Of the burn-in reduction trigger signal (described later in conjunction with the description of the display position control unit 311). , 1]). In the example of FIG. 4, the 2D pixel shift table is configured to change the display start position pixel by pixel in the x direction or the y direction each time a trigger signal is generated (change process). The 3D pixel shift table changes the display start position by one pixel in the x direction (horizontal direction) and 2n pixels in the y direction (vertical direction) each time a trigger signal is generated (n is a natural number). Configured as follows. That is, when pixel shifting is performed on a three-dimensional image including a pair of left-eye video and right-eye video alternately corresponding to the same scene in each horizontal line, the display start position is in the vertical direction. Move 2n (n is a natural number) lines. In addition, it is possible to suppress the disturbance of the video by moving according to the law according to the video format (whether it is 2D video or 3D video).

なお、テーブルの代わりに、例えば表示開始位置を定める計算式を用いてもよい。また、図4にはトリガ信号の発生回数として4回目(N=4)までしか示されていないが、実際には画素ずらしテーブルは5回目以降のトリガ信号に対応する表示開始位置も保持可能である。しかしながら、4回のトリガ信号を1周期とする場合は、画素ずらしテーブルは4回分のトリガ信号に対応する表示開始位置を保持すれば十分である。   Instead of the table, for example, a calculation formula for determining the display start position may be used. FIG. 4 only shows the number of trigger signals generated up to the fourth (N = 4). Actually, the pixel shift table can also hold the display start positions corresponding to the trigger signals after the fifth. is there. However, when four trigger signals are used as one cycle, it is sufficient for the pixel shift table to hold display start positions corresponding to four trigger signals.

チューナー部306は、アンテナ(不図示)から受信した放送波を復調し、ビデオ及びオーディオのベースバンドデータを出力する。デマルチプレクサ部307は、チューナー部306から受信したデータのフレーム分解を行い、ビデオデータ、オーディオデータ、及び番組情報データを分離する。   The tuner unit 306 demodulates a broadcast wave received from an antenna (not shown) and outputs video and audio baseband data. The demultiplexer unit 307 performs frame decomposition on the data received from the tuner unit 306 and separates video data, audio data, and program information data.

デマルチプレクサ部307で分離されたビデオデータおよびオーディオデータは、デコーダ部308に入力される。デコーダ部308は、MPEG2符号化されたビデオデータを復号して3D映像生成部310に入力する。また、MPEG2−AAC符号化されたオーディオデータを復号してリニアPCM形式に変換し、音声処理部315に入力する。   The video data and audio data separated by the demultiplexer unit 307 are input to the decoder unit 308. The decoder unit 308 decodes the MPEG2-encoded video data and inputs it to the 3D video generation unit 310. Also, the MPEG2-AAC encoded audio data is decoded and converted into a linear PCM format and input to the audio processing unit 315.

デマルチプレクサ部307で分離された番組情報データは、映像判定部309に入力される。番組情報データは、社団法人電波産業会(ARIB)の標準規格「デジタル放送に使用する番組配列情報」等で規定されるデータ構造で伝送される。主な構成データとして、編成チャンネルに関する情報を伝送するSDTと、番組の名称や放送時間や伝送されるコンポーネント種別などの、番組に関する情報を伝送するEITとが含まれる。なお、SDTはService Description Tableの省略形であり、EITは(Event Information Tableの省略形である。   The program information data separated by the demultiplexer unit 307 is input to the video determination unit 309. The program information data is transmitted in a data structure defined by the standard of the Japan Radio Industry Association (ARIB), such as “program arrangement information used for digital broadcasting”. The main configuration data includes SDT that transmits information related to the organization channel, and EIT that transmits information related to the program, such as the program name, broadcast time, and component type to be transmitted. SDT is an abbreviation of Service Description Table, and EIT is an abbreviation of (Event Information Table.

本実施例では、現在規格化されている映像コンポーネント種別(component_type)に3D映像フォーマットが追加定義される。そして、映像判定部309は、デコーダ部308が復号中のビデオデータのフォーマットが2次元映像(2D映像)であるか3D映像であるかを、EITに挿入されるコンポーネント種別に基づいて判定し、判定結果を3D映像生成部310へ通知する。   In this embodiment, a 3D video format is additionally defined in the currently standardized video component type (component_type). The video determination unit 309 determines whether the format of the video data being decoded by the decoder unit 308 is 2D video (2D video) or 3D video based on the component type inserted into the EIT, The determination result is notified to the 3D video generation unit 310.

3D映像生成部310は、映像判定部309から通知された映像フォーマットが3D映像である場合に、デコーダ部308から入力された映像の3D化処理を行う。具体的には、3D映像生成部310は、図2の奇数ラインに左目用画像が表示され、偶数ラインに右目用画像が表示されるように、デコーダ部308から入力された映像を構成するフレーム画像を加工し、解像度変換部313に入力する。映像フォーマットが2D映像である場合は、3D映像生成部310は、デコーダ部308から入力された映像を加工せずに解像度変換部313に入力する。なお、本発明の実施例としては、映像とは、複数の画像を時間方向に順次表示するものとして定義する。従って、解像度変換や表示位置の切り出し処理は、映像に対して行うものではなく、映像を構成する各画像に対してそれぞれ実行するものである。   When the video format notified from the video determination unit 309 is a 3D video, the 3D video generation unit 310 performs 3D processing of the video input from the decoder unit 308. Specifically, the 3D video generation unit 310 configures the frames constituting the video input from the decoder unit 308 so that the left-eye image is displayed on the odd-numbered lines in FIG. 2 and the right-eye image is displayed on the even-numbered lines. The image is processed and input to the resolution conversion unit 313. When the video format is 2D video, the 3D video generation unit 310 inputs the video input from the decoder unit 308 to the resolution conversion unit 313 without processing. As an embodiment of the present invention, a video is defined as one in which a plurality of images are sequentially displayed in the time direction. Therefore, the resolution conversion and the display position cut-out process are not performed on the video, but are performed on each image constituting the video.

表示位置制御部311は、解像度変換部313(後述)で解像度が変換された画像の表示領域(所定領域)を、映像判定部309の判定結果に基づいて決定する。そして、表示位置制御部311は、決定した表示領域から切り出した画像(部分画像)を映像処理部314へ入力する。具体的には、2D映像の場合には第1メモリエリア304に格納されている2D用画素ずらしテーブルを使用し、3D映像の場合には第2メモリエリア305に格納されている3D用画素ずらしテーブルを使用して、映像の表示開始位置を決定する。そして、例えば映像の画像サイズが1920×1080である場合、サイズが1900×1070の画像を表示開始位置から切り出して映像処理部314へ入力する。従って、「画素ずらし」とは、表示パネル101に出力される画像の切り出し領域を表示開始位置に従って移動させる処理として解釈してもよい。もちろん、画像を切り出すことなく、単に表示位置を移動させる処理も画素ずらし処理に相当する。   The display position control unit 311 determines the display area (predetermined area) of the image whose resolution is converted by the resolution conversion unit 313 (described later) based on the determination result of the video determination unit 309. Then, the display position control unit 311 inputs an image (partial image) cut out from the determined display area to the video processing unit 314. Specifically, in the case of 2D video, the 2D pixel shift table stored in the first memory area 304 is used, and in the case of 3D video, the 3D pixel shift stored in the second memory area 305 is used. The display start position of the video is determined using the table. For example, when the image size of the video is 1920 × 1080, an image having a size of 1900 × 1070 is cut out from the display start position and input to the video processing unit 314. Therefore, “pixel shift” may be interpreted as a process of moving the cutout region of the image output to the display panel 101 according to the display start position. Of course, the process of simply moving the display position without cutting out the image corresponds to the pixel shifting process.

フレーム数計測部312は、表示パネルへ出力された映像のフレーム数をカウントし、カウントが所定数に達すると、表示位置制御部311に対して、焼き付き軽減トリガ信号を送信する。表示位置制御部311は、焼き付き軽減トリガ信号を受信すると、映像フォーマットに応じた画素ずらしテーブルに基づき、表示開始位置の更新を行う。   The frame number measurement unit 312 counts the number of frames of video output to the display panel, and transmits a burn-in reduction trigger signal to the display position control unit 311 when the count reaches a predetermined number. When receiving the burn-in reduction trigger signal, the display position control unit 311 updates the display start position based on the pixel shift table corresponding to the video format.

なお、焼き付き軽減トリガ信号の発生条件はフレーム数に限定されない。例えば、前述した番組情報データに基づいてチャンネル変更が検出された場合や、リモコン317などによるユーザ操作に基づくチャンネル切換えが行われた場合などに、トリガ信号が発生してもよい。   The condition for generating the burn-in reduction trigger signal is not limited to the number of frames. For example, a trigger signal may be generated when a channel change is detected based on the program information data described above, or when a channel is switched based on a user operation using the remote controller 317 or the like.

解像度変換部313は、3D映像生成部310から入力された映像に対して、表示パネル101に合わせた解像度変換を施す。こうして、画素ずらし処理の対象となる2D映像又は3D映像が取得される。従って、解像度変換部313は、2D映像又は3D映像を取得可能である。解像度変換部313は、解像度変換がなされた映像を表示位置制御部311へ送出する。   The resolution conversion unit 313 performs resolution conversion according to the display panel 101 on the video input from the 3D video generation unit 310. In this way, 2D video or 3D video to be subjected to pixel shift processing is acquired. Therefore, the resolution conversion unit 313 can acquire 2D video or 3D video. The resolution conversion unit 313 sends the video whose resolution has been converted to the display position control unit 311.

映像処理部314は、表示位置制御部311から入力された画像(部分画像)に対してγ処理等を施した後、例えばLVDS信号等、表示パネル101に合わせた映像データに変換して出力する。   The video processing unit 314 performs γ processing or the like on the image (partial image) input from the display position control unit 311, and then converts the video data to video data suitable for the display panel 101 such as an LVDS signal and outputs the video data. .

音声処理部315は、オーディオデータに対してD/A変換処理等を施し、スピーカ316に出力する。リモコン317は、ユーザ操作に応じて制御信号を赤外線信号として送信する。CPU301は、赤外線受光部318で受光された赤外線信号から、放送受信装置300を制御するための各種コマンドや制御信号を生成して出力する。   The audio processing unit 315 performs D / A conversion processing or the like on the audio data and outputs the audio data to the speaker 316. The remote controller 317 transmits a control signal as an infrared signal in response to a user operation. The CPU 301 generates and outputs various commands and control signals for controlling the broadcast receiving device 300 from the infrared signal received by the infrared light receiving unit 318.

なお、本実例では説明のため、左目用画像を表示パネル101の奇数ラインに表示し、右目用画像を表示パネル101の偶数ラインに表示するものとした(図2参照)。しかしながら、左目用画像及び右目用画像の配置はこれに限定されず、例えば、左目用画像の画素と右目用画像の画素とが市松模様に配置されてもよい。左目用画像及び右目用画像の配置がどのような形態であれ、左目用画像の画素は別の左目用画像の画素の位置へ移動し、右目用画像の画素は別の右目用画像の画素の位置へ移動するように画素ずらしテーブルを作成すれば、所期の効果を達成することができる。換言すれば、表示位置制御部311は、3D映像の左目用画像及び右目用画像の配置パターンが偏光フィルタ102の配置パターンに一致するように3D映像を構成する表示用3次元画像の表示部分、つまり部分画像として切り出される領域を選択する。これにより、3D映像として表示が行われる。そして、焼き付き軽減処理に際しては、左目用画像及び右目用画像の配置パターンが変化しないように部分画像の切り出し位置を移動させる。つまり、切り出し位置の移動後(変更後)も偏光フィルタ102の配置パターンに一致するように移動させるものである。なお、切り出し位置の移動は、本発明においては、必ずしも必要ではない。つまり、表示画像自体の表示位置を変更する処理も可能である。この処理では、表示画面中に画像が表示されない領域、即ち、ブランキング領域が発生することになるが、表示画像が常に同じ位置に表示されることは解消できるため、焼き付きの軽減は図られる。   In this example, for the sake of explanation, the left-eye image is displayed on the odd lines of the display panel 101, and the right-eye image is displayed on the even lines of the display panel 101 (see FIG. 2). However, the arrangement of the left-eye image and the right-eye image is not limited to this. For example, the left-eye image pixels and the right-eye image pixels may be arranged in a checkered pattern. Whatever the arrangement of the left-eye image and the right-eye image, the pixel of the left-eye image moves to the position of the pixel of another left-eye image, and the pixel of the right-eye image is the pixel of another right-eye image. If the pixel shift table is created so as to move to the position, the desired effect can be achieved. In other words, the display position control unit 311 displays the display portion of the 3D image for display that constitutes the 3D image so that the arrangement pattern of the left-eye image and the right-eye image of the 3D image matches the arrangement pattern of the polarization filter 102, That is, an area cut out as a partial image is selected. Thereby, display is performed as a 3D video. In the burn-in reduction process, the cutout position of the partial image is moved so that the arrangement pattern of the left-eye image and the right-eye image does not change. That is, after the cutout position is moved (after change), the cutout position is moved so as to match the arrangement pattern of the polarizing filter 102. Note that the movement of the cutout position is not necessarily required in the present invention. That is, it is possible to change the display position of the display image itself. In this process, an area in which no image is displayed on the display screen, that is, a blanking area is generated. However, since it is possible to eliminate the display image being always displayed at the same position, burn-in can be reduced.

図5は、放送受信装置300による焼き付き軽減処理を示すフローチャートである。前述の焼き付き軽減トリガ信号が発生すると、本フローチャートの処理が開始する。S501で、映像判定部309は、EITのコンポーネント記述子からコンポーネント種別を抽出する。そして、S502で、映像判定部309は、デコーダ部308が復号中のビデオデータの映像フォーマットが2D映像であるか3D映像であるかを判定する。2D映像の場合はS503へ進み、3D映像の場合はS505へ進む。   FIG. 5 is a flowchart showing burn-in reduction processing by the broadcast receiving apparatus 300. When the above-mentioned burn-in reduction trigger signal is generated, the processing of this flowchart is started. In step S501, the video determination unit 309 extracts a component type from the component descriptor of the EIT. In step S502, the video determination unit 309 determines whether the video format of the video data being decoded by the decoder unit 308 is 2D video or 3D video. In the case of 2D video, the process proceeds to S503, and in the case of 3D video, the process proceeds to S505.

S503で、表示位置制御部311は、2D用画素ずらしテーブルをRAM303から読み出す。S504で、表示位置制御部311は、トリガ信号の発生回数(即ち、本フローチャートの現在の処理を開始させたのが何回目のトリガ信号であるか)に基づき、対応する表示開始位置を2D用画素ずらしテーブルから取得する。   In step S <b> 503, the display position control unit 311 reads the 2D pixel shift table from the RAM 303. In step S504, the display position control unit 311 sets the corresponding display start position for 2D based on the number of times the trigger signal is generated (that is, the number of trigger signals that started the current process in the flowchart). Obtained from the pixel shift table.

一方、S505では、表示位置制御部311は、表示位置制御部311は、3D用画素ずらしテーブルをRAM303から読み出す。そしてS506で、表示位置制御部311は、トリガ信号の発生回数に基づき、対応する表示開始位置を3D用画素ずらしテーブルから取得する。   On the other hand, in step S <b> 505, the display position control unit 311 reads the 3D pixel shift table from the RAM 303. In step S506, the display position control unit 311 acquires the corresponding display start position from the 3D pixel shift table based on the number of times the trigger signal is generated.

S507で、表示位置制御部311は、S504又はS506で取得した表示開始位置に基づいて画像を切り出し、映像処理部314へ入力する。   In step S507, the display position control unit 311 cuts out an image based on the display start position acquired in step S504 or S506, and inputs the image to the video processing unit 314.

なお、焼き付き軽減トリガ信号の発生原因を表示位置制御部311が認識可能なように、焼き付き軽減トリガ信号のフォーマットを定義してもよい。この場合、映像フォーマットの種別を判定する処理(S501及びS502)を1度行えば、その後は、発生原因が映像フォーマットの変更を伴う可能性のあるもの(例えば、チャンネル切換え)でない限り、この処理を省略することができる。   The format of the burn-in reduction trigger signal may be defined so that the display position control unit 311 can recognize the cause of the occurrence of the burn-in reduction trigger signal. In this case, once the processing for determining the type of video format (S501 and S502) is performed once, this processing is performed unless the cause of the occurrence is a video format change (for example, channel switching). Can be omitted.

以上説明したように、本実施例によれば、放送受信装置300は、表示パネル101の焼き付きを軽減するために、表示パネル101に出力する映像の領域を移動させる。映像が3D映像である場合、放送受信装置300は、左目用画像の画素は表示パネル101の左目用画像の画素の位置に表示され、右目用画像の画素は表示パネル101の右目用画像の画素の位置に表示されるように、領域の移動を行う。このようにして、3D映像用の焼き付き軽減技術が提供される。   As described above, according to the present embodiment, the broadcast receiving apparatus 300 moves the area of the video output to the display panel 101 in order to reduce the burn-in of the display panel 101. When the video is a 3D video, the broadcast receiving apparatus 300 displays the pixel of the left-eye image at the position of the pixel of the left-eye image of the display panel 101 and the pixel of the right-eye image of the pixel of the right-eye image of the display panel 101. The area is moved so that it is displayed at the position. In this way, a burn-in reduction technique for 3D video is provided.

実施例2では、3D映像の表示方式としてアクティブシャッタ方式を使用する場合を説明する。図6は、アクティブシャッタ方式による3D映像表示の概念図である。図6に示すように、左目用画像(L_t1、L_t3、...)と右目用画像(R_t2、R_t4、...)とが時系列に交互に表示され、両画像の視差により立体感が得られる。   In the second embodiment, a case where an active shutter system is used as a 3D video display system will be described. FIG. 6 is a conceptual diagram of 3D video display by the active shutter method. As shown in FIG. 6, left-eye images (L_t1, L_t3,...) And right-eye images (R_t2, R_t4,...) Are alternately displayed in time series, and the stereoscopic effect is given by the parallax between both images. can get.

図7は、実施例2に係る放送受信装置700の概略構成を示すブロック図である。図7において、放送受信装置300(図3)と同様の構成要素には同一の符号を付し、説明を省略する。   FIG. 7 is a block diagram illustrating a schematic configuration of the broadcast receiving apparatus 700 according to the second embodiment. In FIG. 7, the same components as those of the broadcast receiving apparatus 300 (FIG. 3) are denoted by the same reference numerals, and description thereof is omitted.

デコーダ部701は、左目用画像を復号する第1デコーダ702と、右目用画像をデコードする第2デコーダ703とを有し、デマルチプレクサ部307から入力されたMPEG2符号化されたビデオデータを復号してデコーダ切換え部704に入力する。また、MPEG2−AAC符号化されたオーディオデータを復号してリニアPCM形式に変換し、音声処理部315に入力する。   The decoder unit 701 includes a first decoder 702 that decodes a left-eye image and a second decoder 703 that decodes a right-eye image, and decodes MPEG2-encoded video data input from the demultiplexer unit 307. To the decoder switching unit 704. Also, the MPEG2-AAC encoded audio data is decoded and converted into a linear PCM format and input to the audio processing unit 315.

デコーダ切換え部704は、デコーダ部701から入力された左目用画像と右目用画像とを交互に解像度変換部313へ入力する。このように、2つのデコーダを併用することにより、より高フレームレートで映像を表示することが可能になる。   The decoder switching unit 704 alternately inputs the left-eye image and the right-eye image input from the decoder unit 701 to the resolution conversion unit 313. Thus, by using two decoders together, it becomes possible to display video at a higher frame rate.

表示位置制御部705は、解像度変換部313で解像度が変換された画像の表示領域を、その画像が左目用か右目用か、及び映像判定部309の判定結果に基づいて決定し、決定した表示領域から切り出した部分画像を映像処理部314へ入力する。表示領域の決定に際して、表示位置制御部705は、1組の左目用画像と右目用画像とについて、表示開始位置を一致させる。   The display position control unit 705 determines the display area of the image whose resolution is converted by the resolution conversion unit 313 based on whether the image is for the left eye or the right eye and the determination result of the video determination unit 309, and the determined display The partial image cut out from the area is input to the video processing unit 314. When determining the display area, the display position control unit 705 matches the display start positions of the pair of left-eye images and right-eye images.

メガネ制御部706は、ビデオデータが3D映像である場合に、左目用画像及び右目用画像を交互に表示するタイミングと同期して、左目用画像は左目のみに、右目用画像は右目のみに入るようにメガネ707の液晶シャッタを制御する。   When the video data is 3D video, the glasses control unit 706 enters the left-eye image only in the left eye and the right-eye image only in the right eye in synchronization with the timing of alternately displaying the left-eye image and the right-eye image. Thus, the liquid crystal shutter of the glasses 707 is controlled.

表示パネル708は、実施例1の表示パネル101と異なり、偏光フィルムを持たない。第1メモリエリア709は2D用画素ずらしテーブルを保持し、第2メモリエリア710は3D用画素ずらしテーブルを保持する。但し、実施例1と異なり、1フレームに左目用画像と右目用画像とが混在することがないため、3D用画素ずらしテーブルの設計に際しては偏光フィルムの配置による制約を受けない。   Unlike the display panel 101 of the first embodiment, the display panel 708 does not have a polarizing film. The first memory area 709 holds a 2D pixel shift table, and the second memory area 710 holds a 3D pixel shift table. However, unlike the first embodiment, since the left-eye image and the right-eye image are not mixed in one frame, the design of the 3D pixel shift table is not restricted by the arrangement of the polarizing film.

図8は、放送受信装置700による焼き付き軽減処理を示すフローチャートである。図8において、実施例1(図5)と同様の処理が行われるステップには同一の符号を付し、説明を省略する。焼き付き軽減トリガ信号が発生すると、本フローチャートの処理が開始する。   FIG. 8 is a flowchart showing burn-in reduction processing by the broadcast receiving apparatus 700. In FIG. 8, steps in which processing similar to that in Embodiment 1 (FIG. 5) is performed are denoted by the same reference numerals, and description thereof is omitted. When the burn-in reduction trigger signal is generated, the processing of this flowchart starts.

実施例2では、画素ずらしテーブルは、例えばN={1,2,,,}={[1,1],[7,1],,,}のように、1回のトリガ信号に対して表示開始位置が2画素以上移動するように構成されているものとする。この場合、あるフレームから次のフレームに移る際に表示開始位置を1度に移動させると、その移動が人の目にとまり、映像の乱れとして知覚される可能性がある。そこで、本実施例では、表示位置制御部705は、トリガ信号の発生前の表示開始位置(例えば[1,1])から発生後の表示開始位置(例えば[7,1])へ向かって、何フレームかに亘って表示開始位置を徐々に移動させるものとする。   In the second embodiment, the pixel shift table is generated for a single trigger signal such as N = {1, 2,...} = {[1, 1], [7, 1],. Assume that the display start position is configured to move two or more pixels. In this case, if the display start position is moved at a time when moving from one frame to the next frame, the movement may be perceived by human eyes and perceived as disturbance of the image. Therefore, in this embodiment, the display position control unit 705 moves from the display start position before the trigger signal is generated (for example, [1, 1]) toward the display start position after the generation (for example, [7, 1]). It is assumed that the display start position is gradually moved over several frames.

S801で、表示位置制御部705は、トリガ信号の発生回数に対応する表示開始位置を2D用画素ずらしテーブルから取得し、目標移動位置として設定する。S802で、表示位置制御部705は、表示開始位置を所定単位(例えば、1画素)で移動させる。例えば、移動前の表示開始位置が[1,1]であり目標移動位置が[7,1]である場合、移動後の表示開始位置は[2,1]となる。   In step S <b> 801, the display position control unit 705 acquires a display start position corresponding to the number of trigger signal occurrences from the 2D pixel shift table and sets it as a target movement position. In step S802, the display position control unit 705 moves the display start position by a predetermined unit (for example, one pixel). For example, when the display start position before the movement is [1, 1] and the target movement position is [7, 1], the display start position after the movement is [2, 1].

S803で、表示位置制御部705は、S802で移動した表示開始位置に基づいて画像を切り出し、映像処理部314へ入力する。S804で、表示位置制御部705は、表示開始位置が目標移動位置に到達したか否かを判定する。到達していない場合はS802に戻り、到達した場合は処理を終了する。   In step S803, the display position control unit 705 cuts out an image based on the display start position moved in step S802, and inputs the image to the video processing unit 314. In step S804, the display position control unit 705 determines whether the display start position has reached the target movement position. If not reached, the process returns to S802, and if reached, the process is terminated.

一方、S805では、表示位置制御部705は、トリガ信号の発生回数に対応する表示開始位置を3D用画素ずらしテーブルから取得し、目標移動位置として設定する。S806で、表示位置制御部705は、処理対象の映像が左目用画像であるか否かを判定する。左目用画像であればS807に進み、そうでなければS808に進む。   On the other hand, in step S805, the display position control unit 705 acquires the display start position corresponding to the number of occurrences of the trigger signal from the 3D pixel shift table and sets it as the target movement position. In step S806, the display position control unit 705 determines whether the processing target video is a left-eye image. If it is a left-eye image, the process proceeds to S807, and if not, the process proceeds to S808.

S807で、表示位置制御部705は、表示開始位置を所定単位(例えば、1画素)で移動させる。例えば、移動前の表示開始位置が[1,1]であり目標移動位置が[5,1]である場合、移動後の表示開始位置は[2,1]となる。   In step S807, the display position control unit 705 moves the display start position by a predetermined unit (for example, one pixel). For example, when the display start position before movement is [1, 1] and the target movement position is [5, 1], the display start position after movement is [2, 1].

S808で、表示位置制御部705は、S807で移動した表示開始位置に基づいて画像を切り出し、映像処理部314へ入力する。S809で、表示位置制御部705は、表示開始位置が目標移動位置に到達したか否かを判定する。到達していない場合はS806に戻り、到達した場合は処理を終了する。   In step S808, the display position control unit 705 cuts out an image based on the display start position moved in step S807, and inputs the image to the video processing unit 314. In step S809, the display position control unit 705 determines whether the display start position has reached the target movement position. If not reached, the process returns to S806, and if reached, the process is terminated.

S806〜S809から理解できるように、処理対象の映像が右目用画像である場合は表示開始位置の移動が行われないので、同一の場面に対応する1組の左目用画像及び右目用画像の表示開始位置が一致する。従って、同一の場面に対応する左目用画像と右目用画像とで視差が変化することが防止される。   As can be understood from S806 to S809, since the display start position is not moved when the video to be processed is a right-eye image, a pair of left-eye and right-eye images corresponding to the same scene is displayed. The start position matches. Therefore, the parallax is prevented from changing between the left-eye image and the right-eye image corresponding to the same scene.

図9は、図8のフローチャートに従って表示開始位置が移動する様子を示す概念図である。図9に示されるように、3D映像の場合、同一の場面に対応する1組の左目用画像及び右目用画像(例えば、L_t1及びR_t2)では、表示開始位置が一致している。換言すれば、同一の場面に対応する1組の左目用画像及び右目用画像が次の1組の左目用画像及び右目用画像に切り替わるタイミング以外のタイミングでは、表示開始位置の移動が行われない。   FIG. 9 is a conceptual diagram showing how the display start position moves according to the flowchart of FIG. As shown in FIG. 9, in the case of 3D video, the display start positions of a pair of left-eye images and right-eye images (for example, L_t1 and R_t2) corresponding to the same scene match. In other words, the display start position is not moved at a timing other than the timing at which one set of left-eye images and right-eye images corresponding to the same scene is switched to the next set of left-eye images and right-eye images. .

なお、3D用画素ずらしテーブルの座標値として移動量を0とすれば、画素ずらし処理の停止を意味する。デコーダ部701においてフレーム間の動きベクトルが大きい場合、映像中の物体の動きが激しいと考えられる。この場合、画素ずらしを適用すると、映像の乱れが顕著に表れ3D効果が低減する。そこで、デコーダ部701では、フレームを複数の領域に分割し、小領域毎に動きベクトルを参照しフレーム内の物体の平均動き量を表示位置制御部705に通知する。   If the movement amount is set to 0 as the coordinate value of the 3D pixel shifting table, it means that the pixel shifting process is stopped. When the motion vector between frames is large in the decoder unit 701, it is considered that the motion of the object in the video is intense. In this case, when pixel shifting is applied, the image is noticeably disturbed and the 3D effect is reduced. Therefore, the decoder unit 701 divides the frame into a plurality of regions, refers to the motion vector for each small region, and notifies the display position control unit 705 of the average motion amount of the object in the frame.

表示位置制御部705では、焼き付き軽減トリガ信号が発生した場合であっても、受信した平均動き量が予め定めている閾値を越える場合は、3D用画素ずらしテーブルの座標値として移動量を0に置き換えて処理する。その結果、3D効果の低減を回避することができる。なお、この場合、映像内の物体自体の動きが大きい為、残像が残るような焼き付きは発生しにくい。   Even if the burn-in reduction trigger signal is generated, the display position control unit 705 sets the movement amount to 0 as the coordinate value of the 3D pixel shift table if the received average motion amount exceeds a predetermined threshold value. Replace and process. As a result, reduction of the 3D effect can be avoided. In this case, since the movement of the object itself in the video is large, the image sticking that causes an afterimage is unlikely to occur.

以上説明したように、本実施例によれば、放送受信装置700は、表示パネル708の焼き付きを軽減するために、表示パネル708に出力する映像の領域を移動させる。映像が3D映像である場合、放送受信装置700は、同一の場面に対応する左目用画像及び右目用画像の表示開始位置が一致するように、領域の移動を行う。従って、同一の場面に対応する左目用画像と右目用画像とで視差が変化することが防止される。このようにして、3D映像用の焼き付き軽減技術が提供される。   As described above, according to the present embodiment, the broadcast receiving apparatus 700 moves the area of the video output to the display panel 708 in order to reduce the burn-in of the display panel 708. When the video is a 3D video, the broadcast receiving apparatus 700 moves the region so that the display start positions of the left-eye image and the right-eye image corresponding to the same scene match. Therefore, the parallax is prevented from changing between the left-eye image and the right-eye image corresponding to the same scene. In this way, a burn-in reduction technique for 3D video is provided.

[その他の実施例]
以上の各実施例で説明した構成要素及び処理は、ハードウェアで実装してもよいし、ソフトウェアで実装してもよいし、その組み合わせで実装してもよい。これらの構成要素及び処理の一部又は全部を実装するソフトウェア(プログラム)、及びこれを格納した記憶媒体も、本発明の範囲に含まれる。
[Other Examples]
The components and processes described in each of the above embodiments may be implemented by hardware, software, or a combination thereof. Software (program) that implements some or all of these components and processes, and a storage medium storing the software are also included in the scope of the present invention.

Claims (5)

左目用画像を表示する第1表示部と右目用画像を表示する第2表示部とを含む表示領域を持つ表示装置に映像を出力する映像処理装置であって、
同一の場面に対応する1組の左目用画像と右目用画像の集合として構成される3次元映像から、左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように処理された表示用3次元画像を生成する生成手段と、
前記表示用3次元画像の一部を切り出す映像処理手段と、
前記映像処理手段が切り出した部分画像を前記表示装置に出力する出力手段と、を備え、
前記映像処理手段は、前記部分画像の切り出し位置を変更する場合、切り出し位置の変更後の部分画像における左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように、前記表示用3次元画像から前記部分画像を切り出すことを特徴とする映像処理装置。
A video processing device that outputs video to a display device having a display area including a first display unit that displays a left-eye image and a second display unit that displays a right-eye image,
From a 3D image configured as a set of a left-eye image and a right-eye image corresponding to the same scene, an arrangement pattern of the left-eye image and the right-eye image is the first display unit and the first eye in the display area. Generating means for generating a display three-dimensional image processed so as to match the arrangement pattern of the two display units;
Video processing means for cutting out a part of the three-dimensional image for display;
Output means for outputting the partial image cut out by the video processing means to the display device,
When the video processing means changes the cut-out position of the partial image, the arrangement pattern of the left-eye image and the right-eye image in the partial image after the change of the cut-out position is the first display unit and the second display pattern in the display area. An image processing apparatus, wherein the partial image is cut out from the display three-dimensional image so as to match an arrangement pattern of a display unit.
前記表示領域は、前記第1表示部と前記第2表示部とが水平ライン単位で交互に設けられており、
前記映像処理手段は、前記切り出し位置を、垂直方向については2n(nは自然数)ライン移動させる
ことを特徴とする請求項1に記載の映像処理装置。
In the display area, the first display unit and the second display unit are alternately provided in units of horizontal lines,
The video processing apparatus according to claim 1, wherein the video processing unit moves the cutout position by 2n lines (n is a natural number) in the vertical direction.
表示装置に映像を出力する映像処理装置であって、
同一の場面に対応する1組の左目用画像と右目用画像とを時系列に交互に含む3次元映像を取得する取得手段と、
前記取得した3次元映像から、前記左目用画像及び前記右目用画像それぞれの画像の一部を切り出す映像処理手段と、
前記映像処理手段が切り出した部分画像を前記表示装置に出力する出力手段と、
を備え、
前記映像処理手段は、前記部分画像の切り出し位置を変更する処理を実行し、
前記映像処理手段は、前記切り出し位置の変更処理を、前記3次元映像において同一の場面に対応する1組の左目用画像と右目用画像とが次の1組の左目用画像と右目用画像とに切り替わるタイミング以外のタイミングでは行わないように制御することを特徴とする映像処理装置。
A video processing device that outputs video to a display device,
Acquisition means for acquiring a three-dimensional image alternately including a set of left-eye images and right-eye images corresponding to the same scene in time series;
Video processing means for cutting out a part of each of the left-eye image and the right-eye image from the acquired three-dimensional video;
Output means for outputting the partial image cut out by the video processing means to the display device;
With
The video processing means executes a process of changing the cutout position of the partial image,
The video processing means performs the cut-out position changing process by combining a set of left-eye images and a right-eye image corresponding to the same scene in the 3D video, and a next set of left-eye images and right-eye images. The video processing apparatus is controlled so as not to be performed at a timing other than the timing of switching to.
左目用映像を表示する第1表示部と右目用映像を表示する第2表示部とを含む表示領域を持つ表示装置に映像を出力する映像処理装置の制御方法であって、
生成手段が、同一の場面に対応する1組の左目用画像と右目用画像の集合として構成される3次元映像から、左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように処理された表示用3次元画像を生成する生成工程と、
映像処理手段が、前記表示用3次元画像の一部を切り出す映像処理工程と、
出力手段が、前記映像処理工程において前記映像処理手段が切り出した部分画像を前記表示装置に出力する出力工程と、を備え、
前記映像処理工程において、前記映像処理手段は、前記部分画像の切り出し位置を変更する場合、切り出し位置の変更後の部分画像における左目用画像及び右目用画像の配置パターンが前記表示領域における前記第1表示部及び前記第2表示部の配置パターンに一致するように、前記表示用3次元画像から前記部分画像を切り出すことを特徴とする制御方法。
A control method for a video processing apparatus that outputs video to a display device having a display area including a first display unit that displays a left-eye video and a second display unit that displays a right-eye video,
An arrangement pattern of the left-eye image and the right-eye image is displayed in the display area from the three-dimensional video configured as a set of the left-eye image and the right-eye image corresponding to the same scene. Generating a display three-dimensional image processed so as to match the arrangement pattern of the second display unit and the second display unit;
A video processing step in which video processing means cuts out a part of the display three-dimensional image;
An output unit comprising: an output step of outputting a partial image cut out by the video processing unit in the video processing step to the display device;
In the video processing step, when the video processing means changes the cut-out position of the partial image, the arrangement pattern of the left-eye image and the right-eye image in the partial image after the change of the cut-out position is the first pattern in the display area. A control method, wherein the partial image is cut out from the display three-dimensional image so as to match an arrangement pattern of a display unit and the second display unit.
表示装置に映像を出力する映像処理装置の制御方法であって、
取得手段が、同一の場面に対応する1組の左目用画像と右目用画像とを時系列に交互に含む3次元映像を取得する取得工程と、
映像処理手段が、前記取得した3次元映像から、前記左目用画像及び前記右目用画像それぞれの画像の一部を切り出す映像処理工程と、
出力手段が、前記映像処理工程において前記映像処理手段が切り出した部分画像を前記表示装置に出力する出力工程と、
を備え、
前記映像処理工程において、前記映像処理手段は、前記部分画像の切り出し位置を変更する処理を実行し、
前記映像処理工程において、前記映像処理手段は、前記切り出し位置の変更処理を、前記3次元映像において同一の場面に対応する1組の左目用画像と右目用画像とが次の1組の左目用画像と右目用画像とに切り替わるタイミング以外のタイミングでは行わないように制御することを特徴とする制御方法。
A control method of a video processing device that outputs video to a display device,
An acquisition step in which the acquisition means acquires a three-dimensional image including a pair of left-eye images and right-eye images corresponding to the same scene alternately in time series;
A video processing means for cutting out a part of each of the left-eye image and the right-eye image from the acquired three-dimensional video;
An output unit that outputs to the display device a partial image cut out by the video processing unit in the video processing step;
With
In the video processing step, the video processing means executes a process of changing a cutout position of the partial image,
In the video processing step, the video processing means performs the cut-out position changing process by using a set of left-eye images and a right-eye image corresponding to the same scene in the 3D video as a next set of left-eye images. A control method comprising performing control so as not to be performed at a timing other than a timing of switching between an image and a right-eye image.
JP2009134298A 2009-06-03 2009-06-03 Image processing apparatus and image processing apparatus control method Expired - Fee Related JP5185202B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009134298A JP5185202B2 (en) 2009-06-03 2009-06-03 Image processing apparatus and image processing apparatus control method
US13/322,893 US9253429B2 (en) 2009-06-03 2010-04-13 Video image processing apparatus and method for controlling video image processing apparatus
PCT/JP2010/056894 WO2010140430A1 (en) 2009-06-03 2010-04-13 Video image processing apparatus and method for controlling video image processing apparatus
KR1020117031254A KR101318711B1 (en) 2009-06-03 2010-04-13 Video image processing apparatus and method for controlling video image processing apparatus
CN201080024839.9A CN102804756B (en) 2009-06-03 2010-04-13 Video image processing apparatus and method for controlling video image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009134298A JP5185202B2 (en) 2009-06-03 2009-06-03 Image processing apparatus and image processing apparatus control method

Publications (2)

Publication Number Publication Date
JP2010283528A true JP2010283528A (en) 2010-12-16
JP5185202B2 JP5185202B2 (en) 2013-04-17

Family

ID=42269842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009134298A Expired - Fee Related JP5185202B2 (en) 2009-06-03 2009-06-03 Image processing apparatus and image processing apparatus control method

Country Status (5)

Country Link
US (1) US9253429B2 (en)
JP (1) JP5185202B2 (en)
KR (1) KR101318711B1 (en)
CN (1) CN102804756B (en)
WO (1) WO2010140430A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160132170A (en) * 2015-05-06 2016-11-17 삼성디스플레이 주식회사 Image corrector, display device including the same and method for displaying image using display device
JP2017072828A (en) * 2015-10-05 2017-04-13 パナソニックIpマネジメント株式会社 Projection type image display device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9049426B2 (en) * 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
KR101479435B1 (en) * 2010-12-10 2015-01-05 후지쯔 가부시끼가이샤 3d moving image creation device, and 3d moving image creation method
JP2013044913A (en) * 2011-08-24 2013-03-04 Sony Corp Display device and display control method
CN104811678A (en) * 2014-01-23 2015-07-29 电信科学技术研究院 Method and device for carrying out video playing
US9654693B2 (en) * 2014-10-29 2017-05-16 Gvbb Holdings S.A.R.L. Degradation control of display pixels for a high definition display
KR102330164B1 (en) 2017-06-08 2021-11-24 엘지전자 주식회사 Digital signage and operating method thereof
JP6791034B2 (en) * 2017-06-16 2020-11-25 株式会社Jvcケンウッド Display system, video processing device, pixel-shifted display device, video processing method, display method, and program
KR102553105B1 (en) 2018-11-01 2023-07-07 삼성전자주식회사 Electronic device controlling position or area of image based on a change of contents of image
JP7379961B2 (en) 2019-09-04 2023-11-15 株式会社Jvcケンウッド Display system and display method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004267442A (en) * 2003-03-07 2004-09-30 Sophia Co Ltd Game machine and image display device
JP2006013913A (en) * 2004-06-25 2006-01-12 Funai Electric Co Ltd Plasma display device
WO2008150111A1 (en) * 2007-06-07 2008-12-11 Enhanced Chip Technology Inc. Format for encoded stereoscopic image data file

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9027881D0 (en) * 1990-12-21 1991-02-13 Delta System Design Ltd Improvements in 3d imaging systems
JP3239541B2 (en) * 1993-07-13 2001-12-17 ソニー株式会社 Stereoscopic television signal generator and stereoscopic video display
KR100358021B1 (en) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 Method of converting 2D image into 3D image and stereoscopic image display system
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
WO1999031599A1 (en) * 1997-12-15 1999-06-24 Insight, Inc. Method for making products having merged images
JP3756014B2 (en) 1999-05-26 2006-03-15 パイオニア株式会社 Image display control apparatus, image display control method, and recording medium recording the control program
US20020009137A1 (en) 2000-02-01 2002-01-24 Nelson John E. Three-dimensional video broadcasting system
JP3685179B2 (en) * 2003-02-20 2005-08-17 ソニー株式会社 Image signal processing apparatus and processing method, and image display apparatus using the same
US20050157171A1 (en) 2004-01-15 2005-07-21 Bowser Todd S. Reducing burn-in associated with mismatched video image/display aspect ratios
EP1679683A1 (en) 2005-01-06 2006-07-12 Thomson Licensing Method and device for protecting display from burn-in effect
US20070096767A1 (en) * 2005-10-28 2007-05-03 Chang-Hung Tsai Method of preventing display panel from burn-in defect
KR101520620B1 (en) * 2008-08-18 2015-05-18 삼성전자주식회사 Method and apparatus for determining a two- or three-dimensional display mode of an image sequence
US9055278B2 (en) * 2009-01-07 2015-06-09 Dolby Laboratories Licensing Corporation Conversion, correction, and other operations related to multiplexed data sets
US20100328428A1 (en) * 2009-06-26 2010-12-30 Booth Jr Lawrence A Optimized stereoscopic visualization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004267442A (en) * 2003-03-07 2004-09-30 Sophia Co Ltd Game machine and image display device
JP2006013913A (en) * 2004-06-25 2006-01-12 Funai Electric Co Ltd Plasma display device
WO2008150111A1 (en) * 2007-06-07 2008-12-11 Enhanced Chip Technology Inc. Format for encoded stereoscopic image data file

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160132170A (en) * 2015-05-06 2016-11-17 삼성디스플레이 주식회사 Image corrector, display device including the same and method for displaying image using display device
KR102320207B1 (en) * 2015-05-06 2021-11-03 삼성디스플레이 주식회사 Image corrector, display device including the same and method for displaying image using display device
JP2017072828A (en) * 2015-10-05 2017-04-13 パナソニックIpマネジメント株式会社 Projection type image display device

Also Published As

Publication number Publication date
CN102804756A (en) 2012-11-28
CN102804756B (en) 2015-07-08
KR20120026574A (en) 2012-03-19
KR101318711B1 (en) 2013-10-16
US20120075438A1 (en) 2012-03-29
WO2010140430A1 (en) 2010-12-09
US9253429B2 (en) 2016-02-02
JP5185202B2 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5185202B2 (en) Image processing apparatus and image processing apparatus control method
US8994795B2 (en) Method for adjusting 3D image quality, 3D display apparatus, 3D glasses, and system for providing 3D image
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
US8994787B2 (en) Video signal processing device and video signal processing method
US20110310099A1 (en) Three-dimensional image processing apparatus and method of controlling the same
JP2010276721A (en) Image display device, image observation glasses, image display control method, and program
US20110141230A1 (en) 3d display device and method for correcting image thereof
JP2013044913A (en) Display device and display control method
JP2011216937A (en) Stereoscopic image display device
JP2011139222A (en) Stereoscopic image processor, tv receiver, and stereoscopic image processing method
JP5505637B2 (en) Stereoscopic display device and display method of stereoscopic display device
JP4908624B1 (en) 3D image signal processing apparatus and method
JP5371727B2 (en) 3D image processing apparatus and control method for 3D image processing apparatus
JP2011211657A (en) Electronic apparatus and image output method
US20130120529A1 (en) Video signal processing device and video signal processing method
JP2012138655A (en) Image processing device and image processing method
JP2014207492A (en) Stereoscopic image display device
JP2010087720A (en) Device and method for signal processing that converts display scanning method
JP5717496B2 (en) Video display device
KR101186573B1 (en) Multivision system and 3-dimensional image reproducing method including multi 3-dimentional image reproducing appparatus
JP2006128842A (en) Stereoscopic video signal generator
US20120257817A1 (en) Image output apparatus
JP2015115676A (en) Display device and image output device
JP2014225736A (en) Image processor
JP2012100028A (en) Image signal processor and image signal processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130117

R151 Written notification of patent or utility model registration

Ref document number: 5185202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees