JP2014137451A - Video processing device, display device, semiconductor device, and video processing method - Google Patents

Video processing device, display device, semiconductor device, and video processing method Download PDF

Info

Publication number
JP2014137451A
JP2014137451A JP2013005458A JP2013005458A JP2014137451A JP 2014137451 A JP2014137451 A JP 2014137451A JP 2013005458 A JP2013005458 A JP 2013005458A JP 2013005458 A JP2013005458 A JP 2013005458A JP 2014137451 A JP2014137451 A JP 2014137451A
Authority
JP
Japan
Prior art keywords
scaler
video data
processing
frames
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013005458A
Other languages
Japanese (ja)
Other versions
JP6171350B2 (en
Inventor
Takashi Yamamoto
貴 山元
Kazuyoshi Kikazawa
和義 氣賀澤
Satoru Nasukawa
悟 奈須川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013005458A priority Critical patent/JP6171350B2/en
Publication of JP2014137451A publication Critical patent/JP2014137451A/en
Application granted granted Critical
Publication of JP6171350B2 publication Critical patent/JP6171350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Television Systems (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To upscale input video data at a higher frame frequency than a frame frequency limited by a scaler.SOLUTION: A video processing circuit 30 of a projector 1 includes: a first scaler and a second scaler that perform upscale processing of supplied video data; a first processing unit that sequentially and alternately supplies input video data having a plurality of continuous frames on the time axis, to the first scaler and second scaler according to the order of frames; and a second processing unit that when the first scaler and second scaler perform the upscale processing of the video data supplied by the first processing unit, outputs video data, which is obtained after the processing, in the order of the frames on the basis of the amount of processing delay in the first scaler and second scaler.

Description

本発明は、映像データをアップスケールする技術に関する。   The present invention relates to a technique for upscaling video data.

高精細パネルを備えたプロジェクターやテレビジョン等の表示装置では、入力された映像データをアップスケールしてから映像を表示する。特許文献1は、HD画像データを記録したパッケージメディアを使用し、インターネットから取得したHD画像データと4K2K画像データとの差分データを用いて、4K2K画像を再生することを開示している。特許文献1に記載の発明では、差分データを生成する際には、互いに異なるアップスケール処理モードの複数のアップスケーラーを用いて、HD画像データをアップスケール処理して4K2Kの解像度とし、4K2K画像データと各アップスケーラーからの画像データとの差分を求めている。   In a display device such as a projector or a television provided with a high-definition panel, the input video data is upscaled and then the video is displayed. Patent Document 1 discloses that a 4K2K image is reproduced using difference data between HD image data acquired from the Internet and 4K2K image data using a package medium on which HD image data is recorded. In the invention described in Patent Document 1, when generating difference data, a plurality of upscalers in different upscale processing modes are used to upscale HD image data to obtain a 4K2K resolution. And the difference between the image data from each upscaler.

特開2010−11154号公報JP 2010-11154 A

映像データをアップスケールするスケーラーでは、入出力の映像データのフレーム周波数が、特定のフレーム周波数に制限されることがある。よって、この種のスケーラーを備える表示装置では、入力映像データよりも低いフレーム周波数の映像データに基づいて、映像を表示しなければならない場合がある。
本発明は、上述した事情に鑑みてなされたもので、その目的の一つは、スケーラーによって制限されるフレーム周波数よりも高いフレーム周波数で、入力映像データをアップスケールするための技術を提供することである。
In a scaler that upscales video data, the frame frequency of input / output video data may be limited to a specific frame frequency. Therefore, in a display device including this type of scaler, it may be necessary to display a video based on video data having a frame frequency lower than that of input video data.
The present invention has been made in view of the above-described circumstances, and one of its purposes is to provide a technique for upscaling input video data at a frame frequency higher than a frame frequency limited by a scaler. It is.

上記目的を達成するために、本発明に係る映像処理装置は、供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーと、時間軸上で連続する複数フレームの入力映像データを、フレームの順番に従って、前記第1スケーラー及び前記第2スケーラーに対して、順次交互に供給する第1処理部と、前記第1スケーラー及び前記第2スケーラーにより、前記第1処理部が供給した映像データの前記アップスケール処理が行われると、当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力する第2処理部とを備える。
本発明によれば、入力映像データを、フレームの順番に従って第1スケーラー及び第2スケーラーに対して順次交互に供給し、各々のスケーラーによるアップスケール処理後の映像データを、入力映像データと同じフレームの順番で出力するので、スケーラーによって制限されるフレーム周波数よりも高いフレーム周波数で、入力映像データをアップスケールすることができる。
In order to achieve the above object, a video processing apparatus according to the present invention includes a first scaler and a second scaler that perform upscaling processing of supplied video data, and input video data of a plurality of frames continuous on a time axis. The first processing unit supplies the first scaler and the second scaler sequentially and sequentially according to the order of the frames, and the video supplied from the first processing unit by the first scaler and the second scaler. A second processing unit that outputs the processed video data in the order of the frames based on processing delay amounts in the first scaler and the second scaler when the data upscaling process is performed; .
According to the present invention, input video data is alternately supplied sequentially to the first scaler and the second scaler according to the order of frames, and the video data after the upscaling processing by each scaler is the same frame as the input video data. Therefore, the input video data can be upscaled at a frame frequency higher than the frame frequency limited by the scaler.

本発明に係る映像処理装置において、前記第1スケーラー及び前記第2スケーラーは、各々、自機における前記処理遅延量を測定し、前記第2処理部は、前記第1スケーラーにより測定された前記処理遅延量と、前記第2スケーラーにより測定された前記処理遅延量との差分に基づいて、前記処理後の映像データを、前記フレームの順番で出力するようにしてもよい。
本発明によれば、自機の処理遅延量を測定する機能を有するスケーラーを用いることにより、第1スケーラー及び第2スケーラーにおいて実測した処理遅延量の差分に基づいて、映像データのフレームの順番を規定することができる。
In the video processing apparatus according to the present invention, each of the first scaler and the second scaler measures the processing delay amount in its own apparatus, and the second processing unit is configured to perform the processing measured by the first scaler. Based on the difference between the delay amount and the processing delay amount measured by the second scaler, the processed video data may be output in the order of the frames.
According to the present invention, by using a scaler having a function of measuring the processing delay amount of its own device, the order of the frames of the video data is changed based on the difference between the processing delay amounts actually measured in the first scaler and the second scaler. Can be prescribed.

本発明に係る映像処理装置において、フレームメモリーを備え、前記第1スケーラーと前記第2スケーラーとの前記処理遅延量の差分が、閾値を超える場合に、前記第2処理部は、前記第1スケーラー及び前記第2スケーラーのうち、前記処理遅延量が小さい一方による前記処理後の映像データを、前記フレームメモリーに格納し、前記差分に応じたタイミングで読み出して出力するようにしてもよい。
本発明によれば、第1スケーラーと第2スケーラーとの処理遅延量の差分が、閾値、例えば、1フレーム分のアップスケール処理による処理遅延量を超える場合であっても、スケーラーによって制限されるフレーム周波数よりも高いフレーム周波数で、入力映像データをアップスケールすることができる。
The video processing apparatus according to the present invention includes a frame memory, and when the difference in the processing delay amount between the first scaler and the second scaler exceeds a threshold, the second processing unit includes the first scaler. In addition, the video data after the processing by one of the second scalers having the small processing delay amount may be stored in the frame memory, and read and output at a timing according to the difference.
According to the present invention, even when the difference in the processing delay amount between the first scaler and the second scaler exceeds a threshold, for example, the processing delay amount due to the upscaling process for one frame, it is limited by the scaler. The input video data can be upscaled at a frame frequency higher than the frame frequency.

本発明に係る映像処理装置において、前記入力映像データは、フレーム周波数が60Hzの1080pの映像データであってもよい。
本発明によれば、入出力のフレーム周波数が例えば30Hzに制限されるスケーラーを用いた場合であっても、フレーム周波数が60Hzである1080pの入力映像データを、フレーム周波数が60Hzの映像データにアップスケールすることができる。
In the video processing apparatus according to the present invention, the input video data may be 1080p video data having a frame frequency of 60 Hz.
According to the present invention, even when a scaler whose input / output frame frequency is limited to, for example, 30 Hz is used, 1080p input video data having a frame frequency of 60 Hz is upgraded to video data having a frame frequency of 60 Hz. Can be scaled.

本発明に係る映像処理装置において、前記処理後の映像データは、4K2Kの映像データであってもよい。
本発明によれば、入出力のフレーム周波数が例えば30Hzに制限されるスケーラーを用いた場合であっても、フレーム周波数が60Hzである1080pの入力映像データを、フレーム周波数が60Hzの4K2Kの映像データにアップスケールすることができる。
In the video processing apparatus according to the present invention, the processed video data may be 4K2K video data.
According to the present invention, even when a scaler whose input / output frame frequency is limited to, for example, 30 Hz is used, 1080p input video data having a frame frequency of 60 Hz is converted into 4K2K video data having a frame frequency of 60 Hz. Can be upscaled.

本発明に係る表示装置は、供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーと、時間軸上で連続する複数フレームの入力映像データを、フレームの順番に従って、前記第1スケーラー及び前記第2スケーラーに対して、順次交互に供給する第1処理部と、前記第1スケーラー及び前記第2スケーラーにより、前記第1処理部が供給した映像データの前記アップスケール処理が行われると、当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力する第2処理部と、前記第2処理部により出力された映像データに基づいて映像を表示する表示部とを備える。
本発明によれば、入力映像データを、フレームの順番に従って第1スケーラー及び第2スケーラーに対して順次交互に供給し、各々のスケーラーによるアップスケール処理後の映像データを、入力映像データと同じフレームの順番で出力するので、スケーラーによって制限されるフレーム周波数よりも高いフレーム周波数で、入力映像データをアップスケールした映像を表示することができる。
In the display device according to the present invention, the first scaler and the second scaler that perform the upscaling process of the supplied video data, and the input video data of a plurality of frames continuous on the time axis according to the order of the frames. The upscaling process of the video data supplied by the first processing unit is performed by the first processing unit that alternately supplies the scaler and the second scaler sequentially, and the first scaler and the second scaler. A second processing unit that outputs the processed video data in the order of the frames based on processing delay amounts in the first scaler and the second scaler, and a video output by the second processing unit And a display unit that displays video based on the data.
According to the present invention, input video data is alternately supplied sequentially to the first scaler and the second scaler according to the order of frames, and the video data after the upscaling processing by each scaler is the same frame as the input video data. Therefore, it is possible to display an image obtained by up-scaling the input video data at a frame frequency higher than the frame frequency limited by the scaler.

なお、本発明は、映像処理装置及び表示装置のほか、半導体装置や映像処理方法としても概念することが可能である。   The present invention can be conceptualized as a semiconductor device and a video processing method in addition to a video processing device and a display device.

本発明の一実施形態に係るプロジェクターの全体構成を示すブロック図。1 is a block diagram showing an overall configuration of a projector according to an embodiment of the invention. 同実施形態に係る映像処理回路のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of the video processing circuit which concerns on the same embodiment. 同実施形態に係る第1処理部の動作の説明図。Explanatory drawing of operation | movement of the 1st process part which concerns on the same embodiment. 同実施形態に係る第1処理部の動作の説明図。Explanatory drawing of operation | movement of the 1st process part which concerns on the same embodiment. 同実施形態に係る第2処理部の動作の説明図。Explanatory drawing of operation | movement of the 2nd process part which concerns on the same embodiment. 処理遅延量が大きい場合の動作不具合の説明図。Explanatory drawing of the operation malfunction when a processing delay amount is large. 映像処理回路のハードウェア構成の他の例を示すブロック図。The block diagram which shows the other example of the hardware constitutions of a video processing circuit. 図7に示す映像処理回路に係る第2処理部の動作の説明図。Explanatory drawing of operation | movement of the 2nd process part which concerns on the video processing circuit shown in FIG.

図1は、本発明の一実施形態に係るプロジェクター1の全体構成を示す図である。図1に示すように、プロジェクター1は、ここでは液晶プロジェクターであり、外部装置からの入力映像データに基づく映像を、スクリーン又は壁面に投写して表示する表示装置である。プロジェクター1は、画像投射部10と、信号入力部20と、映像処理回路30とを備える。   FIG. 1 is a diagram showing an overall configuration of a projector 1 according to an embodiment of the present invention. As shown in FIG. 1, the projector 1 is a liquid crystal projector here, and is a display device that projects and displays an image based on input image data from an external device on a screen or a wall surface. The projector 1 includes an image projection unit 10, a signal input unit 20, and a video processing circuit 30.

画像投射部10は、スクリーンSに画像(映像)を投写する表示部である。画像投射部10は、光源11と、色光分離光学系12と、ライトバルブ13R、13G及び13Bと、色光合成光学系14と、投写光学系15と、液晶駆動回路16とを有する。ライトバルブ13R、13G及び13Bの各々を特に区別する必要のないときには、以下では、単に「ライトバルブ13」と称する。光源11は、投写光の光源であり、超高圧水銀ランプ又はメタルハライドランプ等の光源装置を有する。色光分離光学系12は、光源11から射出した光を、複数の色成分、ここでは、赤(R)、緑(G)、青(B)の3色の色成分に分離する。各色成分に分離された光は、各々対応するライトバルブ13に入射する。   The image projection unit 10 is a display unit that projects an image (video) on the screen S. The image projection unit 10 includes a light source 11, a color light separation optical system 12, light valves 13 R, 13 G, and 13 B, a color light synthesis optical system 14, a projection optical system 15, and a liquid crystal drive circuit 16. When it is not necessary to particularly distinguish each of the light valves 13R, 13G, and 13B, hereinafter, they are simply referred to as “light valves 13”. The light source 11 is a light source for projection light, and includes a light source device such as an ultrahigh pressure mercury lamp or a metal halide lamp. The color light separation optical system 12 separates the light emitted from the light source 11 into a plurality of color components, here, three color components of red (R), green (G), and blue (B). The light separated into each color component is incident on the corresponding light valve 13.

ライトバルブ13は、光変調装置であり、例えば透過型の液晶パネルを有する。液晶パネルにおいて、一対の透明電極間に液晶が封入されている。透明電極のうち一方は、マトリクス状に二次元配置された複数の画素に区分されている。各画素の液晶は、透明電極間に印加される電圧に応じた光学特性(例えば透過率)を示す。ライトバルブ13では、各画素への印加電圧を制御することにより、入射光を画素毎に変調することができる。色光分離光学系12で3つの色成分に分離された光は、ライトバルブ13R、13G及び13Bによって色成分毎に画像が形成される。色光合成光学系14は、ライトバルブ13R、13G、及び13Bによって形成された色成分毎の画像を合成し、カラー画像を形成する。投写光学系15は、色光合成光学系14によって形成されたカラー画像をスクリーンSに投写する装置であり、投写レンズを有する。液晶駆動回路16は、映像処理回路30から入力された映像データに基づいて、ライトバルブ13を駆動する装置である。   The light valve 13 is a light modulation device and includes, for example, a transmissive liquid crystal panel. In a liquid crystal panel, liquid crystal is sealed between a pair of transparent electrodes. One of the transparent electrodes is divided into a plurality of pixels arranged two-dimensionally in a matrix. The liquid crystal of each pixel exhibits optical characteristics (for example, transmittance) according to the voltage applied between the transparent electrodes. In the light valve 13, incident light can be modulated for each pixel by controlling the voltage applied to each pixel. The light separated into three color components by the color light separation optical system 12 forms an image for each color component by the light valves 13R, 13G, and 13B. The color light combining optical system 14 combines the images for each color component formed by the light valves 13R, 13G, and 13B to form a color image. The projection optical system 15 is a device that projects the color image formed by the color light combining optical system 14 onto the screen S, and has a projection lens. The liquid crystal driving circuit 16 is a device that drives the light valve 13 based on the video data input from the video processing circuit 30.

信号入力部20は、外部装置(図示略)から同期信号と入力映像データVid−inとの入力を受け付け、入力を受け付けた同期信号と入力映像データVid−inとを映像処理回路30に出力する。外部装置は、例えば、ビデオ再生装置又はパーソナルコンピューターである。   The signal input unit 20 receives an input of a synchronization signal and input video data Vid-in from an external device (not shown), and outputs the received synchronization signal and input video data Vid-in to the video processing circuit 30. . The external device is, for example, a video playback device or a personal computer.

同期信号は、垂直同期信号VSと、水平同期信号HSと、データイネーブル信号DEとを含む。垂直同期信号VSは、1垂直走査期間を規定する信号である。1垂直走査期間は、ここでは、垂直同期信号VSが立ち上がった後の、立ち下がりエッジにより規定される。水平同期信号HSは、1水平走査期間を規定する信号である。1水平走査期間は、ここでは、水平同期信号HSが立ち上がった後の、立ち下がりエッジにより規定される。データイネーブル信号DEは、入力映像データVid−inが有効か否かを示す信号である。データイネーブル信号DEがHレベルの期間の入力映像データVid−inは、有効であることを示し、データイネーブル信号DEがLレベルの期間の入力映像データVid−inは、無効であることを示す。   The synchronization signal includes a vertical synchronization signal VS, a horizontal synchronization signal HS, and a data enable signal DE. The vertical synchronization signal VS is a signal that defines one vertical scanning period. Here, one vertical scanning period is defined by a falling edge after the vertical synchronization signal VS rises. The horizontal synchronization signal HS is a signal that defines one horizontal scanning period. Here, one horizontal scanning period is defined by a falling edge after the horizontal synchronizing signal HS rises. The data enable signal DE is a signal indicating whether or not the input video data Vid-in is valid. The input video data Vid-in when the data enable signal DE is at the H level indicates that it is valid, and the input video data Vid-in when the data enable signal DE is at the L level indicates that it is invalid.

入力映像データVid−inは、ライトバルブ13が有する複数画素の各画素の階調レベルを指定するデジタルデータ(階調データ)であり、例えば、1画素が3ドットで構成される。よって、入力映像データVid−inは、1画素につき、R成分の階調データ、G成分の階調データ及びB成分の階調データを、各々8ビットのデジタルデータとして含んでいる。入力映像データVid−inは、時間軸上で連続する複数フレームの映像データ(つまり動画を示す映像データ)で構成され、本実施形態では、フレーム周波数が60Hzの1080pの映像データである。ここにおいて、「1080p」とは、1920画素×1080画素、又は、1440画素×1080画素の解像度の画像のことをいう。   The input video data Vid-in is digital data (gradation data) that specifies the gradation level of each pixel of the plurality of pixels included in the light valve 13, and each pixel is composed of, for example, 3 dots. Therefore, the input video data Vid-in includes R component gradation data, G component gradation data, and B component gradation data as 8-bit digital data for each pixel. The input video data Vid-in is composed of video data of a plurality of frames continuous on the time axis (that is, video data indicating a moving image). In the present embodiment, the input video data Vid-in is 1080p video data having a frame frequency of 60 Hz. Here, “1080p” refers to an image having a resolution of 1920 pixels × 1080 pixels or 1440 pixels × 1080 pixels.

映像処理回路30は、信号入力部20から入力された同期信号と入力映像データとに基づいて所定の映像処理を行い、処理後の同期信号と映像データとを、画像投射部10(より具体的には、図1に示す液晶駆動回路16)に出力する映像処理装置である。   The video processing circuit 30 performs predetermined video processing based on the synchronization signal input from the signal input unit 20 and the input video data, and outputs the processed synchronization signal and video data to the image projection unit 10 (more specifically, These are video processing devices that output to the liquid crystal driving circuit 16) shown in FIG.

図2は、映像処理回路30のハードウェア構成を示すブロック図である。図2に示すように、映像処理回路30は、第1処理部31と、第1スケーラー32と、第2スケーラー33と、CPU(Central Processing Unit)34と、第2処理部35とを有する。
第1処理部31は、入力映像データVid−inを、フレームの順番に従って、第1スケーラー32及び第2スケーラー33に対して、順次交互に供給する。第1処理部31は、例えば、FPGA(Field-Programmable Gate Array)で例示されるIC(つまり半導体装置)によって構成される。
FIG. 2 is a block diagram illustrating a hardware configuration of the video processing circuit 30. As shown in FIG. 2, the video processing circuit 30 includes a first processing unit 31, a first scaler 32, a second scaler 33, a CPU (Central Processing Unit) 34, and a second processing unit 35.
The first processing unit 31 alternately supplies the input video data Vid-in sequentially to the first scaler 32 and the second scaler 33 according to the frame order. The first processing unit 31 is configured by an IC (that is, a semiconductor device) exemplified by an FPGA (Field-Programmable Gate Array), for example.

図3は、第1処理部31に入力される各信号の時系列変化を表すタイミングチャートを示す図である。図3に示すように、第1処理部31に入力される垂直同期信号VS、水平同期信号HS及びデータイネーブル信号DEは、複数フレームの各フレームで、信号レベルが「H」となる期間を含んでいる。例えば、垂直同期信号VSは、第1〜第4フレームを含む各垂直走査期間(フレーム)の開始タイミングで、HレベルからLレベルに立ち下がる。ここでは、垂直同期信号VSは、1/60秒毎にHレベルからLレベルに立ち下がる。入力映像データVid−inにおいても、複数フレームの各フレームの映像を表す映像信号を含んでいる。   FIG. 3 is a timing chart showing time-series changes of the signals input to the first processing unit 31. As shown in FIG. 3, the vertical synchronization signal VS, the horizontal synchronization signal HS, and the data enable signal DE input to the first processing unit 31 include a period in which the signal level is “H” in each frame of a plurality of frames. It is out. For example, the vertical synchronization signal VS falls from the H level to the L level at the start timing of each vertical scanning period (frame) including the first to fourth frames. Here, the vertical synchronization signal VS falls from the H level to the L level every 1/60 seconds. The input video data Vid-in also includes a video signal representing a video of each frame of a plurality of frames.

図4は、第1処理部31から供給される各信号の時系列変化を表すタイミングチャートを示す図である。図4に示すように、第1処理部31は、入力された同期信号(つまり、垂直同期信号VS、水平同期信号HS及びデータイネーブル信号DE)及び入力映像データVid−inを、各々、奇数フレームに対応する信号と、偶数フレームに対応する信号とに分離し、分離した信号を互いに異なる系統で供給する。具体的には、第1処理部31は、奇数フレームに対応する信号として、垂直同期信号VS1、水平同期信号HS1、データイネーブル信号DE1及び映像データVid1−aを、第1スケーラー32に対して供給する。第1処理部31は、偶数フレームに対応する信号として、垂直同期信号VS2、水平同期信号HS2、データイネーブル信号DE2及び映像データVid2−aを、第2スケーラー33に対して供給する。   FIG. 4 is a timing chart showing time-series changes of each signal supplied from the first processing unit 31. As shown in FIG. 4, the first processing unit 31 converts the input synchronization signal (that is, the vertical synchronization signal VS, the horizontal synchronization signal HS, and the data enable signal DE) and the input video data Vid-in into odd frames. And signals corresponding to even frames, and the separated signals are supplied by different systems. Specifically, the first processing unit 31 supplies a vertical synchronization signal VS1, a horizontal synchronization signal HS1, a data enable signal DE1, and video data Vid1-a to the first scaler 32 as signals corresponding to odd frames. To do. The first processing unit 31 supplies the second scaler 33 with the vertical synchronization signal VS2, the horizontal synchronization signal HS2, the data enable signal DE2, and the video data Vid2-a as signals corresponding to the even frames.

図4に示すように、垂直同期信号VS1、水平同期信号HS1、データイネーブル信号DE1及び映像データVid1−aは、各々、第1、3、・・・、(2n−1)フレーム(nは1以上の整数。以下同じ。)という奇数フレームに対応する信号を含む。例えば、垂直同期信号VS1は、奇数フレームの開始タイミングのみで、HレベルからLレベルに立ち下がる。すなわち、垂直同期信号VS1は、1/30秒毎に、HレベルからLレベルに立ち下がる。   As shown in FIG. 4, the vertical synchronization signal VS1, the horizontal synchronization signal HS1, the data enable signal DE1, and the video data Vid1-a are respectively in the first, third,..., (2n-1) frames (n is 1). Including the signals corresponding to the odd numbered frames. For example, the vertical synchronization signal VS1 falls from the H level to the L level only at the start timing of the odd frame. That is, the vertical synchronization signal VS1 falls from the H level to the L level every 1/30 seconds.

一方で、垂直同期信号VS2、水平同期信号HS2、データイネーブル信号DE2及び映像データVid2−aは、各々、第2、4、・・・、2nフレームという偶数フレームに対応する信号を含む。例えば、垂直同期信号VS2は、偶数フレームの開始タイミングのみで、HレベルからLレベルに立ち下がる。すなわち、垂直同期信号VS2は、1/30秒毎に、HレベルからLレベルに立ち下がる。
以上のとおり、第1処理部31は、所定のフレーム周波数で入力された信号を、その周波数で時分割し、時分割した信号の供給先を、第1スケーラー32と第2スケーラー33とに交互に切り替えて供給する。よって、第1スケーラー32又は第2スケーラー33に供給される各信号は、フレーム周波数が30Hzの場合の信号と同等である。
On the other hand, each of the vertical synchronization signal VS2, the horizontal synchronization signal HS2, the data enable signal DE2, and the video data Vid2-a includes signals corresponding to even frames of the second, fourth,. For example, the vertical synchronization signal VS2 falls from the H level to the L level only at the start timing of the even frame. That is, the vertical synchronization signal VS2 falls from the H level to the L level every 1/30 seconds.
As described above, the first processing unit 31 time-divides a signal input at a predetermined frame frequency at the frequency, and alternately supplies the time-divided signal supply destination to the first scaler 32 and the second scaler 33. Switch to supply. Therefore, each signal supplied to the first scaler 32 or the second scaler 33 is equivalent to a signal when the frame frequency is 30 Hz.

第1スケーラー32及び第2スケーラー33は、各々、第1処理部31から供給された映像データのアップスケール処理を行うスケーラー(すなわちアップスケーラー)である。第1スケーラー32及び第2スケーラー33は、ここでは、入出力のフレーム周波数が30Hzに制限され、1080pの映像データを4K2Kの映像データにアップスケールする。第1スケーラー32は、映像データVid1−aのアップスケール処理を行って、アップスケール処理後の映像データVid1−bを、第2処理部35に供給する。第2スケーラー33は、映像データVid2−aのアップスケール処理を行って、アップスケール処理後の映像データVid2−bを、第2処理部35に供給する。
ここにおいて、「4K2K」とは、4096画素×2043画素、又は、4096画素×2160画素の解像度の画像のことをいう。また、第1スケーラー32及び第2スケーラー33は、自機で行ったアップスケール処理に応じて、垂直同期信号、水平同期信号及びデータイネーブル信号を含む同期信号を、第2処理部35に供給する(図示略)。第2処理部35に供給される同期信号は、フレーム周波数が30Hzの場合の同期信号に対応している。
The first scaler 32 and the second scaler 33 are each a scaler (that is, an upscaler) that performs an upscaling process on video data supplied from the first processing unit 31. Here, the input / output frame frequency is limited to 30 Hz, and the first scaler 32 and the second scaler 33 upscale 1080p video data to 4K2K video data. The first scaler 32 performs an upscaling process on the video data Vid1-a, and supplies the video data Vid1-b after the upscaling process to the second processing unit 35. The second scaler 33 performs the upscaling process on the video data Vid2-a, and supplies the video data Vid2-b after the upscaling process to the second processing unit 35.
Here, “4K2K” refers to an image having a resolution of 4096 pixels × 2043 pixels or 4096 pixels × 2160 pixels. In addition, the first scaler 32 and the second scaler 33 supply a synchronization signal including a vertical synchronization signal, a horizontal synchronization signal, and a data enable signal to the second processing unit 35 in accordance with the upscaling process performed by itself. (Not shown). The synchronization signal supplied to the second processing unit 35 corresponds to the synchronization signal when the frame frequency is 30 Hz.

第1スケーラー32及び第2スケーラー33は、アップスケール処理以外にも、自機における処理遅延量を測定し、測定した処理遅延量をCPU34に供給する機能を有している。
第1スケーラー32及び第2スケーラー33は、水平同期信号及び垂直同期信号を計測するカウンターを内部に有し、このカウンターを用いて、水平同期信号及び垂直同期信号の周波数を各々計測する。具体的には、第1スケーラー32は、垂直同期信号VS1の供給に同期してカウンターのカウント値をリセットし、この垂直同期信号VS1の供給タイミングを、遅延処理量の測定の基準タイミングとする。そして、第1スケーラー32は、水平同期信号HS1の供給に同期してカウント値を更新し、1フレームの映像データについてアップスケール処理を行ったときのカウント値を、自機における処理遅延量とする。第2スケーラー33においても、第1スケーラー32と同じ方法で、垂直同期信号VS2と水平同期信号HS2とに基づき、自機における処理遅延量を測定する。すなわち、第1スケーラー32及び第2スケーラー33は、自機において1フレームの映像データのアップスケール処理に要する時間を、処理遅延量として測定する。本実施形態では、第1スケーラー32が供給した処理遅延量を「delay1」と表し、第2スケーラー33が供給した処理遅延量を「delay2」と表す。
なお、第1スケーラー32及び第2スケーラー33は、例えば、垂直同期信号が供給される度に、処理遅延量を測定する。この場合、第1スケーラー32及び第2スケーラー33は、毎フレームについて処理遅延量を測定することとなる。
The first scaler 32 and the second scaler 33 have a function of measuring the processing delay amount in the own apparatus and supplying the measured processing delay amount to the CPU 34 in addition to the upscaling process.
The first scaler 32 and the second scaler 33 have a counter for measuring the horizontal synchronizing signal and the vertical synchronizing signal, and measure the frequency of the horizontal synchronizing signal and the vertical synchronizing signal, respectively, using this counter. Specifically, the first scaler 32 resets the count value of the counter in synchronization with the supply of the vertical synchronization signal VS1, and uses the supply timing of the vertical synchronization signal VS1 as the reference timing for measuring the delay processing amount. Then, the first scaler 32 updates the count value in synchronization with the supply of the horizontal synchronization signal HS1, and uses the count value when the upscaling process is performed for one frame of video data as the processing delay amount in its own device. . Also in the second scaler 33, the processing delay amount in the own apparatus is measured based on the vertical synchronization signal VS2 and the horizontal synchronization signal HS2 in the same manner as the first scaler 32. That is, the first scaler 32 and the second scaler 33 measure the time required for the upscaling process of the video data of one frame in the own apparatus as the processing delay amount. In the present embodiment, the processing delay amount supplied by the first scaler 32 is expressed as “delay1”, and the processing delay amount supplied by the second scaler 33 is expressed as “delay2”.
The first scaler 32 and the second scaler 33 measure the processing delay amount each time a vertical synchronization signal is supplied, for example. In this case, the first scaler 32 and the second scaler 33 measure the processing delay amount for each frame.

CPU34は、映像処理回路30の各部を制御する制御回路である。CPU34は、例えば、第1スケーラー32から供給された処理遅延量delay1と、第2スケーラー33から供給された処理遅延量delay2との差分Δdに基づいて、第2処理部35を制御する。CPU34が差分Δdに基づいて行う制御について、詳しくは後述する。
なお、CPU34は、映像処理回路30における他の部分を制御する制御信号も供給するが、図2ではその図示を省略している。
The CPU 34 is a control circuit that controls each part of the video processing circuit 30. For example, the CPU 34 controls the second processing unit 35 based on the difference Δd between the processing delay amount delay 1 supplied from the first scaler 32 and the processing delay amount delay 2 supplied from the second scaler 33. Details of the control performed by the CPU 34 based on the difference Δd will be described later.
The CPU 34 also supplies control signals for controlling other parts of the video processing circuit 30, but the illustration thereof is omitted in FIG. 2.

第2処理部35は、第1スケーラー32及び第2スケーラー33の各々から、アップスケール処理後の映像データVid1−b及びVid2−bが供給されると、供給された映像データVid1−b及びVid2−bを合成した映像データVoを画像投射部10へ出力する出力処理を行う。第2処理部35は、例えば、FPGAで例示されるIC(半導体装置)によって構成される。
具体的には、第2処理部35は、CPU34から供給された差分Δdに基づき、映像データVid1−b及びVid2−bを、入力映像データVid−inにおけるフレームの順番に一致させるように合成して、映像データVoを出力する。映像データVoのフレーム周波数は、入力映像データVid−inと同じ、60Hzである。第2処理部35は、映像データVoと同期して、垂直同期信号VSo、水平同期信号HSo及びデータイネーブル信号DEoを出力する。垂直同期信号VSo、水平同期信号HSo及びデータイネーブル信号DEoは、フレーム周波数が60Hzの場合の信号と同等である。垂直同期信号VSo、水平同期信号HSo、データイネーブル信号DEo及び映像データVoの時系列変化は、各々、垂直同期信号VS、水平同期信号HS、データイネーブル信号DE及び映像データVid−inとは厳密には異なるが、図3に示す時系列変化に近い変化を示す。
When the video data Vid1-b and Vid2-b after the upscaling process are supplied from each of the first scaler 32 and the second scaler 33, the second processing unit 35 receives the supplied video data Vid1-b and Vid2. Output processing for outputting the video data Vo obtained by combining -b to the image projection unit 10 is performed. The second processing unit 35 is configured by, for example, an IC (semiconductor device) exemplified by FPGA.
Specifically, the second processing unit 35 synthesizes the video data Vid1-b and Vid2-b based on the difference Δd supplied from the CPU 34 so as to match the frame order in the input video data Vid-in. Video data Vo is output. The frame frequency of the video data Vo is 60 Hz, which is the same as the input video data Vid-in. The second processing unit 35 outputs a vertical synchronization signal VSo, a horizontal synchronization signal HSo, and a data enable signal DEo in synchronization with the video data Vo. The vertical synchronization signal VSo, the horizontal synchronization signal HSo, and the data enable signal DEo are equivalent to signals when the frame frequency is 60 Hz. The time series changes of the vertical synchronization signal VSo, the horizontal synchronization signal HSo, the data enable signal DEo, and the video data Vo are strictly different from the vertical synchronization signal VS, the horizontal synchronization signal HS, the data enable signal DE, and the video data Vid-in, respectively. Is different, but shows a change close to the time series change shown in FIG.

次に、第2処理部35が差分Δdに基づいて行う映像データVoの出力処理について、図5を参照して説明する。以下、映像データVoの出力処理を説明するが、映像データVoと同期して、垂直同期信号VSo、水平同期信号HSo及びデータイネーブル信号DEoの各信号も、第2処理部35により出力される。   Next, the output process of the video data Vo performed by the second processing unit 35 based on the difference Δd will be described with reference to FIG. Hereinafter, the output processing of the video data Vo will be described. In synchronization with the video data Vo, the vertical processing signal VSo, the horizontal synchronization signal HSo, and the data enable signal DEo are also output by the second processing unit 35.

図5は、第2処理部35により出力される映像データVoの時系列変化を表すタイミングチャートを示す図である。図5に示すように、ここでは、差分Δdが、閾値、つまり1フレームのアップスケール処理による処理遅延量を超えない場合を考える。この場合の差分ΔdをΔd1と表す。差分Δd1は、映像データVid1−b及びVid2−bにおける、1フレーム(ここでは、1/30秒)よりも短い。
この場合、第1スケーラー32からの映像データVid1−bと、第2スケーラー33からの映像データVid2−bとが、フレーム毎に、第2処理部35に順次交互に供給される。よって、第2処理部35は、第1スケーラー32から供給された映像データVid1−bと、第2スケーラー33から供給された映像データVid2−bとを、自機に供給された順番に従って順次出力することにより、入力映像データVid−inと同じフレームの順番で映像データVoを出力することができる。
FIG. 5 is a timing chart showing time-series changes in the video data Vo output by the second processing unit 35. As shown in FIG. 5, here, a case is considered in which the difference Δd does not exceed the threshold, that is, the processing delay amount due to the upscaling process of one frame. The difference Δd in this case is represented as Δd1. The difference Δd1 is shorter than one frame (here, 1/30 second) in the video data Vid1-b and Vid2-b.
In this case, the video data Vid1-b from the first scaler 32 and the video data Vid2-b from the second scaler 33 are sequentially and alternately supplied to the second processing unit 35 for each frame. Therefore, the second processing unit 35 sequentially outputs the video data Vid1-b supplied from the first scaler 32 and the video data Vid2-b supplied from the second scaler 33 according to the order supplied to the own apparatus. Thus, the video data Vo can be output in the same frame order as the input video data Vid-in.

映像処理回路30では、入力映像データVid−inが別の映像データに変更されたりするまでは、第1スケーラー32及び第2スケーラー33が有するフレームロック機能を用いること等によって、差分Δdを一定させることができる。よって、CPU34は、アップスケール処理の開始時に差分Δdを求めて、この差分Δdに基づく映像データVoの出力処理を継続して行えばよい。ただし、映像処理回路30において、1又は複数フレーム毎に差分Δdを求めて、映像データVoの出力処理を行ってもよい。   In the video processing circuit 30, until the input video data Vid-in is changed to another video data, the difference Δd is made constant by using the frame lock function of the first scaler 32 and the second scaler 33 or the like. be able to. Therefore, the CPU 34 may obtain the difference Δd at the start of the upscaling process and continue the output process of the video data Vo based on the difference Δd. However, the video processing circuit 30 may perform the output processing of the video data Vo by obtaining the difference Δd for each frame or a plurality of frames.

ところで、第1スケーラー32における処理遅延量delay1と、第2スケーラー33における処理遅延量delay2との処理遅延量の差分Δdが、何らかの原因により、1フレーム分のアップスケール処理による処理遅延量を超えた場合、第2処理部35において以下のような動作不具合が発生することがある。   By the way, the difference Δd in the processing delay amount between the processing delay amount delay1 in the first scaler 32 and the processing delay amount delay2 in the second scaler 33 exceeds the processing delay amount due to the upscaling processing for one frame for some reason. In such a case, the following malfunction may occur in the second processing unit 35.

図6は、処理遅延量の差分Δdが大きい場合の動作不具合を説明する図である。図6に示すように、ここでは、delay2>delay1の場合であって、差分Δd(=Δd2)が、映像データVid1−bとVid2−bとの1フレーム(ここでは、1/30秒)を超える場合を考える。
この場合、第2処理部35には、第1スケーラー32からの映像データVid1−bが、2フレーム分続けて供給されることがある(図6の例では、第(2n−1)フレーム及び第(2n+1)フレーム)。この場合、第2処理部35が、映像データVid1−bと、映像データVid2−bとを、自機に供給された順で出力すると、映像データVoにおけるフレームの順番は、第(2n−1)、(2n+1)、2n、(2n+3)、(2n+2)、(2n+5)、(2n+4)フレーム、・・・となり、入力映像データVid−inにおけるフレームの順番と異なる。この種の動作不具合が発生しないように、第2処理部35は、差分Δdに基づいて、以下のとおりに映像データVoの出力処理を行えばよい。
FIG. 6 is a diagram for explaining an operation failure when the difference Δd in the processing delay amount is large. As shown in FIG. 6, here, delay2> delay1, and the difference Δd (= Δd2) is one frame of video data Vid1-b and Vid2-b (here, 1/30 second). Consider the case of exceeding.
In this case, the video data Vid1-b from the first scaler 32 may be continuously supplied to the second processing unit 35 for two frames (in the example of FIG. 6, the (2n-1) th frame and (2n + 1) th frame). In this case, when the second processing unit 35 outputs the video data Vid1-b and the video data Vid2-b in the order supplied to the own device, the frame order in the video data Vo is (2n-1). ), (2n + 1), 2n, (2n + 3), (2n + 2), (2n + 5), (2n + 4) frames, and so on, which are different from the frame order in the input video data Vid-in. The second processing unit 35 may perform the output process of the video data Vo as follows based on the difference Δd so that this type of operation failure does not occur.

図7は、映像処理回路30の他の例のハードウェア構成を示すブロック図である。図7に示すように、この映像処理回路30は、第1処理部31と、第1スケーラー32と、第2スケーラー33と、CPU34と、第2処理部35と、フレームメモリー36とを有する。第1処理部31と、第1スケーラー32と、第2スケーラー33と、CPU34と、第2処理部35とは、図2に示す映像処理回路30の場合と同じハードウェア構成であってよい。
フレームメモリー36は、1フレーム分の映像データを格納するための記憶領域を有するメモリーである。フレームメモリー36は、CPU34の制御の下で、第2処理部35から供給された映像データを記憶したり、記憶した映像データを第2処理部35に供給したりする。
FIG. 7 is a block diagram illustrating a hardware configuration of another example of the video processing circuit 30. As shown in FIG. 7, the video processing circuit 30 includes a first processing unit 31, a first scaler 32, a second scaler 33, a CPU 34, a second processing unit 35, and a frame memory 36. The first processing unit 31, the first scaler 32, the second scaler 33, the CPU 34, and the second processing unit 35 may have the same hardware configuration as that of the video processing circuit 30 shown in FIG.
The frame memory 36 is a memory having a storage area for storing video data for one frame. The frame memory 36 stores the video data supplied from the second processing unit 35 or supplies the stored video data to the second processing unit 35 under the control of the CPU 34.

図8は、図7に示す第2処理部35により出力される映像データVoの時系列変化を表すタイミングチャートを示す図である。図8に示すように、ここでも、図6に示す場合と同様、差分Δd=Δd2の場合を考える。
第2処理部35は、第(2n−1)フレームの映像データVid1−bが供給されると、これを画像投射部10に出力する。次に、第2処理部35には、第(2n+1)フレームの映像データVid1−bが供給される。ここで、第2処理部35は、差分Δdに基づいて、第(2n+1)フレームの映像データVid1−bを画像投射部10に出力せずに、フレームメモリー36に格納する(図8の「手順a」)。次に、第2処理部35は、第2スケーラー33から第2nフレームの映像データVid2−bが供給されると、この映像データVid2−bを、第(2n−1)フレームの映像データVid1−bに続けて出力する(図8の「手順b」)。
FIG. 8 is a timing chart showing time-series changes of the video data Vo output by the second processing unit 35 shown in FIG. As shown in FIG. 8, the case where the difference Δd = Δd2 is considered here as in the case shown in FIG.
When the video data Vid1-b of the (2n-1) th frame is supplied, the second processing unit 35 outputs this to the image projection unit 10. Next, the video data Vid1-b of the (2n + 1) th frame is supplied to the second processing unit 35. Here, based on the difference Δd, the second processing unit 35 stores the video data Vid1-b of the (2n + 1) th frame in the frame memory 36 without outputting it to the image projection unit 10 (see “Procedure of FIG. 8”). a "). Next, when the second n-th frame video data Vid2-b is supplied from the second scaler 33, the second processing unit 35 converts the video data Vid2-b into the (2n-1) -th frame video data Vid1-b. The data is output following b (“procedure b” in FIG. 8).

第2nフレームの映像データVid1−bを出力すると、第2処理部35は、第(2n+1)フレームの映像データをフレームメモリー36から読み出して、画像投射部10に出力する(図8の「手順c」)。ここにおいて、第2処理部35は、第2nフレームの映像データVid2−bを出力してから、次のフレームの映像データを出力するまでに、第(2n+1)フレームの映像データを、画像投射部10に出力すればよい。   When the video data Vid1-b of the second n frame is output, the second processing unit 35 reads the video data of the (2n + 1) frame from the frame memory 36 and outputs it to the image projection unit 10 (“Procedure c” in FIG. 8). "). Here, the second processing unit 35 outputs the video data of the (2n + 1) th frame from the output of the video data Vid2-b of the second n frame to the output of the video data of the next frame. 10 may be output.

以降においても、第2処理部35では前述した動作が繰り返される。
例えば、第2処理部35は、第(2n+1)フレームの映像データVid1−bを画像投射部10に出力した後、第(2n+3)フレームの映像データVid1−bが供給されると、これを画像投射部10に出力せずに、フレームメモリー36に格納する(図8の「手順d」)。ここでの映像データVid1−bの格納は、既に読み出された第(2n+1)フレームの映像データへの上書きによって行われてよい。
Thereafter, the operation described above is repeated in the second processing unit 35.
For example, the second processing unit 35 outputs the video data Vid1-b of the (2n + 1) th frame to the image projecting unit 10, and then receives the video data Vid1-b of the (2n + 3) th frame. Without being output to the projection unit 10, it is stored in the frame memory 36 ("procedure d" in FIG. 8). The storage of the video data Vid1-b here may be performed by overwriting the video data of the (2n + 1) th frame that has already been read.

次に、第2処理部35は、第2スケーラー33から、第(2n+2)フレームの映像データVid2−bが供給されると、この映像データVid2−bを、第(2n+1)フレームの映像データVid1−bに続けて、画像投射部10に出力する(図8の「手順e」)。第(2n+2)フレームの映像データVid1−bを出力すると、第2処理部35は、第(2n+3)フレームの映像データを、フレームメモリー36から読み出して、画像投射部10に出力する(図8の「手順f」)。ここにおいて、第2処理部35は、第(2n+2)フレームの映像データVid2−bを出力してから、次のフレームの映像データを出力するまでに、第(2n+3)フレームの映像データをフレームメモリー36から読み出して出力する。
以上の手順の出力処理により、映像処理回路30では、差分Δdが1フレーム分の処理遅延量を超えた場合であっても、フレームの順番を変更することなく、映像データVoを出力することができる。
Next, when the video data Vid2-b of the (2n + 2) th frame is supplied from the second scaler 33, the second processing unit 35 uses the video data Vid2-b as the video data Vid1 of the (2n + 1) th frame. Subsequent to -b, the image is output to the image projection unit 10 ("procedure e" in FIG. 8). When the video data Vid1-b of the (2n + 2) th frame is output, the second processing unit 35 reads the video data of the (2n + 3) th frame from the frame memory 36 and outputs it to the image projection unit 10 (FIG. 8). "Procedure f"). Here, the second processing unit 35 outputs the video data of the (2n + 3) th frame from the output of the video data Vid2-b of the (2n + 2) th frame to the output of the video data of the next frame. Read from 36 and output.
By the output processing of the above procedure, the video processing circuit 30 can output the video data Vo without changing the frame order even when the difference Δd exceeds the processing delay amount for one frame. it can.

以上説明したように、プロジェクター1では、入力映像データを、フレーム順に従って、2つのスケーラーに対して順次交互に供給し、各々のスケーラーによりアップスケール処理が行われた後の映像データを合成して、出力する。例えば1080pの映像データを4K2Kの映像データにアップスケールするスケーラーでは、入出力のフレーム周波数が30Hzに制限されている場合がある。この場合であっても、プロジェクター1によれば、60Hzのフレーム周波数の1080pの入力映像データを、実質的に、60Hzのフレーム周波数の4K2Kの映像データにアップスケールして、映像を表示することができる。   As described above, in the projector 1, the input video data is supplied alternately to the two scalers sequentially in the frame order, and the video data after the upscaling processing is performed by each scaler is synthesized. ,Output. For example, in a scaler that upscales 1080p video data to 4K2K video data, the input / output frame frequency may be limited to 30 Hz. Even in this case, according to the projector 1, the 1080p input video data having a frame frequency of 60 Hz can be substantially upscaled to 4K2K video data having a frame frequency of 60 Hz to display the video. it can.

また、プロジェクター1では、自機の処理遅延量を測定することのできるスケーラーを用いることにより、各々のスケーラーで実測された処理遅延量の差分に基づいて、アップスケール処理後の映像データのフレームの順番を規定することができる。
また、一方のスケーラーにおける処理遅延量が、他方のスケーラーにおける処理遅延量に比べて大きい場合であっても、プロジェクター1では、フレームメモリーを用いて、各フレームの映像データの出力タイミングを調整する(つまり遅延させる)ことにより、入力映像データと異なるフレームの順番で、アップスケール処理後の映像データのフレームの順番が規定されるのを防止することができる。
Further, in the projector 1, by using a scaler that can measure the processing delay amount of the own device, based on the difference in the processing delay amount actually measured by each scaler, the frame of the video data frame after the upscaling process is processed. The order can be defined.
Further, even if the processing delay amount in one scaler is larger than the processing delay amount in the other scaler, the projector 1 uses the frame memory to adjust the output timing of the video data of each frame ( In other words, it is possible to prevent the frame order of the video data after the upscaling process from being defined in a different frame order from the input video data.

また、本発明は、上述した実施形態と異なる形態で実施することが可能である。以下に示す変形例は、各々を適宜に組み合わせてもよい。
上述した実施形態では、映像処理回路30は、1080pの映像データを4K2Kの映像データにアップスケールしていたが、アップスケール前後の映像データの解像度(画素数)は、この例に限らない。
例えば、映像処理回路30は、480iのコンポジット映像信号やS端子映像を表す入力映像データの解像度を、720p、1080i又は8K4K等の解像度の映像データにアップスケールしてもよい。本発明では、スケーラーが持つ機能に応じたアップスケールを行って、アップスケール処理後の映像データを出力することができる。また、本発明では、アップスケール処理の具体的なアルゴリズムについても特に問わない。
In addition, the present invention can be implemented in a form different from the above-described embodiment. The following modifications may be combined as appropriate.
In the above-described embodiment, the video processing circuit 30 upscales 1080p video data to 4K2K video data, but the resolution (number of pixels) of the video data before and after the upscaling is not limited to this example.
For example, the video processing circuit 30 may upscale the resolution of input video data representing a 480i composite video signal or S terminal video to video data having a resolution such as 720p, 1080i, or 8K4K. In the present invention, it is possible to perform upscaling according to the function of the scaler and output the video data after the upscaling process. In the present invention, the specific algorithm of the upscaling process is not particularly limited.

上述した実施形態の映像処理回路30では、第1スケーラー32及び第2スケーラー33が、各々、自機における処理遅延量を測定し、CPU34に測定結果を供給する機能を有していた。これに対し、第1スケーラー32及び第2スケーラー33が、処理遅延量の測定機能を有さないものであってもよい。例えば、第1スケーラー32及び第2スケーラー33における処理遅延量の差分Δdが、1フレーム分の処理遅延量以上とならないように、CPU34による制御が行われれば、スケーラーによる処理遅延量の測定機能を用いなくとも、フレームの順番を維持して映像データを出力することが可能である。   In the video processing circuit 30 of the above-described embodiment, the first scaler 32 and the second scaler 33 each have a function of measuring the processing delay amount in the own apparatus and supplying the measurement result to the CPU 34. On the other hand, the first scaler 32 and the second scaler 33 may not have a processing delay amount measurement function. For example, if the control is performed by the CPU 34 so that the difference Δd in the processing delay amount between the first scaler 32 and the second scaler 33 does not exceed the processing delay amount for one frame, the processing delay amount measurement function by the scaler is provided. Even if it is not used, it is possible to output the video data while maintaining the frame order.

仮に、第1スケーラー32及び第2スケーラー33における処理遅延量の差分Δdが、2フレーム分以上になったと仮定しても、プロジェクター1では、2フレーム分以上の映像データを格納することができるフレームメモリーを用いることによって、入力映像データVid−inにおけるフレームの順番で、映像データVoを出力することができる。   Even if it is assumed that the difference Δd in processing delay amount between the first scaler 32 and the second scaler 33 is equal to or greater than 2 frames, the projector 1 can store video data equal to or greater than 2 frames. By using the memory, the video data Vo can be output in the order of frames in the input video data Vid-in.

また、第2処理部35が、CPU34による制御なしに、差分Δdに基づいて映像データVoの出力処理を行うことができる場合には、CPU34は差分Δdを第2処理部35に通知するだけでもよい。   Further, when the second processing unit 35 can perform the output process of the video data Vo based on the difference Δd without the control of the CPU 34, the CPU 34 only notifies the second processing unit 35 of the difference Δd. Good.

本発明の情報処理装置では、3つ以上のスケーラーを並行動作させて、アップスケール処理を行ってもよい。この場合であっても、本発明の情報処理装置の2つのスケーラーに着目すると、第1処理部は、入力映像データを、フレームの順番に従って、2つのスケーラーに対して順次交互に供給する。第2処理部は、アップスケール処理後に、2つのスケーラーにより各々供給された映像データを、これらの2つのスケーラーにおける処理遅延量に基づいて、入力映像データと同じフレームの順番で出力する。   In the information processing apparatus of the present invention, upscaling processing may be performed by operating three or more scalers in parallel. Even in this case, paying attention to the two scalers of the information processing apparatus according to the present invention, the first processing unit sequentially supplies the input video data to the two scalers sequentially according to the frame order. The second processing unit outputs the video data respectively supplied by the two scalers after the upscaling process in the same frame order as the input video data based on the processing delay amount in these two scalers.

また、映像処理回路30における詳細な構成は、図2及び図7で説明したものに限定されない。映像処理回路30に、図2で説明したものの一部が省略されてもよいし、図2にない処理部が追加されてもよい。
また、本発明の情報処理装置が実現する機能は、ハードウェア資源若しくはソフトウェア資源の一方、又は、それらの協働によって実現することが可能である。例えば、本発明は、コンピュータが実行するプログラムとして提供することも可能である。
Further, the detailed configuration of the video processing circuit 30 is not limited to that described with reference to FIGS. A part of the video processing circuit 30 described with reference to FIG. 2 may be omitted, or a processing unit not shown in FIG. 2 may be added.
Further, the functions realized by the information processing apparatus of the present invention can be realized by either hardware resources or software resources, or by their cooperation. For example, the present invention can be provided as a program executed by a computer.

また、プロジェクター1は、各色成分に対応する複数のライトバルブ13を有するものに限定されない。プロジェクター1は、単一のライトバルブ13を有していてもよい。この場合、光学フィルター等を用いて画素毎に対応する色が設定される。また、ライトバルブ13は、透過型の液晶パネルを用いたものに限定されない。プロジェクター1は、反射型の液晶パネル、又は、有機EL(Electro-Luminescence)パネル等の液晶以外の電気光学素子、若しくはデジタルミラーデバイス等を用いたものであってもよい。また、光源11は、LED(Light Emitting Diode)やレーザー等の固体光源であってもよい。   Further, the projector 1 is not limited to one having a plurality of light valves 13 corresponding to each color component. The projector 1 may have a single light valve 13. In this case, a color corresponding to each pixel is set using an optical filter or the like. The light valve 13 is not limited to the one using a transmissive liquid crystal panel. The projector 1 may use a reflective liquid crystal panel, an electro-optical element other than liquid crystal such as an organic EL (Electro-Luminescence) panel, or a digital mirror device. The light source 11 may be a solid light source such as an LED (Light Emitting Diode) or a laser.

本発明の表示装置は、プロジェクターに限定されない。本発明の表示装置は、テレビジョン、カーナビゲーション装置、テレビ電話、デジタルスチルカメラ、携帯電話機、スマートフォン、タブレット端末又はパーソナルコンピューター等であってもよい。   The display device of the present invention is not limited to a projector. The display device of the present invention may be a television, a car navigation device, a video phone, a digital still camera, a mobile phone, a smartphone, a tablet terminal, a personal computer, or the like.

1…プロジェクター、10…画像投射部、20…信号入力部、30…映像処理回路、31…第1処理部、32…第1スケーラー、33…第2スケーラー、34…CPU、35…第2処理部、36…フレームメモリー。 DESCRIPTION OF SYMBOLS 1 ... Projector, 10 ... Image projection part, 20 ... Signal input part, 30 ... Image processing circuit, 31 ... 1st processing part, 32 ... 1st scaler, 33 ... 2nd scaler, 34 ... CPU, 35 ... 2nd process 36, frame memory.

Claims (8)

供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーと、
時間軸上で連続する複数フレームの入力映像データを、フレームの順番に従って、前記第1スケーラー及び前記第2スケーラーに対して、順次交互に供給する第1処理部と、
前記第1スケーラー及び前記第2スケーラーにより、前記第1処理部が供給した映像データの前記アップスケール処理が行われると、当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力する第2処理部と
を備える映像処理装置。
A first scaler and a second scaler for performing upscaling of the supplied video data;
A first processing unit that alternately supplies input video data of a plurality of frames continuous on a time axis to the first scaler and the second scaler sequentially according to the order of the frames;
When the upscaling processing of the video data supplied by the first processing unit is performed by the first scaler and the second scaler, the processed video data is processed in the first scaler and the second scaler. And a second processing unit that outputs the frames in the order of the frames based on the delay amount.
前記第1スケーラー及び前記第2スケーラーは、各々、自機における前記処理遅延量を測定し、
前記第2処理部は、
前記第1スケーラーにより測定された前記処理遅延量と、前記第2スケーラーにより測定された前記処理遅延量との差分に基づいて、前記処理後の映像データを、前記フレームの順番で出力する
請求項1に記載の映像処理装置。
Each of the first scaler and the second scaler measures the processing delay amount in its own machine,
The second processing unit includes:
The video data after the processing is output in the order of the frames based on a difference between the processing delay amount measured by the first scaler and the processing delay amount measured by the second scaler. The video processing apparatus according to 1.
フレームメモリーを備え、
前記第1スケーラーと前記第2スケーラーとの前記処理遅延量の差分が、閾値を超える場合に、
前記第2処理部は、
前記第1スケーラー及び前記第2スケーラーのうち、前記処理遅延量が小さい一方による前記処理後の映像データを、前記フレームメモリーに格納し、前記差分に応じたタイミングで読み出して出力する
請求項1又は2に記載の映像処理装置。
With frame memory,
When the difference in the processing delay amount between the first scaler and the second scaler exceeds a threshold,
The second processing unit includes:
The video data after the processing by one of the first scaler and the second scaler with the smaller processing delay amount is stored in the frame memory, and is read out and output at a timing according to the difference. 2. The video processing apparatus according to 2.
前記入力映像データは、フレーム周波数が60Hzの1080pの映像データである
請求項1から3のいずれか1項に記載の映像処理装置。
The video processing apparatus according to any one of claims 1 to 3, wherein the input video data is 1080p video data having a frame frequency of 60 Hz.
前記処理後の映像データは、4K2Kの映像データである
請求項4に記載の映像処理装置。
The video processing apparatus according to claim 4, wherein the processed video data is 4K2K video data.
供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーと、
時間軸上で連続する複数フレームの入力映像データを、フレームの順番に従って、前記第1スケーラー及び前記第2スケーラーに対して、順次交互に供給する第1処理部と、
前記第1スケーラー及び前記第2スケーラーにより、前記第1処理部が供給した映像データの前記アップスケール処理が行われると、当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力する第2処理部と、
前記第2処理部により出力された映像データに基づいて映像を表示する表示部と
を備える表示装置。
A first scaler and a second scaler for performing upscaling of the supplied video data;
A first processing unit that alternately supplies input video data of a plurality of frames continuous on a time axis to the first scaler and the second scaler sequentially according to the order of the frames;
When the upscaling processing of the video data supplied by the first processing unit is performed by the first scaler and the second scaler, the processed video data is processed in the first scaler and the second scaler. A second processing unit for outputting in the order of the frames based on a delay amount;
A display unit configured to display a video based on the video data output by the second processing unit.
供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーに対して、時間軸上で連続する複数フレームの入力映像データが、フレームの順番に従って順次交互に供給され、前記第1スケーラー及び前記第2スケーラーにより、前記供給された映像データの前記アップスケール処理が行われると、
当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力する
半導体装置。
The first scaler and the second scaler that perform the upscaling processing of the supplied video data are sequentially supplied with a plurality of frames of input video data that are continuous on the time axis, according to the order of the frames, and the first scaler. When the upscale processing of the supplied video data is performed by the second scaler,
A semiconductor device that outputs the processed video data in the order of the frames based on processing delay amounts in the first scaler and the second scaler.
供給された映像データのアップスケール処理を行う第1スケーラー及び第2スケーラーを用いた映像処理方法であって、
時間軸上で連続する複数フレームの入力映像データを、フレームの順番に従って、前記第1スケーラー及び前記第2スケーラーに対して、順次交互に供給するステップと、
前記第1スケーラー及び前記第2スケーラーにより、前記供給した映像データの前記アップスケール処理が行われると、当該処理後の映像データを、前記第1スケーラー及び前記第2スケーラーにおける処理遅延量に基づいて、前記フレームの順番で出力するステップと
を有する映像処理方法。
A video processing method using a first scaler and a second scaler for performing upscaling processing of supplied video data,
Sequentially supplying input video data of a plurality of frames continuous on the time axis to the first scaler and the second scaler sequentially according to the order of the frames;
When the upscale processing of the supplied video data is performed by the first scaler and the second scaler, the processed video data is processed based on processing delay amounts in the first scaler and the second scaler. And a step of outputting in the order of the frames.
JP2013005458A 2013-01-16 2013-01-16 Video processing device, display device, semiconductor device, and video processing method Active JP6171350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013005458A JP6171350B2 (en) 2013-01-16 2013-01-16 Video processing device, display device, semiconductor device, and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005458A JP6171350B2 (en) 2013-01-16 2013-01-16 Video processing device, display device, semiconductor device, and video processing method

Publications (2)

Publication Number Publication Date
JP2014137451A true JP2014137451A (en) 2014-07-28
JP6171350B2 JP6171350B2 (en) 2017-08-02

Family

ID=51414991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005458A Active JP6171350B2 (en) 2013-01-16 2013-01-16 Video processing device, display device, semiconductor device, and video processing method

Country Status (1)

Country Link
JP (1) JP6171350B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141444A (en) * 2007-12-04 2009-06-25 Hitachi Ltd Image signal processor, image display apparatus, image signal processing method
JP2010204649A (en) * 2009-02-06 2010-09-16 Semiconductor Energy Lab Co Ltd Driving method of liquid crystal display device
US20100259653A1 (en) * 2009-04-08 2010-10-14 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141444A (en) * 2007-12-04 2009-06-25 Hitachi Ltd Image signal processor, image display apparatus, image signal processing method
JP2010204649A (en) * 2009-02-06 2010-09-16 Semiconductor Energy Lab Co Ltd Driving method of liquid crystal display device
US20100259653A1 (en) * 2009-04-08 2010-10-14 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device

Also Published As

Publication number Publication date
JP6171350B2 (en) 2017-08-02

Similar Documents

Publication Publication Date Title
JP4777675B2 (en) Image processing apparatus, image display apparatus, image processing method, program for causing computer to execute the method, and recording medium
AU2015402544B2 (en) Image processing method, system for laser TV and the laser TV set thereof
CN106385575A (en) Projection image processing method and device and projection display system
JP6172773B2 (en) Projector and image display method
JP2009139968A (en) Display system with scrolling color and wobble device
CN110770816B (en) Display system, image processing device, pixel shift display device, image processing method, display method, and program
JP7309360B2 (en) Image projection device and its control method
JP2007192919A (en) Image display device
US10109254B2 (en) Video processing circuit, video processing method, electro-optical device, and electronic apparatus
JP2014187460A (en) Image processing device, projector, and image processing method
CN112399157A (en) Projector and projection method
JP6171350B2 (en) Video processing device, display device, semiconductor device, and video processing method
JP4501962B2 (en) Image display device
US20050099534A1 (en) Display system for an interlaced image frame with a wobbling device
JP2007251723A (en) Projection type video display apparatus
JP4535090B2 (en) Display device and display method
JP4899701B2 (en) Drive circuit, drive method thereof, electro-optical display device, and video display device
WO2019142433A1 (en) Camera evaluation system
JP6417854B2 (en) Image processing circuit, image processing method, electro-optical device, and electronic apparatus
JP6299108B2 (en) Electro-optical device drive device, electro-optical device drive method, electro-optical device, and electronic apparatus
JP6191150B2 (en) Video processing circuit, video processing method, and electronic device
JP2019095621A (en) Display device
JP2009009155A (en) Display device and display method
JP2010156856A (en) Electrooptical apparatus and electronic device
JP2017078834A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150