JP2016161753A - Video processing device, display device, and video processing method - Google Patents

Video processing device, display device, and video processing method Download PDF

Info

Publication number
JP2016161753A
JP2016161753A JP2015040060A JP2015040060A JP2016161753A JP 2016161753 A JP2016161753 A JP 2016161753A JP 2015040060 A JP2015040060 A JP 2015040060A JP 2015040060 A JP2015040060 A JP 2015040060A JP 2016161753 A JP2016161753 A JP 2016161753A
Authority
JP
Japan
Prior art keywords
video data
video
processing unit
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015040060A
Other languages
Japanese (ja)
Inventor
賢次 水城
Kenji Mizushiro
賢次 水城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015040060A priority Critical patent/JP2016161753A/en
Publication of JP2016161753A publication Critical patent/JP2016161753A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video processing device that can efficiently execute a plurality of processes to video data, and have a simple circuit configuration, and a display device and a video processing method.SOLUTION: A video processing unit 2 of a projector 1 comprises: a DRAM22; a first processing unit that executes processing without accompanying writing into the DRAM22 with respect to video data to be input; and a second processing unit that executes image processing accompanying writing into the DRAM22 with respect to the video data. The video processing unit 2 further comprises a block transfer unit 28 that reads the video data from the DRAM22 to input the read video data to the first processing unit, and the second processing unit is configured to write the video data processed in the first processing unit into the DRAM22.SELECTED DRAWING: Figure 2

Description

本発明は、映像データを処理する映像処理装置、表示装置、及び、映像処理方法に関する。   The present invention relates to a video processing device, a display device, and a video processing method for processing video data.

従来、映像を表示する装置において、画質を調整する際に画像を静止させる機能が知られている(例えば、特許文献1参照)。特許文献1記載の装置は、ビデオ信号をディジタルデータに変換してフレームメモリーに書き込み、フレームメモリーからフレームのデータを読み出して表示する。この装置は、「画像フリーズ」スイッチが操作された場合、フレームメモリーへの書き込みを停止し、1フレームをフレームメモリーから繰り返し読み出して表示することで表示画像を静止させる。このように表示画像が静止している間に、ユーザーが画質調整の操作を行う。画質調整の操作がされた場合、フレームメモリーから読み出されたデータが画質調整演算器により処理され、表示される。   2. Description of the Related Art Conventionally, in an apparatus that displays a video, a function of stopping an image when adjusting image quality is known (see, for example, Patent Document 1). The device described in Patent Document 1 converts a video signal into digital data, writes it into a frame memory, reads out the frame data from the frame memory, and displays it. When the “image freeze” switch is operated, this apparatus stops writing to the frame memory and repeatedly reads out one frame from the frame memory and displays it, thereby making the display image stationary. In this way, the user performs an image quality adjustment operation while the display image is stationary. When an image quality adjustment operation is performed, the data read from the frame memory is processed by the image quality adjustment calculator and displayed.

特開2002−10281号公報Japanese Patent Laid-Open No. 2002-10281

特許文献1記載の装置は、画像を静止させ画質調整を行うためにフレームメモリーを必要とする。このように、映像のデータを処理する装置においては、処理の種類が増えると、フレームメモリーへのアクセスの頻度が増えるという問題があった。例えば、画質調整された映像に対し、他の映像と合成して1つの映像を生成する処理やフレームレートを変換する処理を行うためには、画質調整された映像を再びフレームメモリーに書き込む必要がある。これに加えて、画像を静止させるためだけに別途フレームメモリーを用いることとすると、フレームメモリーへのアクセスを行う処理部や必要なメモリー容量が増加し、回路構成の複雑化や、メモリーアクセスの帯域が逼迫することが懸念される。
本発明は、上述した事情に鑑みてなされたものであり、映像データに対して複数の処理を効率よく行うことが可能で、シンプルな回路構成を有する映像処理装置、表示装置、及び、映像処理方法を提供することを目的とする。
The apparatus described in Patent Document 1 requires a frame memory in order to make an image stationary and perform image quality adjustment. As described above, the apparatus for processing video data has a problem that the frequency of access to the frame memory increases as the types of processing increase. For example, in order to perform a process of generating a single video by synthesizing a video whose image quality has been adjusted with another video, or a process for converting the frame rate, it is necessary to write the video whose image quality has been adjusted to the frame memory again. is there. In addition to this, if a separate frame memory is used only to freeze the image, the processing unit that accesses the frame memory and the required memory capacity increase, the circuit configuration becomes complicated, and the memory access bandwidth is increased. There is concern about the tightness.
The present invention has been made in view of the above-described circumstances, and is capable of efficiently performing a plurality of processes on video data and having a simple circuit configuration, a display apparatus, and a video process It aims to provide a method.

上記目的を達成するために、本発明の映像処理装置は、メモリーと、入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行する第1処理部と、前記映像データに対し、前記メモリーへの書き込みを伴う画像処理を行う第2処理部と、前記メモリーから前記映像データを読み出して前記第1処理部に入力する転送部と、を備え、前記第2処理部は、前記第1処理部で処理された前記映像データを前記メモリーに書き込むこと、を特徴とする。
本発明によれば、第2処理部の機能を利用して映像データをメモリーに書き込み、メモリーの映像データを第1処理部に入力することで、映像データに対し第1処理部で繰り返し処理を行うことができる。また、メモリーに書き込まれた映像データを表示すれば、映像を停止させることができる。この停止中に表示する映像には、第1処理部の処理を反映させることができる。従って、回路構成を複雑化することなく、映像データに対して複数の処理を効率よく行うことができる。
In order to achieve the above object, a video processing apparatus according to the present invention includes a memory, a first processing unit that executes processing that does not involve writing the input video data in the memory, and the video data. A second processing unit that performs image processing with writing to the memory, and a transfer unit that reads out the video data from the memory and inputs the video data to the first processing unit, and the second processing unit includes: The video data processed by the first processing unit is written in the memory.
According to the present invention, the video data is written in the memory using the function of the second processing unit, and the video data in the memory is input to the first processing unit, whereby the video data is repeatedly processed in the first processing unit. It can be carried out. Also, the video can be stopped by displaying the video data written in the memory. The video displayed during the stop can reflect the processing of the first processing unit. Therefore, a plurality of processes can be efficiently performed on video data without complicating the circuit configuration.

また、本発明は、上記映像処理装置において、前記第2処理部は、前記第1処理部で処理された前記映像データを、前記画像処理を行わずに前記メモリーに書き込み可能であること、を特徴とする。
本発明によれば、映像データに対する画像処理を行う場合も行わない場合も、映像データをメモリーに書き込むことができる。
In the video processing apparatus according to the present invention, the second processing unit can write the video data processed by the first processing unit into the memory without performing the image processing. Features.
According to the present invention, video data can be written into a memory whether or not image processing is performed on the video data.

また、本発明は、上記映像処理装置において、前記第2処理部は、前記第1処理部が前記映像データに対する処理を行った場合に前記メモリーへの前記映像データの書き込みを行うこと、を特徴とする。
本発明によれば、第1処理部が映像データの処理を行わない場合などメモリーへのアクセスが不要な場合に動作を停止でき、処理を効率化し、消費電力量を低減できる。
In the video processing device according to the present invention, the second processing unit writes the video data to the memory when the first processing unit performs processing on the video data. And
According to the present invention, the operation can be stopped when access to the memory is unnecessary, such as when the first processing unit does not process the video data, the processing can be made efficient, and the power consumption can be reduced.

また、本発明は、上記映像処理装置において、前記映像データを処理する第3処理部を備え、前記第2処理部は、前記第1処理部から入力する前記映像データを前記メモリーに書き込む動作と、前記第1処理部から入力する前記映像データを前記第3処理部に出力する動作と、を実行可能であること、を特徴とする。
本発明によれば、第1処理部により処理された映像データを、第2処理部から別の処理部に、メモリーを介さずに出力できる。これにより、メモリーアクセスの頻度を増やさずに映像データに対する処理の種類を増やすことができる。
In the video processing apparatus according to the present invention, the video processing device further includes a third processing unit that processes the video data, and the second processing unit writes the video data input from the first processing unit to the memory. An operation of outputting the video data input from the first processing unit to the third processing unit can be executed.
According to the present invention, the video data processed by the first processing unit can be output from the second processing unit to another processing unit without using a memory. As a result, the types of processing for video data can be increased without increasing the frequency of memory access.

また、本発明は、上記映像処理装置において、前記第3処理部は、前記第2処理部が出力する前記映像データを取得して出力する動作、及び、前記メモリーの前記映像データを読み出して出力する動作を実行すること、を特徴とする。
本発明によれば、第2処理部が映像データを出力する場合はこの映像データを第3処理部から出力し、第2処理部が映像データを出力しない場合はメモリーの映像データを第3処理部から出力できる。このため、映像データの出力を継続しながら第2処理部を停止することができるので、処理の効率化を図ることができ、消費電力量を低減できる。
Further, the present invention is the video processing apparatus, wherein the third processing unit acquires and outputs the video data output by the second processing unit, and reads and outputs the video data in the memory Performing the operation to perform.
According to the present invention, when the second processing unit outputs video data, the video data is output from the third processing unit, and when the second processing unit does not output video data, the video data in the memory is subjected to the third processing. Can be output from the department. For this reason, the second processing unit can be stopped while continuing the output of the video data, so that the processing efficiency can be improved and the power consumption can be reduced.

また、本発明は、上記映像処理装置において、前前記第3処理部は、画像を表示する表示部に接続され、前記映像データを前記表示部に出力すること、を特徴とする。
本発明によれば、第2処理部が出力する映像データとメモリーに書き込まれた映像データとを表示部に出力して、表示させることができる。
In the video processing apparatus according to the present invention, the third processing unit is connected to a display unit that displays an image, and outputs the video data to the display unit.
According to the present invention, the video data output from the second processing unit and the video data written in the memory can be output to the display unit for display.

また、本発明は、上記映像処理装置において、前記第1処理部に前記映像データを出力する入力処理部を備え、前記入力される映像データを前記第1処理部及び前記第2処理部で処理して出力する第1の動作モードと、前記第2処理部が前記メモリーに書き込む前記映像データを、前記メモリーから読み出して出力する第2の動作モードと、を切り替えて実行可能に構成され、前記第1から第2の動作モードに切り替える場合に、前記第1処理部の入力を、前記入力処理部が出力する前記映像データから、前記転送部が出力する前記映像データに切り替えること、を特徴とする。
本発明によれば、動作モードを切り替える場合に第1処理部の入力を含むデータの流れを切り替えることで、シンプルな回路構成において、動作モードを速やかに切り替えることができる。
In the video processing apparatus according to the present invention, the video processing device further includes an input processing unit that outputs the video data to the first processing unit, and the input video data is processed by the first processing unit and the second processing unit. The first operation mode to be output and the second operation mode in which the video data to be written to the memory by the second processing unit is read from the memory and output. When switching from the first operation mode to the second operation mode, the input of the first processing unit is switched from the video data output by the input processing unit to the video data output by the transfer unit. To do.
According to the present invention, when the operation mode is switched, the operation mode can be quickly switched in a simple circuit configuration by switching the flow of data including the input of the first processing unit.

また、本発明は、上記映像処理装置において、前記第1及び第2の動作モードを切り替える際に、前記第1処理部の動作を切り替えるとともに、前記第2処理部の動作を切り替えること、を特徴とする。
本発明によれば、複数の処理部の動作モードを速やかに切り替えることができる。
Further, the present invention is characterized in that, in the video processing apparatus, when the first and second operation modes are switched, the operation of the first processing unit is switched and the operation of the second processing unit is switched. And
According to the present invention, operation modes of a plurality of processing units can be quickly switched.

また、本発明は、上記映像処理装置において、複数の前記第1処理部を備え、前記第2処理部は、複数の前記第1処理部のそれぞれから入力される前記映像データを前記メモリーに書き込む処理を行うこと、を特徴とする。
本発明によれば、映像データを処理するパスを複数備えることにより、入力される映像データと転送部がメモリーから読み出した映像データとを効率よく処理できる。
In the video processing device according to the present invention, the video processing device further includes a plurality of first processing units, and the second processing unit writes the video data input from each of the plurality of first processing units to the memory. The processing is performed.
According to the present invention, by providing a plurality of paths for processing video data, it is possible to efficiently process input video data and video data read from the memory by the transfer unit.

また、本発明は、上記映像処理装置において、前記転送部は、処理対象の前記映像データが入力されない前記第1処理部に、前記メモリーから読み出した前記映像データを入力すること、を特徴とする。
本発明によれば、映像データを処理する複数のパスにより、入力される映像データと転送部がメモリーから読み出した映像データとを効率よく処理できる。
In the video processing apparatus according to the present invention, the transfer unit inputs the video data read from the memory to the first processing unit to which the video data to be processed is not input. .
According to the present invention, the input video data and the video data read from the memory by the transfer unit can be efficiently processed by a plurality of paths for processing the video data.

また、上記目的を達成するために、本発明の表示装置は、メモリーと、入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行する第1処理部と、前記映像データに対し、前記メモリーへの書き込みを伴う画像処理を行う第2処理部と、前記メモリーから前記映像データを読み出して前記第1処理部に入力する転送部と、を備え、前記第2処理部により、前記第1処理部で処理された前記映像データを前記メモリーに書き込む映像処理部と、前記映像処理部で処理された前記映像データに基づき映像を表示する表示部と、を備えることを特徴とする。
本発明によれば、第2処理部の機能を利用して映像データをメモリーに書き込み、メモリーの映像データを第1処理部に入力することで、映像データに対し第1処理部で繰り返し処理を行うことができる。また、メモリーに書き込まれた映像データを表示部に出力して、表示部が表示する映像を停止でき、停止中に表示する映像に、第1処理部の処理を反映させることができる。従って、回路構成を複雑化することなく、映像データに対して複数の処理を効率よく行うことができる。
In order to achieve the above object, a display device according to the present invention includes a memory, a first processing unit that executes processing that does not involve writing the input video data into the memory, and the video data. On the other hand, a second processing unit that performs image processing with writing to the memory, and a transfer unit that reads the video data from the memory and inputs the video data to the first processing unit, A video processing unit that writes the video data processed by the first processing unit to the memory, and a display unit that displays video based on the video data processed by the video processing unit. .
According to the present invention, the video data is written in the memory using the function of the second processing unit, and the video data in the memory is input to the first processing unit, whereby the video data is repeatedly processed in the first processing unit. It can be carried out. In addition, the video data written in the memory can be output to the display unit, the video displayed on the display unit can be stopped, and the processing of the first processing unit can be reflected on the video displayed during the stop. Therefore, a plurality of processes can be efficiently performed on video data without complicating the circuit configuration.

また、上記目的を達成するために、本発明の映像処理方法は、映像データを書き込み可能なメモリーを有する装置を制御して、第1処理部により、入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行し、前記映像データに対して前記メモリーへの書き込みを伴う画像処理を行う第2処理部により、前記第1処理部で処理された前記映像データを前記メモリーに書き込み、前記メモリーから前記映像データを読み出して前記第1処理部に入力すること、を特徴とする。
本発明によれば、映像データに対し第1処理部の処理を繰り返し行うことができ、メモリーに書き込まれた映像データを表示することで、表示する映像を停止できる。さらに、停止中に表示する映像に、第1処理部の処理を反映させることができる。従って、回路構成を複雑化することなく、映像データに対して複数の処理を効率よく行うことができる。
In order to achieve the above object, the video processing method of the present invention controls a device having a memory in which video data can be written, and the first processing unit transfers the input video data to the memory. The video data processed by the first processing unit is written to the memory by a second processing unit that executes processing without writing the image and performs image processing with writing to the memory on the video data. The video data is read from the memory and input to the first processing unit.
According to the present invention, the processing of the first processing unit can be repeatedly performed on video data, and the video to be displayed can be stopped by displaying the video data written in the memory. Furthermore, the process of the first processing unit can be reflected in the video displayed during the stop. Therefore, a plurality of processes can be efficiently performed on video data without complicating the circuit configuration.

第1実施形態に係るプロジェクターの機能ブロック図。1 is a functional block diagram of a projector according to a first embodiment. プロジェクターが備える映像処理部の機能ブロック図。The functional block diagram of the image processing part with which a projector is provided. 映像処理部の機能の説明図。Explanatory drawing of the function of a video processing part. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector. 映像処理部の動作の説明図。Explanatory drawing of operation | movement of a video processing part. 映像処理部の動作の説明図。Explanatory drawing of operation | movement of a video processing part. プロジェクターの動作を示すタイミングチャート。The timing chart which shows operation | movement of a projector. 第2実施形態のプロ7ジェクターの動作の説明図。Explanatory drawing of operation | movement of the professional 7 projector of 2nd Embodiment. 第2実施形態のプロジェクターの動作の説明図。Explanatory drawing of operation | movement of the projector of 2nd Embodiment. 第3実施形態のプロジェクターの動作の説明図。Explanatory drawing of operation | movement of the projector of 3rd Embodiment.

[第1実施形態]
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、本発明を適用した第1実施形態に係るプロジェクター1の機能ブロック図であり、プロジェクター1に接続される各種周辺装置を合わせて図示する。
表示装置としてのプロジェクター1は、映像データを出力する映像供給装置3を接続するインターフェイス(I/F)部11を備える。インターフェイス部11には複数の映像供給装置3を接続でき、図1には2つの映像供給装置3を接続した例を示す。
[First Embodiment]
Embodiments to which the present invention is applied will be described below with reference to the drawings.
FIG. 1 is a functional block diagram of a projector 1 according to a first embodiment to which the present invention is applied, and shows various peripheral devices connected to the projector 1 together.
The projector 1 as a display device includes an interface (I / F) unit 11 for connecting a video supply device 3 that outputs video data. A plurality of video supply devices 3 can be connected to the interface unit 11, and FIG. 1 shows an example in which two video supply devices 3 are connected.

映像供給装置3は、例えば、DVDプレーヤー等の映像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の映像出力装置が挙げられる。映像供給装置3は、パーソナルコンピューター等と通信して映像データを受信する通信装置等であってもよい。また、映像供給装置3は、ディジタル映像データを出力する装置に限定されず、アナログ映像信号を出力する装置であってもよい。この場合、映像供給装置3の出力側またはプロジェクター1のインターフェイス部11に、アナログ映像信号からディジタル映像データを生成するアナログ/ディジタル変換装置を設ければよい。また、インターフェイス部11が備えるコネクター及びインターフェイス回路の具体的な仕様や数は任意である。   Examples of the video supply device 3 include a video playback device such as a DVD player, a broadcast receiving device such as a digital TV tuner, and a video output device such as a video game machine and a personal computer. The video supply device 3 may be a communication device that communicates with a personal computer or the like to receive video data. The video supply device 3 is not limited to a device that outputs digital video data, and may be a device that outputs an analog video signal. In this case, an analog / digital conversion device that generates digital video data from an analog video signal may be provided on the output side of the video supply device 3 or the interface unit 11 of the projector 1. The specific specifications and number of connectors and interface circuits included in the interface unit 11 are arbitrary.

映像供給装置3は、インターフェイス部11が対応可能なデータフォーマットでディジタル映像データを出力する。データフォーマットは、具体的には解像度、フレームレート、階調数(色数)、色空間、転送レート等を含む。プロジェクター1は、映像供給装置3から静止画像データが入力されても動作できる。この場合、映像供給装置3が出力するデータは、映像データのデータフォーマットと同様のフレームレートで複数のフレームが連続する形態であり、フレームの画像が同じ画像となっている。つまり、映像供給装置3からプロジェクター1に入力されるデータは、インターフェイス部11が対応可能なデータフォーマットであれば、データの内容が静止画像であっても映像(動画像)であってもよい。以下の説明では、プロジェクター1に映像供給装置3から入力されるデータを、映像データと呼ぶ。   The video supply device 3 outputs digital video data in a data format that can be supported by the interface unit 11. The data format specifically includes resolution, frame rate, number of gradations (number of colors), color space, transfer rate, and the like. The projector 1 can operate even when still image data is input from the video supply device 3. In this case, the data output from the video supply device 3 has a form in which a plurality of frames are continuous at the same frame rate as the data format of the video data, and the images of the frames are the same image. That is, the data input from the video supply device 3 to the projector 1 may be a still image or a video (moving image) as long as the data format is compatible with the interface unit 11. In the following description, data input from the video supply device 3 to the projector 1 is referred to as video data.

プロジェクター1は、プロジェクター1の各部を制御する制御部10と、インターフェイス部11に入力される映像データに基づく映像をスクリーンSCに表示(投射)する画像形成部12と、を備える。また、インターフェイス部11には、映像データを処理して表示用の映像信号を画像形成部12に出力する映像処理部2(映像処理装置)が接続される。   The projector 1 includes a control unit 10 that controls each unit of the projector 1 and an image forming unit 12 that displays (projects) video based on video data input to the interface unit 11 on a screen SC. The interface unit 11 is connected to a video processing unit 2 (video processing device) that processes video data and outputs a video signal for display to the image forming unit 12.

画像形成部12(表示部)は、光源13、変調部14、投射光学系15、光源制御部16、および、表示駆動部17を備える。
光源13は、キセノンランプ、超高圧水銀ランプ等のランプ類、或いは、LEDやレーザー光源等の固体光源で構成される。光源13は、光源制御部16から供給される電力により点灯し、変調部14に向けて光を発する。光源制御部16は、制御部10の制御に従って、光源13の発光輝度を調整できる。
The image forming unit 12 (display unit) includes a light source 13, a modulation unit 14, a projection optical system 15, a light source control unit 16, and a display drive unit 17.
The light source 13 includes lamps such as a xenon lamp and an ultrahigh pressure mercury lamp, or a solid light source such as an LED and a laser light source. The light source 13 is turned on by the electric power supplied from the light source control unit 16 and emits light toward the modulation unit 14. The light source control unit 16 can adjust the light emission luminance of the light source 13 according to the control of the control unit 10.

変調部14は、光源13が発する光を変調して画像光を生成し、画像光を投射光学系15に照射する。本実施形態では、変調部14が、赤色(R)、緑色(G)、及び、青色(B)の各色に対応する3つの液晶ライトバルブを備え、光源13が発した光を液晶ライトバルブに透過させる構成を例示する。
変調部14の3つの液晶ライトバルブには表示駆動部17が接続される。表示駆動部17は、映像処理部2が出力する映像信号に基づき、液晶ライトバルブの各画素を駆動して、液晶ライトバルブにフレーム(画面)単位で画像を描画する。
The modulation unit 14 modulates the light emitted from the light source 13 to generate image light, and irradiates the projection optical system 15 with the image light. In the present embodiment, the modulation unit 14 includes three liquid crystal light valves corresponding to each color of red (R), green (G), and blue (B), and the light emitted from the light source 13 is used as the liquid crystal light valve. The structure which permeate | transmits is illustrated.
A display driving unit 17 is connected to the three liquid crystal light valves of the modulation unit 14. The display driving unit 17 drives each pixel of the liquid crystal light valve based on the video signal output from the video processing unit 2 and draws an image on the liquid crystal light valve in units of frames (screens).

光源13と変調部14との間の光路または変調部14には、リフレクター、レンズ群、偏光板、調光素子等(いずれも図示略)を設けてもよい。また、変調部14は、反射型の液晶パネルを用いた構成とすることもできる。この場合、変調部14は、光源13が発する光を液晶パネルに反射させ、反射光を投射光学系15に導く。また、変調部14を、デジタルミラーデバイス(DMD)を用いた構成とすることもでき、1枚のDMDとカラーホイールを備えた構成としてもよい。   The optical path between the light source 13 and the modulation unit 14 or the modulation unit 14 may be provided with a reflector, a lens group, a polarizing plate, a light control element, and the like (all not shown). Further, the modulation unit 14 may be configured to use a reflective liquid crystal panel. In this case, the modulator 14 reflects the light emitted from the light source 13 to the liquid crystal panel and guides the reflected light to the projection optical system 15. Further, the modulation unit 14 may be configured using a digital mirror device (DMD), and may be configured including one DMD and a color wheel.

投射光学系15は、変調部14により変調された画像光をスクリーンSCに向けて導き、スクリーンSC上で画像を結像させる。投射光学系15は、例えば、3つの液晶ライトバルブを通った光を合成するプリズム、画像光を導くレンズ群やミラー等の光学素子を有する構成としてもよい。さらに、投射光学系15は、スクリーンSCの映像を拡大・縮小するズームレンズ、焦点調整をするフォーカスレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えてもよい。   The projection optical system 15 guides the image light modulated by the modulation unit 14 toward the screen SC and forms an image on the screen SC. For example, the projection optical system 15 may include a prism that synthesizes light that has passed through three liquid crystal light valves, a lens group that guides image light, and an optical element such as a mirror. Furthermore, the projection optical system 15 includes a zoom lens for enlarging / reducing the image on the screen SC, a focus lens for adjusting the focus, a zoom adjusting motor for adjusting the zoom level, a focus adjusting motor for adjusting the focus, and the like. May be.

映像処理部2は、制御部10の制御に従って、インターフェイス部11に入力される映像データに対し、色調補正等の後述する処理を実行する。映像処理部2が処理した映像データは、フレーム毎に映像信号に変換され、表示駆動部17に入力される。   The video processing unit 2 executes processing to be described later, such as color tone correction, on the video data input to the interface unit 11 under the control of the control unit 10. The video data processed by the video processing unit 2 is converted into a video signal for each frame and input to the display driving unit 17.

制御部10は、プロジェクター1の各部を制御するプロセッサーを備えて構成され、例えば、CPU10a、ROM10b、及びRAM10cを備え、ROM10bが記憶するプログラムをCPU10aが実行することにより、プロジェクター1の各部を制御する。制御部10は、接続された不揮発性の記憶部(図示略)が記憶するプログラムを実行してもよい。また、制御部10は、ソフトウェアによりプロジェクター1の制御を行う構成に限定されず、ASIC(Application Specific Integrated Circuit)等のハードウェアで構成されてもよい。   The control unit 10 includes a processor that controls each unit of the projector 1, and includes, for example, a CPU 10a, a ROM 10b, and a RAM 10c. . The control unit 10 may execute a program stored in a connected nonvolatile storage unit (not shown). Further, the control unit 10 is not limited to a configuration that controls the projector 1 by software, and may be configured by hardware such as an ASIC (Application Specific Integrated Circuit).

制御部10は、映像処理部2が実行する処理の実行タイミング、実行条件等を制御する。また、制御部10は、画像形成部12の光源制御部16を制御して、光源13の輝度の調整等を行う。
制御部10は、ユーザーの入力操作を受け付ける操作部18に接続される。操作部18は、スイッチを備えた操作パネルやリモコン装置(図示略)の信号を受信する赤外線受光部として構成できる。また、プロジェクター1が操作部18を具備する構成に限らず、操作部18がプロジェクター1に外部接続されてもよい。また、プロジェクター1は、外部のパーソナルコンピューターから送信される制御データを、操作部18に対する操作と同様に処理してもよい。この場合、プロジェクター1は、パーソナルコンピューターなどの外部の機器と通信する通信部を備えてもよい。
The control unit 10 controls execution timing, execution conditions, and the like of processing executed by the video processing unit 2. The control unit 10 also controls the light source control unit 16 of the image forming unit 12 to adjust the luminance of the light source 13 and the like.
The control unit 10 is connected to an operation unit 18 that receives user input operations. The operation unit 18 can be configured as an infrared light receiving unit that receives a signal from an operation panel including a switch or a remote control device (not shown). The projector 1 is not limited to the configuration including the operation unit 18, and the operation unit 18 may be externally connected to the projector 1. Further, the projector 1 may process control data transmitted from an external personal computer in the same manner as the operation on the operation unit 18. In this case, the projector 1 may include a communication unit that communicates with an external device such as a personal computer.

制御部10は、指示体5による操作を検出する位置検出部19に接続される。指示体5は、例えばペン型の本体を有し、ユーザーが手に持って使用する。位置検出部19は、スクリーンSC上の所定の位置検出範囲を対象として、指示体5により指示される位置を検出する。ユーザーがスクリーンSC上の任意の位置を指示体5で指し示すと、位置検出部19は、指示位置を検出し、指示位置を示す座標データを制御部10に出力する。位置検出部19が指示位置を検出可能な位置検出範囲は、例えば、投射光学系15が映像を投射する表示領域を含む範囲に設定される。位置検出部19が指示体5の指示位置を検出する具体的な方法は、例えば、位置検出部19が撮像素子を備え、撮像画像データから指示体5の画像を検出する方法を利用できる。この場合、指示体5に代えて、例えばユーザーの手指を指示体として用いることができる。また、例えば、指示体5が赤外光、可視光、紫外光等を発する発光部を備え、位置検出部19が指示体5の発光を検出する方法がある。その他の方法を用いることも勿論可能である。   The control unit 10 is connected to a position detection unit 19 that detects an operation by the indicator 5. The indicator 5 has, for example, a pen-shaped main body, and is used by the user with the hand. The position detector 19 detects a position indicated by the indicator 5 for a predetermined position detection range on the screen SC. When the user indicates an arbitrary position on the screen SC with the indicator 5, the position detector 19 detects the indicated position and outputs coordinate data indicating the indicated position to the controller 10. The position detection range in which the position detection unit 19 can detect the designated position is set, for example, to a range including a display area where the projection optical system 15 projects an image. As a specific method for the position detection unit 19 to detect the indication position of the indicator 5, for example, a method in which the position detection unit 19 includes an image sensor and detects an image of the indicator 5 from the captured image data can be used. In this case, instead of the indicator 5, for example, a user's finger can be used as the indicator. Further, for example, there is a method in which the indicator 5 includes a light emitting unit that emits infrared light, visible light, ultraviolet light, and the like, and the position detection unit 19 detects light emission of the indicator 5. Of course, other methods can be used.

図2は、プロジェクター1が備える映像処理部2を詳細に示す機能ブロック図である。
映像処理部2は、インターフェイス部11から映像データが入力される入力処理部21、入力処理部21に入力される映像データを処理する各種処理部、及び、処理された映像データを記憶するメモリーを備える。映像処理部2が有するメモリーの具体的仕様は特に制限されず、揮発性メモリーであっても不揮発性メモリーであってもよい。
本実施形態では、映像処理部2が、映像データを記憶するメモリーとしてDRAM22を備え、DRAM22に、DRAM22に対する映像データの書き込み及び読み出しを制御するDRAMコントローラー23を接続した構成を説明する。DRAM22は、いわゆるフレームメモリーとしても機能し、映像データをフレーム単位で記憶する。また、DRAM22に、映像データのフレームと、このフレームに関連する制御データとを対応付けて記憶することもできる。
FIG. 2 is a functional block diagram showing in detail the video processing unit 2 provided in the projector 1.
The video processing unit 2 includes an input processing unit 21 to which video data is input from the interface unit 11, various processing units that process video data input to the input processing unit 21, and a memory that stores the processed video data. Prepare. The specific specification of the memory included in the video processing unit 2 is not particularly limited, and may be a volatile memory or a nonvolatile memory.
In the present embodiment, a configuration will be described in which the video processing unit 2 includes a DRAM 22 as a memory for storing video data, and a DRAM controller 23 that controls writing and reading of video data to and from the DRAM 22 is connected to the DRAM 22. The DRAM 22 also functions as a so-called frame memory and stores video data in units of frames. The DRAM 22 can also store a frame of video data and control data related to this frame in association with each other.

DRAMコントローラー23は、映像処理部2が備える処理部としての2画面制御部24、OSD処理部25、レート変換部26、及びブロック転送部28の各部に接続される。DRAMコントローラー23は、上記各処理部のメモリーライト要求およびメモリーリード要求に応じて調停を行い、DRAM22に対する書き込み(ライト)、読み出し(リード)を制御する。
映像処理部2は、例えば一つのASICとして実装することが可能であり、DRAM22をASICに内蔵してもよいし、ASICにDRAM22を外部接続してもよい。
The DRAM controller 23 is connected to each of a two-screen control unit 24, an OSD processing unit 25, a rate conversion unit 26, and a block transfer unit 28 as processing units provided in the video processing unit 2. The DRAM controller 23 performs arbitration according to the memory write request and the memory read request of each processing unit, and controls writing (writing) and reading (reading) with respect to the DRAM 22.
The video processing unit 2 can be mounted as, for example, one ASIC, and the DRAM 22 may be built in the ASIC, or the DRAM 22 may be externally connected to the ASIC.

入力処理部21には、主映像パス30及び副映像パス40が並列に接続される。主映像パス30は、映像入力部31、スケーラー32、及び色補正部33を備え、色補正部33は2画面制御部24に接続される。また、副映像パス40は、映像入力部41、スケーラー42、及び色補正部43を備え、色補正部43は2画面制御部24に接続される。   A main video path 30 and a sub video path 40 are connected to the input processing unit 21 in parallel. The main video path 30 includes a video input unit 31, a scaler 32, and a color correction unit 33, and the color correction unit 33 is connected to the two-screen control unit 24. The sub-video path 40 includes a video input unit 41, a scaler 42, and a color correction unit 43, and the color correction unit 43 is connected to the two-screen control unit 24.

入力処理部21は、インターフェイス部11から入力される映像データを、主映像パス30及び/または副映像パス40に出力する。主映像パス30と副映像パス40のうち、入力処理部21が映像データを出力する出力先は、制御部10(図1)の制御により設定される。
また、入力処理部21は、インターフェイス部11から入力される映像データに対する処理を行って、処理後の映像データを主映像パス30及び/又は副映像パス40に出力してもよい。入力処理部21が実行する処理は、例えば、ノイズ除去処理、2D(平面)映像データの3D(立体)映像データへの変換処理、中間フレーム生成(フレーム補間)処理、鮮鋭化処理等とすることができる。また、入力処理部21が、キーストーン(台形歪み)補正処理を行ってもよい。
The input processing unit 21 outputs the video data input from the interface unit 11 to the main video path 30 and / or the sub video path 40. Of the main video path 30 and the sub video path 40, the output destination to which the input processing unit 21 outputs video data is set by the control of the control unit 10 (FIG. 1).
The input processing unit 21 may perform processing on the video data input from the interface unit 11 and output the processed video data to the main video path 30 and / or the sub video path 40. The processing executed by the input processing unit 21 is, for example, noise removal processing, conversion processing of 2D (planar) video data to 3D (stereoscopic) video data, intermediate frame generation (frame interpolation) processing, sharpening processing, and the like. Can do. Further, the input processing unit 21 may perform keystone (trapezoidal distortion) correction processing.

主映像パス30が備える映像入力部31は、入力処理部21から入力される映像データを取得して、スケーラー32に出力する。   The video input unit 31 included in the main video path 30 acquires the video data input from the input processing unit 21 and outputs the video data to the scaler 32.

スケーラー32は、映像入力部31が出力する映像データに対し、フレームを拡大し、或いは縮小する解像度変換処理を実行する。また、スケーラー32は、解像度を高める場合に、超解像処理などの鮮鋭化処理を行う構成としてもよい。スケーラー32は、解像度変換処理のタイミングを映像入力部31が映像データを出力するタイミングに合わせることで、DRAM22に映像データを書き込むことなく、解像度を変換した映像データを色補正部33に出力する。   The scaler 32 executes resolution conversion processing for enlarging or reducing the frame of the video data output from the video input unit 31. Further, the scaler 32 may be configured to perform a sharpening process such as a super-resolution process when increasing the resolution. The scaler 32 matches the timing of the resolution conversion processing with the timing at which the video input unit 31 outputs the video data, and outputs the video data whose resolution has been converted to the color correction unit 33 without writing the video data to the DRAM 22.

色補正部33は、映像データに対する色補正処理を実行する。この色補正処理は、例えば、映像データのガンマ補正処理、色特性を補正する処理等を含む。これらの処理では、例えば、操作部18(図1)の操作によりユーザーが入力する調整値や目標値に合わせて、制御部10が補正パラメーターを算出して色補正部33に設定し、色補正部33は制御部10が設定するパラメーターに基づき補正を行う。   The color correction unit 33 performs color correction processing on the video data. This color correction processing includes, for example, gamma correction processing of video data, processing for correcting color characteristics, and the like. In these processes, for example, the control unit 10 calculates a correction parameter and sets it in the color correction unit 33 according to an adjustment value or a target value input by the user by operating the operation unit 18 (FIG. 1), and performs color correction. The unit 33 performs correction based on parameters set by the control unit 10.

映像入力部41は、映像入力部31と同様に、入力処理部21から入力される映像データを取得して、スケーラー42に出力する。
スケーラー42はスケーラー32と同様に構成される。スケーラー42は、映像入力部41が出力する映像データに対し解像度変換処理を実行し、処理後の映像データを色補正部43に出力する。色補正部43は、色補正部33と同様に、制御部10の制御に従って映像データに対する色補正処理を実行する。
Similar to the video input unit 31, the video input unit 41 acquires the video data input from the input processing unit 21 and outputs it to the scaler 42.
The scaler 42 is configured similarly to the scaler 32. The scaler 42 performs resolution conversion processing on the video data output from the video input unit 41, and outputs the processed video data to the color correction unit 43. Similar to the color correction unit 33, the color correction unit 43 executes color correction processing on the video data under the control of the control unit 10.

主映像パス30が備える映像入力部31及び色補正部33と、副映像パス40が備える映像入力部41及び色補正部43は、それぞれ、本発明の第1処理部に相当するということができる。また、主映像パス30を一つの処理部と考え、本発明の第1処理部としてもよく、副映像パス40を一つの処理部と考え、本発明の第1処理部としてもよい。   It can be said that the video input unit 31 and the color correction unit 33 included in the main video path 30 and the video input unit 41 and the color correction unit 43 included in the sub-video path 40 respectively correspond to the first processing unit of the present invention. . The main video path 30 may be considered as one processing unit and may be the first processing unit of the present invention, and the sub-video path 40 may be considered as one processing unit and may be the first processing unit of the present invention.

2画面制御部24は、制御部10の制御に従って2画面生成処理を実行する。2画面生成処理において、2画面制御部24は、主映像パス30と副映像パス40のそれぞれから入力される2つの映像データを組み合わせて、合成映像データを生成する。2画面制御部24は、2画面生成処理で生成した合成映像データをDRAMコントローラー23に出力して、DRAM22に書き込むことができる。2画面制御部24は、2画面生成処理において、主映像パス30から入力される映像データと副映像パス40から入力される映像データのタイミングを調整するため、少なくとも一方の映像データをDRAM22に書き込んでもよい。また、2画面制御部24は、合成映像データをOSD処理部25に出力する動作を行うことができる。   The two-screen control unit 24 executes a two-screen generation process according to the control of the control unit 10. In the two-screen generation process, the two-screen control unit 24 combines the two video data input from each of the main video path 30 and the sub-video path 40 to generate composite video data. The two-screen control unit 24 can output the composite video data generated by the two-screen generation process to the DRAM controller 23 and write it to the DRAM 22. The two-screen control unit 24 writes at least one of the video data to the DRAM 22 in order to adjust the timing of the video data input from the main video path 30 and the video data input from the sub-video path 40 in the two-screen generation process. But you can. Further, the two-screen control unit 24 can perform an operation of outputting the composite video data to the OSD processing unit 25.

2画面制御部24は、主映像パス30または副映像パス40から入力される映像データに対し、上記の合成映像データを生成する処理を行わずに、DRAMコントローラー23に出力して、DRAM22に書き込むことができる。また、この映像データをOSD処理部25に出力することもできる。
2画面制御部24の動作は、制御部10により制御される。すなわち、2画面制御部24が2画面生成処理を実行するか否かは制御部10により制御される。また、2画面制御部24が、映像データをDRAM22に書き込むか否か、及び、OSD処理部25に出力するか否かは、制御部10により制御される。
The two-screen control unit 24 outputs the video data input from the main video path 30 or the sub-video path 40 to the DRAM controller 23 without writing the above-described composite video data, and writes it to the DRAM 22. be able to. The video data can also be output to the OSD processing unit 25.
The operation of the two-screen control unit 24 is controlled by the control unit 10. That is, whether or not the two-screen control unit 24 executes the two-screen generation process is controlled by the control unit 10. Also, the control unit 10 controls whether the two-screen control unit 24 writes the video data to the DRAM 22 and outputs it to the OSD processing unit 25.

OSD処理部25は、2画面制御部24から入力される合成映像データ、或いは映像データに対し、OSD画像を重畳する処理を行う。   The OSD processing unit 25 performs a process of superimposing an OSD image on the composite video data or video data input from the two-screen control unit 24.

ここで、2画面制御部24及びOSD処理部25の動作について詳細に説明する。
図3は、プロジェクター1の動作の説明図であり、図3(A)は2画面制御部24が生成する合成映像データの一態様を示し、図3(B)は合成映像データの別の態様を示す。図3(C)はOSD処理部25が重畳する画像の一例を示す。
Here, operations of the two-screen control unit 24 and the OSD processing unit 25 will be described in detail.
FIG. 3 is an explanatory diagram of the operation of the projector 1, FIG. 3A shows one aspect of the composite video data generated by the two-screen control unit 24, and FIG. 3B shows another aspect of the composite video data. Indicates. FIG. 3C shows an example of an image superimposed by the OSD processing unit 25.

上述した2画面生成処理で、2画面制御部24は、主映像パス30及び副映像パス40が出力する映像データのフレームを組み合わせて、一つの合成映像データを生成する。2画面制御部24が生成する合成映像データは、例えば図3(A)、(B)のようにスクリーンSCに投射される。ここでは、主映像パス30が出力する映像データを主映像データとし、副映像パス40が出力する映像データを副映像データとする。   In the two-screen generation process described above, the two-screen control unit 24 generates one composite video data by combining the frames of the video data output from the main video path 30 and the sub-video path 40. The composite video data generated by the two-screen control unit 24 is projected onto the screen SC as shown in FIGS. 3A and 3B, for example. Here, the video data output from the main video path 30 is referred to as main video data, and the video data output from the sub video path 40 is referred to as sub video data.

図3(A)の例は、いわゆるピクチャーインピクチャーの形態である。この例では、スクリーンSCの表示領域VAに、主映像データに基づく主映像V1が表示され、主映像V1の一部に重なるように、副映像データに基づく副映像V2が配置される。主映像V1のサイズは表示領域VAのほぼ全体に等しく、副映像V2のサイズは主映像V1より小さい。
図3(B)の例は、いわゆるスプリットスクリーンの形態である。この例では、主映像V1と副映像V2とが同じサイズで並べられている。主映像V1及び副映像V2はいずれも、アスペクト比を維持して表示領域VAより小さいサイズに縮小されるため、表示領域VAの上下に黒い帯状の非表示領域がある。
The example of FIG. 3A is a so-called picture-in-picture form. In this example, the main video V1 based on the main video data is displayed in the display area VA of the screen SC, and the sub video V2 based on the sub video data is arranged so as to overlap a part of the main video V1. The size of the main video V1 is substantially equal to the entire display area VA, and the size of the sub-video V2 is smaller than the main video V1.
The example in FIG. 3B is a so-called split screen. In this example, the main video V1 and the sub video V2 are arranged in the same size. Since both the main video V1 and the sub video V2 are reduced to a size smaller than the display area VA while maintaining the aspect ratio, there are black strip-like non-display areas above and below the display area VA.

映像データをピクチャーインピクチャーで合成する場合、2画面制御部24は、副映像パス40が出力する副映像データのフレームを取得し、取得したフレームをDRAM22に書き込む。ここで、2画面制御部24は、取得したフレームを、制御部10により指定されたサイズ及び指定された位置に配置し、表示領域VAに相当するフレームとする。2画面制御部24は、主映像パス30が出力する主映像データのフレームを取得する処理と、DRAM22から副映像データのフレームを取得する処理とを実行する。この処理で、2画面制御部24は、主映像データのフレームに副映像データのフレームを重畳して合成し、図3(A)の合成映像データのフレームを生成する。   When combining video data with picture-in-picture, the two-screen control unit 24 acquires a frame of sub-video data output from the sub-video path 40 and writes the acquired frame to the DRAM 22. Here, the two-screen control unit 24 arranges the acquired frame at the size specified by the control unit 10 and the specified position, and sets it as a frame corresponding to the display area VA. The two-screen control unit 24 executes processing for acquiring a frame of main video data output from the main video path 30 and processing for acquiring a frame of sub-video data from the DRAM 22. In this process, the two-screen control unit 24 superimposes the frame of the sub-video data on the frame of the main video data and synthesizes it to generate the frame of the composite video data shown in FIG.

映像データをスプリットスクリーンで合成する場合、2画面制御部24は、主映像パス30が出力する主映像データのフレーム、及び、副映像パス40が出力する副映像データのフレームを、DRAM22に書き込む。
このとき、主映像データ及び副映像データのフレームは、いずれも縮小され、DRAM22における主映像データ用の領域、及び副映像用の領域の指定された位置に書き込まれる。この方法では、主映像データ及び副映像データが、DRAM22への書き込み時に縮小されて、DRAM22において合成される。主映像データ及び副映像データのフレームは、縮小された後に、主映像データ用の領域と副映像データ用の領域の先頭から書き込まれても良い。2画面制御部24は、いったん書き込んだ主映像データのフレームと副映像データのフレームとを読み出して、非表示領域を付加した合成映像データを生成する。
When synthesizing video data on a split screen, the two-screen control unit 24 writes the main video data frame output from the main video path 30 and the sub video data frame output from the sub video path 40 to the DRAM 22.
At this time, the frames of the main video data and the sub video data are both reduced and written in the designated positions of the main video data area and the sub video area in the DRAM 22. In this method, main video data and sub-video data are reduced when written to the DRAM 22 and are combined in the DRAM 22. The frames of the main video data and the sub video data may be written from the beginning of the main video data area and the sub video data area after being reduced. The two-screen control unit 24 reads the once written main video data frame and sub-video data frame, and generates composite video data to which a non-display area is added.

また、映像データをスプリットスクリーンで合成する処理では、主映像データのフレーム、及び、副映像データのフレームをDRAM22に書き込み、DRAM22から読み出す際に合成する方法を用いてもよい。この場合、2画面制御部24は、主映像パス30が出力する主映像データのフレーム、及び、副映像パス40が出力する副映像データのフレームを、縮小せず、或いは縮小のみ行ってDRAM22に書き込む。このとき、2画面制御部24は、主映像データのフレームを主映像データ用のDRAM22の領域に先頭から書き込んでもよく、副映像データのフレームも同様に、副映像データ用のDRAM22の領域に先頭から書き込んでもよい。2画面制御部24は、主映像データ及び副映像データのフレームを、スプリットスクリーン形式で合成する場合のサイズ及び配置に合わせたタイミングで、DRAM22から読み出して合成する。   In the process of combining video data with a split screen, a method of combining main video data frames and sub-video data frames into the DRAM 22 and reading out from the DRAM 22 may be used. In this case, the two-screen control unit 24 does not reduce or only reduces the main video data frame output from the main video path 30 and the sub video data frame output from the sub video path 40 to the DRAM 22. Write. At this time, the two-screen control unit 24 may write the frame of the main video data into the area of the DRAM 22 for main video data from the head, and the frame of the sub video data is similarly headed in the area of the DRAM 22 for sub video data. You may write from. The two-screen control unit 24 reads out the frames of the main video data and the sub-video data from the DRAM 22 and combines them at a timing according to the size and arrangement when combining in the split screen format.

従って、2画面制御部24は、図3(A)、(B)の合成映像データを生成する場合は、DRAM22に対する書き込み、及び、読み出しを実行する。
なお、主映像パス30が主映像データを出力し、副映像パス40が副映像データを出力する場合に限らず、例えば主映像パス30が主映像データのフレームと副映像データのフレームとを交互に出力することもできる。この場合、主映像パス30が出力するデータは、映像データのフレームに、主映像データであるか副映像データであるかを示す識別データが付加され、この識別データに基づき2画面制御部24がDRAM22への書き込み、読み出し、及び、合成映像データの生成を行う。
Therefore, the two-screen control unit 24 executes writing and reading to the DRAM 22 when generating the composite video data of FIGS. 3A and 3B.
The main video path 30 outputs main video data, and the sub video path 40 outputs sub video data. For example, the main video path 30 alternates between main video data frames and sub video data frames. Can also be output. In this case, the data output from the main video path 30 is added with identification data indicating whether it is main video data or sub-video data to the frame of the video data, and the two-screen control unit 24 based on this identification data. Writing to and reading from the DRAM 22 and generation of composite video data are performed.

また、2画面制御部24は、主映像パス30または副映像パス40のいずれかが出力する映像データのフレームを取得して、合成映像データを生成する処理を行わずに、OSD処理部25に出力することもできる。この場合、2画面制御部24は、取得した映像データのフレームをDRAM22に書き込んでも良く、フレームをDRAM22に書き込まないでOSD処理部25に出力しても良い。
これらの2画面制御部24の動作は制御部10により制御される。
Further, the two-screen control unit 24 acquires the frame of the video data output from either the main video path 30 or the sub-video path 40, and performs the process of generating the composite video data to the OSD processing unit 25. It can also be output. In this case, the two-screen control unit 24 may write the acquired frame of video data in the DRAM 22 or may output the frame to the OSD processing unit 25 without writing the frame in the DRAM 22.
The operations of these two-screen control units 24 are controlled by the control unit 10.

OSD処理部25は、プロジェクター1の操作や設定を行うためのメニュー画像等のOSD(On Screen Display)画像をDRAM22から読み出し、2画面制御部24が出力する映像データのフレームに重畳する。OSD処理部25は、2画面制御部24が出力するフレームのサイズ、表示位置、解像度等の変更を行わず、DRAM22上のOSD画像をα(アルファ)ブレンドで合成する。   The OSD processing unit 25 reads an OSD (On Screen Display) image such as a menu image for operating and setting the projector 1 from the DRAM 22 and superimposes it on a frame of video data output from the two-screen control unit 24. The OSD processing unit 25 synthesizes the OSD image on the DRAM 22 by α (alpha) blending without changing the size, display position, resolution, etc. of the frame output by the two-screen control unit 24.

OSD処理部25がDRAM22から読み出して重畳するOSD画像は、制御部10の制御によりDRAM22に書き込まれる画像である。制御部10は、操作部18の操作に応じて、予めROM10bや図示しない記憶部に記憶するOSD画像のデータを読み出し、DRAM22に書き込む。制御部10は、操作部18の操作に応じて、OSD画像データを演算によって生成し、DRAM22に書き込んでも良い。OSD処理部25が重畳するOSD画像のデータは、インデックス(パレット)形式を利用し、映像処理部2が表示可能な色数(階調数)よりも少ない色数とすることができる。
OSD処理部25は、2画面制御部24が出力するフレームのデータの出力タイミングに合わせて、DRAM22からOSD画像のデータを読み出し、フレームのデータとOSD画像のデータとをαブレンドして出力する。
The OSD image that the OSD processing unit 25 reads out from the DRAM 22 and is superimposed is an image that is written in the DRAM 22 under the control of the control unit 10. The control unit 10 reads out the OSD image data stored in advance in the ROM 10 b or a storage unit (not shown) according to the operation of the operation unit 18, and writes it in the DRAM 22. The control unit 10 may generate OSD image data by calculation in accordance with the operation of the operation unit 18 and write the OSD image data in the DRAM 22. The OSD image data superimposed by the OSD processing unit 25 uses an index (palette) format, and can have a smaller number of colors than the number of colors (the number of gradations) that can be displayed by the video processing unit 2.
The OSD processing unit 25 reads out the OSD image data from the DRAM 22 in accordance with the output timing of the frame data output from the two-screen control unit 24, and α-blends and outputs the frame data and the OSD image data.

また、制御部10は、指示体5の操作を位置検出部19で検出した場合に、指示体5の指示位置に対応して画像を描画し、描画した画像データをDRAM22に書き込むことができる。例えば、制御部10は、指示体5で指示された位置を頂点とする幾何学図形や、指示体5の指示位置の軌跡に沿った直線や曲線の画像を描画する。制御部10が描画しDRAM22に書き込む画像データは、OSD画像のデータと同様にDRAM22に記憶される。従って、この画像データは、OSD画像と同様に、OSD処理部25により映像データのフレームに重畳される。   In addition, when the operation of the indicator 5 is detected by the position detection unit 19, the control unit 10 can draw an image corresponding to the indication position of the indicator 5 and write the drawn image data in the DRAM 22. For example, the control unit 10 draws a geometric figure whose apex is the position indicated by the indicator 5 or a straight line or curved image along the locus of the indication position of the indicator 5. The image data drawn by the control unit 10 and written to the DRAM 22 is stored in the DRAM 22 in the same manner as the OSD image data. Therefore, this image data is superimposed on the frame of the video data by the OSD processing unit 25, like the OSD image.

図3(C)は制御部10が描画した画像を重畳した場合のスクリーンSCの投射画像の例を示す。表示領域VAには、指示体5の軌跡に沿って描画された曲線からなる描画画像V3が表示される。図3(C)の例では描画画像V3の背景に映像は無いが、主映像パス30または副映像パス40が処理した映像に描画画像V3を重畳することもできる。
制御部10が画像を描画し、OSD処理部25が描画された画像を映像に重畳する処理を行うことで、指示体5による描画の操作が可能となる。
FIG. 3C shows an example of a projected image on the screen SC when the image drawn by the control unit 10 is superimposed. In the display area VA, a drawn image V3 composed of a curve drawn along the locus of the indicator 5 is displayed. In the example of FIG. 3C, there is no video in the background of the drawing image V3, but the drawing image V3 can be superimposed on the video processed by the main video path 30 or the sub video path 40.
The control unit 10 draws an image, and the OSD processing unit 25 performs a process of superimposing the drawn image on the video, whereby the drawing operation by the indicator 5 can be performed.

レート変換部26は、変調部14の液晶ライトバルブを倍速や4倍速で駆動する場合に、OSD処理部25が出力する映像データのフレームレートの変換を行う。例えば、映像処理部2に入力される映像データが60fpsであり、液晶ライトバルブを4倍速で駆動する場合、レート変換部26は、240fpsの映像データをパネル補正部27に出力する。このため、レート変換部26は、OSD処理部25が出力するフレームをDRAM22に書き込み、このフレームを、変換後のフレームレートに合わせて読み出してパネル補正部27に出力する。変調部14が、液晶ライトバルブを備えていない構成であっても、レート変換部26によりフレームレート変換を行ってもよい。   The rate conversion unit 26 converts the frame rate of the video data output from the OSD processing unit 25 when the liquid crystal light valve of the modulation unit 14 is driven at double speed or quadruple speed. For example, when the video data input to the video processing unit 2 is 60 fps and the liquid crystal light valve is driven at a quadruple speed, the rate conversion unit 26 outputs 240 fps video data to the panel correction unit 27. Therefore, the rate conversion unit 26 writes the frame output from the OSD processing unit 25 to the DRAM 22, reads this frame in accordance with the converted frame rate, and outputs it to the panel correction unit 27. Even if the modulation unit 14 does not include a liquid crystal light valve, the rate conversion unit 26 may perform frame rate conversion.

パネル補正部27は、変調部14が備える液晶ライトバルブの電圧−透過率特性(VT特性)や、液晶ライトバルブの個体特有の色むらの状態に対応して、映像データを補正する。パネル補正部27は、例えば、ガンマ補正LUT(LookUp Table)や色むら補正LUTを用いて補正を行う。パネル補正部27は、補正後のフレームのデータを表示するための映像信号を、画像形成部12の表示駆動部17(図1)に出力する。   The panel correction unit 27 corrects the video data in accordance with the voltage-transmittance characteristic (VT characteristic) of the liquid crystal light valve included in the modulation unit 14 and the color unevenness characteristic of the individual liquid crystal light valve. The panel correction unit 27 performs correction using, for example, a gamma correction LUT (LookUp Table) or a color unevenness correction LUT. The panel correction unit 27 outputs a video signal for displaying the corrected frame data to the display driving unit 17 (FIG. 1) of the image forming unit 12.

映像処理部2は、ブロック転送部28(転送部)を備える。ブロック転送部28は、DRAMコントローラー23に接続され、DRAM22が記憶するフレームのデータを読み出すことが可能であり、読み出したデータを映像入力部31又は映像入力部41に入力する。ブロック転送部28は、フレームのデータに対応して垂直同期信号(VSYNC)や水平同期信号(HSYNC)等の映像フレーム制御信号を生成し、フレームのデータとタイミングを合わせて、映像入力部31又は映像入力部41に入力する。   The video processing unit 2 includes a block transfer unit 28 (transfer unit). The block transfer unit 28 is connected to the DRAM controller 23 and can read frame data stored in the DRAM 22. The block transfer unit 28 inputs the read data to the video input unit 31 or the video input unit 41. The block transfer unit 28 generates a video frame control signal such as a vertical synchronization signal (VSYNC) or a horizontal synchronization signal (HSYNC) corresponding to the frame data, and matches the timing with the frame data to generate the video input unit 31 or Input to the video input unit 41.

プロジェクター1は、操作部18の操作に応じて、表示映像を停止させる一時停止機能を有する。一時停止機能の実行中は、スクリーンSCには同じフレームが継続して投射される。一時停止機能を実行する場合、制御部10は映像処理部2を制御し、レート変換部26により、フレームのデータの読み出しと出力を実行させる。すなわち、操作部18の操作により一時停止機能が指示されると、制御部10は、レート変換部26に対し、DRAM22が記憶しているフレームのデータの読み出しと出力を実行するように制御を行う。この場合、レート変換部26はDRAM22への書き込みを行わず、それより前にレート変換部26がDRAM22に書き込んだフレームのデータ、或いは、2画面制御部24等が書き込んだデータを読み出す。従って、レート変換部26は、同じフレームのデータを続けてパネル補正部27に出力する。このため、スクリーンSCには同じフレームの映像が表示される。   The projector 1 has a pause function for stopping the display video in accordance with the operation of the operation unit 18. During execution of the pause function, the same frame is continuously projected on the screen SC. When executing the pause function, the control unit 10 controls the video processing unit 2 and causes the rate conversion unit 26 to read and output the frame data. That is, when the pause function is instructed by the operation of the operation unit 18, the control unit 10 controls the rate conversion unit 26 so as to read and output the frame data stored in the DRAM 22. . In this case, the rate conversion unit 26 does not write to the DRAM 22, but reads the frame data written by the rate conversion unit 26 to the DRAM 22 before that, or the data written by the two-screen control unit 24 or the like. Therefore, the rate conversion unit 26 continuously outputs the same frame data to the panel correction unit 27. For this reason, an image of the same frame is displayed on the screen SC.

一時停止機能の実行中は、スクリーンSCに表示される映像が止まるので、ユーザーが映像の色の調整等を行う場合に好適である。ユーザーは、スクリーンSCの画像を見ながら映像の色を確認し、操作部18に対する操作を行って、色の補正の内容を指定する。制御部10は、ユーザーの操作に基づき、色補正部33、43が実行する色調補正のパラメーター等の条件を決定し、色補正部33、43の動作の設定を更新する。
制御部10が色補正部33、43に対する設定を更新した場合、更新後の設定に基づいて映像データを補正して、この補正後の映像データに基づく映像をスクリーンSCに投射することが好ましい。そこで、制御部10は後述するように、一時停止機能の実行中に、DRAM22が記憶するフレームのデータを、設定変更後に補正したフレームデータで更新する。
While the pause function is being executed, the video displayed on the screen SC stops, which is suitable when the user adjusts the color of the video. The user confirms the color of the video while viewing the image on the screen SC, performs an operation on the operation unit 18 and designates the content of the color correction. Based on the user's operation, the control unit 10 determines conditions such as parameters for color correction performed by the color correction units 33 and 43 and updates the operation settings of the color correction units 33 and 43.
When the control unit 10 updates the settings for the color correction units 33 and 43, it is preferable to correct the video data based on the updated settings and project a video based on the corrected video data onto the screen SC. Therefore, as will be described later, the control unit 10 updates the frame data stored in the DRAM 22 with the frame data corrected after the setting change during execution of the temporary stop function.

一時停止機能の実行中に、DRAM22に書き込まれているフレームのデータを更新すると、レート変換部26は、更新後のデータをDRAM22から読み出すことになる。つまり、一時停止機能の実行中であっても、スクリーンSCに表示する映像を更新できる。この場合、レート変換部26は動作を変更しないので、予め設定されたフレームレート(たとえば、倍速駆動の120fps)でDRAM22のフレームのデータを読み出して出力する。従って、一時停止機能中にフレームのデータが更新されても、設定されたフレームレートで表示を続けることができる。   When the frame data written in the DRAM 22 is updated during the execution of the temporary stop function, the rate conversion unit 26 reads the updated data from the DRAM 22. That is, the video displayed on the screen SC can be updated even when the pause function is being executed. In this case, since the rate conversion unit 26 does not change the operation, the frame data of the DRAM 22 is read and output at a preset frame rate (for example, 120 fps of double speed driving). Therefore, even if the frame data is updated during the pause function, the display can be continued at the set frame rate.

図4は、プロジェクター1の動作を示すフローチャートであり、映像処理部2の動作を示す。また、図5〜図10は、図4に示した各ステップの動作を詳細に示すフローチャートである。
図4に示す動作は、映像処理部2が出力する映像データに基づく映像をスクリーンSCに投射する通常表示モードではなく、色の調整等をユーザーが行う動作モード(ユーザー調整モード)で実行される。このため、図4の動作に先立ち、ユーザーのリモコン等の操作に従い、制御部10は、ユーザー調整モードに移行する。
FIG. 4 is a flowchart showing the operation of the projector 1, and shows the operation of the video processing unit 2. 5 to 10 are flowcharts showing in detail the operation of each step shown in FIG.
The operation shown in FIG. 4 is executed in an operation mode (user adjustment mode) in which the user performs color adjustment and the like, not in a normal display mode in which an image based on the image data output from the image processing unit 2 is projected onto the screen SC. . Therefore, prior to the operation of FIG. 4, the control unit 10 shifts to the user adjustment mode in accordance with the operation of the user's remote controller or the like.

ユーザーの操作により一時停止機能の実行が指示されると、制御部10は、映像処理部2の各部を制御し、一時停止機能を開始する(ステップST1)。ユーザー調整モード、または、一時停止機能を実行する状態は、第2の動作モードに相当する。また、通常表示モードは、第1の動作モードに相当する。
制御部10は、1フレームメモリーライト処理を実行する(ステップST2)。ステップST2の1フレームメモリーライト処理は、映像を一時停止するために、停止中に表示する1フレームのデータをDRAM22に書き込む処理である。
When execution of the pause function is instructed by a user operation, the control unit 10 controls each unit of the video processing unit 2 and starts the pause function (step ST1). The state in which the user adjustment mode or the pause function is executed corresponds to the second operation mode. The normal display mode corresponds to the first operation mode.
The controller 10 executes a one-frame memory write process (step ST2). The one-frame memory write process in step ST2 is a process for writing one frame of data to be displayed during the stop to the DRAM 22 in order to pause the video.

図5に1フレームメモリーライト処理を示す。
制御部10は、映像処理部2の処理部の動作設定を変更する(ステップST21)。映像処理部2は、2画面制御部24、OSD処理部25、レート変換部26、主映像パス30、及び副映像パス40の各処理部の動作の設定を記憶するレジスター(図示略)を備える。制御部10は、レジスターの設定値を書き換えることで、動作設定を変更する。ステップST21では、スケーラー32、42の動作をオフにし、色補正部33、43の色補正処理および中間フレーム生成の動作をオフに設定する。一時停止中に表示するフレームは、通常表示と同じ順序で処理されるのが好ましく、映像処理部2が出力した映像が、なるべく変更されずにDRAM22に書き込まれることが好適である。このため、制御部10は、主映像パス30及び副映像パス40により、解像度変換、色補正、中間フレーム生成等、映像の内容を変化させる動作をオフにする。
FIG. 5 shows a one-frame memory write process.
The control unit 10 changes the operation setting of the processing unit of the video processing unit 2 (step ST21). The video processing unit 2 includes a register (not shown) that stores operation settings of the processing units of the two-screen control unit 24, the OSD processing unit 25, the rate conversion unit 26, the main video path 30, and the sub video path 40. . The control unit 10 changes the operation setting by rewriting the setting value of the register. In step ST21, the operations of the scalers 32 and 42 are turned off, and the color correction processing and intermediate frame generation operations of the color correction units 33 and 43 are set off. The frames displayed during the pause are preferably processed in the same order as the normal display, and the video output from the video processing unit 2 is preferably written to the DRAM 22 as much as possible. Therefore, the control unit 10 turns off operations for changing the content of the video, such as resolution conversion, color correction, and intermediate frame generation, by the main video path 30 and the sub video path 40.

また、ステップST21で、制御部10は、2画面制御部24のDRAM22への書き込みをオンにし、2画面制御部24のOSD処理部25への出力をオフに設定する。また、レート変換部26がDRAM22からフレームのデータの読み出しを繰り返してパネル補正部27にデータを出力する動作(リピート出力)をオンに設定する。
これにより2画面制御部24が1フレームのデータをDRAM22に書き込むことが可能になる。さらに、2画面制御部24からOSD処理部25への出力を停止し、レート変換部26がDRAM22への書き込みを行わなくなるので、DRAM22のデータが意図せず更新されることを防止する。
In step ST21, the control unit 10 turns on the writing to the DRAM 22 of the two-screen control unit 24 and sets the output to the OSD processing unit 25 of the two-screen control unit 24 to off. Further, the rate converter 26 repeatedly reads out the frame data from the DRAM 22 and outputs the data to the panel corrector 27 (repeat output).
As a result, the two-screen control unit 24 can write one frame of data into the DRAM 22. Furthermore, since the output from the two-screen control unit 24 to the OSD processing unit 25 is stopped and the rate conversion unit 26 does not write to the DRAM 22, the data in the DRAM 22 is prevented from being updated unintentionally.

続いて、制御部10は、アップデート処理を行う(ステップST22)。
図10は、アップデート処理を示すフローチャートである。アップデート処理は、制御部10が映像処理部2の各部の設定を変更した場合に、この変更を反映させるための動作である。具体的には、制御部10は、映像処理部2が備えるアップデートレジスター(図示略)の値を更新し(ステップST81)、アップデート完了まで待機し(ステップST82;NO)、アップデートが完了したら本処理を終了する(ステップST82;YES)。映像処理部2が備えるアップデートレジスターは、設定の更新の有無を示す値を保持するレジスターである。
Subsequently, the control unit 10 performs an update process (step ST22).
FIG. 10 is a flowchart showing the update process. The update process is an operation for reflecting the change when the control unit 10 changes the setting of each unit of the video processing unit 2. Specifically, the control unit 10 updates the value of an update register (not shown) included in the video processing unit 2 (step ST81), waits for completion of the update (step ST82; NO), and performs this processing when the update is completed. Is terminated (step ST82; YES). The update register included in the video processing unit 2 is a register that holds a value indicating whether the setting is updated.

図5の1フレームメモリーライト処理が完了し、アップデートレジスターの値が更新されると、VSYNCに同期して映像処理部2の各部の動作が切り替わり、入力処理部21に入力された映像が1フレームだけDRAM22に書き込まれる。
すなわち、制御部10は、設定を変更した処理部について、ステップST81でアップデートレジスターの値を1に書き換える。アップデートレジスターが1に書き換えられた処理部は、次のVSYNCに同期して動作を切り替え、この切り替えに伴いアップデートレジスターの値は0に書き換えられる。従って、制御部10は、ステップST82で、アップデートレジスターの値を参照して、処理部の動作が切り替わったことを検出できる。
When the one-frame memory write process of FIG. 5 is completed and the value of the update register is updated, the operation of each part of the video processing unit 2 is switched in synchronization with VSYNC, and the video input to the input processing unit 21 is one frame. Only written to the DRAM 22.
That is, the control unit 10 rewrites the value of the update register to 1 in step ST81 for the processing unit whose setting has been changed. The processing unit whose update register is rewritten to 1 switches its operation in synchronization with the next VSYNC, and the value of the update register is rewritten to 0 along with this switching. Therefore, in step ST82, the control unit 10 can detect that the operation of the processing unit has been switched with reference to the value of the update register.

続いて、制御部10は、1フレーム先行表示処理を実行する(ステップST3)。
図6に1フレーム先行表示処理を示す。
この1フレーム先行表示処理では、ステップST2の1フレームメモリーライト処理でDRAM22に書き込まれたフレームのデータを表示する。ステップST2では2画面制御部24の出力がオフにされるため、ステップST2でDRAM22に書き込まれた映像データは、スクリーンSCに表示されない。このため、図6の動作により、1フレームの映像データに基づく映像を表示する。
これにより、一時停止機能で映像を停止するときに、最初に1フレームの映像の変化が生じて違和感を招くことを防止できる。
Subsequently, the control unit 10 executes a one-frame advance display process (step ST3).
FIG. 6 shows a one-frame advance display process.
In this one-frame advance display process, the frame data written to the DRAM 22 in the one-frame memory write process in step ST2 is displayed. Since the output of the two-screen control unit 24 is turned off in step ST2, the video data written in the DRAM 22 in step ST2 is not displayed on the screen SC. Therefore, an image based on one frame of video data is displayed by the operation of FIG.
Thus, when the video is stopped by the pause function, it is possible to prevent a change in the video of one frame from occurring first and causing a sense of incongruity.

制御部10は、映像処理部2の処理部の動作設定に関し、レジスターの値を書き換え、設定を変更する(ステップST31)。ステップST31で、制御部10は、映像入力部31の映像データの入力を、ブロック転送部28側に切り替える。また、スケーラー32の解像度変換の動作をオンにし、色補正部33、43の色補正処理をオンに設定する。これにより、DRAM22に記憶されたフレームのデータを、主映像パス30に入力し、主映像パス30でフレームのデータを処理して2画面制御部24に出力することが可能になる。本実施形態では、ブロック転送部28は副映像パス40に映像データを入力しないため、ステップST31で、制御部10は副映像パス40に関する設定を変更しなくてもよい。また、ステップST31で、中間フレーム生成の動作はオフのままに設定される。映像を静止させる場合は中間フレームの生成は不要だからである。   The control unit 10 rewrites the register value and changes the setting regarding the operation setting of the processing unit of the video processing unit 2 (step ST31). In step ST31, the control unit 10 switches the video data input of the video input unit 31 to the block transfer unit 28 side. Also, the resolution conversion operation of the scaler 32 is turned on, and the color correction processing of the color correction units 33 and 43 is set to on. As a result, the frame data stored in the DRAM 22 can be input to the main video path 30, and the frame data can be processed in the main video path 30 and output to the two-screen control unit 24. In the present embodiment, since the block transfer unit 28 does not input video data to the sub-video path 40, the control unit 10 does not need to change the setting related to the sub-video path 40 in step ST31. In step ST31, the intermediate frame generation operation is set to be off. This is because it is not necessary to generate an intermediate frame when the video is stopped.

また、ステップST31で、制御部10は、2画面制御部24のDRAM22への書き込みをオフにし、2画面制御部24のOSD処理部25への出力をオンに設定する。また、レート変換部26のリピート出力をオフに設定する。
この設定が反映されると、2画面制御部24は主映像パス30が出力する映像データをOSD処理部25に出力し、かつ、DRAM22に記憶されたフレームのデータを更新する。また、レート変換部26はOSD処理部25が出力する映像データをDRAM22に書き込み、設定されたフレームレートで読み出してパネル補正部27に出力する。
ここで、2画面制御部24は、主映像パス30が出力する映像データを、DRAM22に書き込まずにOSD処理部25に出力するので、主映像データと副映像データとをピクチャーインピクチャーで合成する場合と同じ動作となる。
Further, in step ST31, the control unit 10 turns off the writing to the DRAM 22 of the two-screen control unit 24 and sets the output to the OSD processing unit 25 of the two-screen control unit 24 to be on. Further, the repeat output of the rate conversion unit 26 is set to OFF.
When this setting is reflected, the two-screen control unit 24 outputs the video data output from the main video path 30 to the OSD processing unit 25 and updates the frame data stored in the DRAM 22. Further, the rate conversion unit 26 writes the video data output from the OSD processing unit 25 to the DRAM 22, reads it at the set frame rate, and outputs it to the panel correction unit 27.
Here, since the two-screen control unit 24 outputs the video data output from the main video path 30 to the OSD processing unit 25 without being written in the DRAM 22, the main video data and the sub-video data are combined in a picture-in-picture. It becomes the same operation as the case.

制御部10は、ステップST31でレジスターの設定を行った後、アップデート処理を実行して(ステップST32)、設定を反映させる。このアップデート処理は図10に示した通りである。その後、制御部10は、ブロック転送部28に対し、DRAM22のフレームのデータの読み出し及び転送を指示するコマンドを出力し、フレームのデータが転送される(ステップST33)。これにより、DRAM22に記憶されたフレームのデータが、主映像パス30による解像度変換や色補正の処理を経て、スクリーンSCに投射される。   After setting the register in step ST31, the control unit 10 executes an update process (step ST32) to reflect the setting. This update process is as shown in FIG. Thereafter, the control unit 10 outputs a command for instructing reading and transfer of frame data of the DRAM 22 to the block transfer unit 28, and the frame data is transferred (step ST33). As a result, the frame data stored in the DRAM 22 is projected onto the screen SC through resolution conversion and color correction processing by the main video path 30.

ステップST3で1フレームが先行して表示され、表示される映像が停止すると、ユーザーがリモコンを操作して色の調整等を行うことが可能となる。制御部10は、ユーザー調整処理を行う(ステップST4)。
図7にユーザー調整処理を示す。
ユーザー調整処理で、制御部10は、ユーザーによるリモコン等の操作を待つ状態で待機する(ステップST41)。ユーザーの操作が行われ、この操作を操作部18が検出すると、制御部10は、ユーザーの操作に対応してパラメーターを変更する(ステップST42)。ステップST42で、制御部10は、ユーザーの操作により指定された色の調整値に基づき、色補正部33、43のパラメーターを決定する。ユーザーの操作により、主映像または副映像のいずれかを指定して色の調整値が指定された場合、制御部10は、色補正部33または色補正部43のいずれかのパラメーターを決定する。
When one frame is displayed in advance in step ST3 and the displayed video stops, the user can adjust the color by operating the remote controller. The control unit 10 performs user adjustment processing (step ST4).
FIG. 7 shows the user adjustment process.
In the user adjustment process, the control unit 10 stands by in a state of waiting for an operation of the remote controller or the like by the user (step ST41). When a user operation is performed and the operation unit 18 detects this operation, the control unit 10 changes the parameter corresponding to the user operation (step ST42). In step ST42, the control unit 10 determines parameters of the color correction units 33 and 43 based on the color adjustment value designated by the user's operation. When the color adjustment value is specified by specifying either the main video or the sub-video by the user's operation, the control unit 10 determines any parameter of the color correction unit 33 or the color correction unit 43.

また、ステップST41で、制御部10は、ユーザーが色の調整等を行うためのメニュー画像等をOSD表示してもよい。制御部10は、OSD画像のデータをDRAM22に書き込み、OSD処理部25は、1フレーム先行表示処理(ステップST3)で2画面制御部24が出力する映像データのフレームにOSD画像を重畳する。この場合、ユーザーが操作を行うことで、OSD画像を変更することがあり、制御部10は、DRAM22に新たなOSD画像のデータを書き込む。   In step ST41, the control unit 10 may OSD display a menu image or the like for the user to perform color adjustment or the like. The control unit 10 writes the OSD image data to the DRAM 22, and the OSD processing unit 25 superimposes the OSD image on the frame of the video data output by the two-screen control unit 24 in the one-frame advance display process (step ST3). In this case, the OSD image may be changed by an operation by the user, and the control unit 10 writes new OSD image data in the DRAM 22.

ステップST4のユーザー調整処理の後、制御部10は、1フレーム更新表示を実行する(ステップST5)。1フレーム更新表示処理で、制御部10は、ステップST4のユーザー調整処理の結果を1フレームの映像データに反映させて、スクリーンSCに表示する映像を更新する。   After the user adjustment process in step ST4, the control unit 10 executes a one-frame update display (step ST5). In the one-frame update display process, the control unit 10 updates the video displayed on the screen SC by reflecting the result of the user adjustment process in step ST4 in the one-frame video data.

図8に1フレーム更新表示処理を示す。
制御部10は、ステップST4のユーザー調整処理に基づいて、映像処理部2の各部の動作設定を変更する(ステップST51)。ステップST51では、ステップST42(図7)で決定、変更したパラメーターを、色補正部33及び/又は色補正部43に対応するレジスター(図示略)に書き込む。また、ステップST51で、制御部10は、OSD処理部25によるOSD画像の重畳をするか否かの設定を行い、レジスターの値を書き換える。ステップST42でOSD画像を更新した場合や、OSD画像の表示を継続する場合はOSD処理部25の動作をオンに設定する。また、ユーザーの操作に対応して、OSD画像の表示を停止する場合は、OSD処理部25の動作をオフにする。
FIG. 8 shows a one-frame update display process.
The control unit 10 changes the operation setting of each unit of the video processing unit 2 based on the user adjustment process of step ST4 (step ST51). In step ST51, the parameter determined and changed in step ST42 (FIG. 7) is written in a register (not shown) corresponding to the color correction unit 33 and / or the color correction unit 43. In step ST51, the control unit 10 sets whether or not the OSD image is superimposed by the OSD processing unit 25, and rewrites the register value. When the OSD image is updated in step ST42 or when the display of the OSD image is continued, the operation of the OSD processing unit 25 is set to ON. In addition, when the display of the OSD image is stopped in response to a user operation, the operation of the OSD processing unit 25 is turned off.

続いて、制御部10は、アップデート処理を実行する(ステップST52)。ステップST52のアップデート処理は、図10に示した通りである。その後、制御部10は、ブロック転送部28に対し、DRAM22のフレームのデータの読み出し及び転送を指示するコマンドを出力し、フレームのデータが転送される(ステップST53)。これにより、DRAM22に記憶されたフレームのデータが、ステップST52で変更されたパラメーターに従って補正されて、スクリーンSCに投射される。また、DRAM22のOSD画像が更新された場合、更新されたOSD画像が重畳された映像が、スクリーンSCに表示される。
この1フレーム更新表示処理では、ステップST3の1フレーム先行表示処理で表示されたフレームと同一であり、ユーザーの操作により色補正の内容が変化したフレームが表示される。このため、ユーザーは、色補正の効果を容易に確認できる。
Subsequently, the control unit 10 executes an update process (step ST52). The update process in step ST52 is as shown in FIG. Thereafter, the control unit 10 outputs a command for instructing reading and transfer of the frame data of the DRAM 22 to the block transfer unit 28, and the frame data is transferred (step ST53). As a result, the frame data stored in the DRAM 22 is corrected according to the parameter changed in step ST52 and projected onto the screen SC. Further, when the OSD image of the DRAM 22 is updated, a video on which the updated OSD image is superimposed is displayed on the screen SC.
In this one-frame update display process, a frame that is the same as the frame displayed in the one-frame advance display process in step ST3 and whose color correction content has been changed by a user operation is displayed. For this reason, the user can easily confirm the effect of the color correction.

なお、ステップST52において、色補正部33または色補正部43のパラメーターを変更せず、OSD画像の変更のみを行った場合、ブロック転送部28がDRAM22からフレームのデータを読み出す必要はない。この場合、2画面制御部24がDRAM22からフレームのデータを読み出して、OSD処理部25に出力し、OSD処理部25でOSD画像を重畳する処理を行う構成としてもよい。これにより、不要な回路動作を削減し、消費電力量を低減できる。   In step ST52, if only the OSD image is changed without changing the parameters of the color correction unit 33 or the color correction unit 43, the block transfer unit 28 does not need to read frame data from the DRAM 22. In this case, the two-screen control unit 24 may read the frame data from the DRAM 22, output the frame data to the OSD processing unit 25, and perform a process of superimposing the OSD image on the OSD processing unit 25. Thereby, unnecessary circuit operation can be reduced and the power consumption can be reduced.

制御部10は、ユーザーの操作等に基づき、調整を終了するか否かを判定する(ステップST6)。調整を終了しない場合は(ステップST6;NO)ステップST4に戻って、ユーザーの操作に基づき色補正のパラメーター等を変更する。また、調整を終了する場合(ステップST6;YES)、制御部10は通常表示復帰処理を実行し(ステップST7)、動作を終了する。   The control unit 10 determines whether or not to end the adjustment based on the user operation or the like (step ST6). If the adjustment is not finished (step ST6; NO), the process returns to step ST4, and the color correction parameters and the like are changed based on the user's operation. When the adjustment is finished (step ST6; YES), the control unit 10 executes a normal display return process (step ST7) and finishes the operation.

図9は、通常表示復帰処理を示すフローチャートである。
制御部10は、映像処理部2の処理部の動作設定に関し、レジスターの値を書き換え、設定を変更する(ステップST71)。具体的には、制御部10は、映像入力部31の映像データの入力を、入力処理部21側に切り替えるよう設定を変更する。
FIG. 9 is a flowchart showing normal display return processing.
The control unit 10 rewrites the value of the register and changes the setting regarding the operation setting of the processing unit of the video processing unit 2 (step ST71). Specifically, the control unit 10 changes the setting to switch the video data input of the video input unit 31 to the input processing unit 21 side.

制御部10は、ステップST71でレジスターの設定を行った後、アップデート処理を実行して(ステップST72)、設定を反映させる。このアップデート処理は図10に示した通りである。
これにより、入力処理部21が主映像パス30に出力する主映像データを、主映像パス30で処理し、2画面制御部24、OSD処理部25及びレート変換部26の処理を経てパネル補正部27に出力できる。また、ステップST71において、制御部10は、必要に応じて、色補正部33が中間フレームを生成する動作をオンに切り替える。
After setting the register in step ST71, the control unit 10 executes an update process (step ST72) to reflect the setting. This update process is as shown in FIG.
As a result, the main video data output from the input processing unit 21 to the main video path 30 is processed by the main video path 30, and after the processing of the two-screen control unit 24, OSD processing unit 25 and rate conversion unit 26, the panel correction unit. 27. In step ST71, the control unit 10 switches on the operation in which the color correction unit 33 generates the intermediate frame as necessary.

ここで、映像処理部2の動作を、各処理部間のデータの流れで示す。
図11及び図12は、映像処理部2の動作を示す説明図であり、図11(A)は通常表示モードの動作を示し、図11(B)は1フレームメモリーライト処理を示し、図12は1フレーム先行表示処理を示す。図11及び図12においては、ブロック転送部28から映像入力部41への出力ラインの図示を省略する。
Here, the operation of the video processing unit 2 is shown by the flow of data between the processing units.
11 and 12 are explanatory diagrams showing the operation of the video processing unit 2. FIG. 11A shows the operation in the normal display mode, FIG. 11B shows the 1-frame memory write process, and FIG. Indicates one-frame advance display processing. 11 and 12, the output line from the block transfer unit 28 to the video input unit 41 is not shown.

図11及び図12では、入力処理部21から主映像パス30への主映像データの出力を出力S1とし、色補正部33から2画面制御部24への主映像データの出力を出力S2とし、2画面制御部24によるDRAM22への書き込みを出力S3とする。また、2画面制御部24からOSD処理部25への映像データの出力を出力S5とし、OSD処理部25によるDRAM22からの読み出しを出力S6とし、OSD処理部25からレート変換部26への出力を出力S7とする。レート変換部26からDRAM22への書き込みを出力S8、DRAM22からの読み出しを出力S9、レート変換部26からパネル補正部27への出力を出力S10とする。ブロック転送部28によるDRAM22からの読み出しを出力S21、ブロック転送部28から映像入力部31への出力を出力S22とする。   11 and 12, the output of main video data from the input processing unit 21 to the main video path 30 is output S1, and the output of main video data from the color correction unit 33 to the two-screen control unit 24 is output S2. Writing to the DRAM 22 by the two-screen control unit 24 is set as an output S3. Also, the output of the video data from the two-screen control unit 24 to the OSD processing unit 25 is set as output S5, the reading from the DRAM 22 by the OSD processing unit 25 is set as output S6, and the output from the OSD processing unit 25 to the rate conversion unit 26 The output is S7. Writing from the rate conversion unit 26 to the DRAM 22 is output S8, reading from the DRAM 22 is output S9, and output from the rate conversion unit 26 to the panel correction unit 27 is output S10. Reading from the DRAM 22 by the block transfer unit 28 is output S21, and output from the block transfer unit 28 to the video input unit 31 is output S22.

図11(A)では、入力処理部21に主映像データが入力され、副映像データが入力されない場合の動作を例示する。実際に映像データが出力される経路を破線で示す。通常表示モードでは、入力処理部21が主映像データを映像入力部31に出力し(出力S1)、映像入力部31が主映像データをスケーラー32に出力する。スケーラー32は、解像度変換処理を行って、主映像データを色補正部33に出力し、色補正部33が色補正処理や中間フレームの生成を行い、処理後の主映像データを2画面制御部24に出力する(出力S2)。   FIG. 11A illustrates an operation when main video data is input to the input processing unit 21 and no sub-video data is input. A path through which video data is actually output is indicated by a broken line. In the normal display mode, the input processing unit 21 outputs the main video data to the video input unit 31 (output S1), and the video input unit 31 outputs the main video data to the scaler 32. The scaler 32 performs resolution conversion processing and outputs the main video data to the color correction unit 33. The color correction unit 33 performs color correction processing and generation of an intermediate frame, and the processed main video data is transmitted to the two-screen control unit. 24 (output S2).

この例では副映像データが入力されないため、2画面制御部24は、色補正部33が出力した主映像データを、OSD処理部25に出力する(出力S5)。OSD処理部25はOSD画像データをDRAM22から読み出し(出力S6)、重畳した映像データをレート変換部26に出力する(出力S7)。レート変換部26は、映像データをDRAM22に書き込み(出力S8)、この映像データを設定されたフレームレートで読み出して(出力S9)、パネル補正部27に出力する(出力S10)。   In this example, since no sub-picture data is input, the two-screen control unit 24 outputs the main video data output from the color correction unit 33 to the OSD processing unit 25 (output S5). The OSD processing unit 25 reads the OSD image data from the DRAM 22 (output S6), and outputs the superimposed video data to the rate conversion unit 26 (output S7). The rate conversion unit 26 writes the video data to the DRAM 22 (output S8), reads the video data at the set frame rate (output S9), and outputs it to the panel correction unit 27 (output S10).

図11(B)の1フレーム先行表示処理では、図6で説明した制御により、入力処理部21が映像データを映像入力部31に出力し(出力S1)、2画面制御部24がDRAM22に映像データを書き込む(出力S3)。そして、レート変換部26がDRAM22から映像データを読み出して(出力S9)、パネル補正部27に出力する(出力S10)。   In the one-frame advance display process of FIG. 11B, the input processing unit 21 outputs video data to the video input unit 31 (output S1) by the control described in FIG. Data is written (output S3). Then, the rate conversion unit 26 reads the video data from the DRAM 22 (output S9) and outputs it to the panel correction unit 27 (output S10).

また、図12に示す1フレーム更新表示処理では、図8で説明した制御により、ブロック転送部28がDRAM22から映像データを読み出し(出力S21)、映像入力部31に出力する(出力S22)。主映像パス30により映像データが処理された後、処理後の映像データが2画面制御部24に出力され(出力S2)、2画面制御部24は、色補正部33が出力した主映像データを、OSD処理部25に出力する(出力S5)。以下は図11(A)の通常表示の動作と同様に、OSD処理部25、レート変換部26及びパネル補正部27により映像データが処理されて、パネル補正部27に出力される(出力S10)。   In the one-frame update display process shown in FIG. 12, the block transfer unit 28 reads video data from the DRAM 22 (output S21) and outputs it to the video input unit 31 (output S22) by the control described in FIG. After the video data is processed by the main video path 30, the processed video data is output to the two-screen control unit 24 (output S2), and the two-screen control unit 24 outputs the main video data output from the color correction unit 33. And output to the OSD processing unit 25 (output S5). In the following, the video data is processed by the OSD processing unit 25, the rate conversion unit 26, and the panel correction unit 27 and output to the panel correction unit 27 (output S10), as in the normal display operation of FIG. .

図13は、プロジェクター1の動作を示すタイミングチャートであり、詳細には映像処理部2の動作を示す。図13(A)は主映像パス30に入力されるVSYNCを示し、(B)は入力処理部21に入力される映像データのフレームを示す。(B)のフレームには便宜的に0番から始まる連番を付し、図13(A)のVSYNCは、入力されるフレームに対応して番号F0から始まる番号を付す。
図13(C)はアップデート処理(図10)で設定されたアップデートの実行状態を示し、処理部の動作が切り替えられたときにハイレベルとなる。図13(D)は2画面制御部24によりDRAM22に書き込まれるフレーム(出力S3)を示し、(E)はブロック転送部28が映像入力部31に出力するフレーム(出力S22)を示す。(F)は2画面制御部24がOSD処理部25に出力するフレーム(出力S5)を示し、(G)はレート変換部26がDRAM22に書き込むフレーム(出力S8)を示し、(H)は画像形成部12に表示されるフレームを示す。
FIG. 13 is a timing chart showing the operation of the projector 1, and shows the operation of the video processing unit 2 in detail. FIG. 13A shows VSYNC input to the main video path 30, and FIG. 13B shows a frame of video data input to the input processing unit 21. For convenience, serial numbers starting from 0 are attached to the frames in (B), and VSYNC in FIG. 13A is assigned a number starting from the number F0 corresponding to the input frame.
FIG. 13C shows the execution state of the update set in the update process (FIG. 10), and becomes high level when the operation of the processing unit is switched. 13D shows a frame (output S3) written to the DRAM 22 by the two-screen control unit 24, and FIG. 13E shows a frame (output S22) output by the block transfer unit 28 to the video input unit 31. (F) shows a frame (output S5) that the two-screen control unit 24 outputs to the OSD processing unit 25, (G) shows a frame (output S8) that the rate conversion unit 26 writes to the DRAM 22, and (H) shows an image. The frame displayed on the formation part 12 is shown.

入力処理部21には、一定周期で入力されるVSYNCに同期してフレームのデータが入力される。先頭のフレーム0は、映像処理部2により順次処理されてレート変換部26によりDRAM22に書き込まれる。そして、フレーム0の書き込みが完了した後、レート変換部26がDRAM22からフレームのデータを読み出し、このフレームの画像が画像形成部12に表示される。図13の例で、レート変換部26は、変調部14の液晶ライトバルブを2倍速駆動するため、VSYNCの2倍の周波数でフレームのデータを出力する。   Frame data is input to the input processing unit 21 in synchronization with VSYNC input at a constant cycle. The first frame 0 is sequentially processed by the video processing unit 2 and written to the DRAM 22 by the rate conversion unit 26. Then, after the writing of frame 0 is completed, the rate conversion unit 26 reads the frame data from the DRAM 22, and the image of this frame is displayed on the image forming unit 12. In the example of FIG. 13, the rate conversion unit 26 outputs frame data at a frequency twice that of VSYNC in order to drive the liquid crystal light valve of the modulation unit 14 at a double speed.

図13には、F1のVSYNCからF2のVSYNCまでの間で、ユーザーの操作により一時停止機能が指示された例を示し、この指示を制御部10が検出したタイミングをT1で示す。制御部10は、時刻T1が入力されてから1フレームメモリーライト処理(図5)のステップST21及びST22を実行する。そして、次のVSYNCであるF2に同期して、ステップST21の設定に従い、映像処理部2の処理部の動作が切り替えられる。
まず、F2からF3までの間に、2画面制御部24によってDRAM22にフレーム2が書き込まれる。F2からF3までの期間ではステップST21の設定に従い2画面制御部24からOSD処理部25への出力S5がオフであり、レート変換部26はDRAM22への書き込みを行わない。このため、レート変換部26は、DRAM22に書き込み済みのフレーム1の出力を継続する。
FIG. 13 shows an example in which the pause function is instructed by the user's operation between VSYNC at F1 and VSYNC at F2, and the timing at which the control unit 10 detects this instruction is indicated by T1. The control unit 10 executes steps ST21 and ST22 of the one-frame memory write process (FIG. 5) after the time T1 is input. Then, in synchronization with the next VSYNC F2, the operation of the processing unit of the video processing unit 2 is switched according to the setting in step ST21.
First, the frame 2 is written in the DRAM 22 by the two-screen control unit 24 between F2 and F3. During the period from F2 to F3, the output S5 from the two-screen control unit 24 to the OSD processing unit 25 is off according to the setting of step ST21, and the rate conversion unit 26 does not write to the DRAM 22. For this reason, the rate conversion unit 26 continues to output the frame 1 already written in the DRAM 22.

さらに、制御部10は、1フレーム先行表示処理(図6)のステップST31で処理部の動作設定を変更し、この設定変更に従って、次のVSYNCであるF3に同期して動作が切り替えられる。これにより、F3からF4の間に、ブロック転送部28がDRAM22からフレーム2のデータを読み出して映像入力部31に入力し(出力S22)、このデータが2画面制御部24からOSD処理部25に出力される(出力S5)。これにより、レート変換部26がDRAM22にフレーム2のデータを書き込み、この書き込みが完了してからスクリーンSCにフレーム2の映像が表示される。   Furthermore, the control unit 10 changes the operation setting of the processing unit in step ST31 of the one-frame advance display process (FIG. 6), and the operation is switched in synchronization with F3 which is the next VSYNC in accordance with this setting change. Thereby, between F3 and F4, the block transfer unit 28 reads the data of frame 2 from the DRAM 22 and inputs it to the video input unit 31 (output S22), and this data is sent from the two-screen control unit 24 to the OSD processing unit 25. Is output (output S5). As a result, the rate conversion unit 26 writes the data of frame 2 to the DRAM 22, and after this writing is completed, the video of frame 2 is displayed on the screen SC.

ここで、F3に同期して動作が切り替えられたことにより、アップデートレジスターの値は1から0に書き換えられる。従って、F4の後はアップデートが完了していて、映像処理部2の処理部の動作の切り替えがおきない。このため、F4以後は、ブロック転送部28によるデータの出力(出力S22)、2画面制御部24のデータ出力(出力S5)、及びレート変換部26によるデータの書き込み(出力S8)が発生しない。このように不要な回路の動作を省略することで、消費電力量を削減できる。また、レート変換部26は、DRAM22に書き込まれたフレーム2の読み出しと出力を継続するので、スクリーンSCの映像の表示を継続できる。   Here, when the operation is switched in synchronization with F3, the value of the update register is rewritten from 1 to 0. Therefore, the update is completed after F4, and the operation of the processing unit of the video processing unit 2 is not switched. Therefore, after F4, data output by the block transfer unit 28 (output S22), data output by the two-screen control unit 24 (output S5), and data writing by the rate conversion unit 26 (output S8) do not occur. By omitting unnecessary circuit operations in this way, power consumption can be reduced. Further, since the rate conversion unit 26 continues to read and output the frame 2 written in the DRAM 22, it can continue to display the video on the screen SC.

F4の後、制御部10は、ユーザー調整処理(図7)を実行する。時刻T2で、ユーザーの操作により色の調整値が設定されると、制御部10は、ステップST42の動作を行ってパラメーターを決定する。さらに、制御部10は、1フレーム更新表示処理(図8)を実行し、ステップST51で処理部の動作設定を変更する。
そして、次のVSYNCであるF6に同期して、映像処理部2の処理部の動作が切り替えられ、制御部10が変更したパラメーターに基づきフレーム2のデータが補正される。補正されたフレーム2のデータを、フレーム2´とする。フレーム2´は、レート変換部26によりDRAM22に書き込まれ、書き込みが完了してからスクリーンSCに表示される。また、アップデートレジスターの値はF6で0に書き換えられるため、次のVSYNCであるF7の後は、各部の動作が停止される。そして、制御部10が通常表示復帰処理(図9)を実行することで、フレーム8から通常表示が再開される。
After F4, the control unit 10 executes user adjustment processing (FIG. 7). When the color adjustment value is set by the user's operation at time T2, the control unit 10 performs the operation of step ST42 to determine the parameter. Further, the control unit 10 executes a one-frame update display process (FIG. 8), and changes the operation setting of the processing unit in step ST51.
Then, the operation of the processing unit of the video processing unit 2 is switched in synchronization with F6 which is the next VSYNC, and the data of the frame 2 is corrected based on the parameter changed by the control unit 10. The corrected data of frame 2 is defined as frame 2 ′. The frame 2 'is written into the DRAM 22 by the rate conversion unit 26, and is displayed on the screen SC after the writing is completed. Since the value of the update register is rewritten to 0 by F6, the operation of each unit is stopped after the next VSYNC F7. Then, the normal display is resumed from the frame 8 by the control unit 10 executing the normal display return process (FIG. 9).

以上説明したように本発明を適用した実施形態に係るプロジェクター1は、映像処理部2を備える。映像処理部2は、DRAM22と、入力される映像データに対してDRAM22への書き込みを伴わない処理を実行する第1処理部と、映像データに対し、DRAM22への書き込みを伴う画像処理を行う第2処理部とを備える。第1処理部は、例えば、スケーラー32、42、色補正部33、43、或いは主映像パス30全体及び副映像パス40全体が相当する。また、第2処理部は、例えば、2画面制御部24、及びレート変換部26が相当する。そして、映像処理部2は、DRAM22から映像データを読み出して第1処理部に入力するブロック転送部28を備え、第2処理部は、第1処理部で処理された映像データをDRAM22に書き込む。このため、第2処理部の機能を利用して映像データをDRAM22に書き込み、DRAM22の映像データを第1処理部に入力することで、映像データに対し第1処理部で繰り返し処理を行うことができる。また、DRAM22に書き込まれた映像データを表示すれば、映像を停止させることができる。この停止中に表示する映像には、第1処理部の処理を反映させることができる。従って、回路構成を複雑化することなく、映像データに対して複数の処理を効率よく行うことができる。   As described above, the projector 1 according to the embodiment to which the invention is applied includes the video processing unit 2. The video processing unit 2 includes a DRAM 22, a first processing unit that executes processing that does not involve writing to the DRAM 22 for input video data, and first processing that performs image processing that involves writing to the DRAM 22 for video data. 2 processing units. The first processing unit corresponds to, for example, the scalers 32 and 42, the color correction units 33 and 43, or the entire main video path 30 and the entire sub video path 40. The second processing unit corresponds to, for example, the two-screen control unit 24 and the rate conversion unit 26. The video processing unit 2 includes a block transfer unit 28 that reads video data from the DRAM 22 and inputs the video data to the first processing unit, and the second processing unit writes the video data processed by the first processing unit to the DRAM 22. Therefore, the video data is written in the DRAM 22 using the function of the second processing unit, and the video data in the DRAM 22 is input to the first processing unit, whereby the video data is repeatedly processed in the first processing unit. it can. Further, if the video data written in the DRAM 22 is displayed, the video can be stopped. The video displayed during the stop can reflect the processing of the first processing unit. Therefore, a plurality of processes can be efficiently performed on video data without complicating the circuit configuration.

また、第2処理部は、第1処理部で処理された映像データを、画像処理を行わずにDRAM22に書き込み可能である。例えば、2画面制御部24は、主映像データと副映像データとを合成する処理を行わずにDRAM22にフレームのデータを書き込むことが可能である。この2画面制御部24の機能を利用して、DRAM22にフレームのデータを書き込み、このフレームのデータをブロック転送部28が主映像パス30に入力できる。このように、一つのフレームのデータを色補正部33の入力側に再び入力でき、繰り返し、色補正部33による色補正等の処理を行える。さらに、表示する映像を停止させ、色の補正を行った場合に、速やかに補正後の状態で映像を表示することができる。このように多機能の構成を、DRAM22への書き込みを行う機能部を増やさず、2画面制御部24を利用して実現できる。従って、回路構成の複雑化やメモリーアクセスの逼迫を招くことなく、多機能な映像処理部2を実現できる。   The second processing unit can write the video data processed by the first processing unit to the DRAM 22 without performing image processing. For example, the two-screen control unit 24 can write the frame data into the DRAM 22 without performing the process of combining the main video data and the sub-video data. Using the function of the two-screen control unit 24, the frame data can be written into the DRAM 22, and the block transfer unit 28 can input the frame data to the main video path 30. In this way, one frame of data can be input again to the input side of the color correction unit 33, and processing such as color correction by the color correction unit 33 can be repeated. Furthermore, when the video to be displayed is stopped and color correction is performed, the video can be promptly displayed in the corrected state. In this way, a multi-functional configuration can be realized by using the two-screen control unit 24 without increasing the number of functional units for writing to the DRAM 22. Therefore, the multifunctional video processing unit 2 can be realized without complicating the circuit configuration and causing a tight memory access.

また、第2処理部は、第1処理部が映像データに対する処理を行った場合にDRAM22への映像データの書き込みを行う。このため、第1処理部が映像データの処理を行わない場合などDRAM22へのアクセスが不要な場合に動作を停止でき、処理を効率化し、消費電力量を低減できる。
また、映像処理部2は、映像データを処理する第3処理部を備え、第2処理部は、第1処理部から入力する映像データをDRAM22に書き込む動作と、第1処理部から入力する映像データを第3処理部に出力する動作と、を実行可能である。第3処理部は、第2処理部の出力側に位置する処理部であり、2画面制御部24が第2処理部に相当する場合はOSD処理部25、レート変換部26及びパネル補正部27が第3処理部に相当する。また、レート変換部26が第2処理部に相当する場合はパネル補正部27が第3処理部に相当する。この場合、第1処理部により処理された映像データを、第2処理部から別の処理部に、DRAM22を介さずに出力できる。これにより、DRAM22アクセスの頻度を増やさずに映像データに対する処理の種類を増やすことができる。
The second processing unit writes the video data to the DRAM 22 when the first processing unit performs processing on the video data. Therefore, the operation can be stopped when access to the DRAM 22 is unnecessary, such as when the first processing unit does not process the video data, the processing can be made efficient, and the power consumption can be reduced.
The video processing unit 2 includes a third processing unit that processes video data. The second processing unit writes the video data input from the first processing unit to the DRAM 22 and the video input from the first processing unit. The operation of outputting data to the third processing unit can be executed. The third processing unit is a processing unit located on the output side of the second processing unit. When the two-screen control unit 24 corresponds to the second processing unit, the OSD processing unit 25, the rate conversion unit 26, and the panel correction unit 27 are used. Corresponds to a third processing unit. When the rate conversion unit 26 corresponds to the second processing unit, the panel correction unit 27 corresponds to the third processing unit. In this case, the video data processed by the first processing unit can be output from the second processing unit to another processing unit without going through the DRAM 22. As a result, the types of processing for video data can be increased without increasing the frequency of DRAM 22 access.

また、第3処理部は、第2処理部が出力する映像データを取得して出力する動作、及び、DRAM22の映像データを読み出して出力する動作を実行してもよい。この構成では、第2処理部が映像データを出力する場合はこの映像データを第3処理部から出力し、第2処理部が映像データを出力しない場合はDRAM22の映像データを第3処理部から出力できる。このため、映像データの出力を継続しながら第2処理部を停止することができるので、処理の効率化を図ることができ、消費電力量を低減できる。
また、前第3処理部は、映像を表示する画像形成部12に接続され、映像データを画像形成部12に出力してもよい。この場合、第2処理部が出力する映像データとDRAM22に書き込まれた映像データとを画像形成部12に出力して、表示させることができる。
また、映像処理部2は、複数の第1処理部を備え、第2処理部は、複数の第1処理部のそれぞれから入力される映像データをDRAM22に書き込む処理を行ってもよい。すなわち、2画面制御部24は、ピクチャーインピクチャー形式で主映像データと副映像データとを合成する場合は、副映像データをDRAM22に書き込む。また、スプリットスクリーン形式で主映像データと副映像データとを合成する場合は、主映像データと副映像データとをDRAM22に書き込む構成であってもよい。
Further, the third processing unit may execute an operation of acquiring and outputting the video data output from the second processing unit, and an operation of reading out and outputting the video data of the DRAM 22. In this configuration, when the second processing unit outputs video data, the video data is output from the third processing unit. When the second processing unit does not output video data, the video data of the DRAM 22 is output from the third processing unit. Can output. For this reason, the second processing unit can be stopped while continuing the output of the video data, so that the processing efficiency can be improved and the power consumption can be reduced.
Further, the front third processing unit may be connected to the image forming unit 12 that displays the video and output the video data to the image forming unit 12. In this case, the video data output from the second processing unit and the video data written in the DRAM 22 can be output to the image forming unit 12 for display.
The video processing unit 2 may include a plurality of first processing units, and the second processing unit may perform a process of writing video data input from each of the plurality of first processing units to the DRAM 22. That is, the two-screen control unit 24 writes the sub video data in the DRAM 22 when the main video data and the sub video data are combined in the picture-in-picture format. Further, when the main video data and the sub video data are combined in the split screen format, the main video data and the sub video data may be written in the DRAM 22.

また、映像処理部2は、入力される映像データを主映像パス30または副映像パス40と2画面制御部24で処理して出力する通常表示モードと、ブロック転送部28が映像データを映像入力部31に入力する一時停止動作とを切り替えて実行可能である。この動作モードの切り換え時には、映像入力部31の入力を、ブロック転送部28側に切り替える。より詳細には、映像入力部31の入力を、入力処理部21が出力する映像データから、ブロック転送部28が出力する映像データに切り替える。このため、動作モードを切り替える場合にデータの流れを切り替えることで、シンプルな回路構成において、動作モードを速やかに切り替えることができる。
また、映像処理部2は、図5、6、8及び9に示した動作において、映像処理部2の各部の動作を設定し、設定をアップデート処理でタイミングを合わせて切り替える。このため、複数の処理部の動作を速やかに切り替えることができる。
In addition, the video processing unit 2 performs normal display mode in which input video data is processed and output by the main video path 30 or sub-video path 40 and the two-screen control unit 24, and the block transfer unit 28 inputs video data as video It can be executed by switching the pause operation input to the unit 31. At the time of switching the operation mode, the input of the video input unit 31 is switched to the block transfer unit 28 side. More specifically, the input of the video input unit 31 is switched from video data output from the input processing unit 21 to video data output from the block transfer unit 28. For this reason, when the operation mode is switched, the operation mode can be quickly switched in a simple circuit configuration by switching the data flow.
Also, the video processing unit 2 sets the operation of each unit of the video processing unit 2 in the operations shown in FIGS. 5, 6, 8 and 9, and switches the settings in accordance with the timing in the update process. For this reason, operation | movement of a some process part can be switched rapidly.

[第2実施形態]
図14及び図15は、本発明を適用した第2実施形態に係るプロジェクター1の動作を示す説明図である。
本第2の実施形態に係るプロジェクター1は、第1の実施形態で説明したプロジェクター1の映像処理部2に、新たに映像データを出力する経路を設けた構成である。本第2の実施形態において、第1の実施形態と同様に構成される各部には、同符号を付して説明を省略する。
[Second Embodiment]
14 and 15 are explanatory diagrams illustrating the operation of the projector 1 according to the second embodiment to which the present invention is applied.
The projector 1 according to the second embodiment has a configuration in which a path for newly outputting video data is provided in the video processing unit 2 of the projector 1 described in the first embodiment. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

第2の実施形態では、映像入力部41の入力を、入力処理部21が出力する主映像データと、副映像データとに切り替えることが可能である。換言すれば、入力処理部21から主映像データを出力する出力先を、映像入力部31と、映像入力部41とに切換可能である。また、上記第1実施形態と同様、ブロック転送部28から映像入力部41に映像データを出力することが可能であるが、説明の便宜のため、図14及び図15においてブロック転送部28から映像入力部41への出力ラインの図示を省略する。   In the second embodiment, the input of the video input unit 41 can be switched between main video data output from the input processing unit 21 and sub-video data. In other words, the output destination from which the main video data is output from the input processing unit 21 can be switched between the video input unit 31 and the video input unit 41. Similarly to the first embodiment, it is possible to output video data from the block transfer unit 28 to the video input unit 41. However, for convenience of explanation, the video data is output from the block transfer unit 28 in FIGS. Illustration of the output line to the input unit 41 is omitted.

第2の実施形態では、映像処理部2に主映像データが入力され、副映像データが入力されない場合に、主映像パス30と副映像パス40の両方を利用して映像データを処理する例を示す。具体的には、副映像データが入力されない間に休止している副映像パス40を、主映像データをDRAM22に書き込む動作に利用する。   In the second embodiment, an example of processing video data using both the main video path 30 and the sub video path 40 when main video data is input to the video processing unit 2 and no sub video data is input. Show. Specifically, the sub-video path 40 that is paused while the sub-video data is not input is used for the operation of writing the main video data to the DRAM 22.

図14(A)は通常表示モードの動作を示し、図14(B)は1フレームメモリーライト処理を示し、図15は1フレーム先行表示処理を示す。   FIG. 14A shows the operation in the normal display mode, FIG. 14B shows the 1-frame memory write process, and FIG. 15 shows the 1-frame advance display process.

図14(A)では、入力処理部21に主映像データが入力され、副映像データが入力されない場合の動作を例示する。図14及び図15の各図では、実際に映像データが出力される経路を破線で示す。通常表示モードでは、入力処理部21が主映像データを主映像パス30側に出力する。すなわち、主映像データは映像入力部31に入力され、映像入力部31、スケーラー32、及び色補正部33を経て2画面制御部24に出力される。その後の動作は図11(A)を参照して説明した通りである。   FIG. 14A illustrates an operation when main video data is input to the input processing unit 21 and no sub-video data is input. In each of FIGS. 14 and 15, a path through which video data is actually output is indicated by a broken line. In the normal display mode, the input processing unit 21 outputs the main video data to the main video path 30 side. That is, the main video data is input to the video input unit 31 and is output to the two-screen control unit 24 through the video input unit 31, the scaler 32, and the color correction unit 33. The subsequent operation is as described with reference to FIG.

これに対し、主映像データを副映像パス40で処理する場合、図14(B)に示すように、入力処理部21から映像入力部41に主映像データが出力される(出力S31)。入力処理部21が主映像データを出力する出力先の切り替えは、制御部10が、入力処理部21及び映像入力部41のいずれか、または両方を制御することで可能となる。   On the other hand, when the main video data is processed in the sub-video path 40, the main video data is output from the input processing unit 21 to the video input unit 41 as shown in FIG. 14B (output S31). The output destination from which the input processing unit 21 outputs main video data can be switched by the control unit 10 controlling either or both of the input processing unit 21 and the video input unit 41.

主映像データは、副映像パス40が備える映像入力部41、スケーラー42、及び色補正部43により処理されて、2画面制御部24に入力される。2画面制御部24は、副映像パス40から入力された主映像データを、DRAM22に書き込む。その後の動作は図11(B)を参照して説明した通りである。
図14(B)の動作では、休止している副映像パス40を利用して、主映像データをDRAM22に書き込む動作を行うことができる。
The main video data is processed by the video input unit 41, the scaler 42, and the color correction unit 43 included in the sub video path 40 and is input to the two-screen control unit 24. The two-screen control unit 24 writes the main video data input from the sub-video path 40 into the DRAM 22. The subsequent operation is as described with reference to FIG.
In the operation of FIG. 14B, the operation of writing the main video data into the DRAM 22 can be performed by using the sub video path 40 that is paused.

そして、入力処理部21が主映像データを出力する間に、ブロック転送部28がDRAM22からフレームのデータを読み出す動作を、図15に示す。図15の動作では、図12を参照して説明したように、ブロック転送部28が映像入力部31にフレームのデータを出力し、このデータが主映像パス30により処理されて2画面制御部24に出力される。従って、入力処理部21が出力する主映像データの処理と、ブロック転送部28が読み出すフレームのデータに対する処理とを、色補正部33と色補正部43とが分担する。このため、上記第1の実施形態において色補正部33の色補正動作のオン、オフを切り替える制御が不要となる。具体的には、色補正部43は、主映像データをDRAM22に書き込む動作に適した状態、すなわち色補正をオフにしておけばよい。また、色補正部33は、制御部10が指定するパラメーターに従って色補正を行う状態にしておけばよい。従って、制御部10による制御を簡易化することができ、処理効率の向上を図ることができる。   FIG. 15 shows an operation in which the block transfer unit 28 reads frame data from the DRAM 22 while the input processing unit 21 outputs the main video data. In the operation of FIG. 15, as described with reference to FIG. 12, the block transfer unit 28 outputs frame data to the video input unit 31, and this data is processed by the main video path 30 to be processed by the two-screen control unit 24. Is output. Accordingly, the color correction unit 33 and the color correction unit 43 share the processing of the main video data output from the input processing unit 21 and the processing of the frame data read out by the block transfer unit 28. For this reason, in the said 1st Embodiment, the control which switches on and off of the color correction operation | movement of the color correction part 33 becomes unnecessary. Specifically, the color correction unit 43 may be in a state suitable for the operation of writing the main video data to the DRAM 22, that is, color correction may be turned off. In addition, the color correction unit 33 may be in a state where color correction is performed according to the parameters specified by the control unit 10. Therefore, the control by the control unit 10 can be simplified, and the processing efficiency can be improved.

このように、第2実施形態によれば、入力処理部21が、主映像パス30と副映像パス40のいずれかに主映像データを出力し、ブロック転送部28は、処理対象の映像データが入力されない側に、DRAM22から読み出した映像データを入力する。そして、映像データを処理する複数のパスにより、入力される映像データとブロック転送部28がDRAM22から読み出した映像データとを効率よく処理できる。   Thus, according to the second embodiment, the input processing unit 21 outputs the main video data to either the main video path 30 or the sub video path 40, and the block transfer unit 28 determines that the video data to be processed is The video data read from the DRAM 22 is input to the non-input side. The input video data and the video data read from the DRAM 22 by the block transfer unit 28 can be efficiently processed by a plurality of paths for processing the video data.

[第3実施形態]
図16は、本発明を適用した第3の実施形態に係る映像処理部2aの機能ブロック図である。映像処理部2aは、上記第1及び第2実施形態で説明した映像処理部2に代えて、プロジェクター1に搭載できる。
[Third Embodiment]
FIG. 16 is a functional block diagram of the video processing unit 2a according to the third embodiment to which the present invention is applied. The video processing unit 2a can be mounted on the projector 1 in place of the video processing unit 2 described in the first and second embodiments.

映像処理部2aは、映像データを処理するパスを1つ有する。具体的には、入力処理部21に接続される映像入力部31a、スケーラー32a、及び色補正部33aを有する。この映像処理部2aは、第1及び第2実施形態で説明した主映像データと副映像データとの合成を行わず、1系統の入力映像データを処理する。映像入力部31aは、映像入力部31と同様に、入力処理部21が出力する映像データを取得してスケーラー32aに出力する。   The video processing unit 2a has one path for processing video data. Specifically, it includes a video input unit 31a, a scaler 32a, and a color correction unit 33a connected to the input processing unit 21. The video processing unit 2a processes one system of input video data without synthesizing the main video data and sub-video data described in the first and second embodiments. Similar to the video input unit 31, the video input unit 31a acquires the video data output by the input processing unit 21 and outputs the video data to the scaler 32a.

スケーラー32aは、スケーラー32と同様に、映像入力部31aが出力する映像データに対し解像度変換処理を実行する。また、スケーラー32aは、超解像処理などの鮮鋭化処理を行う構成としてもよい。色補正部33aは、色補正部33と同様に、制御部10の制御に従って色補正処理を実行する。
映像処理部2aが備えるDRAM22、DRAMコントローラー23、OSD処理部25、レート変換部26、及びパネル補正部27は上記と同様の構成である。
Similar to the scaler 32, the scaler 32a performs resolution conversion processing on the video data output from the video input unit 31a. The scaler 32a may be configured to perform a sharpening process such as a super-resolution process. Similar to the color correction unit 33, the color correction unit 33 a executes color correction processing under the control of the control unit 10.
The DRAM 22, DRAM controller 23, OSD processing unit 25, rate conversion unit 26, and panel correction unit 27 included in the video processing unit 2a have the same configuration as described above.

リタイミング制御部29は、DRAM22への書き込みと読み出しを行う回路部である。また、リタイミング制御部29は、映像データのタイミング変換、2D(平面)映像データと3D(立体)映像データとの変換機能等を行うものであってもよい。また、リタイミング制御部29は、OSD処理部25及びパネル補正部27の仕様に合わせた帰線期間や映像本体のデータストリームの再生成を行ってもよい。   The retiming control unit 29 is a circuit unit that performs writing to and reading from the DRAM 22. Further, the retiming control unit 29 may perform timing conversion of video data, a conversion function between 2D (planar) video data and 3D (stereoscopic) video data, and the like. Further, the retiming control unit 29 may regenerate the blanking period and the video body data stream in accordance with the specifications of the OSD processing unit 25 and the panel correction unit 27.

この構成では、映像入力部31a、スケーラー32a、及び色補正部33aは第1の処理部に相当し、リタイミング制御部29、及びレート変換部26は第2の処理部に相当する。   In this configuration, the video input unit 31a, the scaler 32a, and the color correction unit 33a correspond to a first processing unit, and the retiming control unit 29 and the rate conversion unit 26 correspond to a second processing unit.

映像入力部31a、スケーラー32a、色補正部33a、及びリタイミング制御部29は、1フレームメモリーライト処理、1フレーム先行表示処理、及び1フレーム更新表示処理において、主映像パス30及び2画面制御部24と同様に動作する。
2画面制御部24による主映像データと副映像データの合成が不要なプロジェクターにおいては、2画面制御部24及び副映像パス40を省いた映像処理部2aを設けることにより、第1実施形態と同様の効果を得ることができる。このため、回路構成をより単純化することができ、効率の向上、消費電力量の一層の削減が期待できる。
The video input unit 31a, the scaler 32a, the color correction unit 33a, and the retiming control unit 29 are the main video path 30 and the two-screen control unit in the one-frame memory write process, the one-frame advance display process, and the one-frame update display process. The operation is the same as 24.
In a projector that does not need to synthesize main video data and sub-video data by the two-screen control unit 24, the two-screen control unit 24 and the video processing unit 2a that omits the sub-video path 40 are provided, as in the first embodiment. The effect of can be obtained. For this reason, the circuit configuration can be further simplified, and improvement in efficiency and further reduction in power consumption can be expected.

なお、上述した各実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記各実施形態では、映像処理部2、2aがプロジェクター1に内蔵された構成を例示したが、本発明はこれに限定されず、例えば、プロジェクター1とは別体で構成された装置に映像処理部2、2aを設けてもよい。さらに、映像処理部2、2aは、ASIC等のハードウェアで構成されるものに限定されず、一つのプロセッサーがプログラムを実行することで実現してもよい。その他の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   Each of the above-described embodiments is merely an example of a specific mode to which the present invention is applied, and the present invention is not limited thereto. The present invention can be applied as a mode different from the above-described embodiment. For example, in each of the above-described embodiments, the configuration in which the video processing units 2 and 2a are built in the projector 1 is illustrated. However, the present invention is not limited to this, and for example, the device is configured separately from the projector 1. Video processing units 2 and 2a may be provided. Furthermore, the video processing units 2 and 2a are not limited to those configured by hardware such as ASIC, and may be realized by one processor executing a program. Other specific detailed configurations of other parts can be arbitrarily changed without departing from the gist of the present invention.

1…プロジェクター(表示装置)、2、2a…映像処理部(映像処理装置)、3…映像供給装置、5…指示体、10…制御部、11…インターフェイス部、12…画像形成部(表示部)、18…操作部、19…位置検出部、21…入力処理部、22…DRAM(メモリー)、23…DRAMコントローラー、24…2画面制御部、25…OSD処理部、26…レート変換部、27…パネル補正部、28…ブロック転送部(転送部)、29…リタイミング制御部、30…主映像パス、31、31a…映像入力部、32、32a…スケーラー、33、33a…色補正部、40…副映像パス、41…映像入力部、42…スケーラー、43…色補正部、SC…スクリーン。
DESCRIPTION OF SYMBOLS 1 ... Projector (display apparatus) 2, 2a ... Video processing part (video processing apparatus), 3 ... Video supply apparatus, 5 ... Indicator, 10 ... Control part, 11 ... Interface part, 12 ... Image formation part (display part) ), 18 ... operation unit, 19 ... position detection unit, 21 ... input processing unit, 22 ... DRAM (memory), 23 ... DRAM controller, 24 ... 2 screen control unit, 25 ... OSD processing unit, 26 ... rate conversion unit, 27 ... Panel correction unit, 28 ... Block transfer unit (transfer unit), 29 ... Retiming control unit, 30 ... Main video path, 31, 31a ... Video input unit, 32, 32a ... Scaler, 33, 33a ... Color correction unit , 40 ... sub-picture path, 41 ... video input section, 42 ... scaler, 43 ... color correction section, SC ... screen.

Claims (12)

メモリーと、
入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行する第1処理部と、
前記映像データに対し、前記メモリーへの書き込みを伴う画像処理を行う第2処理部と、
前記メモリーから前記映像データを読み出して前記第1処理部に入力する転送部と、を備え、
前記第2処理部は、前記第1処理部で処理された前記映像データを前記メモリーに書き込むこと、
を特徴とする映像処理装置。
Memory,
A first processing unit that executes processing that does not involve writing to the memory with respect to input video data;
A second processing unit for performing image processing with writing to the memory on the video data;
A transfer unit that reads out the video data from the memory and inputs the video data to the first processing unit,
The second processing unit writes the video data processed by the first processing unit into the memory;
A video processing apparatus characterized by the above.
前記第2処理部は、前記第1処理部で処理された前記映像データを、前記画像処理を行わずに前記メモリーに書き込み可能であること、
を特徴とする請求項1記載の映像処理装置。
The second processing unit can write the video data processed by the first processing unit into the memory without performing the image processing;
The video processing apparatus according to claim 1.
前記第2処理部は、前記第1処理部が前記映像データに対する処理を行った場合に前記メモリーへの前記映像データの書き込みを行うこと、
を特徴とする請求項1または2記載の映像処理装置。
The second processing unit writes the video data to the memory when the first processing unit performs processing on the video data;
The video processing apparatus according to claim 1, wherein:
前記映像データを処理する第3処理部を備え、
前記第2処理部は、前記第1処理部から入力する前記映像データを前記メモリーに書き込む動作と、前記第1処理部から入力する前記映像データを前記第3処理部に出力する動作と、を実行可能であること、
を特徴とする請求項1から3のいずれかに記載の映像処理装置。
A third processing unit for processing the video data;
The second processing unit includes an operation of writing the video data input from the first processing unit to the memory, and an operation of outputting the video data input from the first processing unit to the third processing unit. Be feasible,
The video processing apparatus according to claim 1, wherein:
前記第3処理部は、前記第2処理部が出力する前記映像データを取得して出力する動作、及び、前記メモリーの前記映像データを読み出して出力する動作を実行すること、
を特徴とする請求項4記載の映像処理装置。
The third processing unit performs an operation of acquiring and outputting the video data output by the second processing unit, and an operation of reading and outputting the video data of the memory;
The video processing apparatus according to claim 4.
前記第3処理部は、画像を表示する表示部に接続され、前記映像データを前記表示部に出力すること、
を特徴とする請求項4または5記載の映像処理装置。
The third processing unit is connected to a display unit for displaying an image, and outputs the video data to the display unit;
The video processing apparatus according to claim 4 or 5, wherein
前記第1処理部に前記映像データを出力する入力処理部を備え、
前記入力される映像データを前記第1処理部及び前記第2処理部で処理して出力する第1の動作モードと、
前記第2処理部が前記メモリーに書き込む前記映像データを、前記メモリーから読み出して出力する第2の動作モードと、を切り替えて実行可能に構成され、
前記第1から第2の動作モードに切り替える場合に、前記第1処理部の入力を、前記入力処理部が出力する前記映像データから、前記転送部が出力する前記映像データに切り替えること、
を特徴とする請求項1から6のいずれかに記載の映像処理装置。
An input processing unit for outputting the video data to the first processing unit;
A first operation mode in which the input video data is processed and output by the first processing unit and the second processing unit;
The second processing unit is configured to be able to switch and execute the second operation mode in which the video data to be written to the memory is read from the memory and output.
When switching from the first operation mode to the second operation mode, switching the input of the first processing unit from the video data output by the input processing unit to the video data output by the transfer unit;
The video processing apparatus according to claim 1, wherein:
前記第1及び第2の動作モードを切り替える際に、前記第1処理部の動作を切り替えるとともに、前記第2処理部の動作を切り替えること、
を特徴とする請求項7または8記載の映像処理装置。
When switching between the first and second operation modes, switching the operation of the first processing unit and switching the operation of the second processing unit,
The video processing device according to claim 7 or 8.
複数の前記第1処理部を備え、
前記第2処理部は、複数の前記第1処理部のそれぞれから入力される前記映像データを前記メモリーに書き込む処理を行うこと、
を特徴とする請求項1から8のいずれかに記載の映像処理装置。
A plurality of the first processing units;
The second processing unit performs processing of writing the video data input from each of the plurality of first processing units into the memory;
The video processing apparatus according to claim 1, wherein:
前記転送部は、処理対象の前記映像データが入力されない前記第1処理部に、前記メモリーから読み出した前記映像データを入力すること、
を特徴とする請求項9記載の映像処理装置。
The transfer unit inputs the video data read from the memory to the first processing unit to which the video data to be processed is not input.
The video processing apparatus according to claim 9.
メモリーと、
入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行する第1処理部と、
前記映像データに対し、前記メモリーへの書き込みを伴う画像処理を行う第2処理部と、
前記メモリーから前記映像データを読み出して前記第1処理部に入力する転送部と、を備え、
前記第2処理部により、前記第1処理部で処理された前記映像データを前記メモリーに書き込む映像処理部と、
前記映像処理部で処理された前記映像データに基づき映像を表示する表示部と、
を備えることを特徴とする表示装置。
Memory,
A first processing unit that executes processing that does not involve writing to the memory with respect to input video data;
A second processing unit for performing image processing with writing to the memory on the video data;
A transfer unit that reads out the video data from the memory and inputs the video data to the first processing unit,
A video processing unit for writing the video data processed by the first processing unit into the memory by the second processing unit;
A display unit for displaying video based on the video data processed by the video processing unit;
A display device comprising:
映像データを書き込み可能なメモリーを有する装置を制御して、
第1処理部により、入力される映像データに対して前記メモリーへの書き込みを伴わない処理を実行し、
前記映像データに対して前記メモリーへの書き込みを伴う画像処理を行う第2処理部により、前記第1処理部で処理された前記映像データを前記メモリーに書き込み、
前記メモリーから前記映像データを読み出して前記第1処理部に入力すること、
を特徴とする映像処理方法。
Control the device with memory that can write video data,
The first processing unit executes processing that does not involve writing to the memory on the input video data,
A second processing unit that performs image processing with writing to the memory with respect to the video data, writes the video data processed by the first processing unit to the memory,
Reading the video data from the memory and inputting it to the first processing unit;
A video processing method characterized by the above.
JP2015040060A 2015-03-02 2015-03-02 Video processing device, display device, and video processing method Withdrawn JP2016161753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015040060A JP2016161753A (en) 2015-03-02 2015-03-02 Video processing device, display device, and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015040060A JP2016161753A (en) 2015-03-02 2015-03-02 Video processing device, display device, and video processing method

Publications (1)

Publication Number Publication Date
JP2016161753A true JP2016161753A (en) 2016-09-05

Family

ID=56844920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015040060A Withdrawn JP2016161753A (en) 2015-03-02 2015-03-02 Video processing device, display device, and video processing method

Country Status (1)

Country Link
JP (1) JP2016161753A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114302204A (en) * 2021-05-21 2022-04-08 海信视像科技股份有限公司 Split-screen playing method and display device
JP7324101B2 (en) 2019-09-25 2023-08-09 キヤノン株式会社 VIDEO DISPLAY DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03196189A (en) * 1989-12-26 1991-08-27 Matsushita Electric Ind Co Ltd Image signal processor
JPH1042205A (en) * 1996-05-24 1998-02-13 Mitsubishi Electric Corp Internet television receiver and internet connection terminal
JP2000284744A (en) * 1999-01-29 2000-10-13 Canon Inc Image processor
JP2002281382A (en) * 2001-03-19 2002-09-27 Fuji Photo Film Co Ltd Image processor and image processing method
JP2003018493A (en) * 2001-06-29 2003-01-17 Matsushita Electric Ind Co Ltd Video signal processing unit
JP2009100029A (en) * 2007-10-12 2009-05-07 Casio Comput Co Ltd Imaging apparatus, information synthesizer, and program
JP2014238507A (en) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント Display controller, screen transfer device, and screen transfer method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03196189A (en) * 1989-12-26 1991-08-27 Matsushita Electric Ind Co Ltd Image signal processor
JPH1042205A (en) * 1996-05-24 1998-02-13 Mitsubishi Electric Corp Internet television receiver and internet connection terminal
JP2000284744A (en) * 1999-01-29 2000-10-13 Canon Inc Image processor
JP2002281382A (en) * 2001-03-19 2002-09-27 Fuji Photo Film Co Ltd Image processor and image processing method
JP2003018493A (en) * 2001-06-29 2003-01-17 Matsushita Electric Ind Co Ltd Video signal processing unit
JP2009100029A (en) * 2007-10-12 2009-05-07 Casio Comput Co Ltd Imaging apparatus, information synthesizer, and program
JP2014238507A (en) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント Display controller, screen transfer device, and screen transfer method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7324101B2 (en) 2019-09-25 2023-08-09 キヤノン株式会社 VIDEO DISPLAY DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
CN114302204A (en) * 2021-05-21 2022-04-08 海信视像科技股份有限公司 Split-screen playing method and display device

Similar Documents

Publication Publication Date Title
US8279339B2 (en) Projection display and projection display control program
JP6540099B2 (en) IMAGE PROCESSING DEVICE, DISPLAY DEVICE, AND IMAGE PROCESSING METHOD
JP2011090038A (en) Projection type video display
JP2017129770A (en) Projection device and projection method
US10657925B2 (en) Display device and control method for conversion of luminance information
JP7081200B2 (en) Image display device and control method of image display device
JP2020194107A (en) Method for controlling display, and display
US10037734B2 (en) Display apparatus and control method
JP2017085446A (en) Projection device, projection method and projection system
JP2016161753A (en) Video processing device, display device, and video processing method
JP6635748B2 (en) Display device, display device control method, and program
JP2016184775A (en) Video processing device, display device, video processing method
JP2016099456A (en) Image projection device and image projection method
JP2019134206A (en) Projection device and control method therefor
JP2008098693A (en) Projector, program thereof and recording medium
JP2008058574A (en) Image display system and image display device
JP2013251593A (en) Display device and control method for the same
JP2018060035A (en) Projection device and control method thereof, program, as well as storage medium
JP6700955B2 (en) Projection apparatus and projection method
JP2019035939A (en) Projector and control method thereof
JP6545034B2 (en) Display device, display method and display system
JP7309352B2 (en) Electronic equipment and its control method
JP2018180105A (en) Projection device and image projection method
JP2020061688A (en) Projection device, control method of the same, program, and storage medium
JP2022038697A (en) Method for controlling display, and display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181210