JP2009110028A - Image display system - Google Patents
Image display system Download PDFInfo
- Publication number
- JP2009110028A JP2009110028A JP2009032480A JP2009032480A JP2009110028A JP 2009110028 A JP2009110028 A JP 2009110028A JP 2009032480 A JP2009032480 A JP 2009032480A JP 2009032480 A JP2009032480 A JP 2009032480A JP 2009110028 A JP2009110028 A JP 2009110028A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- display
- signal
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 237
- 238000000034 method Methods 0.000 claims description 63
- 230000015654 memory Effects 0.000 abstract description 127
- 238000003384 imaging method Methods 0.000 abstract description 39
- 230000003111 delayed effect Effects 0.000 abstract description 26
- 238000006243 chemical reaction Methods 0.000 description 65
- 230000000875 corresponding effect Effects 0.000 description 31
- 238000011156 evaluation Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 238000005070 sampling Methods 0.000 description 16
- 230000002596 correlated effect Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 14
- 230000006866 deterioration Effects 0.000 description 13
- 230000015556 catabolic process Effects 0.000 description 12
- 238000006731 degradation reaction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 239000004065 semiconductor Substances 0.000 description 10
- 230000010363 phase shift Effects 0.000 description 8
- 230000001276 controlling effect Effects 0.000 description 7
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 7
- 208000012661 Dyskinesia Diseases 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 101100091494 Mus musculus Rorc gene Proteins 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000036632 reaction speed Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像表示システムに関し、特に、動画像を滑らかに表示させるようにすることができる、画像表示システムに関する。 The present invention relates to an image display system, and more particularly to an image display system that can smoothly display a moving image.
信号処理技術や、画像表示素子の駆動技術を向上させることなどにより、表示される画像の画質を向上することが求められている。 There is a need to improve the image quality of displayed images by improving signal processing techniques and image display element driving techniques.
一般に、画質を向上させるためには、画像の解像度を高くして、画像のきめを細かくするようにすれば良い。画像の情報量は、画像を構成する点(ドット)を示すピクセルという単位で表され、ピクセルの数は、例えば、800×600や1024×768など、その画像の持つ縦横のドットの数で表される。すなわち、ピクセル(ドット)数が多いほど、画像のきめが細かくなり、画像を構成する情報が多いことになる。 In general, in order to improve the image quality, it is only necessary to increase the resolution of the image and make the image finer. The information amount of an image is expressed in units of pixels indicating dots (dots) constituting the image, and the number of pixels is expressed by the number of vertical and horizontal dots of the image, such as 800 × 600 or 1024 × 768. Is done. That is, the larger the number of pixels (dots), the finer the texture of the image and the more information that constitutes the image.
高解像度で画像を表示することができるようにするために、例えば、ディスプレイ1とディスプレイ2の2台のディスプレイを用いて、通常のシングルモードでは、ディスプレイ1に画像を表示させ、マルチモードでは、画像の、例えば左半分をディスプレイ1に、右半分をディスプレイ2に表示させることによって、1台のみのディスプレイを用いるシステムに対して、マルチモードでは、2倍の解像度で、画像を表示することができるようにした技術がある(例えば、特許文献1参照)。
In order to be able to display an image with high resolution, for example, using two displays,
解像度を高くして、画像を表示するようにした場合、画像を構成する情報が多くなるため、ディスプレイ1または2に転送するデータ量が増加し、データ転送速度の高速化が要求される。このため、このシステムでは、ディスプレイ1および2の1ドットあたりのデータ量を削減し、信号処理によって、削減したデータの変換を行うことにより、データ転送速度を高速化せずに、画像データの転送を行うことができるようになされている。
When the image is displayed at a higher resolution, the amount of information constituting the image increases, so the amount of data transferred to the
また、1秒間に画面が更新される回数を示す値である、フレームレートを高くすることにより、特に、動画像の画質を向上することができる。 In particular, the image quality of moving images can be improved by increasing the frame rate, which is a value indicating the number of times the screen is updated per second.
例えば、プロジェクタを用いて、スクリーンに動画像を投影表示する場合、プロジェクタは、フレーム画像を、1ラインずつ水平方向に走査して表示し、1フレームの画像の全てのラインを走査した後、次のフレームの画像データの走査を開始することにより、動画像を表示することができる。 For example, when a moving image is projected and displayed on a screen using a projector, the projector scans and displays a frame image one line at a time in the horizontal direction, scans all lines of one frame image, and then The moving image can be displayed by starting the scanning of the image data of this frame.
また、表示される動画像データを撮像するときには、一般に、CCDカメラ等で受光部の無効部分を補うために、撮像時に、CCDイメージセンサの1画素の大きさの1/nずつ結像位置をずらして画像を取得する、いわゆる、画素ずらしの手段が用いられている場合がある(例えば、非特許文献1)。この技術は、同時刻の映像を多板の撮像素子で撮像するカメラに用いられたり、異なる時刻の映像を単一の撮像素子あるいは光学系を振動させて撮像するカメラに用いられている。 When capturing moving image data to be displayed, in general, in order to compensate for the invalid portion of the light receiving unit with a CCD camera or the like, the imaging position is set by 1 / n of the size of one pixel of the CCD image sensor at the time of imaging. There is a case where a so-called pixel shifting means for acquiring an image by shifting is used (for example, Non-Patent Document 1). This technology is used in a camera that captures images at the same time with a multi-plate image sensor, or a camera that captures images at different times by vibrating a single image sensor or an optical system.
上述したように、フレームレートを高くすることにより、特に、動画像の画質を向上することができる。しかしながら、高いフレームレートに応じて表示処理を行うためには、表示素子を駆動する駆動回路の処理の高速化が必要となり、更に、画像強度を決定する光量変調素子の反応速度を高速化しなければならないので、技術的にも困難であり、コストアップの原因となっていた。 As described above, the image quality of moving images can be particularly improved by increasing the frame rate. However, in order to perform display processing according to a high frame rate, it is necessary to speed up the processing of the drive circuit that drives the display element, and further, the reaction speed of the light quantity modulation element that determines the image intensity must be increased. Therefore, it was technically difficult and increased costs.
また、2台のディスプレイを用いて、1台のみのディスプレイを用いるシステムに対して2倍の解像度で画像を表示させる場合、ディスプレイ1ドットあたりのデータ量を減少させて、データ転送速度を高速化しないようにするための技術は、すでに用いられているが、この技術は、表示される動画像のフレームレートを高くするものではない。したがって、2台のディスプレイを用いて、高解像度で画像を表示させることができるシステムにおいても、動画像を滑らかに表示させるためには、表示素子を駆動する駆動回路の処理の高速化および光量変調素子の反応速度の高速化が必要となる。 In addition, when using two displays and displaying an image with a resolution twice that of a system using only one display, the data transfer rate is increased by reducing the amount of data per display dot. A technique for avoiding this has already been used, but this technique does not increase the frame rate of a moving image to be displayed. Therefore, even in a system that can display an image with high resolution using two displays, in order to smoothly display a moving image, the processing speed of the drive circuit that drives the display element and the light amount modulation are increased. It is necessary to increase the reaction speed of the element.
また、これまでの表示装置のフレームレートは、NTSCやHD方式では、60Hz、PAL方式では、50Hz、映画は24Hzが一般的である。これらのフレームレートでは、ボケやジャーキネスといった動画質劣化が顕著であった。しかも、これらを対策しようと高フレームレート撮影をしようとしても、CCD等撮像素子の駆動速度の限界や、記録メディアへのデータ伝送の制約により、実時間で記録できる情報量は上記程度に限られていた。最近CMOSセンサによる特殊な高速撮像装置が登場しているが、高価なうえ、この映像情報は、現状では、メモリに蓄積する方法しかなく、記録時間が短かったり(例えば、数十秒)、メモリからデータを読み出す転送に時間がかかるなど、撮影に不都合があった。 In addition, the frame rate of conventional display devices is generally 60 Hz for NTSC and HD systems, 50 Hz for PAL systems, and 24 Hz for movies. At these frame rates, video quality degradation such as blur and jerkiness was significant. Moreover, even if high frame rate shooting is attempted to prevent these problems, the amount of information that can be recorded in real time is limited to the above level due to the limitations of the drive speed of image sensors such as CCDs and restrictions on data transmission to recording media. It was. Recently, a special high-speed imaging device using a CMOS sensor has appeared, but it is expensive and currently there is only a method of storing this video information in a memory, and the recording time is short (for example, several tens of seconds). There was an inconvenience in shooting, such as it took time to transfer data from the camera.
本発明はこのような状況に鑑みてなされたものであり、従来の撮像素子(例えば、CCDなど)を用いて、フレームレートの高い画像を撮像し、撮像した高フレームレートの画像を滑らかに表示することができるようにするものである。 The present invention has been made in view of such a situation, and a conventional image sensor (for example, a CCD) is used to capture an image with a high frame rate and display the captured image with a high frame rate smoothly. It is something that can be done.
本発明の第1の画像表示システムは、画像信号を処理する画像処理装置と、画像処理装置において処理された画像信号に対応する画像を表示する画像表示装置とで構成される画像表示システムであって、画像処理装置は、mHzの第1のフレームレートの画像信号を保存する保存手段と、保存手段により保存された画像信号の出力を制御する出力制御手段と、出力制御手段により出力が制御された画像信号に対応する画像の表示を制御する表示制御手段とを備え、画像表示装置は、点順次または線順次方式によって画像の描画を行う複数の画像表示処理手段と、画像表示処理手段により描画される画像を表示する表示手段とを備え、画像表示処理手段は、少なくとも、n個備えられ、出力制御手段は、n個の画像表示処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号の出力を制御し、表示制御手段は、第1のフレームレートのn倍のフレームレートである第2のフレームレートで画像表示装置に画像が表示されるように、出力制御手段によりn個の画像表示処理手段に順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示を制御することを特徴とする。 A first image display system of the present invention is an image display system including an image processing device that processes an image signal and an image display device that displays an image corresponding to the image signal processed by the image processing device. The output of the image processing apparatus is controlled by a storage unit that stores an image signal having a first frame rate of mHz, an output control unit that controls output of the image signal stored by the storage unit, and an output control unit. A display control unit that controls display of an image corresponding to the image signal, and the image display device draws the image by a plurality of image display processing units that draw an image by a dot sequential or line sequential method, and the image display processing unit Display means for displaying the image to be displayed, at least n image display processing means are provided, and the output control means is provided with one frame for each of the n image display processing means. In addition, the output of the image signal of the first frame rate is controlled so as to be sequentially output from the storage unit, and the display control unit controls the second frame rate which is a frame rate n times the first frame rate. The image signals sequentially output to the n image display processing means by the output control means are shifted by 1 / (m × n) of the scanning time of one frame so that the image is displayed on the image display device. The display of an image corresponding to an image signal is controlled so as to be sequentially drawn by a dot sequential or line sequential method.
本発明の第1の画像表示システムにおいては、画像処理装置で、mHzの第1のフレームレートの画像信号が保存され、保存された画像信号が出力され、出力された画像信号に対応する画像の表示が制御され、画像表示装置で、点順次または線順次方式によって画像の描画が行われ、描画される画像が表示され、画像表示は、少なくとも、n個の処理手段により実行され、n個の画像表示の処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号が出力されて、第1のフレームレートのn倍のフレームレートである第2のフレームレートで画像表示装置に画像が表示されるように、順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示が制御される。 In the first image display system of the present invention, the image processing apparatus stores an image signal having a first frame rate of mHz, outputs the stored image signal, and outputs an image corresponding to the output image signal. The display is controlled, and the image display device draws the image in a dot-sequential or line-sequential manner. The image to be drawn is displayed, and the image display is executed by at least n processing means. The image signal of the first frame rate is output to the image display processing means so that it is sequentially output from the storage means for each frame, and the second frame rate is n times the first frame rate. The image signals sequentially output are shifted by 1 / (m × n) of the scanning time of one frame so that an image is displayed on the image display device at a frame rate of 1 frame rate or a line sequential method. Te, As sequential rendering, display of an image corresponding to the image signal is controlled.
本発明の第2の画像表示システムは、画像信号を処理する画像処理装置と、画像処理装置において処理された画像信号に対応する画像を表示する画像表示装置とで構成される画像表示システムであって、像処理装置は、mHzの第1のフレームレートの画像信号を保存する保存手段と、保存手段により保存された画像信号の出力を制御する出力制御手段と、出力制御手段により出力が制御された画像信号に対応する画像の表示を制御する表示制御手段とを備え、画像表示装置は、点順次または線順次方式によって画像の描画を行う複数の画像表示処理手段を備え、画像表示処理手段は、少なくとも、n個備えられ、出力制御手段は、n個の画像表示処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号の出力を制御し、表示制御手段は、第1のフレームレートのn倍のフレームレートである第2のフレームレートで画像表示装置に画像が表示されるように、出力制御手段によりn個の画像表示処理手段に順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示を制御することを特徴とする。 A second image display system of the present invention is an image display system including an image processing device that processes an image signal and an image display device that displays an image corresponding to the image signal processed by the image processing device. The output of the image processing apparatus is controlled by a storage unit that stores an image signal having a first frame rate of mHz, an output control unit that controls output of the image signal stored by the storage unit, and an output control unit. Display control means for controlling the display of an image corresponding to the image signal, and the image display device comprises a plurality of image display processing means for drawing an image by a dot sequential or line sequential method, and the image display processing means , At least n, and the output control means outputs the first frame rate to the n image display processing means so as to sequentially output from the storage means every frame. The output control means controls the output of the image signal, and the output control means causes the output control means to display n images so that an image is displayed on the image display device at a second frame rate that is n times the first frame rate. The image signals sequentially output to the image display processing means are shifted by 1 / (m × n) of the scanning time of one frame, and the image signals are sequentially drawn by the dot sequential or line sequential method. The display of the image to be controlled is controlled.
画像表示装置は、画像を投影表示するプロジェクタにより構成されるものとすることができる。 The image display device can be constituted by a projector that projects and displays an image.
本発明の第2の画像表示システムにおいては、画像処理装置で、mHzの第1のフレームレートの画像信号が保存され、保存された画像信号が出力され、出力された画像信号に対応する画像の表示が制御され、画像表示装置で、少なくとも、n個の処理手段により点順次または線順次方式によって画像の描画が行われ、n個の画像表示の処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号が出力されて、第1のフレームレートのn倍のフレームレートである第2のフレームレートで画像表示装置に画像が表示されるように、順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示が制御される。 In the second image display system of the present invention, the image processing device stores the image signal of the first frame rate of mHz, outputs the stored image signal, and outputs the image corresponding to the output image signal. The display is controlled, and the image display apparatus draws an image by at least n processing means in a dot-sequential or line-sequential manner, and the n image display processing means from the storage means for each frame. The image signal having the first frame rate is output so that the images are sequentially output, and the image is displayed on the image display device at the second frame rate that is n times the first frame rate. The image signal corresponding to the image signal is output so that the sequentially output image signal is sequentially shifted by 1 / (m × n) of the scanning time of one frame and dot-sequential or line-sequential. Display of is controlled.
本発明によれば、動画像を撮像することができる。特に、単独の撮像素子が撮像するよりも高フレームレートの動画像を撮像することができる。 According to the present invention, it is possible to capture a moving image. In particular, it is possible to capture a moving image with a higher frame rate than a single image sensor captures.
また、他の本発明によれば、動画像を表示することができる。特に、高フレームレートの動画像を表示することができる。 According to another aspect of the present invention, a moving image can be displayed. In particular, a high frame rate moving image can be displayed.
他の本発明によれば、動画像を撮像することができる。特に、撮像素子の画素ずらしを用いて、高フレームレートの動画像を撮像することができる。 According to another aspect of the present invention, a moving image can be taken. In particular, a high frame rate moving image can be captured using pixel shifting of the image sensor.
他の本発明によれば、動画像を撮像することができる。特に、輝度情報と色情報をそれぞれ取得して合成することにより、高フレームレートで画質のよい動画像を撮像することができる。 According to another aspect of the present invention, a moving image can be taken. In particular, by acquiring and combining luminance information and color information, it is possible to capture a moving image with high image quality at a high frame rate.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.
本発明によれば、画像表示システムを提供することができる。この画像表示システムは、画像信号を処理する画像処理装置(例えば、図9の画像信号処理装置51、または、図26の画像信号処理装置101)と、画像処理装置において処理された画像信号に対応する画像を表示する画像表示装置(例えば、図9、または、図26の画像表示装置52または走査制御部81−1)とで構成される画像表示システムであって、画像処理装置は、mHzの第1のフレームレート(例えば、mHz)の画像信号を保存する保存手段(例えば、図9、または、図26のメモリ61)と、保存手段により保存された画像信号の出力を制御する出力制御手段(例えば、図9のコントローラ62、または、図26のコントローラ111)と、出力制御手段により出力が制御された画像信号に対応する画像の表示を制御する表示制御手段(例えば、図9、または、図26の表示制御部66)とを備え、画像表示装置は、点順次または線順次方式によって画像の描画を行う複数の画像表示処理手段(例えば、図9、または、図26の走査制御部81−1)と、画像表示処理手段により描画される画像を表示する表示手段(例えば、図9、または、図26の表示部82)とを備え、画像表示処理手段は、少なくとも、n個備えられ、出力制御手段は、n個の画像表示処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号の出力を制御し、表示制御手段は、第1のフレームレートのn倍のフレームレートである第2のフレームレート(例えば、m×nHz)で画像表示装置に画像が表示されるように、出力制御手段によりn個の画像表示処理手段に順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示を制御することができる。
According to the present invention, an image display system can be provided. This image display system is compatible with an image processing device that processes image signals (for example, the image signal processing device 51 in FIG. 9 or the image signal processing device 101 in FIG. 26) and an image signal processed in the image processing device. An image display system configured to display an image to be displayed (for example, the image display device 52 or the scan control unit 81-1 in FIG. 9 or FIG. 26), and the image processing device Storage means (for example, the
また、本発明によれば、画像表示システムを提供することができる。この画像表示システムは、画像信号を処理する画像処理装置(例えば、図9の画像信号処理装置51、または、図26の画像信号処理装置101)と、画像処理装置において処理された画像信号に対応する画像を表示する画像表示装置(例えば、図9、または、図26の画像表示装置52または走査制御部81−1)とで構成される画像表示システムであって、画像処理装置は、mHzの第1のフレームレート(例えば、mHz)の画像信号を保存する保存手段(例えば、図9、または、図26のメモリ61)と、保存手段により保存された画像信号の出力を制御する出力制御手段(例えば、図9のコントローラ62、または、図26のコントローラ111)と、出力制御手段により出力が制御された画像信号に対応する画像の表示を制御する表示制御手段(例えば、図9、または、図26の表示制御部66)とを備え、画像表示装置は、点順次または線順次方式によって画像の描画を行う複数の画像表示処理手段(例えば、図9、または、図26の走査制御部81−1)を備え、画像表示処理手段は、少なくとも、n個備えられ、出力制御手段は、n個の画像表示処理手段に、1フレームごとに、保存手段から順次出力されるように、第1のフレームレートの画像信号の出力を制御し、表示制御手段は、第1のフレームレートのn倍のフレームレートである第2のフレームレート(例えば、m×nHz)で画像表示装置に画像が表示されるように、出力制御手段によりn個の画像表示処理手段に順次出力された画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、画像信号に対応する画像の表示を制御することができる。
Further, according to the present invention, an image display system can be provided. This image display system is compatible with an image processing device that processes image signals (for example, the image signal processing device 51 in FIG. 9 or the image signal processing device 101 in FIG. 26) and an image signal processed in the image processing device. An image display system configured to display an image to be displayed (for example, the image display device 52 or the scan control unit 81-1 in FIG. 9 or FIG. 26), and the image processing device Storage means (for example, the
画像表示装置は、画像を投影表示するプロジェクタにより構成されることができる。 The image display device can be constituted by a projector that projects and displays an image.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した撮像装置1の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an
図1に示すように、撮像装置1は、レンズ21、プリズム22、CCD(Charge Coupled Devices)イメージセンサ23、タイミングコントローラ24、コントローラ25、基準同期信号発生部26、相関2重サンプリング(CDS:Correlated Double Sampling)処理部27、A/Dコンバータ28、画像処理部29、コーデック(CODEC:COmpression/DECompression)処理部30、メモリ31、操作入力部32、および、ドライブ33から構成される。
As shown in FIG. 1, the
プリズム22は、CCDイメージセンサ23に含まれる撮像素子の数をnとして、レンズ21を介して入射された光の反射率が1/nであるプリズムビームスプリッタで構成され、レンズ21を介して入射された光をn個に分割し、CCDイメージセンサ23のn個の撮像素子に供給する。
The
CCDとは、光情報を電気信号に変換する(光電変換)半導体素子であり、CCDイメージセンサ23は、光を電気に変換する受光素子(画素)を複数個並べ、光の変化を画素ごとに独立して電気信号に変換する撮像素子をn個含むものである。なお、CCDイメージセンサ23は、撮像素子をn個含んでいるが、いわゆる複板式のCCDイメージセンサではなく、受光素子ごとに、例えば、RGBの3原色のカラーフィルタがモザイク状に並べられているベイヤー配列などのカラーフィルタが構成されている、一般的な単板式のCCDイメージセンサが、n個用いられているものである。CCDイメージセンサ23のそれぞれの撮像素子のカラーフィルタは、ベイヤー配列以外の配列であってもよい。
The CCD is a semiconductor element that converts optical information into an electrical signal (photoelectric conversion). The
CCDイメージセンサ23の複数の撮像素子は、タイミングコントローラ24の制御により、それぞれ異なるタイミングで、画像情報を取得する。タイミングコントローラ24は、コントローラ25の制御に基づいて、基準同期信号発生部26から供給される基準同期信号を所定の時間だけ遅延させたトリガ信号を、CCDイメージセンサ23の複数の撮像素子にそれぞれ供給する。
The plurality of image sensors of the
コントローラ25は、操作入力部32により入力されたユーザの操作入力に基づいて、タイミングコントローラ24、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部29、コーデック処理部30、および、メモリ31を制御する。基準同期信号発生部26は、タイミングコントローラ24がCCDイメージセンサ23の複数の撮像素子を制御するための基準となる同期信号を発生し、タイミングコントローラ24に供給する。
Based on the user's operation input input by the
相関2重サンプリング回路27は、CCDイメージセンサ23の出力信号に含まれるノイズのうちの主な成分であるリセットノイズを、出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することにより除去する回路である。A/Dコンバータ28は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換する。
The correlated
画像処理部29は、信号処理用プロセッサと画像用RAMを持つブロックで、信号処理用プロセッサが画像用RAMに格納された画像データに対して、予めプログラムされた画像処理、または、ハードウェアによる演算処理として構成された画像処理を行うものである。
The
コーデック処理部30は、デジタル画像データの圧縮または伸張アルゴリズムによる処理を実行する。メモリ31は、例えば、半導体メモリ、磁気ディスク、光磁気ディスク、または、光ディスクなどにより構成され、コントローラ25の制御に基づいて、供給されたデータを記憶したり、または、記憶しているデータを出力する。なお、メモリ31は、撮像装置1に対して着脱可能なようになされていても良い。
The
操作入力部32は、動画像の表示を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受け、コントローラ25に供給する。また、コントローラ25には、必要に応じてドライブ33が接続され、磁気ディスク41、光ディスク42、光磁気ディスク43、もしくは、半導体メモリ44などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてコントローラ25に実行される。
The
次に、撮像装置1の動作について説明する。
Next, the operation of the
レンズ21を介して入力された光は、プリズム22により分割されて、CCDイメージセンサ23に入射され、n個の受光素子のそれぞれにおいて、タイミングコントローラ24により制御されるタイミングで光電変換によって電気信号に変換され、相関2重サンプリング回路27に供給される。相関2重サンプリング回路27は、CCDイメージセンサ23の出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することによりノイズを除去し、A/Dコンバータ28に供給する。A/Dコンバータ28は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換し、画像処理部29の画像用RAMに一時格納する。
The light input through the
画像処理部29は、一定のレートで画素のストリームデータの供給を受け、画像用RAMに一時格納し、信号処理用プロセッサにおいて、一時格納された画像データに対して、例えば、ホワイトバランス調整、デモザイク処理、マトリックス処理、ガンマ補正、および、YC変換などの各種画像処理を実行する。
The
コーデック処理部30は、画像処理部29から供給された画像データに対して、所定の方式の符号化を施し、符号化された画像データをメモリ31に供給して記憶させる。
The
次に、図2および図3を用いて、CCDイメージセンサ23に含まれる撮像素子の数nが4である場合を例として、レンズ21を介して入射された光の反射率が1/4であるプリズムビームスプリッタで構成され、レンズ21を介して入射された光を4個に分割し、CCDイメージセンサ23の4個の撮像素子に光を供給するプリズム22と、CCDイメージセンサ23の4個の撮像素子の画像取得のタイミングについて説明する。
Next, with reference to FIGS. 2 and 3, taking as an example the case where the number n of image sensors included in the
プリズム22は、入射する光のうちの50%を直進させ、残り50%を入射光路から垂直方向に反射させるプリズムビームスプリッタ22−1乃至22−3で構成されている。
The
レンズ21を介して入射された光は、プリズムビームスプリッタ22−2で半分に分割され、プリズムビームスプリッタ22−1とプリズムビームスプリッタ22−3に供給される。プリズムビームスプリッタ22−1に入射された光は、更に半分に分割され、CCDイメージセンサ23の第1の撮像素子23−1と第2の撮像素子23−2に供給される。プリズムビームスプリッタ22−3に入射された光は、更に半分に分割され、CCDイメージセンサ23の第3の撮像素子23−3と第4の撮像素子23−4に供給される。第1の撮像素子23−1乃至第4の撮像素子23−4に供給される入射光のレンズ21からの光路長は、全て等しい。
The light incident through the
第1の撮像素子23−1乃至第4の撮像素子23−4には、タイミングコントローラ24から、それぞれ、画像取得のタイミング(すなわち、光電変換を行うタイミング)を指令する駆動信号の供給を受ける。
The first imaging device 23-1 to the fourth imaging device 23-4 are each supplied with a drive signal for instructing image acquisition timing (that is, timing for performing photoelectric conversion) from the
タイミングコントローラ24は、遅延処理部24−1乃至遅延処理部24−3の、3つの遅延処理部を有している。遅延処理部24−1乃至遅延処理部24−3は、基準同期信号発生部26から供給される基準同期信号に対して、所定の時間幅だけ同期信号を遅延させて出力する。
The
すなわち、タイミングコントローラ24は、図3に示されるように、基準同期信号発生部26から供給される(1/t)Hzの基準同期信号、基準同期信号より(1/4)tだけ遅延された(1/t)Hzの遅延信号1、基準同期信号より(2/4)tだけ遅延された(1/t)Hzの遅延信号2、および、基準同期信号より(3/4)tだけ遅延された(1/t)Hzの遅延信号3を、CCDイメージセンサ23に供給する。
That is, the
基準同期信号は、第1の撮像素子23−1に供給され、遅延信号1は、第2の撮像素子23−2に供給され、遅延信号2は、第3の撮像素子23−3に供給され、遅延信号3は、第4の撮像素子23−4に供給される。
The reference synchronization signal is supplied to the first image sensor 23-1, the
例えば、CCDイメージセンサ23のそれぞれの撮像素子の駆動速度の限界が60Hzであった場合、基準同期信号の周波数を60Hz(すなわち、t=1/60秒)とし、遅延信号1を基準同期信号より1/15秒だけ遅延させ、遅延信号2を基準同期信号より2/15秒だけ遅延させ、遅延信号3を基準同期信号より3/15秒だけ遅延させた場合、第1の撮像素子23−1乃至第4の撮像素子23−4により撮像される画像のフレームレートは、60×4の240Hzとなる。更に、第1の撮像素子23−1乃至第4の撮像素子23−4のそれぞれのシャッタスピードを1/15秒とすることにより、より正確な動画像を取得することが可能となる。
For example, when the drive speed limit of each image sensor of the
同様にして、CCDイメージセンサ23に含まれる撮像素子の数nが4以外の異なる数である場合も、プリズム22は、レンズ21を介して入射された光の反射率が1/nであるプリズムビームスプリッタで構成され、レンズ21を介して入射された光をn個に分割し、CCDイメージセンサ23のn個の撮像素子に光を供給する。そして、タイミングコントローラ24は、基準同期信号の周波数をmHzとすると、それぞれ、1/(n×m)秒ずつ遅延させた(n−1)の遅延信号を生成し、CCDイメージセンサ23のn個の撮像素子に供給して、(m×n)Hzの高フレームレートの画像を取得することが可能となる。
Similarly, even when the number n of image pickup elements included in the
例えば、撮像素子の数nが5であり、基準同期信号の周波数が50Hzであるとき、CCDイメージセンサ23の5個の撮像素子により、250Hzの高フレームレートの画像が取得される。
For example, when the number n of image sensors is 5, and the frequency of the reference synchronization signal is 50 Hz, an image with a high frame rate of 250 Hz is acquired by the five image sensors of the
このような構成にすることにより、CCDイメージセンサ23のそれぞれの撮像素子の駆動速度の限界よりも速いフレームレートの画像を取得することが可能となる。
With such a configuration, it is possible to acquire an image with a frame rate faster than the limit of the driving speed of each image sensor of the
取得された画像データは、それぞれ、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部29、および、コーデック処理部30により処理されて、メモリ31に記憶される。このとき、取得された画像データは、(m×n)Hzの高フレームレートの動画像データとして処理されて記憶されるものとしてもよいが、1/nずつ位相がずれた、それぞれmHzのn系列の動画像データとして、それぞれ個別に処理されて記憶されるようにしてもよい。1/nずつ位相がずれた、それぞれmHzのn系列の動画像データが、それぞれ個別に処理されて記憶されるようになされた場合、メモリ31には、4つの動画像データのファイルが生成され、それぞれ、個別に出力されるようになされる。
The acquired image data is processed by the correlated double
図4を用いて、取得された画像データが、(m×n)Hzの高フレームレートの動画像データとしてメモリ31に記憶された場合について説明する。ここでは、図2および図3を用いて説明したように、n=4であり、CCDイメージセンサ23の撮像素子23−1乃至撮像素子23−4により画像データが取得される場合を例として説明するが、nが4以外のいかなる値である場合も、メモリ31には、図4に示されるようにして、(m×n)Hzの高フレームレートの動画像データが順次記憶されるので、nが4以外の値についての説明は省略する。
The case where the acquired image data is stored in the
例えば、α番目のフレームであるαフレームが、CCDイメージセンサ23の撮像素子23−1により取得された場合、α+1フレームは、撮像素子32−2により、αフレームより1/(m×n)秒遅れて取得される。そして、α+2フレームは、撮像素子32−3により、α+1フレームより1/(m×n)秒遅れて取得され、α+3フレームは、撮像素子32−4により、α+2フレームより1/(m×n)秒遅れて取得される。更に、α+4フレームは、再び撮像素子32−1により、α+3フレームより1/(m×n)秒遅れて取得され、α+5フレームは、撮像素子32−2により、α+4フレームより1/(m×n)秒遅れて取得される。
For example, when the α frame, which is the αth frame, is acquired by the image sensor 23-1 of the
メモリ31に、取得された画像データが、(m×n)Hzの高フレームレートの動画像データとして記憶される場合、画像処理されたそれぞれのフレームが、順次、メモリ31に記憶されるので、記憶された各フレームの時間の差は、それぞれ1/(m×n)となる。
When the acquired image data is stored as moving image data with a high frame rate of (m × n) Hz in the
図5および図6を用いて、取得された画像データが、1/nずつ位相がずれた、それぞれmHzのn系列の動画像データとしてメモリ31に記憶された場合について説明する。図5は、n=4の場合の例であり、図6は、n=5である場合の例である。
The case where the acquired image data is stored in the
n=4の場合、図5に示されるように、メモリ31に記憶される第1の動画像データは、αフレーム、α+4フレーム・・・のフレームレートmの動画像データであり、第2の動画像データは、α+1フレーム、α+5フレーム・・・のフレームレートmの動画像データであり、第3の動画像データは、α+2フレーム、α+6フレーム・・・のフレームレートmの動画像データであり、第4の動画像データは、α+3フレーム、α+7フレーム・・・のフレームレートmの動画像データである。なお、図5においては、フレーム間の取得時間の関係を明確化するために、それぞれのフレームを乖離して図示しているが、第1の動画像データ乃至第4の動画像データとして記憶されるそれぞれのフレーム画像データは、連続して記憶されるようにしてもよいことは言うまでもない。
In the case of n = 4, as shown in FIG. 5, the first moving image data stored in the
例えば、図2および図3を用いて説明したように、n=4であり、CCDイメージセンサ23の撮像素子23−1乃至撮像素子23−4により画像データが取得される場合、それぞれの撮像素子によって取得された画像データが、それぞれ独立して画像処理され、メモリ31に、第1の動画像データ乃至第4の動画像データとして記憶されるようにすると好適である。
For example, as described with reference to FIGS. 2 and 3, when n = 4 and image data is acquired by the image sensor 23-1 to 23-4 of the
また、n=5の場合、図6に示されるように、メモリ31に記憶される第1の動画像データは、αフレーム、α+5フレーム・・・のフレームレートmの動画像データであり、第2の動画像データは、α+1フレーム、α+6フレーム・・・のフレームレートmの動画像データであり、第3の動画像データは、α+2フレーム、α+7フレーム・・・のフレームレートmの動画像データであり、第4の動画像データは、α+3フレーム、α+8フレーム・・・のフレームレートmの動画像データであり、第5の動画像データは、α+4フレーム、α+9フレーム・・・のフレームレートmの動画像データである。なお、図6においても、フレーム間の取得時間の関係を明確化するために、それぞれのフレームを乖離して図示しているが、第1の動画像データ乃至第5の動画像データとして記憶されるそれぞれのフレーム画像データは、連続して記憶されるようにしてもよいことは言うまでもない。
Further, when n = 5, as shown in FIG. 6, the first moving image data stored in the
なお、nが4または5以外の、例えば、2,3,6などのいずれの値であっても、メモリ31には、1/nずつ位相がずれた、それぞれmHzのn系列の動画像データとして、それぞれ個別に処理されて記憶されるようにすることができる。更に、メモリ31には、例えば、1/nずつ位相がずれた、それぞれmHzのn系列の動画像データの供給を受け、n系列の動画像データを、例えば、n/2やn/3などの系列数の動画像データにまとめて記憶しておくことができるようにしてもよい。
Note that, even if n is any value other than 4 or 5, for example, 2, 3, 6, etc., the
例えば、メモリ31に、図5を用いて説明したような、4系列の動画像データが供給された場合、メモリ31には、図7に示されるように、4系列の動画像データを、2系列の動画像データとして記憶させるようにすることができる。その場合、第1の動画像データには、αフレーム、α+2フレーム、α+4フレーム・・・が記憶され、第2の動画像データには、α+1フレーム、α+3フレーム、α+5フレーム・・・が記憶される。すなわち、第1の動画像データおよび第2の動画像データは、フレームレート2mの動画像データとなる。
For example, when the 4 series of moving image data as described with reference to FIG. 5 is supplied to the
次に、図8のフローチャートを参照して、画像取得処理1について説明する。
Next, the
ステップS1において、プリズム22は、レンズ21を介して入射された光をn分割(図2を用いて説明した場合においては、4分割)して、CCDイメージセンサ23のn個の撮像素子(図2を用いて説明した場合においては、撮像素子23−1乃至23−4)に供給する。
In step S <b> 1, the
ステップS2において、タイミングコントローラ24は、基準同期信号発生部26から供給される、mHzの基準同期信号を基に、n個の撮像素子による画像データ取得のタイミング信号、すなわち、それぞれ、1/(n×m)秒ずつ遅延させた(n−1)の遅延信号を発生し、CCDイメージセンサ23のn個の撮像素子に供給する。
In step S2, the
ステップS3において、CCDイメージセンサ23は、タイミングコントローラ24から供給されたタイミング信号に基づいて、n個の撮像素子を用いて、(m×n)Hzのフレームレートの画像データを取得する。
In step S <b> 3, the
ステップS4において、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部29、および、コーデック処理部30は、CCDイメージセンサ23によって取得された(m×n)Hzのフレームレートの画像データに対して、画像処理を行う。
In step S <b> 4, the correlated double
ステップS5において、メモリ31は、処理された画像の供給を受けて記憶し、処理が終了される。
In step S5, the
このような処理により、n個の撮像素子を用いて、(m×n)Hzのフレームレートの画像データが取得されて記憶される。(m×n)Hzのフレームレートの画像データは、1/nずつ位相がずれた、それぞれmHzのn系列の動画像データとして、メモリ31に記憶されるようにしてもよい。
By such processing, image data with a frame rate of (m × n) Hz is acquired and stored using n image sensors. Image data having a frame rate of (m × n) Hz may be stored in the
次に、このようにして取得された(m×n)Hzのフレームレートの画像データの表示方法について説明する。 Next, a display method of image data having a frame rate of (m × n) Hz acquired in this way will be described.
図9は、本発明を適用した画像信号処理装置51および画像表示装置52の構成を示すブロック図である。 FIG. 9 is a block diagram showing the configuration of the image signal processing device 51 and the image display device 52 to which the present invention is applied.
画像信号処理装置51には、(m×n)Hzのフレームレートの画像データを構成する1/nずつ位相がずれた、それぞれmHzのn系列の動画像データが、個別に供給され、メモリ61のフレームメモリ61−1乃至フレームメモリ61−nに供給されて保持される。
The image signal processing device 51 is individually supplied with n-sequence moving image data of mHz each having a phase shift of 1 / n constituting image data having a frame rate of (m × n) Hz, and the
コントローラ62は、操作入力部63から入力されるユーザの操作入力にしたがって、基準同期信号発生部64から供給されるmHzの基準同期信号を基に、フレームメモリ61−1乃至61−nからの映像信号の出力を制御するとともに、フレームメモリ61−1乃至61−nからの映像信号の出力に関する情報を、表示制御部66に供給する。操作入力部63は、動画像の表示を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受け、コントローラ62に供給する。基準同期信号発生部64は、コントローラ62がメモリ61の複数のフレームメモリ61−1乃至61−nを制御するための基準となる同期信号を発生し、コントローラ62に供給する。
The
メモリ61のフレームメモリ61−1乃至61−nは、コントローラ62の制御に基づいて、供給されたデジタルの画像信号S1乃至S4を、D/A変換部65−1乃至65−nに出力する。
The frame memories 61-1 to 61-n of the
D/A変換部65−1乃至65−nは、フレームメモリ61−1乃至61−nから供給されたデジタルの画像信号S1乃至S4を、アナログの画像信号に変換し、画像表示装置52の走査制御部81−1乃至81−nに供給する。表示制御部66は、コントローラ62から供給された情報を基に、画像表示装置52による動画像の表示を制御し、(m×n)Hzのフレームレートのフレーム画像を表示させる。
The D / A converters 65-1 to 65-n convert the digital image signals S1 to S4 supplied from the frame memories 61-1 to 61-n into analog image signals, and scan the image display device 52. It supplies to the control part 81-1 thru | or 81-n. The
また、コントローラ62には、必要に応じてドライブ67が接続され、磁気ディスク71、光ディスク72、光磁気ディスク73、もしくは、半導体メモリ74などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてコントローラ62に実行される。
Further, a
図10乃至図13を用いて、コントローラ62の制御に基づいて、フレームメモリ61−1乃至61−nから読み出される画像データのタイミングについて説明する。
The timing of image data read from the frame memories 61-1 to 61-n based on the control of the
図10を用いて、n=2である場合の、フレームメモリ61−1乃至61−nから読み出される画像データのタイミングについて説明する。 The timing of image data read from the frame memories 61-1 to 61-n when n = 2 will be described with reference to FIG.
コントローラ62は、フレームメモリ61−1および61−2を制御して、フレームメモリ61−1から、フレームレートmのαフレームを出力映像信号S1としてA/D変換部65−1に供給させ、フレームメモリ61−2から、フレームレートmのα+1フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/2mだけ遅らせた供給開始時刻bで、A/D変換部65−2に供給させる。
The
αフレームのA/D変換部65−1への供給にかかる時間は、1/mとなり、供給終了時刻cは、α+1フレームのA/D変換部65−2への供給開始時刻bから、1/2mだけ後になる。そして、時刻cからα+2フレームがフレームメモリ61−1からA/D変換部65−1へ、時間1/mだけかけて供給される。すなわち、α+2フレームの供給終了時刻eは、2/mである。また、α+1フレームのA/D変換部65−2への供給にかかる時間は、1/mとなり、供給終了時刻dは、α+2フレームのA/D変換部65−2への供給開始時刻cから、1/2mだけ後になる。そして、時刻dからα+3フレームがフレームメモリ61−2からA/D変換部65−2へ、時間1/mだけかけて供給される。すなわち、α+3フレームの供給終了時刻fは、5/2mである。
The time taken to supply the α frame to the A / D conversion unit 65-1 is 1 / m, and the supply end time c is 1 from the supply start time b to the A / D conversion unit 65-2 of the α + 1 frame. / 2m later. Then, the α + 2 frame from the time c is supplied from the frame memory 61-1 to the A / D conversion unit 65-1 over
次に、図11を用いて、n=3である場合の、フレームメモリ61−1乃至61−nから読み出される画像データのタイミングについて説明する。 Next, the timing of image data read from the frame memories 61-1 to 61-n when n = 3 will be described with reference to FIG.
コントローラ62は、フレームメモリ61−1乃至61−3を制御して、フレームメモリ61−1から、フレームレートmのαフレームを出力映像信号S1としてA/D変換部65−1に供給させ、フレームメモリ61−2から、フレームレートmのα+1フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/3mだけ遅らせた供給開始時刻bで、A/D変換部65−2に供給させ、フレームメモリ61−3から、フレームレートmのα+2フレームを、出力映像信号S3として、α+1フレームの供給開始時刻bよりも、1/3mだけ遅らせた供給開始時刻cで、A/D変換部65−3に供給させる。
The
αフレームのA/D変換部65−1への供給にかかる時間は、1/mとなり、供給終了時刻dは、α+1フレームのA/D変換部65−2への供給開始時刻bから、2/3mだけ後になる。そして、時刻dからα+3フレームがフレームメモリ61−1からA/D変換部65−1へ、時間1/mだけかけて供給される。すなわち、α+3フレームの供給終了時刻gは、2/mである。また、α+1フレームのA/D変換部65−2への供給にかかる時間は、1/mとなり、供給終了時刻eは、α+2フレームのA/D変換部65−3への供給開始時刻cから、2/3mだけ後になる。そして、時刻dからα+4フレームがフレームメモリ61−2からA/D変換部65−2へ、時間1/mだけかけて供給される。すなわち、α+4フレームの供給終了時刻fは、7/3mである。また、α+2フレームのA/D変換部65−3への供給にかかる時間は、1/mとなり、供給終了時刻fは、α+3フレームのA/D変換部65−1への供給開始時刻dから、2/3mだけ後になる。そして、時刻fからα+5フレームがフレームメモリ61−3からA/D変換部65−3へ、時間1/mだけかけて供給される。すなわち、α+5フレームの供給終了時刻iは、8/3mである。
The time taken to supply the α frame to the A / D conversion unit 65-1 is 1 / m, and the supply end time d is 2 from the supply start time b to the A / D conversion unit 65-2 of the α + 1 frame. / 3m later. Then, the α + 3 frame from the time d is supplied from the frame memory 61-1 to the A / D converter 65-1 over
次に、図12を用いて、n=4である場合の、フレームメモリ61−1乃至61−nから読み出される画像データのタイミングについて説明する。 Next, the timing of image data read from the frame memories 61-1 to 61-n when n = 4 will be described with reference to FIG.
コントローラ62は、フレームメモリ61−1乃至61−4を制御して、フレームメモリ61−1から、フレームレートmのαフレームを出力映像信号S1としてA/D変換部65−1に供給させ、フレームメモリ61−2から、フレームレートmのα+1フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/4mだけ遅らせた供給開始時刻bで、A/D変換部65−2に供給させ、フレームメモリ61−3から、フレームレートmのα+2フレームを、出力映像信号S3として、α+1フレームの供給開始時刻bよりも、1/4mだけ遅らせた供給開始時刻cで、A/D変換部65−3に供給させ、フレームメモリ61−4から、フレームレートmのα+3フレームを、出力映像信号S4として、α+2フレームの供給開始時刻cよりも、1/4mだけ遅らせた供給開始時刻dで、A/D変換部65−4に供給させる。
The
αフレームのA/D変換部65−1への供給にかかる時間は、1/mとなり、供給終了時刻eは、α+1フレームのA/D変換部65−2への供給開始時刻bから、3/4mだけ後になる。そして、時刻eからα+4フレームがフレームメモリ61−1からA/D変換部65−1へ、時間1/mだけかけて供給される。すなわち、α+4フレームの供給終了時刻iは、2/mである。また、α+1フレームのA/D変換部65−2への供給にかかる時間は、1/mとなり、供給終了時刻fは、α+2フレームのA/D変換部65−3への供給開始時刻cから、3/4mだけ後になる。そして、時刻fからα+5フレームがフレームメモリ61−2からA/D変換部65−2へ、時間1/mだけかけて供給される。すなわち、α+5フレームの供給終了時刻jは、9/4mである。
The time taken to supply the α frame to the A / D conversion unit 65-1 is 1 / m, and the supply end time e is 3 from the supply start time b to the A / D conversion unit 65-2 of the α + 1 frame. / 4m later. Then, α + 4 frames from time e are supplied from the frame memory 61-1 to the A / D converter 65-1 over
また、α+2フレームのA/D変換部65−3への供給にかかる時間は、1/mとなり、供給終了時刻gは、α+3フレームのA/D変換部65−4への供給開始時刻dから、3/4mだけ後になる。そして、時刻fからα+6フレームがフレームメモリ61−3からA/D変換部65−3へ、時間1/mだけかけて供給される。すなわち、α+6フレームの供給終了時刻iは、5/2mである。そして、α+3フレームのA/D変換部65−4への供給にかかる時間は、1/mとなり、供給終了時刻hは、α+4フレームのA/D変換部65−1への供給開始時刻eから、3/4mだけ後になる。そして、時刻hからα+7フレームがフレームメモリ61−4からA/D変換部65−4へ、時間1/mだけかけて供給される。すなわち、α+7フレームの供給終了時刻lは、11/4mである。
Also, the time taken to supply the α + 2 frame to the A / D conversion unit 65-3 is 1 / m, and the supply end time g is from the supply start time d to the A / D conversion unit 65-4 of the α + 3 frame. 3 / 4m later. Then, α + 6 frames from time f are supplied from the frame memory 61-3 to the A / D converter 65-3 over
次に、図13を用いて、n=5である場合の、フレームメモリ61−1乃至61−nから読み出される画像データのタイミングについて説明する。 Next, the timing of image data read from the frame memories 61-1 to 61-n when n = 5 will be described with reference to FIG.
コントローラ62は、フレームメモリ61−1乃至61−5を制御して、フレームメモリ61−1から、フレームレートmのαフレームを出力映像信号S1としてA/D変換部65−1に供給させ、フレームメモリ61−2から、フレームレートmのα+1フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/5mだけ遅らせた供給開始時刻bで、A/D変換部65−2に供給させ、フレームメモリ61−3から、フレームレートmのα+2フレームを、出力映像信号S3として、α+1フレームの供給開始時刻bよりも、1/5mだけ遅らせた供給開始時刻cで、A/D変換部65−3に供給させ、フレームメモリ61−4から、フレームレートmのα+3フレームを、出力映像信号S4として、α+2フレームの供給開始時刻cよりも、1/5mだけ遅らせた供給開始時刻dで、A/D変換部65−4に供給させ、フレームメモリ61−5から、フレームレートmのα+4フレームを、出力映像信号S5として、α+3フレームの供給開始時刻dよりも、1/5mだけ遅らせた供給開始時刻eで、A/D変換部65−5に供給させる。
The
αフレームのA/D変換部65−1への供給にかかる時間は、1/mとなり、供給終了時刻fは、α+1フレームのA/D変換部65−2への供給開始時刻bから、4/5mだけ後になる。そして、時刻fからα+5フレームがフレームメモリ61−1からA/D変換部65−1へ、時間1/mだけかけて供給される。すなわち、α+5フレームの供給終了時刻fは、2/mである。また、α+1フレームのA/D変換部65−2への供給にかかる時間は、1/mとなり、供給終了時刻gは、α+2フレームのA/D変換部65−3への供給開始時刻cから、4/5mだけ後になる。そして、時刻gからα+6フレームがフレームメモリ61−2からA/D変換部65−2へ、時間1/mだけかけて供給される。すなわち、α+5フレームの供給終了時刻lは、11/5mである。
The time taken to supply the α frame to the A / D conversion unit 65-1 is 1 / m, and the supply end time f is 4 from the supply start time b to the A / D conversion unit 65-2 of the α + 1 frame. / 5m later. Then, from time f, α + 5 frame is supplied from the frame memory 61-1 to the A / D converter 65-1 over
また、α+2フレームのA/D変換部65−3への供給にかかる時間は、1/mとなり、供給終了時刻hは、α+3フレームのA/D変換部65−4への供給開始時刻dから、4/5mだけ後になる。そして、時刻hから次のフレーム(図示していないがα+7フレーム)がフレームメモリ61−3からA/D変換部65−3へ、時間1/mだけかけて供給される。そして、α+3フレームのA/D変換部65−4への供給にかかる時間は、1/mとなり、供給終了時刻iは、α+4フレームのA/D変換部65−5への供給開始時刻eから、4/5mだけ後になる。そして、時刻iから次のフレーム(図示していないがα+8フレーム)がフレームメモリ61−4からA/D変換部65−4へ、時間1/mだけかけて供給される。そして、α+4フレームのA/D変換部65−5への供給にかかる時間は、1/mとなり、供給終了時刻jは、α+5フレームのA/D変換部65−1への供給開始時刻fから、4/5mだけ後になる。そして、時刻jから次のフレーム(図示していないがα+9フレーム)がフレームメモリ61−5からA/D変換部65−5へ、時間1/mだけかけて供給される。
Also, the time taken to supply the α + 2 frame to the A / D conversion unit 65-3 is 1 / m, and the supply end time h is from the supply start time d to the A / D conversion unit 65-4 of the α + 3 frame. 4 / 5m later. Then, the next frame (α + 7 frame, not shown) is supplied from the frame memory 61-3 to the A / D converter 65-3 over
再び、図9に戻り、画像表示装置52について説明する。 Returning to FIG. 9 again, the image display device 52 will be described.
画像表示装置52は、画像信号処理装置51から供給された、n系統のアナログ映像信号の供給を受け、表示制御部66の制御に基づいて、走査制御部81−1乃至81−nを用いて、表示部82に、(m×n)Hzの動画像を表示する。
The image display device 52 is supplied with n analog video signals supplied from the image signal processing device 51, and uses the scanning control units 81-1 to 81 -n based on the control of the
走査制御部81−1乃至81−nは、アナログ映像信号の供給を受け、供給されたアナログの映像信号を、点順次、または、線順次走査方式によって表示部82に表示させる。このとき、走査制御部81−1乃至81−nは、連続したフレームを、1/nフレームずらして交互に走査することにより、走査制御部81−1乃至81−nにおける単独での画像描画のフレームレートのn倍のフレームレートで、表示部82への画像表示を行うことができる。
The scanning control units 81-1 to 81-n receive an analog video signal and cause the
また、画像表示装置52は、一つの装置として構成される以外にも、複数の装置により構成される画像表示システムとして構成するようにしても良い。画像表示装置52が画像表示システムとして構成される場合、例えば、図14に示されるように、プロジェクタ91−1乃至プロジェクタ91−n、および、スクリーン92により構成することができる。
Further, the image display device 52 may be configured as an image display system including a plurality of devices in addition to being configured as a single device. When the image display device 52 is configured as an image display system, for example, as illustrated in FIG. 14, the image display device 52 can be configured by a projector 91-1 to a projector 91-n and a
画像表示装置52の具体的な動作について、図14に示されるプロジェクタ91−1乃至プロジェクタ91−n、および、スクリーン92を用いた場合を例として説明する。プロジェクタ91−1は、図9の走査制御部81−1に対応し、プロジェクタ91−nは、図9の走査制御部81−nに対応し、スクリーン92は、図9の表示部82に対応する。
The specific operation of the image display device 52 will be described by taking as an example the case of using the projectors 91-1 to 91-n and the
例えば、プロジェクタ91−1乃至プロジェクタ91−nは、図10乃至図13を用いて説明したタイミングでフレームメモリ61−1乃至61−nから読み出され、A/D変換部65でアナログ信号に変換された、出力映像信号S1乃至Snに対応するアナログ映像信号の供給を受ける。
For example, the projectors 91-1 to 91-n are read from the frame memories 61-1 to 61-n at the timing described with reference to FIGS. 10 to 13 and converted into analog signals by the A /
プロジェクタ91−1乃至プロジェクタ91−nは、それぞれ、表示制御部66の制御に基づいたタイミングで、表示される表示画像を構成する画素(X,Y)=(0,0)から、画素(X,Y)=(p,q)を、スクリーン92に水平方向に走査することにより、供給された映像信号に対応するフレーム画像を表示する。プロジェクタ91−1乃至プロジェクタ91−nの1つ1つがスクリーン92に表示させるフレーム画像のそれぞれのフレームレートは、mHzであり、プロジェクタ91−1乃至プロジェクタ91−nによって表示される動画像のフレームレートは(m×n)Hzである。また、プロジェクタ91−1乃至プロジェクタ91−nによって表示される各フレームの走査開始タイミングは、図10乃至図13を用いて説明した出力映像信号S1乃至出力映像信号Snにおける場合と同様に、プロジェクタ91−1乃至プロジェクタ91−nによる、それぞれの1フレームの表示に対して、1/n位相、すなわち、1/(m×n)だけずれている。
Each of the projectors 91-1 to 91-n has a pixel (X, Y) = (0, 0) constituting a display image to be displayed at a timing based on the control of the
例えば、プロジェクタ91−2が、スクリーン92上の走査Bで示されるラインに、α+1フレームの対応するラインを走査しているとき、プロジェクタ91−3は、スクリーン92上の走査Aで示されるラインに、α+2フレームの対応するラインを走査している。走査Bで示されるラインは、走査Aで示されるラインから、1フレームのライン数の1/nだけずれたラインである。すなわち、スクリーン92に表示される動画像は、時間1/(m×n)ごとに、走査Aおよび走査Bを含む複数の走査によって、順次書き換えられる。
For example, when the projector 91-2 scans the line indicated by the scan B on the
例えば、n=2であり、プロジェクタ91−1およびプロジェクタ91−2において出力される表示画像のフレームレートが、それぞれ、120Hzであった場合、スクリーンに表示される動画像のフレームレートは、実質的に、240Hzとなる。また、例えば、n=3であり、プロジェクタ91−1乃至プロジェクタ91−3において出力される表示画像のフレームレートが、それぞれ、80Hzであった場合、スクリーンに表示される動画像のフレームレートは、実質的に、240Hzとなる。例えば、n=4であり、プロジェクタ91−1乃至プロジェクタ91−4において出力される表示画像のフレームレートが、それぞれ、60Hzであった場合、スクリーンに表示される動画像のフレームレートは、実質的に、240Hzとなる。更に、例えば、n=5であり、プロジェクタ91−1乃至プロジェクタ91−5において出力される表示画像のフレームレートが、それぞれ、50Hzであった場合、スクリーンに表示される動画像のフレームレートは、実質的に、250Hzとなる。 For example, when n = 2 and the frame rate of the display image output from the projector 91-1 and the projector 91-2 is 120 Hz, the frame rate of the moving image displayed on the screen is substantially And 240 Hz. For example, when n = 3 and the frame rate of the display image output from the projector 91-1 to the projector 91-3 is 80 Hz, the frame rate of the moving image displayed on the screen is It is substantially 240 Hz. For example, when n = 4 and the frame rate of the display image output from the projectors 91-1 to 91-4 is 60 Hz, the frame rate of the moving image displayed on the screen is substantially And 240 Hz. Further, for example, when n = 5 and the frame rate of the display image output from the projector 91-1 to the projector 91-5 is 50 Hz, the frame rate of the moving image displayed on the screen is In effect, it becomes 250 Hz.
なお、図14に示される走査Aと走査Bなどの複数の走査線による同一位置の走査ラインのずれが発生しないようにするために、従来の、いわゆるツインスタック技術において用いられる光学的な画像の位置補正と同様の技術を用いて、画素の走査位置を補正することが可能である。ツインスタック技術とは、プロジェクタを2台使用して、同時に同一の画像を同一位置に表示することにより、明るい画像を表示することができる技術である。ツインスタックを用いて画像を表示する場合には、表示される画像の輝度が2倍となり、周囲の環境が明るい場合や、投影距離が長い場合にも鮮明な投影が可能となる。 It should be noted that in order to prevent a shift of the scanning line at the same position by a plurality of scanning lines such as scanning A and scanning B shown in FIG. 14, the optical image used in the conventional so-called twin stack technique is used. It is possible to correct the scanning position of the pixel using a technique similar to the position correction. The twin stack technology is a technology that can display a bright image by using two projectors and simultaneously displaying the same image at the same position. When an image is displayed using a twin stack, the brightness of the displayed image is doubled, and clear projection is possible even when the surrounding environment is bright or the projection distance is long.
ツインスタック技術を用いた場合、投影される2つの画像の画素位置のずれによる画像のボケの発生が問題となっていたが、この問題を解決するために、光学的に投影される画素の画素位置を微調整することができる、いわゆるピクチャーシフト機能が広く用いられており、2台のプロジェクタから投影される画像の位置を厳密に合わせることが可能である。この技術は、複数台のプロジェクタを用いた場合においても適用可能である。 In the case of using the twin stack technology, the occurrence of blurring of the image due to the displacement of the pixel position of the two projected images has become a problem. To solve this problem, the pixel of the pixel that is optically projected A so-called picture shift function capable of finely adjusting the position is widely used, and the positions of the images projected from the two projectors can be precisely matched. This technique is applicable even when a plurality of projectors are used.
なお、投影される2つの画像の画素位置のずれを補正するための技術は、例えば、特願平10−058291などに開示されている。 A technique for correcting a shift in pixel position between two projected images is disclosed in, for example, Japanese Patent Application No. 10-058291.
画像表示装置52においては、複数の走査による走査ラインのずれが、1画素(1ドット、または1ピクセル)以内となるように調整することにより、1フレームずれた画像との重なりにより、画像がぼやけてしまうことなく、動画像を表示することが可能となる。 In the image display device 52, the image is blurred due to the overlap with the image shifted by one frame by adjusting the shift of the scanning line by a plurality of scans to be within one pixel (one dot or one pixel). This makes it possible to display a moving image without any trouble.
上述したように、プロジェクタ91−1乃至プロジェクタ91−nにより、1/nフレームずらして、1フレームずつ順番に、フレーム画像が描画されるようになされた場合、あるプロジェクタによって、1フレームが完全に走査されて描画されるよりも早く、他のプロジェクタによって、次のフレームの画像の描画のための走査が開始される。このとき、図14のスクリーン92に表示される物体Cが、例えば、表示画面上で、左から右に移動するように表示される場合、動画像を観測するユーザにとっては、エッジ部分の移動の滑らかさが、表示される動画の滑らかさとして感じられる。
As described above, when a frame image is drawn by the projector 91-1 through the projector 91-n with a shift of 1 / n frame in order frame by frame, one frame is completely displayed by a certain projector. The scanning for drawing the image of the next frame is started by another projector earlier than the scanning and drawing. At this time, when the object C displayed on the
スクリーン92に表示される物体Cのエッジ部分βの表示について、図15を用いて説明する。
The display of the edge portion β of the object C displayed on the
プロジェクタ91−1により、αフレームの物体Cが表示され、時間1/(m×n)後に、プロジェクタ91−2により、α+1フレームの物体Cが表示される。このときの、物体Cのエッジ部分βの位置は、αフレームの表示から、時間1/(m×n)で書き換えられる。そして、プロジェクタ91−3(n=2であるときは、プロジェクタ91−2)により、時間1/(m×n)後に、α+2フレームの物体Cが表示される。このときの、物体Cのエッジ部分βは、α+1フレームの表示から、時間1/(m×n)で書き換えられる。
The projector 91-1 displays the object C of the α frame, and after
例えば、プロジェクタ91−1乃至プロジェクタ91−nにおいて出力される表示画像のフレームレートが、それぞれ、mHzである場合、プロジェクタ91−1乃至プロジェクタ91−nのうちのいずれかが単独で表示した動画像においては、フレームが1/m(秒)ごとに書き換えられる。それに対して、プロジェクタ91−1乃至プロジェクタ91−nを用いて、1フレームずつ順番にフレーム画像を表示することによってスクリーン92に表示される物体Cのエッジ部分βは、1/(m×n)(秒)でリフレッシュされる。したがって、ユーザにより観測される物体Cのエッジ部分βの動きは、非常に滑らかになる。
For example, when the frame rate of the display image output from each of the projectors 91-1 to 91-n is mHz, a moving image displayed by any one of the projectors 91-1 to 91-n alone. In, the frame is rewritten every 1 / m (second). On the other hand, the edge portion β of the object C displayed on the
ここでは、画像表示装置52は、表示制御部66の制御を受けて、画像の表示を制御するものとして説明しているが、画像表示装置52は、表示制御部66を内部に有し(すなわち、画像表示装置52と表示制御部66とで1つの装置を構成し)、コントローラ62から、画像表示に必要な制御信号の供給を受けるようにしたり、内部に表示制御部66とは異なる制御部を備え、表示制御部66から、垂直同期信号や、ドットクロック信号などの供給を受けて、例えば、図14を用いて説明したプロジェクタ91−1乃至プロジェクタ91−nの動作を制御するようにしても良い。
Here, the image display device 52 is described as controlling the display of an image under the control of the
また、ここでは、画像表示装置52の動作について、プロジェクタ91−1乃至プロジェクタ91−n、および、スクリーン92で構成された投影表示システムを例として説明したが、画像表示装置52は、複数の表示デバイスを用いて、1/nフレームずらして、連続したフレームを順次走査させるようにすることにより、それぞれの表示デバイスの単独でのフレームレートmHzのn倍のフレームレートで、動画像の表示を行うことができるものであれば、点順次、または、線順次走査方式によって、画像の描画を行ういかなる表示システムを用いるようにしても良い。
Here, the operation of the image display device 52 has been described by taking a projection display system including the projector 91-1 to the projector 91-n and the
画像表示装置52には、例えば、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display:液晶ディスプレイ),GLV(Grating Light Valve),LED(Light Emitting Diode:発光ダイオード),FED(Field Emission Display)の直視型のディスプレイ、または、プロジェクタなどであって、点順次、または、線順次走査方式によって、画像の描画を行うものを用いることができる。 Examples of the image display device 52 include CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), GLV (Grating Light Valve), LED (Light Emitting Diode), and FED (Field Emission Display). A direct-view display, a projector, or the like that can draw an image by a dot-sequential or line-sequential scanning method can be used.
例えば、GLVとは、光の回折効果を利用して光の向きや色などを制御する投影デバイスである、マイクロリボンアレイを使用した画像表示技術である。マイクロリボンアレイとは、極小の光回折素子を1列に並べたもので、GLVでは、これにレーザ光を当てることで、画像の投影を行う。リボンは、電気信号により独立して駆動することができ、駆動量を調節することで光回折量を変化させ、各リボンの差異により画像の明暗を作り出すことができるので、滑らかな階調表現と高コントラストを実現することができる。 For example, GLV is an image display technique using a microribbon array, which is a projection device that controls the direction and color of light using the diffraction effect of light. A microribbon array is an array of very small light diffraction elements arranged in a line. In the GLV, an image is projected by applying a laser beam to the array. The ribbon can be driven independently by an electrical signal, and the amount of light diffraction can be changed by adjusting the drive amount, and the brightness of the image can be created by the difference of each ribbon, so smooth gradation expression and High contrast can be realized.
LEDは、2種類の半導体が接合されて生成される素子で、電流を加えることにより、発光することができるものである。 An LED is an element generated by joining two types of semiconductors, and can emit light by applying a current.
FEDは、陰極から電子を取り出して、陽極に塗布した蛍光体に衝突させて発光させるという、CRTと同様の発光原理により、画像を得ることができるものである。ただし、陰極の構造として、CRTは点電子源を用いるのに対して、FEDは面状の電子源を用いる。 The FED can obtain an image by the same light emission principle as the CRT in which electrons are taken out from the cathode and collided with a phosphor applied to the anode to emit light. However, as the cathode structure, the CRT uses a point electron source, while the FED uses a planar electron source.
ところで、動画には、静止画では発生しない動画特有の画質劣化が存在する。現状最も広く用いられている50Hz(PAL:Phase Alternating Line)や60Hz(NTSC:National Television System CommitteeやHD(High Definitions)映像信号)のディスプレイでは、時間方向の再現が不完全であり、特定の条件下においてこの時間方向での不完全性が空間方向での不完全性に変換されるために、例えば、動画像データ取得時のシャッタ時間、動画像データ表示時の表示素子発光時間、および、人の視線条件によって、動画質の劣化が発生してしまう。 By the way, the moving image has a moving image-specific image quality degradation that does not occur in the still image. Currently, the most widely used displays of 50 Hz (PAL: Phase Alternating Line) and 60 Hz (NTSC: National Television System Committee and HD (High Definitions) video signal) have incomplete reproduction in the time direction and have specific conditions. Since the imperfection in the time direction is converted into the imperfection in the spatial direction below, for example, a shutter time when moving image data is acquired, a display element light emission time when moving image data is displayed, and a person Depending on the line-of-sight condition, the quality of the moving image may deteriorate.
図16に、動くものと固定しているものが共存するような現実のシーンの例を示す。このシーンは車が右方向に移動し、樹木は地面に固定されていることを想定している。図16のシーンを観察した場合の観察者の見えを図17および図18に示す。 FIG. 16 shows an example of an actual scene in which a moving object and a fixed object coexist. This scene assumes that the car is moving to the right and the tree is fixed to the ground. FIGS. 17 and 18 show the appearance of the observer when the scene of FIG. 16 is observed.
図17は観察者が樹木を注視していた場合の観察者からの映像の見えを示す図である。この場合、右方向に移動する車は、観察者からはぼけて見える。一方、図18は車に注視していた場合の観察者からの映像の見えを示す図である。この場合、固定している樹木は、観察者からはぼけて見える。 FIG. 17 is a diagram illustrating the appearance of an image from the observer when the observer is gazing at the tree. In this case, the vehicle moving in the right direction appears to be blurred from the observer. On the other hand, FIG. 18 is a diagram showing the appearance of the video from the observer when watching the car. In this case, the fixed tree appears blurred to the observer.
以下、観察面座標上での固定物に視線を固定している場合を固定視条件、観察面座標上での移動物に視線を追従している場合を追従視条件とする。すなわち、図17を用いて説明した場合が固定視条件、図18用いて説明した場合が追従視条件となる。固定視条件、追従視条件とも、注視しているものはクリアに見える。一方、注視している物体と相対位置が変化する物体はぼけて見える。 Hereinafter, the case where the line of sight is fixed to a fixed object on the observation plane coordinates is referred to as a fixed visual condition, and the case where the line of sight follows a moving object on the observation plane coordinates is referred to as a tracking visual condition. That is, the case described with reference to FIG. 17 is the fixed viewing condition, and the case described with reference to FIG. 18 is the following viewing condition. In both fixed vision and following vision conditions, what you are watching looks clear. On the other hand, the object being watched and the object whose relative position changes appear blurred.
この原因は、人が網膜に入射された光をある時間内であるならば積分する作用を視覚特性として持つためである。眼の網膜座標上で移動する物体は、その位置変化が時間方向に積分されるため、結果的にぼけた映像として知覚される。このぼけは、網膜座標上での移動速度に比例して大きくなる。網膜座標上の移動速度とは、実際の物体の速度ではなく、角速度(deg/sec)に相当する。 This is because a human has a function of integrating light incident on the retina within a certain time as a visual characteristic. An object moving on the retina coordinates of the eye is perceived as a blurred image as a result of the change in position being integrated in the time direction. This blur increases in proportion to the moving speed on the retina coordinates. The moving speed on the retina coordinates is not an actual object speed but an angular speed (deg / sec).
以上のように、網膜座標上で静止している物体はクリアに見え、網膜座標上で移動する物体はぼけて見える。この実際の見えと一致する映像を再現することが、リアリティのある動画像、すなわち、滑らかに動いているように見える画質のよい動画像を表示するためには重要である。 As described above, an object that is stationary on the retinal coordinates appears clear, and an object that moves on the retinal coordinates appears blurred. It is important to reproduce a video that matches the actual appearance in order to display a realistic moving image, that is, a moving image with high image quality that seems to move smoothly.
図19を用いて、図17および図18を用いて説明した観察者の見えの違いについて説明する。図19上部は外界での実際の動きを示している。縦軸は時間軸、横軸は水平方向であり、外界上にて固定ドット(図16乃至図18における樹木に対応し、図中xで示す)と一定速度で移動するドット(図16乃至図18における車に対応し、図中yで示す)が存在するシーンでの各ドットの時間毎の位置を示す。図19下部は、この外界の動きを観察したときの固定視および追従視での見えを示している。点線で示された矢印が、観察者の視点の動き、つまり網膜上での映像の積分方向を示す。垂直方向の軸が固定視、斜め方向の軸が追従視での積分方向である。すなわち、観察者が追従視をしている場合、固定ドット(樹木)はぼけて見えるが、移動するドット(車)はクリアに見える。一方、観察者が固定視をしている場合、固定ドット(樹木)はクリアに見えるが、移動するドット(車)はボケて見える。 The difference in the appearance of the observer described with reference to FIGS. 17 and 18 will be described with reference to FIG. The upper part of FIG. 19 shows the actual movement in the outside world. The vertical axis is the time axis, and the horizontal axis is the horizontal direction. Fixed dots (corresponding to trees in FIGS. 16 to 18 and indicated by x in the figure) and dots moving at a constant speed (FIGS. 16 to FIG. 18 corresponds to the car in FIG. 18 and shows the position of each dot for each time in a scene where there is a symbol y). The lower part of FIG. 19 shows the appearance in fixed vision and follow-up vision when observing the movement of the outside world. An arrow indicated by a dotted line indicates the movement of the observer's viewpoint, that is, the integration direction of the image on the retina. The vertical axis is the fixed view, and the oblique axis is the integration direction in the follow-up view. That is, when the observer is following, fixed dots (trees) appear blurred, but moving dots (cars) appear clear. On the other hand, when the observer is fixing, fixed dots (trees) appear clear, but moving dots (cars) appear blurred.
次に、図20を用いて、図16で示した外界の動きを固定撮影し、動画像として再生表示した場合の観察者の見えについて、撮影条件、表示条件、観察条件ごとに説明する。図20上部は、動画像表示の時間変化を示す。図20下部に、固定視、追従視での視線の動き方向、つまり積分軸方向に沿って動画像表示された光を積分した結果を観察者の見えとして示す。 Next, the appearance of the observer when the external movement shown in FIG. 16 is fixedly photographed and reproduced and displayed as a moving image will be described for each photographing condition, display condition, and observation condition with reference to FIG. The upper part of FIG. 20 shows the time change of moving image display. The lower part of FIG. 20 shows the result of integrating the light displayed in the moving image along the direction of movement of the line of sight in fixed vision and follow-up vision, that is, along the integration axis direction, as the appearance of the observer.
図20Aは、撮影条件がオープンシャッタ方式で、表示がパルスタイプである場合、図20Bは、撮影条件がオープンシャッタ方式で、表示がホールドタイプである場合、図20Cは、撮影条件が高速シャッタ方式で、表示がパルスタイプである場合、図20Dは、撮影条件が高速シャッタ方式で、表示がホールドタイプである場合の、観察者の見えを示す。 20A shows a case where the shooting condition is an open shutter method and the display is a pulse type, FIG. 20B shows a case where the shooting condition is an open shutter method and a display is a hold type, and FIG. When the display is a pulse type, FIG. 20D shows the appearance of the observer when the imaging condition is a high-speed shutter method and the display is a hold type.
図20A乃至図20Dより、発生する動画質劣化は各条件によって異なることがわかる。例えば、図20Aおよび図20Cの追従視での移動物の見えと比較して、図20Bおよび図20Dの追従視での移動物がぼけて見えてしまうのは、発光条件がホールド型であるディスプレイ特有の「動きぼけ」と呼ばれる現象である。「動きぼけ」は、注視しているものがぼけてしまうため、観察者にとって、わかりやすい劣化である。 20A to 20D, it can be seen that the moving image quality degradation that occurs varies depending on each condition. For example, compared with the appearance of the moving object in the tracking view of FIGS. 20A and 20C, the moving object in the tracking view of FIGS. This is a phenomenon called “motion blur”. “Motion blur” is an easy-to-understand degradation for the observer because the subject is blurred.
それ以外にも、図20Dの固定視でのストロボ妨害、図20Aおよび図20Cの追従視でのストロボ妨害などの劣化が生じている。ストロボ障害とは、図21に示されるように、ディスプレイ上の固定物(例えば、樹木)に固定視を行った場合に、移動物(例えば、車)が、多重像に見える、または、スムーズではない離散的な動きが見えるといった動画質劣化のことである。このように、固定視での移動物、追従視での固定物に発生するストロボ妨害は、注視している対象ではない部分で発生する劣化である場合が多く、「動きぼけ」と比較してあまり目立たないことも多い。だが、視線の追従が完全に行われていない場合は、注視を行いたい対象物と視線の関係は、固定視での移動物、または追従視での固定物と同じ関係になる。この場合のストロボ妨害は注視している対象物において発生するため、非常に目立つ劣化となる。この現象は、動きが速く、次の動きが予測しにくい映像ソース、例えば、スポーツ中継、アクション映画等において目立ってしまう。映画などにおける動画像の撮像では、このような動画質劣化を防止するために、例えば、移動物を撮影する場合はカメラで追従して撮影し、表示画面上では固定物状態にすることや、ストロボ妨害を抑制するためにmotion blurと呼ばれるぼけを加味するといった手法を用いる。しかしながら、これらの手法による制限は、表現手段を狭めている結果にもなっている。また、スポーツなどでは、注目したい被写体の動きの予想ができないため、これらの手段は使えない。 In addition, deterioration such as strobe interference in the fixed vision of FIG. 20D and strobe interference in the tracking vision of FIGS. 20A and 20C occurs. As shown in FIG. 21, the strobe failure means that when a fixed object (for example, a tree) on a display is fixedly viewed, a moving object (for example, a car) looks like a multiple image or is not smooth. It is a degradation of the video quality such that there is no discrete motion. In this way, strobe obstructions that occur on moving objects in fixed vision and fixed objects in tracking vision are often deterioration that occurs in parts that are not the subject of gaze, compared to motion blur. Often not very noticeable. However, when the tracking of the line of sight is not performed completely, the relationship between the object to be watched and the line of sight is the same as a moving object in fixed vision or a fixed object in tracking vision. In this case, the strobe interference occurs in the object being watched, so that the deterioration becomes very conspicuous. This phenomenon is conspicuous in video sources that move quickly and the next movement is difficult to predict, such as sports broadcasts and action movies. In capturing moving images in movies and the like, for example, in order to prevent such moving image quality deterioration, for example, when shooting a moving object, follow the camera and shoot, and on the display screen, In order to suppress strobe interference, a technique such as adding blur called motion blur is used. However, the limitation by these methods also results in narrowing the expression means. In sports and the like, these means cannot be used because it is impossible to predict the movement of the subject to be noticed.
このような動画質劣化は移動物の角速度に応じて増加する。したがって、同じ映像シーンであっても、より視野角の大きいディスプレイに動画像が表示された場合において動画質が顕著に劣化する。また、高解像度化を行っても本章で述べた動画質劣化はほとんど改善されない。むしろ、高解像度化により静止画質がより向上してしまうために、動画質劣化が目立ってしまう。今後、ディスプレイが大画面化、高精細化されるのにともなって、これらの動画質劣化が大きな問題となることが予想される。 Such degradation of moving image quality increases according to the angular velocity of the moving object. Therefore, even in the same video scene, when a moving image is displayed on a display with a larger viewing angle, the moving image quality is significantly degraded. Also, even with higher resolution, the video quality degradation described in this chapter is hardly improved. On the contrary, since the still image quality is further improved by increasing the resolution, the moving image quality is conspicuous. In the future, as the display becomes larger and higher in definition, it is expected that the deterioration of the moving image quality will become a big problem.
動画質劣化の原因は時間再現性の欠如である。したがって、時間再現性を向上することが根本的な解決となる。すなわち、その解決手段としては、撮影、表示ともフレームレートを高くすることが有効な手段となる。 The cause of video quality degradation is lack of time reproducibility. Therefore, improving the time reproducibility is a fundamental solution. That is, as a means for solving the problem, it is effective to increase the frame rate for both photographing and display.
図20を用いて説明した場合の動画像データを、2倍のフレームレートで撮影し、2倍のフレームレートで表示を行った場合の動画質劣化の改善を図22に示す。 FIG. 22 shows improvement in the degradation of moving image quality when moving image data in the case described with reference to FIG. 20 is captured at a double frame rate and displayed at a double frame rate.
図22Aは、撮影条件がオープンシャッタ方式で、表示がパルスタイプである場合、図22Bは、撮影条件がオープンシャッタ方式で、表示がホールドタイプである場合、図22Cは、撮影条件が高速シャッタ方式で、表示がパルスタイプである場合、図22Dは、撮影条件が高速シャッタ方式で、表示がホールドタイプである場合、それぞれ、図20を用いて説明した場合の2倍のフレームレートで表示された動画像に対する、観察者の見えを示す。 22A shows a case where the shooting condition is an open shutter method and the display is a pulse type, FIG. 22B shows a case where the shooting condition is an open shutter method and a display is a hold type, and FIG. When the display is a pulse type, FIG. 22D is displayed at a frame rate twice that of the case described with reference to FIG. 20 when the shooting condition is a high-speed shutter method and the display is a hold type. The appearance of the observer with respect to the moving image is shown.
図22A乃至図22Dに示されるように、表示画像の見えのぼけ妨害に関して、それぞれの撮像および表示方法において、ぼけ量は半分となっている。また、ストロボ妨害に関しても、ストロボ的な離散数が倍増するため、画像劣化が改善される。すなわち、ぼけ妨害およびストロボ妨害は、フレームレートの増加に対し、リニアに改善されることが示される。また、フレームレートを増加した場合、シャッタ時間、発光時間による動画質劣化の質の違いも小さくなっている。すなわち、動画質を改善するためには、高フレームレート化が、非常に有効な手段であるといえる。 As shown in FIGS. 22A to 22D, the blur amount is halved in each imaging and display method with respect to the blurring of the appearance of the display image. Also, with regard to strobe interference, the number of strobe-like discretes doubles, so image degradation is improved. That is, blur disturbance and strobe disturbance are shown to be improved linearly with increasing frame rate. Further, when the frame rate is increased, the difference in quality of moving image quality deterioration due to the shutter time and the light emission time is also reduced. That is, it can be said that increasing the frame rate is a very effective means for improving the moving image quality.
次に、オープンシャッタで撮影された動画像の表示について、追従視の条件において、ジャーキネス、動きぼけに着目した動画質の評価を、視覚心理物理実験により調査した。 Next, regarding the display of moving images taken with an open shutter, the evaluation of moving image quality focusing on jerkiness and motion blur under the following vision conditions was investigated by visual psychophysical experiments.
ジャーキネスに着目した評価結果を図23に、動きぼけに着目した評価結果を図24に示す。この評価においては、動画像として、例えば、自然動画、CGの動き、オープンシャッタで撮影された映像など、さまざまなものが用意された。また、評価ポイントは、劣化尺度については、「劣化がわからない」が評価5、「劣化は分かるが気にならない」が評価4、「劣化は分かるが邪魔にならない」が評価3、「劣化が邪魔になる」が評価2、「劣化が非常に邪魔になる」が評価1とされ、評価尺度については、「非常によい」が評価5、「よい」が評価4、「普通」が評価3、「悪い」が評価2、「非常に悪い」が評価1とされた。この実験においては、一般的な動画質の評価について調査するために充分な人数の被験者により評価が実行されている。そして、図23および図24においては、全てのシーンおよび被験者の平均と、標準偏差がプロットされている。
FIG. 23 shows an evaluation result focusing on jerkiness, and FIG. 24 shows an evaluation result focusing on motion blur. In this evaluation, various types of moving images, such as natural moving images, CG movements, and images shot with an open shutter, were prepared. In addition, as for the evaluation point, regarding the deterioration scale, “I don't know deterioration” is
図23に示されるジャーキネスに比較して、図24に示される動きぼけの評価値の変化が大きく、また両者に共通して、フレームレートが大きくなるにともなって、動画質の評価値も大きくなる傾向が見られる。特に動きぼけに関して、250fps近辺で、知覚限である評価値4.5近辺に達し、更に高いフレームレートでは、評価値は4.5以上で平らな値を示す屈曲型の傾向を示した。また、ジャーキネスに関しても、250fps近辺で、知覚限である評価値4.5近辺に達し、更に高いフレームレートでは、評価値は4.5以上で、略平らな値を示す屈曲型の傾向を示した。 Compared with the jerkiness shown in FIG. 23, the evaluation value of the motion blur shown in FIG. 24 is large, and in common with both, the evaluation value of the moving image quality increases as the frame rate increases. There is a trend. In particular, with regard to motion blur, an evaluation value of around 4.5, which is a perceptual limit, was reached at around 250 fps, and at a higher frame rate, the evaluation value was 4.5 or more, showing a flat tendency that showed a flat value. In addition, with regard to jerkiness, an evaluation value of 4.5 is reached near 250 fps, and the evaluation value is 4.5 or more at a higher frame rate. It was.
このように、特に顕著な動画質劣化を示す追従視における動きぼけは、250fps近辺のフレームレートにより十分解決されること、すなわち、250fps近辺が、現在広く用いられている映像リソースの有効性を考慮した場合の理想周波数であることを示唆するものである。具体的には、現在広く用いられている映像リソースは、上述したように50Hz,60Hzのものが多いので、その整数倍の周波数である240Hzや250Hzが、映像リソースの有効性を考慮した場合の理想周波数であることを示唆するものである。 As described above, the motion blur in the follow-up vision that shows particularly noticeable video quality degradation is sufficiently solved by the frame rate near 250 fps, that is, the vicinity of 250 fps is considered in view of the effectiveness of the currently widely used video resources. It is suggested that this is the ideal frequency. Specifically, as described above, there are many video resources that are widely used at present, such as 50 Hz and 60 Hz. Therefore, 240 Hz and 250 Hz, which are integer multiples thereof, are considered when the effectiveness of video resources is considered. This suggests an ideal frequency.
次に、図25のフローチャートを参照して、図9の画像信号処理装置51および画像表示装置52を用いた場合の画像表示処理1について説明する。
Next,
ステップS21において、コントローラ62は、メモリ61のフレームメモリ61−1乃至フレームメモリ61−nから、例えば、図10乃至図13を用いて説明した所定のタイミングでフレーム画像データを読み出させて、D/A変換部65−1乃至D/A変換部65−nに供給する。
In step S21, the
ステップS22において、D/A変換部65−1乃至D/A変換部65−nは、供給されたフレーム画像データにD/A変換を施して、走査制御部81−1乃至走査制御部81−nに供給する。
In step S22, the D / A conversion unit 65-1 through D / A conversion unit 65-n performs D / A conversion on the supplied frame image data, and scan control unit 81-1 through
ステップS23において、走査制御部81−1乃至走査制御部81−nは、表示制御部66の制御に基づいて、例えば、図10乃至図13を用いて説明した出力映像信号に対応する所定のタイミングでそれぞれのフレーム画像データの各画素を走査させて表示させ、処理が終了される。
In step S23, the scanning control unit 81-1 to the scanning control unit 81-n, for example, based on the control of the
このような処理により、n分割された、それぞれはmHzのフレームレートを有する動画像データが、n個の操作制御部81−1乃至走査制御部81−nにより(n×m)Hzの動画像データとして表示される。 By such processing, moving image data divided into n and each having a frame rate of mHz is converted into a moving image of (n × m) Hz by n operation control units 81-1 to 81-n. Displayed as data.
以上においては、n分割されたそれぞれmHzのフレーム画像データを表示画面の走査線数の1/nづつずらして走査させることにより、(n×m)Hzの動画像を表示する場合について説明したが、n分割されたそれぞれmHzのフレーム画像データを、nより少ない数に合成した後、表示するようにしてもよい。 In the above description, the case where (n × m) Hz moving images are displayed by scanning the n-divided frame image data of each mHz by shifting 1 / n the number of scanning lines on the display screen has been described. , N-divided frame image data of mHz may be displayed after being combined into a number smaller than n.
すなわち、それぞれのフレーム画像データの撮像時のシャッタオープンの時間が、1/s×mより短い場合、次に、n分割されたそれぞれmHzのフレーム画像データをn/s系列のフレーム画像データに変換した後、n/s個の操作制御部81を用いて表示させるようにしても、動画像データがぼけることはない。
That is, if the shutter open time at the time of capturing each frame image data is shorter than 1 / s × m, then each n Hz divided frame image data is converted to n / s series frame image data. After that, even if the n / s
図26は、本発明を適用した画像信号処理装置101および画像表示装置52の構成を示すブロック図である。図26においては、n=4、s=2の場合について説明する。 FIG. 26 is a block diagram showing configurations of the image signal processing apparatus 101 and the image display apparatus 52 to which the present invention is applied. In FIG. 26, a case where n = 4 and s = 2 will be described.
なお、図9における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
画像信号処理装置101には、(m×n)Hzのフレームレートの画像データを構成する1/nずつ位相がずれた、それぞれmHzの4系列の動画像データが、個別に供給され、メモリ61のうちのフレームメモリ61−1乃至フレームメモリ61−4に供給されて保持される。
The image signal processing apparatus 101 is individually supplied with 4 series of moving image data of mHz each having a phase shift of 1 / n constituting image data of a frame rate of (m × n) Hz, and the
コントローラ111は、操作入力部63から入力されるユーザの操作入力にしたがって、基準同期信号発生部64から供給されるmHzの基準同期信号を基に、フレームメモリ61−1乃至61−4からの映像信号の出力を制御するとともに、フレームメモリ61−1乃至61−4からの映像信号の出力に関する情報を、表示制御部66に供給する。操作入力部63は、動画像の表示を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受け、コントローラ111に供給する。基準同期信号発生部64は、コントローラ111がメモリ61の複数のフレームメモリ61−1乃至61−4を制御するための基準となる同期信号を発生し、コントローラ111に供給する。
The
メモリ61のフレームメモリ61−1およびフレームメモリ61−2は、コントローラ111の制御に基づいて、供給されたデジタルの画像信号S1およびS2を、信号処理部112−1に供給する。メモリ61のフレームメモリ61−3およびフレームメモリ61−4は、コントローラ111の制御に基づいて、供給されたデジタルの画像信号S3およびS4を、信号処理部112−2に供給する。信号処理部112−1および信号処理部112−2は、供給された画像信号を合成し、合成された画像信号S5およびS6を、D/A変換部65−1およびD/A変換部65−2に出力する。信号処理部112−1および信号処理部112−2が実行する信号の合成の詳細については、図27を用いて後述する。
The frame memory 61-1 and the frame memory 61-2 of the
D/A変換部65−1およびD/A変換部65−2は、信号処理部112−1および信号処理部112−2から供給されたデジタルの画像信号を、アナログの画像信号に変換し、画像表示装置52の走査制御部81−1および走査制御部81−2に供給する。表示制御部66は、コントローラ111から供給された情報を基に、画像表示装置52による動画像の表示を制御し、(m×n)Hzのフレームレートのフレーム画像を表示させる。
The D / A conversion unit 65-1 and the D / A conversion unit 65-2 convert the digital image signal supplied from the signal processing unit 112-1 and the signal processing unit 112-2 into an analog image signal, This is supplied to the scanning control unit 81-1 and the scanning control unit 81-2 of the image display device 52. The
ここで、走査制御部81−1および走査制御部81−2に供給される動画像データのフレームレートは、それぞれ2mHzである。走査制御部81−1および走査制御部81−2がフレームレート2mHzの動画像データを、供給されたフレーム画像データが有する画素数で表示する機能(データ処理や、走査速度などの機能)を有していなかった場合、信号処理部112−1および信号処理部112−2は、走査制御部81−1および走査制御部81−2により表示可能なように、合成されて出力される画像信号S5およびS6に対して、例えば、画素数の減少や、走査ラインの間引きなどの適当な画像処理を施す。 Here, the frame rate of the moving image data supplied to the scan control unit 81-1 and the scan control unit 81-2 is 2 mHz, respectively. The scanning control unit 81-1 and the scanning control unit 81-2 have a function of displaying moving image data having a frame rate of 2 mHz with the number of pixels of the supplied frame image data (functions such as data processing and scanning speed). If not, the signal processing unit 112-1 and the signal processing unit 112-2 synthesize and output the image signal S5 so that it can be displayed by the scanning control unit 81-1 and the scanning control unit 81-2. For S6, appropriate image processing such as reduction in the number of pixels and thinning of the scanning lines is performed.
また、コントローラ111には、必要に応じてドライブ67が接続され、磁気ディスク71、光ディスク72、光磁気ディスク73、もしくは、半導体メモリ74などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてコントローラ111に実行される。
In addition, a
図27を用いて、n=4、S=2である場合の、フレームメモリ61−1乃至61−4から読み出される画像データのタイミング、および、信号処理部112−1および信号処理部112−2が実行する信号の合成について説明する。 27, the timing of image data read from the frame memories 61-1 to 61-4, and the signal processing unit 112-1 and the signal processing unit 112-2 when n = 4 and S = 2. A description will be given of the signal synthesis executed by.
コントローラ111は、フレームメモリ61−1および61−2を制御して、フレームメモリ61−1から、フレームレートmで、シャッタスピード1/2m以下のαフレームを出力映像信号S1として信号処理部112−1に供給させ、フレームメモリ61−2から、フレームレートmで、シャッタスピード1/2m以下のα+2フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/2mだけ遅らせた供給開始時刻bで、信号処理部112−1に供給させる。コントローラ111は、それ以降、1/2mづつずらして、フレームメモリ61−1および61−2から、出力信号S1または出力信号S2を交互に読み出して、信号処理部112−1に供給させる。
The
信号処理部112−1は、供給された信号を合成して、αフレームの1/2m後にα+2フレームが続き、更に、α+2フレームの1/2m後にα+4フレームが続く合成信号S5を生成し、A/D変換部65−1に供給する。
The signal processing unit 112-1 combines the supplied signals to generate a combined signal S5 in which α + 2 frame continues 1 / 2m after α frame and further α + 4
コントローラ111は、フレームメモリ61−3および61−4を制御して、フレームメモリ61−3から、フレームレートmで、シャッタスピード1/2m以下のα+1フレームを出力映像信号S3として信号処理部112−2に供給させ、フレームメモリ61−2から、フレームレートmで、シャッタスピード1/2m以下のα+3フレームを、出力映像信号S4として、α+1フレームの供給開始時刻aよりも、1/2mだけ遅らせた供給開始時刻bで、信号処理部112−2に供給させる。コントローラ111は、それ以降、1/2mづつずらして、フレームメモリ61−1および61−2から、出力信号S3または出力信号S4を交互に読み出して、信号処理部112−2に供給させる。
The
信号処理部112−2は、供給された信号を合成して、α+1フレームの1/2m後にα+3フレームが続き、更に、α+1フレームの1/2m後にα+5フレームが続く合成信号S6を生成し、A/D変換部65−2に供給する。
The signal processing unit 112-2 synthesizes the supplied signals, generates a combined signal S6 in which α + 3 frame continues 1 / 2m after α + 1 frame, and further α + 5
A/D変換部65−1およびA/D変換部65−2は、図10を用いて説明した出力映像信号S1および出力映像信号S2と同様にして、それぞれ、1/2mだけずらしたタイミングで、合成信号S5および合成信号S6を走査制御部81−1および走査制御部81−2に供給する。走査制御部81−1および走査制御部81−2は、1フレームのライン数の1/2だけずらして、交互にフレーム画像信号を走査させ、動画像データを表示部82に表示させる。
Similarly to the output video signal S1 and the output video signal S2 described with reference to FIG. 10, the A / D conversion unit 65-1 and the A / D conversion unit 65-2 are each shifted by ½ m. The combined signal S5 and the combined signal S6 are supplied to the scanning control unit 81-1 and the scanning control unit 81-2. The scan control unit 81-1 and the scan control unit 81-2 are shifted by half the number of lines in one frame, alternately scan the frame image signal, and display the moving image data on the
例えば、出力信号S1乃至S4が、それぞれ、60Hzである場合、合成信号S5およびS6は、それぞれ、120Hzとなる。したがって、走査制御部81−1および走査制御部81−2が120Hzの動画像データを表示する機能をそれぞれ有していた場合、240Hzの動画像データを表示させるようにすることが可能となる。 For example, when the output signals S1 to S4 are each 60 Hz, the combined signals S5 and S6 are each 120 Hz. Therefore, when the scanning control unit 81-1 and the scanning control unit 81-2 have a function of displaying 120 Hz moving image data, it is possible to display 240 Hz moving image data.
なお、図26および図27においては、n=4、s=2の場合について説明したが、nまたはsがそれぞれ異なる値であっても本発明は適用可能であることは言うまでもない。 In FIGS. 26 and 27, the case where n = 4 and s = 2 has been described, but it goes without saying that the present invention can be applied even when n or s have different values.
例えば、n=4、s=4の場合について、図28および図29を用いて説明する。 For example, the case where n = 4 and s = 4 will be described with reference to FIGS.
図28は、本発明を適用した画像信号処理装置121および画像表示装置52の構成を示すブロック図である。 FIG. 28 is a block diagram showing the configuration of the image signal processing device 121 and the image display device 52 to which the present invention is applied.
なお、図26における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 26 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
画像信号処理装置121には、(m×n)Hzのフレームレートの画像データを構成する1/nずつ位相がずれた、それぞれmHzの4系列の動画像データが、個別に供給され、メモリ61のうちのフレームメモリ61−1乃至フレームメモリ61−4に供給されて保持される。
The image signal processing device 121 is individually supplied with 4 series of moving image data of mHz each having a phase shift of 1 / n constituting image data of a frame rate of (m × n) Hz, and the
コントローラ131は、操作入力部63から入力されるユーザの操作入力にしたがって、基準同期信号発生部64から供給されるmHzの基準同期信号を基に、フレームメモリ61−1乃至61−4からの映像信号の出力を制御するとともに、フレームメモリ61−1乃至61−4からの映像信号の出力に関する情報を、表示制御部66に供給する。操作入力部63は、動画像の表示を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受け、コントローラ131に供給する。基準同期信号発生部64は、コントローラ131がメモリ61の複数のフレームメモリ61−1乃至61−4を制御するための基準となる同期信号を発生し、コントローラ131に供給する。
Based on the mHz reference synchronization signal supplied from the reference
メモリ61のフレームメモリ61−1乃至フレームメモリ61−4は、コントローラ131の制御に基づいて、供給されたデジタルの画像信号S1乃至S4を、信号処理部132に供給する。信号処理部132は、供給された画像信号を合成し、合成された画像信号S5、D/A変換部65−1に出力する。信号処理部132が実行する信号の合成の詳細については、図29を用いて後述する。
The frame memories 61-1 to 61-4 of the
D/A変換部65−1は、信号処理部132から供給されたデジタルの画像信号を、アナログの画像信号に変換し、画像表示装置52の走査制御部81−1に供給する。表示制御部66は、コントローラ131から供給された情報を基に、画像表示装置52による動画像の表示を制御し、(m×n)Hzのフレームレートのフレーム画像を表示させる。
The D / A conversion unit 65-1 converts the digital image signal supplied from the
ここで、走査制御部81−1に供給される動画像データのフレームレートは、それぞれ4mHzである。走査制御部81−1がフレームレート4mHzの動画像データを、供給されたフレーム画像データが有する画素数で表示する機能(データ処理や、走査速度などの機能)を有していなかった場合、信号処理部132は、走査制御部81−1により表示可能なように、合成されて出力される画像信号S5に対して、例えば、画素数の減少や、走査ラインの間引きなどの適当な画像処理を施す。
Here, the frame rate of the moving image data supplied to the scanning control unit 81-1 is 4 mHz, respectively. When the scanning control unit 81-1 does not have a function (data processing, a function such as a scanning speed) to display moving image data having a frame rate of 4 mHz with the number of pixels included in the supplied frame image data, a signal The
また、コントローラ131には、必要に応じてドライブ67が接続され、磁気ディスク71、光ディスク72、光磁気ディスク73、もしくは、半導体メモリ74などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてコントローラ131に実行される。
A
図29を用いて、n=4、S=4である場合の、フレームメモリ61−1乃至61−4から読み出される画像データのタイミング、および、信号処理部132が実行する信号の合成について説明する。
The timing of image data read from the frame memories 61-1 to 61-4 and the signal synthesis executed by the
コントローラ131は、フレームメモリ61−1および61−2を制御して、フレームメモリ61−1から、フレームレートmで、シャッタスピード1/4m以下のαフレームを出力映像信号S1として信号処理部132に供給させ、フレームメモリ61−2から、フレームレートmで、シャッタスピード1/4m以下のα+1フレームを、出力映像信号S2として、αフレームの供給開始時刻aよりも、1/4mだけ遅らせた供給開始時刻bで、信号処理部132に供給させ、フレームメモリ61−3から、フレームレートmで、シャッタスピード1/4m以下のα+2フレームを出力映像信号S3として、α+1フレームの供給開始時刻aよりも、1/4mだけ遅らせた供給開始時刻cで、信号処理部132に供給させ、フレームメモリ61−4から、フレームレートmで、シャッタスピード1/4m以下のα+3フレームを、出力映像信号S4として、α+2フレームの供給開始時刻aよりも、1/4mだけ遅らせた供給開始時刻dで、信号処理部132に供給させる。コントローラ111は、それ以降、1/4mづつずらして、フレームメモリ61−1乃至61−4から、出力信号S1乃至出力信号S4を順次読み出して、信号処理部132に供給させる。
The
信号処理部112−1は、供給された信号を合成して、αフレームの1/4m後にα+1フレームが続き、更に、α+1フレームの1/4m後にα+2フレームが続く合成信号S5を生成し、A/D変換部65−1に供給する。 The signal processing unit 112-1 synthesizes the supplied signals to generate a combined signal S5 in which α + 1 frame continues after 1/4 m of α frame, and further, α + 2 frame continues after 1/4 m of α + 1 frame. / D converter 65-1.
A/D変換部65−1は、合成信号S5を走査制御部81−1に供給する。走査制御部81−1は、フレーム画像信号を走査させ、動画像データを表示部82に表示させる。
The A / D conversion unit 65-1 supplies the combined signal S5 to the scanning control unit 81-1. The scan control unit 81-1 scans the frame image signal and causes the
例えば、出力信号S1乃至S4が、それぞれ、60Hzである場合、合成信号S5は、240Hzとなる。したがって、走査制御部81−1が供給されるフレーム画像データの画素数、または走査線数で240Hzの動画像データを表示する機能をそれぞれ有していない場合、信号処理部112−1が適当な間引き処理や画素数変換(減少)処理を合成信号S5に対して施すことにより、走査制御部81−1に240Hzの動画像データを表示させるようにすることが可能となる。 For example, when the output signals S1 to S4 are each 60 Hz, the combined signal S5 is 240 Hz. Therefore, if the scanning control unit 81-1 does not have a function of displaying moving image data of 240 Hz in terms of the number of pixels of the frame image data supplied or the number of scanning lines, the signal processing unit 112-1 is appropriate. By performing the thinning process and the pixel number conversion (decrease) process on the synthesized signal S5, it is possible to display the 240 Hz moving image data on the scanning control unit 81-1.
また、例えば、n=5で、出力信号S1乃至S5が、それぞれ、50Hzである場合、合成信号は、250Hzとなる。したがって、走査制御部81−1が供給されるフレーム画像データの画素数、または走査線数で250Hzの動画像データを表示する機能をそれぞれ有していない場合、信号処理部112−1が適当な間引き処理や画素数変換(減少)処理を合成信号S5に対して施すことにより、走査制御部81−1に250Hzの動画像データを表示させるようにすることが可能となる。 For example, when n = 5 and the output signals S1 to S5 are each 50 Hz, the combined signal is 250 Hz. Therefore, when the scanning control unit 81-1 does not have a function of displaying moving image data of 250 Hz in terms of the number of pixels of the frame image data supplied or the number of scanning lines, the signal processing unit 112-1 is appropriate. By performing the thinning process and the pixel number conversion (decrease) process on the combined signal S5, it is possible to display the moving image data of 250 Hz on the scanning control unit 81-1.
次に、図30のフローチャートを参照して、図26または図28を用いて説明した画像信号処理装置101および画像表示装置52、または、画像信号処理装置121および画像表示装置52を用いた場合の画像表示処理2について説明する。
Next, referring to the flowchart of FIG. 30, the image signal processing device 101 and the image display device 52 described with reference to FIG. 26 or FIG. 28, or the image signal processing device 121 and the image display device 52 are used. The
ステップS41において、コントローラ111またはコントローラ131は、メモリ61のフレームメモリ61−1乃至フレームメモリ61−n(図26または図28を用いて説明した場合はn−4であったが、nは4以外の異なる値であってもよいことは言うまでもない)から、例えば、図27または図29を用いて説明した所定のタイミングでフレーム画像データを読み出させて、信号処理部112−1乃至信号処理部112−t(ここで、t=n/s)または信号処理部132に供給する。
In step S41, the
ステップS42において、信号処理部112−1乃至信号処理部112−tまたは信号処理部132は、図27または図29を用いて説明したように、出力信号を合成し、必要に応じて、走査制御部81−1乃至走査制御部81−t(ここで、t=n/s)により表示可能な画像データに変換する処理(例えば、画素数の減少や、走査ラインの間引き処理など)を施して、D/A変換部65−1乃至D/A変換部65−t(ここで、t=n/s)に供給する。
In step S42, the signal processing unit 112-1 to signal processing unit 112-t or the
ステップS43において、D/A変換部65−1乃至D/A変換部65−tは、供給されたフレーム画像データにD/A変換を施して、走査制御部81−1乃至走査制御部81−tに供給する。
In step S43, the D / A conversion unit 65-1 to D / A conversion unit 65-t performs D / A conversion on the supplied frame image data, and scan control unit 81-1 to scan
ステップS44において、走査制御部81−1乃至走査制御部81−tは、表示制御部66の制御に基づいて、所定のタイミングでそれぞれのフレーム画像データの各画素を走査させて表示させ、処理が終了される。
In step S44, the scanning control unit 81-1 to the scanning control unit 81-t scan and display each pixel of each frame image data at a predetermined timing based on the control of the
このような処理により、n分割された動画像データが、n/s系列の動画像データに合成された後、n/s個の操作制御部81−1乃至走査制御部81−t(ここで、t=n/s)により(n×m)Hzの動画像データとして表示される。 By such processing, the n-divided moving image data is combined with the n / s sequence moving image data, and then n / s operation control units 81-1 to 81-t (here, , T = n / s), it is displayed as moving image data of (n × m) Hz.
また、外部の装置により合成された画像信号の入力を受けて表示することができるようにしてもよい。 Further, the image signal synthesized by an external device may be received and displayed.
図31は、例えば、図28の信号処理部132の処理によって合成された合成信号S5のように、その信号だけで、全てのフレーム画像がそろっているような画像信号の供給を受けて表示することが可能な画像信号処理装置141および画像表示装置52の構成を示すブロック図である。
In FIG. 31, for example, the combined signal S5 combined by the processing of the
なお、図28における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 28 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
画像信号処理装置151には、(m×n)Hzのフレームレートの画像データを構成する動画像データが供給され、フレームメモリ61−1に保持される。
The image
コントローラ151は、操作入力部63から入力されるユーザの操作入力にしたがって、基準同期信号発生部64から供給されるmHzの基準同期信号を基に、フレームメモリ61−1からの映像信号の出力を制御するとともに、フレームメモリ61−1からの映像信号の出力に関する情報を、表示制御部66に供給する。操作入力部63は、動画像の表示を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受け、コントローラ151に供給する。基準同期信号発生部64は、コントローラ151がフレームメモリ61−1を制御するための基準となる同期信号を発生し、コントローラ151に供給する。
The
フレームメモリ61−1は、コントローラ151の制御に基づいて、供給されたデジタルの画像信号を、信号処理部152に供給する。信号処理部152は、供給された画像信号に対して信号処理を施し、D/A変換部65−1に出力する。具体的には、走査制御部81−1に供給される動画像データのフレームレートを(n×m)Hzとし、走査制御部81−1がフレームレート(n×m)Hzの動画像データを供給されたフレーム画像データが有する画素数で表示する機能を有していなかった場合、信号処理部152は、走査制御部81−1により表示可能なように、出力される画像信号に対して、例えば、画素数の減少や、走査ラインの間引きなどの適当な画像処理を施す。
The frame memory 61-1 supplies the supplied digital image signal to the
D/A変換部65−1は、信号処理部152から供給されたデジタルの画像信号を、アナログの画像信号に変換し、画像表示装置52の走査制御部81−1に供給する。表示制御部66は、コントローラ151から供給された情報を基に、画像表示装置52による動画像の表示を制御し、(m×n)Hzのフレームレートのフレーム画像を表示させる。
The D / A conversion unit 65-1 converts the digital image signal supplied from the
また、コントローラ151には、必要に応じてドライブ67が接続され、磁気ディスク71、光ディスク72、光磁気ディスク73、もしくは、半導体メモリ74などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてコントローラ151に実行される。
A
次に、図32のフローチャートを参照して、図31を用いて説明した画像信号処理装置141および画像表示装置52を用いた場合の画像表示処理3について説明する。
Next, the
ステップS61において、コントローラ151は、フレームメモリ61−1から、所定のタイミングでフレーム画像データを読み出させて、信号処理部112−1に供給する。
In step S61, the
ステップS62において、信号処理部112−1は、必要に応じて、走査制御部81−1により表示可能な画像データに変換する処理(例えば、画素数の減少や、走査ラインの間引き処理など)を施して、D/A変換部65−1に供給する。 In step S <b> 62, the signal processing unit 112-1 performs processing (for example, reduction of the number of pixels, thinning processing of the scanning line, etc.) for conversion into image data that can be displayed by the scanning control unit 81-1 as necessary. Applied to the D / A converter 65-1.
ステップS63において、D/A変換部65−1は、供給されたフレーム画像データにD/A変換を施して、走査制御部81−1に供給する。 In step S63, the D / A conversion unit 65-1 performs D / A conversion on the supplied frame image data and supplies the frame image data to the scanning control unit 81-1.
ステップS64において、走査制御部81−1は、表示制御部66の制御に基づいて、所定のタイミングでそれぞれのフレーム画像データの各画素を走査させて表示させ、処理が終了される。
In step S64, the scanning control unit 81-1 scans and displays each pixel of each frame image data at a predetermined timing based on the control of the
このような処理により、外部の装置により合成された動画像データを滑らかに表示させることができる。 By such processing, moving image data synthesized by an external device can be displayed smoothly.
以上においては、フレームレート(n×m)Hzの動画像データを表示させるために、n系列でフレームレートmの動画像データを取得し、n系列、もしくは、n系列を合成したn/s系列の動画像データを順次所定のタイミングだけずらして走査出力することにより、フレームレート(n×m)Hzの動画像データを表示させる場合について説明したが、次に、空間的に画素を画素ピッチの1/nずつずらして撮像し、その表示映像をn倍の空間に広げることにより、フレームレート(n×m)Hzの動画像データを取得する方法について説明する。 In the above, in order to display moving image data with a frame rate (n × m) Hz, moving image data with a frame rate m is acquired in an n sequence, and an n sequence or an n / s sequence obtained by synthesizing the n sequence. In the above description, the moving image data of the frame rate (n × m) Hz is displayed by sequentially shifting and moving the moving image data by a predetermined timing to display the moving image data. A method of acquiring moving image data at a frame rate (n × m) Hz by capturing images with a shift of 1 / n and expanding the display image in an n-fold space will be described.
図33は、本発明を適用した撮像装置171の構成を示すブロック図である。
FIG. 33 is a block diagram illustrating a configuration of an
なお、図1における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
図33に示すように、撮像装置171は、レンズ21、CCDイメージセンサ181、タイミングコントローラ24、コントローラ183、基準同期信号発生部26、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部182、コーデック処理部30、メモリ31、操作入力部32、および、ドライブ33から構成される。
As shown in FIG. 33, the
CCDとは、光情報を電気信号に変換する(光電変換)半導体素子であり、CCDイメージセンサ181は、光を電気に変換する受光素子(画素)を複数個並べ、光の変化を画素ごとに独立して電気信号に変換する撮像素子を1つ有する、例えば、RGBの3原色のカラーフィルタがモザイク状に並べられているベイヤー配列などのカラーフィルタが構成されている、一般的な単板式のCCDイメージセンサである。CCDイメージセンサ181のそれぞれの撮像素子のカラーフィルタは、ベイヤー配列以外の配列であってもよい。
The CCD is a semiconductor element that converts light information into an electrical signal (photoelectric conversion). The
CCDイメージセンサ181の撮像素子は、タイミングコントローラ24の制御により、図34に示されるように、画素ピッチの1/nだけずらして(図34においては、n=4とし、画素ピッチの1/4ずらして撮像するものとして図示しているが、nは4以外のいかなる数字であってもかまわない)、タイミングを1/(m×n)ずらして画像情報を取得する。タイミングコントローラ24は、コントローラ25の制御に基づいて、基準同期信号発生部26から供給されるmHzの基準同期信号を、1/(m×n)ずつ遅延させたトリガ信号を、CCDイメージセンサ181の撮像素子に供給する。
The image pickup element of the
ここでは、タイミングコントローラ24が発生するタイミング信号に基づいて、撮像素子が画素ピッチの1/nだけ移動させるものとして説明したが、撮像素子の位置を固定して、タイミングコントローラ24が発生するタイミング信号に基づいて、光学系の位置を、画素ピッチの1/nだけ移動させるようにしてもよい。
Here, the description has been made on the assumption that the image sensor moves by 1 / n of the pixel pitch based on the timing signal generated by the
したがって、CCDイメージセンサ181が撮像するフレーム画像データのフレームレートは、(m×n)Hzとなる。
Therefore, the frame rate of the frame image data captured by the
一般にCCDカメラ等で受光部の無効部分を補うために画素ずらしの手段は用いられているが、それらは、同時刻の映像を多板の撮像素子で撮像するカメラに用いられたり、異なる時刻の映像を単一の撮像素子あるいは光学系を振動させて撮像するカメラに用いられている(上述したCCDカメラ技術入門、コロナ社、1997, PP109-111に記載の技術)。 In general, a pixel shifting means is used to compensate for the invalid portion of the light receiving unit in a CCD camera or the like, but these are used in a camera that captures images of the same time with a multi-plate image sensor, or at different times. It is used in a camera that picks up an image by vibrating a single image sensor or optical system (technique described in the above-mentioned CCD camera technology, Corona, 1997, PP109-111).
しかし、画素ずらしに対応する手法を、異なる時刻の映像を撮像するための構成として適用された例は知られていない。ここで、異なる時刻の撮像により、時間解像度を増すことができる。また、撮像素子または光学系のうちのいずれか一方は固定しているので、安定した高解像度画像を得ることができる。 However, there is no known example in which a technique corresponding to pixel shifting is applied as a configuration for capturing videos at different times. Here, the time resolution can be increased by imaging at different times. In addition, since either one of the image sensor or the optical system is fixed, a stable high resolution image can be obtained.
コントローラ183は、操作入力部32により入力されたユーザの操作入力に基づいて、タイミングコントローラ24、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部182、コーデック処理部30、メモリ31、および、操作入力部32を制御する。
The
画像処理部182は、信号処理用プロセッサと画像用RAMを持つブロックで、信号処理用プロセッサが画像用RAMに格納された画像データに対して、予めプログラムされた画像処理、または、ハードウェアによる演算処理として構成された画像処理を行うものであり、具体的には、一定のレートで画素のストリームデータの供給を受け、画像用RAMに一時格納し、信号処理用プロセッサにおいて、一時格納された画像データに対して、例えば、ホワイトバランス調整、デモザイク処理、マトリックス処理、ガンマ補正、および、YC変換などの各種画像処理に加えて、必要に応じて、補間処理を実行する。
The
図35および図36を用いて。画素ずらし撮像後の補間処理について説明する。 Using FIG. 35 and FIG. Interpolation processing after pixel shifting imaging will be described.
図35において、図に示された数字が記された1/4画素は、この数字の順番に撮像された部分であり、数字が記されていない1/4画素は、データがないことを意味している。このような画像データにおいて、観察者が、画素表示の方向に画素ずらしと略同じ速度で視線を動かした場合、すなわち追従視の場合において、映像が離散的に見えてしまう。この動画質の劣化を防止するためには、空間的に、近傍の画素情報から、線形または非線形補間により、取得していない画素の情報を生成する必要がある。 In FIG. 35, the ¼ pixels marked with the numbers shown in the figure are taken in the order of the numbers, and the ¼ pixels without the numbers mean that there is no data. is doing. In such image data, when the observer moves his / her line of sight in the pixel display direction at substantially the same speed as the pixel shift, that is, in the case of follow-up vision, the image appears discretely. In order to prevent the deterioration of the moving image quality, it is necessary to generate information on pixels that have not been acquired spatially from neighboring pixel information by linear or nonlinear interpolation.
図36は、図35において数字が記されていなかった1/4画素のそれぞれに対して、空間的に補間処理を施し、全ての1/4画素がデータを有するように変換しているデータを示す。これらを固定視すなわち、画面の1箇所に視線を固定して観察した場合には、時間周波数が十分高ければ、いずれも眼の積分効果により、空間的に連続な緻密な映像として見える。 FIG. 36 shows data obtained by spatially interpolating each of the ¼ pixels not numbered in FIG. 35 and converting all the ¼ pixels to have data. Show. When these are fixed-viewed, that is, when the line of sight is fixed at one place on the screen, if the time frequency is sufficiently high, any of them can be viewed as a spatially continuous dense image due to the integral effect of the eyes.
したがって、画素ずらしを行って撮像し、空間的に補間して表示することで、時間方向の解像度を保ちつつ、映像品質を高めることができる。 Therefore, image quality can be improved while maintaining the resolution in the time direction by performing image shifting with pixel shift and spatially interpolating and displaying.
次に、図37のフローチャートを参照して、図33の撮像装置171が実行する画像取得処理2について説明する。
Next, the
ステップS81において、タイミングコントローラ24は、基準同期信号発生部26が発生するmHzの基準同期信号を基に、画素ずらしで画像データを取得するタイミング信号を発生して、CCDイメージセンサ181に供給する。
In step S <b> 81, the
ステップS82において、CCDイメージセンサ181は、タイミングコントローラ24から供給されたタイミング信号に基づいて、図34を用いて説明した画素ずらしによって、(m×n)Hzのフレームレートの画像データを取得する。
In step S <b> 82, the
ステップS83において、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部182、および、コーデック処理部30は、CCDイメージセンサ23によって取得された(m×n)Hzのフレームレートの画像データに対して、画像処理を行う。
このとき、画像処理部182は、必要に応じて補間処理を含む画像処理を行う。
In step S <b> 83, the correlated double
At this time, the
ステップS84において、メモリ31は、処理された画像の供給を受けて記憶し、処理が終了される。
In step S84, the
このような処理により、画素ずらしの手法を用いて、(m×n)Hzのフレームレートの画像データが取得されて記憶される。 Through such processing, image data with a frame rate of (m × n) Hz is acquired and stored using a pixel shifting method.
また、高解像度の高フレームレート映像を得るために、画素ごとの輝度と色の取得をフレームごとに分離し、フレーム間補間を用いて合成処理を施すようにすることも可能である。 In addition, in order to obtain a high-resolution, high-frame-rate video, it is possible to separate the acquisition of luminance and color for each pixel for each frame and perform synthesis processing using inter-frame interpolation.
図38は、本発明を適用した撮像装置201の構成を示すブロック図である。
FIG. 38 is a block diagram illustrating a configuration of an
なお、図1における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
図38に示すように、撮像装置201は、レンズ21、プリズム211、CCDイメージセンサ212、タイミングコントローラ24、コントローラ214、基準同期信号発生部26、相関2重サンプリング)処理部27、A/Dコンバータ28、画像処理部213、コーデック処理部30、メモリ31、操作入力部32、および、ドライブ33から構成される。
As shown in FIG. 38, the
プリズム211は、図39に示されるように、レンズ21を介して入射された光の反射率が1/n(ここでは、n=4)であるプリズムビームスプリッタで構成され、レンズ21を介して入射された光をn個に分割し、CCDイメージセンサ212のn個の撮像素子212−1乃至212−nに供給する。
As shown in FIG. 39, the
CCDイメージセンサ212は、光を電気に変換する受光素子(画素)を複数個並べ、光の変化を画素ごとに独立して電気信号に変換する撮像素子をn個含むものである。なお、CCDイメージセンサ212は、撮像素子をn個含んでいるが、いわゆる複板式のCCDイメージセンサではなく、受光素子ごとに、例えば、RGBの3原色のカラーフィルタがモザイク状に並べられているベイヤー配列などのカラーフィルタが構成されている、一般的な単板式のCCDイメージセンサと、カラーフィルタを用いずに、輝度情報のみを取得する受光素子とがそれぞれ同数設けられて構成されているものである。CCDイメージセンサ212の一方の撮像素子のカラーフィルタは、ベイヤー配列以外の配列であってもよい。
The
CCDイメージセンサ212のそれぞれの撮像素子は、タイミングコントローラ24の制御により、それぞれ1/(n×m)秒だけずれたタイミングで、画像情報を取得する。タイミングコントローラ24は、コントローラ214の制御に基づいて、基準同期信号発生部26から供給される基準同期信号を1/(n×m)秒ずつ遅延させたトリガ信号を、CCDイメージセンサ212の撮像素子212−1乃至212−nに供給する。
Each image sensor of the
コントローラ214は、操作入力部32により入力されたユーザの操作入力に基づいて、タイミングコントローラ24、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部213、コーデック処理部30、および、メモリ31を制御する。基準同期信号発生部26は、タイミングコントローラ24がCCDイメージセンサ212の複数の撮像素子を制御するための基準となる同期信号を発生し、タイミングコントローラ24に供給する。
Based on the user's operation input input by the
図40を用いて、画素ごとの輝度と色の取得をフレームごとに分離し、画像処理部213により、フレーム間補間を用いて、高解像度の高フレームレート映像を得るしくみについて説明する。
With reference to FIG. 40, a description will be given of a mechanism for separating the acquisition of luminance and color for each pixel for each frame and obtaining a high-resolution, high-frame-rate video by using the inter-frame interpolation by the
例として、CCDイメージセンサ212のうちの2/n個の撮像素子のカラーフィルタが、RGB水平配列の640カラー画素(RGBで1画素として)であり、残りの2/n個の撮像素子が輝度情報のみ取得する(水平1920モノクロ画素)ようになされている場合について考える。カラーフィルタを有する撮像素子は、撮像素子の規模としては水平640×3=1920モノクロ画素と同等である。画質としては、1920のカラー画素が理想であるが、上述の撮像素子しか使えない場合を想定する。
As an example, the color filter of 2 / n image sensors in the
例えば、撮像素子が4枚(n=4)の場合、撮影の順で1番目と3番目に水平640カラー画素、2番目と4番目に水平1920モノクロ画素を取得する撮像素子を割り当てる。画像処理部213は、取得された2番目と4番目のモノクロ画像に対応する画像信号から、内挿処理によってフレーム補間画像を作る。そして、画像処理部213は、次に取得された3番目のカラー画像に対応する画像信号から、(R+G+B)/3の演算処理により輝度を抽出した水平640画素のモノクロ画像を生成する。そして、画像処理部213は、その1画素の値にフレーム補間画像の対応する3画素の値を正規化して掛け算し、水平1920画素のモノクロ画像を生成する。
For example, when the number of image sensors is four (n = 4), the first and third horizontal 640 color pixels and the second and fourth horizontal 1920 monochrome pixels are assigned in order of photographing. The
この処理は、すなわち、カラーフィルタを用いて撮影された映像の画素ごとの輝度は変化させずに、輝度の勾配の解像度を3倍に拡大したことに相当する。同様の手順を繰り返すことにより連続した水平1920画素のモノクロ画像が取得できる。更に次にこれらに色情報を付与する。色情報は、1番目と3番目の撮像処理で取得できているので、この情報を1番目と3番目の水平1920画素のモノクロ画像に適用する。 This process corresponds to increasing the resolution of the luminance gradient three times without changing the luminance of each pixel of the video imaged using the color filter. By repeating the same procedure, a continuous monochrome image of 1920 pixels can be acquired. Next, color information is given to them. Since the color information has been acquired by the first and third imaging processes, this information is applied to the first and third horizontal 1920-pixel monochrome images.
すなわち、モノクロ画像の値をYmono、色情報をそれぞれRorg,Gorg,Borgとし、合成処理後の新しい高解像度のRGBの値を、それぞれRnew,Gnew,Bnewとした場合、高解像度のRGBの値Rnew,Gnew,Bnewは、次の式(1)乃至式(3)で求められる。 That is, assuming that the monochrome image value is Ymono, the color information is Rorg, Gorg, and Borg, respectively, and the new high-resolution RGB values after composition processing are Rnew, Gnew, and Bnew, respectively, the high-resolution RGB values Rnew , Gnew, Bnew are obtained by the following equations (1) to (3).
Rnew=Ymono*Rorg/(Rorg+Gorg+Borg) ・・・(1)
Gnew=Ymono*Gorg/(Rorg+Gorg+Borg) ・・・(2)
Bnew=Ymono*Gorg/(Rorg+Gorg+Borg) ・・・(3)
Rnew = Ymono * Rorg / (Rorg + Gorg + Borg) (1)
Gnew = Ymono * Gorg / (Rorg + Gorg + Borg) (2)
Bnew = Ymono * Gorg / (Rorg + Gorg + Borg) (3)
このようにして得られる映像信号は、3色のバランスは変えずに3倍の輝度についての解像度を反映させた映像である。そして、2番目と4番目の水平1920モノクロ画素の画像にも、同様にして色情報を付与するようにすればよい。 The video signal obtained in this way is a video reflecting the resolution for three times the luminance without changing the balance of the three colors. Then, color information may be assigned to the second and fourth horizontal 1920 monochrome pixel images in the same manner.
ここで、それぞれの画素データを精度良く求めるには、カラー画像の内挿画像からフレーム補間画像を生成し、それらの色情報により、上述した方法で、3倍密度のカラー画像を作る方法もあるが、例えば、演算コストの向上を考慮して、それぞれ、1番目3番目のカラー情報をそのまま利用するようにしてもよい。 Here, in order to obtain each pixel data with high accuracy, there is a method in which a frame interpolation image is generated from an interpolated image of a color image, and a color image having a triple density is created by the above-described method using the color information. However, for example, in consideration of improvement in calculation cost, the first and third color information may be used as they are.
1番目3番目のカラー情報をそのまま利用するようにした場合、時間方向には、色情報のみ1/2の時間周波数となり、動画像として、追従視の際の色情報は半減する。しかしながら、図41に示されるように、人の視覚にとって、通常の空間周波数の対象については、輝度情報に比較して色情報はコントラスト感度関数が低い。すなわち、人の視覚にとって、色情報は、ボケが知覚されにくい性質があるので、輝度情報の時間周波数を高めることにより、動画質の劣化を低く抑えることができる。 When the first and third color information are used as they are, only the color information has a time frequency of ½ in the time direction, and the color information in the follow-up view is halved as a moving image. However, as shown in FIG. 41, for human vision, color information has a contrast sensitivity function lower than luminance information for an object having a normal spatial frequency. In other words, since color information has a property that blur is difficult to perceive for human vision, degradation of moving image quality can be suppressed low by increasing the time frequency of luminance information.
このようにして、限られた映像リソースで、高動画質を得ることができる。 In this way, high video quality can be obtained with limited video resources.
なお、カラーフィルタの配列が、上述したRGB水平配列以外のいかなる配列(例えば、ベイヤー配列、原色4色配列、補色3色配列、補色4色配列など)を用いた場合にも、本発明が適用可能であることは言うまでもない。 It should be noted that the present invention is applicable to any color filter array other than the RGB horizontal array described above (for example, Bayer array, primary color four-color array, complementary color three-color array, complementary color four-color array, etc.). It goes without saying that it is possible.
次に、図42のフローチャートを参照して、図33の撮像装置171が実行する画像取得処理3について説明する。
Next, the
ステップS101において、プリズム211は、レンズ21を介して入射された光をn分割して、CCDイメージセンサ212の2個の撮像素子212−1乃至212−nに供給する。
In step S <b> 101, the
ステップS102において、タイミングコントローラ24は、基準同期信号発生部26から供給されるmHzの基準同期信号を、CCDイメージセンサ212に供給し、CCDイメージセンサ212は、mHzの基準同期信号を基に、n個の撮像素子212−1乃至212−nのうちのいずれかによって、色情報を有する画像データ、および、輝度情報を有する画像データをそれぞれ取得する。
In step S102, the
ステップS103において、相関2重サンプリング処理部27、A/Dコンバータ28、画像処理部213、および、コーデック処理部30は、CCDイメージセンサ212によって取得されたmHzのフレームレートの画像データに対して、画像処理を行う。このとき、画像処理部213は、図40を用いて説明した合成処理を含む画像処理を行う。
In step S103, the correlated double
ステップS104において、メモリ31は、処理された画像の供給を受けて記憶し、処理が終了される。
In step S104, the
このような処理により、限られた映像リソースで、高動画質を得ることができる。 By such processing, high moving image quality can be obtained with limited video resources.
上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。 The series of processes described above can also be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium.
この記録媒体は、図1、図9、図26、図28、図31、図33、図38に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41または71(フレキシブルディスクを含む)、光ディスク42または72(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク43または73(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ44または74などよりなるパッケージメディアなどにより構成される。
As shown in FIG. 1, FIG. 9, FIG. 26, FIG. 28, FIG. 31, FIG. 33 and FIG. 38, this recording medium is distributed to provide a program to the user separately from the computer.
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
1 撮像装置, 22 プリズム, 23 CCDイメージセンサ, 24 タイミングコントローラ, 25 コントローラ, 26 基準同期信号発生部, 51 画像信号処理装置, 52 画像表示装置, 61 メモリ, 62 コントローラ, 64 基準同期信号発生部, 66 表示制御部, 81 操作制御部, 82 表示部, 91 プロジェクタ, 92 スクリーン, 101 画像信号処理装置, 111 コントローラ, 112 信号処理部, 121 画像信号処理装置, 131 コントローラ, 132 信号処理部, 141 画像信号処理装置, 151 コントローラ, 152 信号処理部, 171 撮像装置, 181 CCDイメージセンサ, 182 画像処理部, 183 コントローラ, 201 撮像装置, 211 プリズム, 212 CCDイメージセンサ, 213 画像処理部, 214 コントローラ
1 imaging device, 22 prism, 23 CCD image sensor, 24 timing controller, 25 controller, 26 reference synchronization signal generator, 51 image signal processor, 52 image display device, 61 memory, 62 controller, 64 reference synchronization signal generator, 66 display control unit, 81 operation control unit, 82 display unit, 91 projector, 92 screen, 101 image signal processing device, 111 controller, 112 signal processing unit, 121 image signal processing device, 131 controller, 132 signal processing unit, 141 image
Claims (3)
前記画像処理装置において処理された前記画像信号に対応する画像を表示する画像表示装置と
で構成される画像表示システムにおいて、
前記画像処理装置は、
mHzの第1のフレームレートの前記画像信号を保存する保存手段と、
前記保存手段により保存された前記画像信号の出力を制御する出力制御手段と、
前記出力制御手段により出力が制御された前記画像信号に対応する前記画像の表示を制御する表示制御手段と
を備え、
前記画像表示装置は、
点順次または線順次方式によって前記画像の描画を行う複数の画像表示処理手段と、
前記画像表示処理手段により描画される前記画像を表示する表示手段と
を備え、
前記画像表示処理手段は、少なくとも、n個備えられ、
前記出力制御手段は、n個の前記画像表示処理手段に、1フレームごとに、前記保存手段から順次出力されるように、前記第1のフレームレートの前記画像信号の出力を制御し、
前記表示制御手段は、前記第1のフレームレートのn倍のフレームレートである第2のフレームレートで前記画像表示装置に前記画像が表示されるように、前記出力制御手段によりn個の前記画像表示処理手段に順次出力された前記画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、前記画像信号に対応する前記画像の表示を制御する
ことを特徴とする画像表示システム。 An image processing device for processing an image signal;
In an image display system configured with an image display device that displays an image corresponding to the image signal processed in the image processing device,
The image processing apparatus includes:
storage means for storing the image signal at a first frame rate of mHz;
Output control means for controlling the output of the image signal stored by the storage means;
Display control means for controlling display of the image corresponding to the image signal whose output is controlled by the output control means, and
The image display device includes:
A plurality of image display processing means for drawing the image in a dot sequential or line sequential manner;
Display means for displaying the image drawn by the image display processing means,
At least n image display processing means are provided,
The output control means controls the output of the image signal at the first frame rate so that the image display processing means is sequentially output from the storage means every n frames.
The display control means causes the output control means to display the n images so that the image is displayed on the image display device at a second frame rate that is a frame rate n times the first frame rate. Corresponding to the image signals so that the image signals sequentially output to the display processing means are sequentially drawn by a dot-sequential or line-sequential method with a shift of 1 / (m × n) of the scanning time of one frame. Controlling the display of the image.
前記画像処理装置において処理された前記画像信号に対応する画像を表示する画像表示装置と
で構成される画像表示システムにおいて、
前記画像処理装置は、
mHzの第1のフレームレートの前記画像信号を保存する保存手段と、
前記保存手段により保存された前記画像信号の出力を制御する出力制御手段と、
前記出力制御手段により出力が制御された前記画像信号に対応する前記画像の表示を制御する表示制御手段と
を備え、
前記画像表示装置は、
点順次または線順次方式によって前記画像の描画を行う複数の画像表示処理手段を備え、
前記画像表示処理手段は、少なくとも、n個備えられ、
前記出力制御手段は、n個の前記画像表示処理手段に、1フレームごとに、前記保存手段から順次出力されるように、前記第1のフレームレートの前記画像信号の出力を制御し、
前記表示制御手段は、前記第1のフレームレートのn倍のフレームレートである第2のフレームレートで前記画像表示装置に前記画像が表示されるように、前記出力制御手段によりn個の前記画像表示処理手段に順次出力された前記画像信号が、1フレームの走査時間の1/(m×n)ずつずれて、点順次または線順次方式によって、順次描画されるように、前記画像信号に対応する前記画像の表示を制御する
ことを特徴とする画像表示システム。 An image processing device for processing an image signal;
In an image display system configured with an image display device that displays an image corresponding to the image signal processed in the image processing device,
The image processing apparatus includes:
storage means for storing the image signal at a first frame rate of mHz;
Output control means for controlling the output of the image signal stored by the storage means;
Display control means for controlling display of the image corresponding to the image signal whose output is controlled by the output control means, and
The image display device includes:
A plurality of image display processing means for drawing the image in a dot sequential or line sequential manner;
At least n image display processing means are provided,
The output control means controls the output of the image signal at the first frame rate so that the image display processing means is sequentially output from the storage means every n frames.
The display control means causes the output control means to display the n images so that the image is displayed on the image display device at a second frame rate that is a frame rate n times the first frame rate. Corresponding to the image signals so that the image signals sequentially output to the display processing means are sequentially drawn by a dot-sequential or line-sequential method with a shift of 1 / (m × n) of the scanning time of one frame. Controlling the display of the image.
ことを特徴とする請求項2に記載の画像表示システム。 The image display system according to claim 2, wherein the image display device includes a projector that projects and displays the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009032480A JP4985672B2 (en) | 2009-02-16 | 2009-02-16 | Image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009032480A JP4985672B2 (en) | 2009-02-16 | 2009-02-16 | Image display system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003372972A Division JP4337505B2 (en) | 2003-10-31 | 2003-10-31 | Imaging apparatus and imaging method, image processing apparatus and image processing method, image display system, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009110028A true JP2009110028A (en) | 2009-05-21 |
JP4985672B2 JP4985672B2 (en) | 2012-07-25 |
Family
ID=40778500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009032480A Expired - Fee Related JP4985672B2 (en) | 2009-02-16 | 2009-02-16 | Image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4985672B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11397376B2 (en) | 2017-09-12 | 2022-07-26 | Sony Corporation | Image processing device and method for suppressing a reduction in image quality |
US11601626B2 (en) | 2017-03-09 | 2023-03-07 | Sony Corporation | Image processing apparatus and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003029238A (en) * | 2001-07-17 | 2003-01-29 | Seiko Epson Corp | Projection liquid crystal display device |
JP2004356919A (en) * | 2003-05-29 | 2004-12-16 | Sharp Corp | Projector, program and recording medium |
-
2009
- 2009-02-16 JP JP2009032480A patent/JP4985672B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003029238A (en) * | 2001-07-17 | 2003-01-29 | Seiko Epson Corp | Projection liquid crystal display device |
JP2004356919A (en) * | 2003-05-29 | 2004-12-16 | Sharp Corp | Projector, program and recording medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11601626B2 (en) | 2017-03-09 | 2023-03-07 | Sony Corporation | Image processing apparatus and method |
US11397376B2 (en) | 2017-09-12 | 2022-07-26 | Sony Corporation | Image processing device and method for suppressing a reduction in image quality |
Also Published As
Publication number | Publication date |
---|---|
JP4985672B2 (en) | 2012-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4337505B2 (en) | Imaging apparatus and imaging method, image processing apparatus and image processing method, image display system, recording medium, and program | |
JP4826602B2 (en) | Display device and method | |
US8077172B2 (en) | Method and apparatus for processing an image, image display system, storage medium, and program | |
JP2008067372A (en) | Image generation system and method | |
JP2003338988A (en) | Imaging device | |
EP2157563B1 (en) | Image processing apparatus and method with frame rate conversion | |
US20110025875A1 (en) | Imaging apparatus, electronic instrument, image processing device, and image processing method | |
JPWO2008053791A1 (en) | Imaging apparatus and video signal generation method in imaging apparatus | |
JP4985672B2 (en) | Image display system | |
JP5062196B2 (en) | Imaging apparatus and method, and program | |
JPH07203318A (en) | Image pickup device | |
JP5062195B2 (en) | Imaging apparatus and method, and program | |
JP2006246307A (en) | Image data processing apparatus | |
JP2004266808A (en) | Image processing apparatus and image processing method, image display system, recording media, and program | |
JP2008058483A (en) | Animation image display device and method | |
JP4292963B2 (en) | Imaging device | |
JP5316199B2 (en) | Display control apparatus, display control method, and program | |
JP2005159976A (en) | Image pickup apparatus | |
JP3463697B2 (en) | Image input / output system | |
JP4278690B2 (en) | Imaging device | |
JP2005217970A (en) | Imaging device and its driving method | |
JP2005175571A (en) | Imaging device | |
JP2006270160A (en) | Image data processing apparatus | |
JPH06209435A (en) | Picture input output transmission system | |
JP2004215286A (en) | Image signal processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120416 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4985672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150511 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |