JP2007049598A - Image processing controller, electronic apparatus and image processing method - Google Patents

Image processing controller, electronic apparatus and image processing method Download PDF

Info

Publication number
JP2007049598A
JP2007049598A JP2005234244A JP2005234244A JP2007049598A JP 2007049598 A JP2007049598 A JP 2007049598A JP 2005234244 A JP2005234244 A JP 2005234244A JP 2005234244 A JP2005234244 A JP 2005234244A JP 2007049598 A JP2007049598 A JP 2007049598A
Authority
JP
Japan
Prior art keywords
image data
image
frame
processing controller
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005234244A
Other languages
Japanese (ja)
Inventor
Atsushi Obinata
淳 小日向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005234244A priority Critical patent/JP2007049598A/en
Publication of JP2007049598A publication Critical patent/JP2007049598A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing controller, electronic apparatus and image processing method in which image data for displaying a high-quality image can be generated at low cost. <P>SOLUTION: An image processing controller 10 includes a selector 100 for selecting and outputting any one of first and second image data input asynchronously with each other, a switching control section 110 for performing switching control of the selector 100 for each frame of image data in accordance with a given switching order, and a frame memory 130 for storing first and second image data for one frame output from the selector in accordance with the switching order, or storing synthetic image data for one frame combining the first and second image data output from the selector in accordance with the switching order. Either synthetic image data combining the first and second image data stored in the frame memory 130 or the synthetic image data stored in the frame memory 130 are supplied to a display driver 30. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理コントローラ、電子機器及び画像処理方法に関する。   The present invention relates to an image processing controller, an electronic device, and an image processing method.

近年、携帯電話機等の携帯型の電子機器に搭載される液晶表示(Liquid Crystal Display:LCD)パネル(広義には表示パネル。更に広義には電気光学装置)の高画質化が進み、種々のコンテンツ画像やカメラ等で撮像した画像を表示できるようになっている。そして、より一層趣向を凝らすことでユーザの要求を満足させるために、LCDパネルに立体画像を表示させることも可能になっている。   In recent years, liquid crystal display (LCD) panels (display panels in a broad sense; electro-optical devices in a broad sense) mounted on portable electronic devices such as mobile phones have been improved in quality, and various contents have been developed. Images and images taken with a camera or the like can be displayed. And in order to satisfy a user's request | requirement by making it more elaborate, it is also possible to display a three-dimensional image on an LCD panel.

このような立体画像表示を行うための画像データは、例えば特許文献1に記載された技術により生成される。特許文献1には、それぞれ右目用及び左目用に設けられた2つのカメラで撮像した画像を、各カメラに対応して設けられたフレームメモリにそれぞれ直接的に格納し、選択回路で切り替えながら左右の画像データをインターリーブして合成処理を行う技術が開示されている。
特開平8−7125号公報
Image data for performing such a stereoscopic image display is generated by the technique described in Patent Document 1, for example. In Patent Document 1, images taken by two cameras provided for the right eye and for the left eye are stored directly in a frame memory provided for each camera, and the left and right are switched by a selection circuit. Disclosed is a technique for performing interleaving of the image data and performing a synthesis process.
JP-A-8-7125

しかしながら、2つのカメラのそれぞれに対してフレームメモリを設けると、コスト高を招く上に携帯型の電子機器への搭載には不向きである。また、2つのカメラの各カメラが非同期で画像データを入力してくる場合、両者の画像データの画像の時間的なずれが原因で立体画像に違和感を生じて画質が低下することがある。これは、立体画像に限らず、複数の画像をつなぎ合わせて1つの画像を生成する場合も同様である。   However, providing a frame memory for each of the two cameras increases the cost and is not suitable for mounting on a portable electronic device. In addition, when each of the two cameras inputs image data asynchronously, a stereoscopic image may become uncomfortable due to a temporal shift in the images of the two image data, and the image quality may deteriorate. This is not limited to a stereoscopic image, and the same applies when a plurality of images are connected to generate a single image.

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的とするところは、低コストで、高画質な画像を表示するための画像データを生成できる画像処理コントローラ、電子機器及び画像処理方法を提供することにある。   The present invention has been made in view of the technical problems as described above, and an object of the present invention is to provide an image processing controller, an electronic device capable of generating image data for displaying a high-quality image at low cost. To provide an apparatus and an image processing method.

上記課題を解決するために本発明は、
電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理コントローラであって、
互いに非同期で入力された第1及び第2の画像データのいずれかを選択して出力するセレクタと、
所与の切替順序に従って1フレームの画像データ毎に前記セレクタの切替制御を行う切替制御部と、
前記切替順序に従って前記セレクタから出力された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って前記セレクタから出力された前記第1及び第2の画像データが合成された1フレーム分の合成画像データが格納されるフレームメモリとを含み、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給する画像処理コントローラに関係する。
In order to solve the above problems, the present invention
An image processing controller for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
A selector that selects and outputs one of the first and second image data input asynchronously with each other;
A switching control unit that performs switching control of the selector for each frame of image data according to a given switching order;
One frame of the first and second image data for one frame output from the selector in accordance with the switching order, or one frame in which the first and second image data output from the selector in accordance with the switching order are combined A frame memory for storing the composite image data for
The present invention relates to an image processing controller that supplies composite image data obtained by combining the first and second image data stored in the frame memory or combined image data stored in the frame memory to the driving device.

本発明によれば、第1及び第2の画像データを用いて生成した合成画像データを駆動装置に供給する場合に、第1及び第2の画像データに対してフレームメモリを共通化できるようになる。これにより、画像処理コントローラの低コスト化を実現できるようになる。   According to the present invention, when the composite image data generated using the first and second image data is supplied to the driving device, the frame memory can be shared with the first and second image data. Become. Thereby, cost reduction of the image processing controller can be realized.

また本発明に係る画像処理コントローラでは、
前記切替制御部が、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定し、該切替順序に従って前記セレクタの切替制御を行うことができる。
In the image processing controller according to the present invention,
The switching control unit is
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. Thus, the switching order can be determined, and the selector switching control can be performed according to the switching order.

本発明によれば、第1及び第2の画像データのうち一方の画像データの1フレームの終了タイミングから、他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように切替順序を決定するようにしたので、セレクタによって切り替えられる第1及び第2の画像データの時間差を短縮できる。従って、フレームメモリを共通化したことにより第1及び第2の画像データの時間差により合成画像データにより表示される画像の違和感を大幅に低減し、合成画像の画質を向上させることができるようになる。   According to the present invention, switching is performed so that the period from the end timing of one frame of one of the first and second image data to the start timing of the next frame of the other image data is the shortest. Since the order is determined, the time difference between the first and second image data switched by the selector can be shortened. Therefore, by sharing the frame memory, it is possible to greatly reduce the uncomfortable feeling of the image displayed by the composite image data due to the time difference between the first and second image data and to improve the image quality of the composite image. .

また本発明は、
電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理コントローラであって、
互いに非同期で入力された第1及び第2の画像データのいずれかを、所与の切替順序に従って1フレームの画像データ毎に切替制御を行う切替制御部と、
前記切替順序に従って選択された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って選択された前記第1及び第2の画像データが合成された1フレーム分の合成画像データが格納されるフレームメモリとを含み、
前記切替制御部が、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定し、該切替順序に従って切替制御を行い、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給する画像処理コントローラに関係する。
The present invention also provides
An image processing controller for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
A switching control unit that performs switching control for each image data of one frame in accordance with a given switching order for any of the first and second image data input asynchronously with each other;
One frame of the first and second image data selected according to the switching order, or one frame of combined image data obtained by combining the first and second image data selected according to the switching order. Frame memory to be stored,
The switching control unit is
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. The switching order is determined so that the switching order is controlled according to the switching order,
The present invention relates to an image processing controller that supplies composite image data obtained by combining the first and second image data stored in the frame memory or combined image data stored in the frame memory to the driving device.

本発明によれば、第1及び第2の画像データを用いて生成した合成画像データを駆動装置に供給する場合に、第1及び第2の画像データに対してフレームメモリを共通化できるようになる。これにより、画像処理コントローラの低コスト化を実現できるようになる。また、第1及び第2の画像データのうち一方の画像データの1フレームの終了タイミングから、他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように切替順序を決定するようにしたので、選択される第1及び第2の画像データの時間差を短縮できる。従って、フレームメモリを共通化したことにより第1及び第2の画像データの時間差により合成画像データにより表示される画像の違和感を大幅に低減し、合成画像の画質を向上させることができるようになる。   According to the present invention, when the composite image data generated using the first and second image data is supplied to the driving device, the frame memory can be shared with the first and second image data. Become. Thereby, cost reduction of the image processing controller can be realized. In addition, the switching order is determined so that the period from the end timing of one frame of one of the first and second image data to the start timing of the next frame of the other image data is the shortest. Since it did in this way, the time difference of the 1st and 2nd image data selected can be shortened. Therefore, by sharing the frame memory, it is possible to greatly reduce the uncomfortable feeling of the image displayed by the composite image data due to the time difference between the first and second image data and to improve the image quality of the composite image. .

また本発明に係る画像処理コントローラでは、
前記切替制御部が、
前記第1の画像データの垂直同期信号及び水平同期信号と前記第2の画像データの垂直同期信号及び水平同期信号とに基づいて前記切替順序を決定することができる。
In the image processing controller according to the present invention,
The switching control unit is
The switching order can be determined based on the vertical and horizontal synchronization signals of the first image data and the vertical and horizontal synchronization signals of the second image data.

本発明によれば、簡素な構成で、第1及び第2の画像データを用いて、低コストで高画質の合成画像データを生成できるようになる。   According to the present invention, it is possible to generate high-quality composite image data at low cost using the first and second image data with a simple configuration.

また本発明に係る画像処理コントローラでは、
1垂直走査期間内の取り込み開始ラインを指定するための取り込み開始ライン設定レジスタと、
1垂直走査期間内の取り込み終了ラインを指定するための取り込み終了ライン設定レジスタとを含み、
前記終了タイミングが、1垂直走査期間を規定する垂直同期信号の変化タイミングを基準に、前記取り込み終了ライン設定レジスタの設定値に対応した期間が経過したタイミングであり、
前記開始タイミングが、前記終了タイミングを含む垂直走査期間の次の垂直走査期間における前記垂直同期信号の変化タイミングを基準に、前記取り込み開始ライン設定レジスタの設定値に対応した期間が経過したタイミングであってもよい。
In the image processing controller according to the present invention,
An acquisition start line setting register for designating an acquisition start line within one vertical scanning period;
An acquisition end line setting register for designating an acquisition end line within one vertical scanning period,
The end timing is a timing at which a period corresponding to a setting value of the capture end line setting register has elapsed with reference to a change timing of a vertical synchronization signal defining one vertical scanning period;
The start timing is a timing at which a period corresponding to a set value of the capture start line setting register has elapsed with reference to a change timing of the vertical synchronization signal in a vertical scanning period subsequent to a vertical scanning period including the end timing. May be.

本発明によれば、指定可能な範囲の取り込み画像により合成画像データを生成できるようになる。   According to the present invention, synthesized image data can be generated from captured images in a specifiable range.

また本発明に係る画像処理コントローラでは、
前記第1及び第2の画像データの少なくとも一方のシェーディング処理、又はその周囲の画素データにより補間される欠陥画素の補間処理を行う画像補正部を含み、
前記画像補正部が、
前記セレクタから出力された前記第1又は第2の画像データに対して前記シェーディング処理又は前記補間処理を行い、
前記フレームメモリには、前記シェーディング処理又は前記補間処理後の前記第1及び第2の画像データ、又は前記シェーディング処理又は前記補間処理後の第1及び第2の画像データが合成された前記合成画像データが格納されてもよい。
In the image processing controller according to the present invention,
An image correction unit that performs a shading process of at least one of the first and second image data, or an interpolation process of defective pixels interpolated by surrounding pixel data;
The image correction unit is
Performing the shading process or the interpolation process on the first or second image data output from the selector;
In the frame memory, the first and second image data after the shading process or the interpolation process, or the synthesized image in which the first and second image data after the shading process or the interpolation process are combined. Data may be stored.

本発明によれば、第1及び第2の画像データに対して画像補正部を共通化でき、画像処理コントローラの低コスト化に寄与できるようになる。更に、高画質を維持しながら、シェーディング補正処理後又は補間処理後の合成画像データを生成できる。   According to the present invention, the image correction unit can be made common to the first and second image data, and the cost of the image processing controller can be reduced. Furthermore, it is possible to generate composite image data after shading correction processing or interpolation processing while maintaining high image quality.

また本発明に係る画像処理コントローラでは、
前記第1及び第2の画像データ、又は前記合成画像データの画像サイズを縮小する画像縮小処理を行う画像縮小部を含み、
前記フレームメモリには、前記画像縮小処理後の前記第1及び第2の画像データ、又は前記画像縮小処理後の前記合成画像データが格納されてもよい。
In the image processing controller according to the present invention,
An image reduction unit that performs an image reduction process for reducing the image size of the first and second image data or the composite image data;
The frame memory may store the first and second image data after the image reduction process, or the composite image data after the image reduction process.

本発明によれば、第1及び第2の画像データに対して画像縮小部を共通化でき、画像処理コントローラの低コスト化に寄与できるようになる。更にフレームメモリの容量を小さくできるようになる。   According to the present invention, the image reduction unit can be made common to the first and second image data, and the cost of the image processing controller can be reduced. Furthermore, the capacity of the frame memory can be reduced.

また本発明に係る画像処理コントローラでは、
前記第1の画像データが、右目用画像データ及び左目用画像データの一方であり、
前記第2の画像データが、右目用画像データ及び左目用画像データの他方であり、
前記合成画像データが、立体表示用画像データであってもよい。
In the image processing controller according to the present invention,
The first image data is one of right-eye image data and left-eye image data;
The second image data is the other of the right-eye image data and the left-eye image data;
The composite image data may be stereoscopic display image data.

本発明によれば、低コストで、高画質な立体表示用の画像を表示するための画像データを生成できる画像処理コントローラを提供できる。   According to the present invention, it is possible to provide an image processing controller that can generate image data for displaying a high-quality stereoscopic display image at low cost.

また本発明は、
表示パネルと、
上記のいずれか記載の画像処理コントローラと、
前記画像処理コントローラによって供給される画像データに基づいて前記表示パネルを駆動する表示ドライバとを含む電子機器に関係する。
The present invention also provides
A display panel;
Any one of the image processing controllers described above;
The present invention relates to an electronic device including a display driver that drives the display panel based on image data supplied by the image processing controller.

本発明によれば、低コストで、高画質な立体表示用の画像を表示するための画像データを生成できる画像処理コントローラを含む電子機器を提供できる。   According to the present invention, it is possible to provide an electronic apparatus including an image processing controller that can generate image data for displaying a high-quality stereoscopic display image at low cost.

また本発明は、
電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理方法であって、
互いに非同期で入力された第1及び第2の画像データのいずれかを、所与の切替順序に従って1フレームの画像データ毎に切り替えて出力し、
前記切替順序に従って出力された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って出力された前記第1及び第2の画像データが合成された1フレーム分の合成画像データをフレームメモリに格納し、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給する画像処理方法に関係する。
The present invention also provides
An image processing method for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
Either one of the first and second image data input asynchronously with each other is switched and output for each frame of image data according to a given switching order,
One frame of the first and second image data output according to the switching order, or one frame of combined image data obtained by combining the first and second image data output according to the switching order. Stored in frame memory,
The present invention relates to an image processing method in which the composite image data obtained by combining the first and second image data stored in the frame memory or the composite image data stored in the frame memory is supplied to the driving device.

また本発明に係る画像処理方法では、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定することができる。
In the image processing method according to the present invention,
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. The switching order can be determined as follows.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1. 画像処理コントローラ
図1に、本実施形態の画像処理コントローラが適用されたシステムの構成例の図を示す。本実施形態の画像処理コントローラ10は、表示パネル(電気光学装置)20を駆動する表示ドライバ(駆動装置)30に対して画像データを供給する。表示パネル20は、複数のデータ線と複数の走査線とを各画素が各データ線及び各走査線により特定される複数の画素とを有し、立体画像を表示できるようになっている。表示ドライバ30は、表示パネル20の複数のデータ線を画像データに基づいて駆動するデータドライバの機能と、表示パネル20の複数の走査線を走査する走査ドライバの機能とを有する。
1. Image Processing Controller FIG. 1 is a diagram showing a configuration example of a system to which the image processing controller of this embodiment is applied. The image processing controller 10 of the present embodiment supplies image data to a display driver (driving device) 30 that drives a display panel (electro-optical device) 20. The display panel 20 includes a plurality of data lines and a plurality of scanning lines, each pixel having a plurality of pixels specified by each data line and each scanning line, and can display a stereoscopic image. The display driver 30 has a function of a data driver that drives a plurality of data lines of the display panel 20 based on image data, and a function of a scan driver that scans a plurality of scanning lines of the display panel 20.

画像処理コントローラ10には、例えば右目用画像データとして第1のカメラモジュール40から第1のカメラデータが入力される。また画像処理コントローラ10には、例えば左目用画像データである第2のカメラモジュール50から第2のカメラデータが入力される。第1及び第2のカメラデータは、互いに非同期のタイミングで画像処理コントローラ10に入力される。画像処理コントローラ10は、第1及び第2の画像データを合成した合成画像データを生成し、該合成画像データを立体表示用画像データとして表示ドライバ30に供給する。従って、第1及び第2のカメラモジュール40、50は、表示パネル20の画面を見る観察者の両目の視差を考慮して設けられる。   The first camera data is input to the image processing controller 10 from the first camera module 40 as, for example, right-eye image data. In addition, the second camera data is input to the image processing controller 10 from the second camera module 50 that is image data for the left eye, for example. The first and second camera data are input to the image processing controller 10 at asynchronous timings. The image processing controller 10 generates combined image data obtained by combining the first and second image data, and supplies the combined image data to the display driver 30 as stereoscopic display image data. Therefore, the first and second camera modules 40 and 50 are provided in consideration of the parallax between the eyes of the observer who views the screen of the display panel 20.

画像処理コントローラ10は、ホスト60によって制御される。ホスト60は、CPU(Central Processing Unit)及びメモリを含み、該メモリに格納されたプログラムに従ってCPUが処理を実行することで、画像処理コントローラ10の制御を行う。画像処理コントローラ10は、図示しない制御レジスタを有し、ホスト60により設定された制御レジスタの設定データに基づいて制御信号が生成され、該制御信号に基づいて動作するようになっている。   The image processing controller 10 is controlled by the host 60. The host 60 includes a CPU (Central Processing Unit) and a memory, and the image processing controller 10 is controlled by the CPU executing a process according to a program stored in the memory. The image processing controller 10 has a control register (not shown), and a control signal is generated based on setting data of the control register set by the host 60, and operates based on the control signal.

図2に、第1のカメラモジュール40の構成例のブロック図を示す。本実施形態では、第1のカメラモジュール40の構成及び動作は、第2のカメラモジュール50の構成及び動作と同じであるものとするが、これに限定されるものではない。   FIG. 2 shows a block diagram of a configuration example of the first camera module 40. In the present embodiment, the configuration and operation of the first camera module 40 are the same as the configuration and operation of the second camera module 50, but are not limited thereto.

第1のカメラモジュール40は、レンズ42を含み、レンズ42を通して撮像された画像の画像データを生成する。より具体的には、第1のカメラモジュール40は、更に撮像素子44、アナログデジタル(Analog to Digital:A/D)変換器46及びタイミング発生回路48を含む。撮像素子44は、レンズ42を通して入射された光量に応じた電荷を生成して蓄積し、この電荷量に対応したアナログ信号を、タイミング発生回路48からのタイミング信号に同期してA/D変換器46に出力する。A/D変換器46は、該アナログ信号をデジタル信号に変換し、画像処理コントローラ10に対して画像データGD1として出力する。第1のカメラモジュール40は、A/D変換器46からの画像データを、タイミング発生回路48で発生させたタイミング信号(ドットクロックDCK1、水平同期信号HSYNC1、垂直同期信号VSYNC1)に同期させて順次出力する。即ち、レンズ42を通して撮像された画像の画像データが、撮像素子44で検出された光量に応じたデジタルデータとして順次出力される。このような第1のカメラモジュール40の機能は、CCD(Charge Coupled Device)センサモジュール又はCMOS(Complementary Metal Oxide Semiconductor)センサモジュールにより実現できる。   The first camera module 40 includes a lens 42 and generates image data of an image captured through the lens 42. More specifically, the first camera module 40 further includes an image sensor 44, an analog to digital (A / D) converter 46, and a timing generation circuit 48. The image pickup device 44 generates and accumulates electric charges corresponding to the amount of light incident through the lens 42, and an analog signal corresponding to the electric charge amount is synchronized with the timing signal from the timing generation circuit 48 in an A / D converter. Output to 46. The A / D converter 46 converts the analog signal into a digital signal, and outputs it to the image processing controller 10 as image data GD1. The first camera module 40 sequentially synchronizes the image data from the A / D converter 46 with the timing signals (dot clock DCK1, horizontal synchronization signal HSYNC1, vertical synchronization signal VSYNC1) generated by the timing generation circuit 48. Output. That is, image data of an image captured through the lens 42 is sequentially output as digital data corresponding to the amount of light detected by the image sensor 44. Such a function of the first camera module 40 can be realized by a CCD (Charge Coupled Device) sensor module or a CMOS (Complementary Metal Oxide Semiconductor) sensor module.

図3に、図2のタイミング発生回路48によって生成されるタイミング信号と画素データとの関係を示す。   FIG. 3 shows the relationship between the timing signal generated by the timing generation circuit 48 of FIG. 2 and the pixel data.

タイミング発生回路18は、タイミング信号として垂直同期信号VSYNC1、水平同期信号HSYNC1及びドットクロック(ピクセルクロック)DCK1を生成する。垂直同期信号VSYNC1は、1垂直走査期間を規定する信号であり、撮像素子44で取り込まれた画像の先頭を示すパルスを有する。水平同期信号HSYNC1は、1水平走査期間を規定する信号であり、撮像素子44で取り込まれた画像の水平走査方向の1ラインの先頭を示すパルスを有する。A/D変換器46は、ドットクロックDCK1に同期して各画素の画像データGD1を出力する。   The timing generation circuit 18 generates a vertical synchronization signal VSYNC1, a horizontal synchronization signal HSYNC1, and a dot clock (pixel clock) DCK1 as timing signals. The vertical synchronization signal VSYNC1 is a signal that defines one vertical scanning period, and has a pulse indicating the head of the image captured by the image sensor 44. The horizontal synchronization signal HSYNC1 is a signal that defines one horizontal scanning period, and has a pulse indicating the head of one line in the horizontal scanning direction of the image captured by the image sensor 44. The A / D converter 46 outputs the image data GD1 of each pixel in synchronization with the dot clock DCK1.

このように第1のカメラモジュール40は、画像処理コントローラ10の動作とは非同期で画像データを出力する。そのため、第1のカメラモジュール40は、同様に非同期で画像データを出力する第2のカメラモジュール50と非同期で画像データを画像処理コントローラ10に供給することになる。   Thus, the first camera module 40 outputs image data asynchronously with the operation of the image processing controller 10. Therefore, the first camera module 40 supplies the image data to the image processing controller 10 asynchronously with the second camera module 50 that similarly outputs the image data asynchronously.

ここで、本実施形態における合成画像データに基づいて生成される立体画像による立体視の原理の一例について説明する。なお、本実施形態では、視差バリア(parallax barrier)方式を採用するものとして説明するが、これに限定されるものではなく、例えばレンティキュラ方式により立体視を実現してもよい。   Here, an example of the principle of stereoscopic vision using a stereoscopic image generated based on the composite image data in the present embodiment will be described. In the present embodiment, description is made assuming that a parallax barrier method is adopted. However, the present invention is not limited to this, and for example, stereoscopic viewing may be realized by a lenticular method.

図4に、視差バリア方式の原理の説明図を示す。   FIG. 4 is an explanatory diagram of the principle of the parallax barrier method.

視差バリア方式では、例えば水平方向である方向DIR1に観察者の左目と右目が並ぶ場合に、表示パネル20には、短冊状に右目用画像Rと左目用画像Lとが交互に並ぶように画像が表示される。右目用画像R及び左目用画像Lは、それぞれ例えば水平方向に1画素分の幅で該水平方向と直交する垂直方向である方向DIR2に延びる。   In the parallax barrier method, for example, when the left eye and the right eye of the observer are aligned in the direction DIR1 that is the horizontal direction, the display panel 20 displays images such that the right-eye image R and the left-eye image L are alternately arranged in a strip shape. Is displayed. Each of the right-eye image R and the left-eye image L extends, for example, in a direction DIR2 that is a vertical direction orthogonal to the horizontal direction with a width of one pixel in the horizontal direction.

表示パネル20の表示画像と観察者の間には、縦格子状の隙間(垂直方向の隙間)を有する視差バリアが設けられている。表示パネル20は、視差バリアを含むことができる。また表示パネル20は、例えば電気的又は機械的に、視差バリアを設けたり視差バリアを設けなかったりする手段を含んでもよい。   A parallax barrier having a vertical grid-like gap (gap in the vertical direction) is provided between the display image on the display panel 20 and the observer. The display panel 20 can include a parallax barrier. The display panel 20 may include means for providing a parallax barrier or not providing a parallax barrier, for example, electrically or mechanically.

右目用画像Rは観察者の右目のみが見るべき画像であり、左目用画像Lは観察者の左目のみが見るべき画像である。従って、右目用画像Rを右目が見て、左目用画像Lを左目が見ることとなり、両画像の視差に起因して奥行きを感じ、立体画像として認識される。   The right-eye image R is an image that only the viewer's right eye should see, and the left-eye image L is an image that only the viewer's left eye should see. Therefore, the right eye looks at the right eye image R and the left eye looks at the left eye image L, and the depth is felt due to the parallax between both images, and is recognized as a stereoscopic image.

本実施形態における画像処理コントローラ10は、図4に示すように短冊状に右目用画像Rと左目用画像Lとが交互に並ぶ画像を生成するための合成画像データを生成し、該合成画像データを表示ドライバ30に供給する。   The image processing controller 10 according to the present embodiment generates composite image data for generating an image in which the right-eye image R and the left-eye image L are alternately arranged in a strip shape as shown in FIG. Is supplied to the display driver 30.

図5に、図1の画像処理コントローラ10の構成例のブロック図を示す。なお図5において、図1と同一部分には同一符号を付し適宜説明を省略する。   FIG. 5 shows a block diagram of a configuration example of the image processing controller 10 of FIG. In FIG. 5, the same parts as those in FIG.

画像処理コントローラ10は、セレクタ100と、セレクタ100の切替制御を行う切替制御部110と、フレームメモリ130とを含む。セレクタ100には、第1のカメラモジュール40から右目用画像データ(第1のカメラデータ)が入力されると共に、該右目用画像データとは非同期のタイミングで第2のカメラモジュール50から左目用画像データ(第2のカメラデータ)が入力される。そしてセレクタ100は、右目用画像データ及び左目用画像データのいずれかを選択して出力する。切替制御部110は、所与の切替順序に従って1フレーム(1垂直走査分、1画面分)の画像データ毎にセレクタ100の切替制御を行う。   The image processing controller 10 includes a selector 100, a switching control unit 110 that performs switching control of the selector 100, and a frame memory 130. Right-eye image data (first camera data) is input from the first camera module 40 to the selector 100, and the left-eye image is output from the second camera module 50 at a timing asynchronous with the right-eye image data. Data (second camera data) is input. The selector 100 selects and outputs either the right-eye image data or the left-eye image data. The switching control unit 110 performs switching control of the selector 100 for each image data of one frame (for one vertical scan and for one screen) according to a given switching order.

フレームメモリ130には、例えば所与の切替順序に従ってセレクタ100から出力された少なくとも1フレーム分の右目用画像データ及び少なくとも1フレーム分の左目用画像データが格納される。例えば図6(A)に示すように、フレームメモリ130の記憶領域には、右目用画像データ記憶領域RA及び左目用画像データ記憶領域LAがそれぞれ個別に割り当てられる。そして、第1のカメラモジュール40から入力された右目用画像データが、フレームメモリ130の右目用画像データ記憶領域RAに格納される。また第2のカメラモジュール50から入力された左目用画像データが、フレームメモリ130の左目用画像データ記憶領域LAに格納される。そして画像処理コントローラ10は、フレームメモリ130に格納された右目用画像データ及び左目用画像データが合成された合成画像データを表示ドライバに出力する。   The frame memory 130 stores, for example, at least one frame of right-eye image data and at least one frame of left-eye image data output from the selector 100 according to a given switching order. For example, as shown in FIG. 6A, the right-eye image data storage area RA and the left-eye image data storage area LA are individually assigned to the storage areas of the frame memory 130, respectively. The right-eye image data input from the first camera module 40 is stored in the right-eye image data storage area RA of the frame memory 130. The left-eye image data input from the second camera module 50 is stored in the left-eye image data storage area LA of the frame memory 130. Then, the image processing controller 10 outputs composite image data obtained by combining the right-eye image data and the left-eye image data stored in the frame memory 130 to the display driver.

そのため画像処理コントローラ10は、更に、合成処理部140、ドライバインタフェース(InterFace:I/F)(広義には画像データ出力インタフェース)150を含むことができる。合成処理部140は、右目用画像データ及び左目用画像データから合成画像データを生成する。より具体的には、合成処理部140は、フレームメモリ130の右目用画像データ記憶領域RAから右目用画像データを読み出し、フレームメモリ130の左目用画像データ記憶領域LAから左目用画像データを読み出し、右目用画像データ及び左目用画像データを合成して合成画像データを生成する。   Therefore, the image processing controller 10 can further include a composition processing unit 140 and a driver interface (InterFace: I / F) (image data output interface in a broad sense) 150. The composition processing unit 140 generates composite image data from the right-eye image data and the left-eye image data. More specifically, the composition processing unit 140 reads the right-eye image data from the right-eye image data storage area RA of the frame memory 130, reads the left-eye image data from the left-eye image data storage area LA of the frame memory 130, Composite image data is generated by combining the image data for the right eye and the image data for the left eye.

ドライバI/F150は、フレームメモリ130から読み出された右目用画像データ及び左目用画像データに基づいて生成された合成画像データを表示ドライバ30に出力する処理を行う。ドライバI/F150は、画像データのインタフェース処理(表示ドライバとの間の送信処理や、信号のバッファリング)を行い、インタフェース処理後の画像データを表示ドライバに出力する。ドライバI/F150は、所与の読み出し周期でフレームメモリ130に格納された画像データの読み出し制御を行うことができる。   The driver I / F 150 performs processing for outputting the composite image data generated based on the right-eye image data and the left-eye image data read from the frame memory 130 to the display driver 30. The driver I / F 150 performs image data interface processing (transmission processing with the display driver and signal buffering), and outputs the image data after the interface processing to the display driver. The driver I / F 150 can perform read control of image data stored in the frame memory 130 at a given read cycle.

また画像処理コントローラ10は、更に第1のカメラI/F(広義には第1の画像データ入力インタフェース)160、第2のカメラI/F(広義には第2の画像データ入力インタフェース)170を含むことができる。第1のカメラI/F160は、第1のカメラモジュール40のレンズを通して取り込まれた撮像素子の有効画素領域内の画像データが入力される。第1のカメラI/F160は、該画像データのインタフェース処理(カメラモジュールとの間の受信処理や、信号のバッファリング)を行い、インタフェース処理後の画像データを右目用画像データとしてセレクタ100に出力する。第2のカメラI/F170は、第2のカメラモジュール50のレンズを通して取り込まれた撮像素子の有効画素領域内の画像データが入力される。第2のカメラI/F170は、該画像データのインタフェース処理(カメラモジュールとの間の受信処理や、信号のバッファリング)を行い、インタフェース処理後の画像データを左目用画像データとしてセレクタ100に出力する。   The image processing controller 10 further includes a first camera I / F (first image data input interface in a broad sense) 160 and a second camera I / F (second image data input interface in a broad sense) 170. Can be included. The first camera I / F 160 receives image data in the effective pixel area of the image sensor captured through the lens of the first camera module 40. The first camera I / F 160 performs interface processing of the image data (reception processing with the camera module and signal buffering), and outputs the image data after the interface processing to the selector 100 as image data for the right eye. To do. The second camera I / F 170 receives image data in the effective pixel area of the image sensor captured through the lens of the second camera module 50. The second camera I / F 170 performs interface processing of the image data (reception processing with the camera module and signal buffering), and outputs the image data after the interface processing to the selector 100 as left-eye image data. To do.

また図5に示すように画像処理コントローラ10は、画像縮小部190を含むことができる。画像縮小部190は、例えばセレクタ100とフレームメモリ130との間に設けられ、セレクタ100から出力される右目用画像データ及び左目用画像データの画像サイズを縮小させる画像縮小処理を行うことができる。そしてフレームメモリ130には、画像縮小処理後の右目用画像データ及び左目用画像データが格納される。このように画像縮小部190を設けることで、フレームメモリ130に格納される右目用画像データ及び左目用画像データのデータサイズを小さくできるので、フレームメモリ130の小容量化が可能となる。   As shown in FIG. 5, the image processing controller 10 can include an image reduction unit 190. The image reduction unit 190 is provided between the selector 100 and the frame memory 130, for example, and can perform image reduction processing for reducing the image size of the right-eye image data and the left-eye image data output from the selector 100. The frame memory 130 stores right-eye image data and left-eye image data after image reduction processing. By providing the image reduction unit 190 in this way, the data sizes of the right-eye image data and the left-eye image data stored in the frame memory 130 can be reduced, and thus the capacity of the frame memory 130 can be reduced.

更に画像処理コントローラ10は、ホスト60によりアクセスされる制御レジスタ180を有し、制御レジスタ180の設定値に応じて生成される制御信号に基づき制御される。   Further, the image processing controller 10 includes a control register 180 accessed by the host 60 and is controlled based on a control signal generated according to a set value of the control register 180.

このような画像処理コントローラ10において、合成処理部140は、フレームメモリ130に入力される右目用画像データ及び左目用画像データから合成画像データを生成し、該合成画像データをフレームメモリ130に書き込むようにしてもよい。この場合、ドライバI/F150は、フレームメモリ130から読み出された合成画像データを表示ドライバ30に供給する。   In such an image processing controller 10, the composition processing unit 140 generates composite image data from the right-eye image data and the left-eye image data input to the frame memory 130 and writes the composite image data to the frame memory 130. It may be. In this case, the driver I / F 150 supplies the composite image data read from the frame memory 130 to the display driver 30.

図7(A)、図7(B)に本実施形態における合成画像データの説明図を示す。   7A and 7B are explanatory diagrams of the composite image data in the present embodiment.

図7(A)では、1フレーム分の合成画像データに基づいて表示パネル20に表示された画像を模式的に示している。図7(A)では、画像の座標(0,0)を基準に画像の水平方向に右目用画像の画素(座標(1,0))、左目用画像の画素(座標(2,0))、右目用画像の画素(座標(3,0))、・・が並ぶ。各画素は、R成分、G成分、B成分からなる。そして、次の走査ラインも同様に、画像の座標(0,1)を基準に水平方向に右目用画像の画素(座標(1,1))、左目用画像の画素(座標(2,1))、右目用画像の画素(座標(3,1))、・・が並ぶ。   FIG. 7A schematically shows an image displayed on the display panel 20 based on the composite image data for one frame. In FIG. 7A, the pixel of the right eye image (coordinate (1, 0)) and the pixel of the left eye image (coordinate (2, 0)) in the horizontal direction of the image with reference to the image coordinate (0, 0). , Pixels (coordinates (3, 0)) of the right-eye image are arranged. Each pixel includes an R component, a G component, and a B component. Similarly for the next scanning line, the pixel of the right eye image (coordinate (1, 1)) and the pixel of the left eye image (coordinate (2, 1)) in the horizontal direction with reference to the image coordinate (0, 1). ), Right eye image pixels (coordinates (3, 1)),.

合成処理部140は、図7(A)に示すように右目用画像データ及び左目用画像データを順次読み出すことで図7(B)に示すように1画素単位で短冊状に右目用画像及び左目用画像が配置される合成画像を表示するための合成画像データを生成する。   As shown in FIG. 7A, the composition processing unit 140 sequentially reads out the right-eye image data and the left-eye image data, and as shown in FIG. Composite image data for displaying a composite image in which a work image is arranged is generated.

なおフレームメモリ130には、上述のように、所与の切替順序に従ってセレクタ100から出力された右目用画像データ及び左目用画像データが合成された少なくとも1フレーム分の合成画像データが格納されてもよい。この場合、例えば図6(B)に示すように、フレームメモリ130の記憶領域には、合成画像データ記憶領域CAが割り当てられる。そして、第1のカメラモジュール40から入力された右目用画像データ、第2のカメラモジュール50から入力された左目用画像データが、合成処理部140によって図7(A)に示すように合成されて、合成画像データとしてフレームメモリ130の合成画像データ記憶領域CAに格納される。そして画像処理コントローラ10は、フレームメモリ130に格納された合成画像データを表示ドライバに出力する。   As described above, the frame memory 130 may store composite image data for at least one frame obtained by combining the right-eye image data and the left-eye image data output from the selector 100 in accordance with a given switching order. Good. In this case, for example, as shown in FIG. 6B, the composite image data storage area CA is allocated to the storage area of the frame memory 130. Then, the right-eye image data input from the first camera module 40 and the left-eye image data input from the second camera module 50 are combined by the combining processing unit 140 as shown in FIG. 7A. The synthesized image data is stored in the synthesized image data storage area CA of the frame memory 130. Then, the image processing controller 10 outputs the composite image data stored in the frame memory 130 to the display driver.

なお画像縮小部190を含む場合には、画像縮小部190は、合成処理部140によって合成された合成画像データの画像サイズを縮小する画像縮小処理を行う。そしてフレームメモリ130には、画像縮小処理後の合成画像データが格納される。このように画像縮小部190を設けることで、フレームメモリ130に格納される合成画像データのデータサイズを小さくできるので、フレームメモリ130の容量を小さくできる。   If the image reduction unit 190 is included, the image reduction unit 190 performs an image reduction process for reducing the image size of the combined image data combined by the combining processing unit 140. The frame memory 130 stores composite image data after image reduction processing. By providing the image reduction unit 190 in this manner, the data size of the composite image data stored in the frame memory 130 can be reduced, so that the capacity of the frame memory 130 can be reduced.

合成画像データのフォーマットは表示パネル20の立体視の実現方式に応じて決められるため、合成画像データを他の電子機器に送信した場合に立体視を実現できない場合がある。従って、図6(A)の場合、右目用画像データ又は左目用画像データのいずれかを他の電子機器に送信すれば、汎用的に画像データを送信できる。これに対して図6(B)の場合、フレームメモリ130から単純に合成画像データを読み出せばよいため、フレームメモリ130の容量削減の効果と共に、周期的に読み出し制御が行われる表示パネル20の表示制御を簡素化できる効果が得られる。   Since the format of the composite image data is determined according to the method of realizing the stereoscopic view of the display panel 20, there may be a case where the stereoscopic view cannot be realized when the composite image data is transmitted to another electronic device. Therefore, in the case of FIG. 6A, if either the right-eye image data or the left-eye image data is transmitted to another electronic device, the image data can be transmitted for general use. On the other hand, in the case of FIG. 6B, since it is sufficient to simply read the composite image data from the frame memory 130, the effect of reducing the capacity of the frame memory 130 and the display panel 20 that is periodically read-out controlled. An effect of simplifying the display control can be obtained.

2. 画像処理コントローラの詳細な構成例
次に、図5の画像処理コントローラ10の要部の構成例について説明する。
2. Detailed Configuration Example of Image Processing Controller Next, a configuration example of a main part of the image processing controller 10 in FIG. 5 will be described.

2.1 切替制御部
図8に、図5のセレクタ100及び切替制御部110の構成例のブロック図を示す。セレクタ100は、ドットクロックセレクタ102、画像データセレクタ104、垂直同期信号セレクタ106、水平同期信号セレクタ108を含む。ドットクロックセレクタ102は、切替制御部110からの選択信号Selcに基づいて、第1のカメラモジュール40からのドットクロックDCK1、第2のカメラモジュール50からのドットクロックDCK2のいずれかを選択してドットクロックDCKとして出力する。画像データセレクタ104は、切替制御部110からの選択信号Selcに基づいて、第1のカメラモジュール40からの右目用画像データGD1、第2のカメラモジュール50からの左目用画像データGD2のいずれかを選択して画像データGDとして出力する。垂直同期信号セレクタ106は、切替制御部110からの選択信号Selcに基づいて、第1のカメラモジュール40からの垂直同期信号VSYNC1、第2のカメラモジュール50からの垂直同期信号VSYNC2のいずれかを選択して垂直同期信号VSYNCとして出力する。水平同期信号セレクタ108は、切替制御部110からの選択信号Selcに基づいて、第1のカメラモジュール40からの水平同期信号HSYNC1、第2のカメラモジュール50からの水平同期信号HSYNC2のいずれかを選択して水平同期信号HSYNCとして出力する。
2.1 Switching Control Unit FIG. 8 is a block diagram showing a configuration example of the selector 100 and the switching control unit 110 in FIG. The selector 100 includes a dot clock selector 102, an image data selector 104, a vertical synchronization signal selector 106, and a horizontal synchronization signal selector 108. The dot clock selector 102 selects either the dot clock DCK1 from the first camera module 40 or the dot clock DCK2 from the second camera module 50 based on the selection signal Selc from the switching control unit 110 to dot. Output as clock DCK. The image data selector 104 selects either the right-eye image data GD1 from the first camera module 40 or the left-eye image data GD2 from the second camera module 50 based on the selection signal Selc from the switching control unit 110. Select and output as image data GD. The vertical synchronization signal selector 106 selects either the vertical synchronization signal VSYNC1 from the first camera module 40 or the vertical synchronization signal VSYNC2 from the second camera module 50 based on the selection signal Selc from the switching control unit 110. And output as a vertical synchronization signal VSYNC. The horizontal synchronization signal selector 108 selects either the horizontal synchronization signal HSYNC1 from the first camera module 40 or the horizontal synchronization signal HSYNC2 from the second camera module 50 based on the selection signal Selc from the switching control unit 110. And output as a horizontal synchronization signal HSYNC.

切替制御部110は、切替順序決定部112と、切替部114とを含む。切替順序決定部112(広義には切替制御部110)は、右目用画像データ(第1の画像データ)の垂直同期信号VSYNC1及び水平同期信号HSYNC1と左目用画像データ(第2の画像データ)の垂直同期信号VSYNC2及び水平同期信号HSYNC2とに基づいて、セレクタ100に入力される右目用画像データ及び左目用画像データの切替順序を決定し、該切替順序に対応した順序決定信号DesOrdを生成する。より具体的には、切替順序決定部112(広義には切替制御部110)は、右目用画像データ及び左目用画像データの一方の画像データの1フレームの終了タイミングから、右目用画像データ及び左目用画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように切替順序を決定する。切替部114(広義には切替制御部110)は、切替順序決定部112が決定した切替順序に従ってセレクタ100の切替制御を行うための選択信号Selcを生成する。即ち、切替部114は、順序決定信号DesOrdに基づいて選択信号Selcを生成する。   The switching control unit 110 includes a switching order determination unit 112 and a switching unit 114. The switching order determination unit 112 (switching control unit 110 in a broad sense) includes the vertical synchronization signal VSYNC1 and horizontal synchronization signal HSYNC1 of the right-eye image data (first image data) and the left-eye image data (second image data). Based on the vertical synchronization signal VSYNC2 and the horizontal synchronization signal HSYNC2, the switching order of the right-eye image data and the left-eye image data input to the selector 100 is determined, and an order determination signal DesOrd corresponding to the switching order is generated. More specifically, the switching order determination unit 112 (switching control unit 110 in a broad sense) determines the right-eye image data and the left-eye from the end timing of one frame of one of the right-eye image data and the left-eye image data. The switching order is determined so that the period until the start timing of the next one frame of the other image data of the image data for use is minimized. The switching unit 114 (switching control unit 110 in a broad sense) generates a selection signal Selc for performing switching control of the selector 100 in accordance with the switching order determined by the switching order determination unit 112. That is, the switching unit 114 generates the selection signal Selc based on the order determination signal DesOrd.

図9に、図8の切替順序決定部112の構成例のブロック図を示す。   FIG. 9 shows a block diagram of a configuration example of the switching order determination unit 112 in FIG.

切替順序決定部112は、第1及び第2の水平カウンタHCNT1、HCNT2、第1〜第5の比較器CMP1〜CMP5、第1及び第2の計測カウンタMCNT1、MCNT2を含む。   The switching order determination unit 112 includes first and second horizontal counters HCNT1 and HCNT2, first to fifth comparators CMP1 to CMP5, and first and second measurement counters MCNT1 and MCNT2.

第1の水平カウンタHCNT1は、垂直同期信号VSYNC1のアクティブ期間中の水平同期信号HSYNC1のパルス数をカウントする。垂直同期信号VSYNC1のアクティブ期間は、LレベルからHレベルへの立ち上がりタイミングで開始され、HレベルからLレベルへの立ち下がりタイミングで終了する。第1の水平カウンタHCNT1のカウント値は、垂直同期信号VSYNC1の非アクティブ期間において初期化される。第2の水平カウンタHCNT2は、垂直同期信号VSYNC2のアクティブ期間中の水平同期信号HSYNC2のパルス数をカウントする。垂直同期信号VSYNC2のアクティブ期間は、LレベルからHレベルへの立ち上がりタイミングで開始され、HレベルからLレベルへの立ち下がりタイミングで終了する。第2の水平カウンタHCNT2のカウント値は、垂直同期信号VSYNC2の非アクティブ期間において初期化される。   The first horizontal counter HCNT1 counts the number of pulses of the horizontal synchronization signal HSYNC1 during the active period of the vertical synchronization signal VSYNC1. The active period of the vertical synchronization signal VSYNC1 starts at the rising timing from the L level to the H level and ends at the falling timing from the H level to the L level. The count value of the first horizontal counter HCNT1 is initialized during the inactive period of the vertical synchronization signal VSYNC1. The second horizontal counter HCNT2 counts the number of pulses of the horizontal synchronization signal HSYNC2 during the active period of the vertical synchronization signal VSYNC2. The active period of the vertical synchronization signal VSYNC2 starts at the rising timing from the L level to the H level and ends at the falling timing from the H level to the L level. The count value of the second horizontal counter HCNT2 is initialized during the inactive period of the vertical synchronization signal VSYNC2.

切替順序決定部112には、取り込み開始ライン設定レジスタ182から取り込み開始ライン情報、取り込み終了ライン設定レジスタ184から取り込み終了ライン情報が入力される。取り込み開始ライン情報により、取り込み開始ラインが特定される。取り込み終了ライン情報により、取り込み終了ラインが特定される。図5の制御レジスタ180が、取り込み開始ライン設定レジスタ182及び取り込み終了ライン設定レジスタ184を含む。   The switching order determination unit 112 receives the capture start line information from the capture start line setting register 182 and the capture end line information from the capture end line setting register 184. The capture start line is specified by the capture start line information. The capture end line is specified by the capture end line information. The control register 180 of FIG. 5 includes a capture start line setting register 182 and a capture end line setting register 184.

図10に、取り込み開始ライン及び取り込み終了ラインの説明図を示す。   FIG. 10 is an explanatory diagram of the capture start line and the capture end line.

垂直同期信号VSYNC(VSYNC1、VSYNC2)により規定される1垂直走査期間は、複数の水平走査期間を含む。各水平走査期間は、水平同期信号HSYNC(HSYNC1、HSYNC2)により規定され、1走査ライン分の画像データに基づいて表示パネル20のデータ線が駆動される。   One vertical scanning period defined by the vertical synchronization signal VSYNC (VSYNC1, VSYNC2) includes a plurality of horizontal scanning periods. Each horizontal scanning period is defined by a horizontal synchronization signal HSYNC (HSYNC1, HSYNC2), and the data lines of the display panel 20 are driven based on image data for one scanning line.

取り込み開始ラインは、1垂直走査期間が開始された後に、カメラモジュール(第1、第2のカメラモジュール)からの画像データの取り込みが開始される水平走査期間に対応した走査ラインである。一方、取り込み終了ラインは、1垂直走査期間が開始された後に、カメラモジュール(第1、第2のカメラモジュール)からの画像データの取り込みが終了する水平走査期間に対応した走査ラインである。右目用画像及び左目用画像は、取り込み開始ラインから取り込み終了ラインまでの画像データに基づいて生成される。   The capturing start line is a scanning line corresponding to a horizontal scanning period in which capturing of image data from the camera module (first and second camera modules) is started after one vertical scanning period is started. On the other hand, the capturing end line is a scanning line corresponding to a horizontal scanning period in which capturing of image data from the camera module (first and second camera modules) ends after one vertical scanning period is started. The right-eye image and the left-eye image are generated based on image data from the capture start line to the capture end line.

図9において、第1の比較器CMP1は、第1の水平カウンタHCNT1のカウント値と取り込み開始ライン設定レジスタ182に設定された取り込み開始ライン情報とを比較する。そして第1の比較器CMP1は、両者が一致したとき、一致検出パルスを出力する。第2の比較器CMP2は、第1の水平カウンタHCNT1のカウント値と取り込み終了ライン設定レジスタ184に設定された取り込み終了ライン情報とを比較する。そして第2の比較器CMP2は、両者が一致したとき、一致検出パルスを出力する。第3の比較器CMP3は、第2の水平カウンタHCNT2のカウント値と取り込み開始ライン設定レジスタ182に設定された取り込み開始ライン情報とを比較する。そして第3の比較器CMP3は、両者が一致したとき、一致検出パルスを出力する。第4の比較器CMP4は、第2の水平カウンタHCNT2のカウント値と取り込み終了ライン設定レジスタ184に設定された取り込み終了ライン情報とを比較する。そして第4の比較器CMP4は、両者が一致したとき、一致検出パルスを出力する。   In FIG. 9, the first comparator CMP1 compares the count value of the first horizontal counter HCNT1 with the capture start line information set in the capture start line setting register 182. The first comparator CMP1 outputs a coincidence detection pulse when they coincide. The second comparator CMP2 compares the count value of the first horizontal counter HCNT1 with the capture end line information set in the capture end line setting register 184. Then, the second comparator CMP2 outputs a coincidence detection pulse when they coincide. The third comparator CMP3 compares the count value of the second horizontal counter HCNT2 with the capture start line information set in the capture start line setting register 182. Then, the third comparator CMP3 outputs a coincidence detection pulse when they coincide. The fourth comparator CMP4 compares the count value of the second horizontal counter HCNT2 with the capture end line information set in the capture end line setting register 184. Then, the fourth comparator CMP4 outputs a coincidence detection pulse when both coincide.

第1の比較器CMP1からの一致検出パルスは、第1の計測カウンタMCNT1のストップ端子に入力される。第4の比較器CMP4からの一致検出パルスは、第1の計測カウンタMCNT1のスタート端子に入力される。第1の計測カウンタMCNT1は、スタート端子に入力された一致検出パルスをスタートトリガとして、ドットクロックDCKのクロック数のカウントを開始する。また第1の計測カウンタMCNT1は、ストップ端子に入力された一致検出パルスをスタートトリガとして、ドットクロックDCKのクロック数のカウントを停止する。これにより、第1の計測カウンタMCNT1は、右目用画像データに対して、取り込み終了ライン設定レジスタ184に設定された取り込み終了ライン情報により特定される走査ラインの走査タイミングから、取り込み開始ライン設定レジスタ182に設定された、次の垂直走査期間の取り込み開始ライン情報により特定される左目用画像データに基づく走査ラインの走査タイミングまでのドットクロックDCKのクロック数に対応した期間Pd1をカウントできる。   The coincidence detection pulse from the first comparator CMP1 is input to the stop terminal of the first measurement counter MCNT1. The coincidence detection pulse from the fourth comparator CMP4 is input to the start terminal of the first measurement counter MCNT1. The first measurement counter MCNT1 starts counting the number of dot clocks DCK using the coincidence detection pulse input to the start terminal as a start trigger. The first measurement counter MCNT1 stops counting the number of dot clocks DCK using the coincidence detection pulse input to the stop terminal as a start trigger. As a result, the first measurement counter MCNT1 takes the scan start line setting register 182 from the scan timing of the scan line specified by the capture end line information set in the capture end line setting register 184 with respect to the right-eye image data. It is possible to count the period Pd1 corresponding to the number of dot clocks DCK until the scanning timing of the scanning line based on the left-eye image data specified by the capture start line information of the next vertical scanning period.

第2の比較器CMP2からの一致検出パルスは、第2の計測カウンタMCNT2のスタート端子に入力される。第3の比較器CMP3からの一致検出パルスは、第2の計測カウンタMCNT2のストップ端子に入力される。第2の計測カウンタMCNT2は、スタート端子に入力された一致検出パルスをスタートトリガとして、ドットクロックDCKのクロック数のカウントを開始する。また第2の計測カウンタMCNT2は、ストップ端子に入力された一致検出パルスをスタートトリガとして、ドットクロックDCKのクロック数のカウントを停止する。これにより、第2の計測カウンタMCNT2は、左目用画像データに対して、取り込み終了ライン設定レジスタ184に設定された取り込み終了ライン情報により特定される走査ラインの走査タイミングから、取り込み開始ライン設定レジスタ182に設定された、次の垂直走査期間の取り込み開始ライン情報により特定される右目用画像データに基づく走査ラインの走査タイミングまでのドットクロックDCKのクロック数に対応した期間Pd2をカウントできる。   The coincidence detection pulse from the second comparator CMP2 is input to the start terminal of the second measurement counter MCNT2. The coincidence detection pulse from the third comparator CMP3 is input to the stop terminal of the second measurement counter MCNT2. The second measurement counter MCNT2 starts counting the number of dot clocks DCK using the coincidence detection pulse input to the start terminal as a start trigger. The second measurement counter MCNT2 stops counting the number of dot clocks DCK using the coincidence detection pulse input to the stop terminal as a start trigger. As a result, the second measurement counter MCNT2 takes the scan start line setting register 182 from the scan timing of the scan line specified by the capture end line information set in the capture end line setting register 184 for the left eye image data. The period Pd2 corresponding to the number of dot clocks DCK until the scanning timing of the scanning line based on the right-eye image data specified by the acquisition start line information in the next vertical scanning period can be counted.

第5の比較器CMP5は、第1の計測カウンタMCNT1によってカウントされた期間Pd1、第2の計測カウンタMCNT2によってカウントされた期間Pd2を比較する。そして第5の比較器CMP5は、Pd1>Pd2のとき順序決定信号DesOrdをHレベルにして出力し、Pd1<Pd2のとき順序決定信号DesOrdをLレベルにして出力する。なお、Pd=Pd2のとき、順序決定信号DesOrdをHレベル又はLレベルにしてもよい。   The fifth comparator CMP5 compares the period Pd1 counted by the first measurement counter MCNT1 with the period Pd2 counted by the second measurement counter MCNT2. The fifth comparator CMP5 outputs the order determination signal DesOrd at the H level when Pd1> Pd2, and outputs the order determination signal DesOrd at the L level when Pd1 <Pd2. When Pd = Pd2, the order determination signal DesOrd may be set to H level or L level.

図11に、図9の切替順序決定部112の動作例のタイミング図を示す。   FIG. 11 shows a timing chart of an operation example of the switching order determination unit 112 in FIG.

まず、第1のカメラモジュール40からの垂直同期信号VSYNC1の立ち上がりエッジ(変化タイミング)TM1で垂直同期信号VSYNC1がHレベルになると、第1の水平カウンタHCNT1は、第1のカメラモジュール40からの水平同期信号HSYNC1のパルス数をカウントする。そして、第1の比較器CMP1により第1の水平カウンタHCNT1のカウント値と取り込み開始ライン設定レジスタ182の取り込み開始ライン情報とが一致したことが検出されたとき(タイミングTM2)、画像データの1フレームの開始タイミングが検出されたことを示す一致検出パルスが出力される。更に、第2の比較器CMP2により第1の水平カウンタHCNT1のカウント値と取り込み終了ライン設定レジスタ184の取り込み終了ライン情報とが一致したことが検出されたとき(タイミングTM3)、画像データの1フレームの終了タイミングが検出されたことを示す一致検出パルスが出力される。垂直同期信号VSYNC1の立ち上がりエッジTM1以降において、水平同期信号HSYNC1のパルス数が取り込み開始ライン情報に一致してから取り込み終了ライン情報に一致するまでの期間に第1のカメラモジュール40から入力される画像データが、右目用画像データとなる。   First, when the vertical synchronization signal VSYNC1 becomes H level at the rising edge (change timing) TM1 of the vertical synchronization signal VSYNC1 from the first camera module 40, the first horizontal counter HCNT1 receives the horizontal signal from the first camera module 40. The number of pulses of the synchronization signal HSYNC1 is counted. When the first comparator CMP1 detects that the count value of the first horizontal counter HCNT1 matches the capture start line information of the capture start line setting register 182 (timing TM2), one frame of image data A coincidence detection pulse indicating that the start timing is detected is output. Further, when the second comparator CMP2 detects that the count value of the first horizontal counter HCNT1 matches the capture end line information of the capture end line setting register 184 (timing TM3), one frame of image data A coincidence detection pulse indicating that the end timing is detected is output. After the rising edge TM1 of the vertical synchronization signal VSYNC1, an image input from the first camera module 40 during a period from when the number of pulses of the horizontal synchronization signal HSYNC1 coincides with the capture start line information until it coincides with the capture end line information. The data becomes right-eye image data.

同様に、第2のカメラモジュール50からの垂直同期信号VSYNC2の立ち上がりエッジ(変化タイミング)TM10で垂直同期信号VSYNC2がHレベルになると、第2の水平カウンタHCNT2は、第2のカメラモジュール50からの水平同期信号HSYNC2のパルス数をカウントする。そして、第4の比較器CMP4により第2の水平カウンタHCNT2のカウント値と取り込み開始ライン設定レジスタ182の取り込み開始ライン情報とが一致したことが検出されたとき(タイミングTM11)、画像データの1フレームの開始タイミングが検出されたことを示す一致検出パルスが出力される。更に、第3の比較器CMP3により第2の水平カウンタHCNT2のカウント値と取り込み終了ライン設定レジスタ184の取り込み終了ライン情報とが一致したことが検出されたとき(タイミングTM12)、画像データの1フレームの終了タイミングが検出されたことを示す一致検出パルスが出力される。垂直同期信号VSYNC2の立ち上がりエッジTM10以降において、水平同期信号HSYNC2のパルス数が取り込み開始ライン情報に一致してから取り込み終了ライン情報に一致するまでの期間に第2のカメラモジュール50から入力される画像データが、左目用画像データとなる。   Similarly, when the vertical synchronization signal VSYNC2 becomes H level at the rising edge (change timing) TM10 of the vertical synchronization signal VSYNC2 from the second camera module 50, the second horizontal counter HCNT2 is output from the second camera module 50. The number of pulses of the horizontal synchronization signal HSYNC2 is counted. When it is detected by the fourth comparator CMP4 that the count value of the second horizontal counter HCNT2 matches the capture start line information of the capture start line setting register 182 (timing TM11), one frame of image data A coincidence detection pulse indicating that the start timing is detected is output. Further, when the third comparator CMP3 detects that the count value of the second horizontal counter HCNT2 matches the capture end line information of the capture end line setting register 184 (timing TM12), one frame of image data A coincidence detection pulse indicating that the end timing is detected is output. After the rising edge TM10 of the vertical synchronization signal VSYNC2, an image input from the second camera module 50 during a period from when the number of pulses of the horizontal synchronization signal HSYNC2 coincides with the capture start line information until it coincides with the capture end line information. The data is left-eye image data.

そして第1の計測カウンタMCNT1は、第4の比較器CMP4の一致検出パルスが出力されるタイミングTM12から第1の比較器CMP1の一致検出パルスが出力される、次の垂直走査期間におけるタイミングTM2までの期間Pd1を計測する。第2の計測カウンタMCNT2は、第2の比較器CMP2の一致検出パルスが出力されるタイミングTM3から第3の比較器CMP3の一致検出パルスが出力される、次の垂直走査期間におけるタイミングTM11までの期間Pd2を計測する。   The first measurement counter MCNT1 is from timing TM12 at which the coincidence detection pulse of the fourth comparator CMP4 is output to timing TM2 at the next vertical scanning period at which the coincidence detection pulse of the first comparator CMP1 is output. The period Pd1 is measured. The second measurement counter MCNT2 is from the timing TM3 at which the coincidence detection pulse of the second comparator CMP2 is output to the timing TM11 at the next vertical scanning period at which the coincidence detection pulse of the third comparator CMP3 is output. The period Pd2 is measured.

第5の比較器CMP5は、期間Pd1、Pd2を比較し、図11ではPd1<Pd2であるため、順序決定信号DesOrdがLレベルに変化する。   The fifth comparator CMP5 compares the periods Pd1 and Pd2, and since Pd1 <Pd2 in FIG. 11, the order determination signal DesOrd changes to the L level.

このように、切替順序決定部112は、右目用画像データ及び左目用画像データの一方の画像データの1フレームの終了タイミングから、右目用画像データ及び左目用画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように切替順序を決定する。このとき、終了タイミングが、1垂直走査期間を規定する垂直同期信号の変化タイミングを基準に、取り込み終了ライン設定レジスタ184の設定値に対応した期間が経過したタイミングである。また開始タイミングが、該終了タイミングを含む垂直走査期間の次の垂直走査期間における垂直同期信号の変化タイミングを基準に、取り込み開始ライン設定レジスタ182の設定値に対応した期間が経過したタイミングである。   As described above, the switching order determination unit 112 determines the next image data of the right-eye image data and the left-eye image data from the end timing of one frame of the right-eye image data and the left-eye image data. The switching order is determined so that the period until the start timing of one frame is the shortest. At this time, the end timing is a timing at which a period corresponding to the set value of the capture end line setting register 184 has elapsed with reference to the change timing of the vertical synchronization signal defining one vertical scanning period. The start timing is a timing at which a period corresponding to the set value of the capture start line setting register 182 has elapsed with reference to the change timing of the vertical synchronization signal in the vertical scanning period following the vertical scanning period including the end timing.

図12及び図13に、図8の切替制御部110の動作例のフロー図を示す。切替制御部110の機能は、以下のフローで動作する組み合わせ回路等のハードウェアや、図示しないROMに格納されたファームウェアを実行する処理部(プロセッサ等)により実現される。   12 and 13 are flowcharts showing an operation example of the switching control unit 110 shown in FIG. The function of the switching control unit 110 is realized by hardware such as a combinational circuit that operates in the following flow, or a processing unit (processor or the like) that executes firmware stored in a ROM (not shown).

まず、例えば図1のシステムにおいて、図示しない操作入力部からのモード設定により、撮影モードに移行すると、第1及び第2カメラモジュール40、50が起動される。画像処理コントローラ10では、第1及び第2カメラモジュール40、50の起動を検知できるようになっている(ステップS10)。例えば画像処理コントローラ10は、上記の操作入力部からのモード設定を直接検出したり、起動後に第1及び第2のカメラモジュール40、50から入力される画像データ、垂直同期信号、水平同期信号及びドットクロックのいずれかを検出することで、第1及び第2カメラモジュール40、50の起動を検知できる。   First, for example, in the system of FIG. 1, when the mode is changed to a shooting mode by mode setting from an operation input unit (not shown), the first and second camera modules 40 and 50 are activated. The image processing controller 10 can detect activation of the first and second camera modules 40 and 50 (step S10). For example, the image processing controller 10 directly detects the mode setting from the operation input unit described above, or the image data, the vertical synchronization signal, the horizontal synchronization signal, and the image data input from the first and second camera modules 40 and 50 after activation. The activation of the first and second camera modules 40 and 50 can be detected by detecting one of the dot clocks.

その後、切替制御部110の切替順序決定部112は、上述のように期間Pd1、Pd2を計測し(ステップS11)、切替順序を決定する(ステップS12)。   Thereafter, the switching order determination unit 112 of the switching control unit 110 measures the periods Pd1 and Pd2 as described above (step S11), and determines the switching order (step S12).

その後、切替制御部110は、操作入力部からの取り込み開始指示を待つ(ステップS20:N)。この取り込み開始指示は、画像の撮像指示である。そして取り込み開始指示があったとき(ステップS20:Y)、図12のステップS12で決定した順序決定信号DesOrdがHレベルか、Lレベルかを判別する(ステップS21)。   Thereafter, the switching control unit 110 waits for an acquisition start instruction from the operation input unit (step S20: N). This capturing start instruction is an image capturing instruction. Then, when there is an instruction to start capturing (step S20: Y), it is determined whether the order determination signal DesOrd determined in step S12 of FIG. 12 is H level or L level (step S21).

順序決定信号DesOrdがHレベルのとき(ステップS21:Y)、切替制御部110の切替部114は第1のカメラモジュール40を選択するように、図8のセレクタ100の切替制御を行う(ステップS22)。そして切替部114は、第1のカメラモジュール40からの垂直同期信号VSYNC1の開始タイミング及び終了タイミングを検知すると(ステップS23)、第2のカメラモジュール50を選択するように、図8のセレクタ100の切替制御を行う(ステップS24)。垂直同期信号VSYNC1の開始タイミングを検知してから終了タイミングを検知するまで、右目用画像データの取り込みが行われる。その後、切替部114は、第2のカメラモジュール50からの垂直同期信号VSYNC2の開始タイミング及び終了タイミングを検知すると(ステップS25)、一連の処理を終了する(エンド)。なお垂直同期信号VSYNC2の開始タイミングを検知してから終了タイミングを検知するまで、左目用画像データの取り込みが行われる。   When the order determination signal DesOrd is at the H level (step S21: Y), the switching unit 114 of the switching control unit 110 performs switching control of the selector 100 in FIG. 8 so as to select the first camera module 40 (step S22). ). When the switching unit 114 detects the start timing and the end timing of the vertical synchronization signal VSYNC1 from the first camera module 40 (step S23), the switching unit 114 selects the second camera module 50 so that the second camera module 50 is selected. Switching control is performed (step S24). The right-eye image data is captured from when the start timing of the vertical synchronization signal VSYNC1 is detected until the end timing is detected. Thereafter, when the switching unit 114 detects the start timing and end timing of the vertical synchronization signal VSYNC2 from the second camera module 50 (step S25), the series of processing ends (end). Note that the image data for the left eye is captured from when the start timing of the vertical synchronization signal VSYNC2 is detected until the end timing is detected.

ステップS21において、順序決定信号DesOrdがLレベルのとき(ステップS21:N)、切替制御部110の切替部114は第2のカメラモジュール50を選択するように、図8のセレクタ100の切替制御を行う(ステップS26)。そして切替部114は、第2のカメラモジュール50からの垂直同期信号VSYNC2の開始タイミング及び終了タイミングを検知すると(ステップS27)、第1のカメラモジュール40を選択するように、図8のセレクタ100の切替制御を行う(ステップS28)。垂直同期信号VSYNC2の開始タイミングを検知してから終了タイミングを検知するまで、左目用画像データの取り込みが行われる。その後、切替部114は、第1のカメラモジュール40からの垂直同期信号VSYNC1の開始タイミング及び終了タイミングを検知すると(ステップS29)、一連の処理を終了する(エンド)。なお垂直同期信号VSYNC1の開始タイミングを検知してから終了タイミングを検知するまで、右目用画像データの取り込みが行われる。   In step S21, when the order determination signal DesOrd is at the L level (step S21: N), the switching unit 114 of the switching control unit 110 performs the switching control of the selector 100 in FIG. 8 so as to select the second camera module 50. It performs (step S26). Then, when the switching unit 114 detects the start timing and the end timing of the vertical synchronization signal VSYNC2 from the second camera module 50 (step S27), the switching unit 114 selects the first camera module 40 so as to select the first camera module 40. Switching control is performed (step S28). The left-eye image data is captured from the time when the start timing of the vertical synchronization signal VSYNC2 is detected until the end timing is detected. Thereafter, when the switching unit 114 detects the start timing and end timing of the vertical synchronization signal VSYNC1 from the first camera module 40 (step S29), the series of processing ends (end). The right-eye image data is taken in from the detection of the start timing of the vertical synchronization signal VSYNC1 to the detection of the end timing.

このように、切替制御部110は、右目用画像データ及び左目用画像データの一方の画像データの1フレームの終了タイミングから、右目用画像データ及び左目用画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように切替順序を決定する。従って、右目用画像データ及び左目用画像データを合成する場合に、右目用画像データ及び左目用画像データの時間差のずれが小さくなり、高画質な立体画像を表示するための画像データを生成できる。   As described above, the switching control unit 110 determines the next one of the other image data of the right-eye image data and the left-eye image data from the end timing of one image data of the right-eye image data and the left-eye image data. The switching order is determined so that the period until the frame start timing is the shortest. Therefore, when the right-eye image data and the left-eye image data are combined, the time difference between the right-eye image data and the left-eye image data is reduced, and image data for displaying a high-quality stereoscopic image can be generated.

更に、画像縮小部190やフレームメモリ130を共通化できるため、画像処理コントローラ10の低コスト化を図ることができる。   Furthermore, since the image reduction unit 190 and the frame memory 130 can be shared, the cost of the image processing controller 10 can be reduced.

2.2 画像縮小部
次に、図5の画像縮小部190の構成例について説明する。
2.2 Image Reduction Unit Next, a configuration example of the image reduction unit 190 in FIG. 5 will be described.

図14に、図5の画像縮小部190の構成例を示す。この画像縮小部190には、図8のセレクタ100によって選択されたドットクロックDCK、画像データGD、垂直同期信号VSYNC、水平同期信号HSYNCが入力される。   FIG. 14 shows a configuration example of the image reducing unit 190 in FIG. The image reduction unit 190 receives the dot clock DCK, the image data GD, the vertical synchronization signal VSYNC, and the horizontal synchronization signal HSYNC selected by the selector 100 in FIG.

また画像縮小部190には、図5の制御レジスタ180に含まれる水平縮小率設定レジスタに設定された水平縮小率、及び制御レジスタ180に含まれる垂直縮小率設定レジスタに設定された垂直縮小率が入力される。水平縮小率は、画像の水平方向の縮小率であり、0より大きく1以下の小数値である。垂直縮小率は、画像の垂直方向の縮小率であり、0より大きく1以下の小数値である。   Further, the image reduction unit 190 has the horizontal reduction rate set in the horizontal reduction rate setting register included in the control register 180 of FIG. 5 and the vertical reduction rate set in the vertical reduction rate setting register included in the control register 180. Entered. The horizontal reduction ratio is a reduction ratio in the horizontal direction of the image, and is a decimal value greater than 0 and less than or equal to 1. The vertical reduction ratio is a reduction ratio in the vertical direction of the image, and is a decimal value greater than 0 and less than or equal to 1.

画像縮小部190は、水平縮小率に応じて水平方向に並ぶ画素を間引くことで、水平方向にサイズを縮小した画像の画像データを生成する。また画像縮小部190は、垂直縮小率に応じて垂直方向に並ぶ画素を間引くことで、垂直方向にサイズを縮小した画像の画像データを生成する。このような画像縮小部190は、水平方向間引き回路362、垂直方向間引き回路364、タイミング調整回路368、出力間引き回路370を含む。1水平走査期間には、ドットクロックDCKに同期して各画素の画像データGDが画像縮小部190に順次入力される。   The image reduction unit 190 generates image data of an image whose size is reduced in the horizontal direction by thinning out pixels arranged in the horizontal direction according to the horizontal reduction rate. The image reduction unit 190 generates image data of an image whose size is reduced in the vertical direction by thinning out pixels arranged in the vertical direction according to the vertical reduction rate. The image reducing unit 190 includes a horizontal direction thinning circuit 362, a vertical direction thinning circuit 364, a timing adjustment circuit 368, and an output thinning circuit 370. In one horizontal scanning period, the image data GD of each pixel is sequentially input to the image reduction unit 190 in synchronization with the dot clock DCK.

図14において、水平方向間引き回路362は、水平同期信号により規定される1水平走査期間内に、水平縮小率に対応した期間だけHレベルとなる水平方向ライトリクエストWRqhを生成する。また垂直方向間引き回路364は、垂直同期信号により規定される1垂直走査期間内に、垂直縮小率に対応した期間だけHレベルとなる垂直方向ライトリクエストWRqvを生成する。出力間引き回路370への間引き制御信号は、水平方向ライトリクエストWRqhと垂直方向ライトリクエストWRqvとの論理積演算により生成される。   In FIG. 14, the horizontal direction thinning circuit 362 generates a horizontal direction write request WRqh that becomes H level only during a period corresponding to the horizontal reduction ratio within one horizontal scanning period defined by the horizontal synchronization signal. Further, the vertical direction thinning circuit 364 generates a vertical direction write request WRqv that becomes H level only during a period corresponding to the vertical reduction ratio within one vertical scanning period defined by the vertical synchronization signal. A thinning control signal to the output thinning circuit 370 is generated by a logical product operation of the horizontal direction write request WRqh and the vertical direction write request WRqv.

タイミング調整回路368は、データラッチにより構成される。タイミング調整回路368は、ドットクロックDCKに同期して画像データをラッチし、タイミング調整されたデータを出力間引き回路370に出力する。   The timing adjustment circuit 368 includes a data latch. The timing adjustment circuit 368 latches image data in synchronization with the dot clock DCK, and outputs the timing-adjusted data to the output thinning circuit 370.

図15に、水平方向間引き回路362の構成例のブロック図を示す。   FIG. 15 is a block diagram showing a configuration example of the horizontal direction thinning circuit 362.

水平方向間引き回路362の各部は、ドットクロックDCKに同期して動作する。   Each part of the horizontal direction thinning circuit 362 operates in synchronization with the dot clock DCK.

減算器SUBは、入力Yから水平縮小率Nhを減算して小数値として求めた出力Z1を出力する。減算器SUBは、水平同期信号HSYNCの立ち上がり検出信号に同期して出力Z1を0に初期化する。   The subtracter SUB outputs an output Z1 obtained by subtracting the horizontal reduction ratio Nh from the input Y and obtained as a decimal value. The subtractor SUB initializes the output Z1 to 0 in synchronization with the rising detection signal of the horizontal synchronization signal HSYNC.

ラッチLAT1は、減算器SUBの出力Z1をラッチする。ラッチLAT1の出力Z2は、セレクタSELと加算器ADDに出力される。   The latch LAT1 latches the output Z1 of the subtracter SUB. The output Z2 of the latch LAT1 is output to the selector SEL and the adder ADD.

加算器ADDは、ラッチLAT1の出力Z2に1を加算して小数値として求めた出力Xを出力する。加算器ADDの出力Xは、セレクタSELに出力される。   The adder ADD adds 1 to the output Z2 of the latch LAT1 and outputs the output X obtained as a decimal value. The output X of the adder ADD is output to the selector SEL.

比較器CMPHは、減算器SUBの出力Z1と水平縮小率Nhとを比較する。より具体的には、比較器CMPHは、水平縮小率Nhが減算器SUBの出力Z1より小さく、且つ減算器SUBの出力Z1が0以上のとき、水平方向ライトリクエストWRqhをHレベルとし、それ以外のとき、水平方向ライトリクエストWRqhをLレベルとする。   The comparator CMPH compares the output Z1 of the subtracter SUB with the horizontal reduction ratio Nh. More specifically, the comparator CMPH sets the horizontal write request WRqh to the H level when the horizontal reduction ratio Nh is smaller than the output Z1 of the subtractor SUB and the output Z1 of the subtractor SUB is 0 or more. At this time, the horizontal direction write request WRqh is set to the L level.

比較器CMPHの出力は、ラッチLAT2にも供給される。このラッチLAT2の出力は、セレクタSELの切り替え制御信号となる。ラッチLAT2の出力が1(Hレベル)のときセレクタSELは加算器ADDの出力Xを出力し、ラッチLAT2の出力が0(Lレベル)のときセレクタSELはラッチLAT1の出力Z2を出力する。   The output of the comparator CMPH is also supplied to the latch LAT2. The output of the latch LAT2 serves as a switching control signal for the selector SEL. When the output of the latch LAT2 is 1 (H level), the selector SEL outputs the output X of the adder ADD, and when the output of the latch LAT2 is 0 (L level), the selector SEL outputs the output Z2 of the latch LAT1.

図16に、水平縮小率Nhの説明図を示す。   FIG. 16 is an explanatory diagram of the horizontal reduction ratio Nh.

水平方向間引き回路362の精度を8ビットとしたとき、水平縮小率Nhは、MSBを整数データ、残りを小数点以下のデータとして表すことができる。例えば水平縮小率Nhを1とすると、「10000000」となる。   When the accuracy of the horizontal direction thinning circuit 362 is 8 bits, the horizontal reduction ratio Nh can be expressed as MSB as integer data and the rest as data after the decimal point. For example, when the horizontal reduction ratio Nh is 1, “10000000” is obtained.

以下では、水平縮小率Nhを0.781として、図15に示す水平方向間引き回路362の動作の一例を説明する。水平縮小率Nhが0.781のとき、0.781=1/2+1/4+1/32と近似でき、8ビットのデータ「01100100」と表すことができる。   Hereinafter, an example of the operation of the horizontal direction thinning circuit 362 shown in FIG. 15 will be described assuming that the horizontal reduction ratio Nh is 0.781. When the horizontal reduction ratio Nh is 0.781, it can be approximated as 0.781 = 1/2 + 1/4 + 1/32, and can be expressed as 8-bit data “01100100”.

図17に、図15の水平方向間引き回路362の動作例のタイミング図を示す。   FIG. 17 shows a timing chart of an operation example of the horizontal direction thinning circuit 362 in FIG.

時刻t1において水平同期信号HSYNCがLレベルからHレベルに変化すると、減算器SUBの出力Z1が0に初期化される。このとき水平縮小率Nh(=0.781)は減算器SUBの出力Z1(=0)より大きいため、比較器CMPHの出力WRqhは1(Hレベル)となる。   When the horizontal synchronization signal HSYNC changes from the L level to the H level at time t1, the output Z1 of the subtractor SUB is initialized to 0. At this time, since the horizontal reduction ratio Nh (= 0.781) is larger than the output Z1 (= 0) of the subtractor SUB, the output WRqh of the comparator CMPH becomes 1 (H level).

次のドットクロックDCKの立ち下がり時刻t2で、ラッチLAT2の出力が1(Hレベル)となる。このとき、ラッチLAT1は、減算器SUBの出力Z1を取り込んで出力Z2として出力している。加算器ADDの出力Xは1である。ラッチLAT2の出力が1であるため、セレクタSELの出力Yは、加算器ADDの出力X(=1)となる。従って、減算器SUBの出力Z1は、0.219(=1−0.781)となる。このとき、水平縮小率Nh(=0.781)は、出力Z1より大きいため、比較器CMPHの出力WRqhは1(Hレベル)のままである。   At the next falling time t2 of the dot clock DCK, the output of the latch LAT2 becomes 1 (H level). At this time, the latch LAT1 takes in the output Z1 of the subtracter SUB and outputs it as an output Z2. The output X of the adder ADD is 1. Since the output of the latch LAT2 is 1, the output Y of the selector SEL is the output X (= 1) of the adder ADD. Therefore, the output Z1 of the subtracter SUB is 0.219 (= 1−0.781). At this time, since the horizontal reduction ratio Nh (= 0.781) is larger than the output Z1, the output WRqh of the comparator CMPH remains 1 (H level).

同様にして、次のドットクロックDCKの立ち下がり時刻t3が経過したときも、加算器ADDの出力Xが1.219となり、減算器SUBの出力Z1は、0.438(=1.219−0.781)となる。このとき、水平縮小率Nh(=0.781)は、出力Z1より大きいため、比較器CMPHの出力WRqhは1(Hレベル)のままである。   Similarly, when the next falling time t3 of the dot clock DCK elapses, the output X of the adder ADD becomes 1.219, and the output Z1 of the subtractor SUB becomes 0.438 (= 1.219-0). .781). At this time, since the horizontal reduction ratio Nh (= 0.781) is larger than the output Z1, the output WRqh of the comparator CMPH remains 1 (H level).

また、次のドットクロックDCKの立ち下がり時刻t4が経過したときも、減算器SUBの出力Z1は、0.657(=1.438−0.781)となる。このとき、水平縮小率Nh(=0.781)は、出力Z1より大きいため、比較器CMPHの出力WRqhは1(Hレベル)のままである。   Also, when the falling time t4 of the next dot clock DCK elapses, the output Z1 of the subtracter SUB is 0.657 (= 1.438−0.781). At this time, since the horizontal reduction ratio Nh (= 0.781) is larger than the output Z1, the output WRqh of the comparator CMPH remains 1 (H level).

そして、次のドットクロックDCKの立ち下がり時刻t5が経過したとき、減算器SUBの出力Z1は、0.876(=1.657−0.781)となる。このとき、水平縮小率Nh(=0.781)は、出力Z1より小さくなるため、比較器CMPHの出力WRqhは0(Lレベル)に変化する。   When the next falling time t5 of the dot clock DCK elapses, the output Z1 of the subtracter SUB becomes 0.876 (= 1.657−0.781). At this time, since the horizontal reduction ratio Nh (= 0.781) is smaller than the output Z1, the output WRqh of the comparator CMPH changes to 0 (L level).

そして、次のドットクロックDCKの立ち下がり時刻t6が経過したとき、ラッチLAT2の出力が0(Lレベル)となる。このとき、ラッチLAT1は、減算器SUBの出力Z1を取り込んで出力Z2として出力している。加算器ADDの出力Xは、1.876である。ラッチLAT2の出力が0であるため、セレクタSELの出力Yは、ラッチLAT1の出力Z2(=0.876)となる。従って、減算器SUBの出力Z1は、0.095(=0.876−0.781)となる。このとき、水平縮小率Nh(=0.781)は、出力Z1より大きいため、比較器CMPHの出力WRqhは1(Hレベル)に再び変化する。   When the next falling time t6 of the dot clock DCK elapses, the output of the latch LAT2 becomes 0 (L level). At this time, the latch LAT1 takes in the output Z1 of the subtracter SUB and outputs it as an output Z2. The output X of the adder ADD is 1.876. Since the output of the latch LAT2 is 0, the output Y of the selector SEL is the output Z2 (= 0.7676) of the latch LAT1. Therefore, the output Z1 of the subtracter SUB is 0.095 (= 0.786−0.781). At this time, since the horizontal reduction ratio Nh (= 0.781) is larger than the output Z1, the output WRqh of the comparator CMPH changes to 1 (H level) again.

同様にして、時刻t7において比較器CMPHの出力WRqhは0(Lレベル)に変化し、時刻t8において比較器CMPHの出力WRqhが1(Hレベル)に変化する。   Similarly, output WRqh of comparator CMPH changes to 0 (L level) at time t7, and output WRqh of comparator CMPH changes to 1 (H level) at time t8.

このように水平縮小率Nh(=0.781)に対応した期間、比較器CMPHの出力WRqhをHレベルにすることができる。   In this manner, the output WRqh of the comparator CMPH can be set to the H level for a period corresponding to the horizontal reduction ratio Nh (= 0.781).

ここまで図14の水平方向間引き回路362の構成及び動作について説明したが、図14の垂直方向間引き回路364も同様である。垂直方向間引き回路364の各部が、水平同期信号HSYNCを基準に動作し、減算器が垂直同期信号VSYNCの立ち上がりで初期化され、垂直縮小率Nvが入力される点が異なるのみで、垂直方向間引き回路364も同様に実現できるため、その説明を省略する。   The configuration and operation of the horizontal direction thinning circuit 362 shown in FIG. 14 have been described so far, but the same applies to the vertical direction thinning circuit 364 shown in FIG. Each part of the vertical direction thinning circuit 364 operates on the basis of the horizontal synchronization signal HSYNC, the subtractor is initialized at the rising edge of the vertical synchronization signal VSYNC, and the vertical reduction rate Nv is input, except that the vertical direction thinning is performed. Since the circuit 364 can be similarly realized, the description thereof is omitted.

画像データの画像の水平方向に沿って該画像の垂直方向の順序で各画素の画像データが順次画像縮小部190に供給される場合、図14の出力間引き回路370は、上述のように生成された水平方向ライトリクエストWRqh及び垂直方向ライトリクエストWRqvがHレベルとなる画素の画像データのみを出力する。   When the image data of each pixel is sequentially supplied to the image reduction unit 190 in the order of the vertical direction of the image along the horizontal direction of the image data, the output thinning circuit 370 of FIG. 14 is generated as described above. Only the image data of the pixels for which the horizontal write request WRqh and the vertical write request WRqv are at the H level are output.

ここでは、画像縮小部190が、セレクタ100からの画像データGD(即ち、右目用画像データ及び左目用画像データ)に対して画像縮小処理を行うものとして説明したが、右目用画像データ及び左目用画像データを合成した合成画像データに対して画像縮小処理を行うものであってもよい。   Here, the image reduction unit 190 has been described as performing image reduction processing on the image data GD from the selector 100 (that is, image data for the right eye and image data for the left eye). An image reduction process may be performed on the combined image data obtained by combining the image data.

このように、画像縮小処理後の右目用画像データ及び左目用画像データ、或いは画像縮小処理後の合成画像データをフレームメモリ130に格納するようにすることで、フレームメモリ130の容量を小さくできるようになる。   As described above, by storing the right-eye image data and the left-eye image data after the image reduction processing, or the composite image data after the image reduction processing in the frame memory 130, the capacity of the frame memory 130 can be reduced. become.

3. 変形例における画像処理コントローラ
本実施形態の画像処理コントローラ10は、図5に示す構成に限定されるものではない。本実施形態の変形例における画像処理コントローラは、更に画像補正部を含むことができる。
3. Image Processing Controller in Modification Example The image processing controller 10 of the present embodiment is not limited to the configuration shown in FIG. The image processing controller in the modification of the present embodiment can further include an image correction unit.

図18に、本変形例における画像処理コントローラの構成例のブロック図を示す。図18において、図5と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 18 shows a block diagram of a configuration example of the image processing controller in the present modification. In FIG. 18, the same parts as those in FIG.

本変形例における画像処理コントローラ400が、本実施形態の画像処理コントローラ10と異なる点は、セレクタ100と画像縮小部190の間に画像補正部410が設けられている点である。この画像補正部410は、右目用画像データ及び左目用画像データの少なくとも一方のシェーディング処理、又はその周囲の画素データにより補間される欠陥画素の補間処理を行う。即ち、画像補正部410が、セレクタ100から出力された右目用画像データ又は左目用画像データに対してシェーディング処理又は補間処理を行う。   The image processing controller 400 in the present modification is different from the image processing controller 10 of the present embodiment in that an image correction unit 410 is provided between the selector 100 and the image reduction unit 190. The image correction unit 410 performs shading processing of at least one of right-eye image data and left-eye image data or interpolation processing of defective pixels interpolated by surrounding pixel data. That is, the image correction unit 410 performs a shading process or an interpolation process on the right-eye image data or the left-eye image data output from the selector 100.

シェーディング処理は、各カメラモジュールのレンズの中心部の光量が該レンズの周辺部の光量と異なるため、画像内での光量の変化を補正する処理である。補間処理は、欠陥画素を周囲の画素の画像データで補間する処理である。   The shading process is a process for correcting a change in the amount of light in the image because the amount of light at the center of the lens of each camera module is different from the amount of light at the periphery of the lens. Interpolation processing is processing for interpolating defective pixels with image data of surrounding pixels.

この結果、フレームメモリ130には、シェーディング処理又は補間処理後の右目用画像データ及び左目用画像データが格納される。なおフレームメモリ130に、シェーディング処理又は補間処理後の右目用画像データ及び左目用画像データが合成された合成画像データが格納されてもよい。   As a result, the frame memory 130 stores the right-eye image data and the left-eye image data after the shading process or the interpolation process. The frame memory 130 may store composite image data obtained by combining the right-eye image data and the left-eye image data after the shading process or the interpolation process.

4. 電子機器
図19に、本実施形態又は本変形例における画像処理コントローラが表示コントローラとして適用される電子機器の構成例のブロック図を示す。ここでは、電子機器として、携帯電話機の構成例のブロック図を示す。
4). Electronic Device FIG. 19 shows a block diagram of a configuration example of an electronic device to which the image processing controller according to the present embodiment or the modification is applied as a display controller. Here, a block diagram of a configuration example of a mobile phone is shown as an electronic device.

携帯電話機600は、第1及び第2のカメラモジュール610、612を含む。第1及び第2のカメラモジュール610、612は、図1の第1及び第2のカメラモジュール40、50に相当し、撮像した画像のデータを表示コントローラ620に供給する。   The mobile phone 600 includes first and second camera modules 610 and 612. The first and second camera modules 610 and 612 correspond to the first and second camera modules 40 and 50 in FIG. 1, and supply captured image data to the display controller 620.

携帯電話機600は、図1の表示パネル20に相当する表示パネル630を含む。表示パネル630として、LCDパネルを採用できる。この場合、表示パネル630は、図1の表示ドライバ30に相当する表示ドライバ640によって駆動される。表示パネル630は、複数の走査線、複数のデータ線、複数の画素を含む。表示ドライバ640は、複数の走査線の1又は複数本単位で走査線を選択する走査ドライバの機能を有すると共に、画像データに対応した電圧を複数のデータ線に供給するデータドライバの機能を有する。   The mobile phone 600 includes a display panel 630 corresponding to the display panel 20 of FIG. An LCD panel can be used as the display panel 630. In this case, the display panel 630 is driven by a display driver 640 corresponding to the display driver 30 of FIG. The display panel 630 includes a plurality of scanning lines, a plurality of data lines, and a plurality of pixels. The display driver 640 has a function of a scanning driver that selects a scanning line in units of one or a plurality of scanning lines, and also has a function of a data driver that supplies a voltage corresponding to image data to the plurality of data lines.

表示コントローラ620は、表示ドライバ640に接続され、表示ドライバ640に対して画像データを供給する。   The display controller 620 is connected to the display driver 640 and supplies image data to the display driver 640.

ホスト650は、表示コントローラ620に接続される。ホスト650は、図1のホスト60に相当し、ホスト650は、表示コントローラ620を制御する。またホスト650は、アンテナ660を介して受信された画像データを、変復調部670で復調した後、表示コントローラ620に対して供給できる。表示コントローラ620は、この画像データに基づき、表示ドライバ640により表示パネル630に画像を表示させる。   The host 650 is connected to the display controller 620. The host 650 corresponds to the host 60 in FIG. 1, and the host 650 controls the display controller 620. Further, the host 650 can supply image data received via the antenna 660 to the display controller 620 after demodulating by the modem 670. Based on the image data, the display controller 620 causes the display driver 640 to display an image on the display panel 630.

ホスト650は、第1及び第2のカメラモジュール610、612で生成された画像データ又は該画像データを圧縮処理した圧縮データを変復調部670で変調した後、アンテナ660を介して他の通信装置への送信を指示できる。   The host 650 modulates the image data generated by the first and second camera modules 610 and 612 or the compressed data obtained by compressing the image data by the modulation / demodulation unit 670, and then transmits it to another communication device via the antenna 660. Can be sent.

ホスト650は、操作入力部680からの操作情報に基づいて画像データの送受信処理、第1及び第2のカメラモジュール610、612の撮像、表示パネルの表示処理を行う。   The host 650 performs image data transmission / reception processing, imaging of the first and second camera modules 610 and 612, and display panel display processing based on operation information from the operation input unit 680.

従って、図19に示す携帯電話機600(広義には電子機器)は、表示パネル630と、本実施形態における表示コントローラ620と、表示コントローラ620によって供給される画像データに基づいて表示パネル630を駆動する表示ドライバ640とを含むことができる。更に、携帯電話機600は、表示コントローラ620との間で画像データの入出力を行うホスト650を含むことができる。   Accordingly, the mobile phone 600 (electronic device in a broad sense) shown in FIG. 19 drives the display panel 630 based on the display panel 630, the display controller 620 in the present embodiment, and the image data supplied by the display controller 620. A display driver 640. Furthermore, the mobile phone 600 can include a host 650 that inputs and outputs image data to and from the display controller 620.

この携帯電話機600によれば、第1及び第2のカメラモジュール610、612から取り込まれる画像データを用いて、低コスト且つ高画質で立体画像に適した画像データを生成できる。   According to the cellular phone 600, it is possible to generate image data suitable for a stereoscopic image with low cost and high image quality using image data captured from the first and second camera modules 610 and 612.

なお、図19では、表示パネル630としてLCDパネルを例に説明したが、これに限定されるものではない。表示パネル630は、エレクトロクミネッセンス、プラズマディスプレイ装置であってもよく、これらを駆動する表示ドライバに画像データを供給する表示コントローラに適用できる。   In FIG. 19, the LCD panel is described as an example of the display panel 630, but the present invention is not limited to this. The display panel 630 may be an electroluminescence or plasma display device, and can be applied to a display controller that supplies image data to a display driver that drives them.

また本実施形態又は本変形例では、第1及び第2のカメラモジュールで取り込まれた画像データを右目用画像データ及び左目用画像データとして用いて立体画像の画像データを生成するものとして説明したが、これに限定されるものではない。例えば、第1及び第2のカメラモジュールで取り込まれた画像データをそのまま水平方向につないでパノラマ画像の画像データを生成するものであってもよい。   In the present embodiment or the modification, the image data captured by the first and second camera modules is used as the right-eye image data and the left-eye image data to generate the image data of the stereoscopic image. However, the present invention is not limited to this. For example, the image data captured by the first and second camera modules may be directly connected in the horizontal direction to generate panoramic image data.

なお、本発明は上述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。また図1、図2、図5、図8、図9、図14、図15、図18、図19の各図において、すべてのブロックを含める必要はなく、その一部のブロックを省略する構成にしてもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist of the present invention. In addition, in each of FIGS. 1, 2, 5, 8, 8, 9, 14, 15, 18, and 19, it is not necessary to include all the blocks, and some of the blocks are omitted. It may be.

また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

本実施形態の画像処理コントローラが適用されたシステムの構成例の図。1 is a diagram illustrating a configuration example of a system to which an image processing controller according to an embodiment is applied. 図1の第1のカメラモジュールの構成例のブロック図。The block diagram of the structural example of the 1st camera module of FIG. 図2のタイミング発生回路によって生成されるタイミング信号と画素データとの関係を示す図。The figure which shows the relationship between the timing signal produced | generated by the timing generation circuit of FIG. 2, and pixel data. 視差バリア方式の原理の説明図。Explanatory drawing of the principle of a parallax barrier system. 図1の画像処理コントローラの構成例のブロック図。FIG. 2 is a block diagram of a configuration example of an image processing controller in FIG. 1. 図6(A)、図6(B)はフレームメモリの説明図。6A and 6B are explanatory diagrams of a frame memory. 図7(A)、図7(B)は本実施形態における合成画像データの説明図。FIG. 7A and FIG. 7B are explanatory diagrams of composite image data in the present embodiment. 図5のセレクタ及び切替制御部の構成例のブロック図。FIG. 6 is a block diagram of a configuration example of a selector and a switching control unit in FIG. 5. 図8の切替順序決定部の構成例のブロック図。The block diagram of the structural example of the switching order determination part of FIG. 本実施形態の取り込み開始ライン及び取り込み終了ラインの説明図。Explanatory drawing of the acquisition start line and acquisition end line of this embodiment. 図9の切替順序決定部の動作例のタイミング図。The timing diagram of the operation example of the switching order determination part of FIG. 図8の切替制御部の動作例のフロー図。The flowchart of the operation example of the switching control part of FIG. 図8の切替制御部の動作例のフロー図。The flowchart of the operation example of the switching control part of FIG. 図5の画像縮小部の構成例を示す図。The figure which shows the structural example of the image reduction part of FIG. 水平方向間引き回路の構成例のブロック図。The block diagram of the structural example of a horizontal direction thinning circuit. 水平縮小率の説明図。Explanatory drawing of a horizontal reduction rate. 図15の水平方向間引き回路の動作例のタイミング図。FIG. 16 is a timing diagram of an operation example of the horizontal direction thinning circuit in FIG. 15. 本変形例における画像処理コントローラの構成例のブロック図。The block diagram of the structural example of the image processing controller in this modification. 本実施形態又は本変形例における画像処理コントローラが表示コントローラとして適用される電子機器の構成例のブロック図。The block diagram of the structural example of the electronic device to which the image processing controller in this embodiment or this modification is applied as a display controller.

符号の説明Explanation of symbols

10 画像処理コントローラ、 30 表示ドライバ、
40 第1のカメラモジュール、 50 第2のカメラモジュール、
100 セレクタ、 102 ドットクロックセレクタ、
104 画像データセレクタ、 106 垂直同期信号セレクタ、
108 水平同期信号セレクタ、 110 切替制御部、 112 切替順序決定部、
114 切替部、 130 フレームメモリ、 140 合成処理部、
150 ドライバI/F、 160 第1のカメラI/F、
170 第2のカメラI/F、 180 制御レジスタ、 190 画像縮小部
10 image processing controller, 30 display driver,
40 first camera module, 50 second camera module,
100 selector, 102 dot clock selector,
104 image data selector, 106 vertical sync signal selector,
108 horizontal synchronization signal selector, 110 switching control unit, 112 switching order determining unit,
114 switching unit, 130 frame memory, 140 synthesis processing unit,
150 driver I / F, 160 first camera I / F,
170 Second camera I / F, 180 control register, 190 image reduction unit

Claims (11)

電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理コントローラであって、
互いに非同期で入力された第1及び第2の画像データのいずれかを選択して出力するセレクタと、
所与の切替順序に従って1フレームの画像データ毎に前記セレクタの切替制御を行う切替制御部と、
前記切替順序に従って前記セレクタから出力された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って前記セレクタから出力された前記第1及び第2の画像データが合成された1フレーム分の合成画像データが格納されるフレームメモリとを含み、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給することを特徴とする画像処理コントローラ。
An image processing controller for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
A selector that selects and outputs one of the first and second image data input asynchronously with each other;
A switching control unit that performs switching control of the selector for each frame of image data according to a given switching order;
One frame of the first and second image data for one frame output from the selector in accordance with the switching order, or one frame in which the first and second image data output from the selector in accordance with the switching order are combined A frame memory for storing the composite image data for
An image processing controller for supplying the driving device with synthesized image data obtained by synthesizing the first and second image data stored in the frame memory, or synthesized image data stored in the frame memory. .
請求項1において、
前記切替制御部が、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定し、該切替順序に従って前記セレクタの切替制御を行うことを特徴とする画像処理コントローラ。
In claim 1,
The switching control unit is
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. An image processing controller, wherein the switching order is determined so that the selector is switched according to the switching order.
電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理コントローラであって、
互いに非同期で入力された第1及び第2の画像データのいずれかを、所与の切替順序に従って1フレームの画像データ毎に切替制御を行う切替制御部と、
前記切替順序に従って選択された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って選択された前記第1及び第2の画像データが合成された1フレーム分の合成画像データが格納されるフレームメモリとを含み、
前記切替制御部が、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定し、該切替順序に従って切替制御を行い、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給することを特徴とする画像処理コントローラ。
An image processing controller for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
A switching control unit that performs switching control for each image data of one frame in accordance with a given switching order for any of the first and second image data input asynchronously with each other;
One frame of the first and second image data selected according to the switching order, or one frame of combined image data obtained by combining the first and second image data selected according to the switching order. Frame memory to be stored,
The switching control unit is
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. The switching order is determined so that the switching order is controlled according to the switching order,
An image processing controller for supplying the driving device with synthesized image data obtained by synthesizing the first and second image data stored in the frame memory, or synthesized image data stored in the frame memory. .
請求項1乃至3のいずれかにおいて、
前記切替制御部が、
前記第1の画像データの垂直同期信号及び水平同期信号と前記第2の画像データの垂直同期信号及び水平同期信号とに基づいて前記切替順序を決定することを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 3,
The switching control unit is
An image processing controller, wherein the switching order is determined based on a vertical synchronization signal and a horizontal synchronization signal of the first image data and a vertical synchronization signal and a horizontal synchronization signal of the second image data.
請求項4において、
1垂直走査期間内の取り込み開始ラインを指定するための取り込み開始ライン設定レジスタと、
1垂直走査期間内の取り込み終了ラインを指定するための取り込み終了ライン設定レジスタとを含み、
前記終了タイミングが、1垂直走査期間を規定する垂直同期信号の変化タイミングを基準に、前記取り込み終了ライン設定レジスタの設定値に対応した期間が経過したタイミングであり、
前記開始タイミングが、前記終了タイミングを含む垂直走査期間の次の垂直走査期間における前記垂直同期信号の変化タイミングを基準に、前記取り込み開始ライン設定レジスタの設定値に対応した期間が経過したタイミングであることを特徴とする画像処理コントローラ。
In claim 4,
An acquisition start line setting register for designating an acquisition start line within one vertical scanning period;
An acquisition end line setting register for designating an acquisition end line within one vertical scanning period,
The end timing is a timing at which a period corresponding to a setting value of the capture end line setting register has elapsed with reference to a change timing of a vertical synchronization signal defining one vertical scanning period;
The start timing is a timing at which a period corresponding to a set value of the capture start line setting register has elapsed with reference to a change timing of the vertical synchronization signal in a vertical scanning period subsequent to a vertical scanning period including the end timing. An image processing controller characterized by that.
請求項1乃至5のいずれかにおいて、
前記第1及び第2の画像データの少なくとも一方のシェーディング処理、又はその周囲の画素データにより補間される欠陥画素の補間処理を行う画像補正部を含み、
前記画像補正部が、
選択された前記第1又は第2の画像データに対して前記シェーディング処理又は前記補間処理を行い、
前記フレームメモリには、前記シェーディング処理又は前記補間処理後の前記第1及び第2の画像データ、又は前記シェーディング処理又は前記補間処理後の第1及び第2の画像データが合成された前記合成画像データが格納されることを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 5,
An image correction unit that performs a shading process of at least one of the first and second image data, or an interpolation process of defective pixels interpolated by surrounding pixel data;
The image correction unit is
Performing the shading process or the interpolation process on the selected first or second image data;
In the frame memory, the first and second image data after the shading process or the interpolation process, or the synthesized image in which the first and second image data after the shading process or the interpolation process are combined. An image processing controller in which data is stored.
請求項1乃至6のいずれかにおいて、
前記第1及び第2の画像データ、又は前記合成画像データの画像サイズを縮小する画像縮小処理を行う画像縮小部を含み、
前記フレームメモリには、前記画像縮小処理後の前記第1及び第2の画像データ、又は前記画像縮小処理後の前記合成画像データが格納されることを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 6.
An image reduction unit that performs an image reduction process for reducing the image size of the first and second image data or the composite image data;
The image processing controller according to claim 1, wherein the frame memory stores the first and second image data after the image reduction processing or the composite image data after the image reduction processing.
請求項1乃至7のいずれかにおいて、
前記第1の画像データが、右目用画像データ及び左目用画像データの一方であり、
前記第2の画像データが、右目用画像データ及び左目用画像データの他方であり、
前記合成画像データが、立体表示用画像データであることを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 7,
The first image data is one of right-eye image data and left-eye image data;
The second image data is the other of the right-eye image data and the left-eye image data;
An image processing controller, wherein the composite image data is stereoscopic display image data.
表示パネルと、
請求項1乃至8のいずれか記載の画像処理コントローラと、
前記画像処理コントローラによって供給される画像データに基づいて前記表示パネルを駆動する表示ドライバとを含むことを特徴とする電子機器。
A display panel;
An image processing controller according to any one of claims 1 to 8,
An electronic apparatus comprising: a display driver that drives the display panel based on image data supplied by the image processing controller.
電気光学装置を駆動する駆動装置に対し、第1及び第2の画像データが合成された合成画像データを供給するための画像処理方法であって、
互いに非同期で入力された第1及び第2の画像データのいずれかを、所与の切替順序に従って1フレームの画像データ毎に切り替えて出力し、
前記切替順序に従って出力された1フレーム分の前記第1及び第2の画像データ、又は前記切替順序に従って出力された前記第1及び第2の画像データが合成された1フレーム分の合成画像データをフレームメモリに格納し、
前記フレームメモリに格納された前記第1及び第2の画像データが合成された合成画像データ、又は前記フレームメモリに格納された合成画像データを前記駆動装置に供給することを特徴とする画像処理方法。
An image processing method for supplying composite image data obtained by combining first and second image data to a drive device that drives an electro-optical device,
Either one of the first and second image data input asynchronously with each other is switched and output for each frame of image data according to a given switching order,
One frame of the first and second image data output according to the switching order, or one frame of combined image data obtained by combining the first and second image data output according to the switching order. Stored in frame memory,
An image processing method comprising: supplying to the driving device composite image data obtained by combining the first and second image data stored in the frame memory, or composite image data stored in the frame memory. .
請求項10において、
前記第1及び第2の画像データの一方の画像データの1フレームの終了タイミングから、前記第1及び第2の画像データの他方の画像データの次の1フレームの開始タイミングまでの期間が最も短くなるように前記切替順序を決定することを特徴とする画像処理方法。
In claim 10,
The period from the end timing of one image data of one of the first and second image data to the start timing of the next one frame of the other image data of the first and second image data is the shortest. An image processing method characterized in that the switching order is determined as follows.
JP2005234244A 2005-08-12 2005-08-12 Image processing controller, electronic apparatus and image processing method Withdrawn JP2007049598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005234244A JP2007049598A (en) 2005-08-12 2005-08-12 Image processing controller, electronic apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005234244A JP2007049598A (en) 2005-08-12 2005-08-12 Image processing controller, electronic apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2007049598A true JP2007049598A (en) 2007-02-22

Family

ID=37852042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005234244A Withdrawn JP2007049598A (en) 2005-08-12 2005-08-12 Image processing controller, electronic apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2007049598A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102764A1 (en) * 2007-02-23 2008-08-28 Toyota Jidosha Kabushiki Kaisha Vehicle environment monitoring device and car environment monitoring method
JP2011040240A (en) * 2009-08-10 2011-02-24 Hitachi High-Technologies Corp Charged particle beam device, and image display method
WO2011101928A1 (en) * 2010-02-22 2011-08-25 パナソニック株式会社 Three-dimensional image capturing adopter, hybrid image-capturing system, and electronic camera
WO2014203366A1 (en) * 2013-06-20 2014-12-24 三菱電機株式会社 Image processing device, method, and program, and image display device
US9552644B2 (en) 2014-11-17 2017-01-24 Samsung Electronics Co., Ltd. Motion analysis method and apparatus
WO2018116049A1 (en) * 2016-12-23 2018-06-28 Semiconductor Energy Laboratory Co., Ltd. Data conversion circuit and display device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003052057A (en) * 2001-08-08 2003-02-21 Hitachi Ltd Stereoscopic vision image forming equipment using image conversion
JP2004180069A (en) * 2002-11-28 2004-06-24 Seijiro Tomita Three-dimensional video signal generating circuit and three dimensional video displaying device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003052057A (en) * 2001-08-08 2003-02-21 Hitachi Ltd Stereoscopic vision image forming equipment using image conversion
JP2004180069A (en) * 2002-11-28 2004-06-24 Seijiro Tomita Three-dimensional video signal generating circuit and three dimensional video displaying device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102764A1 (en) * 2007-02-23 2008-08-28 Toyota Jidosha Kabushiki Kaisha Vehicle environment monitoring device and car environment monitoring method
JP2008211373A (en) * 2007-02-23 2008-09-11 Toyota Motor Corp Device and method for monitoring surroundings around vehicle
JP2011040240A (en) * 2009-08-10 2011-02-24 Hitachi High-Technologies Corp Charged particle beam device, and image display method
US9202669B2 (en) 2009-08-10 2015-12-01 Hitachi High-Technologies Corporation Charged particle beam device and image display method for stereoscopic observation and stereoscopic display
WO2011101928A1 (en) * 2010-02-22 2011-08-25 パナソニック株式会社 Three-dimensional image capturing adopter, hybrid image-capturing system, and electronic camera
WO2014203366A1 (en) * 2013-06-20 2014-12-24 三菱電機株式会社 Image processing device, method, and program, and image display device
CN105324808A (en) * 2013-06-20 2016-02-10 三菱电机株式会社 Image processing device, method, and program, and image display device
US9779651B2 (en) 2013-06-20 2017-10-03 Mitsubishi Electric Corporation Image processing device, method, and program, and image display device
US9552644B2 (en) 2014-11-17 2017-01-24 Samsung Electronics Co., Ltd. Motion analysis method and apparatus
WO2018116049A1 (en) * 2016-12-23 2018-06-28 Semiconductor Energy Laboratory Co., Ltd. Data conversion circuit and display device
CN110088823A (en) * 2016-12-23 2019-08-02 株式会社半导体能源研究所 Data converting circuit and display device
US10867577B2 (en) 2016-12-23 2020-12-15 Semiconductor Energy Laboratory Co., Ltd. Display device including data conversion circuit

Similar Documents

Publication Publication Date Title
US8529069B2 (en) Projection apparatus and control method thereof
US8587643B2 (en) System for displaying multivideo
JP5195818B2 (en) Display control device
US20060023079A1 (en) Interface device and synchronization adjustment method
KR20080022399A (en) A image generation apparatus and method for the same
US20100309319A1 (en) Imaging apparatus
JP2011254416A (en) Photographing device
US9225907B2 (en) Image capturing apparatus and method for controlling the same
EP0827131A2 (en) System generating display control signals adapted to the capabilities of the display device
JP2007049598A (en) Image processing controller, electronic apparatus and image processing method
US20230236425A1 (en) Image processing method, image processing apparatus, and head-mounted display
CN106068642B (en) Imaging device, image processing apparatus, display control unit and imaging display apparatus
JP6948810B2 (en) Image processing system
EP1455338A1 (en) Image processor with frame-rate conversion
JP2008270937A (en) Image processing controller, electronic equipment, and image signal processing method
US10313619B2 (en) Photographing apparatus including an oscillator outputting an output signal based on which a first timing signal and a second timing signal are generated
US20120307111A1 (en) Imaging apparatus, imaging method and image processing apparatus
US20080002065A1 (en) Image processing circuit, image processing system and method therefor
JP2013219624A (en) Imaging apparatus
JP2002010221A (en) Image format converting device and imaging apparatus
JP4984630B2 (en) Video signal converter
JP2004023397A (en) Image processing system
US10212313B2 (en) Data processing device
JP3096756B2 (en) Image conversion device
JP4572442B2 (en) Conversion circuit and image processing apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080521

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110311