JP2006287715A - Image processing controller and electronic device - Google Patents

Image processing controller and electronic device Download PDF

Info

Publication number
JP2006287715A
JP2006287715A JP2005106304A JP2005106304A JP2006287715A JP 2006287715 A JP2006287715 A JP 2006287715A JP 2005106304 A JP2005106304 A JP 2005106304A JP 2005106304 A JP2005106304 A JP 2005106304A JP 2006287715 A JP2006287715 A JP 2006287715A
Authority
JP
Japan
Prior art keywords
camera
camera data
image processing
host device
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005106304A
Other languages
Japanese (ja)
Inventor
Takashi Kimura
隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005106304A priority Critical patent/JP2006287715A/en
Publication of JP2006287715A publication Critical patent/JP2006287715A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing controller capable of efficiently transmitting camera data from a camera to a host device and an electronic device including the same. <P>SOLUTION: The image processing controller 30 includes: a camera input interface 40 in which the camera data is input; an image processing part 50 which performs image processing to the camera data; a memory 60 which stores the camera data to which the image processing is performed; a host interface 80 which performs host interface processing between it and a host device 10 and a camera output interface 70 which outputs the camera data stored in the memory 60 to a host side camera input interface 12 of the host device 10. An emulation vertical synchronization signal ECMVREF and an emulation horizontal synchronization signal ECMHREF in which length of a vertical display period and a horizontal display period are set to length according to a resizing scaling factor of resizing processing in the image processing part 50 are generated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理コントローラ及び電子機器に関する。   The present invention relates to an image processing controller and an electronic apparatus.

近年の携帯電話機は、CCDやCMOSなどのカメラ(イメージセンサ、カメラモジュール)を内蔵している。このようにカメラを内蔵すれば、カメラにより撮影した画像を、LCDなどの表示パネルに表示したり、ファイルとして保存することが可能になる。そしてカメラにより撮影した画像を表示パネルに表示したり、ファイルとして保存するためには、画像サイズを表示パネルサイズに適合させるためのリサイズ処理や、ファイルサイズを小さくするための圧縮処理などの画像処理を、カメラデータに対して施すことが望ましい。   Recent cellular phones have built-in cameras (image sensors, camera modules) such as CCD and CMOS. If the camera is incorporated in this way, an image taken by the camera can be displayed on a display panel such as an LCD or saved as a file. In order to display the image captured by the camera on the display panel or save it as a file, image processing such as resizing processing to adapt the image size to the display panel size or compression processing to reduce the file size Is preferably applied to the camera data.

このようなカメラデータへの画像処理を実現する手法として、カメラとホストデバイス(MPU、ベースバンドエンジン)の間に画像処理コントローラを介在させ、この画像処理コントローラによりカメラデータに画像処理を施し、ホストバス(ホストインターフェース)を介してホストデバイスに転送する手法が考えられる。   As a technique for realizing such image processing on camera data, an image processing controller is interposed between the camera and a host device (MPU, baseband engine), and image processing is performed on the camera data by the image processing controller. A method of transferring data to a host device via a bus (host interface) is conceivable.

しかしながらこの手法では、ホストデバイスがホストバスを介してカメラデータをリードする処理が必要になり、このリード処理によりホストバスが占有されてしまう。このため、ホストバスを使用する他の処理が阻害されてしまい、ホストデバイスによるプログラム実行などの処理速度が低下する。またカメラからのカメラデータの入力速度が、ホストデバイスによるカメラデータのリード速度よりも速い場合には、画像処理コントローラ内に設けられるFIFOにオーバーフローが生じ、データが紛失してしまうおそれもある。
特開2000−206941号公報
However, this method requires a process for the host device to read the camera data via the host bus, and this read process occupies the host bus. For this reason, other processes using the host bus are hindered, and the processing speed such as program execution by the host device is reduced. If the input speed of camera data from the camera is faster than the read speed of camera data by the host device, the FIFO provided in the image processing controller may overflow and data may be lost.
JP 2000-206941 A

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的とするところは、カメラからのカメラデータを効率良くホストデバイスに転送できる画像処理コントローラ及びこれを含む電子機器を提供することにある。   The present invention has been made in view of the above technical problems, and an object of the present invention is to provide an image processing controller capable of efficiently transferring camera data from a camera to a host device and an electronic apparatus including the image processing controller. It is to provide.

本発明は、カメラデータが入力されるカメラ入力インターフェースと、カメラデータに対して画像処理を行う画像処理部と、画像処理が行われたカメラデータを記憶するメモリと、ホストデバイスとの間のホストインターフェース処理を行うホストインターフェースと、前記メモリに記憶されたカメラデータを、前記ホストデバイスのホスト側カメラ入力インターフェースに出力するカメラ出力インターフェースとを含む画像処理コントローラに関係する。   The present invention provides a camera input interface to which camera data is input, an image processing unit that performs image processing on the camera data, a memory that stores camera data that has undergone image processing, and a host between a host device The present invention relates to an image processing controller including a host interface that performs interface processing and a camera output interface that outputs camera data stored in the memory to a host-side camera input interface of the host device.

本発明によれば、カメラ入力インターフェースにカメラデータが入力されると、カメラデータに画像処理が行われてメモリに記憶される。そしてメモリに記憶されたカメラデータは、カメラ出力インターフェースを介してホストデバイスのホスト側カメラ入力インターフェースに出力される。またホストデバイスとの間では、ホストインターフェースを介してホストインターフェース処理が行われる。このようにすれば、カメラ入力インターフェースに入力されたカメラデータに画像処理を施して、ホストデバイスに転送することが可能になり、ホストデバイスの処理負荷を軽減できる。またカメラデータをホストインターフェースのホストバスを利用して転送しなくても済むため、カメラデータの転送のためにホストバスが占有されてしまう事態を防止でき、ホストデバイスの処理の効率化等を図れる。   According to the present invention, when camera data is input to the camera input interface, image processing is performed on the camera data and stored in the memory. The camera data stored in the memory is output to the host-side camera input interface of the host device via the camera output interface. Host interface processing is performed with the host device via the host interface. This makes it possible to perform image processing on the camera data input to the camera input interface and transfer it to the host device, thereby reducing the processing load on the host device. In addition, since it is not necessary to transfer the camera data using the host bus of the host interface, the situation where the host bus is occupied for the transfer of the camera data can be prevented, and the processing efficiency of the host device can be improved. .

また本発明では、前記画像処理部は、カメラデータに対してリサイズ処理を行うリサイザを含み、前記カメラ出力インターフェースは、前記カメラ入力インターフェースを介して入力される垂直同期信号、水平同期信号のエミュレーション処理を行い、前記エミュレーション処理においては、前記リサイズ処理のリサイズ倍率に応じた長さに垂直表示期間、水平表示期間の長さが設定されるエミュレーション垂直同期信号、エミュレーション水平同期信号を生成して、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力するようにしてもよい。   In the present invention, the image processing unit includes a resizer that performs a resizing process on camera data, and the camera output interface emulates a vertical synchronization signal and a horizontal synchronization signal input via the camera input interface. In the emulation process, generate a vertical display period, an emulation vertical synchronization signal in which the length of the horizontal display period is set to a length corresponding to the resizing magnification of the resizing process, and an emulation horizontal synchronization signal, You may make it output to the said host side camera input interface of a host device.

このようにすれば、リサイズ倍率に応じた適正なエミュレーション垂直同期信号、エミュレーション水平同期信号をホストデバイスに出力できるようになり、ホストデバイスの処理の簡素化等を図れる。   This makes it possible to output an appropriate emulation vertical synchronization signal and emulation horizontal synchronization signal corresponding to the resizing magnification to the host device, thereby simplifying the processing of the host device and the like.

また本発明では、前記ホストデバイスは、表示パネルを駆動する表示ドライバとの間のインターフェース処理を行う表示ドライバインターフェースを含み、前記画像処理部は、カメラデータを前記表示パネルに表示するためのリサイズ処理を行う表示用リサイザを含み、前記カメラ出力インターフェースは、前記表示用リサイザによりリサイズ処理が行われたカメラデータを、前記ホスト側カメラ入力インターフェースに出力するようにしてもよい。   In the present invention, the host device includes a display driver interface that performs an interface process with a display driver that drives a display panel, and the image processing unit performs a resizing process for displaying camera data on the display panel. The camera output interface may output the camera data that has been resized by the display resizer to the host-side camera input interface.

このようにすれば、表示パネルのパネルサイズに応じたサイズにリサイズされたカメラデータを、カメラ出力インターフェースを介してホストデバイスに出力することが可能になる。   In this way, it becomes possible to output the camera data resized to the size corresponding to the panel size of the display panel to the host device via the camera output interface.

また本発明では、前記画像処理部は、カメラデータをファイルとして保存するためのリサイズ処理を行うキャプチャ用リサイザを含み、前記ホストインターフェースは、前記キャプチャ用リサイザによりリサイズ処理が行われたカメラデータを、前記ホストデバイスに出力するようにしてもよい。   In the present invention, the image processing unit includes a capture resizer that performs a resizing process for storing camera data as a file, and the host interface stores the camera data that has been resized by the capture resizer, You may make it output to the said host device.

このようにすれば、ファイルの保存サイズに応じたサイズにリサイズされたカメラデータを、ホストインターフェースを介してホストデバイスに出力することが可能になる。   In this way, it is possible to output the camera data resized to the size corresponding to the file storage size to the host device via the host interface.

また本発明では、前記カメラ入力インターフェースに入力されたカメラデータを、前記画像処理部及び前記メモリを介さずに前記カメラ出力インターフェースに出力するバイパス回路を含むようにしてもよい。   Further, the present invention may include a bypass circuit that outputs the camera data input to the camera input interface to the camera output interface without passing through the image processing unit and the memory.

このようにすれば、カメラ入力インターフェースに入力されたカメラデータを、画像処理を施さずに、そのままホストデバイスにバイパス転送できるようになり、利便性を向上できる。   In this way, the camera data input to the camera input interface can be bypass-transferred to the host device without performing image processing, and convenience can be improved.

また本発明では、前記画像処理部は、カメラデータに対して圧縮処理を行うコーデックを含み、前記カメラ出力インターフェースは、前記コーデックにより圧縮処理が行われた圧縮カメラデータを、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力するようにしてもよい。   In the present invention, the image processing unit includes a codec that performs compression processing on camera data, and the camera output interface transmits compressed camera data that has been compressed by the codec to the host of the host device. You may make it output to a side camera input interface.

このようにすれば、圧縮カメラデータの転送によりホストバスが占有されてホストデバイスの処理が非効率化する事態を防止できる。   In this way, it is possible to prevent a situation in which the host bus is occupied due to the transfer of compressed camera data and the processing of the host device becomes inefficient.

また本発明では、前記画像処理部は、カメラデータに対して静止画圧縮処理を静止画コーデックと、カメラデータに対して動画圧縮処理を行う動画コーデックとを含み、前記カメラ出力インターフェースは、前記静止画コーデックにより静止画圧縮処理が行われた静止画圧縮カメラデータを、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力し、前記ホストインターフェースは、前記動画コーデックにより動画圧縮処理が行われた動画圧縮カメラデータを、前記ホストデバイスに出力するようにしてもよい。   In the present invention, the image processing unit includes a still image codec that performs still image compression processing on camera data, and a moving image codec that performs moving image compression processing on camera data, and the camera output interface includes the still image codec Still image compression camera data subjected to still image compression processing by an image codec is output to the host-side camera input interface of the host device, and the host interface performs moving image compression processing performed by the moving image codec. Camera data may be output to the host device.

このようにすれば、カメラデータの利用態様に応じた最適な転送経路でカメラデータをホストデバイスに転送することが可能になり、転送効率を最適化できる。   In this way, it becomes possible to transfer the camera data to the host device through an optimal transfer path according to the usage mode of the camera data, and the transfer efficiency can be optimized.

また本発明では、前記画像処理部は、カメラデータに対して回転処理及びミラー処理の少なくとも一方を行う変換部と、カメラデータに対して静止画圧縮処理を静止画コーデックと、カメラデータに対して動画圧縮処理を行う動画コーデックとを含み、動画カメラデータについては、前記変換部により前記回転処理及び前記ミラー処理の少なくとも一方が行われた後に前記メモリに書き込まれ、前記動画コーデックにより動画圧縮処理が行われて前記ホストデバイスに出力され、静止画カメラデータについては、前記変換部による前記回転処理、前記ミラー処理が行われずに前記メモリに書き込まれ、前記静止画コーデックにより静止画圧縮処理が行われて前記ホストデバイスに出力されるようにしてもよい。   In the present invention, the image processing unit includes: a conversion unit that performs at least one of rotation processing and mirror processing on camera data; still image compression processing on camera data; still image codec; and camera data A moving image codec that performs moving image compression processing, and the moving image camera data is written into the memory after at least one of the rotation processing and the mirror processing is performed by the converting unit, and the moving image compression processing is performed by the moving image codec. The still image camera data is written to the memory without being subjected to the rotation processing and the mirror processing by the conversion unit, and the still image codec is subjected to still image compression processing. May be output to the host device.

このようにすれば、例えばカメラの実装形態等が原因で撮影イメージと表示イメージが一致しない場合等であっても、これらが一致するように、動画カメラデータに対して回転処理やミラー処理を施すことが可能になる。   By doing this, for example, even if the captured image and the display image do not match due to the mounting form of the camera or the like, the moving image camera data is rotated or mirrored so that they match. It becomes possible.

また本発明では、オート転送モードでは、前記カメラ入力インターフェースにカメラデータが入力されたことを条件に、前記画像処理部、前記メモリ、前記カメラ出力インターフェースを介してカメラデータを前記ホストデバイスに自動転送するようにしてもよい。   In the present invention, in the automatic transfer mode, camera data is automatically transferred to the host device via the image processing unit, the memory, and the camera output interface on condition that camera data is input to the camera input interface. You may make it do.

このようにすれば、ホストデバイスへのカメラデータの転送を更に効率化できる。   In this way, the transfer of camera data to the host device can be made more efficient.

また本発明では、前記オート転送モードでは、前記カメラ入力インターフェースに入力される垂直同期信号が非アクティブになったことを条件に、前記画像処理部、前記メモリ、前記カメラ出力インターフェースを介してカメラデータを前記ホストデバイスに自動転送するようにしてもよい。   In the present invention, in the auto transfer mode, camera data is transmitted via the image processing unit, the memory, and the camera output interface on the condition that a vertical synchronization signal input to the camera input interface becomes inactive. May be automatically transferred to the host device.

また本発明では、シングル転送モードでは、前記ホストデバイスから指示があったことを条件に、前記メモリに記憶された1画面分のカメラデータを前記カメラ出力インターフェースを介して前記ホストデバイスに転送するようにしてもよい。   In the present invention, in the single transfer mode, the camera data for one screen stored in the memory is transferred to the host device via the camera output interface on condition that there is an instruction from the host device. It may be.

また本発明は、上記のいずれかの画像処理コントローラと、前記画像処理コントローラにカメラデータを出力するカメラと、前記ホストデバイスとを含む電子機器に関係する。   The present invention also relates to an electronic apparatus including any one of the image processing controllers described above, a camera that outputs camera data to the image processing controller, and the host device.

以下、本発明の実施形態について詳細に説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. Further, not all of the configurations described in the present embodiment are essential as a solution means of the present invention.

1.電子機器
図1に、本実施形態の画像処理コントローラ30を含む電子機器の一例を示す。なお電子機器は図1に示されるもの以外の構成要素(例えば操作部又は電源回路等)を含んでもよい。また本実施形態の電子機器は携帯電話機には限定されず、携帯型情報端末、携帯型オーディオ機器などであってもよい。
1. Electronic Device FIG. 1 shows an example of an electronic device including the image processing controller 30 of the present embodiment. Note that the electronic device may include components (for example, an operation unit or a power supply circuit) other than those shown in FIG. Also, the electronic device of the present embodiment is not limited to a mobile phone, and may be a portable information terminal, a portable audio device, or the like.

図1においてホストデバイス10は、例えばMPU(Micro Processor Unit)、ベースバンドエンジン(ベースバンドプロセッサ)などである。このホストデバイス10(ホストプロセッサ)は表示ドライバインターフェースを有し、表示パネル24を駆動する表示ドライバ22(LCD)を制御する。またホストデバイス10はホスト側カメラ入力インターフェースを有し、カメラからのカメラデータを入力することができる。またホストデバイス10は、アプリケーションエンジンやベースバンドエンジンとしての処理や、グラフィックエンジンとしての処理を行うこともできる。   In FIG. 1, the host device 10 is, for example, an MPU (Micro Processor Unit), a baseband engine (baseband processor), or the like. The host device 10 (host processor) has a display driver interface and controls a display driver 22 (LCD) that drives the display panel 24. The host device 10 has a host-side camera input interface and can input camera data from the camera. The host device 10 can also perform processing as an application engine or a baseband engine, or processing as a graphic engine.

なおホストデバイス10と表示ドライバ22の間は、高速シリアルインターフェースにより接続することができる。この高速シリアルインターフェースでは、小振幅の差動信号(LVDS)を用いてデータやストローブ(クロック)が転送される。   The host device 10 and the display driver 22 can be connected by a high-speed serial interface. In this high-speed serial interface, data and a strobe (clock) are transferred using a differential signal (LVDS) with a small amplitude.

カメラ20(カメラモジュール)は、CCDやCMOSなどのイメージセンサにより構成される。このカメラ20は、イメージセンサの他に、カメラデータを出力するカメラ出力インターフェースや、イメージセンサを駆動する駆動回路などを含むことができる。   The camera 20 (camera module) is configured by an image sensor such as a CCD or a CMOS. In addition to the image sensor, the camera 20 can include a camera output interface that outputs camera data, a drive circuit that drives the image sensor, and the like.

表示パネル24は、複数のデータ線(信号線)と、複数の走査線と、データ線及び走査線により特定される複数の画素を有する。そして各画素領域における電気光学素子(狭義には、液晶素子)の光学特性を変化させることで、表示動作を実現する。この表示パネル24としては、例えば薄膜トランジスタ(Thin Film Transistor:TFT)や薄膜ダイオード(Thin Film Diode:TFD)などのスイッチング素子(2端子型非線形素子)を用いたアクティブマトリクス方式のパネルを採用できる。或いは表示パネル24として、単純マトリクス方式のパネルを採用したり、液晶パネル以外のパネル(例えば有機ELパネル)を採用してもよい。   The display panel 24 includes a plurality of data lines (signal lines), a plurality of scanning lines, and a plurality of pixels specified by the data lines and the scanning lines. A display operation is realized by changing the optical characteristics of the electro-optical element (in a narrow sense, a liquid crystal element) in each pixel region. As the display panel 24, for example, an active matrix panel using a switching element (two-terminal nonlinear element) such as a thin film transistor (TFT) or a thin film diode (TFD) can be adopted. Alternatively, a simple matrix panel or a panel other than a liquid crystal panel (for example, an organic EL panel) may be employed as the display panel 24.

表示ドライバ22は表示パネル24のデータ線(ソース線、セグメント線)や走査線(ゲート線、コモン線)を駆動する。具体的には表示ドライバ22は、ホストデバイス10から受けたコマンドやパラメータ(広義にはデータ)に基づいて、表示パネル24の駆動条件(表示特性制御パラメータ)等を設定する。例えば表示データのフォーマット形式、表示ライン数、表示範囲、表示データの書き込み開始位置又は駆動方法などを設定する。そして表示ドライバ22は、ホストデバイス10から受けた表示データに基づいて、設定された駆動条件に従って表示パネル24のデータ線等を駆動する。   The display driver 22 drives data lines (source lines, segment lines) and scanning lines (gate lines, common lines) of the display panel 24. Specifically, the display driver 22 sets drive conditions (display characteristic control parameters) of the display panel 24 based on commands and parameters (data in a broad sense) received from the host device 10. For example, the format of display data, the number of display lines, the display range, the display data writing start position, or the driving method are set. The display driver 22 drives the data lines and the like of the display panel 24 according to the set drive conditions based on the display data received from the host device 10.

なお図1では画像処理コントローラ30には、表示ドライバインターフェース(LCDインターフェース)が設けられていないが、これを設けるようにしてもよい。この場合には、例えばホストデバイス10の表示ドライバインターフェースに接続されたメイン用表示ドライバにより、メイン表示パネルを駆動する。そして画像処理コントローラ30の表示ドライバインターフェースに接続されたサブ用表示ドライバにより、サブ表示パネルを駆動する。或いは逆に、ホストデバイス10側でサブ表示パネルを駆動し、画像処理コントローラ30側でメイン表示パネルを駆動するようにしてもよい。   In FIG. 1, the image processing controller 30 is not provided with a display driver interface (LCD interface), but may be provided. In this case, for example, the main display panel is driven by the main display driver connected to the display driver interface of the host device 10. The sub display panel is driven by the sub display driver connected to the display driver interface of the image processing controller 30. Or, conversely, the sub display panel may be driven on the host device 10 side and the main display panel may be driven on the image processing controller 30 side.

画像処理コントローラ30は、カメラ20から入力されたカメラデータに対する画像処理を行う。この画像処理としては、カメラデータの画像サイズを表示パネル24のパネルサイズ(画面サイズ)に適合させるリサイズ処理や、カメラデータのフォーマットを変換する処理などがある。そして画像処理コントローラ30は画像処理後のカメラデータを、カメラバス(カメラインターフェース)を介してホストデバイス10に出力する。そして画像処理コントローラ30からのカメラデータは、例えばDMA転送などを利用して、メインメモリ26等を介して表示ドライバ22に転送される。そしてホストデバイス10は、表示ドライバ22を制御して、カメラ20で撮影された画像を表示パネル24に表示させる。   The image processing controller 30 performs image processing on the camera data input from the camera 20. Examples of the image processing include resizing processing for adapting the image size of the camera data to the panel size (screen size) of the display panel 24, processing for converting the format of the camera data, and the like. Then, the image processing controller 30 outputs the camera data after the image processing to the host device 10 via the camera bus (camera interface). The camera data from the image processing controller 30 is transferred to the display driver 22 via the main memory 26 or the like using, for example, DMA transfer. Then, the host device 10 controls the display driver 22 to display an image captured by the camera 20 on the display panel 24.

また画像処理コントローラ30はホストバス(ホストインターフェース)を介してホストデバイス10に接続される。このホストバスには、例えば音声処理デバイス、操作インターフェースデバイスなどのその他のデバイス28が接続される。画像処理コントローラ30は、カメラデータの圧縮処理などの画像処理を行う。そしてカメラデータを圧縮することで得られたJPEGカメラデータ(広義には静止画圧縮カメラデータ)やMPEGカメラデータ(広義には動画圧縮カメラデータ)は、ホストバスを介してホストデバイス10に出力される。するとホストデバイス10は、このJPEGカメラデータやMPEGカメラデータを、ホストデバイス10に直結されたメモリバス(メモリインターフェース)を介してメインメモリ26に出力し、ファイルとして保存する。   The image processing controller 30 is connected to the host device 10 via a host bus (host interface). Other devices 28 such as a voice processing device and an operation interface device are connected to the host bus. The image processing controller 30 performs image processing such as camera data compression processing. The JPEG camera data (still image compression camera data in a broad sense) and MPEG camera data (moving image compression camera data in a broad sense) obtained by compressing the camera data are output to the host device 10 via the host bus. The Then, the host device 10 outputs the JPEG camera data and MPEG camera data to the main memory 26 via a memory bus (memory interface) directly connected to the host device 10 and stores it as a file.

図2に本実施形態の比較例を示す。この比較例では、カメラ20から入力されたカメラデータは、画像処理コントローラ31により画像処理が施されて、ホストバス(ホストインターフェース)に出力される。そしてホストデバイス11は、このカメラデータをホストバスを介してメインメモリ26に保存する。またホストデバイス11は、画像処理コントローラ31からのカメラデータに応じた表示データを表示ドライバ22に出力する。そして表示ドライバ22を制御して、カメラ20で撮影された画像を表示パネル24に表示させる。   FIG. 2 shows a comparative example of this embodiment. In this comparative example, camera data input from the camera 20 is subjected to image processing by the image processing controller 31 and output to the host bus (host interface). Then, the host device 11 stores this camera data in the main memory 26 via the host bus. The host device 11 outputs display data corresponding to the camera data from the image processing controller 31 to the display driver 22. Then, the display driver 22 is controlled to display an image photographed by the camera 20 on the display panel 24.

しかしながらこの図2の比較例の手法では、画像処理コントローラ31からのカメラデータを、ホストバスを介してホストデバイス11がリードする処理が必要になり、このリード処理によりホストバスが占有されてしまう。このため、その他のデバイス28がホストバスを介して行う処理などが阻害されてしまい、ホストデバイス11で実行されるソフトウェア処理の非効率化などの問題を招く。   However, in the method of the comparative example of FIG. 2, the host device 11 needs to read the camera data from the image processing controller 31 via the host bus, and the host bus is occupied by this read processing. For this reason, processing performed by the other devices 28 via the host bus is hindered, causing problems such as inefficiency in software processing executed by the host device 11.

これに対して図1の本実施形態では、ホストデバイス10が有するホスト側カメラ入力インターフェースを有効利用してカメラデータを転送している。即ち画像処理後のカメラデータは、高速なカメラバス(カメラインターフェース)を介して画像処理コントローラ30からホストデバイス10に転送され、表示パネル24に表示される。従って、表示用のカメラデータの転送のためにホストバスが占有されないため、その他のデバイス28が行う処理が阻害されてしまう事態を防止でき、ホストデバイス10の処理の効率化を図れる。   On the other hand, in the present embodiment shown in FIG. 1, camera data is transferred by effectively using the host-side camera input interface of the host device 10. That is, the camera data after image processing is transferred from the image processing controller 30 to the host device 10 via a high-speed camera bus (camera interface) and displayed on the display panel 24. Accordingly, since the host bus is not occupied for the transfer of display camera data, it is possible to prevent a situation in which processing performed by other devices 28 is hindered, and to improve the processing efficiency of the host device 10.

また本実施形態では画像処理コントローラ30が、同期信号(垂直同期信号、水平同期信号)やカメラデータ信号などのカメラインターフェース信号のエミュレーション処理を行う。即ちカメラ20から出力されるカメラインターフェース信号に対応したエミュレーション・カメラインターフェース信号を、画像処理コントローラ30が生成して、ホストデバイス10に出力する。従って、あたかもホスト側のカメラ入力インターフェースにカメラ20が直結されているかのように、ホストデバイス10に認識させることが可能になる。従って、ホスト側のカメラ入力インターフェースにカメラ20を直結した場合と同様の処理で、カメラデータを表示パネル24に表示させることが可能になる。この結果、ホストデバイス10で実行されるソフトウェアの設計の容易化や処理負荷の低減等を図れる。   In this embodiment, the image processing controller 30 performs emulation processing of camera interface signals such as synchronization signals (vertical synchronization signals and horizontal synchronization signals) and camera data signals. That is, the image processing controller 30 generates an emulation camera interface signal corresponding to the camera interface signal output from the camera 20, and outputs it to the host device 10. Therefore, the host device 10 can be recognized as if the camera 20 is directly connected to the camera input interface on the host side. Accordingly, the camera data can be displayed on the display panel 24 by the same processing as when the camera 20 is directly connected to the camera input interface on the host side. As a result, the design of software executed by the host device 10 can be facilitated, the processing load can be reduced, and the like.

2.構成例
図3に本実施形態の画像処理コントローラ30の構成例を示す。この画像処理コントローラ30はカメラ入力インターフェース40、画像処理部50、メモリ60、カメラ出力インターフェース70、ホストインターフェース80、レジスタ部90を含む。なお画像処理コントローラ30は図3の構成に限定されず、図3の回路ブロックの一部を省略したり、回路ブロック間の接続形態を変更したり、図3とは異なる回路ブロックを追加してもよい。
2. Configuration Example FIG. 3 shows a configuration example of the image processing controller 30 of the present embodiment. The image processing controller 30 includes a camera input interface 40, an image processing unit 50, a memory 60, a camera output interface 70, a host interface 80, and a register unit 90. The image processing controller 30 is not limited to the configuration shown in FIG. 3, and some of the circuit blocks shown in FIG. 3 are omitted, the connection form between the circuit blocks is changed, or a circuit block different from that shown in FIG. 3 is added. Also good.

カメラ入力インターフェース40は、カメラ20(イメージデバイス、撮像デバイス)からのカメラデータを入力するためのインターフェース(回路)である。具体的にはカメラ20からカメラインターフェース信号を受け、カメラデータを画像処理部50等に出力する。このカメラインターフェース信号は、垂直同期信号CMVREF、水平同期信号CMHREF、カメラデータ信号CMDAT、クロック信号CMCLKINなどを含むことができる。ここで信号CMVREF、CMHREFは、各々、垂直表示期間、水平表示期間を設定するための信号である。また信号CMDATは、例えば8ビット(或いは6〜24ビット)のカメラデータを伝達するための信号である。また信号CMCLKINは、信号CMDATの取り込み用(サンプリング用)のクロック信号である。この信号CMCLKINは、例えばカメラ入力インターフェース40からのマスタークロック信号MCLKに基づき生成できる。   The camera input interface 40 is an interface (circuit) for inputting camera data from the camera 20 (image device, imaging device). Specifically, the camera interface signal is received from the camera 20 and the camera data is output to the image processing unit 50 or the like. The camera interface signal may include a vertical synchronization signal CMVREF, a horizontal synchronization signal CMHREF, a camera data signal CMDAT, a clock signal CMCLKIN, and the like. Here, signals CMVREF and CMHREF are signals for setting a vertical display period and a horizontal display period, respectively. The signal CMDAT is a signal for transmitting camera data of, for example, 8 bits (or 6 to 24 bits). The signal CMCLKIN is a clock signal for taking in (sampling) the signal CMDAT. This signal CMCLKIN can be generated based on the master clock signal MCLK from the camera input interface 40, for example.

画像処理部50はカメラデータに対して種々の画像処理を行うものである。ここで画像処理部50で行われる画像処理としては、リサイズ処理、圧縮処理又は変換処理などがある。   The image processing unit 50 performs various image processing on the camera data. Here, the image processing performed by the image processing unit 50 includes resizing processing, compression processing, conversion processing, and the like.

例えばリサイズ処理には、カメラデータを表示パネル24に表示するための表示用リサイズ処理と、カメラデータをファイルとして保存するためのキャプチャ用リサイズ処理がある。例えばカメラデータのサイズが1600×1200(水平方向の画素数が1600、垂直方向の画素数が1200)であり、表示パネル24のサイズが640×480(VGA)や320×240(QVGA)である場合には、表示用リサイズ処理によりカメラデータをリサイズ(縮小)する。またメモリの節約のためにカメラ画像を縮小して保存する場合には、キャプチャ用リサイズ処理によりカメラデータをリサイズする。   For example, the resizing process includes a display resizing process for displaying camera data on the display panel 24 and a capture resizing process for saving the camera data as a file. For example, the size of camera data is 1600 × 1200 (the number of pixels in the horizontal direction is 1600, the number of pixels in the vertical direction is 1200), and the size of the display panel 24 is 640 × 480 (VGA) or 320 × 240 (QVGA). In this case, the camera data is resized (reduced) by display resizing processing. When the camera image is reduced and saved to save memory, the camera data is resized by the capture resizing process.

また圧縮処理としては、JPEG(広義には静止画圧縮)、MPEG(広義には動画圧縮)などがある。また変換処理としては、YUV−YUV変換(例えばYUV422からYUV420への変換)、YUV−RGB変換、ガンマ補正、回転処理、或いはミラー(鏡像)処理などがある。   Examples of compression processing include JPEG (still image compression in a broad sense) and MPEG (moving image compression in a broad sense). The conversion processing includes YUV-YUV conversion (for example, conversion from YUV422 to YUV420), YUV-RGB conversion, gamma correction, rotation processing, or mirror (mirror image) processing.

メモリ60(バッファ、FIFO)はカメラデータを一時的に記憶するものであり、例えばSRAMなどにより構成できる。具体的にはメモリ60は、画像処理が行われたカメラデータを記憶する。例えば画像処理部50は、カメラ入力インターフェース40を介して入力されたカメラデータに画像処理を施し、画像処理後のカメラデータをメモリ60に書き込む。或いは画像処理部50は、メモリ60に記憶されたカメラデータを読み出し、画像処理を施して再度メモリ60に書き込む。   The memory 60 (buffer, FIFO) temporarily stores camera data, and can be configured by, for example, SRAM. Specifically, the memory 60 stores camera data on which image processing has been performed. For example, the image processing unit 50 performs image processing on the camera data input via the camera input interface 40 and writes the camera data after the image processing in the memory 60. Alternatively, the image processing unit 50 reads the camera data stored in the memory 60, performs image processing, and writes the data in the memory 60 again.

カメラ出力インターフェース70は、メモリ60(FIFO)に記憶されたカメラデータを、ホストデバイス10のホスト側カメラ入力インターフェース12に出力する。具体的にはカメラ出力インターフェース70は、カメラ入力インターフェース40を介して入力される垂直同期信号CMVREF、水平同期信号CMHREFなどのエミュレーション処理を行い、エミュレーション・カメラインターフェース信号を生成する。このエミュレーション・カメラインターフェース信号の生成は、レジスタ部90のタイミング設定レジスタ92に設定されたタイミング情報(垂直表示期間設定信号、水平表示期間設定信号)に基づいて、エミュレーション信号ジェネレータ72が行う。   The camera output interface 70 outputs the camera data stored in the memory 60 (FIFO) to the host side camera input interface 12 of the host device 10. Specifically, the camera output interface 70 performs emulation processing such as a vertical synchronization signal CMVREF and a horizontal synchronization signal CMHREF input via the camera input interface 40, and generates an emulation camera interface signal. The emulation camera generator 72 generates the emulation camera interface signal based on timing information (vertical display period setting signal, horizontal display period setting signal) set in the timing setting register 92 of the register unit 90.

例えばこのエミュレーション処理においては、カメラ出力インターフェース70が、画像処理部50でのリサイズ処理(表示用リサイズ処理)のリサイズ倍率に応じた長さに垂直表示期間(垂直アクティブ期間)、水平表示期間(水平アクティブ期間)の長さが設定されるエミュレーション垂直同期信号ECMVREF、エミュレーション水平同期信号ECMHREFを生成する。そして生成された信号ECMVREF、ECMHREFをカメラバスを介してホスト側カメラ入力インターフェース12(ホストデバイス10)に出力する。またカメラ出力インターフェース70は、カメラデータ信号CMDATに対応したエミュレーションカメラデータ信号ECMDATや、ECMDATの取り込み用(サンプリング用)のクロック信号ECMCLKOUTを、ホスト側カメラ入力インターフェース12に出力する。するとホストデバイス10の表示ドライバインターフェース14は、ECMDATに対応する表示データを表示ドライバ22に出力する。これにより、カメラ20により撮影された画像が表示パネル24に表示されるようになる。   For example, in this emulation process, the camera output interface 70 has a vertical display period (vertical active period) and a horizontal display period (horizontal display period) having a length corresponding to the resizing magnification of the resize process (display resize process) in the image processing unit 50. An emulation vertical synchronization signal ECMVREF and an emulation horizontal synchronization signal ECMHREF in which the length of the active period) is set are generated. The generated signals ECMVREF and ECMHREF are output to the host-side camera input interface 12 (host device 10) via the camera bus. The camera output interface 70 outputs an emulation camera data signal ECMDAT corresponding to the camera data signal CMDAT and a clock signal ECMCLKOUT for capturing ECMDAT (for sampling) to the host-side camera input interface 12. Then, the display driver interface 14 of the host device 10 outputs display data corresponding to ECMDAT to the display driver 22. As a result, an image taken by the camera 20 is displayed on the display panel 24.

またカメラ出力インターフェース70は、カメラデータを表示パネル24に表示するための表示用(プレビュー用)リサイズ処理が画像処理部50により行われた場合には、表示用リサイズ処理が行われたカメラデータを、ホスト側カメラ入力インターフェース12に出力する。このようにすれば、ホストデバイス10の表示ドライバインターフェース14は、表示パネル24のパネルサイズに適合したカメラデータを、表示データとして表示ドライバ22に出力できるようになる。   When the image processing unit 50 performs the display (preview) resizing process for displaying the camera data on the display panel 24, the camera output interface 70 displays the camera data subjected to the display resizing process. And output to the host-side camera input interface 12. In this way, the display driver interface 14 of the host device 10 can output camera data suitable for the panel size of the display panel 24 to the display driver 22 as display data.

またカメラデータをファイルとして保存するためのキャプチャ用リサイズ処理が行われた場合には、このキャプチャ用リサイズ処理が行われたカメラデータについては、例えばホストインターフェース80がホストデバイス10に出力する。   Further, when the capture resizing process for saving the camera data as a file is performed, for example, the host interface 80 outputs the camera data subjected to the capture resizing process to the host device 10.

なお、キャプチャ用リサイズ処理が行われたカメラデータを、カメラ出力インターフェース70が出力するようにしてもよい。また画像処理部50によりカメラデータの圧縮処理が行われた場合に、カメラ出力インターフェース70が、圧縮カメラデータをホスト側カメラ入力インターフェース12に出力することも可能である。   The camera output interface 70 may output the camera data that has undergone the capture resizing process. Further, when camera data compression processing is performed by the image processing unit 50, the camera output interface 70 can output the compressed camera data to the host-side camera input interface 12.

ホストインターフェース80は、ホストデバイス10との間のホストインターフェース処理を行うものである。具体的にはホストデバイス10との間でホストインターフェース信号のやり取りを行う。   The host interface 80 performs host interface processing with the host device 10. Specifically, a host interface signal is exchanged with the host device 10.

このホストインターフェース信号としては、チップセレクト信号CS、メモリアクセス/FIFOアクセス識別信号M/R、アドレス信号A[19:0]、データ信号D[15:0]、リード信号RD、ライト信号WR、ウェイト信号WAITなどがある。またシリアル転送用のチップセレクト信号SCS、シリアルクロック信号SCK、シリアル転送用のアドレス0信号A0、シリアルデータ信号SIなどを含むこともできる。   As the host interface signals, a chip select signal CS, a memory access / FIFO access identification signal M / R, an address signal A [19: 0], a data signal D [15: 0], a read signal RD, a write signal WR, a wait There is a signal WAIT and the like. It may also include a chip select signal SCS for serial transfer, a serial clock signal SCK, an address 0 signal A0 for serial transfer, a serial data signal SI, and the like.

なお図4にホストインターフェース信号のタイミングチャート例を示す。図4はタイプ80のホストインターフェース信号の例である。但し本実施形態のホストインターフェースは図4に限定されず、タイプ68やシリアル転送のホストインターフェースであってもよい。   FIG. 4 shows a timing chart example of the host interface signal. FIG. 4 is an example of a type 80 host interface signal. However, the host interface of the present embodiment is not limited to FIG. 4, and may be a type 68 or serial transfer host interface.

レジスタ部90は制御レジスタやステータスレジスタなどを含むものである。具体的にはレジスタ部90はタイミング設定レジスタ92、転送制御レジスタ94、リサイズ倍率設定レジスタ96、回転角度設定レジスタ97、ミラー表示レジスタ98を含む。   The register unit 90 includes a control register and a status register. Specifically, the register unit 90 includes a timing setting register 92, a transfer control register 94, a resizing magnification setting register 96, a rotation angle setting register 97, and a mirror display register 98.

ここでタイミング設定レジスタ92には、エミュレーション・カメラインターフェース信号を生成するためのタイミング情報が記憶される。具体的にはエミュレーション垂直同期信号やエミュレーション水平同期信号のタイミング(アクティブ期間)を設定するためのタイミング情報が記憶される。   Here, the timing setting register 92 stores timing information for generating an emulation camera interface signal. Specifically, timing information for setting the timing (active period) of the emulation vertical synchronization signal and the emulation horizontal synchronization signal is stored.

転送制御レジスタ94はカメラデータの転送制御のためのレジスタである。具体的には本実施形態では、ホストデバイス10から指示があったことを条件に、メモリ60に記憶された1画面分のカメラデータ(又は表示データ)をカメラ出力インターフェース70を介してホストデバイス10に転送するシングル転送モードが用意される。またカメラ入力インターフェース40にカメラデータが入力されたことを条件(垂直同期信号が非アクティブになったことを条件)に、画像処理部50、メモリ60、カメラ出力インターフェース70を介してカメラデータをホストデバイス10に自動転送するオート転送モードが用意される。そしてこれらのシングル転送モードやオート転送モードは、ホストデバイス10がホストインターフェース80を介して転送制御レジスタ94に設定を行うことで実現される。例えばシングル転送モードを行う場合には、転送制御レジスタ94のシングル転送指示ビットにホストデバイス10が情報を設定する。またオート転送モードを行う場合には、転送制御レジスタ94のオート転送イネーブルビットにホストデバイス10が情報を設定する。   The transfer control register 94 is a register for camera data transfer control. Specifically, in the present embodiment, on the condition that there is an instruction from the host device 10, camera data (or display data) for one screen stored in the memory 60 is sent via the camera output interface 70 to the host device 10. A single transfer mode is provided for transferring to The camera data is hosted via the image processing unit 50, the memory 60, and the camera output interface 70 on condition that camera data is input to the camera input interface 40 (provided that the vertical synchronization signal is inactive). An auto transfer mode for automatically transferring to the device 10 is prepared. These single transfer mode and auto transfer mode are realized by the host device 10 setting the transfer control register 94 via the host interface 80. For example, when performing the single transfer mode, the host device 10 sets information in the single transfer instruction bit of the transfer control register 94. When performing the auto transfer mode, the host device 10 sets information in the auto transfer enable bit of the transfer control register 94.

リサイズ倍率設定レジスタ96は、画像処理部50で行われるリサイズ処理のリサイズ倍率が設定されるレジスタである。具体的にはホストデバイス10はホストインターフェース80を介して、リサイズ倍率設定レジスタ96に表示用リサイズ処理やキャプチャ用リサイズ処理のリサイズ倍率を設定する。すると画像処理部50は、このリサイズ倍率に基づいて、入力されたカメラデータに対してリサイズ処理を行う。   The resizing magnification setting register 96 is a register in which a resizing magnification of resizing processing performed in the image processing unit 50 is set. Specifically, the host device 10 sets the resize magnification of the display resize processing or capture resize processing in the resize magnification setting register 96 via the host interface 80. Then, the image processing unit 50 performs a resizing process on the input camera data based on the resizing magnification.

回転角度設定レジスタ97は、画像処理部50で行われる回転処理の回転角度が設定されるレジスタである。またミラー表示レジスタ98は、画像処理部50で行われるミラー処理の指示(イネーブル、ディスエーブル)が設定されるレジスタである。具体的にはホストデバイス10はホストインターフェース80を介して、回転角度設定レジスタ97に回転処理の回転角度(0度、90度、180度、270度)を設定する。すると画像処理部50は、処理対象画像(カメラ画像)をその中心点を中心として、設定された回転角度だけ回転させた画像を生成するための処理を行う。またホストデバイス10はホストインターフェース80を介して、ミラー表示レジスタ98にミラー処理の指示を設定する。すると画像処理部50は、処理対象画像の鏡像であるミラー表示画像を生成するための処理を行う。   The rotation angle setting register 97 is a register in which the rotation angle of the rotation process performed by the image processing unit 50 is set. The mirror display register 98 is a register in which an instruction (enable or disable) for mirror processing performed by the image processing unit 50 is set. Specifically, the host device 10 sets the rotation angle (0 degrees, 90 degrees, 180 degrees, 270 degrees) of the rotation process in the rotation angle setting register 97 via the host interface 80. Then, the image processing unit 50 performs a process for generating an image obtained by rotating the processing target image (camera image) around the center point by the set rotation angle. Further, the host device 10 sets a mirror processing instruction in the mirror display register 98 via the host interface 80. Then, the image processing unit 50 performs processing for generating a mirror display image that is a mirror image of the processing target image.

3.エミュレーション処理
本実施形態ではカメラ出力インターフェース70が、カメラ20から入力されたカメラインターフェース信号のエミュレーション処理を行っている。例えば図5(A)(B)にエミュレーション・カメラインターフェース信号のタイミングチャート例を示す。
3. Emulation Processing In this embodiment, the camera output interface 70 performs emulation processing of the camera interface signal input from the camera 20. For example, FIGS. 5A and 5B show timing chart examples of emulation camera interface signals.

図5(A)においてT1は垂直表示期間であり、T2は垂直ブランク期間である。またT3は水平表示期間であり、T4は水平ブランク期間である。別の言い方をすれば、T1は、エミュレーション垂直同期信号ECMVREFがアクティブになる期間であり、T2は、ECMVREFが非アクティブになる期間である。またT3は、エミュレーション水平同期信号ECMHREFがアクティブになる期間であり、T4は、ECMHREFが非アクティブになる期間である。このように図5(A)では、ECMVREF、ECMHREFにより、垂直表示期間T1、垂直ブランク期間T2、水平表示期間T3、水平ブランク期間T4の長さが設定されている。   In FIG. 5A, T1 is a vertical display period, and T2 is a vertical blank period. T3 is a horizontal display period, and T4 is a horizontal blank period. In other words, T1 is a period during which the emulation vertical synchronization signal ECMVREF is active, and T2 is a period during which ECMVREF is inactive. T3 is a period during which the emulation horizontal synchronization signal ECMHREF is active, and T4 is a period during which ECMHREF is inactive. In this way, in FIG. 5A, the lengths of the vertical display period T1, the vertical blank period T2, the horizontal display period T3, and the horizontal blank period T4 are set by ECMVREF and ECMHREF.

カメラデータ信号ECMDAT[7:0]は、ECMVREFがアクティブ(例えばハイレベル)であり且つECMHREFがアクティブである期間に、有効なデータとしてホストデバイス10に出力される。即ちECMDATは垂直表示期間であり且つ水平表示期間である場合に、有効なデータとしてホストデバイス10に出力される。このECMDATを受けたホストデバイス10は、図5(B)に示すように、クロック信号ECMCLKOUTのエッジ(例えば立ち上がりエッジ)でECMDATをサンプリングすることで、ECMDATを取り込むことができる。   The camera data signal ECMDAT [7: 0] is output to the host device 10 as valid data during a period in which ECMVREF is active (for example, high level) and ECMHREF is active. That is, ECMDAT is output to the host device 10 as valid data in the vertical display period and the horizontal display period. As shown in FIG. 5B, the host device 10 that has received ECMDAT can capture ECMDAT by sampling ECMDAT at the edge (for example, the rising edge) of the clock signal ECMCLKOUT.

そして本実施形態では、画像処理部50でのリサイズ処理のリサイズ倍率(縮小率)に応じた長さに垂直表示期間T1、水平表示期間T3の長さが設定されるように、エミュレーション垂直同期信号ECMVREF、エミュレーション水平同期信号ECMHREFを生成している。   In this embodiment, the emulation vertical synchronization signal is set so that the lengths of the vertical display period T1 and the horizontal display period T3 are set to lengths corresponding to the resizing magnification (reduction ratio) of the resizing process in the image processing unit 50. ECMVREF and emulation horizontal synchronization signal ECMHREF are generated.

例えば図6(A)は表示パネル24に表示される画像のサイズがVGA(640×480)である場合のECMVREF、ECMHREFの波形例であり、図6(B)は画像サイズがQVGA(320×240)である場合の波形例である。図6(A)のVGAの場合のリサイズ倍率を1/Nとすると、図6(B)のQVGAの時のリサイズ倍率は1/4Nになる。そしてリサイズ倍率が1/Nである図6(A)では、期間T1の長さ(水平方向の画素数)は640になり、期間T3の長さ(垂直方向の画素数)は480になる。一方、リサイズ倍率が1/4Nである図6(B)では、期間T1の長さは320になり、期間T3の長さは240になる。即ちリサイズ倍率が小さくなるほど、垂直表示期間T1、水平表示期間T3の長さ(垂直同期信号、水平同期信号のアクティブ期間)が短くなるように、信号ECMVREF、ECMHREFが生成される。   For example, FIG. 6A is a waveform example of ECMVREF and ECMHREF when the image size displayed on the display panel 24 is VGA (640 × 480), and FIG. 6B is an image size of QVGA (320 × 240) is an example of a waveform. If the resizing magnification in the case of VGA in FIG. 6A is 1 / N, the resizing magnification in the case of QVGA in FIG. 6B is 1 / 4N. In FIG. 6A in which the resizing magnification is 1 / N, the length of the period T1 (the number of pixels in the horizontal direction) is 640, and the length of the period T3 (the number of pixels in the vertical direction) is 480. On the other hand, in FIG. 6B in which the resizing magnification is 1 / 4N, the length of the period T1 is 320 and the length of the period T3 is 240. That is, the signals ECMVREF and ECMHREF are generated so that the length of the vertical display period T1 and the horizontal display period T3 (vertical synchronization signal, active period of the horizontal synchronization signal) becomes shorter as the resizing magnification becomes smaller.

このようにすれば、リサイズ倍率に応じた適正な波形のエミュレーション垂直同期信号ECMVREF、エミュレーション水平同期信号ECMHREFを、ホストデバイス10に出力できるようになる。そしてホストデバイス10は、信号ECMVREF、ECMHREFに基づいてカメラデータの各画素データの表示位置を設定して、表示ドライバ22をカメラデータを転送するだけで済むため、ホストデバイス10の処理負荷の軽減化や処理の簡素化を図れる。   In this way, it is possible to output the emulation vertical synchronization signal ECMVREF and the emulation horizontal synchronization signal ECMHREF having appropriate waveforms corresponding to the resizing magnification to the host device 10. Since the host device 10 only needs to set the display position of each pixel data of the camera data based on the signals ECMVREF and ECMHREF and transfer the camera data to the display driver 22, the processing load on the host device 10 can be reduced. And simplification of processing.

なお期間T1〜T4の設定は、ホストデバイス10がホストインターフェース80を介して図3のタイミング設定レジスタ92に期間T1〜T4の情報を書き込むことにより実現できる。   The setting of the periods T1 to T4 can be realized by the host device 10 writing the information of the periods T1 to T4 in the timing setting register 92 of FIG.

4.詳細な構成例
図7に本実施形態の画像処理コントローラ30の詳細な構成例を示す。なお図7の構成要素の一部を省略した構成にしてもよい。
4). Detailed Configuration Example FIG. 7 shows a detailed configuration example of the image processing controller 30 of the present embodiment. Note that some of the components in FIG. 7 may be omitted.

図7の表示用リサイザ102、キャプチャ用リサイザ112、変換部114、124、JPEGコーデック118、MPEGコーデック128は、図3の画像処理部50に含ませることができる。また表示用バッファ106、JPEGラインバッファ116、MPEGエンコード・デコードバッファ126、表示用FIFO110、JPEGFIFO120、MPEGFIFO130は、図3のメモリ60に含ませることができる。   The display resizer 102, the capture resizer 112, the conversion units 114 and 124, the JPEG codec 118, and the MPEG codec 128 in FIG. 7 can be included in the image processing unit 50 in FIG. The display buffer 106, the JPEG line buffer 116, the MPEG encoding / decoding buffer 126, the display FIFO 110, the JPEG FIFO 120, and the MPEG FIFO 130 can be included in the memory 60 of FIG.

例えばカメラ20の撮影画像をプレビュー画像として表示パネル24に表示する場合には、次のようにしてカメラデータがホストデバイス10に転送される。即ちカメラ入力インターフェース40に入力されたカメラデータは、デマルチプレクサ100を介して表示用リサイザ102に入力される。そして表示用リサイザ102は、カメラデータを表示パネルに表示するための表示用リサイズ処理を行う。そして表示用リサイズ処理が行われたカメラデータは、表示用バッファ106に書き込まれる。この表示用バッファ106は、例えば少なくとも1画面分のカメラデータ(表示データ)を記憶することができるフレームメモリとして機能する。表示用バッファ106に書き込まれたカメラデータは表示用バッファ106から読み出され、表示用FIFO(FirstInFirstOut)110に蓄積されて、カメラ出力インターフェース70を介してホストデバイス10に出力される。   For example, when the captured image of the camera 20 is displayed on the display panel 24 as a preview image, the camera data is transferred to the host device 10 as follows. That is, the camera data input to the camera input interface 40 is input to the display resizer 102 via the demultiplexer 100. Then, the display resizer 102 performs display resizing processing for displaying the camera data on the display panel. The camera data that has undergone the display resizing process is written into the display buffer 106. The display buffer 106 functions as a frame memory capable of storing camera data (display data) for at least one screen, for example. The camera data written in the display buffer 106 is read from the display buffer 106, accumulated in a display FIFO (FirstInFirstOut) 110, and output to the host device 10 via the camera output interface 70.

またカメラ20の撮影画像をキャプチャして、JPEG(静止画圧縮)ファイルとして保存する場合には、次のようにしてカメラデータがホストデバイス10に転送される。即ちカメラ入力インターフェース40に入力されたカメラデータは、デマルチプレクサ100を介してキャプチャ用リサイザ112に入力される。そしてキャプチャ用リサイザ112は、カメラデータをJPEGファイルとして保存するためキャプチャ用リサイズ処理を行う。そしてキャプチャ用リサイズ処理が行われたカメラデータは、変換部114を介してJPEGラインバッファ116に書き込まれる。この変換部114では、例えばYUV422からYUV420へのフォーマット変換などが行われる。そしてJPEGコーデック118(広義には静止画コーデック)は、カメラデータに対して静止画圧縮処理を行う。即ちJPEGラインバッファ116に書き込まれたカメラデータのJPEG圧縮処理を行う。そして圧縮処理により得られたJPEGカメラデータ(広義には圧縮カメラデータ、静止画圧縮カメラデータ)は、JPEGFIFO120に蓄積されて、ホストインターフェース80を介してホストデバイス10に出力される。   Further, when a captured image of the camera 20 is captured and stored as a JPEG (still image compression) file, the camera data is transferred to the host device 10 as follows. That is, the camera data input to the camera input interface 40 is input to the capture resizer 112 via the demultiplexer 100. Then, the capture resizer 112 performs a capture resizing process in order to save the camera data as a JPEG file. The camera data that has undergone the capture resizing process is written into the JPEG line buffer 116 via the conversion unit 114. In the conversion unit 114, for example, format conversion from YUV422 to YUV420 is performed. The JPEG codec 118 (still image codec in a broad sense) performs still image compression processing on the camera data. That is, JPEG compression processing of camera data written in the JPEG line buffer 116 is performed. JPEG camera data (compressed camera data and still image compressed camera data in a broad sense) obtained by the compression process is accumulated in the JPEG FIFO 120 and output to the host device 10 via the host interface 80.

例えばカメラ20により被写体のプレビューを行っている状態では、図7の40、100、102、106、110、70の経路で、カメラデータがホストデバイス10に転送され、表示パネル24にカメラ撮影画像が表示される。一方、カメラ20のシャッタが押されて、カメラ撮影画像を保存する場合には、図7の40、100、112、114、116、118、120、80の経路で、カメラデータがホストデバイス10に転送され、JPEGカメラデータとして保存されることになる。   For example, when the subject is being previewed by the camera 20, the camera data is transferred to the host device 10 through the paths 40, 100, 102, 106, 110, and 70 in FIG. Is displayed. On the other hand, when the shutter of the camera 20 is pressed and the captured image is stored, the camera data is transferred to the host device 10 through the paths 40, 100, 112, 114, 116, 118, 120, and 80 in FIG. It is transferred and saved as JPEG camera data.

このように図7では、表示用リサイザ102によりリサイズ処理が行われたカメラデータは、カメラ出力インターフェース70を介してホストデバイス10に出力される。一方、キャプチャ用リサイザ112によりリサイズ処理が行われて圧縮されたJPEGカメラデータは、ホストインターフェース80を介してホストデバイス10に出力される。   As described above, in FIG. 7, the camera data that has been resized by the display resizer 102 is output to the host device 10 via the camera output interface 70. On the other hand, the JPEG camera data compressed by the resizing process performed by the capture resizer 112 is output to the host device 10 via the host interface 80.

即ちカメラ20のプレビュー画像を表示パネル24に表示する場合には、カメラ20からカメラデータが間断無く入力される。従って、この場合には、高速なカメラバスを介してホストデバイス10にカメラデータを転送することが望ましい。一方、カメラ20のキャプチャ画像であるカメラデータは、カメラのシャッタを押したタイミングで1回だけ転送すればよい。しかも、カメラデータはJPEGで圧縮されてそのサイズが小さくなっている。従って、この場合には、それほど高速ではないホストバスを介して、ホストデバイス10にカメラデータを転送することも可能になる。   That is, when displaying a preview image of the camera 20 on the display panel 24, camera data is input from the camera 20 without interruption. Therefore, in this case, it is desirable to transfer camera data to the host device 10 via a high-speed camera bus. On the other hand, camera data that is a captured image of the camera 20 may be transferred only once at the timing when the shutter of the camera is pressed. In addition, the camera data is compressed by JPEG to reduce its size. Accordingly, in this case, camera data can be transferred to the host device 10 via a host bus that is not so fast.

このように本実施形態では、カメラデータの利用態様に応じて、カメラデータの転送経路を変化させている。即ちカメラデータをプレビューとして表示パネル24に表示する利用態様の場合には、カメラ出力インターフェース70を介した経路でカメラデータをホストデバイス10に転送する。一方、カメラデータをJPEGファイル等として保存する利用態様の場合には、ホストインターフェース80を介した経路でカメラデータをホストデバイス10に転送する。このようにすれば、カメラデータの利用態様に応じた最適な転送経路でカメラデータをホストデバイス10に転送することが可能になり、転送効率を最適化できる。   As described above, in the present embodiment, the transfer path of the camera data is changed according to the usage mode of the camera data. That is, in the case of a usage mode in which camera data is displayed as a preview on the display panel 24, the camera data is transferred to the host device 10 through a route via the camera output interface 70. On the other hand, in the case of a usage mode in which camera data is stored as a JPEG file or the like, the camera data is transferred to the host device 10 via a path via the host interface 80. In this way, it becomes possible to transfer the camera data to the host device 10 through an optimal transfer path according to the usage mode of the camera data, and the transfer efficiency can be optimized.

なお、カメラ20の撮影画像をMPEG(動画圧縮)ファイルとして保存する場合には、次のようにしてカメラデータがホストデバイス10に転送される。即ちカメラ入力インターフェース40に入力されたカメラデータは、デマルチプレクサ100を介して表示用リサイザ102に入力される。そしてリサイズ処理が行われたカメラデータは、変換部124を介してMPEGエンコード・デコードバッファ126(コーデックバッファ)に書き込まれる。この変換部124では、例えばカメラデータの回転処理やミラー処理などが行われる。また変換部124はYUV422からYUV420へのフォーマット変換などを行うこともできる。またMPEGでは、表示する画像のサイズと保存する画像のサイズが、一般的に同じになるため、リサイズ処理は表示用リサイザ102により行われる。   Note that when the captured image of the camera 20 is stored as an MPEG (moving image compression) file, the camera data is transferred to the host device 10 as follows. That is, the camera data input to the camera input interface 40 is input to the display resizer 102 via the demultiplexer 100. The resized camera data is written to the MPEG encoding / decoding buffer 126 (codec buffer) via the conversion unit 124. In this conversion unit 124, for example, camera data rotation processing, mirror processing, and the like are performed. The conversion unit 124 can also perform format conversion from YUV422 to YUV420. In MPEG, the size of an image to be displayed and the size of an image to be stored are generally the same, so the resizing process is performed by the display resizer 102.

MPEGコーデック128(広義には動画コーデック)は、カメラデータに対して動画圧縮処理を行う。即ちMPEGエンコード・デコードバッファ126に書き込まれたカメラデータに対してMPEGの圧縮処理を行う。そして圧縮処理により得られたMPEGカメラデータ(広義には圧縮カメラデータ、動画圧縮カメラデータ)は、MPEGFIFO130に蓄積されて、ホストインターフェース80を介してホストデバイス10に出力される。   The MPEG codec 128 (moving image codec in a broad sense) performs moving image compression processing on camera data. That is, MPEG compression processing is performed on the camera data written in the MPEG encoding / decoding buffer 126. The MPEG camera data (compressed camera data and moving image compressed camera data in a broad sense) obtained by the compression process is accumulated in the MPEG FIFO 130 and output to the host device 10 via the host interface 80.

5.バイパス回路
図7に示すように本実施形態では、入力されたカメラデータをホストデバイス10にバイパス転送するバイパス回路140を設けている。具体的にはバイパス回路140は、カメラ入力インターフェース40に入力されたカメラデータを、画像処理部50やメモリ60を介さずに、カメラ出力インターフェース70に出力する。
5). Bypass Circuit As shown in FIG. 7, in this embodiment, a bypass circuit 140 that bypasses input camera data to the host device 10 is provided. Specifically, the bypass circuit 140 outputs the camera data input to the camera input interface 40 to the camera output interface 70 without going through the image processing unit 50 or the memory 60.

即ち本実施形態では、表示用リサイザ102等によりカメラデータに対するリサイズ処理が行われる。しかしながら、カメラ20の利用態様によっては、撮影されたカメラデータを、リサイズ処理などの画像処理を施さずにそのまま利用する場合がある。例えばカメラ20によりバーコードを撮影し、バーコード情報を読み取るような利用態様も考えられる。この利用態様では、ホストデバイス10上で動作するソフトウェアがカメラデータを解析し、バーコード情報を読み取る。そしてこの場合には、カメラデータの解像度が高いほど、バーコード情報の読み取り精度が高くなるため、表示用リサイザ102によるリサイズ処理は行われないことが望ましい。   In other words, in the present embodiment, the resizing process for the camera data is performed by the display resizer 102 or the like. However, depending on how the camera 20 is used, the captured camera data may be used as it is without being subjected to image processing such as resizing processing. For example, a usage mode in which a barcode is photographed by the camera 20 and barcode information is read is also conceivable. In this usage mode, software operating on the host device 10 analyzes camera data and reads barcode information. In this case, the higher the resolution of the camera data, the higher the reading accuracy of the barcode information. Therefore, it is desirable that the resizing process by the display resizer 102 is not performed.

そこで本実施形態では図7に示すようなバイパス回路140を設け、カメラ入力インターフェース40に入力されたカメラデータを、表示用リサイザ102等を介さずに、そのままカメラ出力インターフェース70を介してホストデバイス10に転送している。このようにすれば、ホストデバイス10のソフトウェアは、高解像度のカメラデータに基づいてバーコード情報等を解析して読み出すことが可能になり、利便性を向上できる。   Therefore, in the present embodiment, a bypass circuit 140 as shown in FIG. 7 is provided, and the camera data input to the camera input interface 40 is directly passed through the camera output interface 70 without passing through the display resizer 102 or the like. Have been transferred to. In this way, the software of the host device 10 can analyze and read out barcode information and the like based on high-resolution camera data, thereby improving convenience.

しかも、カメラバスはホストデバイスに比べて高速なバスである。またリサイズ処理が行われないカメラデータのサイズは大きい。従って本実施形態によれば、このような大きなサイズのカメラデータを、高速なカメラバスを介してホストデバイス10に転送できるため、転送効率を向上できる。   Moreover, the camera bus is a faster bus than the host device. The size of the camera data that is not resized is large. Therefore, according to the present embodiment, such large-sized camera data can be transferred to the host device 10 via the high-speed camera bus, so that transfer efficiency can be improved.

図8にバイパス回路140の構成例を示す。信号CMVREF、CMHREF、CMDATは、クロック信号CMCLKINに基づきフリップフロップDFF1、DFF2、DFF3によりサンプリングされ、信号ECMVREF、ECMHREF、ECMDATとしてホストデバイス10に出力される。このようにフリップフロップDFF1、DFF2、DFF3により信号をサンプリングすることで、信号のAC特性を改善できる。   FIG. 8 shows a configuration example of the bypass circuit 140. The signals CMVREF, CMHREF, and CMDAT are sampled by the flip-flops DFF1, DFF2, and DFF3 based on the clock signal CMCLKIN, and are output to the host device 10 as signals ECMVREF, ECMHREF, and ECMDAT. Thus, by sampling the signal by the flip-flops DFF1, DFF2, and DFF3, the AC characteristics of the signal can be improved.

なおセレクタSEL1〜SEL4は、信号レベルやエッジの極性反転のためのセレクタである。例えば選択信号SS1、SS2を用いてDFF1、DFF2の反転出力XQを選択すれば、CMVREF、CMHREFの信号レベルの極性を反転して、ECMVREF、ECMHREFとして出力できる。また選択信号SS3が入力されるセレクタSEL3を用いれば、クロック信号CMCLKINによるサンプリングのエッジ極性を切り替えることができる。また選択信号SS4が入力されるセレクタSEL4を用いれば、CMCLKINの信号レベルの極性を反転して、ECMCLKOUTとして出力できる。   The selectors SEL1 to SEL4 are selectors for inverting the signal level and edge polarity. For example, if the inverted output XQ of DFF1 and DFF2 is selected using the selection signals SS1 and SS2, the polarity of the signal level of CMVREF and CMHREF can be inverted and output as ECMVREF and ECMHREF. If the selector SEL3 to which the selection signal SS3 is input is used, the edge polarity of sampling by the clock signal CMCLKIN can be switched. If the selector SEL4 to which the selection signal SS4 is input is used, the polarity of the signal level of CMCLKIN can be inverted and output as ECMCLKOUT.

なお図8では、フリップフロップDFF1、DFF2、DFF3により信号をサンプリングする構成を採用しているが、DFF1、DFF2、DFF3やセレクタSEL1〜4などを設けない構成としてもよい。この場合には、バイパス回路140は、単なるバッファとしての機能を持てばよい。即ち信号CMVREF、CMHREF、CMDAT、CMCLKINを、バッファ回路によりバッファリングし、ECMVREF、ECMHREF、ECMDAT、ECMCLKOUTとしてホストデバイス10に出力すればよい。   In FIG. 8, a configuration is employed in which signals are sampled by flip-flops DFF1, DFF2, and DFF3. However, DFF1, DFF2, DFF3, and selectors SEL1 to SEL4 may not be provided. In this case, the bypass circuit 140 has only to function as a buffer. That is, the signals CMVREF, CMHREF, CMDAT, and CMCLKIN may be buffered by a buffer circuit and output to the host device 10 as ECMVREF, ECMHREF, ECMDAT, and ECMCLKOUT.

6.変形例
図9に本実施形態の変形例を示す。図7では、JPEGにより圧縮されたJPEGカメラデータはホストインターフェース80を介してホストデバイス10に出力される。これに対して図9では、JPEGカメラデータはカメラ出力インターフェース70を介してホストデバイス10に出力される。即ち図9のJPEGコーデック118(広義にコーデック)は、カメラデータに対して圧縮処理を行う。そしてカメラ出力インターフェース70は、圧縮処理により得られた圧縮カメラデータをホストデバイス10に出力する。
6). Modified Example FIG. 9 shows a modified example of the present embodiment. In FIG. 7, JPEG camera data compressed by JPEG is output to the host device 10 via the host interface 80. On the other hand, in FIG. 9, the JPEG camera data is output to the host device 10 via the camera output interface 70. That is, the JPEG codec 118 (codec in a broad sense) in FIG. 9 performs compression processing on the camera data. The camera output interface 70 outputs the compressed camera data obtained by the compression process to the host device 10.

前述のように、カメラ20の撮影画像を表示パネル24にプレビューで表示する場合には、カメラデータを間断なく転送する必要があるため、カメラ出力インターフェース70を介してカメラデータをホストデバイス10に出力することが望ましい。   As described above, when the captured image of the camera 20 is displayed as a preview on the display panel 24, the camera data needs to be transferred without interruption, so that the camera data is output to the host device 10 via the camera output interface 70. It is desirable to do.

一方、JPEGカメラデータについては、プレビュー用カメラデータのように間断なく転送する必要はないため、図7ではカメラ出力インターフェース70を介してホストデバイス10に出力している。   On the other hand, the JPEG camera data is output to the host device 10 through the camera output interface 70 in FIG.

しかしながら、JPEGカメラデータでは、キャプチャ用リサイザ112でのリサイズ倍率が等倍になることもあり、1画面分(1フレーム分)のカメラデータサイズで比べると、プレビュー用のカメラデータよりも一般的にサイズが大きい。   However, with JPEG camera data, the resizing magnification in the capture resizer 112 may be the same, and the camera data size for one screen (one frame) is generally more than that for preview camera data. The size is large.

そこで図9では、このJPEGカメラデータについては、ホストインターフェース80ではなく、カメラ出力インターフェース70を介してホストデバイス10に出力している。そしてホストデバイス10は、ホスト側カメラ入力インターフェース12を介して入力されたJPEGカメラデータを、メインメモリ26にJPEGファイルとして保存する。このようにすれば、JPEGカメラデータの転送のためにホストバスが占有されてホストデバイス10の処理効率が低下するなどの事態を防止できる。   Therefore, in FIG. 9, the JPEG camera data is output to the host device 10 via the camera output interface 70 instead of the host interface 80. Then, the host device 10 saves the JPEG camera data input via the host side camera input interface 12 as a JPEG file in the main memory 26. In this way, it is possible to prevent a situation in which the host bus is occupied for the transfer of JPEG camera data and the processing efficiency of the host device 10 decreases.

なお図9では、JPEG(静止画圧縮)のカメラデータについては、カメラ出力インターフェース70を介してホストデバイス10に出力する一方で、MPEG(動画圧縮)のカメラデータについては、ホストインターフェース80を介してホストデバイス10に出力している。   In FIG. 9, JPEG (still image compression) camera data is output to the host device 10 via the camera output interface 70, while MPEG (video compression) camera data is output via the host interface 80. It is output to the host device 10.

即ち前述のように、JPEGカメラデータでは、キャプチャ用リサイザ112でのリサイズ倍率が等倍になることもあり、1画面分のカメラデータサイズが一般的に大きい。これに対してMPEGカメラデータは、そのサイズが例えばQVGAやQCIFに設定され、プレビュー用カメラデータと同様に表示用リサイザ102によりリサイズされる。従って、MPEGカメラデータは、1画面分のカメラデータサイズで比べると、JPEGカメラデータに比べてサイズが小さい。   That is, as described above, in JPEG camera data, the resizing magnification in the capture resizer 112 may be equal, and the camera data size for one screen is generally large. On the other hand, the size of the MPEG camera data is set to QVGA or QCIF, for example, and is resized by the display resizer 102 in the same manner as the preview camera data. Therefore, the MPEG camera data is smaller in size than the JPEG camera data when compared with the camera data size for one screen.

またMPEGのコーデックは、ハードウェア回路とソフトウェアで分担して処理することが望ましい。例えばDCT(離散コサイン変換)、量子化、逆量子化、逆DCT、動き補償、或いは動き検出などの処理は、ハードウェア回路であるMPEGコーデック128が行う。一方、DC予測、スキャニング、或いはVLC符号化(可変長符号化)などの処理は、ホストデバイス10上で動作するソフトウェアが行う。このようにすることで、MPEGのコーデック処理の効率化を図れる。   It is desirable that the MPEG codec is divided and processed by hardware circuits and software. For example, processing such as DCT (discrete cosine transform), quantization, inverse quantization, inverse DCT, motion compensation, or motion detection is performed by the MPEG codec 128 which is a hardware circuit. On the other hand, software that operates on the host device 10 performs processing such as DC prediction, scanning, or VLC encoding (variable length encoding). By doing so, the efficiency of MPEG codec processing can be improved.

そしてこのようにMPEGのコーデックをハードウェア回路とソフトウェアで分担して処理する場合には、MPEGのカメラデータについては、ホストインターフェース80を介してホストデバイス10に出力することが望ましい。即ちMPEGコーデック128によるハードウェア・コーデック処理(DCT、量子化、逆量子化、逆DCT、動き補償、動き検出)が施された後のカメラデータを、MPEGFIFO130に書き込み、ホストインターフェース80を介してホストデバイス10に出力する。こうすれば、ホストデバイス10上で動作するソフトウェアがハードウェア・コーデック処理後のカメラデータを受け取り、ソフトウェア・コーデック処理(DC予測、スキャニング、VLC符号化)を施すという一連の処理を、スムーズに行うことが可能になる。   When the MPEG codec is divided and processed by the hardware circuit and software in this way, it is desirable to output the MPEG camera data to the host device 10 via the host interface 80. That is, the camera data after hardware codec processing (DCT, quantization, inverse quantization, inverse DCT, motion compensation, motion detection) by the MPEG codec 128 is written into the MPEG FIFO 130 and the host interface 80 receives the host data. Output to the device 10. In this way, a series of processes in which software operating on the host device 10 receives the camera data after hardware codec processing and performs software codec processing (DC prediction, scanning, VLC encoding) are smoothly performed. It becomes possible.

7.回転、ミラー処理
携帯電話機に対するカメラ20(CCD)の実装形態は様々である。従って、カメラ20での撮影イメージと、表示パネル24での表示イメージが一致しない場合がある。従って、これらを一致させるために、カメラ20からのカメラデータに対して回転処理やミラー処理を行うことが望まれる。例えば図10のA1に示すカメラ20の撮影イメージと、A3に示す表示パネル24での表示イメージは一致していない。従ってA1の画像をA3に示すように90度回転させる処理が必要になる。またカメラ20の実装形態によっては、90度以外の回転処理やミラー処理(鏡像処理)が必要な場合もある。
7). Rotation, mirror processing There are various mounting forms of the camera 20 (CCD) on the mobile phone. Therefore, the image captured by the camera 20 and the display image displayed on the display panel 24 may not match. Therefore, in order to make these coincide, it is desirable to perform rotation processing and mirror processing on the camera data from the camera 20. For example, the captured image of the camera 20 shown in A1 of FIG. 10 does not match the display image on the display panel 24 shown in A3. Therefore, a process of rotating the image of A1 by 90 degrees as indicated by A3 is necessary. Further, depending on the mounting form of the camera 20, rotation processing or mirror processing (mirror image processing) other than 90 degrees may be required.

このために本実施形態では図7に示すように、カメラデータに対して回転処理及びミラー処理の少なくとも一方を行う変換部124を設けている。そして動画カメラデータについては、図10のA2に示すように、変換部114により回転処理及びミラー処理の少なくとも一方が行われた後に、MPEGエンコード・デコードバッファ126(広義にはメモリ)に書き込まれる。そして書き込まれた動画カメラデータに対して、MPEGコーデック128(動画エンコーダ)が動画圧縮処理を行い、得られたMPEGカメラデータが、ホストインターフェース80などを介してホストデバイス10に出力される。そしてA3に示すように、MPEGファイルとして保存されたり、デコードされて表示パネル24に表示される。   For this purpose, in the present embodiment, as shown in FIG. 7, a conversion unit 124 that performs at least one of rotation processing and mirror processing on camera data is provided. The moving image camera data is written in the MPEG encoding / decoding buffer 126 (memory in a broad sense) after at least one of rotation processing and mirror processing is performed by the conversion unit 114, as indicated by A2 in FIG. The MPEG codec 128 (moving image encoder) performs moving image compression processing on the written moving image camera data, and the obtained MPEG camera data is output to the host device 10 via the host interface 80 or the like. Then, as shown at A3, it is stored as an MPEG file or decoded and displayed on the display panel 24.

一方、静止画カメラデータについては、図10のA4に示すように、回転処理やミラー処理を行わずにJPEGラインバッファ116(メモリ)に書き込まれる。そして書き込まれたカメラデータに対して、JPEGコーデック118(静止画エンコーダ)が静止画圧縮処理を行い、得られたJPEGカメラデータが、ホストインターフェース80(又はカメラ出力インターフェース70)を介してホストデバイス10に出力される。すると図10のA5に示すように、JPEGカメラデータはメインメモリ26に一旦保存され、A6に示すように、ホストデバイス10上で動作するソフトウェアにより回転処理やミラー処理が施される。またA7に示すように表示パネル24に表示される。   On the other hand, as shown in A4 of FIG. 10, the still image camera data is written in the JPEG line buffer 116 (memory) without performing rotation processing or mirror processing. The JPEG codec 118 (still image encoder) performs still image compression processing on the written camera data, and the obtained JPEG camera data is sent to the host device 10 via the host interface 80 (or camera output interface 70). Is output. Then, as shown at A5 in FIG. 10, the JPEG camera data is temporarily stored in the main memory 26, and as shown at A6, rotation processing and mirror processing are performed by software operating on the host device 10. Further, it is displayed on the display panel 24 as indicated by A7.

JPEGカメラデータは、フレーム単位のデータであるため、図10のA5、A6に示すようにソフトウェア処理により回転処理やミラー処理を行うことは容易である。これに対してMPEGカメラデータは、例えば15FPSの速度で途切れることなく生成したり再生したりする必要がある。従って図10のA5、A6に示すようにメインメモリから読み出す際にソフトウェア処理により回転処理やミラー処理を行うのは難しい。またMPEGエンコードの際に回転処理やミラー処理を行うのも難しい。   Since JPEG camera data is data in units of frames, it is easy to perform rotation processing and mirror processing by software processing as shown by A5 and A6 in FIG. On the other hand, MPEG camera data must be generated and reproduced without interruption at a rate of 15 FPS, for example. Therefore, it is difficult to perform rotation processing or mirror processing by software processing when reading from the main memory as shown in A5 and A6 of FIG. It is also difficult to perform rotation processing or mirror processing during MPEG encoding.

そこで本実施形態では図10に示すように、動画カメラデータについては、メモリ(MPEGエンコード・デコードバッファ)に書き込む前に回転処理やミラー処理を行う。そしてメモリに書き込まれた回転処理・ミラー処理後の動画カメラデータに対して動画圧縮処理を行い、得られたMPEGカメラデータをファイルとして保存したり、デコードして表示パネル24に表示する。   Therefore, in the present embodiment, as shown in FIG. 10, the moving image data is subjected to a rotation process and a mirror process before being written to the memory (MPEG encoding / decoding buffer). Then, moving image compression processing is performed on the moving image camera data after rotation processing and mirror processing written in the memory, and the obtained MPEG camera data is saved as a file or decoded and displayed on the display panel 24.

このようにすれば、図10のA5、A6に示すようにソフトウェア処理により回転処理やミラー処理を行わなくても済むようになる。そしてカメラ20の実装形態が原因で撮影イメージと表示イメージが一致しない場合であっても、これらが一致するように、動画カメラデータに対して回転処理やミラー処理を施すことが可能になる。   In this way, as shown in A5 and A6 in FIG. 10, it is not necessary to perform rotation processing and mirror processing by software processing. Even when the captured image and the display image do not match due to the mounting form of the camera 20, the moving camera data can be subjected to rotation processing or mirror processing so that they match.

なお、ここで回転処理とは、処理対象画像(カメラ画像)の向きを処理対象画像の中心点を中心に0度、90度、180度、270度というように回転させた画像を生成するための処理である。またミラー処理とは、処理対象画像の鏡像(処理対象画像に対面するミラーに映る画像)であるミラー表示画像を生成するための処理である。例えば回転処理やミラー処理を行う場合には、ホストデバイス10が、図3の回転角度設定レジスタ97、ミラー表示設定レジスタ98に対して、ホストデバイス10が回転角度やミラー表示指示を行う。すると画像処理部50(変換部114)が、その回転角度に応じた回転処理や、ミラー表示指示に従ったミラー処理を行う。具体的には画像処理部50(変換部114)は、メモリ60(MPEGエンコード・デコードバッファ)への書き込みアドレスを制御することで、回転処理やミラー処理を実現する。   Here, the rotation processing is to generate an image in which the orientation of the processing target image (camera image) is rotated to 0 degrees, 90 degrees, 180 degrees, 270 degrees around the center point of the processing target image. It is processing of. The mirror process is a process for generating a mirror display image that is a mirror image of the processing target image (an image displayed on a mirror facing the processing target image). For example, when performing rotation processing or mirror processing, the host device 10 issues a rotation angle or mirror display instruction to the rotation angle setting register 97 and the mirror display setting register 98 of FIG. Then, the image processing unit 50 (conversion unit 114) performs a rotation process according to the rotation angle and a mirror process according to a mirror display instruction. Specifically, the image processing unit 50 (conversion unit 114) realizes rotation processing and mirror processing by controlling a write address to the memory 60 (MPEG encoding / decoding buffer).

8.オート転送モード
本実施形態ではカメラデータの転送モードとしてシングル転送モードとオート転送モードを用意している。
8). Auto Transfer Mode In this embodiment, a single transfer mode and an auto transfer mode are prepared as camera data transfer modes.

ここでシングル転送モードでは、ホストデバイス10から指示があったことを条件に、図3のメモリ60に記憶された1画面分のカメラデータ(或いはカメラデータ以外の表示データ)をカメラ出力インターフェース70を介してホストデバイス10に転送するモードである。図7を例にとれば、ホストデバイス10がホストインターフェース80を介してシングル転送を指示すると、表示用バッファ106(フレームメモリ)に記憶された1画面分のカメラデータ(又は表示データ)が、表示用FIFO110、カメラ出力インターフェース70を介してホストデバイス10に転送される。   Here, in the single transfer mode, on the condition that there is an instruction from the host device 10, camera data (or display data other than the camera data) for one screen stored in the memory 60 of FIG. In this mode, data is transferred to the host device 10 via the network. Taking FIG. 7 as an example, when the host device 10 instructs single transfer via the host interface 80, camera data (or display data) for one screen stored in the display buffer 106 (frame memory) is displayed. The data is transferred to the host device 10 via the FIFO 110 and the camera output interface 70.

一方、オート転送モードは、カメラ入力インターフェース40にカメラデータが入力されたことを条件に、画像処理部50、メモリ60、カメラ出力インターフェース70を介してカメラデータをホストデバイス10に自動転送するモードである。図7を例にとれば、カメラ入力インターフェース40に入力される垂直同期信号が非アクティブになる毎(垂直表示期間が終了する毎)に、表示用バッファ106に書き込まれたカメラデータが、表示用FIFO110、カメラ出力インターフェース70を介してホストデバイス10に自動転送される。   On the other hand, the auto transfer mode is a mode in which camera data is automatically transferred to the host device 10 via the image processing unit 50, the memory 60, and the camera output interface 70 on condition that the camera data is input to the camera input interface 40. is there. Taking FIG. 7 as an example, every time the vertical synchronizing signal input to the camera input interface 40 becomes inactive (every time the vertical display period ends), the camera data written in the display buffer 106 is displayed. The data is automatically transferred to the host device 10 via the FIFO 110 and the camera output interface 70.

このオート転送モードを利用すれば、カメラの撮影画像のプレビュー表示等を更にスムーズに行うことが可能になる。即ちホストデバイス10は、図3の転送制御レジスタ94にオート転送モードのイネーブルを設定する。すると画像処理コントローラ30のハードウエア回路は、カメラ20からの垂直同期信号が非アクティブ(例えばローレベル)になり、垂直表示期間が終了する毎に、その垂直表示期間において表示用バッファ106に書き込まれた1画面分のカメラデータを読み出す。そして表示用バッファ106から読み出されたカメラデータを、カメラ出力インターフェース70を介してホストデバイス10に出力する。このようにして読み出されたカメラデータの画像は、表示パネル24にプレビュー表示される。そしてホストデバイス10が、図3の転送制御レジスタ94にオート転送モードのディスエーブルを設定すると、オート転送モードが終了し、プレビュー表示も終了するようになる。   By using this auto transfer mode, it becomes possible to display the preview of the photographed image of the camera more smoothly. That is, the host device 10 sets the auto transfer mode enable in the transfer control register 94 of FIG. Then, the hardware circuit of the image processing controller 30 is written in the display buffer 106 during the vertical display period every time the vertical display period ends when the vertical synchronization signal from the camera 20 becomes inactive (for example, low level). The camera data for one screen is read out. Then, the camera data read from the display buffer 106 is output to the host device 10 via the camera output interface 70. The image of the camera data read out in this way is displayed as a preview on the display panel 24. When the host device 10 sets the automatic transfer mode to be disabled in the transfer control register 94 of FIG. 3, the automatic transfer mode is ended and the preview display is also ended.

例えばシングル転送モードを利用してプレビュー表示を実現しようとすると、表示用バッファ106に1画面分のカメラデータが書き込まれる毎に、ホストデバイス10がシングル転送の指示を行う必要があり、ホストデバイス10の処理負荷が過大になる。   For example, when preview display is to be realized using the single transfer mode, the host device 10 needs to instruct single transfer every time camera data for one screen is written in the display buffer 106. The processing load becomes excessive.

これに対してオート転送モードでは、ホストデバイス10がオート転送モードのイネーブルを設定した後は、ホストデバイス10の介在がなくても、カメラ20から取り込まれたカメラデータが、リサイズ処理などが施されて自動的にホストデバイス10に転送される。従って、ホストデバイス10(ファームウェア)は、オート転送モードのイネーブルを設定した後は他の処理を行うことが可能になり、ホストデバイス10の処理効率を向上できる。   On the other hand, in the auto transfer mode, after the host device 10 sets the enable of the auto transfer mode, the camera data captured from the camera 20 is subjected to a resizing process or the like without the host device 10 being interposed. And automatically transferred to the host device 10. Therefore, the host device 10 (firmware) can perform other processing after the auto transfer mode is enabled, and the processing efficiency of the host device 10 can be improved.

図11、図12に、シングル転送モード時やオート転送モード時のホストデバイス10の処理フローを示す。   11 and 12 show a processing flow of the host device 10 in the single transfer mode or the auto transfer mode.

図11のシングル転送モードでは、ホストデバイス10は、表示ドライバインターフェースのステータスがBUSYか否かを判断し、BUSYでない場合には、シングル転送の指示を転送制御レジスタ94に設定する(ステップS1、S2)。すると、1画面分のカメラデータがホストデバイス10に転送され、シングル転送が終了する(ステップS3、S4)。   In the single transfer mode of FIG. 11, the host device 10 determines whether or not the status of the display driver interface is BUSY, and if not, sets a single transfer instruction in the transfer control register 94 (steps S1 and S2). ). Then, the camera data for one screen is transferred to the host device 10, and the single transfer ends (steps S3 and S4).

図12のオート転送モードでは、ホストデバイス10は、表示ドライバインターフェースのステータスがBUSYか否かを判断し(ステップS11)、BUSYでない場合には、オート転送のイネーブルを転送制御レジスタ94に設定する(ステップS12)。すると、表示パネルへの表示(プレビュー表示)が終了するまで、1画面分のカメラデータが入力される毎に、そのカメラデータがホストデバイス10に転送される(ステップS13、S14)。そして表示パネルへの表示を終了させる場合には、ホストデバイス10は、オート転送のディスエーブルを転送制御レジスタ94に設定する(ステップS15)。そして表示ドライバインターフェースのステータスがBUSYか否かを判断した後、オート転送が終了する(ステップS16、S17)。   In the auto transfer mode of FIG. 12, the host device 10 determines whether or not the status of the display driver interface is BUSY (step S11). If it is not BUSY, the auto transfer enable is set in the transfer control register 94 (step S11). Step S12). Then, each time camera data for one screen is input, the camera data is transferred to the host device 10 until display on the display panel (preview display) is completed (steps S13 and S14). When the display on the display panel is to be ended, the host device 10 sets auto transfer disable in the transfer control register 94 (step S15). Then, after determining whether or not the status of the display driver interface is BUSY, the automatic transfer ends (steps S16 and S17).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(静止画圧縮、動画圧縮等)と共に記載された用語(JPEG、MPEG等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (JPEG, MPEG, etc.) described at least once together with a different term having a broader meaning or the same meaning (still image compression, moving image compression, etc.) It can be replaced by that different term.

また画像処理コントローラや電子機器の構成や動作も本実施形態で説明した構成や動作に限定に限定されず、種々の変形実施が可能である。またカメラデータの転送手法、リサイズ手法、圧縮手法等も本実施形態で説明した手法に限定されない。   The configurations and operations of the image processing controller and the electronic device are not limited to the configurations and operations described in the present embodiment, and various modifications can be made. Also, the camera data transfer method, resizing method, compression method, and the like are not limited to the methods described in this embodiment.

本実施形態の画像処理コントローラを含む電子機器の構成例。1 is a configuration example of an electronic device including an image processing controller according to an embodiment. 比較例の構成例。The structural example of a comparative example. 本実施形態の画像処理コントローラの構成例。2 is a configuration example of an image processing controller according to the present embodiment. ホストインターフェース信号の説明図。Explanatory drawing of a host interface signal. 図5(A)(B)はカメラインターフェース信号のエミュレーション処理の説明図。5A and 5B are explanatory views of camera interface signal emulation processing. カメラインターフェース信号のエミュレーション処理の説明図。Explanatory drawing of the emulation process of a camera interface signal. 本実施形態の画像処理コントローラの詳細な構成例。2 is a detailed configuration example of an image processing controller according to the present embodiment. バイパス回路の構成例。The structural example of a bypass circuit. 本実施形態の変形例。The modification of this embodiment. 回転・ミラー処理に関する本実施形態の手法の説明図。Explanatory drawing of the method of this embodiment regarding a rotation and mirror process. シングル転送モード時のフロー図。The flowchart in the single transfer mode. オート転送モード時のフロー図。Flow chart in auto transfer mode.

符号の説明Explanation of symbols

10 ホストデバイス、12 ホスト側カメラ入力インターフェース、
14 表示ドライバインターフェース、20 カメラ、22 表示ドライバ、
24 表示パネル、26 メインメモリ、28 その他のデバイス、
30 画像処理コントローラ、40 カメラ入力インターフェース、
50 画像処理部、60 メモリ、70 カメラ出力インターフェース、
72 信号ジェネレータ、80 ホストインターフェース、90 レジスタ部、
92 タイミング設定レジスタ、94 転送制御レジスタ、
96 リサイズ倍率設定レジスタ、97 回転角度設定レジスタ、
98 ミラー表示設定レジスタ、100 デマルチプレクサ、102 表示用リサイザ、
106 表示用バッファ、110 表示用FIFO、112 キャプチャ用リサイザ、
114 変換部、116 JPEGラインバッファ、118 JPEGコーデック、
120 JPEGFIFO、124 変換部、
126 MPEGエンコード・デコードバッファ、128 MPEGコーデック、
130 MPEGFIFO
10 host device, 12 host side camera input interface,
14 display driver interface, 20 cameras, 22 display drivers,
24 display panels, 26 main memory, 28 other devices,
30 image processing controller, 40 camera input interface,
50 image processing unit, 60 memory, 70 camera output interface,
72 signal generator, 80 host interface, 90 register section,
92 Timing setting register, 94 Transfer control register,
96 resizing magnification setting register, 97 rotation angle setting register,
98 mirror display setting register, 100 demultiplexer, 102 display resizer,
106 display buffer, 110 display FIFO, 112 capture resizer,
114 conversion unit, 116 JPEG line buffer, 118 JPEG codec,
120 JPEG FIFO, 124 conversion unit,
126 MPEG encoding / decoding buffer, 128 MPEG codec,
130 MPEG FIFO

Claims (12)

カメラデータが入力されるカメラ入力インターフェースと、
カメラデータに対して画像処理を行う画像処理部と、
画像処理が行われたカメラデータを記憶するメモリと、
ホストデバイスとの間のホストインターフェース処理を行うホストインターフェースと、
前記メモリに記憶されたカメラデータを、前記ホストデバイスのホスト側カメラ入力インターフェースに出力するカメラ出力インターフェースとを含むことを特徴とする画像処理コントローラ。
A camera input interface for inputting camera data;
An image processing unit that performs image processing on camera data;
A memory for storing camera data subjected to image processing;
A host interface that performs host interface processing with the host device; and
An image processing controller, comprising: a camera output interface that outputs camera data stored in the memory to a host-side camera input interface of the host device.
請求項1において、
前記画像処理部は、
カメラデータに対してリサイズ処理を行うリサイザを含み、
前記カメラ出力インターフェースは、
前記カメラ入力インターフェースを介して入力される垂直同期信号、水平同期信号のエミュレーション処理を行い、前記エミュレーション処理においては、前記リサイズ処理のリサイズ倍率に応じた長さに垂直表示期間、水平表示期間の長さが設定されるエミュレーション垂直同期信号、エミュレーション水平同期信号を生成して、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力することを特徴とする画像処理コントローラ。
In claim 1,
The image processing unit
Includes a resizer to resize camera data
The camera output interface is
Emulation processing of a vertical synchronization signal and a horizontal synchronization signal input via the camera input interface is performed, and in the emulation processing, a length corresponding to a resizing magnification of the resizing processing is set to a length of a vertical display period and a horizontal display period. An image processing controller for generating an emulation vertical synchronization signal and an emulation horizontal synchronization signal for which the length is set and outputting the generated emulation synchronization signal to the host-side camera input interface of the host device.
請求項1又は2において、
前記ホストデバイスは、
表示パネルを駆動する表示ドライバとの間のインターフェース処理を行う表示ドライバインターフェースを含み、
前記画像処理部は、
カメラデータを前記表示パネルに表示するためのリサイズ処理を行う表示用リサイザを含み、
前記カメラ出力インターフェースは、
前記表示用リサイザによりリサイズ処理が行われたカメラデータを、前記ホスト側カメラ入力インターフェースに出力することを特徴とする画像処理コントローラ。
In claim 1 or 2,
The host device is
Including a display driver interface that performs interface processing with a display driver that drives the display panel;
The image processing unit
Including a display resizer for performing a resizing process for displaying camera data on the display panel;
The camera output interface is
An image processing controller, wherein the camera data that has been resized by the display resizer is output to the host-side camera input interface.
請求項3において、
前記画像処理部は、
カメラデータをファイルとして保存するためのリサイズ処理を行うキャプチャ用リサイザを含み、
前記ホストインターフェースは、
前記キャプチャ用リサイザによりリサイズ処理が行われたカメラデータを、前記ホストデバイスに出力することを特徴とする画像処理コントローラ。
In claim 3,
The image processing unit
Includes a capture resizer that performs resizing to save camera data as a file.
The host interface is
An image processing controller, wherein the camera data that has been resized by the capture resizer is output to the host device.
請求項1乃至4のいずれかにおいて、
前記カメラ入力インターフェースに入力されたカメラデータを、前記画像処理部及び前記メモリを介さずに前記カメラ出力インターフェースに出力するバイパス回路を含むことを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 4,
An image processing controller, comprising: a bypass circuit that outputs camera data input to the camera input interface to the camera output interface without passing through the image processing unit and the memory.
請求項1乃至5のいずれかにおいて、
前記画像処理部は、
カメラデータに対して圧縮処理を行うコーデックを含み、
前記カメラ出力インターフェースは、
前記コーデックにより圧縮処理が行われた圧縮カメラデータを、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力することを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 5,
The image processing unit
Including a codec that compresses camera data,
The camera output interface is
An image processing controller that outputs compressed camera data compressed by the codec to the host side camera input interface of the host device.
請求項6において、
前記画像処理部は、
カメラデータに対して静止画圧縮処理を静止画コーデックと、
カメラデータに対して動画圧縮処理を行う動画コーデックとを含み、
前記カメラ出力インターフェースは、
前記静止画コーデックにより静止画圧縮処理が行われた静止画圧縮カメラデータを、前記ホストデバイスの前記ホスト側カメラ入力インターフェースに出力し、
前記ホストインターフェースは、
前記動画コーデックにより動画圧縮処理が行われた動画圧縮カメラデータを、前記ホストデバイスに出力することを特徴とする画像処理コントローラ。
In claim 6,
The image processing unit
Still image codec for camera data
Including a video codec that performs video compression processing on camera data,
The camera output interface is
Still image compression camera data that has been subjected to still image compression processing by the still image codec is output to the host side camera input interface of the host device,
The host interface is
An image processing controller, wherein moving image compression camera data that has been subjected to moving image compression processing by the moving image codec is output to the host device.
請求項1乃至7のいずれかにおいて、
前記画像処理部は、
カメラデータに対して回転処理及びミラー処理の少なくとも一方を行う変換部と、
カメラデータに対して静止画圧縮処理を静止画コーデックと、
カメラデータに対して動画圧縮処理を行う動画コーデックとを含み、
動画カメラデータについては、前記変換部により前記回転処理及び前記ミラー処理の少なくとも一方が行われた後に前記メモリに書き込まれ、前記動画コーデックにより動画圧縮処理が行われて前記ホストデバイスに出力され、
静止画カメラデータについては、前記変換部による前記回転処理、前記ミラー処理が行われずに前記メモリに書き込まれ、前記静止画コーデックにより静止画圧縮処理が行われて前記ホストデバイスに出力されることを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 7,
The image processing unit
A conversion unit that performs at least one of rotation processing and mirror processing on camera data;
Still image codec for camera data
Including a video codec that performs video compression processing on camera data,
For the video camera data, at least one of the rotation processing and the mirror processing is performed by the conversion unit and then written to the memory, the video codec is subjected to video compression processing and output to the host device,
Still image camera data is written to the memory without being subjected to the rotation processing and the mirror processing by the conversion unit, and is subjected to still image compression processing by the still image codec and is output to the host device. A featured image processing controller.
請求項1乃至8のいずれかにおいて、
オート転送モードでは、
前記カメラ入力インターフェースにカメラデータが入力されたことを条件に、前記画像処理部、前記メモリ、前記カメラ出力インターフェースを介してカメラデータを前記ホストデバイスに自動転送することを特徴とする画像処理コントローラ。
In any one of Claims 1 thru | or 8.
In auto transfer mode,
An image processing controller for automatically transferring camera data to the host device via the image processing unit, the memory, and the camera output interface on condition that camera data is input to the camera input interface.
請求項9において、
前記オート転送モードでは、
前記カメラ入力インターフェースに入力される垂直同期信号が非アクティブになったことを条件に、前記画像処理部、前記メモリ、前記カメラ出力インターフェースを介してカメラデータを前記ホストデバイスに自動転送することを特徴とする画像処理コントローラ。
In claim 9,
In the auto transfer mode,
Camera data is automatically transferred to the host device via the image processing unit, the memory, and the camera output interface on condition that a vertical synchronization signal input to the camera input interface becomes inactive. An image processing controller.
請求項9又は10において、
シングル転送モードでは、
前記ホストデバイスから指示があったことを条件に、前記メモリに記憶された1画面分のカメラデータを前記カメラ出力インターフェースを介して前記ホストデバイスに転送することを特徴とする画像処理コントローラ。
In claim 9 or 10,
In single transfer mode,
An image processing controller for transferring camera data for one screen stored in the memory to the host device via the camera output interface on condition that an instruction is issued from the host device.
請求項1乃至11のいずれかに記載の画像処理コントローラと、
前記画像処理コントローラにカメラデータを出力するカメラと、
前記ホストデバイスとを含むことを特徴とする電子機器。
An image processing controller according to any one of claims 1 to 11,
A camera that outputs camera data to the image processing controller;
An electronic apparatus comprising the host device.
JP2005106304A 2005-04-01 2005-04-01 Image processing controller and electronic device Withdrawn JP2006287715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005106304A JP2006287715A (en) 2005-04-01 2005-04-01 Image processing controller and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005106304A JP2006287715A (en) 2005-04-01 2005-04-01 Image processing controller and electronic device

Publications (1)

Publication Number Publication Date
JP2006287715A true JP2006287715A (en) 2006-10-19

Family

ID=37409125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005106304A Withdrawn JP2006287715A (en) 2005-04-01 2005-04-01 Image processing controller and electronic device

Country Status (1)

Country Link
JP (1) JP2006287715A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012117701A1 (en) * 2011-03-02 2014-07-07 日本電気株式会社 Data control system, data control method, and data control program
CN115034948A (en) * 2021-12-30 2022-09-09 荣耀终端有限公司 Image processing method and electronic equipment
CN115866156A (en) * 2023-03-01 2023-03-28 上海励驰半导体有限公司 Data processing method and device, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012117701A1 (en) * 2011-03-02 2014-07-07 日本電気株式会社 Data control system, data control method, and data control program
CN115034948A (en) * 2021-12-30 2022-09-09 荣耀终端有限公司 Image processing method and electronic equipment
CN115866156A (en) * 2023-03-01 2023-03-28 上海励驰半导体有限公司 Data processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US7701472B2 (en) Display controller, electronic device, and method of supplying image data
US8547453B2 (en) Image processing apparatus and camera system
US7542010B2 (en) Preventing image tearing where a single video input is streamed to two independent display devices
US20050280601A1 (en) Display control apparatus and display control method
JP2008506295A (en) Method and system for displaying a series of image frames
US20060133695A1 (en) Display controller, electronic instrument, and image data supply method
CN105825826B (en) Display driver
US8233003B2 (en) Image processing device, image processing method, and electronic instrument
JP4728393B2 (en) Method and apparatus for processing image data stored in a frame buffer
CN113132650A (en) Video image display processing control device and method and display terminal
JP2006287715A (en) Image processing controller and electronic device
JP2006203437A (en) Camera and its image processing method
JP2012028997A (en) Image processing device and camera
JP2006014298A (en) Method for processing rotated image and multimedia processor
JP2011077970A (en) Image processor, image display system, electronic device and image processing method
JP2009098692A (en) Size change method of image, resizer, image processing device and electronics apparatus
JP2007183668A (en) Display driver and electronic equipment
US20070008325A1 (en) Method and apparatus providing for high efficiency data capture for compression encoding
KR100715522B1 (en) Camera control apparatus, image data displaying apparatus and method thereof
US7505073B2 (en) Apparatus and method for displaying a video on a portion of a display without requiring a display buffer
KR100608766B1 (en) A display apparatus and method for mobile communication terminal
JP2011039302A (en) Buffer control circuit, display controller and electronic apparatus
JP5224492B2 (en) Image data transfer control device, image data transfer method, and camera having the image data transfer device
JP2009296046A (en) Imaging apparatus
JP2009069311A (en) Image display device, control method thereof, and imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603