JP6720517B2 - Circuit devices, electro-optical devices, electronic devices, moving objects - Google Patents

Circuit devices, electro-optical devices, electronic devices, moving objects Download PDF

Info

Publication number
JP6720517B2
JP6720517B2 JP2015243867A JP2015243867A JP6720517B2 JP 6720517 B2 JP6720517 B2 JP 6720517B2 JP 2015243867 A JP2015243867 A JP 2015243867A JP 2015243867 A JP2015243867 A JP 2015243867A JP 6720517 B2 JP6720517 B2 JP 6720517B2
Authority
JP
Japan
Prior art keywords
error detection
frame
detection area
unit
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015243867A
Other languages
Japanese (ja)
Other versions
JP2017111219A (en
Inventor
一人 菊田
一人 菊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015243867A priority Critical patent/JP6720517B2/en
Priority to CN201680073008.8A priority patent/CN108369795B/en
Priority to EP16875330.9A priority patent/EP3392872A4/en
Priority to PCT/JP2016/084285 priority patent/WO2017104346A1/en
Priority to US16/060,063 priority patent/US10778247B2/en
Publication of JP2017111219A publication Critical patent/JP2017111219A/en
Application granted granted Critical
Publication of JP6720517B2 publication Critical patent/JP6720517B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)

Description

本発明は、回路装置、電気光学装置、電子機器、移動体等に関する。 The present invention relates to a circuit device, an electro-optical device, an electronic device, a moving body and the like.

表示装置(例えば液晶表示装置)における表示制御では、CPU等の処理装置が表示コントローラーに画像データと制御信号を送信し、表示コントローラーは画像処理とタイミング信号の生成を行い、その画像処理された画像データとタイミング信号により表示ドライバーが動作する。処理装置から表示コントローラーへの画像データの送信には、例えばLVDS(Low Voltage Differential Signal)方式やRGBシリアル方式が用いられるが、いずれにしても通信エラー等によって画像データに誤りが発生する場合がある。例えば特許文献1〜3には、表示コントローラーが処理装置から受信した画像データをCRC(Cyclic Redundancy Check)によりエラー検出する技術が開示されている。 In display control of a display device (for example, a liquid crystal display device), a processing device such as a CPU transmits image data and control signals to a display controller, the display controller performs image processing and timing signal generation, and the image-processed image The display driver operates according to the data and timing signals. For example, an LVDS (Low Voltage Differential Signal) system or an RGB serial system is used to transmit the image data from the processing device to the display controller, but in any case, an error may occur in the image data due to a communication error or the like. .. For example, Patent Documents 1 to 3 disclose techniques in which a display controller detects an error in image data received from a processing device by CRC (Cyclic Redundancy Check).

特開2012−35677号公報JP, 2012-35677, A 特開2007−101691号公報JP, 2007-101691, A 特開2007−72394号公報JP, 2007-72394, A

このようなエラー検出では、処理装置が、表示コントローラーに送信する画像データからエラー検出の期待値情報(例えばCRCの期待値)を求め、表示コントローラーが、処理装置から受信した画像データからエラー検出の算出値(例えばCRC値)を求め、その期待値情報と算出値を比較してエラー検出を行う。そのため、処理装置には、エラー検出の期待値情報を求める処理負荷が生じる。例えば、1フレームの画像の画像データを全てエラー検出する場合、期待値情報の算出に用いるデータ量が膨大となり、処理負荷が大きくなる。この負荷を減らすために、エラー検出を行う領域を縮小する(画像の一部の領域だけエラー検出を行う)手法が考えられるが、その領域以外の画像をエラー検出できない。 In such error detection, the processing device obtains expected value information for error detection (for example, expected value of CRC) from image data transmitted to the display controller, and the display controller detects error detection from image data received from the processing device. A calculated value (for example, a CRC value) is obtained, and the expected value information and the calculated value are compared to detect an error. Therefore, a processing load is imposed on the processing device to obtain expected value information for error detection. For example, when all the image data of the image of one frame is error-detected, the amount of data used to calculate the expected value information becomes enormous and the processing load increases. In order to reduce this load, a method of reducing the area in which error detection is performed (error detection is performed only in a partial area of the image) can be considered, but an error cannot be detected in images other than that area.

本発明の幾つかの態様によれば、画像データのエラー検出における処理装置の処理負荷を低減できる回路装置、電気光学装置、電子機器、移動体等を提供できる。 According to some aspects of the present invention, it is possible to provide a circuit device, an electro-optical device, an electronic device, a moving body, and the like that can reduce the processing load of the processing device in error detection of image data.

本発明の一態様は、画像データのエラー検出を行うエラー検出部と、前記エラー検出の結果に基づいてエラー信号を出力するエラー信号出力部と、を含み、前記エラー検出部は、nを2以上の整数、i、jを1以上n以下の整数とし、且つ、i≠jとする場合に、第1〜第nのフレーム画像の第iのフレーム画像に対して、第iフレーム用のエラー検出領域が設定され、且つ、前記第1〜第nのフレーム画像の第jのフレーム画像に対して、第iフレーム用のエラー検出領域とは異なる位置に第jフレーム用のエラー検出領域が設定される場合に、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の画像データに基づいて前記エラー検出を行い、前記エラー信号出力部は、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域での前記エラー検出の結果に基づいて前記エラー信号を出力する回路装置に関係する。 One aspect of the present invention includes an error detection unit that detects an error in image data, and an error signal output unit that outputs an error signal based on a result of the error detection, wherein the error detection unit sets n to 2 When the integers i and j are 1 or more and n or less, and i≠j, an error for the i-th frame with respect to the i-th frame image of the first to n-th frame images A detection area is set, and an error detection area for the jth frame is set at a position different from the error detection area for the ith frame with respect to the jth frame image of the first to nth frame images. In this case, the error detection is performed based on the image data of the error detection area for the i-th frame and the error detection area for the j-th frame, and the error signal output unit outputs the error for the i-th frame. The present invention relates to a circuit device that outputs the error signal based on a result of the error detection in the detection region and the error detection region for the j-th frame.

本発明の一態様によれば、第iのフレーム画像では第iフレーム用のエラー検出領域でエラー検出が行われ、第jのフレーム画像では第jフレーム用のエラー検出領域でエラー検出が行われ、これらの第i、第jフレーム用のエラー検出領域は位置が異なっている。即ち、各フレームにおいて異なる位置のエラー検出領域でエラー検出が行われ、1つのフレームでは画像全体よりも小さい領域でエラー検出が行われる。これにより、画像データのエラー検出における処理装置の処理負荷を低減でき、また画像の広い範囲でのエラー検出が可能となる。 According to one aspect of the present invention, error detection is performed in the error detection area for the i-th frame in the i-th frame image, and error detection is performed in the error detection area for the j-th frame in the j-th frame image. The positions of the error detection areas for the i-th and j-th frames are different. That is, error detection is performed in error detection regions at different positions in each frame, and error detection is performed in a region smaller than the entire image in one frame. As a result, the processing load on the processing device in error detection of image data can be reduced, and error detection can be performed in a wide range of an image.

また本発明の一態様では、回路装置は、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の位置情報を記憶するレジスター部を含み、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域は、前記レジスター部に記憶される前記位置情報に基づいて設定されてもよい。 In one aspect of the present invention, the circuit device includes a register unit that stores position information of the error detection area for the i-th frame and the error detection area for the j-th frame, and the error detection for the i-th frame is performed. The area and the error detection area for the j-th frame may be set based on the position information stored in the register unit.

本発明の一態様によれば、レジスター部に第i、第jフレーム用のエラー検出領域の位置情報が書き込まれることによって、エラー検出の対象となるエラー検出領域を設定することができる。そして、第i、第jフレーム用のエラー検出領域の位置情報として、互いに異なる位置情報がレジスター部に書き込まれることによって、互いに位置が異なる第i、第jフレーム用のエラー検出領域を設定できる。 According to one aspect of the present invention, by writing the position information of the error detection areas for the i-th frame and the j-th frame in the register section, it is possible to set the error detection area to be the target of error detection. Then, as the position information of the error detection areas for the i-th and j-th frames, different position information is written in the register unit, whereby error detection areas for the i-th and j-th frames having different positions can be set.

また本発明の一態様では、前記レジスター部は、前記第iフレーム用のエラー検出領域及び前記jフレーム用のエラー検出領域の前記位置情報と共に、エラー検出の期待値情報を記憶し、前記エラー検出部は、前記期待値情報に基づいてエラー検出を行ってもよい。 In one aspect of the present invention, the register unit stores expected value information for error detection together with the position information of the error detection area for the i-th frame and the error detection area for the j-th frame, The unit may detect an error based on the expected value information.

本発明の一態様によれば、第i、第jフレーム用のエラー検出領域に対応するエラー検出の期待値情報がレジスター部に書き込まれることで、第i、第jフレーム用のエラー検出領域についてのエラー検出が可能となる。 According to one aspect of the present invention, expected value information for error detection corresponding to the error detection areas for the i-th and j-th frames is written in the register unit, so that the error detection areas for the i-th and j-th frames are Error detection of.

また本発明の一態様では、回路装置は、インターフェース部を含み、前記位置情報と前記期待値情報は、前記インターフェース部を介して外部の処理装置により前記レジスター部に設定されてもよい。 Further, according to an aspect of the present invention, the circuit device may include an interface unit, and the position information and the expected value information may be set in the register unit by an external processing device via the interface unit.

本発明の一態様によれば、インターフェース部を介して外部の処理装置によりレジスター部に位置情報と期待値情報が設定されることで、その位置情報に基づいてエラー検出領域を設定し、その期待値情報に基づいてエラー検出領域でのエラー検出を行うことができる。 According to one aspect of the present invention, the position information and the expected value information are set in the register unit by the external processing device via the interface unit, and the error detection area is set based on the position information and the expected value is set. Error detection in the error detection area can be performed based on the value information.

また本発明の一態様では、画像データの帰線期間において受信した前記期待値情報と前記位置情報が、前記レジスター部に設定されてもよい。 Further, according to an aspect of the present invention, the expected value information and the position information received during a blanking period of image data may be set in the register unit.

処理装置が期待値情報を求めたフレーム画像と、回路装置がエラー検出を行うフレーム画像とは一致している必要がある。この点、本発明の一態様によれば、画像データの帰線期間において期待値情報を受信することで、その期待値情報が、その帰線期間の前に受信したフレーム画像の期待値情報であることが明確に対応づけられる。また、エラー検出領域の位置情報はエラー検出を行う前に知っておく必要がある。この点、本発明の一態様によれば、画像データの帰線期間において位置情報を受信することで、その位置情報が、その帰線期間の次に受信するフレーム画像でのエラー検出領域の位置情報であることが明確に対応付けられる。 The frame image for which the processing device has obtained the expected value information and the frame image for which the circuit device performs error detection need to match. In this respect, according to the aspect of the present invention, by receiving the expected value information during the blanking period of the image data, the expected value information is the expected value information of the frame image received before the blanking period. There is a clear correspondence. The position information of the error detection area needs to be known before the error detection. In this regard, according to one aspect of the present invention, by receiving the position information in the blanking period of the image data, the position information is the position of the error detection area in the frame image received next to the blanking period. Information is clearly associated.

また本発明の一態様では、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の各エラー検出領域として、複数のエラー検出領域が設定されてもよい。 Further, in an aspect of the present invention, a plurality of error detection areas may be set as each of the error detection areas of the i-th frame error detection area and the j-th frame error detection area.

また本発明の一態様では、第iフレーム用のエラー検出領域の個数と前記第jフレーム用のエラー検出領域の個数とが異なる個数となるように、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域が設定されてもよい。 In one aspect of the present invention, the error detection area for the i-th frame and the error detection area for the i-th frame are set so that the number of error detection areas for the i-th frame is different from the number of error detection areas for the j-th frame. The error detection area for the j-th frame may be set.

これらの本発明の一態様によれば、各フレーム用のエラー検出領域として複数のエラー検出領域が設定され、或いは各フレーム用のエラー検出領域として異なる個数のエラー検出領域が設定される。これにより、表示画像の内容に合わせて適切なエラー検出領域を設定する等、自在なエラー検出領域の設定が可能となる。 According to these aspects of the present invention, a plurality of error detection areas are set as the error detection areas for each frame, or a different number of error detection areas are set as the error detection areas for each frame. As a result, it is possible to freely set the error detection area, such as setting an appropriate error detection area according to the content of the display image.

また本発明の一態様では、前記エラー検出部は、フレームカウンターのカウント値に基づいて、複数のエラー検出領域の中からエラー検出の対象となる前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域を設定するエラー検出領域設定部を含んでもよい。 Further, in one aspect of the present invention, the error detection unit, based on a count value of a frame counter, the error detection area for the i-th frame and the j-th frame, which are targets of error detection, among a plurality of error detection areas. An error detection area setting unit that sets an error detection area for a frame may be included.

本発明の一態様によれば、複数のエラー検出領域の中から各フレームにおけるエラー検出の対象となるエラー検出領域が設定される。これにより、第i、第jフレーム用のエラー検出領域として複数のエラー検出領域を設定したり、第i、第jフレーム用のエラー検出領域として異なる個数のエラー検出領域を設定したりする等の制御が可能となる。 According to one aspect of the present invention, an error detection area to be an error detection target in each frame is set from a plurality of error detection areas. As a result, a plurality of error detection areas can be set as the error detection areas for the i-th and j-th frames, and a different number of error detection areas can be set as the error detection areas for the i-th and j-th frames. It becomes possible to control.

また本発明の一態様では、前記エラー検出領域設定部は、kを1以上n以下の整数とする場合に、前記第1〜第nのフレーム画像の第kのフレーム画像における第kフレーム用のエラー検出領域と、第k+1のフレーム画像における第k+1フレーム用のエラー検出領域とが、隣り合うようにエラー検出領域を設定してもよい。 Further, in one aspect of the present invention, the error detection area setting unit is for the kth frame in the kth frame image of the first to nth frame images when k is an integer of 1 or more and n or less. The error detection area may be set such that the error detection area and the error detection area for the (k+1)th frame in the (k+1)th frame image are adjacent to each other.

本実施形態によれば、エラー検出領域がフレーム毎に順次に隣り合った領域にシフトされる。これにより、複数フレームかけて画像全体をすき間無くエラー検出することが可能となり、エラー検出の精度を向上させることができる。 According to this embodiment, the error detection area is sequentially shifted to the adjacent area for each frame. This makes it possible to detect an error in the entire image over a plurality of frames without any gap, and improve the accuracy of error detection.

また本発明の他の態様は、上記のいずれかに記載された回路装置と、前記回路装置からの情報に基づいて表示パネルを駆動する表示ドライバーと、前記表示パネルと、を含む電気光学装置に関係する。 Another aspect of the present invention is an electro-optical device including the circuit device according to any one of the above, a display driver that drives a display panel based on information from the circuit device, and the display panel. Involved.

また本発明の更に他の態様は、上記のいずれかに記載された回路装置を含む電子機器に関係する。 Still another aspect of the present invention relates to an electronic device including the circuit device described in any of the above.

また本発明の更に他の態様は、上記のいずれかに記載された回路装置を含む移動体に関係する。 Yet another aspect of the present invention relates to a moving body including the circuit device described in any of the above.

回路装置の構成例。Configuration example of circuit device. エラー検出の第1手法の説明図。Explanatory drawing of the 1st method of error detection. エラー検出の第2手法の説明図。Explanatory drawing of the 2nd method of error detection. エラー検出の第3手法の説明図。Explanatory drawing of the 3rd method of error detection. エラー検出の第4手法の説明図。Explanatory drawing of the 4th method of error detection. エラー検出部、エラー信号出力部、レジスター部の詳細な構成例。A detailed configuration example of the error detection unit, the error signal output unit, and the register unit. レジスター部の第2の詳細な構成例。The 2nd detailed structural example of a register part. エラー検出処理のタイミングチャート。The timing chart of error detection processing. 図9Aは、電気光学装置の構成例。図9Bは、電子機器の構成例。図9Cは、移動体の構成例。FIG. 9A is a configuration example of an electro-optical device. FIG. 9B is a configuration example of an electronic device. FIG. 9C is a configuration example of a moving body.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。 Hereinafter, preferred embodiments of the present invention will be described in detail. Note that the present embodiment described below does not unreasonably limit the content of the present invention described in the claims, and all the configurations described in the present embodiment are essential as a solution means of the present invention. Not necessarily.

1.回路装置
図1に、本実施形態の回路装置100(表示コントローラー)構成例を示す。回路装置100は、タイミング制御部110(タイミング制御回路)、画像処理部120(画像処理回路)、エラー検出部130(エラー検出回路)、エラー信号出力部140(エラー信号出力回路)、レジスター部150(レジスター)、インターフェース部160、170(インターフェース回路)を含む。回路装置100は、例えば集積回路装置(IC)により実現される。
1. Circuit Device FIG. 1 shows a configuration example of the circuit device 100 (display controller) of the present embodiment. The circuit device 100 includes a timing control unit 110 (timing control circuit), an image processing unit 120 (image processing circuit), an error detection unit 130 (error detection circuit), an error signal output unit 140 (error signal output circuit), and a register unit 150. (Register), and interface units 160 and 170 (interface circuit). The circuit device 100 is realized by, for example, an integrated circuit device (IC).

インターフェース部160は、処理装置200と回路装置100の間の通信を行う。例えばインターフェース部160は、処理装置200から画像処理部120へ送信される画像データを受信したり、処理装置200からタイミング制御部110へ送信されるタイミング制御信号(例えばクロック信号、垂直同期信号、水平同期信号、データイネーブル信号等)を受信したり、処理装置200からレジスター部150へ書き込まれるレジスター値を受信する。或いはインターフェース部160は、エラー信号出力部140が出力するエラー信号(エラー検出信号)を処理装置200に送信したり、処理装置200がレジスター部150から読み出すレジスター値を送信したりする。 The interface unit 160 communicates between the processing device 200 and the circuit device 100. For example, the interface unit 160 receives the image data transmitted from the processing device 200 to the image processing unit 120 and the timing control signal (for example, a clock signal, a vertical synchronization signal, a horizontal signal) transmitted from the processing device 200 to the timing control unit 110. (Synchronization signal, data enable signal, etc.) and the register value written in the register unit 150 from the processing device 200. Alternatively, the interface unit 160 transmits an error signal (error detection signal) output by the error signal output unit 140 to the processing device 200, or transmits a register value read from the register unit 150 by the processing device 200.

画像データやタイミング制御信号の通信方式としては、例えばLVDS(Low Voltage Differential Signal)方式やRGBシリアル方式、ディスプレイポート規格の伝送方式等を採用できる。またエラー信号やレジスター値の通信方式としては、I2C方式、3線又は4線のシリアル伝送方式等を採用できる。インターフェース部160は、これらの通信方式を実現する入出力バッファー回路や制御回路(例えばLVDS方式ではPLL回路等)で構成される。 As a communication system for image data and a timing control signal, for example, a LVDS (Low Voltage Differential Signal) system, an RGB serial system, a display port standard transmission system, or the like can be adopted. As an error signal or register value communication method, an I2C method, a 3-wire or 4-wire serial transmission method, or the like can be adopted. The interface section 160 is composed of an input/output buffer circuit and a control circuit (for example, a PLL circuit or the like in the LVDS method) that realizes these communication methods.

なお、回路装置100が例えば自動車等に搭載される場合、処理装置200はECU(Electronic Control Unit)である。或いは、回路装置100が情報通信端末等の電子機器に搭載される場合、処理装置200はCPU(Central Processing Unit)やマイクロプロセッサー等のプロセッサーである。 When the circuit device 100 is mounted on, for example, an automobile, the processing device 200 is an ECU (Electronic Control Unit). Alternatively, when the circuit device 100 is mounted on an electronic device such as an information communication terminal, the processing device 200 is a processor such as a CPU (Central Processing Unit) or a microprocessor.

タイミング制御部110は、処理装置200からのタイミング制御信号に基づいて、回路装置100の各部の制御や、表示ドライバー300へ送信するタイミング制御信号(例えばクロック信号、垂直同期信号、水平同期信号、データイネーブル信号等)の生成を行う。 The timing control unit 110 controls the respective units of the circuit device 100 based on the timing control signal from the processing device 200 and a timing control signal (for example, a clock signal, a vertical synchronization signal, a horizontal synchronization signal, or a data) transmitted to the display driver 300. Enable signal).

画像処理部120は、処理装置200からの画像データ(表示データ)に対して種々の画像処理(例えば階調補正等)やデータ整形処理(表示ドライバー300のデータ受信方式に適合した送信データを生成する処理)を行う。 The image processing unit 120 generates various image processing (for example, gradation correction and the like) and data shaping processing (image data (display data) from the processing device 200) and transmission data suitable for the data receiving method of the display driver 300. Process).

インターフェース部170は、回路装置100と表示ドライバー300の間の通信を行う。例えばインターフェース部170は、画像処理部120が出力する画像データを表示ドライバー300へ送信したり、タイミング制御部110が出力するタイミング制御信号を表示ドライバー300へ送信する。また、インターフェース部170は、表示ドライバー300の動作を制御する設定信号(例えばモード設定信号)を表示ドライバー300へ送信してもよい。通信方式は、インターフェース部160と同様の方式を採用できる。 The interface unit 170 performs communication between the circuit device 100 and the display driver 300. For example, the interface unit 170 transmits the image data output by the image processing unit 120 to the display driver 300 and the timing control signal output by the timing control unit 110 to the display driver 300. The interface unit 170 may also transmit a setting signal (for example, a mode setting signal) that controls the operation of the display driver 300 to the display driver 300. As the communication method, the same method as the interface unit 160 can be adopted.

なお、表示ドライバー300は、表示パネル(例えば液晶表示パネル、電気泳動表示パネル等)を駆動する回路装置である。表示ドライバー300は、例えば表示パネルのデータ線を駆動するデータドライバーや、表示パネルの走査線を駆動する走査ドライバー、それらを制御する制御回路、表示ドライバー300の各部に電源電圧や基準電圧を供給する電源回路等で構成される。 The display driver 300 is a circuit device that drives a display panel (for example, a liquid crystal display panel, an electrophoretic display panel, etc.). The display driver 300 supplies, for example, a data driver that drives the data lines of the display panel, a scan driver that drives the scan lines of the display panel, a control circuit that controls them, and a power supply voltage and a reference voltage to each unit of the display driver 300. It is composed of a power circuit.

エラー検出部130は、処理装置200からの画像データに対してエラー検出処理を行う。以下では、エラー検出部130がCRC(巡回冗長検査、CRC:Cyclic Redundancy Check)によるエラー検出処理を行う場合を例に説明する。なお、エラー検出の手法はCRCに限定されるものではなく、例えばチェックサム等の手法を採用することが可能である。 The error detection unit 130 performs error detection processing on the image data from the processing device 200. Hereinafter, a case where the error detection unit 130 performs an error detection process by a CRC (Cyclic Redundancy Check) will be described as an example. The error detection method is not limited to CRC, and a checksum method or the like can be used.

処理装置200は、エラー検出領域の位置情報と、そのエラー検出領域におけるCRCの期待値(エラー検出の期待値情報)とをレジスター部150に書き込む。エラー検出部130は、レジスター部150に記憶されたエラー検出領域の位置情報を参照し、そのエラー検出領域におけるCRC値(算出値)を画像データから算出する。そしてエラー検出部130は、算出したCRC値と、レジスター部150に記憶される期待値とを比較し、一致している場合には非アクティブの検出信号を出力し、一致していない場合にはアクティブの検出信号を出力する。 The processing device 200 writes the position information of the error detection area and the expected value of CRC (expected value information of error detection) in the error detection area in the register unit 150. The error detection unit 130 refers to the position information of the error detection area stored in the register unit 150, and calculates the CRC value (calculated value) in the error detection area from the image data. Then, the error detection unit 130 compares the calculated CRC value with the expected value stored in the register unit 150, outputs an inactive detection signal when they match, and when they do not match. Outputs an active detection signal.

エラー信号出力部140は、エラー検出部130からの検出信号がアクティブの場合に、エラー信号を処理装置200に出力する。エラー信号は例えば割り込み要求信号(IRQ:Interrupt ReQuest)である。或いは、エラー信号は、エラーが検出されたことを単に知らせる(エラーが検出された場合にアクティブとなる)信号であってもよい。 The error signal output unit 140 outputs the error signal to the processing device 200 when the detection signal from the error detection unit 130 is active. The error signal is, for example, an interrupt request signal (IRQ: Interrupt ReQuest). Alternatively, the error signal may be a signal that simply signals that an error has been detected (becomes active when an error is detected).

図2〜図5等で後述するように、本実施形態では画像に対して複数のエラー検出領域が設定される。エラー検出部130は、各エラー検出領域に対して画像データのエラー検出を行い、各エラー検出領域についての検出信号を出力する(即ち複数の検出信号を出力する)。そしてエラー信号出力部140は、複数の検出信号のうち1つでもアクティブである場合、エラー信号を出力する。 As will be described later with reference to FIGS. 2 to 5, a plurality of error detection areas are set for the image in this embodiment. The error detection unit 130 performs error detection on the image data in each error detection area and outputs a detection signal for each error detection area (that is, outputs a plurality of detection signals). Then, the error signal output unit 140 outputs an error signal when at least one of the plurality of detection signals is active.

上記のタイミング制御部110、画像処理部120、エラー検出部130、エラー信号出力部140、レジスター部150はロジック回路(例えば、アンド回路やオア回路、インバーター回路等のゲート回路や、フリップフロップ回路等の機能回路を配置したゲートアレイ)で構成される。これらの各部は機能ブロックを表しており、ハードウェアとしては一体のロジック回路として構成されてもよいし、或いは個別のロジック回路として構成されてもよい。 The timing control unit 110, the image processing unit 120, the error detection unit 130, the error signal output unit 140, and the register unit 150 are logic circuits (for example, AND circuits, OR circuits, gate circuits such as inverter circuits, and flip-flop circuits). The gate array in which the functional circuits are arranged). Each of these units represents a functional block, and may be configured as an integrated logic circuit as hardware or may be configured as an individual logic circuit.

2.エラー検出の手法
以下、本実施形態のエラー検出の手法について詳細に説明する。
2. Error Detection Method The error detection method of this embodiment will be described in detail below.

図2に、エラー検出の第1手法の説明図を示す。第1手法では、第1〜第4のエラー検出領域AR1〜AR4が設定される。各エラー検出領域のサイズ(横幅、縦幅)は、画像IMGのサイズよりも小さい。即ち、画像IMGの全体ではなく一部のエラー検出領域AR1〜AR4についてエラー検出を行う。 FIG. 2 shows an explanatory diagram of the first method of error detection. In the first method, first to fourth error detection areas AR1 to AR4 are set. The size (width, height) of each error detection area is smaller than the size of the image IMG. That is, error detection is performed not on the entire image IMG but on some error detection areas AR1 to AR4.

エラー検出領域AR1〜AR4は、始点SP1〜SP4と終点EP1〜EP4で指定される。具体的には、始点SP1〜SP4の座標と終点EP1〜EP4の座標が位置情報としてレジスター部150に設定されることによって、エラー検出領域AR1〜AR4が指定される。例えば画像IMGの左上の画素の座標を原点として、水平走査方向の座標xと垂直走査方向の座標yを定義する。座標x、yが共に最も小さい画素が始点であり、座標x、yが共に最も大きい画素が終点である。 The error detection areas AR1 to AR4 are designated by start points SP1 to SP4 and end points EP1 to EP4. Specifically, the error detection areas AR1 to AR4 are specified by setting the coordinates of the start points SP1 to SP4 and the coordinates of the end points EP1 to EP4 as position information in the register unit 150. For example, coordinates x in the horizontal scanning direction and coordinates y in the vertical scanning direction are defined with the coordinates of the upper left pixel of the image IMG as the origin. The pixel with the smallest coordinates x and y is the start point, and the pixel with the largest coordinates x and y is the end point.

第1手法では、エラー検出領域AR1〜AR4についてのエラー検出を各フレームで行う。具体的には、以下の一連の処理を各フレーム画像に対して行う。即ち、処理装置200は、エラー検出領域AR1〜AR4の各領域でのCRC値を算出し、そのCRC値を期待値としてレジスター部150に書き込む。そしてエラー検出部130は、エラー検出領域AR1〜AR4の各領域でのCRC値を算出し、その算出値と期待値とを比較する。エラー信号出力部140は、算出値と期待値が一致しないエラー検出領域が1以上あった場合、割り込み要求信号(広義にはエラー信号)を処理装置200に出力する。 In the first method, error detection for the error detection areas AR1 to AR4 is performed in each frame. Specifically, the following series of processing is performed on each frame image. That is, the processing device 200 calculates the CRC value in each of the error detection areas AR1 to AR4 and writes the CRC value in the register unit 150 as an expected value. Then, the error detection unit 130 calculates the CRC value in each of the error detection areas AR1 to AR4 and compares the calculated value with the expected value. The error signal output unit 140 outputs an interrupt request signal (error signal in a broad sense) to the processing device 200 when there is one or more error detection areas where the calculated value and the expected value do not match.

処理装置200が割り込み要求信号を受信した場合の動作は、種々想定できる。例えば、処理装置200が回路装置100への画像データの送信を停止してもよいし、或いは処理装置200が特定の表示制御(例えば黒表示(画面全体を黒にする)や所定パターンの表示)を回路装置100に指示してもよい。或いは、処理装置200が回路装置100の動作を停止させたり、回路装置100をリセットしたりしてもよい。 Various operations can be assumed when the processing device 200 receives the interrupt request signal. For example, the processing device 200 may stop the transmission of the image data to the circuit device 100, or the processing device 200 may perform a specific display control (for example, black display (the entire screen is black) or a predetermined pattern display). May be instructed to the circuit device 100. Alternatively, the processing device 200 may stop the operation of the circuit device 100 or reset the circuit device 100.

なお、エラー検出領域の数は4つに限定されず、2つ以上の任意のエラー検出領域を設定できる。また図2では、エラー検出領域AR1〜AR4が互いに重ならない領域となっているが、これに限定されず、一部が重なる領域となってもよい。またエラー検出領域を指定する位置情報は始点と終点に限定されず、領域を確定できる情報であればよい。例えば、エラー検出領域の始点の座標と横幅(水平走査方向の画素数)と縦幅(垂直走査方向の画素数)であってもよい。 The number of error detection areas is not limited to four, and two or more arbitrary error detection areas can be set. In FIG. 2, the error detection areas AR1 to AR4 are areas that do not overlap each other, but the invention is not limited to this and may be areas that partially overlap. The position information that specifies the error detection area is not limited to the start point and the end point, and may be any information that can determine the area. For example, the coordinates of the start point of the error detection area, the horizontal width (the number of pixels in the horizontal scanning direction), and the vertical width (the number of pixels in the vertical scanning direction) may be used.

第1手法によれば、画像全体ではなく、その一部のエラー検出領域についてエラー検出を行う。これにより、処理装置200がCRC値を演算するデータ量が削減され、処理装置200の処理負荷を低減できる。また、複数のエラー検出領域を設定することで、画像のより広い領域でのエラー検出が可能となり、検出漏れを低減できる。特に重要な領域にエラー検出領域を設定しておけば、効率のよいエラー検出が可能となる。 According to the first method, error detection is performed not on the entire image but on a part of the error detection area. As a result, the amount of data for the processing device 200 to calculate the CRC value is reduced, and the processing load on the processing device 200 can be reduced. Also, by setting a plurality of error detection areas, it is possible to detect errors in a wider area of the image, and it is possible to reduce detection omissions. If an error detection area is set in a particularly important area, efficient error detection can be performed.

図3に、エラー検出の第2手法の説明図を示す。第2手法では、1つのフレーム画像に対して1つのエラー検出領域でエラー検出を行う。図3に示すように、例えば第1フレームのフレーム画像IMG1に対して第1のエラー検出領域AR1でエラー検出を行い、第2フレームのフレーム画像IMG2に対して第2のエラー検出領域AR2でエラー検出を行い、第3フレームのフレーム画像IMG3に対して第3のエラー検出領域AR3でエラー検出を行い、第4フレームのフレーム画像IMG4に対して第4のエラー検出領域AR4でエラー検出を行う。第5フレーム以降も、これを同様に繰り返す。 FIG. 3 shows an explanatory diagram of the second method of error detection. In the second method, error detection is performed on one frame image in one error detection area. As shown in FIG. 3, for example, error detection is performed in the first error detection area AR1 for the frame image IMG1 of the first frame, and error is detected in the second error detection area AR2 for the frame image IMG2 of the second frame. The detection is performed on the frame image IMG3 of the third frame in the third error detection area AR3, and the error detection is performed on the frame image IMG4 of the fourth frame in the fourth error detection area AR4. This is similarly repeated after the fifth frame.

例えば第1フレームを例にとると、処理装置200は、フレーム画像IMG1のエラー検出領域AR1でのCRC値を算出し、そのCRC値を期待値としてレジスター部150に書き込む。そしてエラー検出部130は、フレーム画像IMG1のエラー検出領域AR1でのCRC値を算出し、その算出値と期待値とを比較する。エラー信号出力部140は、算出値と期待値が一致しない場合、割り込み要求信号を処理装置200に出力する。第2〜第4フレームでは、第2〜第4のエラー検出領域AR2〜AR4について同様のエラー検出処理を行う。なお、エラー検出領域AR1〜AR4の位置情報は、第1手法と同様に始点と終点の座標で指定される。 For example, taking the first frame as an example, the processing device 200 calculates a CRC value in the error detection area AR1 of the frame image IMG1 and writes the calculated CRC value in the register unit 150 as an expected value. Then, the error detection unit 130 calculates the CRC value in the error detection area AR1 of the frame image IMG1 and compares the calculated value with the expected value. The error signal output unit 140 outputs an interrupt request signal to the processing device 200 when the calculated value and the expected value do not match. In the second to fourth frames, similar error detection processing is performed on the second to fourth error detection areas AR2 to AR4. The position information of the error detection areas AR1 to AR4 is designated by the coordinates of the start point and the end point as in the first method.

各フレームで用いるエラー検出領域は、例えば以下のように制御される。即ち、エラー検出領域AR1〜AR4の位置情報を一括してレジスター部150に書き込んでおき、どのフレームでどのエラー検出領域の位置情報を用いるかをフレームカウンターの出力に基づいて制御する。このとき、処理装置200が、各フレームでどのエラー検出領域を有効にするかを指定するレジスター値をレジスター部150に書き込み、エラー検出部130が、各フレームにおいて、レジスター値により指定されるエラー検出領域のエラー検出を行う。或いは、エラー検出部130は各フレームで全てのエラー検出領域AR1〜AR4のエラー検出を行い、エラー信号出力部140が、レジスター値により指定されるエラー検出領域のエラー検出結果だけを有効にして(そのような重み付けを行って)、その有効なエラー検出結果だけに基づいて割り込み要求信号を出力してもよい。 The error detection area used in each frame is controlled as follows, for example. That is, the position information of the error detection areas AR1 to AR4 is collectively written in the register unit 150, and which frame is used for which error detection area is controlled based on the output of the frame counter. At this time, the processing device 200 writes a register value that specifies which error detection area is valid in each frame into the register unit 150, and the error detection unit 130 detects the error detection specified by the register value in each frame. Area error detection is performed. Alternatively, the error detection unit 130 performs error detection on all the error detection areas AR1 to AR4 in each frame, and the error signal output unit 140 validates only the error detection result of the error detection area designated by the register value ( Such weighting may be performed) and the interrupt request signal may be output only based on the valid error detection result.

第2手法によれば、画像全体ではなく、その一部のエラー検出領域についてエラー検出を行うと共に、各フレームで異なるエラー検出領域を設定する。これにより、処理装置200がCRC値を演算するデータ量が削減され、処理装置200の処理負荷を低減できる。また、各フレームで異なるエラー検出領域を設定することで、画像のより広い領域でのエラー検出が可能となり、検出漏れを低減できる。 According to the second method, error detection is performed not for the entire image but for a part of the error detection area, and a different error detection area is set for each frame. As a result, the amount of data for the processing device 200 to calculate the CRC value is reduced, and the processing load on the processing device 200 can be reduced. Also, by setting different error detection areas in each frame, it is possible to detect errors in a wider area of the image, and it is possible to reduce detection omissions.

図4に、エラー検出の第3手法の説明図を示す。第3手法では、第1フレームのフレーム画像と第2フレームのフレーム画像とで、異なる数のエラー検出領域でエラー検出を行う。図4に示すように、例えば第1フレームのフレーム画像IMG1に対して第1のエラー検出領域AR1でエラー検出を行い、第2フレームのフレーム画像IMG2に対して第2〜第4のエラー検出領域AR2〜AR4でエラー検出を行う。第3フレーム以降も、これを同様に繰り返す。或いは、第3フレームでは第1、第2のエラー検出領域AR1、AR2のエラー検出を行い、第4フレームでは第3、第4のエラー検出領域AR3、AR4のエラー検出を行う等、更にエラー検出領域の数を変えていってもよい。 FIG. 4 shows an explanatory diagram of the third method of error detection. In the third method, error detection is performed in different numbers of error detection areas in the frame image of the first frame and the frame image of the second frame. As shown in FIG. 4, for example, error detection is performed in the first error detection area AR1 in the frame image IMG1 of the first frame, and second to fourth error detection areas in the frame image IMG2 of the second frame. Error detection is performed in AR2 to AR4. This is similarly repeated for the third and subsequent frames. Alternatively, further error detection is performed, such as performing error detection in the first and second error detection areas AR1 and AR2 in the third frame and performing error detection in the third and fourth error detection areas AR3 and AR4 in the fourth frame. The number of areas may be changed.

エラー検出領域AR1〜AR4の位置情報は、第1手法と同様に始点と終点の座標で指定される。また、各フレームで用いるエラー検出領域は、第2手法と同様の手法で制御される。 The position information of the error detection areas AR1 to AR4 is designated by the coordinates of the start point and the end point as in the first method. The error detection area used in each frame is controlled by the same method as the second method.

第3手法によれば、第2手法と同様に処理装置200の処理負荷を低減すると共に、画像のより広い領域でのエラー検出が可能となる。 According to the third method, it is possible to reduce the processing load on the processing device 200 and detect an error in a wider area of the image, as in the second method.

図5に、エラー検出の第4手法の説明図を示す。第4の手法では、画像を複数の領域に分割し、その分割領域をフレーム毎に順番に選択していき、その選択した分割領域をエラー検出領域としてエラー検出を行う。例えば図5では、8行×(M/2)列の分割領域が設定されており、2行でM個(Mは3以上の整数であり、図5の例ではMは偶数)の分割領域が配置されている。1行目、2行目の分割領域をAR11〜AR1M(第1群のエラー検出領域)とし、3行目、4行目の分割領域をAR21〜AR2M(第2群のエラー検出領域)とし、5行目、6行目の分割領域をAR31〜AR3M(第3群のエラー検出領域)とし、7行目、8行目の分割領域をAR41〜AR4M(第4群のエラー検出領域)とする。第1フレームのフレーム画像IMG1では、分割領域AR11、AR21、AR31、AR41がエラー検出領域であり、第2フレームのフレーム画像IMG2では、分割領域AR12、AR22、AR32、AR42がエラー検出領域である。これを第Mフレームまで繰り返し、第M+1フレームでは再び第1フレームと同様のエラー検出領域となる。 FIG. 5 shows an explanatory diagram of the fourth method of error detection. In the fourth method, the image is divided into a plurality of areas, the divided areas are sequentially selected for each frame, and error detection is performed using the selected divided area as an error detection area. For example, in FIG. 5, 8 rows×(M/2) columns of divided areas are set, and 2 rows have M divided areas (M is an integer of 3 or more, and in the example of FIG. 5, M is an even number) divided areas. Are arranged. The divided areas on the first and second rows are AR11 to AR1M (error detection areas of the first group), and the divided areas on the third and fourth rows are AR21 to AR2M (error detection areas of the second group), The divided areas on the fifth and sixth rows are AR31 to AR3M (error detection areas of the third group), and the divided areas on the seventh and eighth rows are AR41 to AR4M (error detection areas of the fourth group). .. In the frame image IMG1 of the first frame, the divided areas AR11, AR21, AR31, AR41 are error detection areas, and in the frame image IMG2 of the second frame, the divided areas AR12, AR22, AR32, AR42 are error detection areas. This is repeated up to the Mth frame, and the M+1th frame becomes an error detection area similar to the first frame.

各フレームにおけるエラー検出領域は、例えば以下のように制御する。即ち、処理装置200が、第1フレームでは分割領域(エラー検出領域)AR11、AR21、AR31、AR41の位置情報をレジスター部150に書き込み、第2フレームでは分割領域(エラー検出領域)AR12、AR22、AR32、AR42の位置情報をレジスター部150に書き込む。これを第Mフレームまで繰り返すことによって各フレームでのエラー検出領域を制御する。この場合、位置情報は各分割領域の始点と終点の座標である。 The error detection area in each frame is controlled as follows, for example. That is, the processing device 200 writes the position information of the divided areas (error detection areas) AR11, AR21, AR31, AR41 in the register unit 150 in the first frame, and the divided areas (error detection areas) AR12, AR22 in the second frame. The position information of AR32 and AR42 is written in the register unit 150. By repeating this up to the Mth frame, the error detection area in each frame is controlled. In this case, the position information is the coordinates of the start point and the end point of each divided area.

或いは、処理装置200が、第1〜第4群のエラー検出領域における先頭の分割領域AR11、AR21、AR31、AR41の位置情報(始点と終点の座標)と、最終の分割領域AR1M、AR2M、AR3M、AR4Mの位置情報(終点の座標)とをレジスター部150に書き込む。エラー検出部130は、これらの位置情報から各分割領域の始点と終点の座標を求める。例えば、分割領域AR11の横幅が100画素である場合、分割領域AR11の始点SP11と終点EP11の座標を水平走査方向に100だけシフトした座標が、分割領域AR12の始点と終点の座標となる。このようにして求めていった終点の座標が、分割領域AR1Mの終点EP1Mの座標に一致した場合、その領域を最終の分割領域とする。エラー検出部130は、例えば垂直同期信号が入力される度に1つずつ分割領域をシフトさせ、その分割領域の位置情報でレジスター部150を更新することによって、各フレームでのエラー検出領域を制御する。 Alternatively, the processing device 200 uses the position information (coordinates of the start point and the end point) of the first divided areas AR11, AR21, AR31, AR41 in the error detection areas of the first to fourth groups and the final divided areas AR1M, AR2M, AR3M. , AR4M position information (coordinates of the end point) are written in the register unit 150. The error detection unit 130 obtains the coordinates of the start point and the end point of each divided area from the position information. For example, when the width of the divided area AR11 is 100 pixels, the coordinates obtained by shifting the coordinates of the start point SP11 and the end point EP11 of the divided area AR11 by 100 in the horizontal scanning direction become the coordinates of the start point and the end point of the divided area AR12. When the coordinates of the end point thus obtained match the coordinates of the end point EP1M of the divided area AR1M, that area is set as the final divided area. The error detection unit 130 controls the error detection region in each frame by shifting the divided region one by one each time a vertical synchronization signal is input and updating the register unit 150 with the position information of the divided region. To do.

なお、第1〜第4群のエラー検出領域の全ての群についてエラー検出を行ってもよいし、その一部(任意の1群又は2群又は3群)についてエラー検出を行ってもよい。例えば、第1〜第Mフレームでは第1〜第4群のエラー検出領域の全ての群についてエラー検出を行い、その次の第M+1〜第2Mフレームでは第4群のエラー検出領域のみでエラー検出を行ってもよい。例えば処理装置200がレジスター部150に、どの群を有効にするかを指示するレジスター値を書き込むことで、どの群を有効にするかを制御する。例えば、画像の上3/4が黒で、下1/4にのみ表示がある場合、その下1/4に対応する第4群のエラー検出領域を有効にする。処理装置200は、画像データがどのようなものであるか知っているため、このような制御が可能である。連続した黒の画像データを多く含むような画像ではCRCの信頼性(エラー検出率)が低くなるので、そのような領域でのCRC値の演算を省略することで、処理装置200の処理負荷を軽減できる。 In addition, the error detection may be performed on all the groups of the error detection areas of the first to fourth groups, or may be performed on a part thereof (arbitrary 1 group, 2 groups or 3 groups). For example, in the first to Mth frames, error detection is performed for all the groups of the first to fourth error detection areas, and in the next M+1 to 2Mth frames, error detection is performed only in the fourth group of error detection areas. You may go. For example, the processing device 200 controls which group is enabled by writing a register value instructing which group is enabled in the register unit 150. For example, when the upper 3/4 of the image is black and only the lower ¼ is displayed, the error detection area of the fourth group corresponding to the lower ¼ is validated. Since the processing device 200 knows what the image data looks like, such control is possible. Since the reliability of the CRC (error detection rate) becomes low in an image containing a lot of continuous black image data, the processing load of the processing device 200 can be reduced by omitting the calculation of the CRC value in such an area. Can be reduced.

第4手法によれば、第2、第3手法と同様に処理装置200の処理負荷を低減できる。また、分割領域をフレーム毎に順に選択していくことで、画像の全体についてエラー検出することになり、検出漏れをより低減することが可能となる。 According to the fourth method, the processing load of the processing device 200 can be reduced similarly to the second and third methods. In addition, by sequentially selecting the divided areas for each frame, an error is detected for the entire image, and it is possible to further reduce the omission of detection.

さて、画像の全体について画像データの通信エラーを検出する場合、処理装置200が画像全体についてエラー検出の期待値を演算するため演算対象のデータ量が大きくなり、処理負荷が大きくなる。一方、エラー検出領域を画像全体より小さい固定領域にした場合、処理装置200の処理負荷が低減されるが、画像の一部についてしかエラー検出できなくなってしまう。 When detecting a communication error of image data for the entire image, the processing device 200 calculates an expected value for error detection for the entire image, which increases the amount of data to be calculated and increases the processing load. On the other hand, when the error detection area is a fixed area smaller than the entire image, the processing load on the processing device 200 is reduced, but the error detection can be performed only on a part of the image.

この点、本実施形態では、回路装置100は、画像データのエラー検出を行うエラー検出部130と、エラー検出の結果に基づいてエラー信号を出力するエラー信号出力部140と、を含む。nを2以上の整数とし、i、jを1以上n以下の整数とし、且つ、i≠jとする。第1〜第nのフレーム画像の第iのフレーム画像に対して、第iフレーム用のエラー検出領域が設定され、且つ、第1〜第nのフレーム画像の第jのフレーム画像に対して、第iフレーム用のエラー検出領域とは異なる位置に第jフレーム用のエラー検出領域が設定される。この場合に、エラー検出部130は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の画像データに基づいてエラー検出を行う。エラー信号出力部140は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域でのエラー検出の結果に基づいてエラー信号を出力する。 In this regard, in the present embodiment, the circuit device 100 includes an error detection unit 130 that detects an error in the image data, and an error signal output unit 140 that outputs an error signal based on the result of the error detection. It is assumed that n is an integer of 2 or more, i and j are integers of 1 or more and n or less, and i≠j. An error detection area for the i-th frame is set for the i-th frame image of the first-nth frame images, and for the j-th frame image of the first-nth frame images, The error detection area for the j-th frame is set at a position different from the error detection area for the i-th frame. In this case, the error detection unit 130 performs error detection based on the image data of the error detection area for the i-th frame and the error detection area for the j-th frame. The error signal output unit 140 outputs an error signal based on the result of error detection in the error detection area for the i-th frame and the error detection area for the j-th frame.

本実施形態によれば、第iのフレーム画像では第iフレーム用のエラー検出領域でエラー検出が行われ、第jのフレーム画像では第jフレーム用のエラー検出領域でエラー検出が行われ、これらの第i、第jフレーム用のエラー検出領域は位置が異なっている。これにより、各フレームにおいて異なる位置のエラー検出領域でエラー検出を行うことが可能となり、画像の広い範囲でのエラー検出が可能となる。また1つのフレームでは画像全体よりも小さい領域でエラー検出を行っているので、処理装置200の処理負荷を低減できる。 According to this embodiment, in the i-th frame image, error detection is performed in the error detection area for the i-th frame, and in the j-th frame image, error detection is performed in the error detection area for the j-th frame. The error detection areas for the i-th and j-th frames are different in position. As a result, it is possible to perform error detection in error detection areas at different positions in each frame, and it is possible to detect errors in a wide range of an image. Further, in one frame, error detection is performed in an area smaller than the entire image, so that the processing load of the processing device 200 can be reduced.

ここで、エラー検出とは、処理装置200が回路装置100に送信しようとする画像データと、回路装置100が実際に受信した画像データとが、一致しているか否かをチェックすること(通信エラーの検出)である。またエラー信号とは、エラー検出の結果に関する信号であり、例えば画像データのエラーが検出されたか否かを示す信号、或いはエラー検出の結果に応じて何らかの動作を処理装置200に要求する信号等である。またフレーム画像とは、1つのフレームにおいて表示される画像(又は表示される予定の画像)のことである。例えば30fps(frames per second)で表示パネルの表示を更新する場合、1/30秒が1フレームであり、その1フレームで描画される画像がフレーム画像である。なお、ここでのフレーム画像は、処理装置200が回路装置100に送信した段階での画像である。即ち、最終的に表示される際のフレーム画像と、エラー検出の対象となるフレーム画像は、その間に画像処理が行われる可能性があるため、全く同じ画像とは限らない。 Here, the error detection is to check whether or not the image data which the processing device 200 tries to send to the circuit device 100 and the image data which the circuit device 100 actually receives match (communication error). Detection). The error signal is a signal relating to the result of error detection, and is, for example, a signal indicating whether or not an error in image data has been detected, or a signal requesting the processing device 200 to perform some operation according to the result of error detection. is there. The frame image is an image displayed in one frame (or an image to be displayed). For example, when the display on the display panel is updated at 30 fps (frames per second), 1/30 second is one frame, and an image drawn in the one frame is a frame image. The frame image here is an image at the stage when the processing device 200 has transmitted to the circuit device 100. That is, the frame image that is finally displayed and the frame image that is the target of error detection are not necessarily the same image because image processing may be performed during that time.

例えば図3の第2手法では、n=4である。i=1、j=2の場合を例にとると、第iフレーム用のエラー検出領域はAR1であり、第jフレーム用のエラー検出領域はAR2である。これらのエラー検出領域AR1、AR2は位置が異なっている。図3の例では位置は領域の始点と終点に対応している。ただし、領域の位置はこれに限定されず、例えば始点のみ、或いは領域の中心点(例えば2本の対角線が交差する点)を位置としてもよい。 For example, in the second method of FIG. 3, n=4. Taking the case of i=1 and j=2 as an example, the error detection area for the i-th frame is AR1, and the error detection area for the j-th frame is AR2. The positions of these error detection areas AR1 and AR2 are different. In the example of FIG. 3, the positions correspond to the start point and end point of the area. However, the position of the area is not limited to this, and for example, only the start point or the center point of the area (for example, the point where two diagonal lines intersect) may be the position.

図4の第3手法では、n=2である。i=1、j=2とすると、第iフレーム用のエラー検出領域はAR1であり、第jフレーム用のエラー検出領域はAR2〜AR4である。このように、第i、第jフレーム用のエラー検出領域は複数の領域から構成されていてもよい。この場合、領域の位置は、複数の領域の各領域の位置(例えば始点と終点)であり、複数の領域のいずれか1つでも位置が異なっていればよい。例えば図4の例では、第jフレーム用のエラー検出領域AR2〜AR4の各領域は、全て第iフレーム用のエラー検出領域AR1と位置が異なっている。例えば、第jフレーム用のエラー検出領域がAR1とAR2であってもよい。この場合、領域AR2が第iフレーム用のエラー検出領域AR1と位置が異なっている。 In the third method of FIG. 4, n=2. When i=1 and j=2, the error detection area for the i-th frame is AR1, and the error detection areas for the j-th frame are AR2 to AR4. As described above, the error detection area for the i-th frame and the j-th frame may be composed of a plurality of areas. In this case, the position of the area is the position of each area of the plurality of areas (for example, the start point and the end point), and any one of the plurality of areas may have different positions. For example, in the example of FIG. 4, each of the error detection areas AR2 to AR4 for the j-th frame is different in position from the error detection area AR1 for the i-th frame. For example, the error detection area for the j-th frame may be AR1 and AR2. In this case, the area AR2 is different in position from the error detection area AR1 for the i-th frame.

図5の第4手法では、n=Mである。i=1、j=2とすると、第iフレーム用のエラー検出領域はAR11〜AR41であり、第jフレーム用のエラー検出領域はAR12〜AR42である。 In the fourth method of FIG. 5, n=M. If i=1 and j=2, the error detection areas for the i-th frame are AR11 to AR41, and the error detection areas for the j-th frame are AR12 to AR42.

また本実施形態では、回路装置100は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の位置情報を記憶するレジスター部150を含む。第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域は、レジスター部150に記憶される位置情報に基づいて設定される。 Further, in the present embodiment, the circuit device 100 includes the register unit 150 that stores the position information of the error detection area for the i-th frame and the error detection area for the j-th frame. The error detection area for the i-th frame and the error detection area for the j-th frame are set based on the position information stored in the register unit 150.

図2等で説明したように、位置情報は、例えば始点SP1〜SP4の座標(始点にあたる画素の座標)と終点EP1〜EP4の座標(終点にあたる画素の座標)である。この場合、エラー検出部130は、始点と終点を結ぶ線を対角線とする四角形の領域を、エラー検出領域とする。 As described with reference to FIG. 2 and the like, the position information is, for example, the coordinates of the start points SP1 to SP4 (the coordinates of the pixels corresponding to the start points) and the coordinates of the end points EP1 to EP4 (the coordinates of the pixels corresponding to the end points). In this case, the error detection unit 130 sets a square area having a diagonal line connecting the start point and the end point as an error detection area.

本実施形態によれば、レジスター部150に第i、第jフレーム用のエラー検出領域の位置情報が書き込まれることによって、エラー検出の対象となるエラー検出領域を設定することができる。そして、第i、第jフレーム用のエラー検出領域の位置情報として、互いに異なる位置情報がレジスター部150に書き込まれることによって、互いに位置が異なる第i、第jフレーム用のエラー検出領域を設定できる。 According to the present embodiment, the position information of the error detection areas for the i-th and j-th frames is written in the register unit 150, so that the error detection area to be the target of error detection can be set. Then, as position information of the error detection areas for the i-th and j-th frames, different position information is written in the register unit 150, so that error detection areas for the i-th and j-th frames having different positions can be set. ..

また本実施形態では、レジスター部150は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の位置情報と共に、エラー検出の期待値情報を記憶する。エラー検出部130は、期待値情報に基づいてエラー検出を行う。 Further, in this embodiment, the register unit 150 stores expected value information for error detection together with position information of the error detection area for the i-th frame and the error detection area for the j-th frame. The error detection unit 130 detects an error based on the expected value information.

期待値情報は、送信側である処理装置200が求めたものであり、例えば第iフレーム用のエラー検出領域の期待値情報は、処理装置200が第iフレーム画像の表示データのうち、第iフレーム用のエラー検出領域の表示データから求めたものである。 The expected value information is obtained by the processing device 200 on the transmission side. For example, the expected value information of the error detection area for the i-th frame is calculated by the processing device 200 from the i-th frame image display data. It is obtained from the display data of the error detection area for the frame.

本実施形態によれば、第i、第jフレーム用のエラー検出領域に対応するエラー検出の期待値情報がレジスター部150に書き込まれることで、第i、第jフレーム用のエラー検出領域についてのエラー検出が可能となる。 According to the present embodiment, expected value information for error detection corresponding to the error detection areas for the i-th and j-th frames is written in the register unit 150, so that the error detection areas for the i-th and j-th frames are Error detection is possible.

また本実施形態では、回路装置100は、インターフェース部160を含む。位置情報と期待値情報は、インターフェース部160を介して外部の処理装置200によりレジスター部150に設定される。 Further, in the present embodiment, the circuit device 100 includes the interface unit 160. The position information and the expected value information are set in the register unit 150 by the external processing device 200 via the interface unit 160.

例えば、位置情報と期待値情報は、I2C通信や3線又は4線のシリアル通信等により、画像データとは別のインターフェースでレジスター部150に書き込まれる。或いは、期待値情報は、画像データのインターフェースを介してレジスター部150に書き込まれてもよい。この場合、画像データが送信されない期間(例えば後述の帰線期間)において期待値情報が送信される。例えば1画素の画像データが24ビット(RGB各8ビット)で、期待値情報が16ビットのCRC値である場合、画像データと同じフォーマットの24ビットのデータに16ビットのCRC値を埋め込んで送信する。例えばRGB各8ビットのうちRGの16ビットをCRC値として処理装置200が送信し、インターフェース部160は、受信した24ビットのうちRGの16ビットを取り出して期待値情報としてレジスター部150に書き込む。どのタイミングで受信した画像データが期待値情報であるかは、タイミング制御部110のタイミング制御によって知ることができる。 For example, the position information and the expected value information are written in the register unit 150 by an interface different from the image data by I2C communication, 3-line or 4-line serial communication, or the like. Alternatively, the expected value information may be written in the register unit 150 via the image data interface. In this case, expected value information is transmitted during a period in which image data is not transmitted (for example, a blanking period described later). For example, when the image data of one pixel is 24 bits (8 bits for each RGB) and the expected value information is a 16-bit CRC value, the 16-bit CRC value is embedded in the 24-bit data of the same format as the image data for transmission. To do. For example, 16 bits of RG of each 8 bits of RGB are transmitted as a CRC value by the processing device 200, and the interface section 160 extracts 16 bits of RG of the received 24 bits and writes them in the register section 150 as expected value information. The timing control of the timing control unit 110 can determine at which timing the image data received is the expected value information.

本実施形態によれば、インターフェース部160を介して外部の処理装置200によりレジスター部150に位置情報と期待値情報が設定されることで、その位置情報に基づいてエラー検出領域を設定し、その期待値情報に基づいてエラー検出領域でのエラー検出を行うことができる。 According to the present embodiment, the position information and the expected value information are set in the register unit 150 by the external processing device 200 via the interface unit 160, and the error detection area is set based on the position information. It is possible to detect an error in the error detection area based on the expected value information.

また本実施形態では、画像データの帰線期間において受信した期待値情報と位置情報が、レジスター部150に設定される。 Further, in this embodiment, the expected value information and the position information received during the blanking period of the image data are set in the register unit 150.

帰線期間とは、画像データの非送信期間であり、例えば垂直帰線期間である。後述する図8に示すように、垂直帰線期間は、フレーム画像の画像データの送信期間(データ有効期間が存在する水平走査期間を合わせた期間)と、次のフレーム画像の画像データの送信期間との間の期間(データ有効期間が存在しない水平走査期間を合わせた期間)である。 The blanking period is a non-transmission period of image data, and is, for example, a vertical blanking period. As shown in FIG. 8 to be described later, the vertical blanking period is a transmission period of image data of a frame image (a period including a horizontal scanning period in which a data valid period exists) and a transmission period of image data of the next frame image. And (a period including a horizontal scanning period in which a data valid period does not exist).

処理装置200が期待値情報を求めたフレーム画像と、回路装置100がエラー検出を行うフレーム画像とは一致している必要がある。この点、本実施形態によれば、画像データの帰線期間において期待値情報を受信することで、その期待値情報が、その帰線期間の前に受信したフレーム画像の期待値情報であることが明確に対応づけられる。また、エラー検出領域の位置情報はエラー検出を行う前に知っておく必要がある。この点、本実施形態によれば、画像データの帰線期間において位置情報を受信することで、その位置情報が、その帰線期間の次に受信するフレーム画像でのエラー検出領域の位置情報であることが明確に対応付けられる。 The frame image in which the processing device 200 has obtained the expected value information and the frame image in which the circuit device 100 performs error detection need to match. In this regard, according to the present embodiment, the expected value information is received during the blanking period of the image data, and the expected value information is the expected value information of the frame image received before the blanking period. Are clearly associated. The position information of the error detection area needs to be known before the error detection. In this regard, according to the present embodiment, by receiving the position information in the blanking period of the image data, the position information is the position information of the error detection area in the frame image received next to the blanking period. There is a clear correspondence.

また本実施形態では、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の各エラー検出領域として、複数のエラー検出領域が設定される。 Further, in the present embodiment, a plurality of error detection areas are set as each error detection area of the i-th frame error detection area and the j-th frame error detection area.

例えば図4の第3手法では、第2フレーム用のエラー検出領域として、3つのエラー検出領域AR2〜AR4が設定される。図5の第4手法では、各フレーム用のエラー検出領域として、4つの分割領域(例えばAR11〜AR41)が設定される。 For example, in the third method of FIG. 4, three error detection areas AR2 to AR4 are set as the error detection areas for the second frame. In the fourth method of FIG. 5, four divided areas (for example, AR11 to AR41) are set as the error detection area for each frame.

また本実施形態では、第iフレーム用のエラー検出領域の個数と第jフレーム用のエラー検出領域の個数とが異なる個数(可変の個数)となるように、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域が設定されてもよい。 In the present embodiment, the number of error detection areas for the i-th frame and the number of error detection areas for the j-th frame are set to be different (variable number), and The error detection area for the j-th frame may be set.

例えば図4の第3手法では、第1フレーム用のエラー検出領域として、1つのエラー検出領域AR1が設定され、第2フレーム用のエラー検出領域として、3つのエラー検出領域AR2〜AR4が設定される。 For example, in the third method of FIG. 4, one error detection area AR1 is set as the error detection area for the first frame, and three error detection areas AR2 to AR4 are set as the error detection area for the second frame. It

本実施形態によれば、各エラー検出領域として複数のエラー検出領域が設定され、或いは各エラー検出領域として異なる個数のエラー検出領域が設定される。これにより、表示画像の内容に合わせて適切なエラー検出領域を設定する等、自在なエラー検出領域の設定が可能となる。例えば、あるフレームでは画像の一部にのみ表示がある場合、そのフレームでは、その一部にだけ1つのエラー検出領域を設定し、それとは別のあるフレームでは画像の広い範囲に表示がある場合、そのフレームでは、その範囲内に複数のエラー検出領域を設定できる。 According to this embodiment, a plurality of error detection areas are set as each error detection area, or a different number of error detection areas are set as each error detection area. As a result, it is possible to freely set the error detection area, such as setting an appropriate error detection area according to the content of the display image. For example, if a part of the image is displayed in a certain frame, one error detection area is set only in that part of the frame, and a wide range of the image is displayed in another frame. , In that frame, a plurality of error detection areas can be set within the range.

また図6で後述するように、エラー検出部130はエラー検出領域設定部30を含む。エラー検出領域設定部30は、フレームカウンター31のカウント値に基づいて、複数のエラー検出領域の中からエラー検出の対象となる第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域を設定する。 Further, as will be described later with reference to FIG. 6, the error detection unit 130 includes an error detection area setting unit 30. The error detection area setting unit 30 selects an error detection area for the i-th frame and an error detection area for the j-th frame, which are error detection targets, from the plurality of error detection areas based on the count value of the frame counter 31. Set.

具体的には、レジスター部150に複数のエラー検出領域の位置情報が設定され、その複数のエラー検出領域のうち、どのエラー検出領域についてエラー検出を行うか(又は、どのエラー検出領域について検出結果を出力するか)をエラー検出領域設定部30がカウント値に応じて制御する。このような制御が、エラー検出領域をカウント値に基づいてエラー検出領域を設定することに相当する。 Specifically, position information of a plurality of error detection areas is set in the register unit 150, and which error detection area among the plurality of error detection areas is to be subjected to error detection (or which error detection area is detected) Is output) is controlled by the error detection area setting unit 30 according to the count value. Such control corresponds to setting the error detection area based on the count value.

本実施形態によれば、複数のエラー検出領域の中から各フレームにおけるエラー検出の対象となるエラー検出領域が設定される。これにより、第i、第jフレーム用のエラー検出領域として複数のエラー検出領域を設定したり、第i、第jフレーム用のエラー検出領域として異なる個数のエラー検出領域を設定したりする等の制御が可能となる。 According to the present embodiment, the error detection area to be the error detection target in each frame is set from the plurality of error detection areas. As a result, a plurality of error detection areas can be set as the error detection areas for the i-th and j-th frames, and a different number of error detection areas can be set as the error detection areas for the i-th and j-th frames. It becomes possible to control.

また本実施形態では、エラー検出領域設定部30は、kを1以上n以下の整数とする場合に、第1〜第nのフレーム画像の第kのフレーム画像における第kフレーム用のエラー検出領域と、第k+1のフレーム画像における第k+1フレーム用のエラー検出領域とが、隣り合うようにエラー検出領域を設定する。 Further, in the present embodiment, the error detection area setting unit 30 sets the error detection area for the kth frame in the kth frame image of the first to nth frame images when k is an integer of 1 or more and n or less. And the error detection area for the (k+1)th frame in the (k+1)th frame image are set to be adjacent to each other.

例えば図5の第4手法において、k=1、k+1=2とする。この場合、第kフレーム用のエラー検出領域はAR11〜AR41であり、第k+1フレーム用のエラー検出領域はAR12〜AR42である。領域AR12、AR22、AR32、AR42は、それぞれ領域AR11、AR21、AR31、AR41と隣り合った領域である。ここで領域が隣り合うとは、一方の領域の一辺と他方の領域の一辺とが隣り合う(例えば間に画素がない)ことである。 For example, in the fourth method of FIG. 5, k=1 and k+1=2. In this case, the error detection areas for the kth frame are AR11 to AR41, and the error detection areas for the k+1th frame are AR12 to AR42. The areas AR12, AR22, AR32, AR42 are areas adjacent to the areas AR11, AR21, AR31, AR41, respectively. Here, the regions being adjacent to each other means that one side of one region is adjacent to one side of the other region (for example, there is no pixel between them).

本実施形態によれば、エラー検出領域がフレーム毎に順次に隣り合った領域にシフトされる。これにより、複数フレームかけて画像全体をすき間無くエラー検出することが可能となり、エラー検出の精度を向上させることができる。 According to this embodiment, the error detection area is sequentially shifted to the adjacent area for each frame. This makes it possible to detect an error in the entire image over a plurality of frames without any gap, and improve the accuracy of error detection.

3.詳細構成
図6に、エラー検出部130、エラー信号出力部140、レジスター部150の詳細な構成例を示す。エラー検出部130は、算出部11〜14(算出回路)、比較部21〜24(比較回路)、エラー検出領域設定部30(エラー領域設定回路)を含む。レジスター部150は、第1〜第4の位置情報レジスター51〜54、第1〜第4の期待値レジスター61〜64を含む。なお、ここでは算出部等が4つずつある場合を例に説明するが、算出部等は2以上の任意の個数(例えば、設定できるエラー検出領域の最大数と同じ個数)であってよい。
3. Detailed Configuration FIG. 6 shows a detailed configuration example of the error detection unit 130, the error signal output unit 140, and the register unit 150. The error detection unit 130 includes calculation units 11 to 14 (calculation circuit), comparison units 21 to 24 (comparison circuit), and an error detection area setting unit 30 (error area setting circuit). The register unit 150 includes first to fourth position information registers 51 to 54 and first to fourth expected value registers 61 to 64. It should be noted that although the case where there are four calculation units and the like is described here as an example, the number of calculation units and the like may be any number of 2 or more (for example, the same number as the maximum number of error detection areas that can be set).

位置情報レジスター51〜54には、処理装置200から第1〜第4のエラー検出領域の位置情報が書き込まれる。算出部11〜14は、位置情報レジスター51〜54から位置情報を読み出し、画像データPDTから第1〜第4のエラー検出領域のCRC値(CRCの算出値)を算出する。CRC値(CRCデータ)は、エラー検出領域の画像データに対して1つの値(データ)が算出される。例えば、CRC値は16ビットであるが、16ビットに限定されない。 The position information of the first to fourth error detection areas is written from the processing device 200 to the position information registers 51 to 54. The calculation units 11 to 14 read the position information from the position information registers 51 to 54, and calculate the CRC value (calculated value of CRC) of the first to fourth error detection areas from the image data PDT. As the CRC value (CRC data), one value (data) is calculated for the image data in the error detection area. For example, the CRC value is 16 bits, but is not limited to 16 bits.

期待値レジスター61〜64には、処理装置200から第1〜第4のエラー検出領域のCRCの期待値が書き込まれる。処理装置200から送信されるCRCの期待値と算出部11〜14が算出するCRC値は同じビット数であり、同じ演算式で算出されたものである。比較部21〜24は、期待値レジスター61〜64からの第1〜第4のエラー検出領域のCRCの期待値と、算出部11〜14からの第1〜第4のエラー検出領域のCRC値とを比較する。算出部11〜14は、期待値とCRC値が一致した場合には検出信号として“0”(ローレベル、非アクティブ)を出力し、期待値とCRC値が不一致の場合には検出信号として“1”(ハイレベル、アクティブ)を出力する。 The expected values of CRC of the first to fourth error detection areas are written from the processing device 200 to the expected value registers 61 to 64. The expected value of the CRC transmitted from the processing device 200 and the CRC value calculated by the calculation units 11 to 14 have the same number of bits and are calculated by the same arithmetic expression. The comparing units 21 to 24 calculate the expected CRC values of the first to fourth error detection areas from the expected value registers 61 to 64 and the CRC values of the first to fourth error detection areas from the calculating units 11 to 14. Compare with. The calculation units 11 to 14 output “0” (low level, inactive) as a detection signal when the expected value and the CRC value match, and output “0” (low level, inactive) as the detection signal when the expected value and the CRC value do not match. 1" (high level, active) is output.

エラー信号出力部140は、比較部21〜24の出力を加算し、その加算値と基準値とを比較し、加算値が基準値以上である場合にはエラー信号ERS(例えばCPUに対する割り込み要求信号)をアクティブにする。例えば基準値は“1”である。その場合、比較部21〜24の出力のうち1つ以上が“1”であればエラー信号ERSがアクティブとなる。 The error signal output unit 140 adds the outputs of the comparison units 21 to 24, compares the added value with the reference value, and when the added value is equal to or greater than the reference value, outputs an error signal ERS (for example, an interrupt request signal to the CPU ) Is activated. For example, the reference value is "1". In that case, if at least one of the outputs of the comparison units 21 to 24 is “1”, the error signal ERS becomes active.

エラー検出領域設定部30は、各フレームにおいて、第1〜第4のエラー検出領域のいずれのエラー検出領域でエラー検出を行うかを設定(制御)する。具体的には、エラー検出領域設定部30は、垂直同期信号VSYNCをカウントするフレームカウンター31を含み、そのフレームカウンター31のカウント値に応じて、検出対象のエラー検出領域を選択する。 The error detection area setting unit 30 sets (controls) which of the first to fourth error detection areas is to be used for error detection in each frame. Specifically, the error detection area setting unit 30 includes a frame counter 31 that counts the vertical synchronization signal VSYNC, and selects an error detection area to be detected according to the count value of the frame counter 31.

以下、図2〜図5で説明した手法での動作を説明する。フレームカウンター31のカウント値は0〜15(15の次は0に戻る)であるとし、カウント値0〜15が第1〜第16のフレームに対応するものとする。 The operation of the method described with reference to FIGS. 2 to 5 will be described below. The count value of the frame counter 31 is 0 to 15 (returns to 0 after 15), and the count values 0 to 15 correspond to the 1st to 16th frames.

例えば図2の第1手法では、フレームカウンター31のカウント値に関わらず第1〜第4のエラー検出領域AR1〜AR4の全てが有効となっており、エラー検出領域設定部30は算出部11〜14の全てにCRC値を算出させる。 For example, in the first method of FIG. 2, all of the first to fourth error detection areas AR1 to AR4 are valid regardless of the count value of the frame counter 31, and the error detection area setting unit 30 includes the calculation units 11 to 11. All 14 have their CRC values calculated.

図3の第2手法では、フレームカウンター31のカウント値が0、4、8、12の場合に第1のエラー検出領域AR1が有効となり、第2〜第4のエラー検出領域AR2〜AF4が無効となる。即ち、エラー検出領域設定部30は、算出部11にCRC値を算出させ、算出部12〜14の動作をディスエーブルにする。ディスエーブルとなった算出部12〜14に対応する比較部22〜24は“0”(非アクティブ)を出力する。この場合、処理装置200は第1の位置情報レジスター51と第1の期待値レジスター61にのみレジスター値を書き込む。以下同様に、カウント値が1、5、9、13の場合に第2のエラー検出領域AR2が有効となり、カウント値が2、6、10、14の場合に第3のエラー検出領域AR3が有効となり、カウント値が3、7、11、15の場合に第4のエラー検出領域AR4が有効となる。 In the second method of FIG. 3, when the count value of the frame counter 31 is 0, 4, 8, and 12, the first error detection area AR1 is valid and the second to fourth error detection areas AR2 to AF4 are invalid. Becomes That is, the error detection area setting unit 30 causes the calculation unit 11 to calculate the CRC value and disables the operations of the calculation units 12 to 14. The comparison units 22 to 24 corresponding to the disabled calculation units 12 to 14 output “0” (inactive). In this case, the processing device 200 writes the register value only to the first position information register 51 and the first expected value register 61. Similarly, the second error detection area AR2 is valid when the count values are 1, 5, 9, and 13, and the third error detection area AR3 is valid when the count values are 2, 6, 10, and 14. Therefore, when the count value is 3, 7, 11, or 15, the fourth error detection area AR4 becomes valid.

なお、第2手法では以下のような変形例も考えられる。即ち、いずれのフレームにおいても処理装置200は第1〜第4の位置情報レジスター51〜54と第1〜第4の期待値レジスター61〜64にレジスター値を書き込む。またカウント値に関わらず算出部11〜14はCRC値を算出し、比較部21〜24は期待値とCRC値の比較を行う。そして、カウント値が0、4、8、12の場合を例にとると、エラー検出領域設定部30は比較部21の比較結果に1を乗算する重み付けを比較部21に行わせ、比較部22〜24の比較結果に0を乗算させる重み付けを比較部22〜24に行わせる。これにより比較部21は比較結果を出力し、比較部22〜24は“0”を出力することになる。 It should be noted that the following modified examples can be considered in the second method. That is, in any frame, the processing device 200 writes register values in the first to fourth position information registers 51 to 54 and the first to fourth expected value registers 61 to 64. Further, the calculation units 11 to 14 calculate the CRC value regardless of the count value, and the comparison units 21 to 24 compare the expected value and the CRC value. If the count values are 0, 4, 8, and 12, for example, the error detection area setting unit 30 causes the comparison unit 21 to perform weighting by multiplying the comparison result of the comparison unit 21 by 1. The comparison units 22 to 24 are weighted to multiply the comparison results of to 24 by 0. As a result, the comparison unit 21 outputs the comparison result, and the comparison units 22 to 24 output "0".

図4の第3手法では、フレームカウンター31のカウント値が0、2、4、6、8、10、12、14の場合に第1のエラー検出領域AR1が有効となり、フレームカウンター31のカウント値が1、3、5、7、9、11、13、15の場合に第2〜第4のエラー検出領域AR2〜AR4が有効となる。エラー検出領域設定部30は、第2手法と同様にして算出部11〜14や比較部21〜24を制御する。変形例についても同様である。 In the third method of FIG. 4, when the count value of the frame counter 31 is 0, 2, 4, 6, 8, 10, 12, and 14, the first error detection area AR1 is valid, and the count value of the frame counter 31 is Is 1, 3, 5, 7, 9, 11, 13, 15, the second to fourth error detection areas AR2 to AR4 are valid. The error detection area setting unit 30 controls the calculation units 11 to 14 and the comparison units 21 to 24 similarly to the second method. The same applies to the modified example.

図5の第4手法では、第1フレームでは、処理装置200は第1〜第4の位置情報レジスター51〜54にエラー検出領域AR11〜AR41の位置情報を書き込み、第1〜第4の期待値レジスター61〜64にエラー検出領域AR11〜AR41のCRCの期待値を書き込む。第2フレームでは、処理装置200は第1〜第4の位置情報レジスター51〜54にエラー検出領域AR12〜AR42の位置情報を書き込み、第1〜第4の期待値レジスター61〜64にエラー検出領域AR12〜AR42のCRCの期待値を書き込む。以降のフレームでも、同様に領域をシフトしていく。例えばM=16の場合、第16フレームでエラー検出領域AR1M〜AR4Mが有効になる。 In the fourth method of FIG. 5, in the first frame, the processing device 200 writes the position information of the error detection areas AR11 to AR41 in the first to fourth position information registers 51 to 54, and the first to fourth expected values. The expected value of the CRC of the error detection areas AR11 to AR41 is written in the registers 61 to 64. In the second frame, the processing device 200 writes the position information of the error detection areas AR12 to AR42 in the first to fourth position information registers 51 to 54, and the error detection areas in the first to fourth expected value registers 61 to 64. Write the expected CRC values of AR12 to AR42. In the subsequent frames, the area is similarly shifted. For example, when M=16, the error detection areas AR1M to AR4M become effective in the 16th frame.

エラー検出領域設定部30は、フレームカウンター31のカウント値に関わらず、算出部11〜14にCRC値を算出させ、比較部21〜24に比較結果を出力させる。或いは、エラー検出領域設定部30は、算出部11〜14のうち、いずれかをイネーブルに設定し、その他をディスエーブルに設定してもよい。例えば算出部11〜13をディスエーブルに設定し、算出部14をイネーブルに設定する。この場合、第4群のエラー検出領域AR41〜AR4Mのみがエラー検出の対象となる。なお、第2手法で説明した変形例と同様に比較部21〜24における重み付けにより同様の動作を実現してもよい。即ち、算出部11〜14にはCRC値を算出させておき、比較部21〜23には比較結果に0を乗じさせ、比較部24には比較結果に1を乗じさせてもよい。 The error detection area setting unit 30 causes the calculation units 11 to 14 to calculate the CRC value and outputs the comparison results to the comparison units 21 to 24 regardless of the count value of the frame counter 31. Alternatively, the error detection area setting unit 30 may set any one of the calculation units 11 to 14 to enable and set the other to disable. For example, the calculation units 11 to 13 are set to be disabled, and the calculation unit 14 is set to be enabled. In this case, only the error detection areas AR41 to AR4M of the fourth group are the targets of error detection. Note that similar operations may be realized by weighting in the comparison units 21 to 24 as in the modification described in the second method. That is, the calculation units 11 to 14 may calculate the CRC value, the comparison units 21 to 23 may multiply the comparison result by 0, and the comparison unit 24 may multiply the comparison result by 1.

以上のようなエラー検出領域設定部30の動作は、例えばレジスター設定により実現される。例えば、フレームカウンター31のカウント値と、各カウント値で算出部11〜14のいずれをイネーブルにするか(又は比較部21〜24での重み付け)とを対応付けたレジスター値を、処理装置200がレジスター部150に書き込み、それをエラー検出領域設定部30が参照して動作する。或いは、第1〜第4手法を切り替えるモード設定値をレジスター値として処理装置200がレジスター部150に書き込み、それをエラー検出領域設定部30が参照して動作する。この場合、各カウント値において算出部11〜14のいずれをイネーブルにするか(又は比較部21〜24の重み付け)は、エラー検出領域設定部30が自発的に制御することになる。 The operation of the error detection area setting unit 30 as described above is realized by register setting, for example. For example, the processing device 200 stores a register value that associates the count value of the frame counter 31 with which of the calculation units 11 to 14 is enabled (or weighted by the comparison units 21 to 24) for each count value. It is written in the register unit 150, and the error detection area setting unit 30 refers to it to operate. Alternatively, the processing device 200 writes the mode setting value for switching the first to fourth methods as a register value in the register unit 150, and the error detection area setting unit 30 refers to it to operate. In this case, the error detection area setting unit 30 voluntarily controls which of the calculation units 11 to 14 is to be enabled (or the weighting of the comparison units 21 to 24) for each count value.

図7に、レジスター部150の第2の詳細な構成例を示す。図7では、レジスター部150が第1〜第4の算出値レジスター71〜74を更に含んでいる。 FIG. 7 shows a second detailed configuration example of the register section 150. In FIG. 7, the register unit 150 further includes first to fourth calculated value registers 71 to 74.

第1〜第4の算出値レジスター71〜74には、算出部11〜14が算出したCRC値(CRCの算出値)が格納される。処理装置200は、インターフェース部160を介して第1〜第4の算出値レジスター71〜74からCRC値を読み出すことができる。 The CRC values (calculated values of CRC) calculated by the calculation units 11 to 14 are stored in the first to fourth calculated value registers 71 to 74. The processing device 200 can read the CRC value from the first to fourth calculated value registers 71 to 74 via the interface unit 160.

処理装置200には、エラー信号出力部140からのエラー信号ERSが入力されるだけなので、画像データの通信エラーを知ることはできるが、どのエラー検出領域にエラーが発生したかを知ることができない。本実施形態では、処理装置200が算出値レジスター71〜74を参照することで、どのエラー検出領域にエラーが発生したかを知ることができる。 Since only the error signal ERS from the error signal output unit 140 is input to the processing device 200, it is possible to know the communication error of the image data, but it is not possible to know in which error detection area the error occurred. .. In the present embodiment, the processing device 200 can know in which error detection area an error has occurred by referring to the calculated value registers 71 to 74.

処理装置200は、アクティブのエラー信号ERSを受信した場合、算出値レジスター71〜74からCRC値を読み出して期待値と比較し、どのエラー検出領域にエラーが発生したかを判断する。例えば、処理装置200は、エラーが発生した領域の画像データを回路装置100に再送信して再描画させる等、エラーが発生した領域に応じた処理を行うことが可能となる。 When the processing device 200 receives the active error signal ERS, the processing device 200 reads the CRC value from the calculated value registers 71 to 74 and compares it with the expected value to determine in which error detection area the error has occurred. For example, the processing device 200 can perform processing according to the region in which the error has occurred, such as retransmitting the image data in the region in which the error has occurred to the circuit device 100 to redraw the image data.

図8に、エラー検出処理のタイミングチャートを示す。回路装置100のタイミング制御部110には、処理装置200から垂直同期信号VSYNCと水平同期信号HSYNCとデータイネーブル信号DEが供給される。なお、これらの信号が直接に処理装置200から供給される場合に限らず、処理装置200から供給される何らかの同期信号に基づいてタイミング制御部110が、これらの信号を生成してもよい。 FIG. 8 shows a timing chart of the error detection process. The vertical synchronization signal VSYNC, the horizontal synchronization signal HSYNC, and the data enable signal DE are supplied from the processing device 200 to the timing control unit 110 of the circuit device 100. Note that the timing control unit 110 may generate these signals based on some synchronization signal supplied from the processing device 200, without being limited to the case where these signals are directly supplied from the processing device 200.

垂直同期信号VSYNCは垂直走査期間(フレーム)を規定する信号であり、垂直同期信号VSYNCの立ち下がりから次の立ち下がりまでが1つの垂直走査期間である。1つの垂直走査期間において、1つのフレーム画像の画像データが処理装置200から回路装置100に送信される。 The vertical synchronization signal VSYNC is a signal that defines a vertical scanning period (frame), and one vertical scanning period is from the fall of the vertical synchronization signal VSYNC to the next fall. Image data of one frame image is transmitted from the processing device 200 to the circuit device 100 in one vertical scanning period.

水平同期信号HSYNCは水平走査期間を規定する信号であり、水平同期信号HSYNCの立ち下がりから次の立ち下がりまでが1つの水平走査期間である。1つの水平走査期間において、1本の水平走査線の画像データが処理装置200から回路装置100に送信される。 The horizontal synchronizing signal HSYNC is a signal that defines the horizontal scanning period, and one horizontal scanning period is from the falling edge of the horizontal synchronizing signal HSYNC to the next falling edge. The image data of one horizontal scanning line is transmitted from the processing device 200 to the circuit device 100 in one horizontal scanning period.

データイネーブル信号DEは、水平走査期間の一部(データ有効期間)でアクティブ(ハイレベル)となり、その期間に水平走査線の画像データが処理装置200から回路装置100に送信される。データ有効期間とデータ有効期間の間を水平帰線期間と呼び、この期間には画像データは送信されない。また垂直走査期間の切り替わりに垂直帰線期間が設けられており、垂直帰線期間にはデータイネーブル信号DEが非アクティブ(ローレベル)となる。この期間には画像データは送信されない。図8の例では、垂直帰線期間は4水平帰線期間に相当し、そのうちの2水平帰線期間において垂直同期信号VSYNCがローレベルとなる。垂直帰線期間が終了し、次の垂直帰線期間が開始するまでの間に、フレーム画像の画像データが送信される。 The data enable signal DE becomes active (high level) during a part of the horizontal scanning period (data valid period), and the image data of the horizontal scanning line is transmitted from the processing device 200 to the circuit device 100 during that period. The period between the data valid period and the data valid period is called a horizontal blanking period, and image data is not transmitted during this period. A vertical blanking period is provided for switching the vertical scanning period, and the data enable signal DE becomes inactive (low level) during the vertical blanking period. Image data is not transmitted during this period. In the example of FIG. 8, the vertical blanking period corresponds to four horizontal blanking periods, and the vertical synchronizing signal VSYNC becomes low level during two horizontal blanking periods. The image data of the frame image is transmitted until the vertical blanking period ends and the next vertical blanking period starts.

エラー検出処理は、上記の垂直帰線期間において実行される。即ち、垂直帰線期間が開始された後の第1のレジスターアクセス期間TA1において、処理装置200が期待値レジスター61〜64にCRCの期待値を書き込む。この期待値は、垂直帰線期間の直前のフレームに送信される画像データから求めた期待値である。第1のレジスターアクセス期間TA1の後のエラー検出期間TB1において、比較部21〜24が、算出部11〜14において算出されたCRC値と期待値との比較を行う。なお、算出部11〜14は、垂直帰線期間の直前のフレームに送信される画像データからCRC値を算出する。この算出処理は、画像データが入力されるのに伴って逐次に行っており(即ち、垂直帰線期間に行うとは限らない)、エラー検出期間TB1よりも前に終了する。エラー検出期間TB1の後の第2のレジスターアクセス期間TA2において、処理装置200が位置情報レジスター51〜54にエラー検出領域の位置情報を書き込む。この位置情報は、垂直帰線期間の直後のフレームに送信される画像データに適用されるエラー検出領域の位置情報である。 The error detection process is executed during the vertical blanking period. That is, in the first register access period TA1 after the vertical blanking period is started, the processing device 200 writes the expected CRC value in the expected value registers 61 to 64. This expected value is an expected value obtained from the image data transmitted in the frame immediately before the vertical blanking period. In the error detection period TB1 after the first register access period TA1, the comparison units 21 to 24 compare the CRC value calculated by the calculation units 11 to 14 with the expected value. Note that the calculation units 11 to 14 calculate the CRC value from the image data transmitted in the frame immediately before the vertical blanking period. This calculation process is sequentially performed as the image data is input (that is, it is not always performed in the vertical retrace line period), and ends before the error detection period TB1. In the second register access period TA2 after the error detection period TB1, the processing device 200 writes the position information of the error detection area in the position information registers 51 to 54. This position information is the position information of the error detection area applied to the image data transmitted in the frame immediately after the vertical blanking period.

4.電気光学装置、電子機器、移動体
図9Aに、本実施形態の回路装置100を含む電気光学装置(表示装置)の構成例を示す。電気光学装置は、回路装置100(表示コントローラー)と、表示パネル360と、回路装置100による制御に基づいて表示パネル360を駆動する表示ドライバー300と、を含む。
4. Electro-Optical Device, Electronic Device, Moving Object FIG. 9A shows a configuration example of an electro-optical device (display device) including the circuit device 100 of the present embodiment. The electro-optical device includes a circuit device 100 (display controller), a display panel 360, and a display driver 300 that drives the display panel 360 under the control of the circuit device 100.

表示パネル360は、例えばガラス基板と、ガラス基板上に形成される画素アレイ(液晶セルアレイ)とで構成される。画素アレイは、画素、データ線、走査線を含む。表示ドライバー300はガラス基板に実装され、表示ドライバー300と画素アレイとは透明電極(ITO:Indium Tin Oxide)で形成された配線群で接続される。回路装置100はガラス基板とは別の回路基板に実装され、回路基板とガラス基板はフレキシブル基板等で接続される。なお、電気光学装置はこの構成に限定されない。例えば、表示ドライバー300と回路装置100が回路基板に実装され、その回路基板と表示パネル360がフレキシブル基板等で接続されてもよい。 The display panel 360 includes, for example, a glass substrate and a pixel array (liquid crystal cell array) formed on the glass substrate. The pixel array includes pixels, data lines, and scan lines. The display driver 300 is mounted on a glass substrate, and the display driver 300 and the pixel array are connected by a wiring group formed of transparent electrodes (ITO: Indium Tin Oxide). The circuit device 100 is mounted on a circuit board different from the glass board, and the circuit board and the glass board are connected by a flexible board or the like. The electro-optical device is not limited to this configuration. For example, the display driver 300 and the circuit device 100 may be mounted on a circuit board, and the circuit board and the display panel 360 may be connected by a flexible board or the like.

図9Bに、本実施形態の回路装置100を含む電子機器の構成例を示す。本実施形態の電子機器として、例えば車載表示装置(例えばメーターパネル等)や、ディスプレイ、プロジェクター、テレビション装置、情報処理装置(コンピューター)、携帯型情報端末、カーナビゲーションシステム、携帯型ゲーム端末、DLP(Digital Light Processing)装置等の、表示装置を搭載する種々の電子機器を想定できる。 FIG. 9B shows a configuration example of an electronic device including the circuit device 100 of this embodiment. As the electronic device of the present embodiment, for example, a vehicle-mounted display device (for example, a meter panel), a display, a projector, a television device, an information processing device (computer), a portable information terminal, a car navigation system, a portable game terminal, a DLP. Various electronic devices equipped with a display device such as a (Digital Light Processing) device can be assumed.

電子機器は、CPU310(処理装置)、回路装置100(表示コントローラー)、表示ドライバー300、表示パネル360、記憶部320(メモリー)、操作部330(操作装置)、通信部340(通信回路、通信装置)を含む。 The electronic device includes a CPU 310 (processing device), a circuit device 100 (display controller), a display driver 300, a display panel 360, a storage unit 320 (memory), an operation unit 330 (operation device), a communication unit 340 (communication circuit, communication device). )including.

操作部330は、ユーザーからの種々の操作を受け付けるユーザーインターフェースである。例えば、ボタンやマウス、キーボード、表示パネル360に装着されたタッチパネル等で構成される。通信部340は、画像データや制御データの通信(送信、受信)を行うデータインターフェースである。例えばUSB等の有線通信インターフェースや、或は無線LAN等の無線通信インターフェースである。記憶部320は、通信部340から入力された画像データを記憶する。或は、記憶部320は、CPU310のワーキングメモリーとして機能する。CPU310は、電子機器の各部の制御処理や種々のデータ処理を行う。回路装置100は表示ドライバー300の制御処理を行う。例えば、回路装置100は、通信部340や記憶部320からCPU310を介して転送された画像データを、表示ドライバー300が受け付け可能な形式に変換し、その変換された画像データを表示ドライバー300へ出力する。表示ドライバー300は、回路装置100から転送された画像データに基づいて表示パネル360を駆動する。 The operation unit 330 is a user interface that receives various operations from the user. For example, it is composed of a button, a mouse, a keyboard, a touch panel mounted on the display panel 360, and the like. The communication unit 340 is a data interface that performs communication (transmission, reception) of image data and control data. For example, it is a wired communication interface such as USB or a wireless communication interface such as a wireless LAN. The storage unit 320 stores the image data input from the communication unit 340. Alternatively, the storage unit 320 functions as a working memory of the CPU 310. The CPU 310 performs control processing of various parts of the electronic device and various data processing. The circuit device 100 performs control processing of the display driver 300. For example, the circuit device 100 converts the image data transferred from the communication unit 340 or the storage unit 320 via the CPU 310 into a format that the display driver 300 can accept, and outputs the converted image data to the display driver 300. To do. The display driver 300 drives the display panel 360 based on the image data transferred from the circuit device 100.

図9Cに、本実施形態の回路装置100を含む移動体の構成例を示す。本実施形態の移動体として、例えば、車、飛行機、バイク、船舶、或いはロボット(走行ロボット、歩行ロボット)等の種々の移動体を想定できる。移動体は、例えばエンジンやモーター等の駆動機構、ハンドルや舵等の操舵機構、各種の電子機器を備えて、地上や空や海上を移動する機器・装置である。 FIG. 9C shows a configuration example of a moving body including the circuit device 100 of this embodiment. As the moving body of this embodiment, various moving bodies such as a car, an airplane, a motorcycle, a ship, or a robot (a traveling robot or a walking robot) can be assumed. The moving body is a device/device that includes a drive mechanism such as an engine and a motor, a steering mechanism such as a steering wheel and a rudder, and various electronic devices, and moves on the ground, in the air, or on the sea.

図9Cは移動体の具体例としての自動車206を概略的に示している。自動車206には、回路装置100を有する表示装置350(電気光学装置)と、自動車206の各部を制御するECU510が組み込まれている。ECU510は、例えば車速や燃料残量、走行距離、各種装置(例えばエアーコンディショナー)の設定等の情報をユーザーに提示する画像(画像データ)を生成し、その画像を表示装置350に送信して表示パネル360に表示させる。 FIG. 9C schematically shows an automobile 206 as a specific example of the moving body. A display device 350 (electro-optical device) having the circuit device 100 and an ECU 510 for controlling each unit of the car 206 are incorporated in the car 206. The ECU 510 generates an image (image data) that presents information such as vehicle speed, remaining fuel amount, mileage, setting of various devices (eg, air conditioner) to the user, and transmits the image to the display device 350 for display. It is displayed on the panel 360.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本発明の範囲に含まれる。また回路装置、処理装置、表示ドライバー、電気光学装置、電子機器、移動体の構成・動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Therefore, all such modifications are included in the scope of the present invention. For example, in the specification or the drawings, a term described together with a different term having a broader meaning or the same meaning at least once can be replaced with the different term in any place in the specification or the drawing. Further, all combinations of the present embodiment and modifications are also included in the scope of the present invention. The configurations and operations of the circuit device, the processing device, the display driver, the electro-optical device, the electronic device, and the moving body are not limited to those described in the present embodiment, and various modifications can be made.

11〜14…算出部、21〜24…比較部、30…エラー検出領域設定部、
31…フレームカウンター、51〜54…第1〜第4の位置情報レジスター、
61〜64…第1〜第4の期待値レジスター、71…第1〜第4の算出値レジスター、
100…回路装置、110…タイミング制御部、120…画像処理部、
130…エラー検出部、140…エラー信号出力部、150…レジスター部、
160…インターフェース部、170…インターフェース部、200…処理装置、
206…自動車、300…表示ドライバー、310…CPU、320…記憶部、
330…操作部、340…通信部、350…表示装置、360…表示パネル、
510…ECU、
AR1〜AR4…エラー検出領域、EP1〜EP4…終点、ERS…エラー信号、
IMG1〜IMG4…フレーム画像、PDT…画像データ、SP1〜SP4…始点
11 to 14... Calculation unit, 21 to 24... Comparison unit, 30... Error detection area setting unit,
31... Frame counter, 51-54... First to fourth position information registers,
61 to 64... First to fourth expected value registers, 71... First to fourth calculated value registers,
100... Circuit device, 110... Timing control section, 120... Image processing section,
130...Error detection unit, 140...Error signal output unit, 150...Register unit,
160... Interface unit, 170... Interface unit, 200... Processing device,
206... Automotive, 300... Display driver, 310... CPU, 320... Storage unit,
330... Operation unit, 340... Communication unit, 350... Display device, 360... Display panel,
510... ECU,
AR1 to AR4... error detection area, EP1 to EP4... end point, ERS... error signal,
IMG1 to IMG4... Frame image, PDT... Image data, SP1 to SP4... Starting point

Claims (11)

画像データのエラー検出を行うエラー検出部と、
前記エラー検出の結果に基づいてエラー信号を出力するエラー信号出力部と、
エラー検出領域及び前記エラー検出領域の位置情報を記憶するレジスター部と、
を含み、
前記エラー検出部は、
nを2以上の整数、i、jを1以上n以下の整数とし、且つ、i≠jとする場合に、第1〜第nのフレーム画像の第iのフレーム画像に対して、第iフレーム用のエラー検出領域が設定され、且つ、前記第1〜第nのフレーム画像の第jのフレーム画像に対して、第iフレーム用のエラー検出領域とは異なる位置に第jフレーム用のエラー検出領域が設定される場合に、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の画像データに基づいて前記エラー検出を行い、
前記エラー信号出力部は、
前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域での前記エラー検出の結果に基づいて前記エラー信号を出力し、
前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域は、前記レジスター部に記憶される前記位置情報に基づいて設定されることを特徴とする回路装置。
An error detection unit that detects errors in image data,
An error signal output unit that outputs an error signal based on the result of the error detection,
A register unit that stores the error detection area and the position information of the error detection area,
Including
The error detection unit,
When n is an integer of 2 or more, i and j are integers of 1 or more and n or less, and i≠j, the i-th frame of the i-th frame image of the first to n-th frame images Error detection area for the j-th frame is set at a position different from the error detection area for the i-th frame with respect to the j-th frame image of the first to n-th frame images. When an area is set, the error detection is performed based on the image data of the error detection area for the i-th frame and the error detection area for the j-th frame,
The error signal output unit,
Outputting the error signal based on a result of the error detection in the error detection area for the i-th frame and the error detection area for the j-th frame,
The circuit device , wherein the error detection area for the i-th frame and the error detection area for the j-th frame are set based on the position information stored in the register unit .
請求項において、
前記レジスター部は、
前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の前記位置情報と共に、エラー検出の期待値情報を記憶し、
前記エラー検出部は、
前記期待値情報に基づいてエラー検出を行うことを特徴とする回路装置。
In claim 1 ,
The register section is
Together with the position information of the error detection area for the i-th frame and error detection region of the j-th off for frame stores an expected value information error detection,
The error detection unit,
A circuit device for detecting an error based on the expected value information.
請求項において、
インターフェース部を含み、
前記位置情報と前記期待値情報は、前記インターフェース部を介して外部の処理装置により前記レジスター部に設定されることを特徴とする回路装置。
In claim 2 ,
Including the interface part,
The circuit device, wherein the position information and the expected value information are set in the register unit by an external processing device via the interface unit.
請求項又はにおいて、
画像データの帰線期間において受信した前記期待値情報と前記位置情報が、前記レジスター部に設定されることを特徴とする回路装置。
In claim 2 or 3 ,
A circuit device, wherein the expected value information and the position information received during a blanking period of image data are set in the register unit.
請求項1乃至のいずれかにおいて、
前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域の各エラー検出領域として、複数のエラー検出領域が設定されることを特徴とする回路装置。
In any one of Claim 1 thru|or 4 ,
A circuit device, wherein a plurality of error detection areas are set as each of the error detection areas of the i-th frame error detection area and the j-th frame error detection area.
請求項1乃至のいずれかにおいて、
前記第iフレーム用のエラー検出領域の個数と前記第jフレーム用のエラー検出領域の個数とが異なる個数となるように、前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域が設定されることを特徴とする回路装置。
In any one of Claim 1 thru|or 5 ,
The error detection area for the i-th frame and the error detection area for the j-th frame are set such that the number of error detection areas for the i-th frame is different from the number of error detection areas for the j-th frame. A circuit device in which a region is set.
請求項1乃至のいずれかにおいて、
前記エラー検出部は、
フレームカウンターのカウント値に基づいて、複数のエラー検出領域の中からエラー検出の対象となる前記第iフレーム用のエラー検出領域及び前記第jフレーム用のエラー検出領域を設定するエラー検出領域設定部を含むことを特徴とする回路装置。
In any one of Claim 1 thru|or 6 ,
The error detection unit,
An error detection area setting unit that sets an error detection area for the i-th frame and an error detection area for the j-th frame to be subjected to error detection from a plurality of error detection areas based on the count value of the frame counter. A circuit device comprising:
請求項において、
前記エラー検出領域設定部は、
kを1以上n以下の整数とする場合に、前記第1〜第nのフレーム画像の第kのフレーム画像における第kフレーム用のエラー検出領域と、第k+1のフレーム画像における第k+1フレーム用のエラー検出領域とが、隣り合うようにエラー検出領域を設定することを特徴とする回路装置。
In claim 7 ,
The error detection area setting unit,
When k is an integer of 1 or more and n or less, the error detection area for the kth frame in the kth frame image of the first to nth frame images and the k+1th frame in the k+1th frame image A circuit device, wherein the error detection area is set so as to be adjacent to the error detection area.
請求項1乃至のいずれかに記載された回路装置と、
前記回路装置からの情報に基づいて表示パネルを駆動する表示ドライバーと、
前記表示パネルと、
を含むことを特徴とする電気光学装置。
A circuit device according to any one of claims 1 to 8 ,
A display driver that drives the display panel based on information from the circuit device;
The display panel,
An electro-optical device comprising:
請求項1乃至のいずれかに記載された回路装置を含むことを特徴とする電子機器。 An electronic apparatus comprising the circuit apparatus according to any one of claims 1 to 8. 請求項1乃至のいずれかに記載された回路装置を含むことを特徴とする移動体。 A mobile body comprising the circuit device according to any one of claims 1 to 8 .
JP2015243867A 2015-12-15 2015-12-15 Circuit devices, electro-optical devices, electronic devices, moving objects Active JP6720517B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015243867A JP6720517B2 (en) 2015-12-15 2015-12-15 Circuit devices, electro-optical devices, electronic devices, moving objects
CN201680073008.8A CN108369795B (en) 2015-12-15 2016-11-18 Circuit device, electro-optical device, electronic apparatus, moving object, and error detection method
EP16875330.9A EP3392872A4 (en) 2015-12-15 2016-11-18 Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
PCT/JP2016/084285 WO2017104346A1 (en) 2015-12-15 2016-11-18 Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
US16/060,063 US10778247B2 (en) 2015-12-15 2016-11-18 Circuit device, electro-optical device, electronic apparatus, mobile body, and error detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015243867A JP6720517B2 (en) 2015-12-15 2015-12-15 Circuit devices, electro-optical devices, electronic devices, moving objects

Publications (2)

Publication Number Publication Date
JP2017111219A JP2017111219A (en) 2017-06-22
JP6720517B2 true JP6720517B2 (en) 2020-07-08

Family

ID=59080648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015243867A Active JP6720517B2 (en) 2015-12-15 2015-12-15 Circuit devices, electro-optical devices, electronic devices, moving objects

Country Status (1)

Country Link
JP (1) JP6720517B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0818756A (en) * 1994-06-29 1996-01-19 Canon Inc Facsimile equipment and method for transmission/and reception of facsimile
GB2347038A (en) * 1999-02-18 2000-08-23 Nokia Mobile Phones Ltd A video codec using re-transmission
JP4451023B2 (en) * 2001-06-06 2010-04-14 株式会社メガチップス Moving picture decoding method and program thereof
JP3927422B2 (en) * 2002-02-27 2007-06-06 株式会社メガチップス Moving picture transmission / reception system, moving picture transmission / reception method, and programs thereof
JP2010225234A (en) * 2009-03-24 2010-10-07 Panasonic Corp Video reproducing device
JP5670117B2 (en) * 2010-08-04 2015-02-18 ルネサスエレクトロニクス株式会社 Display control device
JP2014003512A (en) * 2012-06-20 2014-01-09 Mitsubishi Electric Corp Ofdm signal transmission and reception system
JP6012460B2 (en) * 2012-12-28 2016-10-25 株式会社メガチップス Video recording apparatus and surveillance camera system

Also Published As

Publication number Publication date
JP2017111219A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
WO2017104346A1 (en) Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
US11335764B2 (en) Display including plurality of wirings bypassing hole area encompassed by display area, and electronic device including same
TWI755482B (en) Driver, electro-optical device, and electronic apparatus
US9997095B2 (en) Display driving circuit and display apparatus including the same
CN104575413B (en) Display Device and Method for Driving Same
US9947282B2 (en) Gate driver, display driver circuit, and display device including same
US20170287429A1 (en) Display driving circuit and display device comprising the same
JP6921978B2 (en) Position detection system and display device control circuit
KR102254540B1 (en) Curved display and a driving method of the same
US20080042992A1 (en) Touch screen display apparatus and method fof driving the same
US20190362678A1 (en) Display device including scan driver for driving display panel in which empty area enclosed by display area is formed
CN110827738B (en) Circuit device, display control system, electronic apparatus, and moving object
CN105096795A (en) Display driver integrated circuit and mobile deivce and apparatus including the same
CN109817174B (en) Apparatus and method for image correction
JP6840994B2 (en) Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods
US20140253598A1 (en) Generating scaled images simultaneously using an original image
CN113641290A (en) Touch and display control device, display device, method of operating the same, and electronic system
JP2018136371A (en) Display system, display controller, electro-optical device, and electronic apparatus
KR20150067824A (en) Display device and method of driving the same
JP6720517B2 (en) Circuit devices, electro-optical devices, electronic devices, moving objects
JP6897059B2 (en) Circuits, electro-optics, electronic devices and mobiles
US11269448B2 (en) Touch sensor, display device, and method of driving a touch sensor
JP2011158936A (en) Touch panel system aiming at reduction of electromagnetic noise
CN107845373B (en) Method and device for adjusting refresh rate
JP2018136370A (en) Driver, electro-optical device, and electronic apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181113

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6720517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150