JP6840994B2 - Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods - Google Patents

Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods Download PDF

Info

Publication number
JP6840994B2
JP6840994B2 JP2016209415A JP2016209415A JP6840994B2 JP 6840994 B2 JP6840994 B2 JP 6840994B2 JP 2016209415 A JP2016209415 A JP 2016209415A JP 2016209415 A JP2016209415 A JP 2016209415A JP 6840994 B2 JP6840994 B2 JP 6840994B2
Authority
JP
Japan
Prior art keywords
error detection
image data
error
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016209415A
Other languages
Japanese (ja)
Other versions
JP2018072460A (en
Inventor
千里 樋口
千里 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016209415A priority Critical patent/JP6840994B2/en
Priority to PCT/JP2016/084285 priority patent/WO2017104346A1/en
Priority to EP16875330.9A priority patent/EP3392872A4/en
Priority to US16/060,063 priority patent/US10778247B2/en
Priority to CN201680073008.8A priority patent/CN108369795B/en
Publication of JP2018072460A publication Critical patent/JP2018072460A/en
Application granted granted Critical
Publication of JP6840994B2 publication Critical patent/JP6840994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、回路装置、電気光学装置、電子機器、移動体及びエラー検出方法等に関する。 The present invention relates to a circuit device, an electro-optical device, an electronic device, a mobile body, an error detection method, and the like.

表示装置(例えば液晶表示装置)における表示制御では、CPU等の処理装置が表示コントローラーに画像データと制御信号を送信し、表示コントローラーは画像処理とタイミング信号の生成を行い、その画像処理された画像データとタイミング信号により表示ドライバーが動作する。処理装置から表示コントローラーへの画像データの送信には、例えばLVDS(Low Voltage Differential Signal)方式やRGBシリアル方式が用いられるが、いずれにしても通信エラー等によって画像データに誤りが発生する場合がある。例えば特許文献1〜3には、表示コントローラーが処理装置から受信した画像データをCRC(Cyclic Redundancy Check)によりエラー検出する技術が開示されている。 In display control in a display device (for example, a liquid crystal display device), a processing device such as a CPU transmits image data and a control signal to the display controller, and the display controller performs image processing and timing signal generation, and the image processed image. The display driver operates according to the data and timing signal. For example, the LVDS (Low Voltage Differential Signal) method or the RGB serial method is used for transmitting the image data from the processing device to the display controller, but in any case, an error may occur in the image data due to a communication error or the like. .. For example, Patent Documents 1 to 3 disclose a technique for detecting an error of image data received by a display controller from a processing device by CRC (Cyclic Redundancy Check).

特開2012−35677号公報Japanese Unexamined Patent Publication No. 2012-35677 特開2007−101691号公報Japanese Unexamined Patent Publication No. 2007-101691 特開2007−72394号公報Japanese Unexamined Patent Publication No. 2007-72394

このようなエラー検出では、処理装置が、表示コントローラーに送信する画像データからエラー検出の期待値情報(例えばCRCの期待値)を求め、表示コントローラーが、処理装置から受信した画像データからエラー検出の算出値(例えばCRC値)を求め、その期待値情報と算出値を比較してエラー検出を行う。そのため、処理装置には、エラー検出の期待値情報を求める処理負荷が生じる。例えば、1フレームの画像の画像データを全てエラー検出する場合、期待値情報の算出に用いるデータ量が膨大となり、処理負荷が大きくなる。この負荷を減らすために、エラー検出を行う領域を縮小する(画像の一部の領域だけエラー検出を行う)手法が考えられるが、その領域以外の画像をエラー検出できない。 In such error detection, the processing device obtains the expected value information of error detection (for example, the expected value of CRC) from the image data transmitted to the display controller, and the display controller detects the error from the image data received from the processing device. A calculated value (for example, CRC value) is obtained, and the expected value information is compared with the calculated value to detect an error. Therefore, the processing device has a processing load for obtaining the expected value information for error detection. For example, when all the image data of the image of one frame is detected as an error, the amount of data used for calculating the expected value information becomes enormous, and the processing load becomes large. In order to reduce this load, a method of reducing the area where error detection is performed (error detection is performed only in a part of the image) is conceivable, but errors cannot be detected in images other than that area.

本発明の幾つかの態様によれば、画像データのエラー検出における処理装置の処理負荷を低減できる回路装置、電気光学装置、電子機器、移動体及びエラー検出方法等を提供できる。 According to some aspects of the present invention, it is possible to provide a circuit device, an electro-optical device, an electronic device, a moving body, an error detection method, and the like that can reduce the processing load of the processing device in error detection of image data.

本発明の一態様は、画像データを受信するインターフェース部と、エラー検出を行うエラー検出部と、を含み、前記インターフェース部は、表示用画像データと、エラー検出領域の位置情報を少なくとも含むエラー検出用データと、を含む前記画像データを受信し、前記エラー検出部は、前記位置情報により特定される前記エラー検出領域の前記表示用画像データに基づいて、前記表示用画像データの前記エラー検出を行う回路装置に関係する。 One aspect of the present invention includes an interface unit for receiving image data and an error detection unit for performing error detection, and the interface unit includes error detection including at least display image data and position information of an error detection area. The image data including the data for display is received, and the error detection unit detects the error of the display image data based on the display image data of the error detection area specified by the position information. It is related to the circuit equipment to be performed.

本発明の一態様では、画像データを受信するインターフェース部により、表示用画像データとエラー検出用データの両方を受信する。また、エラー検出用データには、エラー検出領域の位置情報が含まれる。このようにすれば、表示用画像データを受信するインターフェースと同様のインターフェースによりエラー検出用データを受信することができる。そのため、エラー検出領域をフレームごとに柔軟に設定でき、エラー検出の処理負荷の低減等が可能になる。 In one aspect of the present invention, both the display image data and the error detection data are received by the interface unit that receives the image data. Further, the error detection data includes the position information of the error detection area. In this way, the error detection data can be received by the same interface as the interface for receiving the display image data. Therefore, the error detection area can be flexibly set for each frame, and the processing load of error detection can be reduced.

また本発明の一態様では、前記エラー検出用データは、前記エラー検出で使用される期待値情報をさらに含み、前記エラー検出部は、前記期待値情報に基づいて前記エラー検出を行ってもよい。 Further, in one aspect of the present invention, the error detection data further includes expected value information used in the error detection, and the error detection unit may perform the error detection based on the expected value information. ..

このようにすれば、期待値情報を含むエラー検出情報を用いることで、適切にエラー検出を行うことが可能になる。 In this way, error detection can be appropriately performed by using the error detection information including the expected value information.

また本発明の一態様では、前記画像データは、第2〜第nのエラー検出用データ(nは2以上の整数)を含み、前記第2〜第nのエラー検出用データの第i(iは2≦i≦を満たす整数)のエラー検出データは、第iのエラー検出領域に対応する前記位置情報を含んでもよい。 Further, in one aspect of the present invention, the image data includes the second to nth error detection data (n is an integer of 2 or more), and the second to nth error detection data i (i). the error detection data integer) satisfying 2 ≦ i ≦ n may include the position information corresponding to the error detection region of the i.

このようにすれば、1つの画像(1フレームの画像)に対して、複数のエラー検出領域を柔軟に設定すること等が可能になる。 In this way, it is possible to flexibly set a plurality of error detection areas for one image (one frame image).

また本発明の一態様では、前記エラー検出部は、前記第iのエラー検出領域において、前記第iのエラー検出用データに基づいて前記エラー検出を行ってもよい。 Further, in one aspect of the present invention, the error detection unit may perform the error detection based on the error detection data of the i in the error detection region of the i.

このようにすれば、設定された複数のエラー検出領域のそれぞれを対象として、エラー検出を行うことが可能になる。 In this way, error detection can be performed for each of the plurality of set error detection areas.

また本発明の一態様では、前記エラー検出部は、前記表示用画像データの前側に付加される前記エラー検出用データに基づいて、前記表示用画像データの前記エラー検出を行ってもよい。 Further, in one aspect of the present invention, the error detection unit may perform the error detection of the display image data based on the error detection data added to the front side of the display image data.

このようにすれば、表示用画像データと、当該表示用画像データのエラー検出に用いるエラー検出用データを同じフレームの画像データに含めること等が可能になり、効率的なデータ通信やエラー検出が可能になる。 By doing so, it becomes possible to include the display image data and the error detection data used for error detection of the display image data in the image data of the same frame, and efficient data communication and error detection can be performed. It will be possible.

また本発明の一態様では、エラー判定情報出力部をさらに含み、前記エラー検出部は、前記画像データの複数のエラー検出領域において、誤り検出符号を演算して前記エラー検出を行い、前記エラー判定情報出力部は、複数のフレームでの前記誤り検出符号に基づいて、前記複数のエラー検出領域でのエラー判定情報を出力してもよい。 Further, in one aspect of the present invention, an error determination information output unit is further included, and the error detection unit calculates an error detection code in a plurality of error detection areas of the image data to perform the error detection, and the error determination is performed. The information output unit may output error determination information in the plurality of error detection areas based on the error detection codes in the plurality of frames.

このようにすれば、時系列的な誤り検出符号に基づくエラー判定を行うため、状況に応じた柔軟なエラー判定を行うことが可能になる。 In this way, since the error determination is performed based on the time-series error detection code, it is possible to perform the error determination flexibly according to the situation.

また本発明の他の態様は、上記のいずれかに記載の回路装置と、電気光学パネルと、を含む電気光学装置に関係する。 Further, another aspect of the present invention relates to an electro-optical device including the circuit device according to any one of the above and an electro-optical panel.

また本発明の他の態様は、上記のいずれかに記載の回路装置を含む電子機器に関係する。 Further, another aspect of the present invention relates to an electronic device including the circuit device according to any one of the above.

また本発明の他の態様は、上記のいずれかに記載の回路装置を含む移動体に関係する。 Further, another aspect of the present invention relates to a mobile body including the circuit device according to any one of the above.

また本発明の他の態様は、表示用画像データと、エラー検出領域の位置情報を少なくとも含むエラー検出用データと、を含む画像データを受信し、前記位置情報により特定される前記エラー検出領域の前記表示用画像データに基づいて、前記表示用画像データのエラー検出を行うエラー検出方法に関係する。 In another aspect of the present invention, the image data including the display image data and the error detection data including at least the position information of the error detection area is received, and the error detection area specified by the position information is received. It relates to an error detection method for detecting an error in the display image data based on the display image data.

回路装置の構成例。Configuration example of a circuit device. 回路装置の他の構成例。Other configuration examples of circuit devices. 回路装置の他の構成例。Other configuration examples of circuit devices. エラー検出領域の設定例。Error detection area setting example. 画像領域を説明する模式図。The schematic diagram explaining the image area. 画像データにエラー検出用データを含める場合のデータ構造例。Data structure example when error detection data is included in the image data. エラー検出部、エラー判定情報出力部の詳細な構成例。Detailed configuration example of the error detection unit and error judgment information output unit. 第1判定部の構成例。Configuration example of the first determination unit. 第2判定部の構成例。Configuration example of the second determination unit. 第3判定部の構成例。Configuration example of the third determination unit. エラー検出部、レジスター部の他の構成例。Other configuration examples of error detection section and register section. エラー検出処理のタイミングチャート。Timing chart of error detection processing. エラー検出領域の設定例。Error detection area setting example. エラー検出領域の設定例。Error detection area setting example. エラー検出領域の設定例。Error detection area setting example. レジスター部の他の構成例。Other configuration examples of the register section. 電気光学装置の構成例。Configuration example of an electro-optical device. 電子機器の構成例。Configuration example of electronic equipment. 移動体の構成例。Configuration example of a moving body.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。 Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unreasonably limit the content of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as a means for solving the present invention. Not necessarily.

1.回路装置
図1に、本実施形態の回路装置100(表示コントローラー400)の構成例を示す。回路装置100は、制御部110(制御回路)、画像処理部120(画像処理回路)、エラー検出部130(エラー検出回路)、エラー判定情報出力部140(エラー判定情報出力回路)、レジスター部150(レジスター)、インターフェース部160、170(インターフェース回路)を含む。回路装置100は、例えば集積回路装置(IC)により実現される。
1. 1. Circuit device FIG. 1 shows a configuration example of the circuit device 100 (display controller 400) of the present embodiment. The circuit device 100 includes a control unit 110 (control circuit), an image processing unit 120 (image processing circuit), an error detection unit 130 (error detection circuit), an error judgment information output unit 140 (error judgment information output circuit), and a register unit 150. (Register), interface units 160, 170 (interface circuit) are included. The circuit device 100 is realized by, for example, an integrated circuit device (IC).

インターフェース部160は、処理装置200と回路装置100の間の通信を行う。例えばインターフェース部160は、処理装置200から画像処理部120へ送信される画像データを受信したり、処理装置200から制御部110へ送信されるタイミング制御信号(例えばクロック信号、垂直同期信号、水平同期信号、データイネーブル信号等)を受信する。また、図11等を用いて後述するように、処理装置200からレジスター部150への書き込みが行われてもよい。その場合、インターフェース部160は、処理装置200からレジスター部150へ書き込まれるレジスター値を受信する。或いはインターフェース部160は、エラー判定情報出力部140が出力するエラー判定情報(エラー信号、エラー検出信号)を処理装置200に送信したり、処理装置200がレジスター部150から読み出すレジスター値を送信したりする。 The interface unit 160 communicates between the processing device 200 and the circuit device 100. For example, the interface unit 160 receives image data transmitted from the processing device 200 to the image processing unit 120, and a timing control signal (for example, a clock signal, a vertical synchronization signal, a horizontal synchronization) transmitted from the processing device 200 to the control unit 110. Receive signals, data enable signals, etc.). Further, as will be described later with reference to FIG. 11 and the like, writing may be performed from the processing device 200 to the register unit 150. In that case, the interface unit 160 receives the register value written from the processing device 200 to the register unit 150. Alternatively, the interface unit 160 transmits the error determination information (error signal, error detection signal) output by the error determination information output unit 140 to the processing device 200, or transmits the register value read from the register unit 150 by the processing device 200. To do.

画像データやタイミング制御信号の通信方式としては、例えばLVDS(Low Voltage Differential Signal)方式やRGBシリアル方式、ディスプレイポート規格の伝送方式等を採用できる。またエラー信号やレジスター値の通信方式としては、I2C方式、3線又は4線のシリアル伝送方式等を採用できる。インターフェース部160は、これらの通信方式を実現する入出力バッファー回路や制御回路(例えばLVDS方式ではPLL回路等)で構成される。 As a communication method for image data and timing control signals, for example, an LVDS (Low Voltage Differential Signal) method, an RGB serial method, a display port standard transmission method, or the like can be adopted. Further, as the communication method of the error signal and the register value, an I2C method, a 3-wire or 4-wire serial transmission method or the like can be adopted. The interface unit 160 is composed of an input / output buffer circuit and a control circuit (for example, a PLL circuit in the LVDS system) that realizes these communication methods.

なお、回路装置100が例えば自動車等に搭載される場合、処理装置200はECU(Electronic Control Unit)である。或いは、回路装置100が情報通信端末等の電子機器に搭載される場合、処理装置200はCPU(Central Processing Unit)やマイクロプロセッサー等のプロセッサーである。 When the circuit device 100 is mounted on, for example, an automobile, the processing device 200 is an ECU (Electronic Control Unit). Alternatively, when the circuit device 100 is mounted on an electronic device such as an information communication terminal, the processing device 200 is a processor such as a CPU (Central Processing Unit) or a microprocessor.

処理装置200は、エラー検出領域の位置情報と、そのエラー検出領域におけるCRCの期待値(エラー検出の期待値情報)とを含むエラー検出用データを、回路装置100(表示コントローラー400)に対して送信する。具体的には、図5、図6を用いて後述するように、実際に表示に用いられる表示用画像データと、エラー検出用データとを、画像データとして送信する。言い換えれば、処理装置200は、インターフェース部160のうち、画像データ送信用のインターフェース(上述したLVDS方式やRGBシリアル方式等)を介して、エラー検出用データを送信する。或いは、図11等を用いて後述するように、処理装置200はレジスター値用のインターフェース(I2C方式等)を介して、エラー検出用データをレジスター部150に書き込んでもよい。 The processing device 200 supplies error detection data including the position information of the error detection area and the expected CRC value (expected value information of error detection) in the error detection area to the circuit device 100 (display controller 400). Send. Specifically, as will be described later with reference to FIGS. 5 and 6, display image data actually used for display and error detection data are transmitted as image data. In other words, the processing device 200 transmits the error detection data via the image data transmission interface (LVDS method, RGB serial method, etc. described above) in the interface unit 160. Alternatively, as will be described later with reference to FIG. 11 and the like, the processing device 200 may write error detection data to the register unit 150 via an interface for register values (I2C method or the like).

制御部110は、回路装置100の各部の制御を行う。特に制御部110は、タイミング制御を行ってもよく、処理装置200からのタイミング制御信号に基づいて、回路装置100の各部の制御や、表示ドライバー300へ送信するタイミング制御信号(例えばクロック信号、垂直同期信号、水平同期信号、データイネーブル信号等)の生成を行う。 The control unit 110 controls each unit of the circuit device 100. In particular, the control unit 110 may perform timing control, controls each part of the circuit device 100 based on the timing control signal from the processing device 200, and a timing control signal (for example, a clock signal, vertical) transmitted to the display driver 300. (Synchronization signal, horizontal synchronization signal, data enable signal, etc.) is generated.

画像処理部120は、処理装置200からの画像データ(表示データ)に対して種々の画像処理(例えば階調補正等)やデータ整形処理(表示ドライバー300のデータ受信方式に適合した送信データを生成する処理)を行う。 The image processing unit 120 generates transmission data suitable for various image processing (for example, gradation correction) and data shaping processing (data receiving method of the display driver 300) for the image data (display data) from the processing device 200. Process).

エラー検出部130は、処理装置200からの画像データに対してエラー検出処理を行う。以下では、エラー検出部130がCRC(巡回冗長検査、CRC:Cyclic Redundancy Check)によるエラー検出処理を行う場合を例に説明する。なお、エラー検出の手法はCRCに限定されるものではなく、例えばチェックサム等の手法を採用することが可能である。エラー検出部130の詳細な構成例については後述する。 The error detection unit 130 performs error detection processing on the image data from the processing device 200. In the following, an example will be described in which the error detection unit 130 performs error detection processing by CRC (Cyclic Redundancy Check). The error detection method is not limited to CRC, and a method such as a checksum can be adopted. A detailed configuration example of the error detection unit 130 will be described later.

エラー判定情報出力部140は、エラー検出部130の出力(CRC値や、CRC値と期待値の比較結果信号)に基づいて、エラー判定情報を出力する。エラー判定情報の出力とは、例えば、処理装置200へのエラー判定情報(エラー信号)の出力でもよいし、レジスター部150へのエラー判定情報の書き込みであってもよい。ここでのエラー信号は例えば割り込み要求信号(IRQ:Interrupt ReQuest)である。或いは、エラー信号は、エラーと判定されたことを単に知らせる(エラーと判定された場合にアクティブとなる)信号であってもよい。 The error determination information output unit 140 outputs error determination information based on the output of the error detection unit 130 (CRC value or comparison result signal of CRC value and expected value). The output of the error determination information may be, for example, the output of the error determination information (error signal) to the processing device 200, or the writing of the error determination information to the register unit 150. The error signal here is, for example, an interrupt request signal (IRQ: Interrupt ReQuest). Alternatively, the error signal may be a signal that simply informs that an error has been determined (becomes active when an error is determined).

図4で後述するように、本実施形態では画像に対して複数のエラー検出領域が設定される。エラー検出部130は、各エラー検出領域に対して画像データのエラー検出を行い、各エラー検出領域についてのCRC値、比較結果信号を出力する。そしてエラー判定情報出力部140は、各エラー検出領域でのCRC値、比較結果信号に基づいて、エラー検出領域ごとにエラー判定を行い、エラー判定情報を出力する。エラー判定情報出力部140の詳細な構成例については後述する。 As will be described later in FIG. 4, in this embodiment, a plurality of error detection areas are set for the image. The error detection unit 130 performs error detection of image data for each error detection area, and outputs a CRC value and a comparison result signal for each error detection area. Then, the error determination information output unit 140 performs error determination for each error detection area based on the CRC value and the comparison result signal in each error detection area, and outputs the error determination information. A detailed configuration example of the error determination information output unit 140 will be described later.

インターフェース部170は、回路装置100と表示ドライバー300の間の通信を行う。例えばインターフェース部170は、画像処理部120が出力する画像データを表示ドライバー300へ送信したり、制御部110が出力するタイミング制御信号を表示ドライバー300へ送信する。また、インターフェース部170は、表示ドライバー300の動作を制御する設定信号(例えばモード設定信号)を表示ドライバー300へ送信してもよい。通信方式は、インターフェース部160と同様の方式を採用できる。 The interface unit 170 communicates between the circuit device 100 and the display driver 300. For example, the interface unit 170 transmits the image data output by the image processing unit 120 to the display driver 300, or transmits the timing control signal output by the control unit 110 to the display driver 300. Further, the interface unit 170 may transmit a setting signal (for example, a mode setting signal) for controlling the operation of the display driver 300 to the display driver 300. As the communication method, the same method as that of the interface unit 160 can be adopted.

なお、表示ドライバー300は、表示パネル(電気光学パネル。例えば液晶表示パネル、電気泳動表示パネル等)を駆動する回路装置である。表示ドライバー300は、例えば表示パネルのデータ線を駆動するデータドライバーや、表示パネルの走査線を駆動する走査ドライバー、それらを制御する制御回路、表示ドライバー300の各部に電源電圧や基準電圧を供給する電源回路等で構成される。 The display driver 300 is a circuit device that drives a display panel (electro-optical panel, for example, a liquid crystal display panel, an electrophoresis display panel, etc.). The display driver 300 supplies a power supply voltage and a reference voltage to, for example, a data driver that drives a data line of a display panel, a scanning driver that drives a scanning line of a display panel, a control circuit that controls them, and each part of the display driver 300. It consists of a power supply circuit and the like.

上記の制御部110、画像処理部120、エラー検出部130、エラー判定情報出力部140、レジスター部150はロジック回路(例えば、アンド回路やオア回路、インバーター回路等のゲート回路や、フリップフロップ回路等の機能回路を配置したゲートアレイ)で構成される。これらの各部は機能ブロックを表しており、ハードウェアとしては一体のロジック回路として構成されてもよいし、或いは個別のロジック回路として構成されてもよい。 The control unit 110, the image processing unit 120, the error detection unit 130, the error determination information output unit 140, and the register unit 150 are logic circuits (for example, gate circuits such as AND circuits, or circuits, inverter circuits, flip-flop circuits, and the like. It is composed of a gate array) in which the functional circuits of are arranged. Each of these parts represents a functional block, and may be configured as an integrated logic circuit as hardware, or may be configured as an individual logic circuit.

或いは、上記の各部は、ソフトウェアにより実現してもよい。即ち、本実施形態の回路装置100等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の回路装置100等が実現される。具体的には、非一時的な情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。 Alternatively, each of the above parts may be realized by software. That is, the circuit device 100 and the like of the present embodiment may realize a part or most of the processing by a program. In this case, the circuit device 100 or the like of the present embodiment is realized by executing the program by a processor such as a CPU. Specifically, a program stored in a non-temporary information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (medium that can be read by a computer) stores programs, data, and the like, and its function is an optical disk (DVD, CD, etc.), an HDD (hard disk drive), or a memory (card type). It can be realized by memory, ROM, etc.). Then, a processor such as a CPU performs various processes of the present embodiment based on a program (data) stored in the information storage medium. That is, the information storage medium is a program for operating a computer (a device including an operation unit, a processing unit, a storage unit, and an output unit) as each part of the present embodiment (a program for causing the computer to execute the processing of each part). Is memorized.

なお、以上では本実施形態に係る回路装置100が表示コントローラー400により実現される(表示コントローラー400に含まれる)例を説明したがこれには限定されない。例えば図2に示すように、本実施形態の回路装置100は、表示ドライバー300により実現されてもよい。 In the above, an example in which the circuit device 100 according to the present embodiment is realized by the display controller 400 (included in the display controller 400) has been described, but the present invention is not limited to this. For example, as shown in FIG. 2, the circuit device 100 of this embodiment may be realized by the display driver 300.

表示ドライバー300は、インターフェース部161と、エラー検出部131と、エラー判定情報出力部141と、レジスター部151と、制御部(制御回路)181と、駆動部(駆動回路)191を含む。インターフェース部161、エラー検出部131、エラー判定情報出力部141、レジスター部151は、それぞれ図1に示したインターフェース部160、エラー検出部130、エラー判定情報出力部140、レジスター部150と同様の構成により実現できる。また駆動部191は、上述したデータドライバー及び走査ドライバーに対応する。 The display driver 300 includes an interface unit 161, an error detection unit 131, an error determination information output unit 141, a register unit 151, a control unit (control circuit) 181 and a drive unit (drive circuit) 191. The interface unit 161, the error detection unit 131, the error judgment information output unit 141, and the register unit 151 have the same configurations as the interface unit 160, the error detection unit 130, the error judgment information output unit 140, and the register unit 150 shown in FIG. 1, respectively. Can be realized by. Further, the drive unit 191 corresponds to the above-mentioned data driver and scanning driver.

図1、図2に示したように、表示コントローラー400(狭義にはインターフェース部170)と表示ドライバー300(狭義にはインターフェース部161)との間でも画像データの通信が行われる。よって表示ドライバー300により回路装置100を実現することで、表示コントローラー400と表示ドライバー300の間での通信エラーの判定が可能になる。 As shown in FIGS. 1 and 2, image data is also communicated between the display controller 400 (in a narrow sense, the interface unit 170) and the display driver 300 (in a narrow sense, the interface unit 161). Therefore, by realizing the circuit device 100 by the display driver 300, it is possible to determine a communication error between the display controller 400 and the display driver 300.

また、図1及び図2では、表示コントローラー400と表示ドライバー300が、それぞれ異なるICとして実装される例を示した。これに対して、図3に示したように、表示コントローラー400と表示ドライバー300とがワンチップとして実装されてもよい。この場合の回路装置100は、図3に示したように、制御部112、画像処理部122、エラー検出部132、エラー判定情報出力部142、レジスター部152、インターフェース部162、制御部182、駆動部192を含む。回路装置100の各部は図1或いは図2と同様の構成である。なお、図3では、表示コントローラー400用の制御部112と、表示ドライバー300用の制御部182を分けて記載したが、これらを1つの制御部としてもよい。 Further, FIGS. 1 and 2 show an example in which the display controller 400 and the display driver 300 are mounted as different ICs. On the other hand, as shown in FIG. 3, the display controller 400 and the display driver 300 may be mounted as one chip. As shown in FIG. 3, the circuit device 100 in this case includes a control unit 112, an image processing unit 122, an error detection unit 132, an error determination information output unit 142, a register unit 152, an interface unit 162, a control unit 182, and a drive unit. Includes part 192. Each part of the circuit device 100 has the same configuration as that of FIG. 1 or 2. Although the control unit 112 for the display controller 400 and the control unit 182 for the display driver 300 are described separately in FIG. 3, these may be used as one control unit.

図3の例では、表示コントローラー400と表示ドライバー300との間の通信が不要となるため、処理装置200と回路装置100との間の通信エラーを判定すればよい。 In the example of FIG. 3, since communication between the display controller 400 and the display driver 300 is unnecessary, a communication error between the processing device 200 and the circuit device 100 may be determined.

以下では、図1のように回路装置100が表示コントローラー400として実現される例について説明するが、以下の説明は、図2や図3のように、回路装置100が他の装置として実現される場合に拡張して考えることが可能である。 In the following, an example in which the circuit device 100 is realized as the display controller 400 as shown in FIG. 1 will be described, but in the following description, the circuit device 100 is realized as another device as shown in FIGS. 2 and 3. It is possible to expand and think in some cases.

2.エラー検出領域の設定例
図4に、エラー検出領域の設定例を示す。図4では、所与のフレームの画像IMGに対して第1〜第4のエラー検出領域AR1〜AR4が設定される。各エラー検出領域のサイズ(横幅、縦幅)は、画像IMGのサイズよりも小さい。即ち、画像IMGの全体ではなく一部のエラー検出領域AR1〜AR4についてエラー検出を行う。
2. 2. Example of setting the error detection area FIG. 4 shows an example of setting the error detection area. In FIG. 4, the first to fourth error detection regions AR1 to AR4 are set for the image IMG of a given frame. The size (width, height) of each error detection area is smaller than the size of the image IMG. That is, error detection is performed not for the entire image IMG but for a part of the error detection areas AR1 to AR4.

エラー検出領域AR1〜AR4は、始点SP1〜SP4と終点EP1〜EP4で指定される。具体的には、始点SP1〜SP4の座標と終点EP1〜EP4の座標が位置情報として取得されることによって、エラー検出領域AR1〜AR4が指定される。例えば画像IMGの左上の画素の座標を原点として、水平走査方向の座標xと垂直走査方向の座標yを定義する。座標x、yが共に最も小さい画素が始点であり、座標x、yが共に最も大きい画素が終点である。 The error detection areas AR1 to AR4 are designated by the start points SP1 to SP4 and the end points EP1 to EP4. Specifically, the error detection areas AR1 to AR4 are designated by acquiring the coordinates of the start points SP1 to SP4 and the coordinates of the end points EP1 to EP4 as position information. For example, the coordinates x in the horizontal scanning direction and the coordinates y in the vertical scanning direction are defined with the coordinates of the upper left pixel of the image IMG as the origin. The pixel with the smallest coordinates x and y is the start point, and the pixel with the largest coordinates x and y is the end point.

図4では、処理装置200は、エラー検出領域AR1〜AR4の各領域でのCRC値を算出し、そのCRC値を期待値として回路装置100に送信する。そしてエラー検出部130は、エラー検出領域AR1〜AR4の各領域でのCRC値を算出し、その算出値と期待値とを比較する。 In FIG. 4, the processing device 200 calculates the CRC value in each of the error detection areas AR1 to AR4, and transmits the CRC value as an expected value to the circuit device 100. Then, the error detection unit 130 calculates the CRC value in each of the error detection areas AR1 to AR4, and compares the calculated value with the expected value.

なお、エラー検出領域の数は4つに限定されず、2つ以上の任意のエラー検出領域を設定できる。また図4では、エラー検出領域AR1〜AR4が互いに重ならない領域となっているが、これに限定されず、一部が重なる領域となってもよい。またエラー検出領域を指定する位置情報は始点と終点に限定されず、領域を確定できる情報であればよい。例えば、エラー検出領域の始点の座標と横幅(水平走査方向の画素数)と縦幅(垂直走査方向の画素数)であってもよい。 The number of error detection areas is not limited to four, and two or more arbitrary error detection areas can be set. Further, in FIG. 4, the error detection areas AR1 to AR4 are not overlapped with each other, but the region is not limited to this, and a part of the error detection areas may be overlapped with each other. Further, the position information for designating the error detection area is not limited to the start point and the end point, and may be any information that can determine the area. For example, the coordinates of the start point of the error detection region, the horizontal width (the number of pixels in the horizontal scanning direction), and the vertical width (the number of pixels in the vertical scanning direction) may be used.

このようにして、画像全体ではなく、その一部のエラー検出領域についてエラー検出を行う。これにより、処理装置200がCRC値を演算するデータ量が削減され、処理装置200の処理負荷を低減できる。また、複数のエラー検出領域を設定することで、画像のより広い領域でのエラー検出が可能となり、検出漏れを低減できる。特に重要な領域にエラー検出領域を設定しておけば、効率のよいエラー検出が可能となる。 In this way, error detection is performed not for the entire image but for a part of the error detection area. As a result, the amount of data for which the processing device 200 calculates the CRC value can be reduced, and the processing load of the processing device 200 can be reduced. Further, by setting a plurality of error detection areas, error detection in a wider area of the image becomes possible, and detection omission can be reduced. If an error detection area is set in a particularly important area, efficient error detection becomes possible.

また、図4では所与の1フレームでのエラー検出領域を示したが、エラー検出領域の設定はフレームごとに変化させることが可能である。即ち、本実施形態では、各フレームでエラー検出領域の数、位置、サイズ、形状を可変に設定できる。言い換えれば、第iのフレーム画像では第iフレーム用のエラー検出領域でエラー検出が行われ、第jのフレーム画像では第jフレーム用のエラー検出領域でエラー検出が行われ、これらの第i、第jフレーム用のエラー検出領域は位置が異なっている。なおnを2以上の整数とし、i、jを1以上n以下の整数とし、且つ、i≠jとする。これにより、各フレームにおいて異なる位置のエラー検出領域でエラー検出を行うことが可能となり、画像の広い範囲でのエラー検出が可能となる。また1つのフレームでは画像全体よりも小さい領域でエラー検出を行っているので、処理装置200の処理負荷を低減できる。 Further, although FIG. 4 shows an error detection area in a given frame, the setting of the error detection area can be changed for each frame. That is, in the present embodiment, the number, position, size, and shape of the error detection area can be variably set in each frame. In other words, in the i-th frame image, error detection is performed in the error detection area for the i-frame, and in the j-th frame image, error detection is performed in the error detection area for the j-th frame. The position of the error detection area for the jth frame is different. Note that n is an integer of 2 or more, i and j are integers of 1 or more and n or less, and i ≠ j. As a result, error detection can be performed in error detection areas at different positions in each frame, and error detection in a wide range of the image becomes possible. Further, since the error detection is performed in a region smaller than the entire image in one frame, the processing load of the processing apparatus 200 can be reduced.

ここで、エラー検出とは、処理装置200が回路装置100に送信しようとする画像データと、回路装置100が実際に受信した画像データとが、一致しているか否かをチェックすること(通信エラーの検出)である。またフレーム画像とは、1つのフレームにおいて表示される画像(又は表示される予定の画像)のことである。例えば30fps(frames per second)で表示パネルの表示を更新する場合、1/30秒が1フレームであり、その1フレームで描画される画像がフレーム画像である。なお、ここでのフレーム画像は、処理装置200が回路装置100に送信した段階での画像である。即ち、最終的に表示される際のフレーム画像と、エラー検出の対象となるフレーム画像は、その間に画像処理が行われる可能性があるため、全く同じ画像とは限らない。 Here, the error detection is to check whether or not the image data that the processing device 200 tries to transmit to the circuit device 100 and the image data actually received by the circuit device 100 match (communication error). Detection). The frame image is an image displayed (or an image to be displayed) in one frame. For example, when the display of the display panel is updated at 30 fps (frames per second), 1/30 second is one frame, and the image drawn in the one frame is the frame image. The frame image here is an image at the stage when the processing device 200 transmits the image to the circuit device 100. That is, the frame image that is finally displayed and the frame image that is the target of error detection may not be exactly the same image because image processing may be performed between them.

3.データの受信手法の例
次に、処理装置200から表示用画像データ、及びエラー検出用データを受信する手法について説明する。なお図11等を用いて後述するように、表示用画像データ、及びエラー検出用データを受信する手法は異なる変形実施が可能である。
3. 3. Example of Data Receiving Method Next, a method of receiving display image data and error detection data from the processing device 200 will be described. As will be described later with reference to FIG. 11 and the like, the method of receiving the display image data and the error detection data can be modified differently.

図1に示したように、本実施形態に係る回路装置100は、画像データを受信するインターフェース部160と、エラー検出を行うエラー検出部130を含む。なお上述したように、インターフェース部160は、画像データ用のインターフェース(RGB方式等)と、エラー信号やレジスター値用のインターフェース(I2C方式、3線又は4線のシリアル伝送方式等)を含むが、ここでのインターフェース部160は、狭義には画像データ用のインターフェースである。 As shown in FIG. 1, the circuit device 100 according to the present embodiment includes an interface unit 160 for receiving image data and an error detection unit 130 for performing error detection. As described above, the interface unit 160 includes an interface for image data (RGB method, etc.) and an interface for error signals and register values (I2C method, 3-wire or 4-wire serial transmission method, etc.). The interface unit 160 here is, in a narrow sense, an interface for image data.

そしてインターフェース部160は、表示用画像データと、エラー検出領域の位置情報を少なくとも含むエラー検出用データと、を含む画像データを受信し、エラー検出部130は、位置情報により特定されるエラー検出領域の表示用画像データに基づいて、表示用画像データのエラー検出を行う。 Then, the interface unit 160 receives the image data including the display image data and the error detection data including at least the position information of the error detection area, and the error detection unit 130 receives the error detection area specified by the position information. Error detection of display image data is performed based on the display image data of.

このようにすれば、画像データにエラー検出用データを含めることが可能になる。言い換えれば、本実施形態の回路装置100は、表示用画像データを受信するインターフェースを用いて、エラー検出用データを受信することが可能になる。 In this way, it becomes possible to include error detection data in the image data. In other words, the circuit device 100 of the present embodiment can receive the error detection data by using the interface for receiving the display image data.

図5は、本実施形態の画像データに対応する画像領域(表示領域、非表示領域を含む)の模式図である。図5のth1は有効画像エリア(表示領域)の水平方向での画素数(サイズ)を表し、tv1は有効画像エリアの垂直方向での画素数を表す。図5の例では、有効画像エリアの面積(総画素数)、即ち、表示される画像のサイズがth1×tv1となる。 FIG. 5 is a schematic view of an image area (including a display area and a non-display area) corresponding to the image data of the present embodiment. In FIG. 5, th1 represents the number of pixels (size) in the horizontal direction of the effective image area (display area), and tv1 represents the number of pixels in the vertical direction of the effective image area (display area). In the example of FIG. 5, the area of the effective image area (total number of pixels), that is, the size of the displayed image is th1 × tv1.

例えば、各画素についてR,G,Bのそれぞれに8ビットを割り当てる例であれば、1画素当たり24ビットのデータを用いればよい。本実施形態では、実際に表示に用いられる画像データを表示用画像データと表記する。表示用画像データとは、有効画像エリアのデータであり、上記例で言えばth1×tv1×24ビットのデータとなる。 For example, in the case of allocating 8 bits to each of R, G, and B for each pixel, 24 bits of data may be used for each pixel. In the present embodiment, the image data actually used for display is referred to as display image data. The display image data is the data of the effective image area, and in the above example, it is the data of th1 × tv1 × 24 bits.

また画像データの表示の際には、水平方向の1ラインの表示の後、次の1ラインの表示を開始するまでの期間である水平帰線期間が設けられる。図5のA1は、当該水平帰線期間に対応する領域を便宜的に図示しており、th2は当該領域の画素数を表す。また、画像データの表示では、1フレーム分の画像の表示が行われた後、次のフレームの画像の表示を開始するまでの期間である垂直帰線期間が設けられる。図5のA2は、当該垂直帰線期間に対応する領域を便宜的に図示しており、tv2は当該領域の画素数を表す。A1及びA2から決定される領域A3は、画像の表示には利用されない非表示領域である。 Further, when displaying the image data, a horizontal blanking interval, which is a period from the display of one line in the horizontal direction to the start of the display of the next one line, is provided. A1 of FIG. 5 shows a region corresponding to the horizontal blanking interval for convenience, and th2 represents the number of pixels in the region. Further, in the display of the image data, a vertical blanking interval, which is a period from the display of the image for one frame to the start of the display of the image of the next frame, is provided. A2 of FIG. 5 shows a region corresponding to the vertical blanking interval for convenience, and tv2 represents the number of pixels in the region. The area A3 determined from A1 and A2 is a non-display area that is not used for displaying an image.

上述したように、有効画像エリアのデータは表示用画像データとなるため、当該有効画像エリアにエラー検出用データを含めることは好ましくない。エラー検出用データが書き込まれた有効画像エリアでは、画像の表示ができないためである。 As described above, since the data in the effective image area is the image data for display, it is not preferable to include the error detection data in the effective image area. This is because the image cannot be displayed in the effective image area in which the error detection data is written.

これに対して、上記の非表示領域にエラー検出用データを付加してもよい。非表示領域は、帰線期間に対応するため、非表示領域へのデータ付加は、表示用画像データの送受信を阻害しない。ただし、通信規格によっては非表示領域へのエラー検出用データの付加が難しい場合も考えられる。 On the other hand, error detection data may be added to the above non-display area. Since the non-display area corresponds to the blanking interval, adding data to the non-display area does not hinder the transmission and reception of display image data. However, depending on the communication standard, it may be difficult to add error detection data to the non-display area.

よって本実施形態では、インターフェース部160は、図5にLINE0として示したように、表示用画像データの前側にエラー検出用データが付加された画像データを受信する。このようにすれば、表示用画像データの受信を阻害することなく、エラー検出用データを適切に受信することが可能になる。 Therefore, in the present embodiment, as shown as LINE0 in FIG. 5, the interface unit 160 receives the image data in which the error detection data is added to the front side of the display image data. By doing so, it becomes possible to appropriately receive the error detection data without hindering the reception of the display image data.

図5の例では、LINE0には水平方向1ライン分のデータ、例えばth1×24ビットのデータを含めることが可能である。 In the example of FIG. 5, LINE0 can include data for one horizontal line, for example, th1 × 24 bit data.

図6は、LINE0のデータフォーマットの一例である。エラー検出用データは、エラー検出で使用される期待値情報を含む。具体的には、インターフェース部160は、エラー検出領域の位置情報と、エラー検出で使用される期待値情報と、を含むエラー検出用データを含む画像データを受信する。図6では、4つのエラー検出領域を設定する例を想定しているため、エラー検出情報は、それぞれ4つの位置情報及び期待値情報を含む。 FIG. 6 is an example of the LINE 0 data format. The error detection data includes expected value information used in error detection. Specifically, the interface unit 160 receives image data including error detection data including position information of an error detection area and expected value information used in error detection. In FIG. 6, since an example of setting four error detection areas is assumed, the error detection information includes four position information and expected value information, respectively.

図4で説明したように、位置情報は、例えば始点SP1〜SP4の座標(始点にあたる画素の座標)と終点EP1〜EP4の座標(終点にあたる画素の座標)である。この場合、エラー検出部130は、始点と終点を結ぶ線を対角線とする四角形の領域を、エラー検出領域とする。始点の座標を(hs,vs)とし、終点の座標を(he,ve)とした場合、hs、vs、he,veの各値は、有効画像エリアのいずれかの画素を特定可能な情報であればよい。例えば有効画像エリアが1920×1080のサイズであれば、位置情報の各値は11ビットのデータを用いればよい。ただし、ビット数については種々の変形実施が可能である。 As described with reference to FIG. 4, the position information is, for example, the coordinates of the start points SP1 to SP4 (coordinates of the pixels corresponding to the start point) and the coordinates of the end points EP1 to EP4 (coordinates of the pixels corresponding to the end point). In this case, the error detection unit 130 uses a quadrangular region whose diagonal line connecting the start point and the end point is the error detection region. When the coordinates of the start point are (hs, vs) and the coordinates of the end point are (he, ve), each value of hs, vs, he, ve is information that can identify any pixel in the effective image area. All you need is. For example, if the effective image area has a size of 1920 × 1080, 11-bit data may be used for each value of the position information. However, various modifications can be made to the number of bits.

また、期待値情報は、送信側である処理装置200が求めたものであり、例えば第iフレーム用のエラー検出領域の期待値情報は、処理装置200が第iフレーム画像の表示用画像データのうち、第iフレーム用のエラー検出領域の表示用画像データから求めたものである。期待値情報は、例えばエラー検出領域の各ピクセルのRデータ値に基づく期待値crcrと、Gデータ値に基づく期待値crcgと、Bデータに基づく期待値crcbを含む。ここでは、crcr、crcg、crcbのそれぞれを16ビットとするが、これについても種々の変形実施が可能である。なお、本実施形態における期待値情報は、期待値そのものであってもよいがこれに限定されず、期待値(或いは期待値に相当する情報)を演算可能な情報であればよい。 Further, the expected value information is obtained by the processing device 200 on the transmitting side. For example, the expected value information of the error detection area for the i-frame is obtained by the processing device 200 of the image data for displaying the i-frame image. Of these, it is obtained from the display image data of the error detection area for the i-frame. The expected value information includes, for example, an expected value crcr based on the R data value of each pixel in the error detection region, an expected value crcg based on the G data value, and an expected value crcb based on the B data. Here, each of crcr, crcg, and crcb is set to 16 bits, but various modifications can be performed for this as well. The expected value information in the present embodiment may be the expected value itself, but is not limited to this, and may be any information that can calculate the expected value (or information corresponding to the expected value).

図6の例では、LINE0のうち、i画素〜i+6画素目の領域が、第1のエラー検出領域の位置情報及び期待値情報に対応する。具体的には、i及びi+1画素のR領域である16ビットのうち、11ビットを用いて始点の垂直座標値vs0を記憶する。同様に、i及びi+1画素のG領域の11ビットを用いて始点の水平座標値hs0を記憶し、i+2及びi+3画素のR領域の11ビットを用いて終点の垂直座標値ve0を記憶し、i+2及びi+3画素のG領域の11ビットを用いて終点の水平座標値he0を記憶する。図6の例では、i〜i+3画素のB領域については使用しない。 In the example of FIG. 6, the region of the i-pixel to i + 6-pixel of LINE0 corresponds to the position information and the expected value information of the first error detection region. Specifically, 11 bits of the 16 bits in the R region of i and i + 1 pixels are used to store the vertical coordinate value vs0 of the start point. Similarly, the horizontal coordinate value hs0 of the start point is stored using the 11 bits of the G region of i and i + 1 pixels, the vertical coordinate value ve0 of the end point is stored using the 11 bits of the R region of i + 2 and i + 3 pixels, and i + 2 And the horizontal coordinate value he0 of the end point is stored using 11 bits of the G region of i + 3 pixels. In the example of FIG. 6, the B region of i to i + 3 pixels is not used.

また、i+4及びi+5画素のR領域である16ビットを用いてRデータに基づく期待値crcr0を記憶する。同様に、i+4及びi+5画素のG領域である16ビットを用いてGデータに基づく期待値crcg0を記憶し、i+4及びi+5画素のB領域である16ビットを用いてBデータに基づく期待値crcb0を記憶する。 Further, the expected value crcr0 based on the R data is stored by using 16 bits which are R regions of i + 4 and i + 5 pixels. Similarly, the expected value crcg0 based on the G data is stored using the 16 bits that are the G region of the i + 4 and i + 5 pixels, and the expected value crcb0 based on the B data is stored using the 16 bits that are the B region of the i + 4 and i + 5 pixels. Remember.

他のエラー検出領域についても同様であり、i+6〜i+11画素目が第2のエラー検出領域に対応し、i+12〜i+17画素目が第3のエラー検出領域に対応し、i+18〜i+23画素目が第4のエラー検出領域に対応する。 The same applies to the other error detection areas, where the i + 6 to i + 11 pixels correspond to the second error detection area, the i + 12 to i + 17 pixels correspond to the third error detection area, and the i + 18 to i + 23 pixels correspond to the third error detection area. Corresponds to the error detection area of 4.

ただし、エラー検出用データは、受信側の回路装置100において、各エラー検出領域の位置情報及び期待値情報を特定可能な形式であればよく、そのデータ形式は図6には限定されない。例えば、各エラー検出領域の位置情報と期待値情報の並びは図6の順序には限定されない。 However, the error detection data may be in a format in which the position information and the expected value information of each error detection region can be specified in the circuit device 100 on the receiving side, and the data format is not limited to FIG. For example, the arrangement of the position information and the expected value information of each error detection area is not limited to the order shown in FIG.

図6に示したように、画像データは、第2〜第nのエラー検出用データ(nは2以上の整数)を含み、第2〜第nのエラー検出用データの第i(iは2≦i≦を満たす整数)のエラー検出データは、第iのエラー検出領域に対応する位置情報を含む。例えば、インターフェース部160は、第1〜第nのエラー検出領域(nは2以上の整数)に対応し、各エラー検出用データが各エラー検出領域の位置情報を含む、第1〜第nのエラー検出用データを受信する。図6の例ではn=4であり、上述したように、エラー検出用データには4つの位置情報が含まれている。 As shown in FIG. 6, the image data includes the second to second error detection data (n is an integer of 2 or more), and the second to nth error detection data i (i is 2). error detection data of ≦ i integer satisfying ≦ n) includes position information corresponding to the error detection region of the i. For example, the interface unit 160 corresponds to the first to nth error detection areas (n is an integer of 2 or more), and each error detection data includes the position information of each error detection area. Receives error detection data. In the example of FIG. 6, n = 4, and as described above, the error detection data includes four position information.

このようにすれば、各フレームにおいて複数のエラー検出領域を適切に設定することが可能になる。なお、毎フレームで複数のエラー検出領域が設定される必要はなく、1つのエラー検出領域が設定されるフレームがあってもよい。また、エラー検出領域を設定しないことで、エラー検出(及びエラー判定)をスキップするフレームがあることも妨げられない。いずれにせよ図5、図6の手法では、回路装置100は、画像データを用いてフレームごとにエラー検出用データを受信できるため、エラー検出領域の柔軟な設定が可能である。 In this way, it is possible to appropriately set a plurality of error detection areas in each frame. It is not necessary to set a plurality of error detection areas in each frame, and there may be a frame in which one error detection area is set. Further, by not setting the error detection area, it is not prevented that there is a frame for skipping error detection (and error determination). In any case, in the method of FIGS. 5 and 6, since the circuit device 100 can receive the error detection data for each frame using the image data, the error detection area can be flexibly set.

4.エラー検出部及びエラー判定情報出力部の詳細
図7に、エラー検出部130、エラー判定情報出力部140の詳細な構成例を示す。エラー検出部130は、算出部11〜14(算出回路)、比較部21〜24(比較回路)を含む。エラー判定情報出力部140は、第1判定部81−1〜81−4、第2判定部82−1〜82−4、第3判定部83−1〜83−4を含む。なお、ここでは算出部等が4つずつある場合を例に説明するが、算出部等は2以上の任意の個数(例えば、設定できるエラー検出領域の最大数と同じ個数)であってよい。以下、エラー検出部130と、エラー判定情報出力部140の各部について詳細に説明する。
4. Details of the Error Detection Unit and the Error Judgment Information Output Unit FIG. 7 shows a detailed configuration example of the error detection unit 130 and the error judgment information output unit 140. The error detection unit 130 includes calculation units 11 to 14 (calculation circuit) and comparison units 21 to 24 (comparison circuit). The error determination information output unit 140 includes a first determination unit 81-1 to 81-4, a second determination unit 82-1 to 82-4, and a third determination unit 83-1-83-4. Although the case where there are four calculation units and the like will be described here as an example, the number of calculation units and the like may be any number of two or more (for example, the same number as the maximum number of error detection areas that can be set). Hereinafter, each unit of the error detection unit 130 and the error determination information output unit 140 will be described in detail.

4.1 エラー検出部
算出部11には、エラー検出用データのうちの、第1のエラー検出領域の位置情報と、表示用画像データが入力される。算出部11は、表示用画像データのうち、位置情報により特定される第1のエラー検出領域内の表示用画像データに基づいて、CRC値(算出値)を算出する。広義には、算出部11は、画像データの誤り検出符号を演算する。誤り検出符号の形式、及び演算については種々の手法が広く知られており、本実施形態ではそれらを広く適用可能である。算出部11は、算出したCRC値を、比較部21と、第1判定部81−1に出力する。
4.1 Error detection unit The position information of the first error detection area and the display image data of the error detection data are input to the calculation unit 11. The calculation unit 11 calculates the CRC value (calculated value) based on the display image data in the first error detection area specified by the position information among the display image data. In a broad sense, the calculation unit 11 calculates an error detection code for image data. Various methods are widely known for the format of the error detection code and the calculation, and they can be widely applied in the present embodiment. The calculation unit 11 outputs the calculated CRC value to the comparison unit 21 and the first determination unit 81-1.

比較部21には、エラー検出用データのうちの、第1のエラー検出領域の期待値情報と、算出部11で算出されたCRC値が入力される。処理装置200から送信されるCRCの期待値と算出部11〜14が算出するCRC値は同じビット数であり、同じ演算式で算出されたものである。比較部21は、算出されたCRC値と、期待値が一致するか否かの比較処理を行う。即ちエラー検出部130は、期待値情報に基づいてエラー検出を行うことになる。比較部21は、比較結果を表す信号(比較結果信号)を、第2判定部82−1及び第3判定部83−1に出力する。 The expected value information of the first error detection region of the error detection data and the CRC value calculated by the calculation unit 11 are input to the comparison unit 21. The expected value of CRC transmitted from the processing device 200 and the CRC value calculated by the calculation units 11 to 14 have the same number of bits and are calculated by the same calculation formula. The comparison unit 21 performs a comparison process of whether or not the calculated CRC value and the expected value match. That is, the error detection unit 130 performs error detection based on the expected value information. The comparison unit 21 outputs a signal representing the comparison result (comparison result signal) to the second determination unit 82-1 and the third determination unit 83-1.

算出部12〜14、及び比較部22〜24についても同様であり、対応するエラー検出領域のCRC値の算出及び比較処理を行い、CRC値と比較結果信号を、エラー判定情報出力部140の対応する判定部に対して出力する。 The same applies to the calculation units 12 to 14 and the comparison units 22 to 24, in which the CRC value of the corresponding error detection area is calculated and the comparison processing is performed, and the CRC value and the comparison result signal are corresponded to by the error judgment information output unit 140. Output to the judgment unit.

図7に示したように、インターフェース部160が、第1〜第nのエラー検出領域に対応する第1〜第nのエラー検出用データを受信する場合において、エラー検出部130は、各エラー検出領域において、各エラー検出用データに基づいてエラー検出を行う。具体的には、エラー検出部130は、第iのエラー検出領域において、第iのエラー検出用データに基づいてエラー検出を行う。図7の例では、n=4であり、算出部及び比較部を4つ設けることで、各エラー検出領域においてエラー検出が実行される。 As shown in FIG. 7, when the interface unit 160 receives the first to nth error detection data corresponding to the first to nth error detection regions, the error detection unit 130 detects each error. In the area, error detection is performed based on each error detection data. Specifically, the error detection unit 130 performs error detection in the i-th error detection region based on the i-th error detection data. In the example of FIG. 7, n = 4, and by providing four calculation units and four comparison units, error detection is executed in each error detection region.

このようにすれば、1フレームに複数のエラー検出領域が設定される場合にも、各エラー検出領域を対象として適切にエラー検出を実行することが可能になる。 In this way, even when a plurality of error detection areas are set in one frame, it is possible to appropriately execute error detection for each error detection area.

図7に示したように、エラー検出部130でのエラー検出は、エラー検出用データ(位置情報、期待値情報)と、表示用画像データが必要となる。この際、表示用画像データについては、画像全体分の表示用画像データを取得している必要はなく、位置情報により特定されるエラー検出領域の表示用画像データを取得していれば足りる。つまり、処理対象となる表示用画像データが受信されたら、逐次的に(パイプライン処理により)、算出部11によるCRC値の算出を開始するとよい。このようにすれば、効率的なエラー検出が可能になる。 As shown in FIG. 7, error detection by the error detection unit 130 requires error detection data (position information, expected value information) and display image data. At this time, as for the display image data, it is not necessary to acquire the display image data for the entire image, and it is sufficient to acquire the display image data of the error detection area specified by the position information. That is, when the display image data to be processed is received, it is preferable to start the calculation of the CRC value by the calculation unit 11 sequentially (by pipeline processing). In this way, efficient error detection becomes possible.

その際、どの表示用画像データが処理対象となるかは、位置情報がなければ特定できない。つまり、表示用画像データよりも前のタイミングで、エラー検出用データを受信している必要がある。 At that time, which display image data is to be processed cannot be specified without the position information. That is, it is necessary to receive the error detection data at a timing before the display image data.

よってエラー検出部130は、表示用画像データの前側に付加されるエラー検出用データに基づいて、表示用画像データのエラー検出を行うとよい。ここで、「前側」とは、インターフェース部160による受信において、より時間的に早いタイミングで受信されることを表す。図5のように2次元画像を想定し、且つ、走査が左上から右下に向かって行われる場合であれば、「前側」とは画像において上側、且つ同一ラインにおいては左側を表すことになる。 Therefore, the error detection unit 130 may perform error detection of the display image data based on the error detection data added to the front side of the display image data. Here, the “front side” means that the interface unit 160 receives the signal at an earlier timing. Assuming a two-dimensional image as shown in FIG. 5, and when scanning is performed from the upper left to the lower right, the "front side" means the upper side in the image and the left side in the same line. ..

このようにすれば、1フレーム分の画像データを受信する際に、まずエラー検出用データが受信され、その後に表示用画像データが受信されることになる。そのため、表示用画像データのエラー検出を行うためのエラー検出用データを、同一フレームの画像データに含めることが可能になる。 In this way, when receiving the image data for one frame, the error detection data is first received, and then the display image data is received. Therefore, the error detection data for performing the error detection of the display image data can be included in the image data of the same frame.

ただし、エラー検出用データが表示用画像データの後側に付加されることは妨げられない。この場合、所与のフレームの画像データに含まれるエラー検出用データは、次のフレームの表示用画像データのエラー検出に用いられることになる。即ち、対となる表示用画像データとエラー検出用データとが、異なるフレームの画像データに含まれることになる。 However, it is not prevented that the error detection data is added to the rear side of the display image data. In this case, the error detection data included in the image data of a given frame will be used for error detection of the display image data of the next frame. That is, the paired display image data and the error detection data are included in the image data of different frames.

なお、インターフェース部160は、電気光学パネルでの表示に用いられる表示データを、画像データとして処理装置200から受信し、エラー検出部130は、画像データの転送エラーの検出を行う。そして、エラー検出に用いる誤り検出符号は、巡回冗長検査(CRC)である。 The interface unit 160 receives display data used for display on the electro-optical panel from the processing device 200 as image data, and the error detection unit 130 detects a transfer error of the image data. The error detection code used for error detection is a cyclic redundancy check (CRC).

すなわち、本実施形態に係る回路装置100で行われるエラー検出とは、具体的には表示用画像データを受信する場合において、その受信された表示用画像データの送信側との同一性をチェックする処理である。 That is, the error detection performed by the circuit device 100 according to the present embodiment specifically checks the identity of the received display image data with the transmitting side when the display image data is received. It is a process.

4.2 エラー判定情報出力部
エラー検出部130では、CRC値と期待値との比較処理を行う。つまり比較結果が一致しない場合、表示用画像データに通信エラーが発生していることになる。そのため、エラー判定情報出力部140は、比較結果信号が不一致を表す場合に、処理装置200に対してエラー信号(割り込み要求信号)を出力してもよい。
4.2 Error determination information output unit The error detection unit 130 performs comparison processing between the CRC value and the expected value. That is, if the comparison results do not match, it means that a communication error has occurred in the display image data. Therefore, the error determination information output unit 140 may output an error signal (interrupt request signal) to the processing device 200 when the comparison result signal indicates a mismatch.

ただし、通信によるエラーの発生頻度は規格によりある程度定まっており、例えばビットエラーを10−9以下とすることを求める規格が考えられる。これは1ビットのデータ転送でデータ誤りが発生する確率であるため、1フレームの画像サイズがth1×tv1であり、1画素のデータサイズが24ビットであれば、1フレーム当たりのエラー発生確率はth1×tv×24×10−9となる。具体的な値は画像サイズに依存することになるが、例えば1920×1080画素の画像であれば、20フレーム程度に1回はエラーが発生する可能性がある。この場合、フレームレートが30fpsであれば1秒に1.5回、60fpsであれば1秒に3回の頻度で割り込み要求信号が出力されてしまう。これは割り込み処理の発生頻度としては過剰に高く、処理装置200のスムーズな動作が妨げられるおそれがある。本実施形態では、画像全体よりも狭い領域をエラー検出領域として設定することで、割り込み要求信号の出力頻度(割り込み処理の発生頻度)は低減可能であるが、それでも充分とは言えない。 However, the frequency of error occurrence due to communication is determined to some extent by the standard, and for example, a standard that requires the bit error to be 10-9 or less can be considered. Since this is the probability that a data error will occur in 1-bit data transfer, if the image size of 1 frame is th1 × tv1 and the data size of 1 pixel is 24 bits, the error occurrence probability per frame is It becomes th1 × tv × 24 × 10-9. The specific value depends on the image size, but for example, in the case of an image of 1920 × 1080 pixels, an error may occur once every 20 frames. In this case, if the frame rate is 30 fps, the interrupt request signal is output 1.5 times per second, and if the frame rate is 60 fps, the interrupt request signal is output three times per second. This is excessively high as the frequency of occurrence of interrupt processing, and may hinder the smooth operation of the processing device 200. In the present embodiment, the output frequency of the interrupt request signal (frequency of occurrence of interrupt processing) can be reduced by setting an area narrower than the entire image as an error detection area, but this is not sufficient.

よって本実施形態では、エラー検出部130からの出力に基づいて、さらにエラー判定を行ってもよい。具体的には、回路装置100は、画像データを受信するインターフェース部160と、画像データの誤り検出符号を演算して、エラー検出を行うエラー検出部130と、複数のフレームでの誤り検出符号に基づくエラー判定情報を出力するエラー判定情報出力部140を含む。 Therefore, in the present embodiment, further error determination may be performed based on the output from the error detection unit 130. Specifically, the circuit device 100 has an interface unit 160 that receives image data, an error detection unit 130 that calculates an error detection code of the image data to perform error detection, and an error detection code in a plurality of frames. Includes an error determination information output unit 140 that outputs based error determination information.

このようにすれば、複数フレームでの誤り検出符号に基づくエラー判定情報を出力できる。具体例については後述するが、例えば誤り検出符号に基づくエラー検出回数が多い、或いはエラーが連続して発生しているといったように、単発でのエラー発生に比べて重要度の大きいエラーを判定することが可能になる。そのため、上記のように高頻度で割り込みが発生してしまうことを抑止できる。 In this way, error determination information based on the error detection code in a plurality of frames can be output. A specific example will be described later, but an error having a higher importance than a single error occurrence, such as a large number of error detections based on an error detection code or continuous errors, is determined. Will be possible. Therefore, it is possible to prevent interrupts from occurring frequently as described above.

また、エラー検出部130は、画像データの複数のエラー検出領域において、誤り検出符号を演算してエラー検出を行い、エラー判定情報出力部140は、複数のエラー検出領域でのエラー判定情報を出力する。即ち、エラー判定情報の出力についても、エラー検出領域ごとに行うことが可能である。そのため、エラー検出領域に応じて、エラー判定の内容を調整することも可能である。例えば、重要な領域については、エラーと判定されやすくすることで、エラーの見逃しを抑止できる。或いは、重要度の低い領域については、エラーと判定されにくくすることで、割り込み要求信号が過剰に出力されることを抑止できる。 Further, the error detection unit 130 calculates an error detection code in a plurality of error detection areas of the image data to perform error detection, and the error judgment information output unit 140 outputs error judgment information in the plurality of error detection areas. To do. That is, it is possible to output the error determination information for each error detection area. Therefore, it is possible to adjust the content of the error determination according to the error detection area. For example, it is possible to prevent an error from being overlooked by making it easier to determine an error in an important area. Alternatively, it is possible to prevent the interrupt request signal from being excessively output by making it difficult to determine an error in a region of low importance.

エラー判定情報出力部140は、図7に示したように第1判定部81(81−1〜81−4)、第2判定部82(82−1〜82−4)、第3判定部83(83−1〜83−4)を含んでもよい。以下、詳細に説明する。ただし、各判定部の構成は以下で説明するものには限定されず、種々の変形実施が可能である。 As shown in FIG. 7, the error determination information output unit 140 includes a first determination unit 81 (81-1 to 81-4), a second determination unit 82 (82-1 to 82-4), and a third determination unit 83. (831-183-4) may be included. Hereinafter, a detailed description will be given. However, the configuration of each determination unit is not limited to that described below, and various modifications can be performed.

図8は、第1判定部81−1の構成例である。以下では説明を省略するが、図8の第1判定部81−2〜81−4についても同様の構成を用いればよい。第1判定部81−1は、遅延回路DA1−1、DA1−2と、比較部CP1と、フレームカウンターFC1を含む。 FIG. 8 is a configuration example of the first determination unit 81-1. Although description will be omitted below, the same configuration may be used for the first determination units 81-2 to 81-4 in FIG. The first determination unit 81-1 includes delay circuits DA1-1 and DA1-2, a comparison unit CP1, and a frame counter FC1.

遅延回路DA1−1には、算出部11からのCRC値が入力され、当該CRC値を1フレーム分遅延させる。遅延回路DA1−2には、遅延回路DA1−1からの出力が入力され、遅延回路DA1−1の出力を更に1フレーム分遅延させる。遅延回路DA1−1,DA1−2は、例えばDフリップフロップにより実現できる。比較部CP1は、遅延回路DA1−1の出力と、遅延回路DA1−2の出力の比較を行う。言い換えれば、比較部CP1はフレームiのCRC値と、1フレーム後であるフレームi+1のCRC値が一致するか否かを判定する。フレームカウンターFC1は、比較部CP1の出力に基づいてカウントアップ、或いはリセットが行われるカウンターである。 The CRC value from the calculation unit 11 is input to the delay circuit DA1-1, and the CRC value is delayed by one frame. The output from the delay circuit DA1-1 is input to the delay circuit DA1-2, and the output of the delay circuit DA1-1 is further delayed by one frame. The delay circuits DA1-1 and DA1-2 can be realized by, for example, a D flip-flop. The comparison unit CP1 compares the output of the delay circuit DA1-1 with the output of the delay circuit DA1-2. In other words, the comparison unit CP1 determines whether or not the CRC value of the frame i and the CRC value of the frame i + 1 one frame later match. The frame counter FC1 is a counter that counts up or resets based on the output of the comparison unit CP1.

図8のmatchedは、フレームiとi+1のCRC値が一致した場合に“1”(ハイレベル、アクティブ)となり、不一致の場合に“0”(ローレベル、非アクティブ)となる信号である。unmatchedは、フレームiとi+1のCRC値が不一致の場合にアクティブとなり、一致した場合に非アクティブとなる信号である。フレームカウンターFC1は、UPに入力される信号がアクティブの場合にカウントアップ(カウンター値のインクリメント)が行われ、CLEARに入力される信号がアクティブの場合にリセット(例えばカウンター値=0)が行われる。 The matched signal in FIG. 8 is a signal that becomes “1” (high level, active) when the CRC values of frames i and i + 1 match, and becomes “0” (low level, inactive) when they do not match. Uncatched is a signal that becomes active when the CRC values of frames i and i + 1 do not match, and becomes inactive when they match. The frame counter FC1 is counted up (counter value increment) when the signal input to UP is active, and reset (for example, counter value = 0) when the signal input to CLEAR is active. ..

図8に示した第1判定部81−1により、エラー判定情報出力部140は、第iのフレームでの誤り検出符号と、第i+1のフレームでの誤り検出符号との比較結果に基づいて、エラー判定情報として第1のエラー判定情報を出力する。 According to the first determination unit 81-1 shown in FIG. 8, the error determination information output unit 140 is based on the comparison result between the error detection code in the i-th frame and the error detection code in the i + 1 frame. The first error determination information is output as the error determination information.

表示用画像データの中には、多くのケースにおいて表示内容(画素値)が変化しない領域が存在しうる。例えば、回路装置100が車両に設けられる場合、表示パネルの一部に車両の異常を知らせる警告灯を表示する場合がある。警告灯は、異常が発生していない場合には第1のカラーパターン(例えば警告灯表示領域全面を緑色とするパターン)で表示され、異常発生時には第2のカラーパターン(例えば全面赤色)で表示される。このようにすれば、異常の発生の有無をユーザーに対して明確に通知できるためである。 In the display image data, there may be a region in which the display content (pixel value) does not change in many cases. For example, when the circuit device 100 is provided in a vehicle, a warning light for notifying an abnormality of the vehicle may be displayed on a part of a display panel. The warning light is displayed in the first color pattern (for example, a pattern in which the entire warning light display area is green) when no abnormality has occurred, and is displayed in the second color pattern (for example, the entire surface in red) when an abnormality has occurred. Will be done. By doing so, it is possible to clearly notify the user of the presence or absence of an abnormality.

警告灯が第2のカラーパターンで表示される場合とは、ユーザーに危険が生じるほどの重大な異常が発生している場合であるため、多くのケースでは、警告灯は第1のカラーパターンで表示されることになる。結果として、警告灯の表示領域の一部又は全部をエラー検出領域とした場合、当該エラー検出領域でのCRC値は、多くのケースで一定となる。また、警告灯以外でも、同様の表示の継続が想定される領域は考えられ、当該領域をエラー検出領域とした場合、CRC値は長期間不変であることが期待される。 In many cases, the warning light will be displayed in the first color pattern because the warning light is displayed in the second color pattern when there is a serious abnormality that poses a danger to the user. It will be displayed. As a result, when a part or all of the display area of the warning light is set as the error detection area, the CRC value in the error detection area becomes constant in many cases. In addition to the warning light, it is conceivable that the same display will continue in an area, and if this area is used as an error detection area, the CRC value is expected to remain unchanged for a long period of time.

つまり、CRC値が不変であることが想定されるエラー検出領域を対象とした場合、CRC値が不変(1フレーム前と一致)の場合には通信エラーは発生しておらず、CRC値が変化した場合に通信エラーの発生が疑われると判定することが可能である。 That is, when the error detection area where the CRC value is assumed to be invariant is targeted, if the CRC value is invariant (matches with one frame before), no communication error has occurred and the CRC value has changed. If this is the case, it can be determined that the occurrence of a communication error is suspected.

例えば、第1判定部81−1は、所定時間ごとにフレームカウンターFC1の値をチェックする。通信エラーが発生していなければ、フレームカウンターFC1のカウント値は、経過時間(経過フレーム数)により決定される値となっている。一方、通信エラーが発生していれば、発生したフレームに対応するタイミングでリセットがかかるため、カウント値はエラー非発生時に比べて小さい値となる。第1判定部81−1は、カウンターのカウント値の大きさに基づいて、通信エラーを判定し、判定結果を第1のエラー判定情報として出力する。 For example, the first determination unit 81-1 checks the value of the frame counter FC1 at predetermined time intervals. If no communication error has occurred, the count value of the frame counter FC1 is a value determined by the elapsed time (number of elapsed frames). On the other hand, if a communication error has occurred, the reset is applied at the timing corresponding to the frame in which the error has occurred, so that the count value is smaller than when the error does not occur. The first determination unit 81-1 determines a communication error based on the magnitude of the count value of the counter, and outputs the determination result as the first error determination information.

図9は、第2判定部82−1の構成例である。以下では説明を省略するが、図7の第2判定部82−2〜82−4についても同様の構成を用いればよい。第2判定部82−1は、積算カウンターAC1により実現できる。 FIG. 9 is a configuration example of the second determination unit 82-1. Although description will be omitted below, the same configuration may be used for the second determination units 82-2 to 82-4 in FIG. 7. The second determination unit 82-1 can be realized by the integration counter AC1.

積算カウンターAC1は、エラー検出部130の比較部21からの比較結果信号がUPに入力され、比較結果信号に基づいて、カウントアップが行われるカウンターである。図9では、比較結果信号は、CRC値と期待値が不一致の場合に“1”(アクティブ)となり、一致した場合に“0”(非アクティブ)となる信号である。ただし、比較結果信号が、CRC値と期待値が一致した場合にアクティブとなり、不一致の場合に非アクティブとなる信号であってもよい。その場合、第2判定部82−1は不図示の反転回路(ノット回路)を含み、比較結果信号を反転した上で、積算カウンターAC1のUPに入力してもよい。 The integration counter AC1 is a counter in which the comparison result signal from the comparison unit 21 of the error detection unit 130 is input to the UP, and the count-up is performed based on the comparison result signal. In FIG. 9, the comparison result signal is a signal that becomes “1” (active) when the CRC value and the expected value do not match, and becomes “0” (inactive) when they match. However, the comparison result signal may be a signal that becomes active when the CRC value and the expected value match, and becomes inactive when the CRC value and the expected value do not match. In that case, the second determination unit 82-1 may include an inverting circuit (not circuit) (not shown), invert the comparison result signal, and then input it to the UP of the integration counter AC1.

積算カウンターAC1は、比較結果信号がアクティブ、即ち、CRC値と期待値が不一致の場合にカウントアップを行う。これにより、積算カウンターAC1では、CRC値と期待値が一致しなかった回数(CRCエラーの発生回数)を積算することができる。そして、積算カウンターAC1では、所定の閾値を設定しておき、CRCエラー発生回数が当該閾値を超えた場合に、エラーと判定する。CRCエラー発生回数が多ければエラーの深刻度も高いと考えられる。即ち、積算カウンターAC1を用いることで、深刻な通信エラーの発生判定を行うことが可能になる。 The integration counter AC1 counts up when the comparison result signal is active, that is, when the CRC value and the expected value do not match. As a result, the integration counter AC1 can integrate the number of times the CRC value and the expected value do not match (the number of times a CRC error has occurred). Then, the integration counter AC1 sets a predetermined threshold value, and when the number of CRC error occurrences exceeds the threshold value, it is determined as an error. If the number of CRC errors occurs, the severity of the error is considered to be high. That is, by using the integration counter AC1, it is possible to determine the occurrence of a serious communication error.

図9に示した第2判定部82−1により、エラー判定情報出力部140は、誤り検出符号に基づくエラーの検出回数の積算値が所与の回数になった場合に、エラー判定情報として第2のエラー判定情報を出力する。なお、ここでの所与の回数は種々の設定が可能であり、図9の例であれば、31、63、127、255回の4通りの候補のうち、いずれかを選択可能としている。例えば、重要なエラー検出領域に対しては、相対的に小さい値を設定し、重要度の低いエラー検出領域に対しては、相対的に大きい値を設定するとよい。このようにすれば、重要度に応じた柔軟なエラー判定が可能になる。 According to the second determination unit 82-1 shown in FIG. 9, the error determination information output unit 140 uses the error determination information output unit 140 as the error determination information when the integrated value of the number of error detections based on the error detection code reaches a given number of times. Outputs the error judgment information of 2. The given number of times here can be set in various ways, and in the example of FIG. 9, any one of four candidates of 31, 63, 127, and 255 times can be selected. For example, a relatively small value may be set for an important error detection area, and a relatively large value may be set for a less important error detection area. In this way, flexible error determination according to the importance becomes possible.

図10は、第3判定部83−1の構成例である。以下では説明を省略するが、図7の第3判定部83−2〜83−4についても同様の構成を用いればよい。第3判定部83−1は、第1〜第4の遅延回路(Dフリップフロップ)DB1−1〜DB1−4と、アンド回路AN1を含む。 FIG. 10 is a configuration example of the third determination unit 83-1. Although description will be omitted below, the same configuration may be used for the third determination units 83-2 to 83-4 in FIG. 7. The third determination unit 83-1 includes the first to fourth delay circuits (D flip-flops) DB1-1 to DB1-4 and the AND circuit AN1.

第1の遅延回路DB1−1には、エラー検出部130の比較部21からの比較結果信号が入力される。ここでは上述した例と同様に、比較結果信号がCRC値と期待値が不一致の場合にアクティブとなり、一致した場合に非アクティブとなる信号である例を示したが、種々の変形実施が可能である。第1の遅延回路DB1−1の出力bit1は、第2の遅延回路DB1−2に入力される。第2の遅延回路DB1−2の出力bit2は、第3の遅延回路DB1−3に入力される。第3の遅延回路DB1−3の出力bit3は、第4の遅延回路DB1−4に入力される。bit1〜bit3、及び第4の遅延回路DB1−4の出力bit4は、アンド回路AN1に入力される。 A comparison result signal from the comparison unit 21 of the error detection unit 130 is input to the first delay circuit DB1-1. Here, as in the above-mentioned example, an example is shown in which the comparison result signal is a signal that becomes active when the CRC value and the expected value do not match and becomes inactive when they match, but various modifications can be performed. is there. The output bit1 of the first delay circuit DB1-1 is input to the second delay circuit DB1-2. The output bit2 of the second delay circuit DB1-2 is input to the third delay circuit DB1-3. The output bit3 of the third delay circuit DB1-3 is input to the fourth delay circuit DB1-4. The bit1 to bit3 and the output bit4 of the fourth delay circuit DB1-4 are input to the AND circuit AN1.

遅延回路DB1−1〜DB1−4は、クロック信号として、画像データのフレームタイミングに相当する信号が入力される。つまり遅延回路DB1−1〜DB1−4は、比較結果信号を1フレームずつ遅延させる回路となり、bit1〜bit4は、異なる4フレーム(狭義には連続する4フレーム)の比較結果信号を表すことになる。 In the delay circuits DB1-1 to DB1-4, a signal corresponding to the frame timing of the image data is input as a clock signal. That is, the delay circuits DB1-1 to DB1-4 are circuits that delay the comparison result signal one frame at a time, and bit1 to bit4 represent comparison result signals of four different frames (in a narrow sense, four consecutive frames). ..

アンド回路AN1は、bit1〜bit4の論理積を出力するため、アンド回路AN1の出力は、bit1〜bit4の全てがアクティブの場合、即ち、4フレーム連続して、CRC値と期待値が不一致の場合にアクティブとなる。上述したように、CRCエラー自体は1秒当たり数回発生する可能性はあるが、複数フレームで連続することは通常では考えにくい。よって、CRCエラーが複数フレーム連続した場合には、重大な通信エラーが発生していると判定できる。 Since the AND circuit AN1 outputs the logical product of bits 1 to bit 4, the output of the AND circuit AN1 is when all of the bits 1 to bit 4 are active, that is, when the CRC value and the expected value do not match for 4 consecutive frames. Becomes active. As mentioned above, the CRC error itself can occur several times per second, but it is usually unlikely that it will continue in multiple frames. Therefore, when the CRC error continues for a plurality of frames, it can be determined that a serious communication error has occurred.

図10に示した第3判定部83−1により、エラー判定情報出力部140は、誤り検出符号に基づくエラーの検出が所与の設定フレーム数連続して発生した場合に、エラー判定情報として第3のエラー判定情報を出力する。なお、図10では所与の設定フレーム数が4である例を示したがこれには限定されない。例えば、図10には不図示の他のアンド回路を追加してもよい。具体的には、bit1とbit2が入力される2入力のアンド回路、及びbit1〜bit3が入力される3入力のアンド回路を追加してもよい。 According to the third determination unit 83-1 shown in FIG. 10, the error determination information output unit 140 uses the error determination information output unit 140 as the error determination information when the error detection based on the error detection code occurs continuously for a given set number of frames. Outputs the error judgment information of 3. Note that FIG. 10 shows an example in which a given number of set frames is 4, but the present invention is not limited to this. For example, other AND circuits (not shown) may be added to FIG. Specifically, a 2-input AND circuit in which bit1 and bit2 are input and a 3-input AND circuit in which bit1 to bit3 are input may be added.

その上で、第3判定部83−1の出力を、bit1そのもの、bit1とbit2の論理積、bit1〜bit3の論理積、bit1〜bit4の論理積のいずれかから選択可能に設定する。このようにすれば、上記所与の設定フレーム数を、1〜4から選択可能となり、重要度に応じた柔軟なエラー判定が可能になる。また、設定フレーム数として5フレーム以上を設定可能な構成としてもよい。なお、上述した第2判定部82−1と同様に、重要なエラー検出領域ほど、設定フレーム数を小さくするとよい。 Then, the output of the third determination unit 83-1 is set to be selectable from any of bit1 itself, the logical product of bit1 and bit2, the logical product of bit1 to bit3, and the logical product of bit1 to bit4. In this way, the given number of set frames can be selected from 1 to 4, and flexible error determination according to the importance can be performed. Further, the number of set frames may be set to 5 or more. As with the second determination unit 82-1 described above, the number of set frames may be reduced as the error detection region becomes more important.

なお、図7では複数のエラー検出領域の全てに対して、第1〜第3判定部を設ける例を示したがこれには限定されない。例えば、所与のエラー検出領域に対しては、第1判定部81を設けない、或いは構成としては設けるが動作させない(非アクティブにする)といった変形実施も可能である。 Note that FIG. 7 shows an example in which the first to third determination units are provided for all of the plurality of error detection regions, but the present invention is not limited to this. For example, for a given error detection region, it is possible to carry out modification such that the first determination unit 81 is not provided, or is provided as a configuration but is not operated (deactivated).

なお、本実施形態でのエラー判定情報の出力は種々の手法により実現可能である。例えば上述してきたように、エラー判定情報の出力は、処理装置200に対する割り込み要求信号の出力であってもよい。或いは、エラー判定情報の出力は、レジスター部150への書き込みであってもよい。この場合、処理装置200側が定期的にレジスター部150の対応する領域を読み込むことで、エラーの発生状況を確認する(ポーリング)。 The output of the error determination information in this embodiment can be realized by various methods. For example, as described above, the output of the error determination information may be the output of the interrupt request signal to the processing device 200. Alternatively, the output of the error determination information may be written to the register unit 150. In this case, the processing device 200 periodically reads the corresponding area of the register 150 to check the error occurrence status (polling).

一例としては、エラー判定情報出力部140は、上述した第1判定部81からの第1のエラー判定情報の出力を、レジスター部150への書き込みにより行い、第2判定部82からの第2のエラー判定情報及び第3判定部83の第3のエラー判定情報の出力を、割り込み要求信号の出力により行う。なお、この例ではエラー判定情報出力部140は、第2判定部82−1〜82−4及び第3判定部83−1〜83−4での8通りの判定の結果に基づいて、割り込み要求信号を出力することになる。例えば、第2判定部82−1〜82−4及び第3判定部83−1〜83−4のいずれか1つでエラーと判定された場合に、割り込み要求信号を出力すればよい。 As an example, the error determination information output unit 140 outputs the first error determination information from the first determination unit 81 described above by writing to the register unit 150, and the second determination unit 82 outputs the first error determination information. The error determination information and the third error determination information of the third determination unit 83 are output by the output of the interrupt request signal. In this example, the error determination information output unit 140 requests an interrupt based on the results of eight determinations by the second determination unit 82-1 to 82-4 and the third determination unit 83-1-83-4. It will output a signal. For example, when any one of the second determination unit 82-1 to 82-4 and the third determination unit 83-1 to 83-4 determines an error, an interrupt request signal may be output.

処理装置200が割り込み要求信号を受信した場合の動作は、種々想定できる。例えば、処理装置200が回路装置100への画像データの送信を停止してもよいし、或いは処理装置200が特定の表示制御(例えば黒表示(画面全体を黒にする)や所定パターンの表示)を回路装置100に指示してもよい。或いは、処理装置200が回路装置100の動作を停止させたり、回路装置100をリセットしたりしてもよい。 Various operations can be assumed when the processing device 200 receives the interrupt request signal. For example, the processing device 200 may stop transmitting image data to the circuit device 100, or the processing device 200 may control a specific display (for example, display black (make the entire screen black) or display a predetermined pattern). May be instructed to the circuit device 100. Alternatively, the processing device 200 may stop the operation of the circuit device 100 or reset the circuit device 100.

この際、複数のエラー検出領域のいずれのエラー検出領域でエラーと判定されたに応じて、処理装置200での動作を変更してもよい。或いは、複数のエラー判定情報(上記の例では第1〜第3のエラー判定情報)のいずれのエラー判定情報が出力されたかに応じて、処理装置200での動作を変更してもよい。上述してきたように、本実施形態ではエラー検出領域を柔軟に設定可能であり、領域ごとに重要度等が異なる場合がある。また、エラー判定情報についても、互いに判定処理の内容が異なるため、いずれの判定でエラーと判定されたかに応じて、エラーの発生状況が異なる。そのため、エラー検出領域やエラー判定情報の内容を特定することで、処理装置200は、領域及び判定内容に応じた適切な対応を行うことが可能になる。 At this time, the operation in the processing device 200 may be changed according to the determination of an error in any of the error detection areas of the plurality of error detection areas. Alternatively, the operation of the processing device 200 may be changed depending on which of the plurality of error determination information (first to third error determination information in the above example) is output. As described above, in the present embodiment, the error detection area can be flexibly set, and the importance may differ for each area. Further, since the content of the determination process is different from each other for the error determination information, the error occurrence status differs depending on which determination is determined as an error. Therefore, by specifying the content of the error detection area and the error determination information, the processing device 200 can take an appropriate response according to the area and the content of the determination.

また、以上ではエラーと判定された場合に、処理装置200側で対応を行う例を示したがこれには限定されない。本実施形態の回路装置100は、当該回路装置の動作制御を行う制御部110を更に含み、エラー判定情報出力部140は、誤り検出符号に対する判定処理が互いに異なる複数のエラー判定情報を、エラー判定情報として出力する。そして回路装置100の制御部110は、複数のエラー検出領域のいずれのエラー検出領域でエラーと判定されたかを表す情報、及び、複数のエラー判定情報のいずれのエラー判定情報が出力されたかを表す情報、の少なくとも一方に基づいて、動作制御を行う。 Further, in the above, an example in which the processing device 200 takes measures when an error is determined is shown, but the present invention is not limited to this. The circuit device 100 of the present embodiment further includes a control unit 110 that controls the operation of the circuit device, and the error determination information output unit 140 determines a plurality of error determination information having different determination processes for the error detection code. Output as information. Then, the control unit 110 of the circuit device 100 indicates information indicating in which error detection area of the plurality of error detection areas the error was determined, and which error determination information of the plurality of error determination information was output. Operation control is performed based on at least one of the information.

即ち、エラーと判定された場合には、回路装置100側でエラー用の動作制御を実行してもよい。ここでの動作制御は、処理装置200の例と同様に種々考えられ、外部への画像データの出力(例えば回路装置100である表示コントローラー400から、表示ドライバー300への出力)を停止してもよいし、黒表示や特定パターン、或いは回路装置100内部に保存されている画像を表示するような特定の表示制御を行ってもよい。 That is, when it is determined that an error occurs, the circuit device 100 may execute the operation control for the error. The operation control here can be considered in various ways as in the example of the processing device 200, and even if the output of image data to the outside (for example, the output from the display controller 400 which is the circuit device 100 to the display driver 300) is stopped. Alternatively, a black display, a specific pattern, or a specific display control such as displaying an image stored inside the circuit device 100 may be performed.

また本実施形態の手法は、画像データを受信するインターフェース部160と、画像データの第1のエラー検出領域において、画像データの誤り検出符号を演算して、エラー検出を行う第1のエラー検出部と、画像データの第2のエラー検出領域において、画像データの誤り検出符号を演算して、エラー検出を行う第2のエラー検出部と、を含む回路装置100に適用できる。 Further, in the method of the present embodiment, the interface unit 160 for receiving the image data and the first error detection unit for performing error detection by calculating the error detection code of the image data in the first error detection area of the image data. And, in the second error detection region of the image data, it can be applied to the circuit device 100 including the second error detection unit that calculates the error detection code of the image data and performs the error detection.

ここで、第1のエラー検出部とは、例えば図7のエラー検出部130のうちの算出部11及び比較部21に対応し、第2のエラー検出部とは、算出部12及び比較部22に対応する。 Here, the first error detection unit corresponds to, for example, the calculation unit 11 and the comparison unit 21 of the error detection unit 130 of FIG. 7, and the second error detection unit is the calculation unit 12 and the comparison unit 22. Corresponds to.

そして回路装置100は、第1のエラー検出部から出力された、第1のフレームの画像データの誤り検出符号と、第1のフレームより後の第2のフレームの画像データの誤り検出符号と、に基づくエラー判定情報を出力する第1のエラー判定情報出力部と、第2のエラー検出部から出力された、第3のフレームの画像データの誤り検出符号と、第3のフレームより後の第4のフレームの画像データの誤り検出符号と、に基づくエラー判定情報を出力する第2のエラー判定情報出力部と、を含む。 Then, the circuit device 100 includes an error detection code of the image data of the first frame output from the first error detection unit, an error detection code of the image data of the second frame after the first frame, and an error detection code of the image data of the second frame after the first frame. The error detection code of the image data of the third frame output from the first error judgment information output unit that outputs the error judgment information based on the third frame and the second error detection unit, and the third frame after the third frame. It includes an error detection code of the image data of the frame 4 and a second error determination information output unit that outputs error determination information based on the error detection code.

ここで、第1のエラー判定情報出力部とは、例えば図7のエラー判定情報出力部140のうちの、第1判定部81−1、第2判定部82−1、第3判定部83−1に対応する。第2のエラー判定情報出力部とは、第1判定部81−2、第2判定部82−2、第3判定部83−2に対応する。 Here, the first error determination information output unit is, for example, among the error determination information output units 140 of FIG. 7, the first determination unit 81-1, the second determination unit 82-1, and the third determination unit 83-. Corresponds to 1. The second error determination information output unit corresponds to the first determination unit 81-2, the second determination unit 82-2, and the third determination unit 83-2.

このようにすれば、画像に対して複数のエラー検出領域を設定するとともに、エラー検出領域ごとに、エラー検出処理、及びエラー判定情報の出力処理を行うことが可能になる。即ち、本実施形態の手法では、複数フレームを用いたエラー判定をエラー検出領域ごとに独立に行う(エラー検出部130からの出力をエラー検出領域ごとに独立に行う)こと等が可能になる。例えば、警告灯を表示する領域を第1のエラー検出領域とし、その他の領域を第2のエラー検出領域としてもよい。このようにすれば、エラー検出領域の特性(狭義には重要度合い)に応じて、領域ごとに処理を行うことが可能になる。 In this way, it is possible to set a plurality of error detection areas for the image, and to perform error detection processing and error determination information output processing for each error detection area. That is, in the method of the present embodiment, it is possible to independently perform error determination using a plurality of frames for each error detection area (output from the error detection unit 130 independently for each error detection area). For example, the area where the warning light is displayed may be the first error detection area, and the other areas may be the second error detection area. In this way, it is possible to perform processing for each area according to the characteristics (in a narrow sense, the degree of importance) of the error detection area.

5.エラー検出用データを受信する手法の他の例
以上では、画像データにエラー検出用データを含め、インターフェース部160は、画像データ用のインターフェースを用いてエラー検出用データを受信する例について説明した。このようにすれば、各フレームにおいて表示用画像データの受信を阻害することなく、容易にエラー検出用データを受信することができ、レジスター部150へのエラー検出用データの書き込み等も不要である。
5. Other Examples of Method for Receiving Error Detection Data In the above, an example in which the image data includes the error detection data and the interface unit 160 receives the error detection data using the image data interface has been described. By doing so, the error detection data can be easily received without hindering the reception of the display image data in each frame, and it is not necessary to write the error detection data to the register unit 150. ..

ただし、エラー検出用データの受信手法はこれには限定されない。例えば、画像データ用のインターフェースとは異なるインターフェースを用いてエラー検出用データを受信してもよい。また、受信したエラー検出用データをレジスター部150へ書き込むことで、エラー検出を行ってもよい。以下、詳細に説明する。 However, the method for receiving error detection data is not limited to this. For example, error detection data may be received using an interface different from the interface for image data. Further, error detection may be performed by writing the received error detection data to the register unit 150. Hereinafter, a detailed description will be given.

図11に、エラー検出部130、レジスター部150の詳細な構成例を示す。エラー検出部130は、算出部11〜14、比較部21〜24、エラー検出領域設定部30(エラー領域設定回路)を含む。算出部11〜14、及び比較部21〜24については図7と同様の構成である。 FIG. 11 shows a detailed configuration example of the error detection unit 130 and the register unit 150. The error detection unit 130 includes calculation units 11 to 14, comparison units 21 to 24, and error detection area setting unit 30 (error area setting circuit). The calculation units 11 to 14 and the comparison units 21 to 24 have the same configurations as those in FIG. 7.

レジスター部150は、第1〜第4の位置情報レジスター51〜54、第1〜第4の期待値レジスター61〜64を含む。なお、図7の例と同様に算出部等は2以上の任意の個数であってよい。 The register unit 150 includes first to fourth position information registers 51 to 54 and first to fourth expected value registers 61 to 64. As in the example of FIG. 7, the number of calculation units and the like may be any number of 2 or more.

位置情報レジスター51〜54には、処理装置200から第1〜第4のエラー検出領域の位置情報が書き込まれる。期待値レジスター61〜64には、処理装置200から第1〜第4のエラー検出領域のCRCの期待値が書き込まれる。 The position information of the first to fourth error detection areas is written from the processing device 200 to the position information registers 51 to 54. The expected value of CRC in the first to fourth error detection regions is written from the processing device 200 to the expected value registers 61 to 64.

例えば、位置情報と期待値情報は、I2C通信や3線又は4線のシリアル通信等により、画像データとは別のインターフェースでレジスター部150に書き込まれる。或いは、期待値情報は、画像データのインターフェースを介してレジスター部150に書き込まれてもよい。 For example, the position information and the expected value information are written to the register unit 150 by an interface different from the image data by I2C communication, 3-wire or 4-wire serial communication, or the like. Alternatively, the expected value information may be written to the register unit 150 via the image data interface.

算出部11〜14は、位置情報レジスター51〜54から位置情報を読み出し、画像データ(表示用画像データ)から第1〜第4のエラー検出領域のCRC値を算出する。 The calculation units 11 to 14 read the position information from the position information registers 51 to 54, and calculate the CRC value of the first to fourth error detection regions from the image data (display image data).

比較部21〜24は、期待値レジスター61〜64からの第1〜第4のエラー検出領域のCRCの期待値と、算出部11〜14からの第1〜第4のエラー検出領域のCRC値とを比較する。比較部21〜24は、期待値とCRC値が一致した場合には比較結果信号として“0”(ローレベル、非アクティブ)を出力し、期待値とCRC値が不一致の場合には比較結果信号として“1”(ハイレベル、アクティブ)を出力する。 The comparison units 21 to 24 include the expected value of the CRC of the first to fourth error detection regions from the expected value registers 61 to 64 and the CRC value of the first to fourth error detection regions from the calculation units 11 to 14. Compare with. The comparison units 21 to 24 output "0" (low level, inactive) as a comparison result signal when the expected value and the CRC value match, and when the expected value and the CRC value do not match, the comparison result signal. "1" (high level, active) is output as.

図12に、エラー検出処理のタイミングチャートを示す。回路装置100の制御部110(タイミング制御部)には、処理装置200から垂直同期信号VSYNCと水平同期信号HSYNCとデータイネーブル信号DEが供給される。なお、これらの信号が直接に処理装置200から供給される場合に限らず、処理装置200から供給される何らかの同期信号に基づいて制御部110が、これらの信号を生成してもよい。 FIG. 12 shows a timing chart of the error detection process. A vertical synchronization signal VSYNC, a horizontal synchronization signal HSYNC, and a data enable signal DE are supplied from the processing device 200 to the control unit 110 (timing control unit) of the circuit device 100. The control unit 110 may generate these signals based on some synchronization signal supplied from the processing device 200, not limited to the case where these signals are directly supplied from the processing device 200.

垂直同期信号VSYNCは垂直走査期間(フレーム)を規定する信号であり、垂直同期信号VSYNCの立ち下がりから次の立ち下がりまでが1つの垂直走査期間である。1つの垂直走査期間において、1つのフレーム画像の画像データが処理装置200から回路装置100に送信される。 The vertical synchronization signal VSYNC is a signal that defines a vertical scanning period (frame), and one vertical scanning period is from the fall of the vertical sync signal VSYNC to the next fall. In one vertical scanning period, the image data of one frame image is transmitted from the processing device 200 to the circuit device 100.

水平同期信号HSYNCは水平走査期間を規定する信号であり、水平同期信号HSYNCの立ち下がりから次の立ち下がりまでが1つの水平走査期間である。1つの水平走査期間において、1本の水平走査線の画像データが処理装置200から回路装置100に送信される。 The horizontal synchronization signal HSYNC is a signal that defines the horizontal scanning period, and one horizontal scanning period is from the fall of the horizontal sync signal HSYNC to the next fall. In one horizontal scanning period, image data of one horizontal scanning line is transmitted from the processing device 200 to the circuit device 100.

データイネーブル信号DEは、水平走査期間の一部(データ有効期間)でアクティブ(ハイレベル)となり、その期間に水平走査線の画像データが処理装置200から回路装置100に送信される。データ有効期間とデータ有効期間の間を水平帰線期間と呼び、この期間には画像データは送信されない。また垂直走査期間の切り替わりに垂直帰線期間が設けられており、垂直帰線期間にはデータイネーブル信号DEが非アクティブ(ローレベル)となる。この期間には画像データは送信されない。図12の例では、垂直帰線期間は4水平帰線期間に相当し、そのうちの2水平帰線期間において垂直同期信号VSYNCがローレベルとなる。垂直帰線期間が終了し、次の垂直帰線期間が開始するまでの間に、フレーム画像の画像データ(表示用画像データ)が送信される。 The data enable signal DE becomes active (high level) in a part of the horizontal scanning period (data valid period), and the image data of the horizontal scanning line is transmitted from the processing device 200 to the circuit device 100 during that period. The period between the data validity period and the data validity period is called the horizontal blanking interval, and image data is not transmitted during this period. Further, a vertical blanking interval is provided for switching the vertical scanning period, and the data enable signal DE becomes inactive (low level) during the vertical blanking interval. No image data is transmitted during this period. In the example of FIG. 12, the vertical blanking interval corresponds to four horizontal blanking intervals, and the vertical sync signal VSYNC becomes a low level in two of the horizontal blanking intervals. The image data (display image data) of the frame image is transmitted between the end of the vertical blanking interval and the start of the next vertical blanking interval.

エラー検出処理は、上記の垂直帰線期間において実行される。即ち、垂直帰線期間が開始された後の第1のレジスターアクセス期間TA1において、処理装置200が期待値レジスター61〜64にCRCの期待値を書き込む。この期待値は、垂直帰線期間の直前のフレームに送信される画像データから求めた期待値である。第1のレジスターアクセス期間TA1の後のエラー検出期間TB1において、比較部21〜24が、算出部11〜14において算出されたCRC値と期待値との比較を行う。なお、算出部11〜14は、垂直帰線期間の直前のフレームに送信される画像データからCRC値を算出する。この算出処理は、画像データが入力されるのに伴って逐次に行っており(即ち、垂直帰線期間に行うとは限らない)、エラー検出期間TB1よりも前に終了する。エラー検出期間TB1の後の第2のレジスターアクセス期間TA2において、処理装置200が位置情報レジスター51〜54にエラー検出領域の位置情報を書き込む。この位置情報は、垂直帰線期間の直後のフレームに送信される画像データに適用されるエラー検出領域の位置情報である。 The error detection process is executed during the above vertical blanking interval. That is, in the first register access period TA1 after the vertical blanking interval is started, the processing device 200 writes the expected value of CRC in the expected value registers 61 to 64. This expected value is an expected value obtained from the image data transmitted in the frame immediately before the vertical blanking interval. In the error detection period TB1 after the first register access period TA1, the comparison units 21 to 24 compare the CRC value calculated by the calculation units 11 to 14 with the expected value. The calculation units 11 to 14 calculate the CRC value from the image data transmitted to the frame immediately before the vertical blanking interval. This calculation process is sequentially performed as the image data is input (that is, it is not always performed during the vertical blanking interval), and ends before the error detection period TB1. In the second register access period TA2 after the error detection period TB1, the processing device 200 writes the position information of the error detection area to the position information registers 51 to 54. This position information is the position information of the error detection area applied to the image data transmitted to the frame immediately after the vertical blanking interval.

エラー検出部130によりCRC値及び比較結果信号が求められた後の処理については、図7を用いて上述した例と同様である。或いは、エラー検出部130は、比較結果信号をエラー判定情報出力部140(エラー信号出力部)に出力し、エラー判定情報出力部140は、エラー検出部130からの比較結果信号(検出信号)がアクティブの場合に、エラー信号を処理装置200に出力してもよい。即ち、エラー判定情報出力部140の構成を、図7〜図10に比べて簡略化してもよい。この場合、エラー検出部130は、複数のエラー検出領域の各エラー検出領域に対して画像データのエラー検出を行い、各エラー検出領域についての検出信号を出力する(即ち複数の検出信号を出力する)。そしてエラー信号出力部は、複数の検出信号のうち1つでもアクティブである場合、エラー信号を出力する。 The processing after the CRC value and the comparison result signal are obtained by the error detection unit 130 is the same as the above-described example using FIG. 7. Alternatively, the error detection unit 130 outputs the comparison result signal to the error judgment information output unit 140 (error signal output unit), and the error judgment information output unit 140 receives the comparison result signal (detection signal) from the error detection information unit 130. When active, an error signal may be output to the processor 200. That is, the configuration of the error determination information output unit 140 may be simplified as compared with FIGS. 7 to 10. In this case, the error detection unit 130 performs error detection of image data for each error detection area of the plurality of error detection areas, and outputs a detection signal for each error detection area (that is, outputs a plurality of detection signals). ). Then, the error signal output unit outputs an error signal when even one of the plurality of detection signals is active.

なお、位置情報、期待値情報をレジスター部150に書き込む場合、複数フレーム分のエラー検出用データをまとめてレジスター部150へ書き込んでおき、いずれの位置情報を用いるかを、エラー検出領域設定部30により設定することも可能である。 When writing the position information and the expected value information to the register unit 150, the error detection data for a plurality of frames are collectively written to the register unit 150, and the error detection area setting unit 30 determines which position information is to be used. It is also possible to set by.

エラー検出領域設定部30は、各フレームにおいて、第1〜第4のエラー検出領域のいずれのエラー検出領域でエラー検出を行うかを設定(制御)する。具体的には、エラー検出領域設定部30は、垂直同期信号VSYNCをカウントするフレームカウンター31を含み、そのフレームカウンター31のカウント値に応じて、検出対象のエラー検出領域を選択する。 The error detection area setting unit 30 sets (controls) in which of the first to fourth error detection areas the error detection is performed in each frame. Specifically, the error detection area setting unit 30 includes a frame counter 31 that counts the vertical synchronization signal VSYNC, and selects an error detection area to be detected according to the count value of the frame counter 31.

例えば、図11に示したように、第1〜第4の位置情報レジスター51〜54及び第1〜第4の期待値レジスター61〜64を用いて、4つのエラー検出領域に関するエラー検出用情報をレジスター部150に記憶した場合を考える。この場合、図4に示したように1フレーム当たり4つのエラー検出領域AR1〜AR4を継続して設定することが可能である(以下、これを第1手法とする)。ただし、上記4つのエラー検出領域の情報を用いることで、以下の第2〜第4手法等の変形実施も可能になる。 For example, as shown in FIG. 11, error detection information regarding the four error detection regions is obtained by using the first to fourth position information registers 51 to 54 and the first to fourth expected value registers 61 to 64. Consider the case where the data is stored in the register unit 150. In this case, as shown in FIG. 4, it is possible to continuously set four error detection areas AR1 to AR4 per frame (hereinafter, this is referred to as the first method). However, by using the information of the above four error detection areas, it is possible to carry out modifications of the following second to fourth methods and the like.

図13に、エラー検出の第2手法の説明図を示す。第2手法では、1つのフレーム画像に対して1つのエラー検出領域でエラー検出を行う。図13に示すように、例えば第1フレームのフレーム画像IMG1に対して第1のエラー検出領域AR1でエラー検出を行い、第2フレームのフレーム画像IMG2に対して第2のエラー検出領域AR2でエラー検出を行い、第3フレームのフレーム画像IMG3に対して第3のエラー検出領域AR3でエラー検出を行い、第4フレームのフレーム画像IMG4に対して第4のエラー検出領域AR4でエラー検出を行う。第5フレーム以降も、これを同様に繰り返す。 FIG. 13 shows an explanatory diagram of the second method of error detection. In the second method, error detection is performed in one error detection area for one frame image. As shown in FIG. 13, for example, an error is detected in the first error detection area AR1 for the frame image IMG1 of the first frame, and an error is detected in the second error detection area AR2 for the frame image IMG2 of the second frame. The detection is performed, an error is detected in the third error detection area AR3 for the frame image IMG3 of the third frame, and an error is detected in the fourth error detection area AR4 for the frame image IMG4 of the fourth frame. This is repeated in the same manner for the fifth and subsequent frames.

例えば第1フレームを例にとると、処理装置200は、フレーム画像IMG1のエラー検出領域AR1でのCRC値を算出し、そのCRC値を期待値としてレジスター部150に書き込む。そしてエラー検出部130は、フレーム画像IMG1のエラー検出領域AR1でのCRC値を算出し、その算出値と期待値とを比較する。エラー信号出力部(エラー判定情報出力部140)は、算出値と期待値が一致しない場合、割り込み要求信号を処理装置200に出力する。第2〜第4フレームでは、第2〜第4のエラー検出領域AR2〜AR4について同様のエラー検出処理を行う。なお、エラー検出領域AR1〜AR4の位置情報は、第1手法と同様に始点と終点の座標で指定される。 Taking the first frame as an example, the processing device 200 calculates a CRC value in the error detection area AR1 of the frame image IMG1 and writes the CRC value as an expected value in the register unit 150. Then, the error detection unit 130 calculates the CRC value in the error detection area AR1 of the frame image IMG1 and compares the calculated value with the expected value. The error signal output unit (error determination information output unit 140) outputs an interrupt request signal to the processing device 200 when the calculated value and the expected value do not match. In the second to fourth frames, the same error detection processing is performed for the second to fourth error detection areas AR2 to AR4. The position information of the error detection areas AR1 to AR4 is specified by the coordinates of the start point and the end point as in the first method.

各フレームで用いるエラー検出領域は、例えば以下のように制御される。即ち、エラー検出領域AR1〜AR4の位置情報を一括してレジスター部150に書き込んでおき、どのフレームでどのエラー検出領域の位置情報を用いるかをフレームカウンターの出力に基づいて制御する。このとき、処理装置200が、各フレームでどのエラー検出領域を有効にするかを指定するレジスター値をレジスター部150に書き込み、エラー検出部130が、各フレームにおいて、レジスター値により指定されるエラー検出領域のエラー検出を行う。或いは、エラー検出部130は各フレームで全てのエラー検出領域AR1〜AR4のエラー検出を行い、エラー信号出力部が、レジスター値により指定されるエラー検出領域のエラー検出結果だけを有効にして(そのような重み付けを行って)、その有効なエラー検出結果だけに基づいて割り込み要求信号を出力してもよい。 The error detection area used in each frame is controlled as follows, for example. That is, the position information of the error detection areas AR1 to AR4 is collectively written to the register unit 150, and the position information of which error detection area is used in which frame is controlled based on the output of the frame counter. At this time, the processing device 200 writes a register value for specifying which error detection area is valid in each frame to the register unit 150, and the error detection unit 130 detects an error specified by the register value in each frame. Detects area errors. Alternatively, the error detection unit 130 performs error detection in all the error detection areas AR1 to AR4 in each frame, and the error signal output unit enables only the error detection result in the error detection area specified by the register value (its). The interrupt request signal may be output based only on the valid error detection result.

第2手法によれば、画像全体ではなく、その一部のエラー検出領域についてエラー検出を行うと共に、各フレームで異なるエラー検出領域を設定する。これにより、処理装置200がCRC値を演算するデータ量が削減され、処理装置200の処理負荷を低減できる。また、各フレームで異なるエラー検出領域を設定することで、画像のより広い領域でのエラー検出が可能となり、検出漏れを低減できる。 According to the second method, error detection is performed not for the entire image but for a part of the error detection area, and a different error detection area is set for each frame. As a result, the amount of data for which the processing device 200 calculates the CRC value can be reduced, and the processing load of the processing device 200 can be reduced. Further, by setting a different error detection area for each frame, error detection in a wider area of the image becomes possible, and detection omission can be reduced.

図14に、エラー検出の第3手法の説明図を示す。第3手法では、第1フレームのフレーム画像と第2フレームのフレーム画像とで、異なる数のエラー検出領域でエラー検出を行う。図14に示すように、例えば第1フレームのフレーム画像IMG1に対して第1のエラー検出領域AR1でエラー検出を行い、第2フレームのフレーム画像IMG2に対して第2〜第4のエラー検出領域AR2〜AR4でエラー検出を行う。第3フレーム以降も、これを同様に繰り返す。或いは、第3フレームでは第1、第2のエラー検出領域AR1、AR2のエラー検出を行い、第4フレームでは第3、第4のエラー検出領域AR3、AR4のエラー検出を行う等、更にエラー検出領域の数を変えていってもよい。 FIG. 14 shows an explanatory diagram of the third method of error detection. In the third method, error detection is performed in different numbers of error detection regions in the frame image of the first frame and the frame image of the second frame. As shown in FIG. 14, for example, error detection is performed in the first error detection area AR1 for the frame image IMG1 of the first frame, and the second to fourth error detection areas for the frame image IMG2 of the second frame. Error detection is performed by AR2 to AR4. This is repeated in the same manner for the third and subsequent frames. Alternatively, in the third frame, the errors of the first and second error detection areas AR1 and AR2 are detected, and in the fourth frame, the errors of the third and fourth error detection areas AR3 and AR4 are detected. The number of regions may be changed.

エラー検出領域AR1〜AR4の位置情報は、第1手法と同様に始点と終点の座標で指定される。また、各フレームで用いるエラー検出領域は、第2手法と同様の手法で制御される。 The position information of the error detection areas AR1 to AR4 is specified by the coordinates of the start point and the end point as in the first method. Further, the error detection area used in each frame is controlled by the same method as the second method.

第3手法によれば、第2手法と同様に処理装置200の処理負荷を低減すると共に、画像のより広い領域でのエラー検出が可能となる。 According to the third method, the processing load of the processing device 200 can be reduced as in the second method, and error detection in a wider area of the image becomes possible.

図15に、エラー検出の第4手法の説明図を示す。第4の手法では、画像を複数の領域に分割し、その分割領域をフレーム毎に順番に選択していき、その選択した分割領域をエラー検出領域としてエラー検出を行う。例えば図15では、8行×(M/2)列の分割領域が設定されており、2行でM個(Mは3以上の整数であり、図15の例ではMは偶数)の分割領域が配置されている。1行目、2行目の分割領域をAR11〜AR1M(第1群のエラー検出領域)とし、3行目、4行目の分割領域をAR21〜AR2M(第2群のエラー検出領域)とし、5行目、6行目の分割領域をAR31〜AR3M(第3群のエラー検出領域)とし、7行目、8行目の分割領域をAR41〜AR4M(第4群のエラー検出領域)とする。第1フレームのフレーム画像IMG1では、分割領域AR11、AR21、AR31、AR41がエラー検出領域であり、第2フレームのフレーム画像IMG2では、分割領域AR12、AR22、AR32、AR42がエラー検出領域である。これを第Mフレームまで繰り返し、第M+1フレームでは再び第1フレームと同様のエラー検出領域となる。 FIG. 15 shows an explanatory diagram of the fourth method of error detection. In the fourth method, the image is divided into a plurality of areas, the divided areas are selected in order for each frame, and the selected divided areas are used as an error detection area for error detection. For example, in FIG. 15, a division area of 8 rows × (M / 2) columns is set, and M (M is an integer of 3 or more, M is an even number in the example of FIG. 15) in 2 rows. Is placed. The divided areas of the first and second lines are AR11 to AR1M (error detection area of the first group), and the divided areas of the third and fourth lines are AR21 to AR2M (error detection area of the second group). The divided areas of the 5th and 6th lines are AR31 to AR3M (error detection area of the 3rd group), and the divided areas of the 7th and 8th lines are AR41 to AR4M (error detection area of the 4th group). .. In the frame image IMG1 of the first frame, the divided areas AR11, AR21, AR31, and AR41 are error detection areas, and in the frame image IMG2 of the second frame, the divided areas AR12, AR22, AR32, and AR42 are error detection areas. This is repeated up to the Mth frame, and in the M + 1th frame, the same error detection area as in the first frame is obtained again.

各フレームにおけるエラー検出領域は、例えば以下のように制御する。即ち、処理装置200が、第1フレームでは分割領域(エラー検出領域)AR11、AR21、AR31、AR41の位置情報をレジスター部150に書き込み、第2フレームでは分割領域(エラー検出領域)AR12、AR22、AR32、AR42の位置情報をレジスター部150に書き込む。これを第Mフレームまで繰り返すことによって各フレームでのエラー検出領域を制御する。この場合、位置情報は各分割領域の始点と終点の座標である。 The error detection area in each frame is controlled as follows, for example. That is, the processing device 200 writes the position information of the divided areas (error detection areas) AR11, AR21, AR31, and AR41 to the register unit 150 in the first frame, and the divided areas (error detection areas) AR12, AR22 in the second frame. The position information of AR32 and AR42 is written in the register unit 150. By repeating this up to the Mth frame, the error detection area in each frame is controlled. In this case, the position information is the coordinates of the start point and the end point of each division area.

或いは、処理装置200が、第1〜第4群のエラー検出領域における先頭の分割領域AR11、AR21、AR31、AR41の位置情報(始点と終点の座標)と、最終の分割領域AR1M、AR2M、AR3M、AR4Mの位置情報(終点の座標)とをレジスター部150に書き込む。エラー検出部130は、これらの位置情報から各分割領域の始点と終点の座標を求める。例えば、分割領域AR11の横幅が100画素である場合、分割領域AR11の始点SP11と終点EP11の座標を水平走査方向に100だけシフトした座標が、分割領域AR12の始点と終点の座標となる。このようにして求めていった終点の座標が、分割領域AR1Mの終点EP1Mの座標に一致した場合、その領域を最終の分割領域とする。エラー検出部130は、例えば垂直同期信号が入力される度に1つずつ分割領域をシフトさせ、その分割領域の位置情報でレジスター部150を更新することによって、各フレームでのエラー検出領域を制御する。 Alternatively, the processing device 200 provides the position information (coordinates of the start point and the end point) of the first divided areas AR11, AR21, AR31, and AR41 in the error detection areas of the first to fourth groups, and the final divided areas AR1M, AR2M, and AR3M. , The position information (coordinates of the end point) of AR4M is written in the register unit 150. The error detection unit 130 obtains the coordinates of the start point and the end point of each division region from these position information. For example, when the width of the divided area AR11 is 100 pixels, the coordinates of the start point SP11 and the end point EP11 of the divided area AR11 shifted by 100 in the horizontal scanning direction become the coordinates of the start point and the end point of the divided area AR12. When the coordinates of the end point obtained in this way match the coordinates of the end point EP1M of the division area AR1M, that area is set as the final division area. The error detection unit 130 controls the error detection area in each frame by, for example, shifting the division area by one each time a vertical synchronization signal is input and updating the register unit 150 with the position information of the division area. To do.

なお、第1〜第4群のエラー検出領域の全ての群についてエラー検出を行ってもよいし、その一部(任意の1群又は2群又は3群)についてエラー検出を行ってもよい。例えば、第1〜第Mフレームでは第1〜第4群のエラー検出領域の全ての群についてエラー検出を行い、その次の第M+1〜第2Mフレームでは第4群のエラー検出領域のみでエラー検出を行ってもよい。例えば処理装置200がレジスター部150に、どの群を有効にするかを指示するレジスター値を書き込むことで、どの群を有効にするかを制御する。例えば、画像の上3/4が黒で、下1/4にのみ表示がある場合、その下1/4に対応する第4群のエラー検出領域を有効にする。処理装置200は、画像データがどのようなものであるか知っているため、このような制御が可能である。連続した黒の画像データを多く含むような画像ではCRCの信頼性(エラー検出率)が低くなるので、そのような領域でのCRC値の演算を省略することで、処理装置200の処理負荷を軽減できる。 In addition, error detection may be performed for all the groups of the error detection regions of the first to fourth groups, or error detection may be performed for a part (arbitrary one group, two groups, or three groups). For example, in the 1st to Mth frames, error detection is performed for all the error detection areas of the 1st to 4th groups, and in the next M + 1st to 2nd M frames, error detection is performed only in the error detection area of the 4th group. May be done. For example, the processing device 200 controls which group is enabled by writing a register value indicating which group is enabled in the register unit 150. For example, if the upper 3/4 of the image is black and only the lower 1/4 is displayed, the error detection area of the 4th group corresponding to the lower 1/4 is enabled. Since the processing device 200 knows what the image data looks like, such control is possible. Since the CRC reliability (error detection rate) is low in an image containing a large amount of continuous black image data, the processing load of the processing device 200 can be reduced by omitting the calculation of the CRC value in such an area. Can be reduced.

第4手法によれば、第2、第3手法と同様に処理装置200の処理負荷を低減できる。また、分割領域をフレーム毎に順に選択していくことで、画像の全体についてエラー検出することになり、検出漏れをより低減することが可能となる。 According to the fourth method, the processing load of the processing device 200 can be reduced as in the second and third methods. Further, by selecting the division area in order for each frame, an error is detected for the entire image, and it is possible to further reduce the detection omission.

さて、画像の全体について画像データの通信エラーを検出する場合、処理装置200が画像全体についてエラー検出の期待値を演算するため演算対象のデータ量が大きくなり、処理負荷が大きくなる。一方、エラー検出領域を画像全体より小さい固定領域にした場合、処理装置200の処理負荷が低減されるが、画像の一部についてしかエラー検出できなくなってしまう。 When a communication error of image data is detected for the entire image, the processing device 200 calculates an expected value for error detection for the entire image, so that the amount of data to be calculated increases and the processing load increases. On the other hand, when the error detection area is set to a fixed area smaller than the entire image, the processing load of the processing device 200 is reduced, but the error can be detected only for a part of the image.

この点、本実施形態では、回路装置100は、画像データのエラー検出を行うエラー検出部130と、エラー検出の結果に基づいてエラー信号を出力するエラー信号出力部と、を含む。nを2以上の整数とし、i、jを1以上n以下の整数とし、且つ、i≠jとする。第1〜第nのフレーム画像の第iのフレーム画像に対して、第iフレーム用のエラー検出領域が設定され、且つ、第1〜第nのフレーム画像の第jのフレーム画像に対して、第iフレーム用のエラー検出領域とは異なる位置に第jフレーム用のエラー検出領域が設定される。この場合に、エラー検出部130は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の画像データに基づいてエラー検出を行う。エラー信号出力部は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域でのエラー検出の結果に基づいてエラー信号を出力する。 In this respect, in the present embodiment, the circuit device 100 includes an error detection unit 130 that detects an error in image data, and an error signal output unit that outputs an error signal based on the result of the error detection. Let n be an integer of 2 or more, i and j be an integer of 1 or more and n or less, and i ≠ j. An error detection area for the i-frame is set for the i-th frame image of the first to nth frame images, and the j-th frame image of the first to nth frame images is set. The error detection area for the jth frame is set at a position different from the error detection area for the i-frame. In this case, the error detection unit 130 performs error detection based on the image data of the error detection area for the i-th frame and the error detection area for the j-th frame. The error signal output unit outputs an error signal based on the result of error detection in the error detection area for the i-th frame and the error detection area for the j-th frame.

本実施形態によれば、第iのフレーム画像では第iフレーム用のエラー検出領域でエラー検出が行われ、第jのフレーム画像では第jフレーム用のエラー検出領域でエラー検出が行われ、これらの第i、第jフレーム用のエラー検出領域は位置が異なっている。これにより、各フレームにおいて異なる位置のエラー検出領域でエラー検出を行うことが可能となり、画像の広い範囲でのエラー検出が可能となる。また1つのフレームでは画像全体よりも小さい領域でエラー検出を行っているので、処理装置200の処理負荷を低減できる。 According to the present embodiment, in the i-th frame image, error detection is performed in the error detection area for the i-frame, and in the j-th frame image, error detection is performed in the error detection area for the j-th frame. The positions of the error detection areas for the i-th and j-th frames are different. As a result, error detection can be performed in error detection areas at different positions in each frame, and error detection in a wide range of the image becomes possible. Further, since the error detection is performed in a region smaller than the entire image in one frame, the processing load of the processing apparatus 200 can be reduced.

ここで、エラー検出とは、処理装置200が回路装置100に送信しようとする画像データと、回路装置100が実際に受信した画像データとが、一致しているか否かをチェックすること(通信エラーの検出)である。またエラー信号とは、エラー検出の結果に関する信号であり、例えば画像データのエラーが検出されたか否かを示す信号、或いはエラー検出の結果に応じて何らかの動作を処理装置200に要求する信号等である。またフレーム画像とは、1つのフレームにおいて表示される画像(又は表示される予定の画像)のことである。例えば30fps(frames per second)で表示パネルの表示を更新する場合、1/30秒が1フレームであり、その1フレームで描画される画像がフレーム画像である。なお、ここでのフレーム画像は、処理装置200が回路装置100に送信した段階での画像である。即ち、最終的に表示される際のフレーム画像と、エラー検出の対象となるフレーム画像は、その間に画像処理が行われる可能性があるため、全く同じ画像とは限らない。 Here, the error detection is to check whether or not the image data that the processing device 200 tries to transmit to the circuit device 100 and the image data actually received by the circuit device 100 match (communication error). Detection). The error signal is a signal related to the result of error detection, for example, a signal indicating whether or not an error in image data has been detected, or a signal requesting the processing device 200 to perform some operation according to the result of error detection. is there. The frame image is an image displayed (or an image to be displayed) in one frame. For example, when the display of the display panel is updated at 30 fps (frames per second), 1/30 second is one frame, and the image drawn in the one frame is the frame image. The frame image here is an image at the stage when the processing device 200 transmits the image to the circuit device 100. That is, the frame image that is finally displayed and the frame image that is the target of error detection may not be exactly the same image because image processing may be performed between them.

例えば図13の第2手法では、n=4である。i=1、j=2の場合を例にとると、第iフレーム用のエラー検出領域はAR1であり、第jフレーム用のエラー検出領域はAR2である。これらのエラー検出領域AR1、AR2は位置が異なっている。図13の例では位置は領域の始点と終点に対応している。ただし、領域の位置はこれに限定されず、例えば始点のみ、或いは領域の中心点(例えば2本の対角線が交差する点)を位置としてもよい。 For example, in the second method of FIG. 13, n = 4. Taking the case of i = 1 and j = 2, the error detection area for the i-th frame is AR1, and the error detection area for the j-frame is AR2. The positions of these error detection areas AR1 and AR2 are different. In the example of FIG. 13, the positions correspond to the start point and the end point of the region. However, the position of the region is not limited to this, and may be, for example, only the start point or the center point of the region (for example, a point where two diagonal lines intersect).

図14の第3手法では、n=2である。i=1、j=2とすると、第iフレーム用のエラー検出領域はAR1であり、第jフレーム用のエラー検出領域はAR2〜AR4である。このように、第i、第jフレーム用のエラー検出領域は複数の領域から構成されていてもよい。この場合、領域の位置は、複数の領域の各領域の位置(例えば始点と終点)であり、複数の領域のいずれか1つでも位置が異なっていればよい。例えば図14の例では、第jフレーム用のエラー検出領域AR2〜AR4の各領域は、全て第iフレーム用のエラー検出領域AR1と位置が異なっている。例えば、第jフレーム用のエラー検出領域がAR1とAR2であってもよい。この場合、領域AR2が第iフレーム用のエラー検出領域AR1と位置が異なっている。 In the third method of FIG. 14, n = 2. Assuming that i = 1 and j = 2, the error detection area for the i-th frame is AR1, and the error detection area for the j-th frame is AR2 to AR4. As described above, the error detection area for the i-th and j-th frames may be composed of a plurality of areas. In this case, the position of the region is the position of each region of the plurality of regions (for example, the start point and the end point), and the position of any one of the plurality of regions may be different. For example, in the example of FIG. 14, each area of the error detection area AR2 to AR4 for the j-th frame has a different position from the error detection area AR1 for the i-th frame. For example, the error detection areas for the jth frame may be AR1 and AR2. In this case, the position of the area AR2 is different from that of the error detection area AR1 for the i-frame.

図15の第4手法では、n=Mである。i=1、j=2とすると、第iフレーム用のエラー検出領域はAR11〜AR41であり、第jフレーム用のエラー検出領域はAR12〜AR42である。 In the fourth method of FIG. 15, n = M. Assuming that i = 1 and j = 2, the error detection areas for the i-th frame are AR11 to AR41, and the error detection areas for the j-frame are AR12 to AR42.

また本実施形態では、回路装置100は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の位置情報を記憶するレジスター部150を含む。第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域は、レジスター部150に記憶される位置情報に基づいて設定される。 Further, in the present embodiment, the circuit device 100 includes a register unit 150 that stores the position information of the error detection area for the i-th frame and the error detection area for the j-th frame. The error detection area for the i-th frame and the error detection area for the j-th frame are set based on the position information stored in the register unit 150.

図4等で説明したように、位置情報は、例えば始点SP1〜SP4の座標(始点にあたる画素の座標)と終点EP1〜EP4の座標(終点にあたる画素の座標)である。この場合、エラー検出部130は、始点と終点を結ぶ線を対角線とする四角形の領域を、エラー検出領域とする。 As described with reference to FIG. 4 and the like, the position information is, for example, the coordinates of the start points SP1 to SP4 (coordinates of the pixels corresponding to the start point) and the coordinates of the end points EP1 to EP4 (coordinates of the pixels corresponding to the end point). In this case, the error detection unit 130 uses a quadrangular region whose diagonal line connecting the start point and the end point is the error detection region.

本実施形態によれば、レジスター部150に第i、第jフレーム用のエラー検出領域の位置情報が書き込まれることによって、エラー検出の対象となるエラー検出領域を設定することができる。そして、第i、第jフレーム用のエラー検出領域の位置情報として、互いに異なる位置情報がレジスター部150に書き込まれることによって、互いに位置が異なる第i、第jフレーム用のエラー検出領域を設定できる。 According to this embodiment, the error detection area to be the target of error detection can be set by writing the position information of the error detection area for the i-th and j-th frames to the register unit 150. Then, as the position information of the error detection areas for the i and jth frames, different position information is written to the register unit 150, so that the error detection areas for the i and jth frames having different positions can be set. ..

また本実施形態では、レジスター部150は、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の位置情報と共に、エラー検出の期待値情報を記憶する。エラー検出部130は、期待値情報に基づいてエラー検出を行う。 Further, in the present embodiment, the register unit 150 stores the expected value information of error detection together with the position information of the error detection area for the i-th frame and the error detection area for the j-th frame. The error detection unit 130 detects an error based on the expected value information.

期待値情報は、送信側である処理装置200が求めたものであり、例えば第iフレーム用のエラー検出領域の期待値情報は、処理装置200が第iフレーム画像の表示データのうち、第iフレーム用のエラー検出領域の表示データから求めたものである。 The expected value information is obtained by the processing device 200 on the transmitting side. For example, the expected value information of the error detection area for the i-frame is the i-th of the display data of the i-frame image displayed by the processing device 200. It is obtained from the display data of the error detection area for the frame.

本実施形態によれば、第i、第jフレーム用のエラー検出領域に対応するエラー検出の期待値情報がレジスター部150に書き込まれることで、第i、第jフレーム用のエラー検出領域についてのエラー検出が可能となる。 According to the present embodiment, the expected value information of error detection corresponding to the error detection area for the i and jth frames is written to the register unit 150, whereby the error detection area for the i and jth frames is described. Error detection is possible.

また本実施形態では、回路装置100は、インターフェース部160を含む。位置情報と期待値情報は、インターフェース部160を介して外部の処理装置200によりレジスター部150に設定される。 Further, in the present embodiment, the circuit device 100 includes an interface unit 160. The position information and the expected value information are set in the register unit 150 by the external processing device 200 via the interface unit 160.

例えば、位置情報と期待値情報は、I2C通信や3線又は4線のシリアル通信等により、画像データとは別のインターフェースでレジスター部150に書き込まれる。或いは、期待値情報は、画像データのインターフェースを介してレジスター部150に書き込まれてもよい。この場合、画像データが送信されない期間(例えば後述の帰線期間)において期待値情報が送信される。例えば1画素の画像データが24ビット(RGB各8ビット)で、期待値情報が16ビットのCRC値である場合、画像データと同じフォーマットの24ビットのデータに16ビットのCRC値を埋め込んで送信する。例えばRGB各8ビットのうちRGの16ビットをCRC値として処理装置200が送信し、インターフェース部160は、受信した24ビットのうちRGの16ビットを取り出して期待値情報としてレジスター部150に書き込む。どのタイミングで受信した画像データが期待値情報であるかは、制御部110(タイミング制御部)のタイミング制御によって知ることができる。 For example, the position information and the expected value information are written to the register unit 150 by an interface different from the image data by I2C communication, 3-wire or 4-wire serial communication, or the like. Alternatively, the expected value information may be written to the register unit 150 via the image data interface. In this case, the expected value information is transmitted during the period when the image data is not transmitted (for example, the return line period described later). For example, when the image data of one pixel is 24 bits (8 bits each for RGB) and the expected value information is a 16-bit CRC value, the 16-bit CRC value is embedded in the 24-bit data in the same format as the image data and transmitted. To do. For example, the processing device 200 transmits 16 bits of RG out of 8 bits of each of RGB as CRC values, and the interface unit 160 takes out 16 bits of RG out of the received 24 bits and writes them in the register unit 150 as expected value information. It is possible to know at what timing the received image data is the expected value information by the timing control of the control unit 110 (timing control unit).

本実施形態によれば、インターフェース部160を介して外部の処理装置200によりレジスター部150に位置情報と期待値情報が設定されることで、その位置情報に基づいてエラー検出領域を設定し、その期待値情報に基づいてエラー検出領域でのエラー検出を行うことができる。 According to the present embodiment, the position information and the expected value information are set in the register unit 150 by the external processing device 200 via the interface unit 160, and the error detection area is set based on the position information. Error detection can be performed in the error detection area based on the expected value information.

また本実施形態では、画像データの帰線期間において受信した期待値情報と位置情報が、レジスター部150に設定される。 Further, in the present embodiment, the expected value information and the position information received during the blanking interval of the image data are set in the register unit 150.

帰線期間とは、画像データの非送信期間であり、例えば垂直帰線期間である。図12に示すように、垂直帰線期間は、フレーム画像の画像データの送信期間(データ有効期間が存在する水平走査期間を合わせた期間)と、次のフレーム画像の画像データの送信期間との間の期間(データ有効期間が存在しない水平走査期間を合わせた期間)である。 The blanking interval is a non-transmission period of image data, for example, a vertical blanking interval. As shown in FIG. 12, the vertical return period is the transmission period of the image data of the frame image (the period including the horizontal scanning period in which the data valid period exists) and the transmission period of the image data of the next frame image. The period between them (the period including the horizontal scanning period when there is no data validity period).

処理装置200が期待値情報を求めたフレーム画像と、回路装置100がエラー検出を行うフレーム画像とは一致している必要がある。この点、本実施形態によれば、画像データの帰線期間において期待値情報を受信することで、その期待値情報が、その帰線期間の前に受信したフレーム画像の期待値情報であることが明確に対応づけられる。また、エラー検出領域の位置情報はエラー検出を行う前に知っておく必要がある。この点、本実施形態によれば、画像データの帰線期間において位置情報を受信することで、その位置情報が、その帰線期間の次に受信するフレーム画像でのエラー検出領域の位置情報であることが明確に対応付けられる。 It is necessary that the frame image for which the processing device 200 has obtained the expected value information and the frame image for which the circuit device 100 performs error detection match. In this regard, according to the present embodiment, by receiving the expected value information during the return period of the image data, the expected value information is the expected value information of the frame image received before the return period. Is clearly associated. In addition, it is necessary to know the position information of the error detection area before performing error detection. In this regard, according to the present embodiment, by receiving the position information during the blanking interval of the image data, the position information is the position information of the error detection area in the frame image received after the blanking interval. There is a clear association.

また本実施形態では、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域の各エラー検出領域として、複数のエラー検出領域が設定される。 Further, in the present embodiment, a plurality of error detection areas are set as each error detection area of the error detection area for the i-th frame and the error detection area for the j-th frame.

例えば図14の第3手法では、第2フレーム用のエラー検出領域として、3つのエラー検出領域AR2〜AR4が設定される。図15の第4手法では、各フレーム用のエラー検出領域として、4つの分割領域(例えばAR11〜AR41)が設定される。 For example, in the third method of FIG. 14, three error detection areas AR2 to AR4 are set as error detection areas for the second frame. In the fourth method of FIG. 15, four divided areas (for example, AR11 to AR41) are set as error detection areas for each frame.

また本実施形態では、第iフレーム用のエラー検出領域の個数と第jフレーム用のエラー検出領域の個数とが異なる個数(可変の個数)となるように、第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域が設定されてもよい。 Further, in the present embodiment, the error detection area for the i-frame and the error detection area for the i-frame are arranged so that the number of error detection areas for the i-frame and the number of error detection areas for the j-frame are different (variable number). An error detection area for the jth frame may be set.

例えば図14の第3手法では、第1フレーム用のエラー検出領域として、1つのエラー検出領域AR1が設定され、第2フレーム用のエラー検出領域として、3つのエラー検出領域AR2〜AR4が設定される。 For example, in the third method of FIG. 14, one error detection area AR1 is set as the error detection area for the first frame, and three error detection areas AR2 to AR4 are set as the error detection area for the second frame. To.

本実施形態によれば、各エラー検出領域として複数のエラー検出領域が設定され、或いは各エラー検出領域として異なる個数のエラー検出領域が設定される。これにより、表示画像の内容に合わせて適切なエラー検出領域を設定する等、自在なエラー検出領域の設定が可能となる。例えば、あるフレームでは画像の一部にのみ表示がある場合、そのフレームでは、その一部にだけ1つのエラー検出領域を設定し、それとは別のあるフレームでは画像の広い範囲に表示がある場合、そのフレームでは、その範囲内に複数のエラー検出領域を設定できる。 According to this embodiment, a plurality of error detection areas are set as each error detection area, or a different number of error detection areas are set as each error detection area. This makes it possible to freely set the error detection area, such as setting an appropriate error detection area according to the content of the display image. For example, if one frame has only a part of the image displayed, that frame has only one error detection area set, and another frame has a wide area of the image displayed. , In that frame, multiple error detection areas can be set within that range.

また図11で上述したように、エラー検出部130はエラー検出領域設定部30を含む。エラー検出領域設定部30は、フレームカウンター31のカウント値に基づいて、複数のエラー検出領域の中からエラー検出の対象となる第iフレーム用のエラー検出領域及び第jフレーム用のエラー検出領域を設定する。 Further, as described above in FIG. 11, the error detection unit 130 includes an error detection area setting unit 30. Based on the count value of the frame counter 31, the error detection area setting unit 30 selects the error detection area for the i-th frame and the error detection area for the j-th frame, which are the targets of error detection, from among the plurality of error detection areas. Set.

具体的には、レジスター部150に複数のエラー検出領域の位置情報が設定され、その複数のエラー検出領域のうち、どのエラー検出領域についてエラー検出を行うか(又は、どのエラー検出領域について検出結果を出力するか)をエラー検出領域設定部30がカウント値に応じて制御する。このような制御が、エラー検出領域をカウント値に基づいてエラー検出領域を設定することに相当する。 Specifically, the position information of a plurality of error detection areas is set in the register unit 150, and among the plurality of error detection areas, which error detection area is to be detected (or which error detection area is the detection result). Is output) by the error detection area setting unit 30 according to the count value. Such control corresponds to setting the error detection area based on the count value of the error detection area.

本実施形態によれば、複数のエラー検出領域の中から各フレームにおけるエラー検出の対象となるエラー検出領域が設定される。これにより、第i、第jフレーム用のエラー検出領域として複数のエラー検出領域を設定したり、第i、第jフレーム用のエラー検出領域として異なる個数のエラー検出領域を設定したりする等の制御が可能となる。 According to this embodiment, an error detection area to be an error detection target in each frame is set from a plurality of error detection areas. As a result, a plurality of error detection areas can be set as the error detection areas for the i and jth frames, and different numbers of error detection areas can be set as the error detection areas for the i and jth frames. Control is possible.

また本実施形態では、エラー検出領域設定部30は、kを1以上n以下の整数とする場合に、第1〜第nのフレーム画像の第kのフレーム画像における第kフレーム用のエラー検出領域と、第k+1のフレーム画像における第k+1フレーム用のエラー検出領域とが、隣り合うようにエラー検出領域を設定する。 Further, in the present embodiment, the error detection area setting unit 30 sets the error detection area for the kth frame in the kth frame image of the first to nth frame images when k is an integer of 1 or more and n or less. And the error detection area for the k + 1 frame in the frame image of the k + 1 are set so as to be adjacent to each other.

例えば図15の第4手法において、k=1、k+1=2とする。この場合、第kフレーム用のエラー検出領域はAR11〜AR41であり、第k+1フレーム用のエラー検出領域はAR12〜AR42である。領域AR12、AR22、AR32、AR42は、それぞれ領域AR11、AR21、AR31、AR41と隣り合った領域である。ここで領域が隣り合うとは、一方の領域の一辺と他方の領域の一辺とが隣り合う(例えば間に画素がない)ことである。 For example, in the fourth method of FIG. 15, k = 1 and k + 1 = 2. In this case, the error detection areas for the kth frame are AR11 to AR41, and the error detection areas for the k + 1th frame are AR12 to AR42. The regions AR12, AR22, AR32, and AR42 are regions adjacent to the regions AR11, AR21, AR31, and AR41, respectively. Here, the fact that the regions are adjacent to each other means that one side of one region and one side of the other region are adjacent to each other (for example, there is no pixel between them).

本実施形態によれば、エラー検出領域がフレーム毎に順次に隣り合った領域にシフトされる。これにより、複数フレームかけて画像全体をすき間無くエラー検出することが可能となり、エラー検出の精度を向上させることができる。 According to this embodiment, the error detection area is sequentially shifted to the adjacent area for each frame. As a result, it is possible to detect an error in the entire image without gaps over a plurality of frames, and it is possible to improve the accuracy of error detection.

以下、図11の構成例に対応付けて、図4、図13〜図15で説明した各手法での動作を詳細に説明する。フレームカウンター31のカウント値は0〜15(15の次は0に戻る)であるとし、カウント値0〜15が第1〜第16のフレームに対応するものとする。 Hereinafter, the operation of each method described with reference to FIGS. 4 and 13 to 15 will be described in detail in association with the configuration example of FIG. It is assumed that the count value of the frame counter 31 is 0 to 15 (after 15 is returned to 0), and the count values 0 to 15 correspond to the first to 16th frames.

例えば図4の第1手法では、フレームカウンター31のカウント値に関わらず第1〜第4のエラー検出領域AR1〜AR4の全てが有効となっており、エラー検出領域設定部30は算出部11〜14の全てにCRC値を算出させる。 For example, in the first method of FIG. 4, all of the first to fourth error detection areas AR1 to AR4 are valid regardless of the count value of the frame counter 31, and the error detection area setting unit 30 is the calculation unit 11 to 11. Have all 14 calculate the CRC value.

図13の第2手法では、フレームカウンター31のカウント値が0、4、8、12の場合に第1のエラー検出領域AR1が有効となり、第2〜第4のエラー検出領域AR2〜AF4が無効となる。即ち、エラー検出領域設定部30は、算出部11にCRC値を算出させ、算出部12〜14の動作をディスエーブルにする。ディスエーブルとなった算出部12〜14に対応する比較部22〜24は“0”(非アクティブ)を出力する。この場合、処理装置200は第1の位置情報レジスター51と第1の期待値レジスター61にのみレジスター値を書き込む。以下同様に、カウント値が1、5、9、13の場合に第2のエラー検出領域AR2が有効となり、カウント値が2、6、10、14の場合に第3のエラー検出領域AR3が有効となり、カウント値が3、7、11、15の場合に第4のエラー検出領域AR4が有効となる。 In the second method of FIG. 13, when the count values of the frame counter 31 are 0, 4, 8, and 12, the first error detection area AR1 is valid, and the second to fourth error detection areas AR2 to AF4 are invalid. It becomes. That is, the error detection area setting unit 30 causes the calculation unit 11 to calculate the CRC value, and disables the operations of the calculation units 12 to 14. The comparison units 22 to 24 corresponding to the disabled calculation units 12 to 14 output "0" (inactive). In this case, the processing device 200 writes the register value only to the first position information register 51 and the first expected value register 61. Similarly, when the count values are 1, 5, 9, and 13, the second error detection area AR2 is valid, and when the count values are 2, 6, 10, and 14, the third error detection area AR3 is valid. Then, when the count values are 3, 7, 11, and 15, the fourth error detection area AR4 becomes effective.

なお、第2手法では以下のような変形例も考えられる。即ち、いずれのフレームにおいても処理装置200は第1〜第4の位置情報レジスター51〜54と第1〜第4の期待値レジスター61〜64にレジスター値を書き込む。またカウント値に関わらず算出部11〜14はCRC値を算出し、比較部21〜24は期待値とCRC値の比較を行う。そして、カウント値が0、4、8、12の場合を例にとると、エラー検出領域設定部30は比較部21の比較結果に1を乗算する重み付けを比較部21に行わせ、比較部22〜24の比較結果に0を乗算させる重み付けを比較部22〜24に行わせる。これにより比較部21は比較結果を出力し、比較部22〜24は“0”を出力することになる。 The following modifications can be considered in the second method. That is, in any frame, the processing device 200 writes the register values to the first to fourth position information registers 51 to 54 and the first to fourth expected value registers 61 to 64. Further, regardless of the count value, the calculation units 11 to 14 calculate the CRC value, and the comparison units 21 to 24 compare the expected value and the CRC value. Taking the case where the count values are 0, 4, 8, and 12, the error detection area setting unit 30 causes the comparison unit 21 to perform weighting by multiplying the comparison result of the comparison unit 21 by 1, and the comparison unit 22. The comparison units 22 to 24 are weighted by multiplying the comparison results of ~ 24 by 0. As a result, the comparison unit 21 outputs the comparison result, and the comparison units 22 to 24 output “0”.

図14の第3手法では、フレームカウンター31のカウント値が0、2、4、6、8、10、12、14の場合に第1のエラー検出領域AR1が有効となり、フレームカウンター31のカウント値が1、3、5、7、9、11、13、15の場合に第2〜第4のエラー検出領域AR2〜AR4が有効となる。エラー検出領域設定部30は、第2手法と同様にして算出部11〜14や比較部21〜24を制御する。変形例についても同様である。 In the third method of FIG. 14, when the count value of the frame counter 31 is 0, 2, 4, 6, 8, 10, 12, 14, the first error detection area AR1 is valid, and the count value of the frame counter 31 is valid. When is 1, 3, 5, 7, 9, 11, 13, and 15, the second to fourth error detection regions AR2 to AR4 are valid. The error detection area setting unit 30 controls the calculation units 11 to 14 and the comparison units 21 to 24 in the same manner as in the second method. The same applies to the modified example.

図15の第4手法では、第1フレームでは、処理装置200は第1〜第4の位置情報レジスター51〜54にエラー検出領域AR11〜AR41の位置情報を書き込み、第1〜第4の期待値レジスター61〜64にエラー検出領域AR11〜AR41のCRCの期待値を書き込む。第2フレームでは、処理装置200は第1〜第4の位置情報レジスター51〜54にエラー検出領域AR12〜AR42の位置情報を書き込み、第1〜第4の期待値レジスター61〜64にエラー検出領域AR12〜AR42のCRCの期待値を書き込む。以降のフレームでも、同様に領域をシフトしていく。例えばM=16の場合、第16フレームでエラー検出領域AR1M〜AR4Mが有効になる。 In the fourth method of FIG. 15, in the first frame, the processing device 200 writes the position information of the error detection areas AR11 to AR41 to the first to fourth position information registers 51 to 54, and the first to fourth expected values. The expected value of CRC of the error detection areas AR11 to AR41 is written in the registers 61 to 64. In the second frame, the processing device 200 writes the position information of the error detection areas AR12 to AR42 in the first to fourth position information registers 51 to 54, and the error detection area 61 to 64 in the first to fourth expected value registers 61 to 64. Write the expected value of CRC of AR12 to AR42. In the subsequent frames, the area is shifted in the same manner. For example, when M = 16, the error detection areas AR1M to AR4M become effective in the 16th frame.

エラー検出領域設定部30は、フレームカウンター31のカウント値に関わらず、算出部11〜14にCRC値を算出させ、比較部21〜24に比較結果を出力させる。或いは、エラー検出領域設定部30は、算出部11〜14のうち、いずれかをイネーブルに設定し、その他をディスエーブルに設定してもよい。例えば算出部11〜13をディスエーブルに設定し、算出部14をイネーブルに設定する。この場合、第4群のエラー検出領域AR41〜AR4Mのみがエラー検出の対象となる。なお、第2手法で説明した変形例と同様に比較部21〜24における重み付けにより同様の動作を実現してもよい。即ち、算出部11〜14にはCRC値を算出させておき、比較部21〜23には比較結果に0を乗じさせ、比較部24には比較結果に1を乗じさせてもよい。 The error detection area setting unit 30 causes the calculation units 11 to 14 to calculate the CRC value and causes the comparison units 21 to 24 to output the comparison result regardless of the count value of the frame counter 31. Alternatively, the error detection area setting unit 30 may set any of the calculation units 11 to 14 to be enabled and the others to be disabled. For example, calculation units 11 to 13 are set to disabled, and calculation units 14 are set to enable. In this case, only the error detection areas AR41 to AR4M of the fourth group are the targets of error detection. It should be noted that the same operation may be realized by weighting in the comparison units 21 to 24 as in the modified example described in the second method. That is, the calculation units 11 to 14 may be made to calculate the CRC value, the comparison units 21 to 23 may be made to multiply the comparison result by 0, and the comparison unit 24 may be made to multiply the comparison result by 1.

以上のようなエラー検出領域設定部30の動作は、例えばレジスター設定により実現される。例えば、フレームカウンター31のカウント値と、各カウント値で算出部11〜14のいずれをイネーブルにするか(又は比較部21〜24での重み付け)とを対応付けたレジスター値を、処理装置200がレジスター部150に書き込み、それをエラー検出領域設定部30が参照して動作する。或いは、第1〜第4手法を切り替えるモード設定値をレジスター値として処理装置200がレジスター部150に書き込み、それをエラー検出領域設定部30が参照して動作する。この場合、各カウント値において算出部11〜14のいずれをイネーブルにするか(又は比較部21〜24の重み付け)は、エラー検出領域設定部30が自発的に制御することになる。 The operation of the error detection area setting unit 30 as described above is realized by, for example, register setting. For example, the processing device 200 sets a register value in which the count value of the frame counter 31 and which of the calculation units 11 to 14 are enabled (or weighting in the comparison units 21 to 24) are associated with each count value. The register unit 150 is written, and the error detection area setting unit 30 refers to the register unit 150 for operation. Alternatively, the processing device 200 writes the mode setting value for switching the first to fourth methods as a register value to the register unit 150, and the error detection area setting unit 30 refers to the mode setting value and operates. In this case, the error detection area setting unit 30 voluntarily controls which of the calculation units 11 to 14 is enabled (or the weighting of the comparison units 21 to 24) in each count value.

また図16は、レジスター部150の第2の詳細な構成例である。図16では、レジスター部150が第1〜第4の算出値レジスター71〜74を更に含んでいる。 Further, FIG. 16 is a second detailed configuration example of the register unit 150. In FIG. 16, the register unit 150 further includes the first to fourth calculated value registers 71 to 74.

第1〜第4の算出値レジスター71〜74には、算出部11〜14が算出したCRC値(CRCの算出値)が格納される。処理装置200は、インターフェース部160を介して第1〜第4の算出値レジスター71〜74からCRC値を読み出すことができる。 The CRC values (CRC calculated values) calculated by the calculation units 11 to 14 are stored in the first to fourth calculated value registers 71 to 74. The processing device 200 can read the CRC value from the first to fourth calculated value registers 71 to 74 via the interface unit 160.

処理装置200には、エラー判定情報出力部140からのエラー判定情報(割り込み要求信号)が入力されるだけなので、画像データの通信エラーを知ることはできるが、どのエラー検出領域にエラーが発生したかを知ることができない。本実施形態では、処理装置200が算出値レジスター71〜74を参照することで、どのエラー検出領域にエラーが発生したかを知ることができる。 Since the error judgment information (interrupt request signal) from the error judgment information output unit 140 is only input to the processing device 200, it is possible to know the communication error of the image data, but an error has occurred in which error detection area. I can't know. In the present embodiment, the processing device 200 can know in which error detection region an error has occurred by referring to the calculated value registers 71 to 74.

処理装置200は、エラー信号(割り込み要求信号)を受信した場合、算出値レジスター71〜74からCRC値を読み出して期待値と比較し、どのエラー検出領域にエラーが発生したかを判断する。例えば、処理装置200は、エラーが発生した領域の画像データを回路装置100に再送信して再描画させる等、エラーが発生した領域に応じた処理を行うことが可能となる。 When the processing device 200 receives the error signal (interrupt request signal), the processing device 200 reads the CRC value from the calculated value registers 71 to 74, compares it with the expected value, and determines in which error detection area an error has occurred. For example, the processing device 200 can perform processing according to the area where the error has occurred, such as retransmitting the image data of the area where the error has occurred to the circuit device 100 and redrawing the image data.

6.電気光学装置、電子機器、移動体
本実施形態の手法は、上記の回路装置100を含む種々の装置に適用できる。例えば、本実施形態の手法は、回路装置100と、電気光学パネル(表示パネル)を含む電気光学装置に適用できる。また、本実施形態の手法は、回路装置100を含む電子機器や移動体に適用できる。
6. Electro-optic device, electronic device, mobile body The method of the present embodiment can be applied to various devices including the circuit device 100 described above. For example, the method of this embodiment can be applied to a circuit device 100 and an electro-optical device including an electro-optical panel (display panel). Further, the method of the present embodiment can be applied to an electronic device including a circuit device 100 and a mobile body.

図17に、本実施形態の回路装置100を含む電気光学装置(表示装置)の構成例を示す。電気光学装置は、回路装置100(表示コントローラー)と、表示パネル360と、回路装置100による制御に基づいて表示パネル360を駆動する表示ドライバー300と、を含む。 FIG. 17 shows a configuration example of an electro-optical device (display device) including the circuit device 100 of the present embodiment. The electro-optical device includes a circuit device 100 (display controller), a display panel 360, and a display driver 300 that drives the display panel 360 under control by the circuit device 100.

表示パネル360は、例えばガラス基板と、ガラス基板上に形成される画素アレイ(液晶セルアレイ)とで構成される。画素アレイは、画素、データ線、走査線を含む。表示ドライバー300はガラス基板に実装され、表示ドライバー300と画素アレイとは透明電極(ITO:Indium Tin Oxide)で形成された配線群で接続される。回路装置100はガラス基板とは別の回路基板に実装され、回路基板とガラス基板はフレキシブル基板等で接続される。なお、電気光学装置はこの構成に限定されない。例えば、表示ドライバー300と回路装置100が回路基板に実装され、その回路基板と表示パネル360がフレキシブル基板等で接続されてもよい。 The display panel 360 is composed of, for example, a glass substrate and a pixel array (liquid crystal cell array) formed on the glass substrate. The pixel array includes pixels, data lines, and scanning lines. The display driver 300 is mounted on a glass substrate, and the display driver 300 and the pixel array are connected by a wiring group formed of transparent electrodes (ITO: Indium Tin Oxide). The circuit device 100 is mounted on a circuit board different from the glass substrate, and the circuit board and the glass substrate are connected by a flexible substrate or the like. The electro-optical device is not limited to this configuration. For example, the display driver 300 and the circuit device 100 may be mounted on a circuit board, and the circuit board and the display panel 360 may be connected by a flexible board or the like.

図18に、本実施形態の回路装置100を含む電子機器の構成例を示す。本実施形態の電子機器として、例えば車載表示装置(例えばメーターパネル等)や、ディスプレイ、プロジェクター、テレビション装置、情報処理装置(コンピューター)、携帯型情報端末、カーナビゲーションシステム、携帯型ゲーム端末、DLP(Digital Light Processing)装置等の、表示装置を搭載する種々の電子機器を想定できる。 FIG. 18 shows a configuration example of an electronic device including the circuit device 100 of the present embodiment. Examples of the electronic devices of the present embodiment include in-vehicle display devices (for example, instrument panels), displays, projectors, television devices, information processing devices (computers), portable information terminals, car navigation systems, portable game terminals, and DLPs. Various electronic devices equipped with a display device, such as a (Digital Light Processing) device, can be assumed.

電子機器は、CPU310(処理装置)、回路装置100(表示コントローラー)、表示ドライバー300、表示パネル360、記憶部320(メモリー)、操作部330(操作装置)、通信部340(通信回路、通信装置)を含む。 The electronic devices include a CPU 310 (processing device), a circuit device 100 (display controller), a display driver 300, a display panel 360, a storage unit 320 (memory), an operation unit 330 (operation device), and a communication unit 340 (communication circuit, communication device). )including.

操作部330は、ユーザーからの種々の操作を受け付けるユーザーインターフェースである。例えば、ボタンやマウス、キーボード、表示パネル360に装着されたタッチパネル等で構成される。通信部340は、画像データや制御データの通信(送信、受信)を行うデータインターフェースである。例えばUSB等の有線通信インターフェースや、或は無線LAN等の無線通信インターフェースである。記憶部320は、通信部340から入力された画像データを記憶する。或は、記憶部320は、CPU310のワーキングメモリーとして機能する。CPU310は、電子機器の各部の制御処理や種々のデータ処理を行う。回路装置100は表示ドライバー300の制御処理を行う。例えば、回路装置100は、通信部340や記憶部320からCPU310を介して転送された画像データを、表示ドライバー300が受け付け可能な形式に変換し、その変換された画像データを表示ドライバー300へ出力する。表示ドライバー300は、回路装置100から転送された画像データに基づいて表示パネル360を駆動する。 The operation unit 330 is a user interface that receives various operations from the user. For example, it is composed of a button, a mouse, a keyboard, a touch panel attached to the display panel 360, and the like. The communication unit 340 is a data interface that communicates (transmits, receives) image data and control data. For example, it is a wired communication interface such as USB, or a wireless communication interface such as a wireless LAN. The storage unit 320 stores the image data input from the communication unit 340. Alternatively, the storage unit 320 functions as a working memory of the CPU 310. The CPU 310 performs control processing and various data processing of each part of the electronic device. The circuit device 100 controls the display driver 300. For example, the circuit device 100 converts the image data transferred from the communication unit 340 or the storage unit 320 via the CPU 310 into a format that can be accepted by the display driver 300, and outputs the converted image data to the display driver 300. To do. The display driver 300 drives the display panel 360 based on the image data transferred from the circuit device 100.

図19に、本実施形態の回路装置100を含む移動体の構成例を示す。本実施形態の移動体として、例えば、車、飛行機、バイク、船舶、或いはロボット(走行ロボット、歩行ロボット)等の種々の移動体を想定できる。移動体は、例えばエンジンやモーター等の駆動機構、ハンドルや舵等の操舵機構、各種の電子機器を備えて、地上や空や海上を移動する機器・装置である。 FIG. 19 shows a configuration example of a mobile body including the circuit device 100 of the present embodiment. As the moving body of the present embodiment, for example, various moving bodies such as a car, an airplane, a motorcycle, a ship, or a robot (traveling robot, walking robot) can be assumed. The moving body is, for example, a device / device provided with a drive mechanism such as an engine or a motor, a steering mechanism such as a steering wheel or a rudder, and various electronic devices, and moves on the ground, in the sky, or on the sea.

図19は移動体の具体例としての自動車206を概略的に示している。自動車206には、回路装置100を有する表示装置350(電気光学装置)と、自動車206の各部を制御するECU510が組み込まれている。ECU510は、例えば車速や燃料残量、走行距離、各種装置(例えばエアーコンディショナー)の設定等の情報をユーザーに提示する画像(画像データ)を生成し、その画像を表示装置350に送信して表示パネル360に表示させる。 FIG. 19 schematically shows an automobile 206 as a specific example of a moving body. The automobile 206 incorporates a display device 350 (electro-optical device) having a circuit device 100 and an ECU 510 that controls each part of the automobile 206. The ECU 510 generates an image (image data) that presents information such as vehicle speed, remaining fuel amount, mileage, and settings of various devices (for example, an air conditioner) to the user, and transmits the image to the display device 350 for display. It is displayed on the panel 360.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また本実施形態及び変形例の全ての組み合わせも、本発明の範囲に含まれる。また回路装置、処理装置、表示ドライバー、電気光学装置、電子機器、移動体の構成・動作等も、本実施形態で説明したものに限定されず、種々の変形実施が可能である Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present invention are possible. Therefore, all such modifications are included in the scope of the present invention. For example, a term described at least once in a specification or drawing with a different term in a broader or synonymous manner may be replaced by that different term anywhere in the specification or drawing. All combinations of the present embodiment and modifications are also included in the scope of the present invention. Further, the configuration / operation of the circuit device, the processing device, the display driver, the electro-optical device, the electronic device, the moving body, and the like are not limited to those described in the present embodiment, and various modifications can be performed.

AC1…積算カウンター、AN1…アンド回路、AR1〜AR4…エラー検出領域、
CP1…比較部、DA1−1,DA1−2,DB1−1〜DB1−4…遅延回路、
FC1…フレームカウンター、11〜14…算出部、21〜24…比較部、
30…エラー検出領域設定部、31…フレームカウンター、
51-54…位置情報レジスター、61-64…期待値レジスター、
71-74…算出値レジスター、81(81−1〜81−4)…第1判定部、
82(82−1〜82−4)…第2判定部、83(83−1〜83−4)…第3判定部、
100…回路装置、110,112…制御部、120,122…画像処理部、
130,131,132…エラー検出部、
140,141,142…エラー判定情報出力部、
150,151,152…レジスター部、
160,161,162,170…インターフェース部、181,182…制御部、
191,192…駆動部、200…処理装置、206…自動車、
300…表示ドライバー、320…記憶部、330…操作部、340…通信部、
350…表示装置、360…表示パネル、400…表示コントローラー
AC1 ... Integration counter, AN1 ... And circuit, AR1-AR4 ... Error detection area,
CP1 ... Comparison part, DA1-1, DA1-2, DB1-1-1 to DB1-4 ... Delay circuit,
FC1 ... Frame counter, 11-14 ... Calculation unit, 21-24 ... Comparison unit,
30 ... Error detection area setting unit, 31 ... Frame counter,
51-54 ... Position information register, 61-64 ... Expected value register,
71-74 ... Calculated value register, 81 (81-1 to 81-4) ... First determination unit,
82 (82-1 to 82-4) ... 2nd judgment unit, 83 (83-1 to 83-4) ... 3rd judgment unit,
100 ... Circuit device, 110, 112 ... Control unit, 120, 122 ... Image processing unit,
130, 131, 132 ... Error detector,
140, 141, 142 ... Error judgment information output unit,
150, 151, 152 ... Register section,
160,161,162,170 ... Interface unit, 181,182 ... Control unit,
191 ... 192 ... drive unit, 200 ... processing device, 206 ... automobile,
300 ... Display driver, 320 ... Storage unit, 330 ... Operation unit, 340 ... Communication unit,
350 ... Display device, 360 ... Display panel, 400 ... Display controller

Claims (12)

画像データを受信するインターフェース部と、
エラー検出を行うエラー検出部と、
を含み、
前記インターフェース部は、
表示用画像データと、エラー検出領域の位置情報を少なくとも含むエラー検出用データと、を含む前記画像データを受信し、
前記エラー検出部は、
前記位置情報により特定される前記エラー検出領域の前記表示用画像データに基づいて、前記表示用画像データの前記エラー検出を行い、
前記表示用画像データに対応する画像は、前記位置情報により特定される第1位置に設定される領域であって位置が時間的に変化しない第1領域と、前記位置情報により特定される第2位置に設定される領域であって位置が時間的に変化しない第2領域と、を含み、
前記表示用画像データに対応する画像のうち、前記第1領域が前記エラー検出領域に含まれる頻度と、前記表示用画像データに対応する前記画像のうち、前記第2領域が前記エラー検出領域に含まれる頻度とが異なることを特徴とする回路装置。
The interface part that receives image data and
An error detection unit that detects errors and
Including
The interface unit
The image data including the display image data and the error detection data including at least the position information of the error detection area is received, and the image data is received.
The error detection unit
Based on the display image data of the error detection region specified by the position information, the error detection of the display image data is performed.
The image corresponding to the display image data is a region set to the first position specified by the position information and the position does not change with time, and a second region specified by the position information. Includes a second area that is set to a position and whose position does not change over time.
Of the images corresponding to the display image data, the frequency with which the first region is included in the error detection region and the second region of the images corresponding to the display image data are included in the error detection region. A circuit device characterized in that the frequency of inclusion is different.
請求項1において、
前記エラー検出領域は、複数のフレームを1周期として、周期的に設定され、
前記表示用画像データに対応する前記画像のうち、前記1周期の中で、前記エラー検出領域に含まれない領域が存在することを特徴とする回路装置。
In claim 1,
The error detection area is periodically set with a plurality of frames as one cycle.
A circuit device characterized in that, among the images corresponding to the display image data, a region not included in the error detection region exists in the one cycle.
請求項1又は2において、
前記エラー検出用データは、前記エラー検出で使用される期待値情報をさらに含み、
前記エラー検出部は、
前記期待値情報に基づいて前記エラー検出を行うことを特徴とする回路装置。
In claim 1 or 2,
The error detection data further includes expected value information used in the error detection.
The error detection unit
A circuit device characterized in that the error detection is performed based on the expected value information.
請求項1乃至3のいずれか一項において、
前記画像データは、
第2〜第nのエラー検出用データ(nは2以上の整数)を含み、
前記第2〜第nのエラー検出用データの第i(iは2≦i≦を満たす整数)のエラー検出データは、
第iのエラー検出領域に対応する前記位置情報を含むことを特徴とする回路装置。
In any one of claims 1 to 3,
The image data is
Contains the second to second error detection data (n is an integer of 2 or more)
Error detection data of the second to i data for error detection of the n (i is an integer satisfying 2 ≦ i ≦ n) is
A circuit device including the position information corresponding to the third error detection region.
請求項4において、
前記エラー検出部は、
前記第iのエラー検出領域において、前記第iのエラー検出用データに基づいて前記エラー検出を行うことを特徴とする回路装置。
In claim 4,
The error detection unit
A circuit device characterized in that the error detection is performed based on the error detection data of the i-th in the error detection region of the i-th.
請求項1乃至5のいずれかにおいて、
前記エラー検出部は、
前記表示用画像データよりも時間的に早いタイミングで受信される前記エラー検出用データに基づいて、前記表示用画像データの前記エラー検出を行うことを特徴とする回路装置。
In any of claims 1 to 5,
The error detection unit
A circuit device characterized in that the error detection of the display image data is performed based on the error detection data received at a timing earlier than the display image data.
請求項1乃至6のいずれかにおいて、
エラー判定情報出力部をさらに含み、
前記エラー検出部は、
前記画像データの複数のエラー検出領域において、誤り検出符号を演算して前記エラー検出を行い、
前記エラー判定情報出力部は、
複数のフレームでの前記誤り検出符号に基づいて、前記複数のエラー検出領域でのエラー判定情報を出力することを特徴とする回路装置。
In any of claims 1 to 6,
Including the error judgment information output section
The error detection unit
In the plurality of error detection areas of the image data, the error detection code is calculated to perform the error detection.
The error determination information output unit
A circuit device characterized by outputting error determination information in the plurality of error detection regions based on the error detection codes in a plurality of frames.
請求項1乃至7のいずれかに記載の回路装置と、
電気光学パネルと、
を含むことを特徴とする電気光学装置。
The circuit device according to any one of claims 1 to 7.
Electro-optic panel and
An electro-optic device comprising.
請求項1乃至7のいずれかに記載の回路装置を含むことを特徴とする電子機器。 An electronic device comprising the circuit device according to any one of claims 1 to 7. 請求項1乃至7のいずれかに記載の回路装置を含むことを特徴とする移動体。 A mobile body including the circuit device according to any one of claims 1 to 7. 表示用画像データと、エラー検出領域の位置情報を少なくとも含むエラー検出用データと、を含む画像データを受信し、
前記位置情報により特定される前記エラー検出領域の前記表示用画像データに基づいて、前記表示用画像データのエラー検出を行い、
前記表示用画像データに対応する画像は、前記位置情報により特定される第1位置に設定される領域であって位置が時間的に変化しない第1領域と、前記位置情報により特定される第2位置に設定される領域であって位置が時間的に変化しない第2領域と、を含み、
前記表示用画像データに対応する画像のうち、前記第1領域が前記エラー検出領域に含まれる頻度と、前記表示用画像データに対応する前記画像のうち、前記第2領域が前記エラー検出領域に含まれる頻度とが異なることを特徴とするエラー検出方法。
The image data including the display image data and the error detection data including at least the position information of the error detection area is received, and the image data is received.
Based on the display image data in the error detection area specified by the position information, error detection of the display image data is performed.
The image corresponding to the display image data is a region set to the first position specified by the position information and the position does not change with time, and a second region specified by the position information. Includes a second area that is set to a position and whose position does not change over time.
Of the images corresponding to the display image data, the frequency with which the first region is included in the error detection region and the second region of the images corresponding to the display image data are included in the error detection region. An error detection method characterized in that the frequency of inclusion is different.
請求項11において、
前記エラー検出領域は、複数のフレームを1周期として、周期的に設定され、
前記表示用画像データに対応する前記画像のうち、前記1周期の中で、前記エラー検出領域に含まれない領域が存在することを特徴とするエラー検出方法。
11.
The error detection area is periodically set with a plurality of frames as one cycle.
An error detection method, characterized in that, among the images corresponding to the display image data, a region not included in the error detection region exists in the one cycle.
JP2016209415A 2015-12-15 2016-10-26 Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods Active JP6840994B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016209415A JP6840994B2 (en) 2016-10-26 2016-10-26 Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods
PCT/JP2016/084285 WO2017104346A1 (en) 2015-12-15 2016-11-18 Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
EP16875330.9A EP3392872A4 (en) 2015-12-15 2016-11-18 Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
US16/060,063 US10778247B2 (en) 2015-12-15 2016-11-18 Circuit device, electro-optical device, electronic apparatus, mobile body, and error detection method
CN201680073008.8A CN108369795B (en) 2015-12-15 2016-11-18 Circuit device, electro-optical device, electronic apparatus, moving object, and error detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016209415A JP6840994B2 (en) 2016-10-26 2016-10-26 Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods

Publications (2)

Publication Number Publication Date
JP2018072460A JP2018072460A (en) 2018-05-10
JP6840994B2 true JP6840994B2 (en) 2021-03-10

Family

ID=62115177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016209415A Active JP6840994B2 (en) 2015-12-15 2016-10-26 Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods

Country Status (1)

Country Link
JP (1) JP6840994B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027176A (en) 2018-08-10 2020-02-20 セイコーエプソン株式会社 Circuit device, display control system, electronic apparatus, and mobile body
JP2020180996A (en) * 2019-04-23 2020-11-05 セイコーエプソン株式会社 Control circuit, drive circuit, electro-optical device, electronic apparatus including electro-optical device, moving vehicle including electronic apparatus, and error detection method
CN112995656A (en) * 2021-03-04 2021-06-18 黑芝麻智能科技(上海)有限公司 Anomaly detection method and system for image processing circuit

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0818756A (en) * 1994-06-29 1996-01-19 Canon Inc Facsimile equipment and method for transmission/and reception of facsimile
GB2347038A (en) * 1999-02-18 2000-08-23 Nokia Mobile Phones Ltd A video codec using re-transmission
JP3927422B2 (en) * 2002-02-27 2007-06-06 株式会社メガチップス Moving picture transmission / reception system, moving picture transmission / reception method, and programs thereof
JP4956573B2 (en) * 2009-03-19 2012-06-20 株式会社東芝 Amplifier circuit and magnetic sensor
JP2010225234A (en) * 2009-03-24 2010-10-07 Panasonic Corp Video reproducing device
JP5670117B2 (en) * 2010-08-04 2015-02-18 ルネサスエレクトロニクス株式会社 Display control device
JP2014003512A (en) * 2012-06-20 2014-01-09 Mitsubishi Electric Corp Ofdm signal transmission and reception system
JP6012460B2 (en) * 2012-12-28 2016-10-25 株式会社メガチップス Video recording apparatus and surveillance camera system

Also Published As

Publication number Publication date
JP2018072460A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
WO2017104346A1 (en) Circuit device, electrooptical device, electronic apparatus, movable body, and error detection method
US10614279B2 (en) Apparatus and method for driving fingerprint sensing array provided in touchscreen, and driver integrated circuit for driving the touchscreen including the fingerprint sensing array
TWI755482B (en) Driver, electro-optical device, and electronic apparatus
US20180348949A1 (en) Touch controller for driving touch screen including fingerprint sensing array, driving integrated circuit, and method of operating touch screen device including the same
US8592698B2 (en) Capacitive touch system and data transmission method in a capacitive touch system
JP6840994B2 (en) Circuit equipment, electro-optic equipment, electronic devices, mobile objects and error detection methods
JP6921978B2 (en) Position detection system and display device control circuit
US11194420B2 (en) Device and method for proximity sensing for display panel having a variable display frame rate
US20140002410A1 (en) Fully addressable transmitter electrode control
US11656715B2 (en) Touch controller, touch sensing device including the touch controller, operating method of touch controller
US8022940B2 (en) Capacitive touch system and data transmission method in a capacitive touch system
KR20180132497A (en) Touch controller for driving touch screen including fingerprint sensing array, driving integrated circuit, and method of operating touch screen device comprising thereof
US20090251430A1 (en) Circuit complexity reduction of a capacitive touch system
US11003291B2 (en) Semiconductor device having a communication bus
US10838535B2 (en) Display apparatus and method of sensing touch in display apparatus
JP6897059B2 (en) Circuits, electro-optics, electronic devices and mobiles
JP6919217B2 (en) Display systems, display controllers, electro-optics and electronic devices
TWI781751B (en) Touch signal processing method and related touch device
US11847278B2 (en) Display device predicting noise for touch sensor and computing system
JP6720517B2 (en) Circuit devices, electro-optical devices, electronic devices, moving objects
JP6992256B2 (en) Screwdrivers, electro-optics and electronic devices
US11954293B2 (en) Display apparatus having normal mode and biometric information measurement mode
CN114944885B (en) Circuit device, electronic apparatus, and image processing method
CN116027918A (en) Touch sensing device, touch sensing display system including the same, and touch sensing method
CN116414256A (en) Touch detection circuit, touch detection method and touch display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6840994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150