JP2013205731A - Image processing system, display control method of the same, program and information storage medium - Google Patents

Image processing system, display control method of the same, program and information storage medium Download PDF

Info

Publication number
JP2013205731A
JP2013205731A JP2012076478A JP2012076478A JP2013205731A JP 2013205731 A JP2013205731 A JP 2013205731A JP 2012076478 A JP2012076478 A JP 2012076478A JP 2012076478 A JP2012076478 A JP 2012076478A JP 2013205731 A JP2013205731 A JP 2013205731A
Authority
JP
Japan
Prior art keywords
image data
frame buffer
image
application
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012076478A
Other languages
Japanese (ja)
Inventor
Kakui Yo
革偉 楊
Hirokazu Ishida
浩和 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012076478A priority Critical patent/JP2013205731A/en
Publication of JP2013205731A publication Critical patent/JP2013205731A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system or the like that can display an image at a high speed in response to input operation in an application in combination with drawing processing and has high general-purpose properties.SOLUTION: An image processing system 1 includes: a display section 50 provided with electronic paper 52; a storage section 30 including a frame buffer 36; a display control section 40 that performs control for causing an image corresponding to image data written into the frame buffer 36 to be displayed on the electronic paper 52; an input operation detection processing section 12 for detecting input operation; an application processing section 14 operating on the basis of an application program 32; and a drawing processing section 16 operating on the basis of a program. The application processing section 14 writes the image data into the frame buffer in response to a predetermined event on the basis of the input operation and performs an update request of cache information. The drawing processing section 16 updates the cache information on the basis of the image data written into the frame buffer in response to the update request.

Description

本発明は、画像処理装置、画像処理装置の表示制御方法、プログラム及び情報記憶媒体に関する。   The present invention relates to an image processing apparatus, a display control method for the image processing apparatus, a program, and an information storage medium.

近年、視認性に優れ、消費電力が小さい等の利点をもつ電子ペーパーの需要が増しており、電子書籍リーダー(電子ブックリーダー)、電子看板(デジタルサイネージ)、一部の携帯電話機等に利用されている。   In recent years, there has been an increasing demand for electronic paper with advantages such as excellent visibility and low power consumption, and it is used for electronic book readers (electronic book readers), electronic signage (digital signage), and some mobile phones. ing.

これらの電子機器において電子ペーパーに表示する画像を生成するアプリケーションは多様かつ複雑なものとなっており、その開発を容易にするために、あらかじめデータ構造やライブラリー関数が定義されたアプリケーションフレームワーク(「GUIツールキット」とも呼ばれる)が利用される。このアプリケーションフレームワークは、電子機器のメモリーに格納され、組み込みのOS上でGUI(Graphical User Interface)システム(「グラフィックシステム」とも呼ばれる)として動作する。   Applications that generate images to be displayed on electronic paper in these electronic devices are diverse and complex, and in order to facilitate their development, application frameworks (in which data structures and library functions are defined in advance) ( "GUI toolkit") is used. This application framework is stored in a memory of an electronic device and operates as a GUI (Graphical User Interface) system (also referred to as a “graphic system”) on an embedded OS.

GUIシステムにおけるアプリケーションの描画は、GUIシステムから描画イベントが通知された時に当該描画イベントのハンドラー内で完了することが基本かつ必須とされている。これにより、描画処理の管理をGUIシステムに任せることができるので、アプリケーションが描画処理を詳細に管理しなくて済む。しかし、その代償として、GUIシステムと電子ペーパーの表示コントローラー及びそのフレームバッファーとの関係がGUIシステムによって隠蔽されてしまうため、表示コントローラーのアーキテクチャーに最適な描画タイミングをアプリケーションから制御することができない。GUIシステムの仲介によりGUIシステムの都合に応じた断片的な描画処理が行われるため、画像が表示されるまでに、GUIシステム自身のオーバーヘッド、他のタスクやスレッドの影響による遅延が発生するという問題がある。また、速い一括書き込みによって高速な表示が可能なアーキテクチャーをもつ電子パーパー用表示コントローラーの本来のパフォーマンスを十分に発揮させることができないという問題もある。   Basically, it is essential that drawing of an application in the GUI system is completed within a handler of the drawing event when a drawing event is notified from the GUI system. As a result, the management of the drawing process can be left to the GUI system, so that the application does not have to manage the drawing process in detail. However, as a compensation, since the relationship between the GUI system, the display controller of the electronic paper, and the frame buffer thereof is hidden by the GUI system, the drawing timing optimum for the architecture of the display controller cannot be controlled from the application. Since a piecewise drawing process according to the convenience of the GUI system is performed through the mediation of the GUI system, there is a problem that a delay due to the influence of the overhead of the GUI system itself, other tasks and threads occurs before the image is displayed. There is. Another problem is that the original performance of a display controller for electronic paper having an architecture capable of high-speed display by fast batch writing cannot be fully exhibited.

電子ペーパーに関するものではないが、例えば、特許文献1や特許文献2において描画速度を向上させる手法が提案されている。   Although not related to electronic paper, for example, Patent Document 1 and Patent Document 2 propose a technique for improving the drawing speed.

特開平5−128264号広報JP 5-128264 特開2005−275028号広報Japanese Laid-Open Patent Publication No. 2005-275028

しかしながら、特許文献1の手法は、アプリケーションにおいて全ての種類の描画図形に共通に指定される可能性がある属性データの処理を行うための専用のハードウェアを設けることで描画速度を向上させるものであり、任意のアプリケーションに適用できるものではなく、汎用性に欠けている。また、特許文献2の手法は、アプリケーションの種類に応じて高速描画と通常の描画を使い分けることで描画速度を全体として向上させるものであり、任意のアプリケーションの描画処理を高速化できるわけではなく、やはり汎用性に欠けている。   However, the technique of Patent Document 1 improves the drawing speed by providing dedicated hardware for processing attribute data that may be commonly specified for all types of drawing figures in an application. Yes, it is not applicable to any application and lacks versatility. Further, the technique of Patent Document 2 improves the drawing speed as a whole by properly using high-speed drawing and normal drawing according to the type of application, and does not mean that the drawing process of an arbitrary application can be accelerated. After all it lacks versatility.

本発明は、以上のような問題点に鑑みてなされたものであり、本発明のいくつかの態様によれば、描画処理を伴うアプリケーションにおいて入力操作に応じた画像の高速表示が可能な汎用性の高い画像処理装置、画像処理装置の表示制御方法、プログラム及び情報記憶媒体を提供することができる。   The present invention has been made in view of the above problems, and according to some aspects of the present invention, versatility that enables high-speed display of an image according to an input operation in an application involving a drawing process. Image processing apparatus, a display control method for the image processing apparatus, a program, and an information storage medium can be provided.

本発明は前述の課題の少なくとも一部を解決するためになされたものであり、以下の態様または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following aspects or application examples.

[適用例1]
本適用例に係る画像処理装置は、電子ペーパーを備えた表示部と、画像データを格納するためのフレームバッファーを含む記憶部と、前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御部と、入力操作を検出する入力操作検出処理部と、アプリケーションプログラムに基づいて動作し、前記入力操作に応じた処理を行うアプリケーション処理部と、プログラムに基づいて動作し、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む処理を行う描画処理部と、を含み、前記アプリケーション処理部は、前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記キャッシュ情報の更新要求を行い、前記描画処理部は、前記更新要求に応じて、前記アプリケーション処理部により前記フレームバッファーに書き込まれた画像データに基づいて前記キャッシュ情報を更新する。
[Application Example 1]
An image processing apparatus according to this application example includes a display unit including electronic paper, a storage unit including a frame buffer for storing image data, and an image corresponding to the image data written in the frame buffer. A display control unit that performs control to be displayed on the electronic paper, an input operation detection processing unit that detects an input operation, an application processing unit that operates based on an application program and performs processing according to the input operation, A drawing processing unit that operates based on a program, generates image data according to a drawing request using cache information for the frame buffer, and writes the image data in the frame buffer, and In response to a predetermined event based on the input operation, the application processing unit In response to the update request, the rendering processing unit writes the cache information based on the image data written in the frame buffer by the image processing unit. Update.

本適用例に係る画像処理装置によれば、アプリケーション処理部が、入力操作に基づく所定のイベントに応じて、描画処理部を介さずに、直接、フレームバッファーに画像データを書き込むことで、電子ペーパーへの描画を高速化することができる。また、アプリケーション処理部がキャッシュ情報の更新要求を行い、描画処理部がフレームバッファーに書き込まれた画像データに基づいてキャッシュ情報を更新することで、フレームバッファーの内容とキャッシュ情報との整合性を維持することができる。   According to the image processing apparatus according to this application example, the application processing unit writes the image data directly into the frame buffer without using the drawing processing unit in response to a predetermined event based on the input operation, thereby enabling electronic paper It is possible to speed up drawing. The application processing unit makes a cache information update request, and the rendering processing unit updates the cache information based on the image data written in the frame buffer, thereby maintaining the consistency between the contents of the frame buffer and the cache information. can do.

従って、本適用例に係る画像処理装置によれば、液晶ディスプレイ(LCD:Liquid Crystal Display)と比較して表示速度で劣る電子ペーパーの欠点を補い、操作性に優れた画像処理装置を実現することができる。   Therefore, according to the image processing apparatus according to this application example, it is possible to compensate for the drawbacks of electronic paper, which is inferior in display speed as compared with a liquid crystal display (LCD), and to realize an image processing apparatus excellent in operability. Can do.

また、本適用例に係る画像処理装置によれば、描画処理部のオーバーヘッドによる性能低下を避けながら、描画処理部が持つアプリケーションの開発・実行環境の高い互換性を維持することができる。   Further, according to the image processing apparatus according to this application example, it is possible to maintain high compatibility of the application development / execution environment of the drawing processing unit while avoiding performance degradation due to the overhead of the drawing processing unit.

[適用例2]
上記適用例に係る画像処理装置において、前記アプリケーション処理部は、前記更新要求として、前記フレームバッファーに書き込んだ画像データと同じ画像データを生成させるための前記描画要求を行うようにしてもよい。
[Application Example 2]
In the image processing apparatus according to the application example, the application processing unit may make the drawing request for generating the same image data as the image data written in the frame buffer as the update request.

本適用例に係る画像処理装置によれば、描画処理部が描画を行わずにキャッシュ情報の更新のみを行うことができない場合であっても、アプリケーション処理部が描画処理部に対して描画要求を行うことで確実かつ容易にキャッシュ情報を更新することができる。   According to the image processing apparatus according to this application example, even when the drawing processing unit cannot update only the cache information without performing drawing, the application processing unit issues a drawing request to the drawing processing unit. This makes it possible to update cache information reliably and easily.

[適用例3]
上記適用例に係る画像処理装置において、前記フレームバッファーに書き込まれた画像データを前記表示制御部に転送する処理を行う画像データ転送処理部をさらに含み、前記アプリケーション処理部は、前記フレームバッファーに画像データを書き込む毎に、当該画像データを前記表示制御部に転送するための転送要求を行い、前記画像データ転送処理部は、前記転送要求に応じて、前記フレームバッファーに書き込まれた画像データを前記表示制御部に転送するようにしてもよい。
[Application Example 3]
The image processing apparatus according to the application example further includes an image data transfer processing unit that performs a process of transferring the image data written in the frame buffer to the display control unit, and the application processing unit stores the image data in the frame buffer. Each time data is written, a transfer request for transferring the image data to the display control unit is performed, and the image data transfer processing unit receives the image data written in the frame buffer in response to the transfer request. You may make it transfer to a display control part.

本適用例に係る画像処理装置によれば、アプリケーション処理部がフレームバッファーに画像データを書き込む毎に、当該画像データが表示制御部に転送されるので、入力操作に追従してすぐに画像表示が更新されるので、操作性を向上させることができる。   According to the image processing apparatus according to this application example, every time the application processing unit writes image data to the frame buffer, the image data is transferred to the display control unit. Since it is updated, the operability can be improved.

[適用例4]
上記適用例に係る画像処理装置において、前記アプリケーション処理部は、前記入力操作検出処理部の検出結果に基づいて前記入力操作が途切れたタイミングを検出し、当該入力操作が途切れたタイミングで前記更新要求を行うようにしてもよい。
[Application Example 4]
In the image processing apparatus according to the application example, the application processing unit detects a timing at which the input operation is interrupted based on a detection result of the input operation detection processing unit, and the update request is performed at the timing at which the input operation is interrupted. May be performed.

本適用例に係る画像処理装置によれば、一連の入力操作が終了してから、当該入力操作に応じてフレームバッファーに書き込まれた画像データに基づいてキャッシュ情報を一度に更新することができるので、描画処理部の負荷を低減することができる。   According to the image processing apparatus according to this application example, the cache information can be updated at once based on the image data written in the frame buffer in accordance with the input operation after a series of input operations is completed. The load on the drawing processing unit can be reduced.

[適用例5]
上記適用例に係る画像処理装置において、前記アプリケーション処理部は、前記フレームバッファーに書き込んだ画像データの更新を伴うイベントを検出し、当該画像データが更新される前に前記更新要求を行うようにしてもよい。
[Application Example 5]
In the image processing apparatus according to the application example, the application processing unit detects an event accompanied by an update of the image data written in the frame buffer, and performs the update request before the image data is updated. Also good.

本適用例に係る画像処理装置によれば、入力操作中にフレームバッファーの更新を伴うイベントが発生しても、フレームバッファーの内容とキャッシュ情報との整合性を維持することができる。   The image processing apparatus according to this application example can maintain the consistency between the contents of the frame buffer and the cache information even if an event accompanied by the update of the frame buffer occurs during the input operation.

[適用例6]
上記適用例に係る画像処理装置において、前記表示部は、前記電子ペーパーに対する接触位置を検出する接触位置検出部をさらに備え、前記入力操作検出処理部は、前記接触位置検出部の検出結果に基づいて、前記電子ペーパーに対する前記入力操作を検出し、前記アプリケーション処理部は、前記電子ペーパーに対する前記入力操作が検出された場合、前記接触位置検出部が検出した接触位置の情報に基づいて、前記入力操作が行われた軌跡を表す画像データを生成し、当該画像データを前記フレームバッファーに書き込むようにしてもよい。
[Application Example 6]
In the image processing apparatus according to the application example, the display unit further includes a contact position detection unit that detects a contact position with respect to the electronic paper, and the input operation detection processing unit is based on a detection result of the contact position detection unit. The input operation on the electronic paper is detected, and the application processing unit detects the input operation based on the contact position information detected by the contact position detection unit when the input operation on the electronic paper is detected. Image data representing the locus of the operation may be generated and the image data may be written into the frame buffer.

本適用例に係る画像処理装置によれば、ペン入力等による手書きの文字や図形等を電子ペーパーに高速描画することができるので、操作性を向上させ、ユーザーの使い勝手のよい画像処理装置を提供することができる。   According to the image processing apparatus according to this application example, it is possible to draw a handwritten character or figure by pen input or the like on an electronic paper at high speed, so that the operability is improved and the user-friendly image processing apparatus is provided. can do.

[適用例7]
上記適用例に係る画像処理装置において、前記表示制御部は、前記表示部の前記電子ペーパーに表示させた画像に対応する画像データの履歴情報を記憶し、当該履歴情報に基づき、前記電子ペーパーの表示特性に応じて、次の画像データに対応する画像を前記電子ペーパーに表示させる制御を行うようにしてもよい。
[Application Example 7]
In the image processing apparatus according to the application example, the display control unit stores history information of image data corresponding to an image displayed on the electronic paper of the display unit, and based on the history information, Depending on the display characteristics, control may be performed to display an image corresponding to the next image data on the electronic paper.

本適用例に係る画像処理装置によれば、表示制御部が、電子ペーパーの特性に応じた駆動パルスの印加回数の制御など複雑な表示制御を行うので、アプリケーションプログラムの開発が容易になるとともに、アプリケーション処理部や描画処理部の負荷を低減させることができる。特に、表示制御部をハードウェアで実装することで、高速描画を実現することが可能になる。   According to the image processing apparatus according to the application example, the display control unit performs complicated display control such as control of the number of times of applying the drive pulse according to the characteristics of the electronic paper, so that the development of the application program becomes easy, The load on the application processing unit and the drawing processing unit can be reduced. In particular, high-speed drawing can be realized by mounting the display control unit by hardware.

[適用例8]
上記適用例に係る画像処理装置において、前記表示部の前記電子ペーパーは、電気泳動方式により画像を表示するようにしてもよい。
[Application Example 8]
In the image processing apparatus according to the application example, the electronic paper of the display unit may display an image by an electrophoresis method.

[適用例9]
本適用例に係る画像処理装置の表示制御方法は、入力操作を検出する入力操作検出処理部と、電子ペーパーを備えた表示部と、画像データを格納するためのフレームバッファーを含む記憶部と、を含む画像処理装置の表示制御方法であって、アプリケーションプログラムに基づいて、前記入力操作に応じた処理を行うアプリケーション処理ステップと、プログラムに基づいて、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む描画処理ステップと、前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御ステップと、を含み、前記アプリケーション処理ステップにおいて、前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記キャッシュ情報の更新要求を行い、前記描画処理ステップにおいて、前記アプリケーション処理ステップで前記フレームバッファーに書き込まれた画像データに基づいて前記キャッシュ情報を更新する。
[Application Example 9]
The display control method of the image processing apparatus according to this application example includes an input operation detection processing unit that detects an input operation, a display unit including electronic paper, a storage unit that includes a frame buffer for storing image data, A display control method for an image processing apparatus including: an application processing step for performing processing according to the input operation based on an application program; and drawing using the cache information for the frame buffer based on the program A drawing processing step of generating image data according to a request and writing the image data in the frame buffer, and a control for displaying an image corresponding to the image data written in the frame buffer on the electronic paper of the display unit Display control step to perform, the application processing step In response to a predetermined event based on the input operation, the image data is written to the frame buffer, the cache information is updated, and the application processing step writes the cache information in the frame buffer. The cache information is updated based on the image data.

[適用例10]
本適用例に係るプログラムは、入力操作を検出する入力操作検出処理部と、電子ペーパーを備えた表示部と、画像データを格納するためのフレームバッファーを含む記憶部と、前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御部と、プログラムに基づいて動作し、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む処理を行う描画処理部と、を含む画像処理装置において実行されるプログラムであって、アプリケーションプログラムに基づいて動作し、前記入力操作に応じた処理を行うアプリケーション処理部としてコンピューターを機能させ、前記アプリケーション処理部は、前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記描画処理部に対して前記キャッシュ情報の更新要求を行う。
[Application Example 10]
The program according to this application example is written in the input buffer detection processing unit that detects an input operation, a display unit that includes electronic paper, a storage unit that includes a frame buffer for storing image data, and the frame buffer. An image corresponding to the rendering request using the cache information for the frame buffer, which operates based on a program and a display control unit that performs control to display an image corresponding to the image data on the electronic paper of the display unit A program that is executed in an image processing apparatus including a drawing processing unit that generates data and writes the image data in the frame buffer, and operates based on an application program, in accordance with the input operation The computer functions as an application processing unit that performs processing, and the application Deployment processing unit, in response to the predetermined event based on the input operation, writes the image data into the frame buffer, performs an update request of the cache information to the drawing processor.

[適用例11]
本適用例に係る情報記憶媒体は、上記適用例に係るプログラムが記憶されている、コンピューター読み取り可能な情報記憶媒体である。
[Application Example 11]
The information storage medium according to this application example is a computer-readable information storage medium in which the program according to the application example is stored.

本実施形態の画像処理装置の構成例を示す図。1 is a diagram illustrating a configuration example of an image processing apparatus according to an embodiment. 本実施形態における描画処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of the drawing process in this embodiment. 本実施形態における描画処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of the drawing process in this embodiment. 本実施形態の電子書籍端末の外観図。1 is an external view of an electronic book terminal according to an embodiment. 本実施形態の電子書籍端末内部のハードウェア構成例を示す図。The figure which shows the hardware structural example inside the electronic book terminal of this embodiment. 本実施形態における電気泳動表示装置のブロック図。1 is a block diagram of an electrophoretic display device according to an embodiment. 本実施形態における電気泳動表示装置の画素の構成例を示す図。FIG. 3 is a diagram illustrating a configuration example of a pixel of an electrophoretic display device according to an embodiment. 図8(A)は電気泳動素子の構成例を示す図であり、図8(B)及び図8(C)は電気泳動素子の動作の説明図。FIG. 8A is a diagram illustrating a configuration example of an electrophoretic element, and FIGS. 8B and 8C are explanatory diagrams of the operation of the electrophoretic element. 本実施形態における手書き処理の概要についての説明図。Explanatory drawing about the outline | summary of the handwriting process in this embodiment. 本実施形態におけるハードウェア/ソフトウェア階層及びデータの流れを示す図。The figure which shows the hardware / software hierarchy in this embodiment, and the flow of data. 本実施形態における手書き処理のフローチャートを示す図。The figure which shows the flowchart of the handwriting process in this embodiment. 手書き処理が行われる前にフレームバッファーに格納されている画像データの一例を示す図。The figure which shows an example of the image data stored in the frame buffer before handwriting processing is performed. 手書き処理が行われる前にキャッシュに記憶されている画像データの一例を示す図。The figure which shows an example of the image data memorize | stored in the cache before handwriting processing is performed. ペンタッチイベントハンドラーの処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a process of a pen touch event handler. ペン移動イベントハンドラーの処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a process of a pen movement event handler. ペンリリースイベントハンドラーの処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a process of a pen release event handler. 直接描画処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a direct drawing process. 直接描画処理によってフレームバッファーに格納される画像データが変化する様子の一例を示す図。The figure which shows an example of a mode that the image data stored in a frame buffer changes by a direct drawing process. 描画イベントハンドラーの処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a process of a drawing event handler. 間接描画処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of an indirect drawing process. 間接描画処理によりキャッシュに保存される画像データの一例を示す図。The figure which shows an example of the image data preserve | saved at cache by an indirect drawing process. 本実施形態の画像処理装置の一例を示す図。1 is a diagram illustrating an example of an image processing apparatus according to an embodiment. 変形例におけるペン移動イベントハンドラーの処理のフローチャートの一例を示す図。The figure which shows an example of the flowchart of a process of the pen movement event handler in a modification.

以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1.画像処理装置
1−1.構成
図1は、本実施形態の画像処理装置の構成例を示す図である。図1に示すように、本実施形態の画像処理装置1は、処理部(CPU)10、操作部20、記憶部30、表示制御部40、表示部50、音出力部60、通信部70を含んで構成されている。本実施形態の画像処理装置1は、図1の構成要素(各部)の一部を省略又は変更したり、他の構成要素を付加した構成としてもよい。
1. Image processing apparatus 1-1. Configuration FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to the present embodiment. As shown in FIG. 1, the image processing apparatus 1 according to the present embodiment includes a processing unit (CPU) 10, an operation unit 20, a storage unit 30, a display control unit 40, a display unit 50, a sound output unit 60, and a communication unit 70. It is configured to include. The image processing apparatus 1 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted or changed, or other components are added.

操作部20は、操作キーやボタンスイッチ等により構成される入力装置であり、ユーザーによる操作に応じた操作信号を処理部(CPU)10に出力する。   The operation unit 20 is an input device including operation keys, button switches, and the like, and outputs an operation signal corresponding to an operation by a user to the processing unit (CPU) 10.

記憶部30は、処理部(CPU)10が各種の計算処理や制御処理を行うためのプログラムやデータ等を記憶している。特に、本実施形態では、記憶部30は、表示部50に対する描画要求を伴う種々のアプリケーションプログラム32、画像データ等が格納されたデータファイル34等が記憶されている。   The storage unit 30 stores programs, data, and the like for the processing unit (CPU) 10 to perform various types of calculation processing and control processing. In particular, in the present embodiment, the storage unit 30 stores various application programs 32 accompanied with a drawing request to the display unit 50, a data file 34 storing image data, and the like.

また、記憶部30は、処理部(CPU)10の作業領域としても用いられ、特に、本実施形態では、記憶領域の一部に、フレームバッファー36とフレームバッファー36用のキャッシュ38が設けられている。   The storage unit 30 is also used as a work area for the processing unit (CPU) 10. In particular, in this embodiment, a frame buffer 36 and a cache 38 for the frame buffer 36 are provided in a part of the storage area. Yes.

フレームバッファー36は、データファイル34に含まれる画像データやユーザーによる所定の入力操作に応じて作成された画像データ等を格納する記憶領域である。   The frame buffer 36 is a storage area for storing image data included in the data file 34, image data created in response to a predetermined input operation by the user, and the like.

キャッシュ38は、後述する描画処理部16によるフレームバッファー36への画像データの書き込み処理を高速化するための情報(以下、「キャッシュ情報」という)を記憶する記憶領域である。キャッシュ情報は、例えば、フレームバッファー36に前回格納されていた画像データや参照回数の多い画像データ等の情報である。   The cache 38 is a storage area for storing information (hereinafter referred to as “cache information”) for speeding up the processing of writing image data into the frame buffer 36 by the drawing processing unit 16 described later. The cache information is, for example, information such as image data that was previously stored in the frame buffer 36 or image data that is frequently referenced.

音出力部60は、スピーカー等の音を出力する装置であり、処理部(CPU)10から入力される信号に基づいて各種の音(音声も含む)を出力する。   The sound output unit 60 is a device that outputs sound, such as a speaker, and outputs various sounds (including sound) based on signals input from the processing unit (CPU) 10.

通信部70は、処理部(CPU)10の制御により、有線又は無線の通信ネットワークに接続された他の装置とのデータ通信を行うためのものである。   The communication unit 70 is for performing data communication with other devices connected to a wired or wireless communication network under the control of the processing unit (CPU) 10.

表示部50は、電子ペーパー52を備えて構成される表示装置であり、電子ペーパー52には、フレームバッファー36に格納されている画像データに対応する画像が表示される。電子ペーパー52としては、種々の方式のものを用いることができる。例えば、帯電された粒子を移動させて表示を切り替える電気泳動方式のもの、帯電された粒子を回転させて表示を切り替える粒子回転方式のもの、磁気により粒子を移動させて表示を切り替える磁気泳動方式のもの、小型バッテリー駆動の薄型の液晶やEL素子による表示方式のもの、強誘電液晶に代表されるメモリー性のある液晶による表示方式のものなどを適宜電子ペーパー52として採用することができる。   The display unit 50 is a display device that includes an electronic paper 52, and an image corresponding to the image data stored in the frame buffer 36 is displayed on the electronic paper 52. Various types of electronic paper 52 can be used. For example, an electrophoresis type that switches charged particles by moving the display, a particle rotation type that switches charged particles by rotating the charged particles, or a magnetophoretic method that switches particles by moving the particles by magnetism A display method using a thin liquid crystal driven by a small battery or an EL element, a display method using a liquid crystal having a memory property represented by a ferroelectric liquid crystal, or the like can be appropriately employed as the electronic paper 52.

表示部50は、接触位置検出部54を含んでいてもよい。接触位置検出部54は、電子ペーパー52に対する接触位置を検出し、接触位置の情報を出力する。   The display unit 50 may include a contact position detection unit 54. The contact position detection unit 54 detects a contact position with respect to the electronic paper 52 and outputs information on the contact position.

表示制御部40は、フレームバッファー36に書き込まれた画像データに対応する画像を表示部50の電子ペーパー52に表示させる制御を行う。表示制御部40は、電子ペーパー42に表示させた画像に対応する画像データの履歴情報42を記憶し、履歴情報42に基づき、電子ペーパー52の表示特性に応じて、次の画像データに対応する画像を電子ペーパー52に表示させる制御を行うようにしてもよい。   The display control unit 40 performs control to display an image corresponding to the image data written in the frame buffer 36 on the electronic paper 52 of the display unit 50. The display control unit 40 stores the history information 42 of the image data corresponding to the image displayed on the electronic paper 42, and corresponds to the next image data according to the display characteristics of the electronic paper 52 based on the history information 42. You may make it perform control which displays an image on the electronic paper 52. FIG.

処理部(CPU)10は、記憶部30に記憶されている各種のプログラムに従って、各種の計算処理や制御処理を行う。特に、本実施形態では、処理部(CPU)10は、入力操作検出処理部12、アプリケーション処理部14、描画処理部16、画像データ転送処理部18を含む。ただし、本実施形態の処理部(CPU)10は、これらの一部の構成(要素)を省略又は変更したり、他の構成(要素)を追加した構成としてもよい。   The processing unit (CPU) 10 performs various calculation processes and control processes in accordance with various programs stored in the storage unit 30. In particular, in the present embodiment, the processing unit (CPU) 10 includes an input operation detection processing unit 12, an application processing unit 14, a drawing processing unit 16, and an image data transfer processing unit 18. However, the processing unit (CPU) 10 of the present embodiment may have a configuration in which some of these configurations (elements) are omitted or changed, or other configurations (elements) are added.

入力操作検出処理部12は、操作部20からの操作信号等に基づいてユーザーによる入力操作を検出する処理を行う。また、入力操作検出処理部12は、接触位置検出部54の検出結果に基づいて、電子ペーパー52に対するユーザーの入力操作を検出してもよい。   The input operation detection processing unit 12 performs a process of detecting an input operation by the user based on an operation signal from the operation unit 20 or the like. Further, the input operation detection processing unit 12 may detect a user input operation on the electronic paper 52 based on the detection result of the contact position detection unit 54.

アプリケーション処理部14は、アプリケーションプログラム32に基づいて動作し、入力操作検出処理部12により検出された入力操作に応じた処理を行う。すなわち、処理部(CPU)10は、アプリケーションプログラム32を実行することで、アプリケーション処理部14として機能する。   The application processing unit 14 operates based on the application program 32 and performs processing according to the input operation detected by the input operation detection processing unit 12. That is, the processing unit (CPU) 10 functions as the application processing unit 14 by executing the application program 32.

描画処理部16は、所与のプログラムに基づいて動作し、キャッシュ情報を用いて、アプリケーション処理部14等からの描画要求に応じた画像データを生成し、当該画像データをフレームバッファー36に書き込み、キャッシュ情報を更新する処理を行う。   The drawing processing unit 16 operates based on a given program, generates image data corresponding to a drawing request from the application processing unit 14 or the like using the cache information, writes the image data in the frame buffer 36, Performs processing to update cache information.

なお、アプリケーションプログラム32やデータファイル34は、最初から記憶部30に記憶されていてもよいが、処理部(CPU)10が、コンピューター読み取り可能な情報記憶媒体に記憶されているアプリケーションプログラム32やデータファイル34を読み出して、記憶部30にダウンロードしてもよい。コンピューター読み取り可能な情報記憶媒体とは、例えば、光ディスク(コンパクトディスク(CD)、デジタルバーサタイルディスク(DVD)、ブルーレイディスク(BD)、レーザーディスク(登録商標)(LD)等)、光磁気ディスク(MO)、磁気ディスク(ハードディスクドライブ(HDD)、フレキシブルディスク(FD)等)、磁気テープ(デジタルデータストレージ(DDS)等)、メモリー(フラッシュメモリー、メモリーカード、USBメモリー等)等である。   The application program 32 and the data file 34 may be stored in the storage unit 30 from the beginning. However, the application program 32 and the data stored in the computer-readable information storage medium by the processing unit (CPU) 10 may be used. The file 34 may be read and downloaded to the storage unit 30. The computer-readable information storage medium is, for example, an optical disc (compact disc (CD), digital versatile disc (DVD), Blu-ray disc (BD), laser disc (registered trademark) (LD), etc.), magneto-optical disc (MO). ), Magnetic disk (hard disk drive (HDD), flexible disk (FD), etc.), magnetic tape (digital data storage (DDS), etc.), memory (flash memory, memory card, USB memory, etc.), and the like.

あるいは、処理部(CPU)10が、通信部70を介して、パーソナルコンピューター(サーバー)等の装置に記憶されているアプリケーションプログラム32やデータファイル34を受信して記憶部30にダウンロードしてもよい。   Alternatively, the processing unit (CPU) 10 may receive the application program 32 and the data file 34 stored in a device such as a personal computer (server) via the communication unit 70 and download them to the storage unit 30. .

1−2.描画処理
図2は、本実施形態の画像処理装置による描画処理のフローチャートの一例を示す図である。
1-2. Drawing Process FIG. 2 is a diagram illustrating an example of a flowchart of a drawing process performed by the image processing apparatus according to the present embodiment.

電子ペーパー52の表示画像の更新イベントが発生した場合(S10のY)、当該イベントがユーザーの入力操作に基づく所定のイベントでなければ(S12のN)、アプリケーション処理部14が、発生したイベントに応じて、描画処理部16に画像データの描画要求を行う(S14)。   When an event for updating the display image of the electronic paper 52 occurs (Y in S10), if the event is not a predetermined event based on the user's input operation (N in S12), the application processing unit 14 determines that the event has occurred. In response, a drawing request for image data is made to the drawing processing unit 16 (S14).

次に、描画要求に対して、描画処理部16が、フレームバッファー36用のキャッシュ情報を用いて、アプリケーション処理部14からの描画要求に応じた画像データを生成し、当該画像データをフレームバッファー36に書き込む(S16)。   Next, in response to the drawing request, the drawing processing unit 16 generates image data corresponding to the drawing request from the application processing unit 14 using the cache information for the frame buffer 36, and the image data is stored in the frame buffer 36. (S16).

一方、発生したイベントが所定のイベントであれば(S12のY)、アプリケーション処理部14が、発生したイベントに応じて、フレームバッファー36に画像データを書き込み、描画処理部16にキャッシュ情報の更新要求を行う(S18)。例えば、アプリケーション処理部14は、電子ペーパー52に対する入力操作が検出された場合、接触位置検出部54が検出した接触位置の情報に基づいて、入力操作が行われた軌跡を表す画像データを生成し、当該画像データをフレームバッファー36に書き込み、描画処理部16に対してキャッシュ情報の更新要求を行うようにしてもよい。   On the other hand, if the generated event is a predetermined event (Y in S12), the application processing unit 14 writes the image data in the frame buffer 36 according to the generated event, and requests the cache processing unit 16 to update the cache information. (S18). For example, when an input operation on the electronic paper 52 is detected, the application processing unit 14 generates image data representing a locus of the input operation based on the information on the contact position detected by the contact position detection unit 54. Alternatively, the image data may be written into the frame buffer 36 and a cache information update request may be sent to the drawing processing unit 16.

次に、キャッシュ情報の更新要求に対して、描画処理部16が、アプリケーション処理部14によりフレームバッファー36に書き込まれた画像データに基づいて、キャッシュ情報を更新する(S20)。   Next, in response to the cache information update request, the rendering processing unit 16 updates the cache information based on the image data written in the frame buffer 36 by the application processing unit 14 (S20).

次に、画像データ転送処理部18が、ステップS16又はS18でフレームバッファー36に書き込まれた画像データを表示制御部40に転送する(S22)。   Next, the image data transfer processing unit 18 transfers the image data written in the frame buffer 36 in step S16 or S18 to the display control unit 40 (S22).

次に、表示制御部40が、ステップS22で転送された画像データに対応する画像を表示部50の電子ペーパー52に表示させる制御を行う(S24)。   Next, the display control unit 40 performs control to display an image corresponding to the image data transferred in step S22 on the electronic paper 52 of the display unit 50 (S24).

なお、ステップS22及びS24の処理は、ステップS20の処理と並行して行われる。   Note that the processes in steps S22 and S24 are performed in parallel with the process in step S20.

そして、画像処理装置1は、アプリケーションの終了イベントが発生するまで(S26のN)、ステップS10〜S24の処理を繰り返し行う。   Then, the image processing apparatus 1 repeats the processes in steps S10 to S24 until an application end event occurs (N in S26).

なお、アプリケーション処理部14は、入力操作検出処理部12の検出結果に基づいてユーザーによる入力操作が途切れたタイミングを検出し、当該入力操作が途切れたタイミングで、描画処理部16に対してキャッシュ情報の更新要求を行うようにしてもよい。   Note that the application processing unit 14 detects the timing when the input operation by the user is interrupted based on the detection result of the input operation detection processing unit 12, and cache information to the drawing processing unit 16 at the timing when the input operation is interrupted. An update request may be made.

また、例えば、アプリケーション処理部14は、フレームバッファー36に書き込んだ画像データの更新を伴うイベントを検出し、当該画像データが更新される前に前記更新要求を行うようにしてもよい。描画処理部16は、当該更新要求に応じて、アプリケーション処理部14によりフレームバッファー36に書き込まれた画像データが更新される前に、当該画像データに基づいてキャッシュ情報を更新する。   Further, for example, the application processing unit 14 may detect an event that involves updating the image data written in the frame buffer 36 and make the update request before the image data is updated. In response to the update request, the drawing processing unit 16 updates the cache information based on the image data before the image data written in the frame buffer 36 by the application processing unit 14 is updated.

また、アプリケーション処理部14は、1つのイベントに対して、画像データを複数回に分けてフレームバッファー36に書き込む場合は、フレームバッファー36に画像データを書き込む毎に、画像データ転送処理部18に対して、当該画像データを表示制御部40に転送するための転送要求を行うようにしてもよい。画像データ転送処理部18は、当該転送要求に応じて、フレームバッファー36に書き込まれた各画像データを順番に表示制御部40に転送する。   In addition, when the application processing unit 14 writes the image data to the frame buffer 36 in a plurality of times for one event, the application processing unit 14 writes the image data to the frame buffer 36 each time the image data is written to the frame buffer 36. Thus, a transfer request for transferring the image data to the display control unit 40 may be made. The image data transfer processing unit 18 sequentially transfers each image data written in the frame buffer 36 to the display control unit 40 in response to the transfer request.

アプリケーション処理部14は、キャッシュ情報の更新要求として、フレームバッファー36に書き込んだ画像データと同じ画像データを生成させるための描画要求を行うようにしてもよい。描画処理部16は、当該描画要求に応じて、当該画像データを生成してフレームバッファー36に書き込み、キャッシュ情報を更新する。   The application processing unit 14 may make a drawing request for generating the same image data as the image data written in the frame buffer 36 as a cache information update request. In response to the drawing request, the drawing processing unit 16 generates the image data, writes it in the frame buffer 36, and updates the cache information.

図3は、アプリケーション処理部14が更新要求として描画要求を行う場合(描画要求が更新要求を兼ねる場合)の描画処理のフローチャートの一例を示す図である。   FIG. 3 is a diagram illustrating an example of a flowchart of a drawing process when the application processing unit 14 makes a drawing request as an update request (when the drawing request also serves as an update request).

電子ペーパー52の表示画像の更新イベントが発生した場合(S30のY)、当該イベントがユーザーの入力操作に基づく所定のイベントでなければ(S32のN)、アプリケーション処理部14が、発生したイベントに応じて、描画処理部16に画像データの描画要求を行う(S34)。   When an update event of the display image of the electronic paper 52 occurs (Y in S30), if the event is not a predetermined event based on the user's input operation (N in S32), the application processing unit 14 determines that the event has occurred. In response, a drawing request for image data is sent to the drawing processing unit 16 (S34).

一方、発生したイベントが所定のイベントであれば(S32のY)、アプリケーション処理部14が、発生したイベントに応じて、フレームバッファーに画像データの少なくとも一部を書き込み、描画処理部に当該画像データの描画要求を行う(S36)。   On the other hand, if the event that has occurred is a predetermined event (Y in S32), the application processing unit 14 writes at least a part of the image data in the frame buffer in accordance with the event that has occurred, and the image data is stored in the drawing processing unit. Is made (S36).

次に、画像データ転送処理部18が、ステップS36でフレームバッファー36に書き込まれた画像データを表示制御部40に転送する(S38)。   Next, the image data transfer processing unit 18 transfers the image data written in the frame buffer 36 in step S36 to the display control unit 40 (S38).

次に、表示制御部40が、ステップS38で転送された画像データに対応する画像を表示部50の電子ペーパー52に表示させる制御を行う(S40)。   Next, the display control unit 40 performs control to display an image corresponding to the image data transferred in step S38 on the electronic paper 52 of the display unit 50 (S40).

次に、ステップS34又はS36の描画要求に対して、描画処理部16が、キャッシュ情報を用いて、アプリケーション処理部14からの描画要求に応じた画像データを生成し、当該画像データをフレームバッファー36に書き込み、キャッシュ情報を更新する(S42)。このステップS42の処理は、ステップS38及びS40の処理と並行して行われる。   Next, in response to the drawing request in step S34 or S36, the drawing processing unit 16 uses the cache information to generate image data corresponding to the drawing request from the application processing unit 14, and the image data is stored in the frame buffer 36. And the cache information is updated (S42). The process of step S42 is performed in parallel with the processes of steps S38 and S40.

次に、画像データ転送処理部18が、ステップS42でフレームバッファー36に書き込まれた画像データを表示制御部40に転送する(S44)。   Next, the image data transfer processing unit 18 transfers the image data written in the frame buffer 36 in step S42 to the display control unit 40 (S44).

次に、表示制御部40が、ステップS44で転送された画像データに対応する画像を表示部50の電子ペーパー52に表示させる制御を行う(S46)。   Next, the display control unit 40 performs control to display an image corresponding to the image data transferred in step S44 on the electronic paper 52 of the display unit 50 (S46).

そして、画像処理装置1は、アプリケーションの終了イベントが発生するまで(S48のN)、ステップS30〜S46の処理を繰り返し行う。   Then, the image processing apparatus 1 repeats the processes in steps S30 to S46 until an application end event occurs (N in S48).

このような処理を行う本実施形態の画像処理装置としては、電子ペーパーを用いた任意の電子機器が考えられるが、以下では、電子書籍端末を例に挙げ、より詳細に説明する。   As an image processing apparatus according to the present embodiment that performs such processing, an arbitrary electronic device using electronic paper is conceivable. Hereinafter, an electronic book terminal will be described as an example and described in more detail.

2.電子書籍端末
2−1.電子書籍端末の構成
図4は、本実施形態の電子書籍端末の外観図であり、図5は、本実施形態の電子書籍端末内部のハードウェア構成例を示す図である。
2. Electronic book terminal 2-1. Configuration of Electronic Book Terminal FIG. 4 is an external view of the electronic book terminal of the present embodiment, and FIG. 5 is a diagram illustrating an example of a hardware configuration inside the electronic book terminal of the present embodiment.

図5に示すように、本実施形態の電子書籍端末100は、CPU110、入力ボタン120、内部メモリー130、EPDコントローラー140、ディスプレイ150、スピーカー160、USBインターフェース170等の構成要素を含んで構成されており、これらの構成要素は、バス180を介して、各種データの受け渡しができるようになっている。本実施形態の電子書籍端末100は、図5の構成要素(各部)の一部を省略又は変更したり、他の構成要素を付加した構成としてもよい。   As shown in FIG. 5, the electronic book terminal 100 according to the present embodiment includes components such as a CPU 110, an input button 120, an internal memory 130, an EPD controller 140, a display 150, a speaker 160, and a USB interface 170. These components can exchange various data via the bus 180. The electronic book terminal 100 of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 5 are omitted or changed, or other components are added.

入力ボタン120は、ユーザーによる入力操作に用いられ、各種のハードボタン120aや各種のソフトボタン120b等(図4参照)により構成される。なお、入力ボタン120は、図1の操作部20に相当する。   The input button 120 is used for an input operation by the user, and includes various hard buttons 120a and various soft buttons 120b (see FIG. 4). The input button 120 corresponds to the operation unit 20 in FIG.

内部メモリー130は、CPU110が各種の計算処理や制御処理を行うためのプログラムやデータ等を記憶している。内部メモリー130には、ファイル操作等の基本処理やハードウェアとのインターフェース処理などを行うオペレーティングシステム131と、描画用のデータ構造(クラス)や種々のライブラリー関数を有し汎用的な描画処理を行うグラフィックシステム132がインストールされている。グラフィックシステム132が組み込まれていることで、描画を伴う種々のアプリケーションを、各種のデータ構造(クラス)やライブラリー関数を利用して開発することができるので、開発コストやバグの混入を低減させることができる等の利点がある。   The internal memory 130 stores programs, data, and the like for the CPU 110 to perform various calculation processes and control processes. The internal memory 130 has an operating system 131 that performs basic processing such as file operations and hardware interface processing, a data structure (class) for drawing, and various library functions, and general-purpose drawing processing. A graphics system 132 to be installed is installed. Since the graphic system 132 is incorporated, various applications involving drawing can be developed using various data structures (classes) and library functions, thereby reducing development costs and bugs. There are advantages such as being able to.

また、内部メモリー130は、ディスプレイ150に表示されたページに対してペン入力により手書きの文字や図形等を書き込む(追加する)ための手書きアプリケーション133が記憶されている。この手書きアプリケーション133は最初からインストールされていてもよいし、例えば、USBインターフェース170を介して、パーソナルコンピューター等からインストールしてもよい。   In addition, the internal memory 130 stores a handwriting application 133 for writing (adding) handwritten characters, graphics, and the like by pen input to a page displayed on the display 150. The handwriting application 133 may be installed from the beginning, or may be installed from a personal computer or the like via the USB interface 170, for example.

また、内部メモリー130は、電子書籍(コンテンツ)の各ページの画像データ等が格納されたコンテンツファイル134が記憶されている。このコンテンツファイル134は、最初から内部メモリー130に保存されていてもよいし、例えば、USBインターフェース170を介して、パーソナルコンピューターやUSBメモリー等からダウンロードしてもよい。   The internal memory 130 stores a content file 134 that stores image data of each page of the electronic book (content). The content file 134 may be stored in the internal memory 130 from the beginning, or may be downloaded from a personal computer, a USB memory, or the like via the USB interface 170, for example.

内部メモリー130は、CPU110の作業領域も含み、特に、本実施形態では、記憶領域の一部に、コンテンツファイル134に含まれる画像データやユーザーによる所定の入力操作に応じて作成された画像データ等を格納するフレームバッファー135、及び、フレームバッファー135への画像データの書き込み処理を高速化するためのキャッシュ情報を記憶するキャッシュ136が設けられている。   The internal memory 130 also includes a work area of the CPU 110. In particular, in this embodiment, image data included in the content file 134, image data created in response to a predetermined input operation by the user, and the like are part of the storage area. And a cache 136 for storing cache information for speeding up the process of writing image data to the frame buffer 135.

一般に、内部メモリー130は、用途毎に最適な、物理的に分離された複数のメモリーにより構成される。なお、内部メモリー130は、図1の記憶部30に相当する。また、手書きアプリケーション133とコンテンツファイル134は、それぞれ、図1のアプリケーションプログラム32とデータファイル34に相当する。また、フレームバッファー135とキャッシュ136は、それぞれ、図1のフレームバッファー36とキャッシュ38に相当する。   In general, the internal memory 130 includes a plurality of physically separated memories that are optimal for each application. The internal memory 130 corresponds to the storage unit 30 in FIG. The handwriting application 133 and the content file 134 correspond to the application program 32 and the data file 34 in FIG. 1, respectively. The frame buffer 135 and the cache 136 correspond to the frame buffer 36 and the cache 38 in FIG. 1, respectively.

スピーカー160は、CPU110の制御により、各種の音や音声を出力する。なお、スピーカー160は、図1の音出力部60に相当する。   The speaker 160 outputs various sounds and sounds under the control of the CPU 110. The speaker 160 corresponds to the sound output unit 60 of FIG.

USBインターフェース170は、USBケーブルやUSBメモリー等が接続され、CPU110の制御により、パーソナルコンピューターやUSBメモリー等とデータ通信を行う。なお、USBインターフェース170は、図1の通信部70に相当する。   The USB interface 170 is connected to a USB cable, a USB memory, or the like, and performs data communication with a personal computer, a USB memory, or the like under the control of the CPU 110. The USB interface 170 corresponds to the communication unit 70 in FIG.

ディスプレイ150は、EPDパネル152を備え、EPDパネル152の表面には、フレームバッファー135に格納されている画像データに対応する画像が表示される。   The display 150 includes an EPD panel 152, and an image corresponding to the image data stored in the frame buffer 135 is displayed on the surface of the EPD panel 152.

図6は、ディスプレイ150の構成例を示す図である。図6の例は、アクティブマトリックス方式の電気泳動表示装置(EPD:Electrophoretic Display)である。なお、図6においてデジタイザー154は図示を省略している。   FIG. 6 is a diagram illustrating a configuration example of the display 150. The example of FIG. 6 is an active matrix type electrophoretic display (EPD). In FIG. 6, the digitizer 154 is not shown.

図6に示すように、ディスプレイ150は、EPDパネル152、走査線駆動回路221、データ線駆動回路222、共通電源変調回路224を含む。   As shown in FIG. 6, the display 150 includes an EPD panel 152, a scanning line driving circuit 221, a data line driving circuit 222, and a common power supply modulation circuit 224.

走査線駆動回路221、データ線駆動回路222、共通電源変調回路224は、それぞれEPDコントローラー140(図6では不図示)と接続されている。   The scanning line driving circuit 221, the data line driving circuit 222, and the common power supply modulation circuit 224 are each connected to the EPD controller 140 (not shown in FIG. 6).

EPDパネル152には、走査線駆動回路221から延びる複数の走査線226と、データ線駆動回路222から延びる複数のデータ線228とが形成されており、これらの交差位置に対応して複数の画素200が設けられている。   In the EPD panel 152, a plurality of scanning lines 226 extending from the scanning line driving circuit 221 and a plurality of data lines 228 extending from the data line driving circuit 222 are formed, and a plurality of pixels corresponding to these intersection positions are formed. 200 is provided.

走査線駆動回路221は、j本の走査線226(Y1、Y2、・・・、Yj)により各画素200に接続されている。走査線駆動回路221は、EPDコントローラー140の制御に従って1行目からj行目までの走査線226を順次選択することで、画素200に設けられた駆動用TFT(Thin Film Transistor)208(図7参照)のオンタイミングを規定する選択信号を供給する。   The scanning line driving circuit 221 is connected to each pixel 200 by j scanning lines 226 (Y1, Y2,..., Yj). The scanning line driving circuit 221 sequentially selects the scanning lines 226 from the first row to the j-th row under the control of the EPD controller 140, so that a driving TFT (Thin Film Transistor) 208 provided in the pixel 200 (FIG. 7). A selection signal that defines the on-timing of reference).

データ線駆動回路222は、k本のデータ線228(X1、X2、・・・、Xk)により各画素200に接続されている。データ線駆動回路222は、転送データに基づくEPDコントローラー140の制御に従って、画素200の各々に1ビットの画像信号を供給する。なお、本実施形態では、画素データ「0」を規定する場合には、ローレベルの画像信号を画素200に供給し、画素データ「1」を規定する場合には、ハイレベルの画像信号を画素200に供給するものとする。   The data line driving circuit 222 is connected to each pixel 200 by k data lines 228 (X1, X2,..., Xk). The data line driving circuit 222 supplies a 1-bit image signal to each of the pixels 200 according to the control of the EPD controller 140 based on the transfer data. In this embodiment, when defining pixel data “0”, a low-level image signal is supplied to the pixel 200, and when defining pixel data “1”, a high-level image signal is applied to the pixel 200. 200.

EPDパネル152には、また、共通電源変調回路224から延びる低電位電源線209(Vss)、高電位電源線210(Vdd)、共通電極配線215(Vcom)、第1のパルス信号線251(S)、第2のパルス信号線252(S)が設けられており、それぞれの配線は画素200と接続されている。共通電源変調回路224は、EPDコントローラー140の制御に従って上記配線のそれぞれに供給する各種信号を生成する一方、これら各配線の電気的な接続及び切断(ハイインピーダンス化、Hi−Z)を行う。 The EPD panel 152 also includes a low potential power supply line 209 (Vss), a high potential power supply line 210 (Vdd), a common electrode wiring 215 (Vcom), and a first pulse signal line 251 (S) extending from the common power supply modulation circuit 224. 1 ), a second pulse signal line 252 (S 2 ) is provided, and each wiring is connected to the pixel 200. The common power supply modulation circuit 224 generates various signals to be supplied to each of the wirings under the control of the EPD controller 140, and electrically connects and disconnects these wirings (high impedance, Hi-Z).

図7は、図6の画素200の回路構成図である。図7において、図6と同じ配線には同じ番号を付しており、説明は省略する。また、図7において、全画素に共通の共通電極配線215は図示を省略している。   FIG. 7 is a circuit configuration diagram of the pixel 200 of FIG. In FIG. 7, the same numbers are assigned to the same wirings as in FIG. In FIG. 7, the common electrode wiring 215 common to all pixels is not shown.

図7に示すように、画素200には、駆動用TFT208、ラッチ回路230、スイッチ回路240が設けられている。画素200は、ラッチ回路230により画像信号を電位として保持するSRAM(Static Random Access Memory)方式の構成をとる。   As shown in FIG. 7, the pixel 200 is provided with a driving TFT 208, a latch circuit 230, and a switch circuit 240. The pixel 200 has an SRAM (Static Random Access Memory) type configuration in which an image signal is held as a potential by the latch circuit 230.

駆動用TFT208は、N−MOSトランジスターからなる画素スイッチング素子である。駆動用TFT208のゲート端子は走査線226に接続され、ソース端子はデータ線228に接続され、ドレイン端子はラッチ回路230のデータ入力端子に接続されている。ラッチ回路230は転送インバーター230tと帰還インバーター230fとを備えている。インバーター230t、230fには、低電位電源線209(Vss)と高電位電源線210(Vdd)から電源電圧が供給される。   The driving TFT 208 is a pixel switching element composed of an N-MOS transistor. The gate terminal of the driving TFT 208 is connected to the scanning line 226, the source terminal is connected to the data line 228, and the drain terminal is connected to the data input terminal of the latch circuit 230. The latch circuit 230 includes a transfer inverter 230t and a feedback inverter 230f. A power supply voltage is supplied to the inverters 230t and 230f from the low potential power supply line 209 (Vss) and the high potential power supply line 210 (Vdd).

スイッチ回路240は、トランスミッションゲートTG1、TG2からなり、ラッチ回路230に記憶された画素データのレベルに応じて、画素電極195(図8(B)、図8(C)参照)に信号を出力する。なお、Vaは、1つの画素200の画素電極へ印加する電位を意味する。   The switch circuit 240 includes transmission gates TG1 and TG2, and outputs a signal to the pixel electrode 195 (see FIGS. 8B and 8C) according to the level of the pixel data stored in the latch circuit 230. . Note that Va means a potential applied to the pixel electrode of one pixel 200.

ラッチ回路230に画素データ「1」(ハイレベルの画像信号)が記憶されて、トランスミッションゲートTG1がオン状態となると、スイッチ回路240はVaとしてパルス信号(駆動パルス)Sを供給する。一方、ラッチ回路230に画素データ「0」(ローレベルの画像信号)が記憶されて、トランスミッションゲートTG2がオン状態となると、スイッチ回路240はVaとしてパルス信号(駆動パルス)Sを供給する。このような回路構成により、制御部によって、それぞれの画素200の画素電極に対して印加する電位を制御することが可能である。 And pixel data "1" in the latch circuit 230 (a high-level image signal) is stored, the transmission gate TG1 is turned on, the switch circuit 240 is a pulse signal to be supplied (drive pulse) S 1 as Va. On the other hand, the pixel data "0" in the latch circuit 230 (image signal of a low level) is stored, when the transmission gate TG2 is turned on, the switch circuit 240 supplies a pulse signal (drive pulse) S 2 as Va. With such a circuit configuration, the potential applied to the pixel electrode of each pixel 200 can be controlled by the control unit.

本実施形態のEPDパネル152は、例えば、二粒子系マイクロカプセル型の電気泳動方式のEPDパネルであってもよい。分散液は無色透明、電気泳動粒子は白色又は黒色のものであるとすると、白色又は黒色の2色を基本色として少なくとも2色を表示できる。   The EPD panel 152 of the present embodiment may be, for example, a two-particle microcapsule type electrophoretic EPD panel. If the dispersion is colorless and transparent, and the electrophoretic particles are white or black, at least two colors can be displayed with two colors of white or black as basic colors.

図8(A)は、電気泳動素子262の構成例を示す図である。電気泳動素子272は素子基板270と対向基板271(図8(B)、図8(C)参照)との間に挟まれている。電気泳動素子272は、複数のマイクロカプセル260を配列して構成される。マイクロカプセル260は、例えば無色透明な分散液と、複数の白色粒子(電気泳動粒子)267と、複数の黒色粒子(電気泳動粒子)266とを封入している。本実施形態では、例えば白色粒子267は負に帯電しており、黒色粒子266は正に帯電しているとする。   FIG. 8A is a diagram illustrating a configuration example of the electrophoretic element 262. The electrophoretic element 272 is sandwiched between the element substrate 270 and the counter substrate 271 (see FIGS. 8B and 8C). The electrophoretic element 272 is configured by arranging a plurality of microcapsules 260. The microcapsule 260 encloses, for example, a colorless transparent dispersion, a plurality of white particles (electrophoretic particles) 267, and a plurality of black particles (electrophoretic particles) 266. In the present embodiment, for example, it is assumed that the white particles 267 are negatively charged and the black particles 266 are positively charged.

図8(B)は、EPDパネル152の部分断面図である。素子基板270と対向基板271は、マイクロカプセル260を配列してなる電気泳動素子272を狭持している。EPDパネル152は、素子基板270の電気泳動素子272側に、複数の画素電極195が形成された駆動電極層280を含む。図8(B)では、画素電極195として画素電極195Aと画素電極195Bが示されている。画素電極195により、画素ごとに電位を供給することが可能である(例えば、Va、Vb)。ここで、画素電極195Aを有する画素を画素200Aとし、画素電極195Bを有する画素を画素200Bとする。画素200A、画素200Bは画素200(図6、図7参照)に対応する2つの画素である。   FIG. 8B is a partial cross-sectional view of the EPD panel 152. The element substrate 270 and the counter substrate 271 sandwich an electrophoretic element 272 in which microcapsules 260 are arranged. The EPD panel 152 includes a drive electrode layer 280 in which a plurality of pixel electrodes 195 are formed on the electrophoretic element 272 side of the element substrate 270. In FIG. 8B, a pixel electrode 195A and a pixel electrode 195B are shown as the pixel electrode 195. The pixel electrode 195 can supply a potential to each pixel (for example, Va and Vb). Here, a pixel having the pixel electrode 195A is referred to as a pixel 200A, and a pixel having the pixel electrode 195B is referred to as a pixel 200B. The pixel 200A and the pixel 200B are two pixels corresponding to the pixel 200 (see FIGS. 6 and 7).

一方、対向基板271は透明基板であり、表示部において対向基板271側に画像表示がなされる。EPDパネル152は、対向基板271の電気泳動素子272側に、平面形状の共通電極197が形成された共通電極層282を含む。なお、共通電極197は透明電極である。共通電極197は、画素電極195と異なり全画素に共通の電極であり、電位Vcomが印加される。   On the other hand, the counter substrate 271 is a transparent substrate, and an image is displayed on the counter substrate 271 side in the display unit. The EPD panel 152 includes a common electrode layer 282 in which a common electrode 197 having a planar shape is formed on the electrophoretic element 272 side of the counter substrate 271. The common electrode 197 is a transparent electrode. Unlike the pixel electrode 195, the common electrode 197 is an electrode common to all the pixels, and the potential Vcom is applied.

共通電極層282と駆動電極層280との間に設けられた電気泳動表示層290に電気泳動素子272が配置されており、電気泳動表示層290が表示領域となる。共通電極197と画素電極(例えば、195A、195B)との間の電位差に応じて、画素毎に所望の表示色を表示させることができる。   An electrophoretic element 272 is disposed on an electrophoretic display layer 290 provided between the common electrode layer 282 and the drive electrode layer 280, and the electrophoretic display layer 290 becomes a display region. A desired display color can be displayed for each pixel in accordance with a potential difference between the common electrode 197 and a pixel electrode (for example, 195A and 195B).

図8(B)では、共通電極側電位Vcomが画素200Aの画素電極の電位Vaよりも高電位である。このとき、負に帯電した白色粒子267が共通電極197側に引き寄せられ、正に帯電した黒色粒子266が画素電極195A側に引き寄せられるため、画素200Aは白色を表示していると視認される。   In FIG. 8B, the common electrode side potential Vcom is higher than the potential Va of the pixel electrode of the pixel 200A. At this time, the negatively charged white particles 267 are attracted to the common electrode 197 side, and the positively charged black particles 266 are attracted to the pixel electrode 195A side, so that the pixel 200A is visually recognized as displaying white.

図8(C)では、共通電極側電位Vcomが画素200Aの画素電極の電位Vaよりも低電位である。このときは逆に、正に帯電した黒色粒子266が共通電極197側に引き寄せられ、負に帯電した白色粒子267が画素電極195A側に引き寄せられるため、画素200Aは黒色を表示していると視認される。なお、図8(C)の構成は図8(B)と同様であり説明は省略する。また、図8(B)、図8(C)ではVa、Vb、Vcomを固定された電位として説明したが、実際にはVa、Vb、Vcomは時間とともに電位が変化する。   In FIG. 8C, the common electrode side potential Vcom is lower than the potential Va of the pixel electrode of the pixel 200A. At this time, on the contrary, the positively charged black particles 266 are attracted to the common electrode 197 side, and the negatively charged white particles 267 are attracted to the pixel electrode 195A side, so that it is visually recognized that the pixel 200A displays black. Is done. Note that the structure in FIG. 8C is similar to that in FIG. 8 (B) and 8 (C), Va, Vb, and Vcom are described as fixed potentials. However, in reality, Va, Vb, and Vcom change with time.

ここで、図8(B)、図8(C)の画素200Aの例では、それぞれ、白色粒子267、黒色粒子266が全て共通電極197側に引き寄せられている状態(いわゆる飽和状態)を表している。しかし、飽和状態にして基本色(白色、黒色)を表示するだけでなく、例えば反対方向の電界を適当な時間だけ印加することで中間色(ライトグレー、ダークグレー)を表示することも可能である。   Here, in the example of the pixel 200A in FIGS. 8B and 8C, the white particles 267 and the black particles 266 are all drawn toward the common electrode 197 side (so-called saturated state), respectively. Yes. However, it is possible not only to display the basic colors (white and black) in a saturated state but also to display intermediate colors (light gray and dark gray) by applying an electric field in the opposite direction for an appropriate time, for example.

図5に戻り、ディスプレイ150は、さらにデジタイザー154を備えている。デジタイザー154は、EPDパネル152の裏面に対向して設けられ、入力用のタッチペン(以下、単に「ペン」という)やユーザーの指等がEPDパネル152に接触した位置を検出し、接触位置の情報を出力する。例えば、ユーザーがペンを用いて文字や図形等を入力する操作や、指をスライドさせてページ送りやページ戻し、ページの拡大や縮小等のページ操作を行った場合、デジタイザー154は、これらの操作が行われた際の接触位置の情報を出力する。   Returning to FIG. 5, the display 150 further includes a digitizer 154. The digitizer 154 is provided so as to face the back surface of the EPD panel 152, detects a position where an input touch pen (hereinafter simply referred to as “pen”), a user's finger, or the like touches the EPD panel 152, and provides information on the contact position. Is output. For example, when the user performs operations such as inputting characters or figures using a pen, or sliding a finger to perform page operations such as page advance or page return, page enlargement or reduction, the digitizer 154 performs these operations. Outputs the information of the contact position when.

なお、ディスプレイ150は、図1の表示部50に相当する。また、EPDパネル152とデジタイザー154は、それぞれ、図1の電子ペーパー52と接触位置検出部54に相当する。   The display 150 corresponds to the display unit 50 in FIG. The EPD panel 152 and the digitizer 154 correspond to the electronic paper 52 and the contact position detection unit 54 in FIG. 1, respectively.

EPDコントローラー140は、フレームバッファー135に書き込まれた画像データに対応する画像をディスプレイ150のEPDパネル152に表示させる制御を行う。EPDコントローラー140には、EPDパネル152に表示させた画像に対応する画像データの履歴を管理するためのメモリーパイプライン142が設けられている。このメモリーパイプライン142は、EPDパネル152に表示させた画像に対応する画像データ(フレームバッファー135に書き込まれた画像データ)の履歴情報を時系列に保持する。EPDコントローラー140は、次に表示する画像の特性情報(各画素の色や明るさ等)とメモリーパイプライン142に保持されている履歴情報に基づき、EPDパネル152の表示特性を考慮した最適な回数や間隔で駆動パルスを発生させ、次の画像をEPDパネル152に表示させる制御を行う。   The EPD controller 140 performs control to display an image corresponding to the image data written in the frame buffer 135 on the EPD panel 152 of the display 150. The EPD controller 140 is provided with a memory pipeline 142 for managing a history of image data corresponding to an image displayed on the EPD panel 152. The memory pipeline 142 holds history information of image data (image data written in the frame buffer 135) corresponding to the image displayed on the EPD panel 152 in time series. The EPD controller 140 determines the optimum number of times considering the display characteristics of the EPD panel 152 based on the characteristic information (color and brightness of each pixel) to be displayed next and the history information held in the memory pipeline 142. Control is performed to generate drive pulses at intervals and display the next image on the EPD panel 152.

なお、EPDコントローラー140は、図1の表示制御部40に相当する。また、メモリーパイプライン142に保持される履歴情報は、図1の履歴情報42に相当する。   The EPD controller 140 corresponds to the display control unit 40 in FIG. The history information held in the memory pipeline 142 corresponds to the history information 42 in FIG.

CPU110は、オペレーティングシステム131、グラフィックシステム132、手書きアプリケーション133の各種処理を行う。特に、本実施形態では、CPU110は、入力ボタン120やEPDパネル152に対して所定の入力操作が行われた場合、当該入力操作に応じた操作信号(ページ送りやページ戻し等の操作信号)や、デジタイザー154から接触位置(ペン入力位置や指の接触位置等)の情報を受け取り、EPDパネル152に表示する少なくとも一部の画像の描画処理を高速に行う。なお、CPU110は、図1の処理部(CPU)10に相当する。   The CPU 110 performs various processes of the operating system 131, the graphic system 132, and the handwriting application 133. In particular, in the present embodiment, when a predetermined input operation is performed on the input button 120 or the EPD panel 152, the CPU 110 operates according to an operation signal (an operation signal such as page feed or page return) corresponding to the input operation. The information on the contact position (pen input position, finger contact position, etc.) is received from the digitizer 154, and at least a part of the image displayed on the EPD panel 152 is drawn at high speed. The CPU 110 corresponds to the processing unit (CPU) 10 in FIG.

次に、EPDパネル152の表示画像の上にペン入力による手書きの文字や図形等を描画する処理(以下、「手書き処理」という)を例に挙げ、本実施形態における高速描画処理の手法について説明する。   Next, a method of drawing a handwritten character or figure by pen input on the display image of the EPD panel 152 (hereinafter referred to as “handwriting process”) will be described as an example, and a method of high-speed drawing processing in this embodiment will be described. To do.

2−2.手書き処理
2−2−1.手書き処理の概要
図9は、本実施形態における手書き処理の概要についての説明図である。図9に示すように、電子書籍端末100のディスプレイ150(EPDパネル152)にページ画像と入力ボタン120bからなる画像Pが表示されている状態で、ユーザーがペン122をEPDパネル152の表面に接触させながら曲線Pを書き込む動作を行うとする。この様な動作が行われると、CPU110は、まず、EPDパネル152のペン入力領域を検出する。次に、CPU110は、手書きアプリケーション133により、フレームバッファー135のペン入力領域に対応する記憶領域に曲線Pに対応する軌跡の画像データ(以下、「軌跡画像データ」という)PDを上書きする。これにより、EPDパネル152に表示されている画像Q(ページ画像と入力ボタン120bからなる画像)に対応してフレームバッファー135に格納されている画像データQDの一部に軌跡画像データPDが上書きされる。フレームバッファー135に書き込まれた軌跡画像データPDは、EPDコントローラー140のメモリーパイプライン142に投入され、EPDコントローラー140の制御により、メモリーパイプライン142の入力側から出力側まで伝搬し、EPDパネル152に曲線Pが表示される。図9において、太い方の線がこの手書きアプリケーション133による直接描画のデータの流れを示している。
2-2. Handwriting process 2-2-1. Overview of Handwriting Processing FIG. 9 is an explanatory diagram about the overview of handwriting processing in the present embodiment. As shown in FIG. 9, the user touches the surface of the EPD panel 152 with the pen 122 in a state where the image P including the page image and the input button 120 b is displayed on the display 150 (EPD panel 152) of the electronic book terminal 100. Suppose that the operation of writing the curve P is performed. When such an operation is performed, the CPU 110 first detects a pen input area of the EPD panel 152. Next, the CPU 110 overwrites the image data (hereinafter referred to as “trajectory image data”) PD of the trajectory corresponding to the curve P in the storage area corresponding to the pen input area of the frame buffer 135 by the handwriting application 133. As a result, the trajectory image data PD is overwritten on a part of the image data QD stored in the frame buffer 135 corresponding to the image Q (image consisting of the page image and the input button 120b) displayed on the EPD panel 152. The The trajectory image data PD written in the frame buffer 135 is input to the memory pipeline 142 of the EPD controller 140, and propagates from the input side to the output side of the memory pipeline 142 under the control of the EPD controller 140, and is transmitted to the EPD panel 152. A curve P is displayed. In FIG. 9, the thicker line indicates the flow of data for direct drawing by the handwriting application 133.

本実施形態では、CPU110は、手書きアプリケーション133による直接描画と並行して、グラフィックシステム132を介した間接描画も行う。具体的には、CPU110は、手書きアプリケーション133により、グラフィックシステム132のライブラリー関数を介して入力ボタン120bの再描画とペン入力領域に対する曲線Pの描画を要求する。次に、CPU110は、グラフィックシステム132により、入力ボタン102bの画像データと曲線Pに対応する軌跡画像データPDを作成し、これらのデータをフレームバッファー135の対応する記憶領域に書き込む。フレームバッファー135に書き込まれた入力ボタン102bの画像データと軌跡画像データPDは、EPDコントローラー140のメモリーパイプライン142に投入され、EPDコントローラー140の制御により、メモリーパイプライン142の入力側から出力側まで伝搬する。これにより、EPDパネル152に入力ボタン102bの画像が再表示されるとともに曲線Pが表示される。図9において、細い方の線がこのグラフィックシステム132を介した間接描画のデータの流れを示している。   In the present embodiment, the CPU 110 performs indirect drawing via the graphic system 132 in parallel with direct drawing by the handwriting application 133. Specifically, the CPU 110 requests the handwriting application 133 to redraw the input button 120b and draw the curve P in the pen input area via the library function of the graphic system 132. Next, the CPU 110 creates the image data of the input button 102 b and the locus image data PD corresponding to the curve P by the graphic system 132 and writes these data in the corresponding storage area of the frame buffer 135. The image data of the input button 102b and the trajectory image data PD written in the frame buffer 135 are input to the memory pipeline 142 of the EPD controller 140, and from the input side to the output side of the memory pipeline 142 under the control of the EPD controller 140. Propagate. As a result, the image of the input button 102b is displayed again on the EPD panel 152 and the curve P is displayed. In FIG. 9, the thin line indicates the flow of data for indirect drawing via the graphic system 132.

このように、本実施形態では、処理の遅いグラフィックシステム132を介さない直接描画を行うことにより、EPDパネル152に手書きの軌跡が高速に描画され、操作性を向上さている。一方、グラフィックシステム132を介する間接描画を行うことにより、グラフィックシステム132がキャッシュ136に記憶されているキャッシュ情報を更新するので、フレームバッファー135の内容とキャッシュ136の内容の整合性を維持することができる。なお、この間接描画により、EPDパネル152に手書きの軌跡が同じ位置に二度書きされることになるが、ユーザーからは二度書きされたことが視認できないので特に問題は生じない。   As described above, in the present embodiment, by performing direct drawing without using the slow processing graphic system 132, a handwritten locus is drawn on the EPD panel 152 at high speed, and operability is improved. On the other hand, since the graphic system 132 updates the cache information stored in the cache 136 by performing indirect drawing via the graphic system 132, the consistency between the contents of the frame buffer 135 and the contents of the cache 136 can be maintained. it can. Note that, by this indirect drawing, a handwritten locus is written twice at the same position on the EPD panel 152. However, since the user cannot visually recognize that the handwritten locus has been written twice, there is no particular problem.

2−2−2.ハードウェア/ソフトウェア階層
図10は、本実施形態におけるハードウェア/ソフトウェア階層及びペン入力されたデータの流れを示す図である。
2-2-2. Hardware / Software Hierarchy FIG. 10 is a diagram showing the hardware / software hierarchy and the flow of pen input data in this embodiment.

本実施形態では、CPU110が実行するソフトウェアは、最下層から順にオペレーティングシステム131、グラフィックシステム132、手書きアプリケーション133の順に階層化されている。ハードウェアとのインターフェースはオペレーティングシステム131が行う。グラフィックシステム132は、オペレーティングシステム131と手書きアプリケーション133の間のデータの受け渡しを仲介する。   In the present embodiment, software executed by the CPU 110 is hierarchized in order of the operating system 131, the graphic system 132, and the handwriting application 133 from the lowest layer. The operating system 131 interfaces with the hardware. The graphic system 132 mediates data exchange between the operating system 131 and the handwriting application 133.

ユーザーがEPDパネル152に対してペン入力(タッチペンによる手書き)を行うと、デジタイザー154がペン動作のxy座標を検出し、オペレーティングシステム131のデジタイザードライバー131aに当該xy座標を送る。   When the user performs pen input (handwriting with a touch pen) on the EPD panel 152, the digitizer 154 detects the xy coordinates of the pen operation and sends the xy coordinates to the digitizer driver 131a of the operating system 131.

デジタイザードライバー131aは、ペン動作のxy座標を受け取り、ペン動作を解析し、グラフィックシステム132にペン動作情報とxy座標を送る。   The digitizer driver 131a receives the xy coordinates of the pen movement, analyzes the pen movement, and sends the pen movement information and the xy coordinates to the graphic system 132.

グラフィックシステム132は、ペン動作情報とxy座標を受け取り、ペン動作イベント(ペンタッチ、ペン移動、ペンリリースの各イベント)を発生させ、手書きアプリケーション133にペン動作イベントとxy座標を送る。   The graphic system 132 receives the pen motion information and the xy coordinates, generates a pen motion event (pen touch, pen movement, and pen release events), and sends the pen motion event and the xy coordinates to the handwriting application 133.

手書きアプリケーション133は、ペン動作イベントとxy座標を受け取り、ペン入力の軌跡情報(手書き情報)を直線近似される部分に分けて各直線の座標(始点と終点の各座標)を計算し、内部メモリー130の手書き軌跡データに保存する。   The handwriting application 133 receives the pen action event and the xy coordinates, divides the pen input trajectory information (handwriting information) into linearly approximated parts, calculates the coordinates of each straight line (starting point and end point coordinates), and stores the internal memory. The data is stored in 130 handwritten trajectory data.

手書きアプリケーション133は、内部メモリー130に保存済みの手書き軌跡データから各直線の座標を順番に読み出し、各直線の画像データを作成し、グラフィックシステム132を介さずに、フレームバッファー135に直接描画する。   The handwriting application 133 sequentially reads the coordinates of each straight line from the handwritten trajectory data stored in the internal memory 130, creates image data of each straight line, and directly draws it in the frame buffer 135 without using the graphic system 132.

さらに、手書きアプリケーション133は、グラフィックシステム132を介して、フレームバッファードライバー131bに対して、各直線の画像データをEPDコントローラー140に転送するための転送命令を発行する。この転送命令を受けて、フレームバッファードライバー131bは、フレームバッファー135に描画された各直線の画像データを最優先にEPDコントローラー140に送る。そして、EPDコントローラー140の制御により、各直線の画像が順次EPDパネル152に表示される。   Further, the handwriting application 133 issues a transfer command for transferring the image data of each straight line to the EPD controller 140 to the frame buffer driver 131b via the graphic system 132. Upon receiving this transfer command, the frame buffer driver 131b sends the image data of each straight line drawn in the frame buffer 135 to the EPD controller 140 with the highest priority. Then, under the control of the EPD controller 140, each straight line image is sequentially displayed on the EPD panel 152.

このようなデータの流れにより、手書き軌跡の高速表示が実現される。   Such a data flow realizes a high-speed display of a handwritten locus.

一方、手書きアプリケーション133は、ペン動作イベントに基づきユーザーによるペン入力の終了を検出すると、内部メモリー130に保存されている手書き軌跡データから各直線の座標を順番に読み出し、グラフィックシステム132が用意している描画関数を呼び出すことで、グラフィックシステム132に対して各直線の描画を要求する。   On the other hand, when the handwriting application 133 detects the end of the pen input by the user based on the pen operation event, the handwriting application 133 sequentially reads the coordinates of each straight line from the handwriting locus data stored in the internal memory 130, and the graphic system 132 prepares. The graphic system 132 is requested to draw each straight line by calling the drawing function.

グラフィックシステム132は、この描画要求に応じて、各直線の画像データを作成し、オペレーティングシステム131のフレームバッファードライバー131bを介して、フレームバッファー135に描画する。   In response to the drawing request, the graphic system 132 creates image data for each straight line and draws it in the frame buffer 135 via the frame buffer driver 131b of the operating system 131.

フレームバッファー135に描画された各直線の画像データはEPDコントローラー140に順番に送られ、EPDコントローラー140の制御により、各直線の画像が順次EPDパネル152に表示される。   The image data of each straight line drawn in the frame buffer 135 is sequentially sent to the EPD controller 140, and the image of each straight line is sequentially displayed on the EPD panel 152 under the control of the EPD controller 140.

このようなデータの流れにより、EPDパネル152に対して手書き軌跡が二度書きされるものの、キャッシュ136が更新され、フレームバッファー135の内容とキャッシュ136の内容の整合性が維持される。   With such a data flow, although the handwriting trajectory is written twice on the EPD panel 152, the cache 136 is updated, and the consistency between the contents of the frame buffer 135 and the contents of the cache 136 is maintained.

なお、オペレーティングシステム131(特に、デジタイザードライバー131a)は、図1の入力操作検出処理部12に相当する。また、手書きアプリケーション133は、図1のアプリケーション処理部14に相当する。また、グラフィックシステム132は、図1の描画処理部16に相当する。また、フレームバッファードライバー131bは、図1の画像データ転送処理部18に相当する。   The operating system 131 (particularly, the digitizer driver 131a) corresponds to the input operation detection processing unit 12 in FIG. The handwriting application 133 corresponds to the application processing unit 14 in FIG. The graphic system 132 corresponds to the drawing processing unit 16 in FIG. The frame buffer driver 131b corresponds to the image data transfer processing unit 18 in FIG.

2−2−3.手書き処理のフローチャート
図11は、CPU110(手書きアプリケーション133)による手書き処理のフローチャートを示す図である。図11に示すように、CPU110は、手書きアプリケーション133の制御として、グラフィックシステム132からペン動作イベントあるいは手書き軌跡の描画を許可する描画イベントを受け取り、各イベントに応じた処理を行う。
2-2-3. Flowchart of Handwriting Processing FIG. 11 is a diagram illustrating a flowchart of handwriting processing by the CPU 110 (handwriting application 133). As illustrated in FIG. 11, as control of the handwriting application 133, the CPU 110 receives a drawing event that permits drawing of a pen operation event or a handwriting locus from the graphic system 132, and performs processing according to each event.

本実施形態では、グラフィックシステム132は、ペン動作情報とxy座標に基づき、3種類のペン動作イベントを発生させる。すなわち、グラフィックシステム132は、ペン122がEPDパネル152の表面に接触した瞬間を検出した場合はペンタッチイベントを発生させ、ペン122がEPDパネル152の表面に接触した状態で移動した瞬間を検出した場合はペン移動イベントを発生させ、ペン122がEPDパネル152の表面から離れた瞬間を検出した場合、ペンリリースイベントを発生させる。   In the present embodiment, the graphic system 132 generates three types of pen motion events based on the pen motion information and the xy coordinates. That is, the graphic system 132 generates a pen touch event when detecting the moment when the pen 122 touches the surface of the EPD panel 152 and detects the moment when the pen 122 moves while touching the surface of the EPD panel 152. Generates a pen movement event, and if it detects the moment when the pen 122 leaves the surface of the EPD panel 152, it generates a pen release event.

CPU110(手書きアプリケーション133)は、ペンタッチイベントが発生した場合(S100のY)はペンタッチイベントハンドラーの処理を行い(S102)、ペン移動イベントが発生した場合(S104のY)はペン移動イベントハンドラーの処理を行い(S106)、ペンリリースイベントが発生した場合(S108のY)はペンリリースイベントハンドラーの処理を行う(S110)。   The CPU 110 (handwriting application 133) performs the pen touch event handler process when a pen touch event occurs (Y in S100) (S102), and the pen move event handler process when a pen move event occurs (Y in S104). When a pen release event occurs (Y in S108), the pen release event handler is processed (S110).

また、CPU110(手書きアプリケーション133)は、描画イベントが発生した場合(S112のY)は描画イベントハンドラーの処理を行う(S114)。   Further, when a drawing event occurs (Y in S112), the CPU 110 (handwriting application 133) performs a drawing event handler process (S114).

そして、CPU110(手書きアプリケーション133)は、ユーザーの入力操作等によりアプリケーションの終了イベントが発生するまで(S116のY)、各イベントが発生する毎に発生したイベントに応じた処理を繰り返し行う。   Then, the CPU 110 (handwriting application 133) repeatedly performs a process corresponding to the event that occurs each time each event occurs until an application end event occurs due to a user input operation or the like (Y in S116).

次に、CPU110(手書きアプリケーション133)による、ペンタッチイベントハンドラーの処理(S102)、ペン移動イベントハンドラーの処理(S106)、ペンリリースイベントハンドラーの処理(S110)、描画イベントハンドラーの処理(S114)の詳細について、順番に説明する。以下の説明において、ペンタッチイベントが発生する前は、図12に示すように、フレームバッファー135に画像データQDが格納されており、図13に示すように、キャッシュ136のいずれかの記憶領域にも同じ画像データQDが記憶されているものとする。   Next, details of the pen touch event handler processing (S102), the pen movement event handler processing (S106), the pen release event handler processing (S110), and the drawing event handler processing (S114) by the CPU 110 (handwriting application 133). Will be described in turn. In the following description, before the pen touch event occurs, the image data QD is stored in the frame buffer 135 as shown in FIG. 12, and in any storage area of the cache 136 as shown in FIG. It is assumed that the same image data QD is stored.

図14は、CPU110(手書きアプリケーション133)によるペンタッチイベントハンドラーの処理(図11のステップS102の処理)のフローチャートの一例を示す図である。   FIG. 14 is a diagram illustrating an example of a flowchart of the pen touch event handler process (the process of step S102 of FIG. 11) by the CPU 110 (handwriting application 133).

図14に示すように、CPU110(手書きアプリケーション133)は、まず、グラフィックシステム132からペンタッチイベントとともに受け取ったペンの接触位置のxy座標に基づき、xy座標の領域判定・補正処理を行う(S200)。   As shown in FIG. 14, the CPU 110 (handwriting application 133) first performs area determination / correction processing of the xy coordinates based on the xy coordinates of the pen contact position received together with the pen touch event from the graphic system 132 (S200).

次に、CPU110(手書きアプリケーション133)は、手書きの座標か否かを判定する(S202)。CPU110(手書きアプリケーション133)は、手書きのxy座標だけでなく、例えば、ページ操作(ページ送り、ページ戻し、ページの拡大や縮小等)のxy座標も受け取るので、手書きの座標か否かを判定する必要がある。ユーザーが入力ボタン102等を操作してあらかじめ手書きモードかページ操作モードかを選択しているので、CPU110(手書きアプリケーション133)は、現在のモード情報から、受け取ったxy座標が手書きの座標か否かを判定することができる。   Next, CPU110 (handwriting application 133) determines whether it is a handwritten coordinate (S202). The CPU 110 (handwriting application 133) receives not only the handwritten xy coordinates but also the xy coordinates of, for example, page operations (page feed, page return, page enlargement / reduction, etc.), so it is determined whether or not the coordinates are handwritten coordinates. There is a need. Since the user selects the handwriting mode or the page operation mode in advance by operating the input button 102 or the like, the CPU 110 (handwriting application 133) determines whether or not the received xy coordinates are handwritten coordinates from the current mode information. Can be determined.

手書きの座標であれば(S202のY)、CPU110(手書きアプリケーション133)は、ペン122の現在のxy座標を手書き始点として記憶し(S204)、ハンドラーの処理を終了してアプリケーション133からグラフィックシステム132へ制御を戻す(S206)。   If the coordinates are handwritten coordinates (Y in S202), the CPU 110 (handwriting application 133) stores the current xy coordinates of the pen 122 as the handwriting start point (S204), ends the processing of the handler, and starts the graphics system 132 from the application 133. Control is returned to (S206).

一方、手書きの座標でなければ(S202のN)、CPU110(手書きアプリケーション133)は、ステップS204の処理を行わずに、ハンドラーの処理を終了して手書きアプリケーション133からグラフィックシステム132へ制御を戻す(S206)。   On the other hand, if the coordinates are not handwritten coordinates (N in S202), the CPU 110 (handwriting application 133) ends the processing of the handler without performing the processing in step S204, and returns control from the handwriting application 133 to the graphic system 132 ( S206).

図15は、CPU110(手書きアプリケーション133)によるペン移動イベントハンドラーの処理(図11のステップS106の処理)のフローチャートの一例を示す図である。   FIG. 15 is a diagram illustrating an example of a flowchart of the pen movement event handler process (the process of step S106 in FIG. 11) by the CPU 110 (handwriting application 133).

図15に示すように、CPU110(手書きアプリケーション133)は、まず、グラフィックシステム132からペン移動イベントとともに受け取ったペンの接触位置のxy座標に基づき、xy座標の領域判定・補正処理を行う(S300)。   As shown in FIG. 15, the CPU 110 (handwriting application 133) first performs area determination / correction processing of the xy coordinates based on the xy coordinates of the pen contact position received together with the pen movement event from the graphic system 132 (S300). .

次に、CPU110(手書きアプリケーション133)は、手書きの座標か否かを判定し(S302)、手書きの座標であれば(S302のY)、ペン122の現在のxy座標を手書き終点として記憶する(S304)。   Next, the CPU 110 (handwriting application 133) determines whether or not the coordinates are handwritten (S302). If the coordinates are handwritten (Y in S302), the current xy coordinates of the pen 122 are stored as a handwriting end point (S302). S304).

次に、CPU110(手書きアプリケーション133)は、ペン122の前のxy座標を始点、現在のxy座標を終点とする直線をフレームバッファー135に書き込む(S306、直接描画処理)。   Next, the CPU 110 (handwriting application 133) writes a straight line starting from the xy coordinate in front of the pen 122 and ending at the current xy coordinate in the frame buffer 135 (S306, direct drawing process).

そして、CPU110(手書きアプリケーション133)は、ペンリリースイベントが発生するまで(S308のN)、直線単位でS304及びS306の処理を繰り返し行い、ペンリリースイベントが発生すると(S308のY)、ハンドラーの処理を終了して手書きアプリケーション133からグラフィックシステム132へ制御を戻す(S310)。   Then, the CPU 110 (handwriting application 133) repeats the processes of S304 and S306 in units of straight lines until a pen release event occurs (N in S308). When a pen release event occurs (Y in S308), the handler process And the control is returned from the handwriting application 133 to the graphic system 132 (S310).

一方、手書きの座標でなければ(S302のN)、CPU110(手書きアプリケーション133)は、ステップS304〜S308の処理を行わずに、ハンドラーの処理を終了して手書きアプリケーション133からグラフィックシステム132へ制御を戻す(S310)。   On the other hand, if the coordinates are not handwritten coordinates (N in S302), the CPU 110 (handwriting application 133) ends the processing of the handler without performing the processes of steps S304 to S308, and controls the graphic system 132 from the handwriting application 133. Return (S310).

図16は、CPU110(手書きアプリケーション133)によるペンリリースイベントハンドラーの処理(図11のステップS110の処理)のフローチャートの一例を示す図である。   FIG. 16 is a diagram illustrating an example of a flowchart of the pen release event handler process (the process of step S110 in FIG. 11) by the CPU 110 (handwriting application 133).

図16に示すように、CPU110(手書きアプリケーション133)は、まず、グラフィックシステム132からペンリリースイベントとともに受け取ったペンの接触位置のxy座標に基づき、xy座標の領域判定・補正処理を行う(S400)。   As shown in FIG. 16, the CPU 110 (handwriting application 133) first performs area determination / correction processing of the xy coordinates based on the xy coordinates of the pen contact position received together with the pen release event from the graphic system 132 (S400). .

次に、CPU110(手書きアプリケーション133)は、手書きの座標か否かを判定し(S402)、手書きの座標であれば(S402のY)、ペン122の現在のxy座標を手書き終点として記憶する(S404)。   Next, the CPU 110 (handwriting application 133) determines whether or not the coordinates are handwritten (S402). If the coordinates are handwritten (Y in S402), the current xy coordinates of the pen 122 are stored as a handwriting end point (S402). S404).

次に、CPU110(手書きアプリケーション133)は、ペン122の前のxy座標を始点、現在のxy座標を終点とする直線をフレームバッファー135に書き込む(S406、直接描画処理)。   Next, the CPU 110 (handwriting application 133) writes a straight line starting from the xy coordinate in front of the pen 122 and ending at the current xy coordinate in the frame buffer 135 (S406, direct drawing process).

次に、CPU110(手書きアプリケーション133)は、対象ページの手書きデータに最新の軌跡ストロークとして追加する(S408)。   Next, the CPU 110 (handwriting application 133) adds the latest stroke to the handwritten data of the target page (S408).

次に、CPU110(手書きアプリケーション133)は、グラフィックシステム132に描画領域の更新イベントの発生を依頼する(S410)。グラフィックシステム132は、この依頼を受けて、手書き軌跡の描画処理が可能になった時点で、手書きアプリケーション133に対して描画イベントを発生させる。   Next, the CPU 110 (handwriting application 133) requests the graphic system 132 to generate a drawing area update event (S410). In response to this request, the graphic system 132 causes the handwriting application 133 to generate a drawing event when drawing processing of the handwriting locus becomes possible.

そして、CPU110は、ハンドラーの処理を終了して手書きアプリケーション133からグラフィックシステム132へ制御を戻す(S412)。   Then, the CPU 110 ends the processing of the handler and returns the control from the handwriting application 133 to the graphic system 132 (S412).

図17は、CPU110(手書きアプリケーション133)による直接描画処理(図15のステップS306の処理及び図16のステップS406の処理)のフローチャートの一例を示す図である。   FIG. 17 is a diagram illustrating an example of a flowchart of a direct drawing process (the process in step S306 in FIG. 15 and the process in step S406 in FIG. 16) by the CPU 110 (handwriting application 133).

図17に示すように、CPU110(手書きアプリケーション133)は、まず、フレームバッファードライバー135から更新用バッファーのアドレスを取得する(S500)。   As shown in FIG. 17, the CPU 110 (handwriting application 133) first acquires the address of the update buffer from the frame buffer driver 135 (S500).

次に、CPU110(手書きアプリケーション133)は、直線の始点(xs,ys)と終点(xe,ye)からx方向の距離の絶対値(dx)、y方向の距離の絶対値(dy)、x方向の符号(sx)、y方向の符号(sy)を計算する(S502)。   Next, the CPU 110 (handwriting application 133) determines the absolute value (dx) of the distance in the x direction from the start point (xs, ys) and the end point (xe, ye) of the straight line, the absolute value (dy) of the distance in the y direction, x The direction code (sx) and the y direction code (sy) are calculated (S502).

次に、CPU110(手書きアプリケーション133)は、描画対象点を、x座標tx=xs,y座標ty=ysに初期化する(S504)。   Next, the CPU 110 (handwriting application 133) initializes the drawing target point to x coordinate tx = xs, y coordinate ty = ys (S504).

次に、CPU110(手書きアプリケーション133)は、dxとdyの大小を判定し(S506)、dx≦dyであれば(S506のN)、フレームバッファー更新用バッファーの座標(tx,ty)の該当位置に指定色と指定の太さの点を書き込み(S508)、描画点のy座標tyが終点のy座標yeと一致するか否かを判定する(S510)。   Next, the CPU 110 (handwriting application 133) determines the magnitude of dx and dy (S506), and if dx ≦ dy (N in S506), the corresponding position of the coordinates (tx, ty) of the frame buffer update buffer. The designated color and the designated thickness point are written in (S508), and it is determined whether or not the y coordinate ty of the drawing point matches the y coordinate ye of the end point (S510).

描画点のy座標tyが終点のy座標yeと一致しなければ(S510のN)、CPU110(手書きアプリケーション133)は、描画点のy座標tyをty=ty+syに更新する(S512)。   If the y coordinate ty of the drawing point does not match the y coordinate ye of the end point (N in S510), the CPU 110 (handwriting application 133) updates the y coordinate ty of the drawing point to ty = ty + sy (S512).

次に、CPU110(手書きアプリケーション133)は、描画点のy座標tyに対する描画点のx座標txの更新判別値を直線の傾き増分から計算する(S514)。   Next, the CPU 110 (handwriting application 133) calculates an update determination value of the x coordinate tx of the drawing point with respect to the y coordinate ty of the drawing point from the inclination of the straight line (S514).

次に、CPU110(手書きアプリケーション133)は、描画点のx座標も更新が必要であれば(S516のY)、描画点のx座標txをtx=tx+sxに更新する(S518)。   Next, when the x coordinate of the drawing point needs to be updated (Y in S516), the CPU 110 (handwriting application 133) updates the x coordinate tx of the drawing point to tx = tx + sx (S518).

そして、CPU110(手書きアプリケーション133)は、描画点のy座標tyが終点のy座標yeと一致するまで(S510のN)ステップS508〜S518の処理を繰り返し行い、一致すると(S510のY)直接描画処理を終了する。   The CPU 110 (handwriting application 133) repeats the processing of steps S508 to S518 until the y coordinate ty of the drawing point matches the y coordinate ye of the end point (N in S510). End the process.

一方、dxとdyの大小判定(S506)の結果、dx>dyであれば(S506のY)、CPU110(手書きアプリケーション133)は、フレームバッファー更新用バッファーの座標(tx,ty)の該当位置に指定色と指定の太さの点を書き込み(S520)、描画点のx座標txが終点のx座標xeと一致するか否かを判定する(S522)。   On the other hand, if dx> dy is determined as a result of the determination of dx and dy (S506) (Y in S506), the CPU 110 (handwriting application 133) moves to the corresponding position of the coordinates (tx, ty) of the frame buffer update buffer. The point of the designated color and the designated thickness is written (S520), and it is determined whether or not the x coordinate tx of the drawing point matches the x coordinate xe of the end point (S522).

描画点のx座標txが終点のx座標xeと一致しなければ(S522のN)、CPU110(手書きアプリケーション133)は、描画点のx座標txをtx=tx+sxに更新する(S524)。   If the x coordinate tx of the drawing point does not match the x coordinate xe of the end point (N in S522), the CPU 110 (handwriting application 133) updates the x coordinate tx of the drawing point to tx = tx + sx (S524).

次に、CPU110(手書きアプリケーション133)は、描画点のx座標txに対する描画点のy座標tyの更新判別値を直線の傾き増分から計算する(S526)。   Next, the CPU 110 (handwriting application 133) calculates an update determination value of the y coordinate ty of the drawing point with respect to the x coordinate tx of the drawing point from the inclination of the straight line (S526).

次に、CPU110(手書きアプリケーション133)は、描画点のy座標も更新が必要であれば(S528のY)、描画点のy座標tyをty=ty+syに更新する(S530)。   Next, if the y coordinate of the drawing point needs to be updated (Y in S528), the CPU 110 (handwriting application 133) updates the y coordinate ty of the drawing point to ty = ty + sy (S530).

そして、CPU110(手書きアプリケーション133)は、描画点のx座標txが終点のx座標xeと一致するまで(S522のN)ステップS520〜S530の処理を繰り返し行い、一致すると(S522のY)直接描画処理を終了する。   The CPU 110 (handwriting application 133) repeats the processing of steps S520 to S530 until the x coordinate tx of the drawing point coincides with the x coordinate xe of the end point (N in S522). End the process.

図18(A)〜図18(C)に、CPU110(手書きアプリケーション133)の直接描画処理によってフレームバッファー135に格納される画像データが変化する様子の一例を示す。図18(A)は、図15のステップS306の直接描画処理により、フレームバッファー135に、手書き軌跡Pの最初のいくつかの直線部分(直線近似される部分)が書き込まれた後の画像データを示している。図18(B)は、図15のステップS306の直接描画処理により、フレームバッファー135に、手書き軌跡Pの次のいくつかの直線部分(直線近似される部分)がさらに書き込まれた後の画像データを示している。図18(C)は、図16のステップS406の直接描画処理により、フレームバッファー135に、手書き軌跡Pの最後の直線部分(直線近似される部分)が書き込まれた後の画像データを示している。   FIGS. 18A to 18C show an example of how the image data stored in the frame buffer 135 is changed by the direct drawing processing of the CPU 110 (handwriting application 133). FIG. 18A shows the image data after the first several straight line parts (parts approximated by a straight line) of the handwriting locus P are written in the frame buffer 135 by the direct drawing process in step S306 of FIG. Show. FIG. 18B shows image data after several straight line parts (parts approximated by a straight line) following the handwritten locus P are further written in the frame buffer 135 by the direct drawing process in step S306 of FIG. Is shown. FIG. 18C shows the image data after the last straight line portion (the straight line approximated portion) of the handwriting locus P is written in the frame buffer 135 by the direct drawing process in step S406 of FIG. .

図19は、CPU110(手書きアプリケーション133)による描画イベントハンドラーの処理(図11のステップS114の処理)のフローチャートの一例を示す図である。描画イベントとしては、図16のステップS410の処理によりグラフィックシステム132が発生させる描画イベントの他、ページ送りやページ戻し、ページの拡大や縮小、画像の消去等の入力操作に応じてグラフィックシステム132が発生させる描画イベントもある。   FIG. 19 is a diagram illustrating an example of a flowchart of the process of the drawing event handler (the process of step S114 in FIG. 11) by the CPU 110 (handwriting application 133). As the drawing event, in addition to the drawing event generated by the graphic system 132 by the processing of step S410 in FIG. 16, the graphic system 132 responds to input operations such as page feed, page return, page enlargement / reduction, and image deletion. Some drawing events occur.

図19に示すように、CPU110(手書きアプリケーション133)は、まず、グラフィックシステム132標準の関数呼び出しで手書き以外のグラフィック部品(入力ボタン102等)を描画する(S600)。   As shown in FIG. 19, the CPU 110 (handwriting application 133) first draws a graphic component (such as the input button 102) other than handwriting by a standard function call of the graphic system 132 (S600).

次に、CPU110(手書きアプリケーション133)は、内部メモリー130から対象ページの手書き軌跡データを読み出す(S602)。   Next, the CPU 110 (handwriting application 133) reads handwritten locus data of the target page from the internal memory 130 (S602).

そして、CPU110(手書きアプリケーション133)は、グラフィックシステム132標準の関数呼び出しで対象ページのすべての手書き軌跡を描画し(S604、間接描画処理)、ハンドラーの処理を終了して手書きアプリケーション133からグラフィックシステム132へ制御を戻す(S606)。   Then, the CPU 110 (handwriting application 133) draws all handwriting trajectories of the target page by a standard function call of the graphics system 132 (S604, indirect drawing processing), ends the processing of the handler, and the graphics system 132 from the handwriting application 133. Control is returned to (S606).

図20は、CPU110(手書きアプリケーション133)による間接描画処理(図19のステップS604の処理)のフローチャートの一例を示す図である。   FIG. 20 is a diagram illustrating an example of a flowchart of indirect drawing processing (processing in step S604 in FIG. 19) by the CPU 110 (handwriting application 133).

図20に示すように、CPU110(手書きアプリケーション133)は、まず、最初の手書きストロークで直線の始点・終点を初期化する(S700)。   As shown in FIG. 20, the CPU 110 (handwriting application 133) first initializes the start and end points of a straight line with the first handwriting stroke (S700).

次に、CPU110(手書きアプリケーション133)は、グラフィックシステム132の直線描画用関数を呼び出して現在の座標、色、線の太さで描画する(S702)。   Next, the CPU 110 (handwriting application 133) calls a straight line drawing function of the graphic system 132 and draws it with the current coordinates, color, and line thickness (S702).

そして、CPU110(手書きアプリケーション133)は、ステップS702で描画した手書きストロークが最終の手書きストロークでなければ(S704のN)、座標値を次の手書きストロークに更新して(S706)ステップS702の処理を行い、最終の手書きストロークであれば(S704のY)、処理を終了する。   If the handwritten stroke drawn in step S702 is not the final handwritten stroke (N in S704), the CPU 110 (handwriting application 133) updates the coordinate value to the next handwritten stroke (S706), and performs the process in step S702. If it is the last handwritten stroke (Y in S704), the process is terminated.

図21に、図19のステップS604の間接描画処理によりキャッシュ136に保存される画像データの一例を示す。   FIG. 21 shows an example of image data stored in the cache 136 by the indirect drawing process in step S604 of FIG.

本実施形態では、フレームバッファー135の画像データが図18(A)から図18(C)まで変化している間、キャッシュ136の画像データは変化せず、図13に示した画像データのままである。従って、フレームバッファー135の内容とキャッシュ136の内容の整合性が一時的に崩れるが、線分単位でキャッシュ136を書き換える処理が無いのでCPU110の負荷を低減することができる。手書きアプリケーション133は、ペンリリースイベントの発生により、すなわち、手書き操作が途切れたタイミングでグラフィックシステム132に対して手書き軌跡データの一括描画を要求し、これに応じた間接描画処理が行われることで、キャッシュ136の画像データ(図21)がフレームバッファー135の画像データ(図18(C))と一致し、整合性が回復する。   In the present embodiment, while the image data in the frame buffer 135 changes from FIG. 18A to FIG. 18C, the image data in the cache 136 does not change, and remains as the image data shown in FIG. is there. Accordingly, the consistency between the contents of the frame buffer 135 and the contents of the cache 136 is temporarily lost, but the load on the CPU 110 can be reduced because there is no processing for rewriting the cache 136 in units of line segments. The handwriting application 133 requests the graphic system 132 to perform batch drawing of handwritten trajectory data when the pen release event occurs, that is, at the timing when the handwriting operation is interrupted, and the indirect drawing process corresponding to this is performed. The image data in the cache 136 (FIG. 21) matches the image data in the frame buffer 135 (FIG. 18C), and the consistency is restored.

以上に説明したように、本実施形態の電子書籍端末100(画像処理装置1)によれば、手書きアプリケーション133が、入力操作に基づく所定のイベントに応じて、直接描画処理により、グラフィックシステム132を介さずにフレームバッファー135に画像データを書き込むことで、電子ペーパー52への描画を高速化することができる。従って、本実施形態によれば、液晶ディスプレイ(LCD)と比較して表示速度で劣る電子ペーパーの欠点を補い、操作性に優れたユーザーの使い勝手のよい電子書籍端末100(画像処理装置1)を提供することができる。   As described above, according to the electronic book terminal 100 (image processing apparatus 1) of the present embodiment, the handwriting application 133 causes the graphic system 132 to be directly drawn according to a predetermined event based on an input operation. By writing the image data in the frame buffer 135 without intervention, the drawing on the electronic paper 52 can be speeded up. Therefore, according to the present embodiment, the electronic book terminal 100 (image processing apparatus 1) that is easy to use for the user and is excellent in operability is compensated for the drawbacks of electronic paper that is inferior in display speed as compared with a liquid crystal display (LCD). Can be provided.

また、本実施形態の電子書籍端末100(画像処理装置1)によれば、手書きアプリケーション133が、間接描画処理を行うことで、グラフィックシステム132がキャッシュ136を更新するので、フレームバッファー135とキャッシュ136の整合性を維持することができる。   Further, according to the electronic book terminal 100 (image processing apparatus 1) of the present embodiment, the graphic system 132 updates the cache 136 when the handwriting application 133 performs indirect drawing processing, so that the frame buffer 135 and the cache 136 are updated. It is possible to maintain consistency.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、手書き軌跡の直線単位の描画をグラフィックシステム132で行う必要がなく、CPU110による重い処理を避けることができるので、消費電力を低減させることができる。   In addition, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, it is not necessary to draw a straight line of a handwritten trajectory by the graphic system 132, and heavy processing by the CPU 110 can be avoided. Electric power can be reduced.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、グラフィックシステム132のオーバーヘッドによる性能低下を避けながら、グラフィックシステム132が持つアプリケーションの開発・実行環境の高い互換性を維持することができる。   Also, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, high compatibility of the application development / execution environment of the graphic system 132 is maintained while avoiding performance degradation due to the overhead of the graphic system 132. can do.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、グラフィックシステム132に、描画を行わずにキャッシュ136の更新のみを行う関数が用意されていない場合であっても、手書きアプリケーション133が描画用の関数を呼び出すことで確実かつ容易にキャッシュ136を更新することができる。   Further, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, even if the graphic system 132 does not have a function for performing only the update of the cache 136 without performing drawing, The cache 136 can be reliably and easily updated by the handwriting application 133 calling the drawing function.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、手書きアプリケーション133がフレームバッファー135に画像データを書き込む毎に、当該画像データがEPDコントローラー140に転送されるので、手書き入力操作に追従してすぐに手書き軌跡が表示されるので、操作性を向上させることができる。   Further, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, every time the handwriting application 133 writes image data to the frame buffer 135, the image data is transferred to the EPD controller 140. Since the handwritten locus is displayed immediately following the input operation, the operability can be improved.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、一連の手書き入力操作が終了してから、グラフィックシステム132によるキャッシュ136の更新を一度だけ行えばよいので、CPU110の負荷を低減することができる。   Further, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, the cache 136 needs to be updated only once by the graphic system 132 after a series of handwriting input operations is completed. The load can be reduced.

また、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、グラフィックシステム132を最適化せずに描画の高速化とEPDコントローラー140に合わせた最適化が可能になる。特に、本実施形態に係る電子書籍端末100(画像処理装置1)によれば、EPDコントローラー140がメモリーパイプライン142によって履歴情報を管理することで、電子ペーパー152の特性に応じた駆動パルスの印加回数の制御など複雑な表示制御を高速に行うことができるとともに、CPU110の負荷を低減させることができる。また、手書きアプリケーション133が、直接描画処理において表示制御を意識する必要がないので、アプリケーションプログラムの開発が容易になる。   Also, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, it is possible to speed up drawing and optimize the EPD controller 140 without optimizing the graphic system 132. In particular, according to the electronic book terminal 100 (image processing apparatus 1) according to the present embodiment, the EPD controller 140 manages the history information by the memory pipeline 142, so that the drive pulse according to the characteristics of the electronic paper 152 is applied. Complex display control such as control of the number of times can be performed at high speed, and the load on the CPU 110 can be reduced. Further, since the handwriting application 133 does not need to be conscious of display control in the direct drawing process, the application program can be easily developed.

3.その他の画像処理装置
図22(A)及び図22(B)に、電子書籍端末100以外の本実施形態の画像処理装置1の例を示す。
3. Other Image Processing Apparatus FIGS. 22A and 22B show examples of the image processing apparatus 1 of the present embodiment other than the electronic book terminal 100. FIG.

図22(A)は、スマートフォン500の外観図である。スマートフォン500は、ケース502を備える。ケース502の前面には、3つの操作ボタン511,512,513が設けられている。また、ケース502の前面には、EPDパネル等の電子ペーパーを備えた表示部504が設けられ、電子ペーパーの表面に各種の情報(画像)が表示される。不図示のペンや操作ボタン511,512,513等による所定の操作に応じて、内蔵されたCPU(アプリケーション)からフレームバッファーへの直接描画処理が行われ、表示部504の電子ペーパーの表面に、各操作に応じた画像が高速表示される。   FIG. 22A is an external view of the smartphone 500. The smartphone 500 includes a case 502. Three operation buttons 511, 512 and 513 are provided on the front surface of the case 502. In addition, a display unit 504 including electronic paper such as an EPD panel is provided on the front surface of the case 502, and various types of information (images) are displayed on the surface of the electronic paper. In response to a predetermined operation by a pen (not shown) or operation buttons 511, 512, 513, etc., a direct drawing process from the built-in CPU (application) to the frame buffer is performed, and on the surface of the electronic paper of the display unit 504, An image corresponding to each operation is displayed at high speed.

図22(B)は、腕時計600の外観図である。腕時計600は、ケース602と、ケース602に連結された一対のバンド603とを備える。ケース602の側面には、2つの操作ボタン611,61が設けられている。また、ケース602の前面には、EPDパネル等の電子ペーパーを備えた表示部604が設けられ、電子ペーパーの表面に時刻の他、各種の情報(画像)が表示される。不図示のペンや操作ボタン611,612等による所定の操作に応じて、内蔵されたCPU(アプリケーション)からフレームバッファーへの直接描画処理が行われ、表示部604の電子ペーパーの表面に、各操作に応じた画像が高速表示される。   FIG. 22B is an external view of the wristwatch 600. The wristwatch 600 includes a case 602 and a pair of bands 603 connected to the case 602. Two operation buttons 611 and 61 are provided on the side surface of the case 602. A display unit 604 including electronic paper such as an EPD panel is provided on the front surface of the case 602, and various information (images) are displayed on the surface of the electronic paper in addition to time. In accordance with a predetermined operation using a pen (not shown) or the operation buttons 611, 612, a built-in CPU (application) performs direct drawing processing on the frame buffer, and each operation is performed on the surface of the electronic paper of the display unit 604. The image corresponding to is displayed at high speed.

なお、本実施形態の画像処理装置1としては、この他にも、例えば、電子看板(デジタルサイネージ)、パーソナルコンピューター、携帯電話機、ディジタルスチールカメラ、テレビ、ビデオカメラ、ビデオテープレコーダー、カーナビゲーション装置、電子手帳、電子ゲーム機器等が挙げられる。   In addition to this, as the image processing apparatus 1 of the present embodiment, for example, an electronic signboard (digital signage), a personal computer, a mobile phone, a digital still camera, a television, a video camera, a video tape recorder, a car navigation device, An electronic notebook, an electronic game machine, etc. are mentioned.

4.変形例
本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
4). The present invention is not limited to this embodiment, and various modifications can be made within the scope of the present invention.

[変形例1]
本実施形態では、手書きアプリケーション133の処理において、ペンリリースイベントが発生するまで待ってキャッシュ136のデータを更新しているが、システムによっては、ペンタッチイベントが発生してからペンリリースイベントが発生するまでの間に、他のタスクによってフレームバッファーが更新される可能性もある。そこで、ペン移動イベントハンドラーの処理において、フレームバッファー135の更新を伴うイベントを検出し、フレームバッファー135が更新される前に、グラフィックシステム132に対してキャッシュ情報の更新を要求するように変形してもよい。
[Modification 1]
In the present embodiment, in the processing of the handwriting application 133, data in the cache 136 is updated until a pen release event occurs. However, depending on the system, a pen touch event occurs and a pen release event occurs. During this time, the frame buffer may be updated by another task. Therefore, in the pen movement event handler process, an event involving an update of the frame buffer 135 is detected, and the graphic system 132 is requested to update the cache information before the frame buffer 135 is updated. Also good.

図23は、本変形例1におけるCPU110(手書きアプリケーション133)によるペン移動イベントハンドラーの処理(図11のステップS106の処理)のフローチャートの一例を示す図である。図23において、図15と同じ処理には同じ符号を付しており、その説明を省略する。   FIG. 23 is a diagram illustrating an example of a flowchart of the pen movement event handler process (the process of step S106 in FIG. 11) by the CPU 110 (handwriting application 133) in the first modification. In FIG. 23, the same processes as those in FIG. 15 are denoted by the same reference numerals, and the description thereof is omitted.

図23に示すように、CPU110(手書きアプリケーション133)は、ステップS306の直接描画処理を行った後、フレームバッファー135の更新を伴うイベントが発生したか否かを判定する(S307a)。   As shown in FIG. 23, after performing the direct drawing process of step S306, the CPU 110 (handwriting application 133) determines whether or not an event accompanied by an update of the frame buffer 135 has occurred (S307a).

そして、CPU110(手書きアプリケーション133)は、フレームバッファー135の更新を伴うイベントが発生した場合(S307aのY)、グラフィックシステム132に描画領域の更新イベントの発生を依頼する。グラフィックシステム132は、この依頼を受けて、手書き軌跡の描画処理が可能になった時点で、手書きアプリケーション133に対して描画イベントを発生させる。   The CPU 110 (handwriting application 133) then requests the graphic system 132 to generate a drawing area update event when an event accompanied by an update of the frame buffer 135 occurs (Y in S307a). In response to this request, the graphic system 132 causes the handwriting application 133 to generate a drawing event when drawing processing of the handwriting locus becomes possible.

CPU110(手書きアプリケーション133)は、この描画イベントを受け取って、図19に示した描画イベントハンドラーの処理におけるステップS604の間接描画処理を行うことで、キャッシュ136の画像データが更新される。   The CPU 110 (handwriting application 133) receives this drawing event and performs the indirect drawing process in step S604 in the drawing event handler process shown in FIG. 19, whereby the image data in the cache 136 is updated.

このようにすれば、手書き操作が行われている間にフレームバッファー135の更新を伴うイベントが発生しても、フレームバッファー135の内容とキャッシュ136の内容の一貫性を維持することができる。   In this way, even if an event accompanied by an update of the frame buffer 135 occurs while a handwriting operation is being performed, the consistency between the contents of the frame buffer 135 and the contents of the cache 136 can be maintained.

なお、CPU110(手書きアプリケーション133)は、フレームバッファー135の更新を伴うイベントを検出した場合、グラフィックシステム132に対してできるだけ早く更新要求(描画領域の更新イベントの発生の依頼)を行ったほうがよいので、例えば、この更新要求を割り込み処理により行うようにしてもよい。   Note that when the CPU 110 (handwriting application 133) detects an event involving the update of the frame buffer 135, it is better to make an update request (request to generate an update event of the drawing area) to the graphic system 132 as soon as possible. For example, this update request may be made by interrupt processing.

[変形例2]
本実施形態では、手書きの軌跡を直線単位のデータに分割して直線単位毎に直接描画処理を行っているが、例えば、手書きの軌跡を一定時間ごとに分割し、一定時間毎に直接描画処理を行うように変形してもよい。
[Modification 2]
In the present embodiment, the handwritten trajectory is divided into linear unit data and direct drawing processing is performed for each straight line unit. For example, the handwritten trajectory is divided at regular time intervals, and the direct drawing processing is performed at regular time intervals. You may deform | transform so that.

[変形例3]
本実施形態では、手書き処理を例に挙げて本発明の高速描画手法を説明したが、本発明は、手書き処理に限らず、ページ送りやページ戻し、ページの拡大や縮小、オブジェクトの表示や消去等の種々の処理に適用することができる。
[Modification 3]
In the present embodiment, the high-speed drawing method of the present invention has been described by taking handwriting processing as an example. However, the present invention is not limited to handwriting processing, but is not limited to page turning, page returning, page enlargement or reduction, object display or deletion. It can be applied to various processes such as.

上述した実施形態および変形例は一例であって、これらに限定されるわけではない。例えば、各実施形態および各変形例を適宜組み合わせることも可能である。   The above-described embodiments and modifications are merely examples, and the present invention is not limited to these. For example, it is possible to appropriately combine each embodiment and each modification.

本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. Further, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

1 画像処理装置、10 処理部(CPU)、12 入力操作検出処理部、14 アプリケーション処理部、16 描画処理部、18 画像データ転送処理部、20 操作部、30 記憶部、32 アプリケーションプログラム、34 データファイル、36 フレームバッファー、38 キャッシュ、40 表示制御部、42 履歴情報、50 表示部、52 電子ペーパー、54 接触位置検出部、60 音出力部、70 通信部、100 電子書籍端末、110 CPU、120,120a,120b 入力ボタン、130 内部メモリー、131 オペレーティングシステム、131a デジタイザードライバー、131b フレームバッファードライバー、132 グラフィックシステム、133 手書きアプリケーション、134 コンテンツファイル、135 フレームバッファー、136 キャッシュ、140 EPDコントローラー、142 メモリーパイプライン、150 ディスプレイ、152 EPDパネル、154 デジタイザー、160 スピーカー、170 USBインターフェース、195,195A,195B 画素電極、197 共通電極、200,200A,200B 画素、208 駆動用TFT、209 低電位電源線(Vss)、210 高電位電源線(Vdd)、215 共通電極配線(Vcom)、221 走査線駆動回路、222 データ線駆動回路、224 共通電源変調回路、226 走査線、228 データ線、230 ラッチ回路、240 スイッチ回路、251 第1のパルス信号線(S)、252 第2のパルス信号線(S)、260 マイクロカプセル、266 黒色粒子、267 白色粒子、270 素子基板、271 対向基板、272 電気泳動素子、280 駆動電極層、282 共通電極層、290 電気泳動表示層、500 スマートフォン、502 ケース、504 表示部、511,512,513 操作ボタン、600 腕時計、602 ケース、603 バンド、604 表示部、611,612 操作ボタン DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 10 process part (CPU), 12 input operation detection process part, 14 application process part, 16 drawing process part, 18 image data transfer process part, 20 operation part, 30 memory | storage part, 32 application program, 34 data File, 36 frame buffer, 38 cache, 40 display control unit, 42 history information, 50 display unit, 52 electronic paper, 54 contact position detection unit, 60 sound output unit, 70 communication unit, 100 electronic book terminal, 110 CPU, 120 120a, 120b Input button, 130 Internal memory, 131 Operating system, 131a Digitizer driver, 131b Frame buffer driver, 132 Graphics system, 133 Handwritten application, 134 Content file, 135 frames Uffer, 136 cache, 140 EPD controller, 142 memory pipeline, 150 display, 152 EPD panel, 154 digitizer, 160 speaker, 170 USB interface, 195, 195A, 195B pixel electrode, 197 common electrode, 200, 200A, 200B pixel, 208 driving TFT, 209 low potential power line (Vss), 210 high potential power line (Vdd), 215 common electrode wiring (Vcom), 221 scanning line driving circuit, 222 data line driving circuit, 224 common power source modulation circuit, 226 scanning line, 228 data line, 230 a latch circuit, 240 a switch circuit, 251 a first pulse signal line (S 1), 252 second pulse signal line (S 2), 260 microcapsules, 266 black particles, 267 white 270 element substrate, 271 counter substrate, 272 electrophoretic element, 280 drive electrode layer, 282 common electrode layer, 290 electrophoretic display layer, 500 smartphone, 502 case, 504 display unit, 511, 512, 513 operation button, 600 Wristwatch, 602 case, 603 band, 604 display unit, 611, 612 operation buttons

Claims (11)

電子ペーパーを備えた表示部と、
画像データを格納するためのフレームバッファーを含む記憶部と、
前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御部と、
入力操作を検出する入力操作検出処理部と、
アプリケーションプログラムに基づいて動作し、前記入力操作に応じた処理を行うアプリケーション処理部と、
プログラムに基づいて動作し、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む処理を行う描画処理部と、を含み、
前記アプリケーション処理部は、
前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記キャッシュ情報の更新要求を行い、
前記描画処理部は、
前記更新要求に応じて、前記アプリケーション処理部により前記フレームバッファーに書き込まれた画像データに基づいて前記キャッシュ情報を更新する、画像処理装置。
A display unit equipped with electronic paper;
A storage unit including a frame buffer for storing image data;
A display control unit that performs control to display an image corresponding to the image data written in the frame buffer on the electronic paper of the display unit;
An input operation detection processing unit for detecting an input operation;
An application processing unit that operates based on an application program and performs processing according to the input operation;
A drawing processing unit that operates based on a program, generates image data according to a drawing request using cache information for the frame buffer, and performs processing of writing the image data in the frame buffer;
The application processing unit
In response to a predetermined event based on the input operation, image data is written to the frame buffer, a request for updating the cache information is performed,
The drawing processing unit
An image processing apparatus that updates the cache information based on image data written in the frame buffer by the application processing unit in response to the update request.
請求項1において、
前記アプリケーション処理部は、
前記更新要求として、前記フレームバッファーに書き込んだ画像データと同じ画像データを生成させるための前記描画要求を行う、画像処理装置。
In claim 1,
The application processing unit
An image processing apparatus that performs the drawing request for generating the same image data as the image data written in the frame buffer as the update request.
請求項1又は2において、
前記フレームバッファーに書き込まれた画像データを前記表示制御部に転送する処理を行う画像データ転送処理部をさらに含み、
前記アプリケーション処理部は、
前記フレームバッファーに画像データを書き込む毎に、当該画像データを前記表示制御部に転送するための転送要求を行い、
前記画像データ転送処理部は、
前記転送要求に応じて、前記フレームバッファーに書き込まれた画像データを前記表示制御部に転送する、画像処理装置。
In claim 1 or 2,
An image data transfer processing unit that performs processing for transferring the image data written in the frame buffer to the display control unit;
The application processing unit
Each time image data is written to the frame buffer, a transfer request for transferring the image data to the display control unit is performed,
The image data transfer processing unit
An image processing apparatus that transfers image data written in the frame buffer to the display control unit in response to the transfer request.
請求項1乃至3のいずれか一項において、
前記アプリケーション処理部は、
前記入力操作検出処理部の検出結果に基づいて前記入力操作が途切れたタイミングを検出し、当該入力操作が途切れたタイミングで前記更新要求を行う、画像処理装置。
In any one of Claims 1 thru | or 3,
The application processing unit
An image processing apparatus that detects a timing at which the input operation is interrupted based on a detection result of the input operation detection processing unit, and makes the update request at a timing at which the input operation is interrupted.
請求項1乃至4のいずれか一項において、
前記アプリケーション処理部は、
前記フレームバッファーに書き込んだ画像データの更新を伴うイベントを検出し、当該画像データが更新される前に前記更新要求を行う、画像処理装置。
In any one of Claims 1 thru | or 4,
The application processing unit
An image processing apparatus that detects an event associated with an update of image data written in the frame buffer and makes the update request before the image data is updated.
請求項1乃至5のいずれか一項において、
前記表示部は
前記電子ペーパーに対する接触位置を検出する接触位置検出部をさらに備え、
前記入力操作検出処理部は、
前記接触位置検出部の検出結果に基づいて、前記電子ペーパーに対する前記入力操作を検出し、
前記アプリケーション処理部は、
前記電子ペーパーに対する前記入力操作が検出された場合、前記接触位置検出部が検出した接触位置の情報に基づいて、前記入力操作が行われた軌跡を表す画像データを生成し、当該画像データを前記フレームバッファーに書き込む、画像処理装置。
In any one of Claims 1 thru | or 5,
The display unit further includes a contact position detection unit that detects a contact position with respect to the electronic paper,
The input operation detection processing unit
Based on the detection result of the contact position detection unit, the input operation on the electronic paper is detected,
The application processing unit
When the input operation on the electronic paper is detected, based on the information on the contact position detected by the contact position detection unit, image data representing a locus on which the input operation has been performed is generated, and the image data is An image processing device that writes to the frame buffer.
請求項1乃至6のいずれか一項において、
前記表示制御部は、
前記表示部の前記電子ペーパーに表示させた画像に対応する画像データの履歴情報を記憶し、当該履歴情報に基づき、前記電子ペーパーの表示特性に応じて、次の画像データに対応する画像を前記電子ペーパーに表示させる制御を行う、画像処理装置。
In any one of Claims 1 thru | or 6,
The display control unit
The history information of the image data corresponding to the image displayed on the electronic paper of the display unit is stored, and the image corresponding to the next image data is stored based on the history information based on the display characteristics of the electronic paper. An image processing apparatus that performs control to be displayed on electronic paper.
請求項1乃至7のいずれか一項において、
前記表示部の前記電子ペーパーは、電気泳動方式により画像を表示する、画像処理装置。
In any one of Claims 1 thru | or 7,
The image processing apparatus, wherein the electronic paper of the display unit displays an image by an electrophoresis method.
入力操作を検出する入力操作検出処理部と、電子ペーパーを備えた表示部と、画像データを格納するためのフレームバッファーを含む記憶部と、を含む画像処理装置の表示制御方法であって、
アプリケーションプログラムに基づいて、前記入力操作に応じた処理を行うアプリケーション処理ステップと、
プログラムに基づいて、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む描画処理ステップと、
前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御ステップと、を含み、
前記アプリケーション処理ステップにおいて、
前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記キャッシュ情報の更新要求を行い、
前記描画処理ステップにおいて、
前記アプリケーション処理ステップで前記フレームバッファーに書き込まれた画像データに基づいて前記キャッシュ情報を更新する、画像処理装置の表示制御方法。
A display control method for an image processing apparatus, comprising: an input operation detection processing unit for detecting an input operation; a display unit including electronic paper; and a storage unit including a frame buffer for storing image data.
An application processing step for performing processing according to the input operation based on an application program;
Based on the program, using the frame buffer cache information, generating image data according to the drawing request, and writing the image data in the frame buffer,
A display control step for performing control to display an image corresponding to the image data written in the frame buffer on the electronic paper of the display unit,
In the application processing step,
In response to a predetermined event based on the input operation, image data is written to the frame buffer, a request for updating the cache information is performed,
In the drawing process step,
A display control method for an image processing apparatus, wherein the cache information is updated based on image data written in the frame buffer in the application processing step.
入力操作を検出する入力操作検出処理部と、電子ペーパーを備えた表示部と、画像データを格納するためのフレームバッファーを含む記憶部と、前記フレームバッファーに書き込まれた画像データに対応する画像を前記表示部の前記電子ペーパーに表示させる制御を行う表示制御部と、プログラムに基づいて動作し、前記フレームバッファー用のキャッシュ情報を用いて、描画要求に応じた画像データを生成し、当該画像データを前記フレームバッファーに書き込む処理を行う描画処理部と、を含む画像処理装置において実行されるプログラムであって、
アプリケーションプログラムに基づいて動作し、前記入力操作に応じた処理を行うアプリケーション処理部としてコンピューターを機能させ、
前記アプリケーション処理部は、
前記入力操作に基づく所定のイベントに応じて、前記フレームバッファーに画像データを書き込み、前記描画処理部に対して前記キャッシュ情報の更新要求を行う、プログラム。
An input operation detection processing unit for detecting an input operation, a display unit provided with electronic paper, a storage unit including a frame buffer for storing image data, and an image corresponding to the image data written in the frame buffer A display control unit that performs control to display on the electronic paper of the display unit, operates based on a program, generates image data according to a rendering request using the cache information for the frame buffer, and the image data A program that is executed in an image processing apparatus including a drawing processing unit that performs processing for writing the data into the frame buffer,
Operates based on an application program, causes the computer to function as an application processing unit that performs processing according to the input operation,
The application processing unit
A program for writing image data to the frame buffer in response to a predetermined event based on the input operation, and making an update request for the cache information to the drawing processing unit.
請求項10に記載のプログラムが記憶されている、コンピューター読み取り可能な情報記憶媒体。   A computer-readable information storage medium in which the program according to claim 10 is stored.
JP2012076478A 2012-03-29 2012-03-29 Image processing system, display control method of the same, program and information storage medium Pending JP2013205731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012076478A JP2013205731A (en) 2012-03-29 2012-03-29 Image processing system, display control method of the same, program and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076478A JP2013205731A (en) 2012-03-29 2012-03-29 Image processing system, display control method of the same, program and information storage medium

Publications (1)

Publication Number Publication Date
JP2013205731A true JP2013205731A (en) 2013-10-07

Family

ID=49524850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076478A Pending JP2013205731A (en) 2012-03-29 2012-03-29 Image processing system, display control method of the same, program and information storage medium

Country Status (1)

Country Link
JP (1) JP2013205731A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197586A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197586A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device

Similar Documents

Publication Publication Date Title
US11335764B2 (en) Display including plurality of wirings bypassing hole area encompassed by display area, and electronic device including same
KR102653262B1 (en) apparatus having a touch layer with openings
EP2994906B1 (en) Predictive electrophoretic display
JP5382528B2 (en) Image display control device, image display device, image display control method, and image display control program
RU2409834C2 (en) User interface for various displays
KR102207106B1 (en) User terminal apparatus and control method thereof
KR102549692B1 (en) display device including scan driver for driving display panel in which is formed empty area surrounded by display area
WO2018119575A1 (en) Display method and electronic device
WO2023093458A1 (en) Method for determining refresh mode of ink screen, and electronic device and storage medium
US20170286371A1 (en) Generation of a modified ui element tree
KR102657681B1 (en) Electronic device and method for quickly updating a partial area of the screen
JP4125257B2 (en) Driving method of display element
JP2013205731A (en) Image processing system, display control method of the same, program and information storage medium
JP2014032385A (en) Display system, image display terminal device, and information processing apparatus
JP2014222299A (en) Image processing device, program, information storage medium, and production method of image processing device
US20240071286A1 (en) Display device
JP2011095479A (en) Method of driving electrophoresis display panel, electrophoresis display device, and electronic apparatus
KR102664717B1 (en) Display comprising a plurality of electric wirings bypassing hole area surrounded by display area, and electronic device comprising the same
US11380273B2 (en) Hardware-leveraged interface display effects
US11823627B2 (en) Display device
US11320930B2 (en) Electronic paper display and driving method thereof
CN113534989B (en) Electronic paper display and driving method thereof
US20230280858A1 (en) Electronic apparatus and control method thereof
JP2010197571A (en) Electrophoretic display device, method for driving electrophoretic display device, and electronic apparatus
KR20210099273A (en) An electronic device including a display and an enhancing method of a distortion of an image displayed by the electronic device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107