JP2013088837A - Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program - Google Patents

Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program Download PDF

Info

Publication number
JP2013088837A
JP2013088837A JP2011225535A JP2011225535A JP2013088837A JP 2013088837 A JP2013088837 A JP 2013088837A JP 2011225535 A JP2011225535 A JP 2011225535A JP 2011225535 A JP2011225535 A JP 2011225535A JP 2013088837 A JP2013088837 A JP 2013088837A
Authority
JP
Japan
Prior art keywords
effect
comic
image data
image
page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011225535A
Other languages
Japanese (ja)
Inventor
Hideto Iguchi
秀人 井口
Haruko Nakamura
東子 中村
Takahisa Ogawa
隆久 小川
Yasunori Suzuki
康修 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
REAL TECHNO SYSTEMS CO Ltd
Original Assignee
REAL TECHNO SYSTEMS CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by REAL TECHNO SYSTEMS CO Ltd filed Critical REAL TECHNO SYSTEMS CO Ltd
Priority to JP2011225535A priority Critical patent/JP2013088837A/en
Publication of JP2013088837A publication Critical patent/JP2013088837A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To give a rendering effect to further promote interest and enjoyment of a user by reproducing a rendered image and sound corresponding to a portion of a scene in which the user is most probably interested in terms of rendering among scenes developed in each page of a comic book, when a contract operation is made from a screen to the portion of the scene.SOLUTION: A retrieval section 53 inputs a page number of image data of a cartoon being displayed, and retrieves a rendering management number corresponding to the page number and a position of a specified point from a rendering management storage section 23b, using the page number and the position of the specified point as keys. A rendering file reading section 55 reads rendering parameters and a rendering file corresponding to the rendering management number from a rendering file storage section 23c, using the rendering management number as a key. When the rendering file is image data, an image rendering processing section 61 performs image rendering processing to the image data to reproduce and output it to a display control section 29 on the basis of the rendering parameters. When the rendering file is sound data, a sound rendering processing section 63 performs sound rendering processing to the sound data to reproduce and output it to a sound control section 25 on the basis of the rendering parameters.

Description

本発明は、漫画の画像データや漫画の画像データに関連する音声データを再生することが可能な多機能漫画再生装置、多機能漫画再生方法およびコンピュータ・プログラムに関する。   The present invention relates to a multi-functional cartoon reproducing apparatus, a multi-functional cartoon reproducing method and a computer program capable of reproducing comic image data and audio data related to comic image data.

従来、漫画を表示する装置としては、一般に書籍として販売されている漫画本の各ページをスキャナで画像データ化し、この画像データを電子漫画の画像データとしてサーバ装置に蓄積しておき、ユーザが所望の電子漫画の画像データをダウンロードすることで、電子書籍表示装置に表示するものが知られている。   Conventionally, as a device for displaying comics, each page of a comic book generally sold as a book is converted into image data by a scanner, and the image data is stored in a server device as image data of an electronic comic. What is displayed on an electronic book display device by downloading the image data of the electronic comic book is known.

また、従来、漫画を表示する装置としては、特許文献1に記載された「漫画閲覧装置」が報告されている。
特許文献1には、少なくとも1コマの漫画コマ画像を含む少なくとも1ページの漫画ページ画像を表すページ・データおよび上記漫画コマ画像に関連する関連画像データを記憶しておき、ページ・データによって表される漫画ページ画像を表示装置の表示画面上に表示し、表示画面上に表示された漫画ページ画像に含まれる漫画コマ画像の少なくとも一部を関連画像データにもとづいて、その一部に重ね合わせて拡大して表示するという技術が開示されている。
Conventionally, as a device for displaying comics, a “cartoon browsing device” described in Patent Document 1 has been reported.
Patent Document 1 stores page data representing at least one comic page image including at least one comic frame image and related image data related to the comic frame image, and is represented by the page data. The comic page image is displayed on the display screen of the display device, and at least a part of the comic frame image included in the comic page image displayed on the display screen is superimposed on the part based on the related image data. A technique of enlarging and displaying is disclosed.

特に、表示画面上に表示された漫画ページ画像に含まれる漫画コマ画像の指定の入力を受付け、指定された漫画コマ画像の少なくとも一部をその一部に重ね合わせて拡大して表示するという技術が開示されている。
特許文献1に記載された技術では、表示画面上に漫画のページ画像を表示するとともに、そのページ画像に含まれるコマ画像の一部を拡大表示することによって、表示画面上に表示される漫画を読者(閲覧者)に読みやすく表示することできるという利点を有している。
In particular, a technology that accepts input for specifying a comic frame image included in a comic page image displayed on the display screen, and displays at least a portion of the specified comic frame image in an enlarged manner by superimposing it on that portion. Is disclosed.
In the technique described in Patent Document 1, a comic page image is displayed on the display screen, and a part of the frame image included in the page image is enlarged to display a comic displayed on the display screen. It has the advantage that it can be displayed in a readable manner for the reader (viewer).

特開2002−279398号公報JP 2002-279398 A

しかしながら、従来の「漫画閲覧装置」にあっては、コマ画像の一部を拡大表示するという1つの機能を有しているものの、1つの機能ではユーザが飽きてしまうといった問題があった。
そこで、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、多様な演出機能を有することでユーザに多様な楽しみ方を提供することが切望されている。
However, although the conventional “cartoon browsing device” has one function of enlarging and displaying a part of a frame image, there is a problem that the user gets bored with one function.
Therefore, it provides users with various ways of enjoying by having various directing functions for scenes that are likely to have directing interest among scenes developed on each page of the comic. It is anxious that.

本発明は、上記に鑑みてなされたもので、その目的としては、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像や演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる多機能漫画再生装置、多機能漫画再生方法およびコンピュータ・プログラムを提供することにある。   The present invention has been made in view of the above. For the purpose of the present invention, a screen is displayed on a scene where a user is likely to have directing interest among scenes developed on each page of a comic. When there is a touch operation from above, by playing the production image and production sound according to the location of the scene, it is possible to give a production effect that promotes further interest and enjoyment, and further enhances the user's interest and enjoyment. An object of the present invention is to provide a multi-functional cartoon reproducing apparatus, a multi-functional cartoon reproducing method and a computer program that can be expanded.

上記課題を解決するために、請求項1記載の発明は、少なくとも1ページ分の漫画の画像データを表示画面上に表示する表示手段と、前記漫画の画像データに関連する音声データを再生する音声再生手段とを備え、前記表示画面の特定位置に対してなされた接触操作に基づいて当該特定位置に対応した画像データおよび音声データの少なくとも一方を演出内容として出力するようにして多機能漫画を再生する多機能漫画再生装置であって、複数のページ分の漫画の画像データを記憶する第1記憶部と、漫画の画像データのページ番号と、前記ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を記憶する第2記憶部と、前記演出管理番号に対応する演出パラメータおよび演出ファイルを記憶する第3記憶部と、前記第1記憶部から1ページ分の漫画の画像データを読み込んで表示画面に表示する漫画表示手段と、前記表示画面上への接触操作に応じて指示点の位置を検出する位置検出手段と、前記表示中の漫画の画像データのページ番号と前記指示点の位置とをキーとして、前記第2記憶部から前記ページ番号と前記指示点の位置とに対応する演出管理番号を検索する検索手段と、前記検索結果となる演出管理番号をキーとして、前記第3記憶部から前記演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む読込手段と、前記読み込んだ演出ファイルが画像データである場合には、前記読み込んだ演出パラメータに基づいて該画像データに画像演出処理を施して再生する画像演出処理手段と、前記読み込んだ演出ファイルが音声データである場合には、前記読み込んだ演出パラメータに基づいて該音声データに音声演出処理を施して再生する音声演出処理手段と、を備えることを特徴とする多機能漫画再生装置である。   In order to solve the above problem, the invention described in claim 1 is characterized in that at least one page of comic image data for one page is displayed on a display screen, and audio for reproducing audio data related to the comic image data. Reproduction means, and based on a touch operation performed on a specific position on the display screen, at least one of image data and audio data corresponding to the specific position is output as a production content to reproduce the multi-function comic A multi-function comic reproducing device for storing a first storage unit storing comic image data for a plurality of pages, a page number of comic image data, and a specific position range on the screen corresponding to the page number A second storage unit for storing the production management number corresponding to the designated point area indicating the third, and a third storage for storing the production parameter and the production file corresponding to the production management number. A memory unit, a comic display unit for reading one-page comic image data from the first storage unit and displaying it on the display screen, and a position for detecting the position of the indication point according to the touch operation on the display screen Using the detection means and the page number of the displayed comic image data and the position of the designated point as keys, the production management number corresponding to the page number and the designated point position is searched from the second storage unit. Using the search management number as the search result as a key, reading means for reading the production parameter and production file corresponding to the production management number from the third storage unit, and the read production file as image data In some cases, an image effect processing means for performing image effect processing on the image data based on the read effect parameters and reproducing the image data, and the read effect file If a voice data is a multifunctional cartoon reproducing apparatus characterized by comprising a sound effect processing means for reproducing by performing audio effect process on the audio data based on the read presentation parameters.

本発明によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像や演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   According to the present invention, when a touch operation is performed from the screen on a scene where the user is highly likely to have directing interest in the scene developed on each page of the comic, By reproducing the production image and production sound according to the location, it is possible to provide a production effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

本発明の第1実施形態に係る多機能漫画再生装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1と配信サーバ13との間の通信シーケンスを表すシーケンス図である。It is a sequence diagram showing the communication sequence between the multi-function comics reproduction device 1 and distribution server 13 concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その1)である。It is a flowchart (the 1) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 図1に示すメモリ部23に記憶されているテーブルの構成についてより説明するための図である。It is a figure for demonstrating more about the structure of the table memorize | stored in the memory part 23 shown in FIG. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その2)である。It is a flowchart (the 2) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1による漫画画面(1ページ目)を示す表示例である。It is a display example which shows the comic screen (1st page) by the multi-function comic reproduction device 1 concerning a 1st embodiment of the present invention. 図6に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その3)である。It is a flowchart (the 3) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-function comics reproducing device 1 concerning a 1st embodiment of the present invention. 本発明の第2実施形態に係る多機能漫画再生装置1による漫画画面(2ページ目)を示す表示例である。It is a display example which shows the comic screen (2nd page) by the multi-function comic reproduction device 1 concerning a 2nd embodiment of the present invention. 図10に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第2実施形態に係る多機能漫画再生装置1による演出効果を表示するための表示エリアを示す図である。It is a figure which shows the display area for displaying the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1による漫画画面(3ページ目)を示す表示例である。It is a display example which shows the comic screen (3rd page) by the multi-functional comic reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 図15に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第3実施形態に係る多機能漫画再生装置1による演出効果を表示するための表示エリアを示す図である。It is a figure which shows the display area for displaying the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-function comics reproducing device 1 concerning a 3rd embodiment of the present invention. 本発明の第4実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る多機能漫画再生装置1による演出効果として音圧レベルと時間の関係を示す図である。It is a figure which shows the relationship between a sound pressure level and time as an effect by the multi-function comics reproduction device 1 concerning a 4th embodiment of the present invention.

以下、本発明の実施形態に係る多機能漫画再生装置について、図面を参照して説明する。
<第1実施形態>
図1に示すブロック図を参照して、本発明の第1実施形態に係る多機能漫画再生装置1の構成について説明する。なお、本実施形態では、タブレット型やノート型のパーソナルコンピュータを多機能漫画再生装置1に適用して説明する。
図1に示すように、多機能漫画再生装置1は、インターネット11を介して配信サーバ13に接続されている。配信サーバ13に設けられたデータベース部(DB部という)15には、各種漫画の多機能漫画データが蓄積されており、データベース部(DB部という)15から読み出された多機能漫画データが配信サーバ13、インターネット11を介して多機能漫画再生装置1にダウンロードされる。
Hereinafter, a multi-function cartoon reproducing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
With reference to the block diagram shown in FIG. 1, the structure of the multi-functional cartoon reproducing apparatus 1 according to the first embodiment of the present invention will be described. In the present embodiment, a tablet-type or notebook-type personal computer is applied to the multi-function comic reproduction device 1 for explanation.
As shown in FIG. 1, the multi-function comic reproduction device 1 is connected to a distribution server 13 via the Internet 11. The database unit (referred to as DB unit) 15 provided in the distribution server 13 stores multifunctional comic data of various comics, and the multifunctional comic data read from the database unit (referred to as DB unit) 15 is distributed. It is downloaded to the multi-function cartoon player 1 via the server 13 and the Internet 11.

多機能漫画再生装置1は、ハードウエアとして、通信制御部21、メモリ部23、音声制御部25、スピーカ27、表示制御部29、表示部31、タッチパッド部33、タッチパッド制御部35、制御部37を備えている。
通信制御部21は、インターネット11を介して配信サーバ13との間で所定の通信プロトコルに従ってパケット通信を行い、配信サーバ13から漫画の画像データ、演出管理テーブル、演出ファイル・演出パラメータ管理テーブル、演出ファイル、演出パラメータなどを多機能漫画データとしてダウンロードする。
The multi-function comic reproduction device 1 includes, as hardware, a communication control unit 21, a memory unit 23, a voice control unit 25, a speaker 27, a display control unit 29, a display unit 31, a touch pad unit 33, a touch pad control unit 35, and a control. A portion 37 is provided.
The communication control unit 21 performs packet communication with the distribution server 13 via the Internet 11 in accordance with a predetermined communication protocol. From the distribution server 13, comic image data, an effect management table, an effect file / effect parameter management table, an effect Download files, production parameters, etc. as multi-function comic data.

メモリ部23は、複数のページ分の漫画の画像データおよび音声データを記憶する漫画データ記憶部23a、漫画の画像データのページ番号と、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を記憶する演出管理記憶部23b、演出管理番号に対応する演出パラメータおよび演出ファイルを記憶する演出ファイル記憶部23cを有している。
演出ファイル記憶部23cに記憶されている演出ファイルには、広告画面の内容を示す画像データ、広告音声の内容を示す音声データが記憶されていることが好ましい。
The memory unit 23 includes a comic data storage unit 23a for storing comic image data and audio data for a plurality of pages, an instruction indicating a page number of the comic image data and a specific position range on the screen corresponding to the page number. There is an effect management storage unit 23b that stores an effect management number corresponding to the point area, and an effect file storage unit 23c that stores an effect parameter and an effect file corresponding to the effect management number.
The effect file stored in the effect file storage unit 23c preferably stores image data indicating the contents of the advertisement screen and sound data indicating the contents of the advertisement sound.

音声制御部25は、音声データを音声メモリs1に読み込んで音声信号に再生してスピーカ27に出力するとともに、音声演出処理を施した音声データを音声メモリs2に読み込んで音声信号に再生してスピーカ27に出力する。
表示制御部29は、1ページ分の漫画の画像データを画像メモリg1に読み込んで表示部31の表示画面に表示するとともに、画像演出処理を施した画像データを画像メモリg2に読み込んで表示部31の表示画面に表示する。
The audio control unit 25 reads the audio data into the audio memory s1, reproduces it as an audio signal and outputs it to the speaker 27, and reads the audio data subjected to the audio effect processing into the audio memory s2 and reproduces it as an audio signal. 27.
The display control unit 29 reads the comic image data for one page into the image memory g1 and displays it on the display screen of the display unit 31, and also reads the image data subjected to the image effect processing into the image memory g2 to display the display unit 31. On the display screen.

表示部31の表示画面には、表示画面と同一形状のタッチパッド部33が表示画面上に張り付けられている。
詳しくは、タッチパッド部33は、最上層にカバーガラスが配置され、この下面に導電膜付きフィルムまたは感圧式抵抗膜付きフィルムが配置されている。表示部31には、最上層から下方に向かって偏光板、ガラス基板、カラーフィルタ、液晶配向膜、ガラス基板、偏光板が配置されている。なお、表示部31の下方には、拡散シート、LED光を平面全体に導く導光板、反射フィルムの順に配置されている。
On the display screen of the display unit 31, a touch pad unit 33 having the same shape as the display screen is attached on the display screen.
Specifically, in the touch pad portion 33, a cover glass is disposed on the uppermost layer, and a film with a conductive film or a film with a pressure-sensitive resistance film is disposed on the lower surface. In the display unit 31, a polarizing plate, a glass substrate, a color filter, a liquid crystal alignment film, a glass substrate, and a polarizing plate are arranged from the uppermost layer downward. In addition, below the display part 31, it arrange | positions in order of the diffusion sheet, the light-guide plate which guides LED light to the whole plane, and a reflective film.

なお、本実施形態では、タッチパッド部33上の平面33aに対して、図1に示すように、(x,y)座標を用いて位置を表すこととし、一方、表示部31上の表示画面に対して、(X,Y)座標を用いて位置を表すこととし、説明の簡略化のために、x=X、y=Yとする。
タッチパッド制御部35は、タッチパッド部33に接続されており、タッチパッド部33に例えば指先が接触した場合に、指先の接触位置の座標(x,y)を出力する。
制御部37は、フラッシュメモリ37a(図示しない)、タイマを有し、フラッシュメモリ37a上に記憶されているOS(オペレーションシステム)を起動した後、ユーザによる所望のアプリケーションソフトウエアの選択により当該アプリケーションソフトウエアの起動が開始される。
In this embodiment, as shown in FIG. 1, the position is expressed using (x, y) coordinates with respect to the plane 33 a on the touch pad unit 33, while the display screen on the display unit 31 is displayed. On the other hand, the position is expressed by using (X, Y) coordinates, and x = X and y = Y for simplification of description.
The touch pad control unit 35 is connected to the touch pad unit 33, and outputs the coordinates (x, y) of the contact position of the fingertip when, for example, the fingertip contacts the touch pad unit 33.
The control unit 37 has a flash memory 37a (not shown) and a timer, and after starting an OS (operation system) stored on the flash memory 37a, the application software is selected by the user selecting a desired application software. The software starts up.

例えばアプリケーションソフトウエアの1つとして、多機能漫画再生ソフトウエアが選択された場合、制御部37に設けられたフラッシュメモリ37a上にブートされている多機能漫画再生ソフトウエアの各ソフトウエアモジュール(以下、モジュールという)が起動可能になる。
図1は、制御部37内のフラッシュメモリ37a上に実行可能に記憶されている、汎用のモジュール、多機能漫画再生ソフトウエアの各モジュールを示す。
For example, when multi-function comic reproduction software is selected as one of the application software, each software module (hereinafter referred to as the multi-function comic reproduction software) booted on the flash memory 37a provided in the control unit 37 is selected. , Called a module).
FIG. 1 shows a general-purpose module and a multi-function comic reproduction software module that are stored in the flash memory 37a in the control unit 37 so as to be executable.

まず、図1に示すブロック図を参照して、汎用のモジュールについて説明する。
ブラウザ部41は、指定したURLコードを通信制御部21からインターネットを介して配信サーバ13に送信し、ホームページをダウンロードして閲覧するためのモジュールである。
タッチ分析部43は、接触点のスピード(大きさ)、速度(大きさ及び方向)、加速度(大きさの変化及び/又は方向)を算出する。タッチ分析部43は、タッチパッド部33上への接触、接触移動、遮断を検出し、接触操作の検出に関連した種々の動作、例えば、接触操作が生じたかどうか決定し、接触操作の移動があるかどうか決定するとともに、タッチパッド部33上での移動を追跡し、接触操作が遮断したかどうか(即ち、接触操作が解除されたかどうか)決定する。これにより、タッチ分析部43は、+ページ捲り移動操作、または−ページ捲り移動操作を検出する。また、タッチ分析部43は、接触位置の座標(x,y)を出力する。
First, a general-purpose module will be described with reference to the block diagram shown in FIG.
The browser unit 41 is a module for transmitting a designated URL code from the communication control unit 21 to the distribution server 13 via the Internet, and downloading and browsing a home page.
The touch analysis unit 43 calculates the speed (size), speed (size and direction), and acceleration (size change and / or direction) of the contact point. The touch analysis unit 43 detects contact, contact movement, and interruption on the touch pad unit 33, determines whether various operations related to detection of the contact operation, for example, contact operation has occurred, and the movement of the contact operation is performed. In addition to determining whether or not there is a touch, the movement on the touch pad unit 33 is tracked to determine whether or not the contact operation has been blocked (that is, whether or not the contact operation has been released). Thereby, the touch analysis unit 43 detects a + page turning movement operation or a -page turning movement operation. The touch analysis unit 43 outputs the coordinates (x, y) of the contact position.

画像処理部45は、入力される画像データに対して、表現方式や圧縮方式の相違を解消するために、表示制御部29で処理可能な画像データ形式への変換処理を行い、表示制御部29に出力する。
音声処理部47は、入力される音声データに対して、表現方式や圧縮方式の相違を解消するために、音声制御部25で処理可能な音声データ形式への変換処理を行い、音声制御部25に出力する。
なお、上述した汎用のモジュールについては、工場出荷時に制御部37に設けられたフラッシュメモリにあらかじめインストールされていることとして説明する。
The image processing unit 45 converts the input image data into an image data format that can be processed by the display control unit 29 in order to eliminate the difference in expression method and compression method. Output to.
The voice processing unit 47 performs conversion processing on the input voice data into a voice data format that can be processed by the voice control unit 25 in order to eliminate differences in expression method and compression method. Output to.
The general-purpose module described above will be described as being preinstalled in a flash memory provided in the control unit 37 at the time of factory shipment.

次に、多機能漫画再生ソフトウエアの各モジュールによる実行動作について説明する。
漫画制御部51は、ブラウザ部41を起動して多機能漫画データをダウンロードし、この多機能漫画データをメモリ部23に記憶する。また、漫画制御部51は、表示中の漫画の画像データのページを管理しており、タッチ分析部43からのページ捲り移動による指示に応じて、漫画データ記憶部23aから該当ページの漫画の画像データを読み出すように制御する。
Next, the execution operation by each module of the multi-function comic reproduction software will be described.
The comic controller 51 activates the browser unit 41 to download multi-function comic data, and stores the multi-function comic data in the memory unit 23. Further, the comic controller 51 manages the page of the comic image data being displayed, and the comic image of the corresponding page is read from the comic data storage unit 23a in response to an instruction by the page turning movement from the touch analysis unit 43. Control to read data.

検索部53は、漫画制御部51から表示中の漫画の画像データのページ番号を入力し、タッチ分析部43からタッチパッド部33への接触有りの決定と指示点の位置とを入力し、表示中の漫画の画像データのページ番号と指示点の位置とをキーとして、演出管理記憶部23bからページ番号と指示点の位置とに対応する演出管理番号を検索する。   The search unit 53 inputs the page number of the comic image data being displayed from the comic control unit 51, inputs the presence / absence of contact with the touch pad unit 33 from the touch analysis unit 43, and the position of the indication point. The production management number corresponding to the page number and the position of the designated point is searched from the production management storage unit 23b using the page number of the cartoon image data in the middle and the position of the designated point as keys.

演出ファイル読込部55は、上記の検索結果となる演出管理番号をキーとして、演出ファイル記憶部23cから演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む。
SW57は、漫画データ記憶部23aから出力されたデータの識別子を判断して、画像データである場合には、当該画像データを画像処理部45に出力する。また、SW57は、漫画データ記憶部23aから出力されたデータの識別子を判断して、上記画像データとは別に音声データがある場合には、当該音声データを音声処理部47に出力する。
The effect file reading unit 55 reads an effect parameter and an effect file corresponding to the effect management number from the effect file storage unit 23c using the effect management number as the search result as a key.
The SW 57 determines the identifier of the data output from the comic data storage unit 23a, and outputs the image data to the image processing unit 45 if it is image data. Further, the SW 57 determines the identifier of the data output from the comic data storage unit 23a, and outputs audio data to the audio processing unit 47 when audio data is present separately from the image data.

SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、画像データである場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、音声データである場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。   The SW 59 determines the identifier of the effect file or the effect parameter output from the effect file reading unit 55, and outputs the effect file or the effect parameter to the image effect processing unit 61 if it is image data. Further, the SW 59 determines the identifier of the effect file or the effect parameter output from the effect file reading unit 55, and outputs the effect file or the effect parameter to the sound effect processing unit 63 if it is audio data.

画像演出処理部61は、入力される演出ファイルが画像データである場合には、入力される演出パラメータに基づいて該画像データに画像演出処理を施して再生し、再生後の画像データを表示制御部29に出力する。
音声演出処理部63は、入力される演出ファイルが音声データである場合には、入力される演出パラメータに基づいて該音声データに音声演出処理を施して再生し、再生後の音声データを音声制御部25に出力する。
When the input effect file is image data, the image effect processing unit 61 performs image effect processing on the image data based on the input effect parameters and reproduces the image data, and controls the display of the reproduced image data. To the unit 29.
When the input effect file is sound data, the sound effect processing unit 63 performs sound effect processing on the sound data based on the input effect parameters and reproduces the sound data, and performs sound control on the reproduced sound data. To the unit 25.

なお、上述したブラウザ部41、タッチ分析部43、画像処理部45、音声処理部47、漫画制御部51、検索部53、演出ファイル読込部55、SW57、SW59、画像演出処理部61、音声演出処理部63等は、フラッシュメモリ37a(図示しない)に記憶されたプログラムモジュールであり、CPU(図示しない)がフラッシュメモリ37aから読み出して実行し、処理過程においてRAM(図示しない)をワーキングメモリとして用いることで、これらの処理を実行する。なお、異なるプログラムモジュール同士によるデータの引き渡しはRAM(図示しない)を用いて処理する。   The browser unit 41, the touch analysis unit 43, the image processing unit 45, the voice processing unit 47, the comic control unit 51, the search unit 53, the effect file reading unit 55, SW57, SW59, the image effect processing unit 61, and the sound effect described above. The processing unit 63 and the like are program modules stored in the flash memory 37a (not shown). The CPU (not shown) reads out and executes from the flash memory 37a, and uses a RAM (not shown) as a working memory in the process. Thus, these processes are executed. Note that data transfer between different program modules is processed using a RAM (not shown).

次に、図2に示すシーケンス図、図3に示すフローチャートを参照して、本発明の第1実施形態に係る多機能漫画再生装置1と配信サーバ13との間の通信シーケンス、多機能漫画再生装置1の動作について説明する。
まず、ID登録処理について説明する。
ユーザが、表示画面上にあるブラウザのアイコンの位置に対して、タッチパッド部33上に接触操作すると、タッチパッド制御部35から接触位置が制御部37に出力される。ここで、制御部37は、接触位置がブラウザのアイコンのエリア内にあることを判定して、制御部37はブラウザ部41を起動する。これにより、ブラウザ部41の操作画面が表示される。
Next, with reference to the sequence diagram shown in FIG. 2 and the flowchart shown in FIG. 3, the communication sequence between the multi-function comic reproduction device 1 and the distribution server 13 according to the first embodiment of the present invention, the multi-function comic reproduction The operation of the device 1 will be described.
First, the ID registration process will be described.
When the user performs a touch operation on the touch pad unit 33 with respect to the position of the browser icon on the display screen, the touch position is output from the touch pad control unit 35 to the control unit 37. Here, the control unit 37 determines that the contact position is within the area of the browser icon, and the control unit 37 activates the browser unit 41. Thereby, the operation screen of the browser unit 41 is displayed.

次いで、ステップS5において、ユーザが操作画面から配信サーバ13のURLコードを入力すると、手順Se1では、ブラウザ部41は、通信制御部21、インターネット11を介して配信サーバ13にHP要求を送信する。
このHP要求を受信した配信サーバ13が、ID登録ページを生成する。手順Se2では、配信サーバ13が、このID登録ページを多機能漫画再生装置1に送信する。
Next, when the user inputs the URL code of the distribution server 13 from the operation screen in step S <b> 5, in step Se <b> 1, the browser unit 41 transmits an HP request to the distribution server 13 via the communication control unit 21 and the Internet 11.
The distribution server 13 that has received this HP request generates an ID registration page. In step Se2, the distribution server 13 transmits this ID registration page to the multi-function comic reproducing device 1.

次いで、ステップS10において、手順Se3では、このID登録ページを受信した多機能漫画再生装置1では、ブラウザ部41は、ID登録ページを画面上に開き、例えば、ユーザIDとして「aaa」、メールアドレスとして「aaa@bbbbb.jp」、パスワードとして「ccccc」、氏名として「dddddd」等が入力され、ID登録情報とする。そして、「送信」ボタンが押された場合に、ブラウザ部41は、ID登録情報を通信制御部21から配信サーバ13に送信する。   Next, in step Se10, in step Se3, in the multi-function comic reproducing device 1 that has received this ID registration page, the browser unit 41 opens the ID registration page on the screen, for example, “aaa” as the user ID, mail address "Aaa@bbbbb.jp", "ccccc" as the password, "dddddd" as the name, etc. are entered as ID registration information. When the “Send” button is pressed, the browser unit 41 transmits the ID registration information from the communication control unit 21 to the distribution server 13.

次いで、ID登録情報を受信した配信サーバ14は、受信したID登録情報をDB部15に登録して、ID登録処理を行う。この結果、ID登録情報として、ユーザIDに対応するメールアドレス、パスワード、氏名が1レコードとしてDB部15に登録される。
次いで、配信サーバ13は、「メニュ」ボタンが付加されたID登録完了ページを生成する。手順Se4では、配信サーバ13がこのID登録完了ページを多機能漫画再生装置1に送信する。
Next, the distribution server 14 that has received the ID registration information registers the received ID registration information in the DB unit 15 and performs an ID registration process. As a result, as the ID registration information, the mail address, password, and name corresponding to the user ID are registered in the DB unit 15 as one record.
Next, the distribution server 13 generates an ID registration completion page to which the “menu” button is added. In step Se <b> 4, the distribution server 13 transmits this ID registration completion page to the multi-function comic reproduction device 1.

次に、多機能漫画データの配信処理について説明する。
上記ID登録を終了した後、ユーザ側の多機能漫画再生装置1には、「メニュ」ボタンが付加されたID登録完了ページが表示される。
ユーザが表示画面から「メニュ」ボタンを押すと、ブラウザ部41では、「メニュ」要求を示すURLコードが入力される。ステップS15において、手順Se11では、ブラウザ部41は、通信制御部21、インターネット11を介して配信サーバ13に「メニュページ」要求を含むHP要求を送信する。
このHP要求を受信した配信サーバ13は、配信可能な多機能漫画データに関する複数のタイトルを有するメニュページを生成する。手順Se12では、配信サーバ13がこのメニュページを多機能漫画再生装置1に送信する。
Next, multi-function comic data distribution processing will be described.
After completing the ID registration, the multifunctional cartoon reproducing device 1 on the user side displays an ID registration completion page with a “menu” button added.
When the user presses the “menu” button from the display screen, the browser unit 41 inputs a URL code indicating a “menu” request. In step S <b> 15, in step Se <b> 11, the browser unit 41 transmits an HP request including a “menu page” request to the distribution server 13 via the communication control unit 21 and the Internet 11.
Upon receiving this HP request, the distribution server 13 generates a menu page having a plurality of titles relating to multi-function comic data that can be distributed. In step Se12, the distribution server 13 transmits this menu page to the multi-function cartoon reproducing apparatus 1.

このメニュページを受信した多機能漫画再生装置1では、ブラウザ部41は、メニュページを表示部31の画面上に表示する。これにより、複数の多機能漫画データに関する「タイトル」ボタンが表示される。そして、ユーザにより所望の1つの「タイトル」ボタンが押された場合、ステップS20において、手順Se13では、ブラウザ部41は、当該タイトルで示される多機能漫画データをダウンロードするためのダウンロード要求を配信サーバ13に送信する。   In the multi-function cartoon player 1 that has received this menu page, the browser unit 41 displays the menu page on the screen of the display unit 31. As a result, a “title” button for a plurality of multi-function comic data is displayed. When one desired “title” button is pressed by the user, in step Se20, in step Se13, the browser unit 41 sends a download request for downloading the multi-function comic data indicated by the title. 13 to send.

このダウンロード要求を受信した配信サーバ13は、ダウンロード要求に含まれるタイトルをキーとしてDB部15を検索し、当該タイトルに対応する多機能漫画データと実行ファイルをDB部15から読み出す。次いで、手順Se14では、この多機能漫画データと実行ファイルを多機能漫画再生装置1に送信する。
次いで、ステップS25において、配信サーバ13から多機能漫画データと実行ファイルを受信した多機能漫画再生装置1では、制御部37は、多機能漫画データと実行ファイルをメモリ部23に保存する。
この結果、メモリ部23には多機能漫画データと実行ファイルが保存される。
The distribution server 13 that has received the download request searches the DB unit 15 using the title included in the download request as a key, and reads out the multi-function comic data and the execution file corresponding to the title from the DB unit 15. Next, in step Se14, the multi-function comic data and the execution file are transmitted to the multi-function comic reproducing device 1.
Next, in step S <b> 25, in the multi-function comic reproducing device 1 that has received the multi-function comic data and the execution file from the distribution server 13, the control unit 37 stores the multi-function comic data and the execution file in the memory unit 23.
As a result, the multifunctional cartoon data and the execution file are stored in the memory unit 23.

次に、インストール処理について説明する。
まず、制御部37は、表示部31の画面上に「インストールしますか?」、「Yes」、「No」と表示する。
ここで、ユーザが「Yes」ボタンを押した場合には、ステップS30において、制御部37は、インストールを開始する。
Next, the installation process will be described.
First, the control unit 37 displays “Do you want to install?”, “Yes”, “No” on the screen of the display unit 31.
If the user presses the “Yes” button, the control unit 37 starts installation in step S30.

このインストールでは、制御部37は、メモリ部23に保存された多機能漫画データに含まれる複数のページ分の漫画の画像データおよび音声データを漫画データ記憶部23aに記憶する。
また、制御部37は、漫画の画像データのページ番号と、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を演出管理記憶部23bに記憶する。
さらに、制御部37は、演出管理番号に対応する演出パラメータおよび演出ファイルを演出ファイル記憶部23cに記憶する。
In this installation, the control unit 37 stores the comic image data and audio data for a plurality of pages included in the multi-function comic data stored in the memory unit 23 in the comic data storage unit 23a.
Further, the control unit 37 stores the production management number corresponding to the page number of the comic image data and the designated point area indicating the specific position range on the screen corresponding to the page number in the production management storage unit 23b.
Further, the control unit 37 stores the effect parameter and the effect file corresponding to the effect management number in the effect file storage unit 23c.

次いで、制御部37は、メモリ部23に保存された上記実行ファイルを制御部37内に設けられたフラッシュメモリ37aにインストールする。
この結果、制御部37内に設けられたフラッシュメモリ37aには、多機能漫画再生ソフトウエアの各モジュールとして、漫画制御部51、検索部53、演出ファイル読込部55、SW57、SW59、画像演出処理部61、音声演出処理部63がインストールされる。また、制御部37によりフラッシュメモリ37aのデスクトップ画面フォルダには「漫画」アイコンが登録される。
Next, the control unit 37 installs the execution file stored in the memory unit 23 in the flash memory 37 a provided in the control unit 37.
As a result, in the flash memory 37a provided in the control unit 37, the comic control unit 51, the search unit 53, the effect file reading unit 55, SW57, SW59, and image effect processing are provided as modules of the multi-function comic reproduction software. The unit 61 and the sound effect processing unit 63 are installed. In addition, a “cartoon” icon is registered in the desktop screen folder of the flash memory 37 a by the control unit 37.

次に、図4に示すテーブルを参照して、多機能漫画再生装置1に設けられたメモリ部23の構成についてより詳しく説明する。
メモリ部23は、漫画データ記憶部23a、演出管理記憶部23b、演出ファイル記憶部23cを有している。
漫画データ記憶部23aには、図4(a)に示すように、ページ(P1〜Pn)のそれぞれに対応した漫画の画像データ名(Mg1〜Mgn)、音声データ名(Ms1〜Msn)を記憶した漫画・画像音声テーブル23atが記憶されている。また、漫画データ記憶部23aには、複数のページ(P1〜Pn)分の漫画の画像データ(Mg1〜Mgn)、音声データ(Ms1〜Msn)が記憶されている。
Next, with reference to the table shown in FIG. 4, the configuration of the memory unit 23 provided in the multi-function comic reproducing device 1 will be described in more detail.
The memory unit 23 includes a comic data storage unit 23a, an effect management storage unit 23b, and an effect file storage unit 23c.
In the comic data storage unit 23a, as shown in FIG. 4A, comic image data names (Mg1 to Mgn) and audio data names (Ms1 to Msn) corresponding to the pages (P1 to Pn) are stored. The comic / image sound table 23at is stored. The comic data storage unit 23a stores comic image data (Mg1 to Mgn) and audio data (Ms1 to Msn) for a plurality of pages (P1 to Pn).

演出管理記憶部23bには、図4(b)に示すように、漫画のページ番号P1〜Pnと、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリア(Sa、Ea)とに対応する演出管理番号Nが演出管理テーブル23btとして記憶されている。指示点エリアは開始点位置Saと終点位置Eaとが1組のレコードになっており、開始点位置Saから終点位置Eaまでのエリア内を有効な接触操作とする。   In the effect management storage unit 23b, as shown in FIG. 4 (b), comic page numbers P1 to Pn and designated point areas (Sa, Ea) indicating a specific position range on the screen corresponding to the page numbers. The production management number N corresponding to is stored as the production management table 23bt. In the designated point area, the start point position Sa and the end point position Ea form a set of records, and the area from the start point position Sa to the end point position Ea is regarded as an effective contact operation.

演出ファイル記憶部23cは、図4(c)に示すように、演出管理番号Nに対応する演出パラメータ名(APG、APS)および演出ファイル名(G、S)を記憶する演出ファイル・演出パラメータ管理テーブル23ctを有している。また、演出ファイル記憶部23cは、演出パラメータ(APG、APS)、演出ファイル(G、S)等を記憶している。   As shown in FIG. 4C, the effect file storage unit 23c stores the effect parameter name (APG, APS) and the effect file name (G, S) corresponding to the effect management number N. It has a table 23ct. The effect file storage unit 23c stores effect parameters (APG, APS), effect files (G, S), and the like.

次に、図5に示すフローチャートを参照して、多機能漫画再生装置1の動作についてより詳しく説明する。
まず、ユーザが多機能漫画再生装置1に電源(図示しない)を投入すると、制御部37によりフラッシュメモリ37a内に記憶されているOSが起動され、表示部31においてデスクトップ画面の「漫画」アイコンが表示される。
Next, the operation of the multi-function comic reproducing device 1 will be described in more detail with reference to the flowchart shown in FIG.
First, when the user turns on the power (not shown) of the multi-functional cartoon player 1, the OS stored in the flash memory 37a is activated by the control unit 37, and the “cartoon” icon on the desktop screen is displayed on the display unit 31. Is displayed.

ユーザがタッチパッド部33上で「漫画」アイコン上に接触操作すると、タッチパッド制御部35は、指先の接触位置の座標(x,y)をタッチ分析部43に出力する。タッチ分析部43は、受け付けた座標(x,y)が「漫画」アイコンのエリアであることを判別する。次いで、タッチ分析部43は、ソフトウエアモジュールである漫画制御部51に起動命令を出力する。これにより、漫画制御部51は、図5のフローチャートで示す制御を開始する。   When the user performs a touch operation on the “manga” icon on the touch pad unit 33, the touch pad control unit 35 outputs the coordinates (x, y) of the contact position of the fingertip to the touch analysis unit 43. The touch analysis unit 43 determines that the received coordinates (x, y) are the area of the “manga” icon. Next, the touch analysis unit 43 outputs an activation command to the comic control unit 51 that is a software module. Thereby, the comic controller 51 starts the control shown in the flowchart of FIG.

ます、ステップS50では、漫画制御部51は、初期化処理として、ページp=1に設定する。
次いで、ステップS55では、漫画制御部51は、漫画データ記憶部23aからページpのデータを読み出し、このデータを再生する。
すなわち、漫画データ記憶部23aから読み出されたページpのデータ(Mg1またはMs1)がSW57に入力される。SW57では、入力されているデータの識別子が画像データを示す識別子(例えば、PNG,BMP,JPEG,TIF等のビットマップ系の識別子)である場合には、当該画像データMg1を画像処理部45に出力する。
First, in step S50, the comic controller 51 sets page p = 1 as an initialization process.
Next, in step S55, the comic control unit 51 reads the data of page p from the comic data storage unit 23a and reproduces this data.
That is, the page p data (Mg1 or Ms1) read from the comic data storage unit 23a is input to the SW 57. In SW57, when the identifier of the input data is an identifier indicating image data (for example, a bitmap identifier such as PNG, BMP, JPEG, TIF, etc.), the image data Mg1 is sent to the image processing unit 45. Output.

次いで、画像処理部45は、入力される画像データMg1に対して、表現方式や圧縮方式の相違を解消するために、表示制御部29で処理可能な画像データ形式への変換処理を行い、変換後の画像データを表示制御部29の画像メモリg1に出力する。
表示制御部29は、1ページ分の漫画の画像データを画像メモリg1に読み込んで表示部31の表示画面に表示する。
この結果、図6に示す初期画面(1ページ目)が表示部31に表示される。
Next, the image processing unit 45 converts the input image data Mg1 into an image data format that can be processed by the display control unit 29 in order to eliminate the difference in expression method and compression method. The subsequent image data is output to the image memory g1 of the display control unit 29.
The display control unit 29 reads the comic image data for one page into the image memory g 1 and displays it on the display screen of the display unit 31.
As a result, the initial screen (first page) shown in FIG.

一方、漫画データ記憶部23aから読み出されたページpのデータ(Mg1またはMs1)がSW57に入力される。SW57では、入力されているデータの識別子が音声データを示す識別子(例えば、MIDI,WMA,WAV,AU,AIFF,MP3,AVI,MPEG等)である場合には、当該音声データMs1を音声処理部47に出力する。   On the other hand, page p data (Mg1 or Ms1) read from the comic data storage unit 23a is input to the SW 57. In SW57, when the identifier of the input data is an identifier indicating audio data (for example, MIDI, WMA, WAV, AU, AIFF, MP3, AVI, MPEG, etc.), the audio data Ms1 is converted into an audio processing unit. Output to 47.

次いで、音声処理部47は、入力される音声データMs1に対して、表現方式や圧縮方式の相違を解消するために、音声制御部25で処理可能な音声データ形式への変換処理を行い、変換後の音声データを音声制御部25の音声メモリs1に出力する。
音声制御部25は、1ページ分の漫画の音声データを音声メモリs1に読み込んで再生し、スピーカ27に出力する。
この結果、図6に示す初期画面(1ページ目)に対応するテーマBGMがスピーカ27から出力される。これにより、ユーザに画像と同期したBGMの再生による楽しみ方を提供することができる。
Next, the voice processing unit 47 performs a conversion process on the input voice data Ms1 to a voice data format that can be processed by the voice control unit 25 in order to eliminate the difference in expression method and compression method. The subsequent audio data is output to the audio memory s1 of the audio control unit 25.
The audio control unit 25 reads the comic audio data for one page into the audio memory s 1, reproduces it, and outputs it to the speaker 27.
As a result, the theme BGM corresponding to the initial screen (first page) shown in FIG. As a result, it is possible to provide the user with a way to enjoy BGM reproduction synchronized with the image.

次いで、ステップS60では、漫画制御部51は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS65では、漫画制御部51は、タッチ分析部43が接触操作を検出したか否かを判断する。ここで、タッチ分析部43が接触操作を検出していない場合にはステップS55に戻る。
一方、タッチ分析部43が接触操作を検出した場合には、ステップS70において、漫画制御部51は、この接触操作が直後のページに移行するための+ページ捲り移動操作であるか、直前のページに移行するための−ページ捲り移動操作であるかを判断する。ここで、この接触操作が+ページ捲り移動操作である場合にはステップS75に進む。一方、この接触操作が−ページ捲り移動操作である場合にはステップS77に進む。
Next, in step S <b> 60, the comic control unit 51 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S65, the comic controller 51 determines whether or not the touch analysis unit 43 has detected a touch operation. Here, when the touch analysis unit 43 has not detected the contact operation, the process returns to step S55.
On the other hand, when the touch analysis unit 43 detects a touch operation, in step S70, the comic control unit 51 determines whether the touch operation is a + page turning movement operation for shifting to the next page or the previous page. It is determined whether the operation is a page turning movement operation for shifting to. Here, if this contact operation is a + page turning movement operation, the process proceeds to step S75. On the other hand, if this contact operation is a -page turning movement operation, the process proceeds to step S77.

ステップS75では、漫画制御部51は、ページ捲り移動のための接触操作に応じるために、ページp=p+1に設定する。これにより、表示部31に表示されている漫画のページを直後のページに移行する。次いで、ステップS55に進み、上述した処理を繰り返す。
なお、ステップS75の処理を行う毎にページpが大きくなり、いずれは最終ページに到達するが、本発明の特徴とするところとは直接に関係ないので、最終ぺージでの処理についてはフローチャートおよびその説明を省略する。
In step S75, the comic controller 51 sets page p = p + 1 in order to respond to the touch operation for turning the page. Thereby, the page of the manga displayed on the display unit 31 is shifted to the next page. Subsequently, it progresses to step S55 and the process mentioned above is repeated.
Note that each time the process of step S75 is performed, the page p becomes larger and eventually reaches the final page, but is not directly related to the feature of the present invention. The description is omitted.

ステップS77では、漫画制御部51は、−ページ捲り移動のための接触操作に応じるために、ページp=p−1に設定する。これにより、表示部31に表示されている漫画のページを直前のページに移行する。次いで、ステップS55に進み、上述した処理を繰り返す。
なお、ステップS77の処理を行う毎にページpが小さくなり、いずれは最初ページに到達するが、本発明の特徴とするところとは直接に関係ないので、最初ぺージでの処理についてはフローチャートおよびその説明を省略する。
In step S77, the comic controller 51 sets page p = p−1 in order to respond to the touch operation for turning the page. Thereby, the page of the manga displayed on the display unit 31 is shifted to the previous page. Subsequently, it progresses to step S55 and the process mentioned above is repeated.
Note that each time the process of step S77 is performed, the page p becomes smaller and eventually reaches the first page, but is not directly related to the feature of the present invention. The description is omitted.

上述した処理において、タッチパッド部33上への接触操作があり、かつ、ページ捲り移動のための接触操作ではない場合、タッチパッド部33上の所望の位置を意図的に接触した可能性がある。
そこで、ステップS80では、漫画制御部51は、タッチ分析部43に対してタッチ分析命令を出力する。タッチ分析部43は、タッチパッド部33上への接触位置(x,y)を検出し、この接触位置(x,y)を検索部53に出力する。
次いで、ステップS85では、漫画制御部51は、表示中の漫画のページを管理(ステップS75)しているので、現在表示されているページ番号pを抽出して、検索部53に出力する。
In the above-described processing, when there is a touch operation on the touch pad unit 33 and it is not a touch operation for turning the page, there is a possibility that a desired position on the touch pad unit 33 is intentionally touched. .
Therefore, in step S80, the comic controller 51 outputs a touch analysis command to the touch analysis unit 43. The touch analysis unit 43 detects the contact position (x, y) on the touch pad unit 33 and outputs the contact position (x, y) to the search unit 53.
Next, in step S85, the comic controller 51 manages the comic page being displayed (step S75), so the page number p currently displayed is extracted and output to the search unit 53.

次いで、ステップS90では、検索部53は、漫画制御部51から表示中の漫画のページ番号pを入力し、タッチ分析部43からタッチパッド部33への接触位置(x,y)とを入力し、演出管理テーブル23btから表示中の漫画のページ番号と指示点の位置とに対応する演出管理番号を検索する。
検索部53は、表示中の漫画のページ番号pと一致するページ番号が演出管理テーブル23btにある場合に、検出された指示点の接触位置(x,y)が演出管理テーブル23btに記憶された指示点エリア内にあるときの演出管理番号Nを検索結果として出力する。
Next, in step S90, the search unit 53 inputs the page number p of the displayed comic from the comic control unit 51, and inputs the contact position (x, y) from the touch analysis unit 43 to the touch pad unit 33. Then, the production management number corresponding to the page number of the currently displayed comic and the position of the designated point is retrieved from the production management table 23bt.
When the page number matching the page number p of the displayed comic is in the effect management table 23bt, the search unit 53 stores the detected contact point (x, y) of the indicated point in the effect management table 23bt. The production management number N when in the designated point area is output as a search result.

例えば、図6に示す1ページ目の漫画画面において、人物頭部の左右エリアに表示されている「花」の位置に対して、ユーザがタッチパッド部33上に接触した場合を想定する。図7は、図6に示す人物頭部の左右エリアを、あらかじめ指示点エリア[Sa(x1,y1)、Ea(x2,y2)]、[Sa(x3,y3)、Ea(x4,y4)]と設定したことを示す図であり、演出管理記憶部23bに演出管理テーブル23btとして記憶されている。   For example, it is assumed that the user touches the touch pad unit 33 with respect to the position of “flower” displayed in the left and right areas of the person's head on the first page comic screen shown in FIG. In FIG. 7, the left and right areas of the person's head shown in FIG. 6 are designated in advance by pointing point areas [Sa (x1, y1), Ea (x2, y2)], [Sa (x3, y3), Ea (x4, y4). ] Is set, and is stored as an effect management table 23bt in the effect management storage unit 23b.

検索部53は、ユーザによる接触位置(x,y)が、図7に示す指示点エリア内にある場合、すなわち、ユーザによる接触位置(x,y)が、演出管理記憶部23bに記憶されている演出管理テーブルの[Sa、Ea]で示すエリア内にある場合には、検索結果として演出管理番号N1を演出ファイル読込部55に出力する。
一方、ユーザの接触位置(x,y)が、図7に示す指示点エリア外にある場合、すなわち、ユーザの接触位置(x,y)が、演出管理テーブル23btの[Sa、Ea]で示すエリアにない場合には、検索結果として検索結果ゼロを漫画制御部51に出力する。
When the contact position (x, y) by the user is within the indicated point area shown in FIG. 7, the search unit 53 stores the contact position (x, y) by the user in the effect management storage unit 23b. If it is within the area indicated by [Sa, Ea], the production management number N1 is output to the production file reading unit 55 as a search result.
On the other hand, when the user's contact position (x, y) is outside the indicated point area shown in FIG. 7, that is, the user's contact position (x, y) is indicated by [Sa, Ea] in the effect management table 23bt. If not in the area, the search result zero is output to the comic controller 51 as the search result.

次いで、ステップS95では、検索部53は、検索結果ゼロが発生したか否かを判断する。ここで、検索結果ゼロが発生した場合には、NOP処理とし何も事象が発生しない。なお、NOP処理については、本発明と直接に関係しないので、その説明を省略する。一方、検索結果ゼロが発生していない場合、すなわち、検索部53が有効な演出管理番号N1を検索した場合には、ステップS100に進む。
次いで、ステップS100では、演出ファイル読込部55は、検索結果として演出管理番号N1を入力し、この演出管理番号N1をキーとして演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号N1に対応する演出パラメータ、演出ファイルを読み込む。
Next, in step S95, the search unit 53 determines whether a search result of zero has occurred. Here, if a search result of zero occurs, no event occurs as NOP processing. Note that the NOP processing is not directly related to the present invention, and thus the description thereof is omitted. On the other hand, when the search result zero is not generated, that is, when the search unit 53 searches for the effective production management number N1, the process proceeds to step S100.
Next, in step S100, the effect file reading unit 55 inputs the effect management number N1 as a search result, and using the effect management number N1 as a key, the effect parameter corresponding to the effect management number N1 from the effect file / effect parameter management table 23ct. Read the production file.

図4(c)に示すように、演出ファイル読込部55は、演出管理番号N1に対応する演出パラメータ名(APG1)および演出ファイル名(G1)を演出ファイル記憶部23cから抽出でき、演出パラメータ名(APG1)および演出ファイル名(G1)のファイルを演出ファイル・演出パラメータ管理テーブル23ctから読み出してSW59に出力する。   As shown in FIG. 4C, the effect file reading unit 55 can extract the effect parameter name (APG1) and the effect file name (G1) corresponding to the effect management number N1 from the effect file storage unit 23c. The file of (APG1) and effect file name (G1) is read from the effect file / effect parameter management table 23ct and output to SW59.

次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、ステップS105では、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、サブルーチンをコールする。
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in step S105, a subroutine is called in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63.

次いで、サブルーチンから復帰した場合には、ステップS110に進む。
ステップS110において、漫画制御部51は、この接触操作が+ページ捲り移動操作であるか−ページ捲り移動操作であるかを判断する。ここで、この接触操作が+ページ捲り移動操作である場合にはステップS75に進む。一方、この接触操作が−ページ捲り移動操作である場合にはステップS77に進む。
Next, when returning from the subroutine, the process proceeds to step S110.
In step S110, the comic controller 51 determines whether this contact operation is a + page turning movement operation or a -page turning movement operation. Here, if this contact operation is a + page turning movement operation, the process proceeds to step S75. On the other hand, if this contact operation is a -page turning movement operation, the process proceeds to step S77.

次に、図8に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図8に示すフローチャートは、図6に示す1ページ目の漫画画面において、人物頭部の左右エリアに表示されている「花」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、人物頭部の左右エリアに「花」が散っている様子を表示するためのサブルーチンである。   Next, with reference to the flowchart of the subroutine shown in FIG. 8, the effect file reproduction process performed in the image effect processing unit 61 will be described. Note that the flowchart shown in FIG. 8 shows that the user touches the touchpad unit 33 with respect to the position of “flower” displayed in the left and right areas of the person's head on the first page comic screen shown in FIG. This is a subroutine for displaying the appearance of “flowers” scattered in the left and right areas of the person's head.

まず、ステップS150では、画像演出処理部61は、演出ファイル(G1)から画像データを取得する。本実施形態では、「花びら」を示す画像データを2種類用いることとする。なお、「花びら」を示す画像データは、スクロール表示に用いるため、表示画面のY方向の辺よりも十分に長い画素からなり、アニメーションの開始位置(X1,Y1)から終了位置(X2,Y2)の間にスクロール表示することで、「花」が散っている様子を表示可能であればよい。   First, in step S150, the image effect processing unit 61 acquires image data from the effect file (G1). In the present embodiment, two types of image data indicating “petals” are used. Note that the image data indicating “petals” is composed of pixels that are sufficiently longer than the Y-direction side of the display screen for use in scroll display, and the animation start position (X1, Y1) to end position (X2, Y2) It suffices if it is possible to display a state where “flowers” are scattered by scrolling the display.

次いで、ステップS155では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS160では、画像演出処理部61は、演出パラメータ(APG1)から、アニメーションの開始位置(X1,Y1)および終了位置(X2,Y2)、画像の大きさ(nx1 dot× ny1 dot)を取得する。なお、さらにアニメーションの開始位置(X3,Y3)および終了位置(X4,Y4)を加えても良い。
Next, in step S <b> 155, the image effect processing unit 61 stores the acquired image data in the image memory g <b> 2 of the display control unit 29.
Next, in step S160, the image effect processing unit 61 determines the animation start position (X1, Y1) and end position (X2, Y2), and the image size (nx1 dot × ny1 dot) from the effect parameter (APG1). get. Furthermore, an animation start position (X3, Y3) and end position (X4, Y4) may be added.

次いで、ステップS165では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置および終了位置を表示制御部29に設定する。
これにより、図9に示すように、アニメーションの開始位置(X1,Y1)および終了位置(X2,Y2)からなる表示エリアと、アニメーションの開始位置(X3,Y3)および終了位置(X4,Y4)からなる表示エリアとの2つの表示エリアをアニメーションのために用いることができる。
Next, in step S165, the image effect processing unit 61 sets the start position and end position of the animation indicating the two display areas in the display control unit 29 as described above.
As a result, as shown in FIG. 9, the display area including the start position (X1, Y1) and end position (X2, Y2) of the animation, and the start position (X3, Y3) and end position (X4, Y4) of the animation. Two display areas can be used for animation: a display area consisting of

次いで、ステップS170では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データを回転・拡大縮小しつつ、Y方向にスクロールするモードに設定する。ここで、画像データの回転については、画像データに揺れを生じさせるために、y方向を回転軸としxz平面内において所定の角度範囲内で回転するモードに設定すればよい。また画像データの拡大縮小については、z軸方向において遠近感を生じさせるために、所定の倍率範囲内で拡大縮小するモードに設定すればよい。Y方向へのスクロールは、例えば1dot移動するモードに設定する。   Next, in step S170, the image effect processing unit 61 sets the display control unit 29 to a mode in which the image data stored in the image memory g2 is scrolled in the Y direction while being rotated / enlarged / reduced. Here, the rotation of the image data may be set to a mode that rotates within a predetermined angle range in the xz plane with the y direction as the rotation axis in order to cause the image data to shake. In addition, the enlargement / reduction of the image data may be set to a mode for enlargement / reduction within a predetermined magnification range in order to generate a sense of perspective in the z-axis direction. Scrolling in the Y direction is set to a mode that moves 1 dot, for example.

次いで、ステップS175では、画像演出処理部61は、アニメーションを開始するために、表示制御部29に対して、アニメーション開始命令を出力する。アニメーション開始命令を受け付けた表示制御部29は、設定されたモードに従って画像データに対するアニメーション描画処理を行う。
次いで、ステップS176では、画像演出処理部61は、Y方向にスクロールしている画像データの位置が終了位置に到達したか否かを判断する。画像データの位置が終了位置に到達した場合には、ステップS165に戻り、上記処理を繰り返す。一方、画像データの位置が終了位置に到達していない場合には、ステップS177に進む。
Next, in step S175, the image effect processing unit 61 outputs an animation start command to the display control unit 29 in order to start the animation. Upon receiving the animation start command, the display control unit 29 performs animation drawing processing on the image data according to the set mode.
Next, in step S176, the image effect processing unit 61 determines whether or not the position of the image data scrolling in the Y direction has reached the end position. If the position of the image data has reached the end position, the process returns to step S165 and the above process is repeated. On the other hand, if the position of the image data has not reached the end position, the process proceeds to step S177.

なお、本実施形態では、ステップS176での判定処理において、アニメーションが終了位置に到達したか否を判定するように記載したが、本発明はこのような場合に限定するものではなく、タイマが定期的に監視して所定時間に到達したか否かを判定してもよい。
次いで、ステップS177では、画像演出処理部61は、アニメーションを継続するために、表示制御部29に対して、アニメーション継続命令を出力する。
In the present embodiment, the determination process in step S176 is described to determine whether or not the animation has reached the end position. However, the present invention is not limited to such a case, and the timer is periodically set. It may be monitored to determine whether or not a predetermined time has been reached.
Next, in step S177, the image effect processing unit 61 outputs an animation continuation command to the display control unit 29 in order to continue the animation.

これにより、演出ファイルから取得した画像データを所定の方向にスクロールさせ、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図9に示す2つの表示エリア内に対して、2種類の「花びら」の画像データが揺れながらY方向にスクロールする画像を、図6に示す画像上に合成して表示部31に表示することができる。   As a result, the image data acquired from the effect file can be scrolled in a predetermined direction and combined and displayed in a predetermined display area on the current comic screen. That is, in the two display areas shown in FIG. 9, two types of “petal” image data that is scrolled in the Y direction while shaking are combined with the image shown in FIG. can do.

次いで、ステップS180では、画像演出処理部61は、タッチ分析部43に対してタッチ分析命令を出力する。タッチ分析部43は、タッチパッド部33上への接触操作を検出する。
次いで、ステップS185では、画像演出処理部61は、タッチ分析部43により検出された接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS176に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S180, the image effect processing unit 61 outputs a touch analysis command to the touch analysis unit 43. The touch analysis unit 43 detects a touch operation on the touch pad unit 33.
Next, in step S185, the image effect processing unit 61 determines whether or not the contact operation detected by the touch analysis unit 43 is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S176. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

この結果、表示画面の上から下に向けて花びらが散っているように視認することができる。これにより、ユーザに画像と同期したBGMの再生による楽しみ方を提供することができる。
従って、第1本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。
As a result, it can be visually recognized as if the petals are scattered from the top to the bottom of the display screen. As a result, it is possible to provide the user with a way to enjoy BGM reproduction synchronized with the image.
Therefore, according to the first embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第2実施形態>
本発明の第2実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第2実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図13に示すサブルーチンのフローチャートを用いることとする。
Second Embodiment
The multi-function comic reproduction device according to the second embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the second embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 13 instead of the flowchart of the subroutine shown in FIG.

次に、図13に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図13に示すフローチャートは、図10に示す2ページ目の漫画画面において、人物の右側エリアの吹き出しに表示されているテキスト「クローン技術」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、人物頭部の左側エリアに縮小された「犬」画像が斜め方向に順次に複製される様子を表示するためのサブルーチンである。   Next, with reference to the flowchart of the subroutine shown in FIG. 13, the effect file playback process performed in the image effect processing unit 61 will be described. The flowchart shown in FIG. 13 shows that the user moves the touch pad 33 to the position of the text “clone technology” displayed in the balloon in the right area of the person on the comic page on the second page shown in FIG. This is a subroutine for displaying a state where the “dog” image reduced in the left area of the person's head is sequentially copied in an oblique direction when touching.

すなわち、2ページ目の漫画画面において、図11に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x5,y5)、Ea(x6,y6)]内に接触した場合を想定する。
これにより、第2実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P2)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P2)と指示点の位置とに対応する演出管理番号(N2)を検索したこととなる。
That is, it is assumed that the user touches the designated point area [Sa (x5, y5), Ea (x6, y6)] on the touch pad 33 as shown in FIG. To do.
Accordingly, in the second embodiment, the search unit 53 uses the page number (P2) of the displayed comic image data and the position of the designated point as keys, and the page number (P2) and the designated point from the effect management table 23bt. This means that the production management number (N2) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N2)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N2)に対応する演出パラメータ(G2,S2)および演出ファイル(APG2,APS2)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N2) as a search result as a key, the effect parameter (G2, S2) and the effect corresponding to the effect management number (N2) from the effect file / effect parameter management table 23ct. The file (APG2, APS2) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記のサブルーチンをコールする。
なお、第2実施形態では、図13に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the second embodiment, the flowchart of the subroutine shown in FIG. 13 will be described in detail.

まず、ステップS200では、画像演出処理部61は、演出ファイル(G2)から画像データを取得する。本実施形態では、「犬」を示す画像データを用いることとする。
次いで、ステップS205では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS210では、画像演出処理部61は、演出パラメータ(APG2)から、アニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)、画像の大きさ(mx1 dot× my1 dot)を取得する。
First, in step S200, the image effect processing unit 61 acquires image data from the effect file (G2). In this embodiment, image data indicating “dog” is used.
Next, in step S205, the image effect processing unit 61 stores the acquired image data in the image memory g2 of the display control unit 29.
Next, in step S210, the image effect processor 61 determines from the effect parameter (APG2) the start position A (X1, Y1) and end position B (X2, Y2) of the animation, and the size of the image (mx1 dot × my1 dot). ) To get.

次いで、ステップS215では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)を表示制御部29に設定する。
これにより、図12に示すように、アニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)からなる表示エリアをアニメーションのために用いることができる。
次いで、ステップS220では、画像演出処理部61は、表示制御部に対して、アニメーション時の画像データの透明度を0〜1の間に設定する。
Next, in step S215, the image effect processing unit 61 sets the start position A (X1, Y1) and end position B (X2, Y2) of the animation indicating the two display areas in the display control unit 29 as described above. .
Thereby, as shown in FIG. 12, the display area including the start position A (X1, Y1) and the end position B (X2, Y2) of the animation can be used for animation.
Next, in step S220, the image effect processing unit 61 sets the transparency of the image data during animation to 0 to 1 for the display control unit.

次いで、ステップS225では、画像演出処理部61は、カウンタ値tを初期化するために、t=0と設定する。
次いで、ステップS210で取得した画像の大きさ(mx1 dot× my1 dot)のX成分からΔXを設定する。そして、A−B間の傾きmと、ΔXとからΔY=mΔXとする。これにより、アニメーション時の画像の表示位置の開始点P(X,Y)は、
X=X1+ΔX*t , Y=Y1+mΔX*t (1)
となる。
そこで、ステップS230では、画像演出処理部61は、X=X1+ΔX*t,Y=Y1+mΔX*tを算出して表示位置の開始点P(X,Y)を求める。
Next, in step S225, the image effect processing unit 61 sets t = 0 in order to initialize the counter value t.
Next, ΔX is set from the X component of the image size (mx1 dot × my1 dot) acquired in step S210. Then, ΔY = mΔX from the slope m between A and B and ΔX. As a result, the start point P (X, Y) of the display position of the image during animation is
X = X1 + ΔX * t, Y = Y1 + mΔX * t (1)
It becomes.
Therefore, in step S230, the image effect processing unit 61 calculates X = X1 + ΔX * t, Y = Y1 + mΔX * t to obtain the display position start point P (X, Y).

次いで、ステップS235では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データを開始点P(X、Y)に描画させる。
次いで、ステップS240では、画像演出処理部61は、カウンタ値tに対して、t=t+1と設定する。
ここで、表示位置の開始点P(X,Y)が終了位置B(X2,Y2)に近づいている度合い、すなわち、それぞれのX成分の差値(X2−X)が上記ΔX(画像の大きさのX成分)よりも近づいている場合には、描画を停止する。
Next, in step S235, the image effect processing unit 61 causes the display control unit 29 to draw the image data stored in the image memory g2 at the start point P (X, Y).
Next, in step S240, the image effect processing unit 61 sets t = t + 1 for the counter value t.
Here, the degree to which the start point P (X, Y) of the display position approaches the end position B (X2, Y2), that is, the difference value (X2−X) of each X component is ΔX (the size of the image). If the X component is closer, the drawing is stopped.

そこで、ステップS245では、画像演出処理部61は、差値(X2−X)<ΔXか否かを判断する。差値(X2−X)がΔXよりも大きい場合には、現在の描画位置Pが終了位置Bに到達していないとみなし、ステップS230に戻る。
一方、差値(X2−X)がΔXよりも小さい場合には、現在の描画位置Pが終了位置Bに到達していることとみなし、ステップS250に進み、描画処理を停止するために、表示制御部29に対して、アニメーション停止命令を出力する。
Therefore, in step S245, the image effect processing unit 61 determines whether or not the difference value (X2−X) <ΔX. When the difference value (X2−X) is larger than ΔX, it is considered that the current drawing position P has not reached the end position B, and the process returns to step S230.
On the other hand, if the difference value (X2−X) is smaller than ΔX, it is considered that the current drawing position P has reached the end position B, and the process proceeds to step S250 to display the display in order to stop the drawing process. An animation stop command is output to the control unit 29.

これにより、演出ファイルから取得した画像データの複製を所定の方向にシフトしながら所定の間隔を開けて配置し、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図12に示すように、A−B間の表示エリア内に対して縮小された「犬」の画像データが斜め方向に順次に複製された画像を、図14に示す画像上に合成して表示部31に表示することができる。   As a result, a copy of the image data acquired from the effect file can be arranged at a predetermined interval while being shifted in a predetermined direction, and can be combined and displayed in a predetermined display area on the current comic screen. That is, as shown in FIG. 12, an image obtained by sequentially duplicating “dog” image data reduced in the display area between A and B in an oblique direction is synthesized on the image shown in FIG. Can be displayed on the display unit 31.

この結果、表示画面の斜め方向に順次に「犬」の画像が複製されることを視認することができる。これにより、漫画内の人物がイメージ(「クローン技術」)している内容を「犬」の複製画像として表示でき、多機能漫画の楽しみを提供することができる。
なお、本実施形態では、図12に示すように、A−B間の表示エリア内に対して縮小された「犬」の画像データを複製して表示させたが、ページ内の任意の領域に表示させてもよい。
As a result, it can be visually recognized that the images of the “dog” are sequentially copied in the diagonal direction of the display screen. As a result, it is possible to display the contents of the image of the person in the comic (“clone technology”) as a duplicate image of “dog”, and to provide the enjoyment of multi-function comics.
In the present embodiment, as shown in FIG. 12, the image data of “dog” reduced in the display area between A and B is duplicated and displayed, but it is displayed in an arbitrary area in the page. It may be displayed.

次いで、ステップS255では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS260では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS255に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S <b> 255, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S260, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S255. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第2本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the second embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest in the scene developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第3実施形態>
本発明の第3実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第3実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図18に示すサブルーチンのフローチャートを用いることとする。
<Third Embodiment>
The multi-function comic reproduction device according to the third embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the third embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 18 instead of the flowchart of the subroutine shown in FIG.

次に、図18に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図18に示すフローチャートは、図15に示す3ページ目の漫画画面において、中央部分にいる人物の左腕部分に対して、ユーザがタッチパッド部33上に接触した場合に、人物の左腕が肘部分から手部分にかけて上方向に上がっている様子の画像と、左腕が一直線に上方に上がっている様子の画像とを繰り返して表示するためのサブルーチンである。   Next, with reference to the flowchart of the subroutine shown in FIG. 18, the effect file playback process performed in the image effect processing unit 61 will be described. In the flowchart shown in FIG. 18, in the comic screen on the third page shown in FIG. 15, when the user touches the touchpad unit 33 with respect to the left arm portion of the person in the center portion, This is a sub-routine for repeatedly displaying an image of an upward movement from the elbow portion to the hand portion and an image of the left arm rising upward in a straight line.

すなわち、3ページ目の漫画画面において、図16に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x7,y7)、Ea(x8,y8)]内に接触した場合を想定する。
これにより、第3実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P3)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P3)と指示点の位置とに対応する演出管理番号(N3)を検索したこととなる。
That is, it is assumed that the user touches the designated point area [Sa (x7, y7), Ea (x8, y8)] on the touch pad 33 as shown in FIG. To do.
Thereby, in the third embodiment, the search unit 53 uses the page number (P3) of the displayed comic image data and the position of the designated point as keys, and the page number (P3) and the designated point from the effect management table 23bt. This means that the production management number (N3) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N3)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N3)に対応する演出パラメータ(G3)および演出ファイル(APG3)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N3) as a search result as a key, and the effect parameter (G3) and effect file (G3) corresponding to the effect management number (N3) from the effect file / effect parameter management table 23ct. APG3) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記サブルーチンをコールする。
なお、第3実施形態では、図18に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform the effect file reproduction process in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the third embodiment, the flowchart of the subroutine shown in FIG. 18 will be described in detail.

まず、ステップS300では、画像演出処理部61は、演出ファイル(G3)から画像データを取得する。本実施形態では、人物の「左腕」を示す画像データを用いることとする。
次いで、ステップS305では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS310では、画像演出処理部61は、演出パラメータ(APG3)から、アニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)、画像の大きさ(mx2 dot× my2 dot)を取得する。
First, in step S300, the image effect processing unit 61 acquires image data from the effect file (G3). In this embodiment, image data indicating the “left arm” of a person is used.
Next, in step S305, the image effect processing unit 61 stores the acquired image data in the image memory g2 of the display control unit 29.
Next, in step S310, the image effect processing unit 61 determines from the effect parameter (APG3) the animation start position A (X7, Y7) and end position B (X8, Y8), and the size of the image (mx2 dot × my2 dot). ) To get.

次いで、ステップS315では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)を表示制御部29に設定する。
これにより、図17に示すように、アニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)からなる表示エリアをアニメーションのために用いることができる。
次いで、ステップS320では、画像演出処理部61は、カウンタ値kを初期化するために、k=0と設定する。
次いで、ステップS325では、画像演出処理部61は、演出に用いる画像データに対して、透明度Opa1=0に設定する。
Next, in step S315, the image effect processing unit 61 sets the animation start position A (X7, Y7) and end position B (X8, Y8) indicating the two display areas in the display control unit 29 as described above. .
Thereby, as shown in FIG. 17, the display area including the start position A (X7, Y7) and the end position B (X8, Y8) of the animation can be used for the animation.
Next, in step S320, the image effect processing unit 61 sets k = 0 in order to initialize the counter value k.
Next, in step S325, the image effect processing unit 61 sets transparency Opa1 = 0 for the image data used for the effect.

次いで、ステップS330では、画像演出処理部61は、表示制御部29に対して、アニメーション時の画像データの透明度OpaをOpa1に設定する。
次いで、ステップS335では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データをA−B間に描画させる。
次いで、ステップS340では、画像演出処理部61は、0.5秒だけ待つ。
次いで、ステップS345では、画像演出処理部61は、カウンタ値kをk=k+1と設定する。
Next, in step S330, the image effect processing unit 61 sets the transparency Opa of the image data during the animation to Opa1 for the display control unit 29.
Next, in step S335, the image effect processing unit 61 causes the display control unit 29 to draw the image data stored in the image memory g2 between A and B.
Next, in step S340, the image effect processing unit 61 waits for 0.5 seconds.
Next, in step S345, the image effect processing unit 61 sets the counter value k to k = k + 1.

次いで、ステップS350では、画像演出処理部61は、透明度Opa1を反転させる。すなわち、Opa1が0である場合には1に設定し、Opa1が1である場合には0に設定する。これにより、演出に用いる画像データの透明度Opa1が0と1とを交互に繰り返すので、画像データが全表示と全透明表示とを繰り返すことができる。   Next, in step S350, the image effect processing unit 61 inverts the transparency Opa1. That is, when Opa1 is 0, it is set to 1, and when Opa1 is 1, it is set to 0. As a result, the transparency Opa1 of the image data used for production alternately repeats 0 and 1, so that the image data can be repeatedly displayed in full display and fully transparent.

次いで、ステップS355では、画像演出処理部61は、カウンタ値kがk=nになったか否かを判断する。なお、n値が例えば10の場合には5秒間のアニメーション表示となる。ここで、k=nになっていない場合には、ステップS330に戻り処理を繰り返す。一方、k=nになった場合には、ステップS360に進む。
次いで、ステップS360では、画像演出処理部61は、アニメーションを停止するために、表示制御部29に対して、アニメーション停止命令を出力する。
Next, in step S355, the image effect processing unit 61 determines whether or not the counter value k becomes k = n. If the n value is 10, for example, the animation is displayed for 5 seconds. If k = n is not satisfied, the process returns to step S330 to repeat the process. On the other hand, if k = n, the process proceeds to step S360.
Next, in step S360, the image effect processing unit 61 outputs an animation stop command to the display control unit 29 in order to stop the animation.

これにより、演出ファイルから取得した画像データを例えば0.5秒の時間間隔を開けて全表示と全透明表示とを交互に繰り返し、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図17に示すように、A−B間の表示エリア内に対して、人物の左腕が肘部分から手部分にかけて上方向に上がるっている様子の画像と、左腕が一直線に上方に上がっている様子の画像とを0.5秒毎に繰り返し、図19に示す画像上に合成して表示部31に表示することができる。
この結果、表示画面の上方向に左腕の上げ下げを行う人物の画像を視認することができる。これにより、漫画内の人物によるジェスチャーを左腕の上げ下げとして表示でき、多機能漫画の楽しみを提供することができる。
As a result, the image data acquired from the production file is repeatedly displayed in a predetermined display area on the current comic screen by alternately repeating full display and full transparent display with a time interval of, for example, 0.5 seconds. can do. That is, as shown in FIG. 17, with respect to the display area between A and B, an image of the person's left arm rising upward from the elbow part to the hand part, and the left arm rising straight up. The image as it is can be repeated every 0.5 seconds and synthesized on the image shown in FIG.
As a result, it is possible to visually recognize an image of a person who raises and lowers his left arm upward in the display screen. Thereby, the gesture by the person in a comic can be displayed as raising and lowering of the left arm, and the enjoyment of a multi-functional comic can be provided.

次いで、ステップS365では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS370では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS375に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S365, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S370, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S375. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第3本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the third embodiment, there is a touch operation from the screen on a scene where the user is highly likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第4実施形態>
本発明の第4実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第4実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図20に示すサブルーチンのフローチャートを用いることとする。
<Fourth embodiment>
The multi-function comic reproduction device according to the fourth embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the fourth embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 20 instead of the flowchart of the subroutine shown in FIG.

次に、図20に示すサブルーチンのフローチャートを参照して、音声演出処理部63において行われる演出ファイル再生処理について説明する。なお、図20に示すフローチャートは、図10に示す2ページ目の漫画画面において、人物の右側エリアの吹き出しに表示されているテキスト「クローン技術」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、「犬」の鳴き声の音声データをスピーカ27から再生する動作を示している。   Next, with reference to the flowchart of the subroutine shown in FIG. 20, the effect file reproduction process performed in the sound effect processing unit 63 will be described. Note that the flowchart shown in FIG. 20 shows that the user moves the touchpad 33 over the position of the text “clone technology” displayed in the balloon in the right area of the person on the comic page on the second page shown in FIG. The operation of reproducing the voice data of the “dog” cry from the speaker 27 when touching is shown.

すなわち、2ページ目の漫画画面において、図11に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x5,y5)、Ea(x6,y6)]内に接触した場合を想定する。
これにより、第4実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P2)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P2)と指示点の位置とに対応する演出管理番号(N2)を検索したこととなる。
That is, it is assumed that the user touches the designated point area [Sa (x5, y5), Ea (x6, y6)] on the touch pad 33 as shown in FIG. To do.
Thus, in the fourth embodiment, the search unit 53 uses the page number (P2) of the displayed comic image data and the position of the designated point as keys, and the page number (P2) and the designated point from the effect management table 23bt. This means that the production management number (N2) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N2)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N2)に対応する演出パラメータ(G2,S2)および演出ファイル(APG2,APS2)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N2) as a search result as a key, the effect parameter (G2, S2) and the effect corresponding to the effect management number (N2) from the effect file / effect parameter management table 23ct. The file (APG2, APS2) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記のサブルーチンをコールする。
なお、第4実施形態では、図20に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the fourth embodiment, the flowchart of the subroutine shown in FIG. 20 will be described in detail.

まず、ステップS400では、音声演出処理部63は、演出ファイル(APS2)から音声データを取得する。
次いで、ステップS405では、音声演出処理部63は、取得した音声データを音声制御部25の音声メモリs2に記憶する。
次いで、ステップS410では、音声演出処理部63は、演出パラメータ(S2)から、音声の開始レベル(L1)、フェードイン時間T1、最大レベル(L2)、継続時間T2、フェイドアウト時間T3を取得する。
First, in step S400, the audio effect processing unit 63 acquires audio data from the effect file (APS2).
Next, in step S <b> 405, the audio effect processing unit 63 stores the acquired audio data in the audio memory s <b> 2 of the audio control unit 25.
Next, in step S410, the sound effect processing unit 63 acquires the sound start level (L1), the fade-in time T1, the maximum level (L2), the duration time T2, and the fade-out time T3 from the effect parameter (S2).

次いで、ステップS415では、音声演出処理部63は、音声の開始レベル(L1)、フェードイン時間T1、最大レベル(L2)、継続時間T2、フェイドアウト時間T3を音声制御部25に設定する。
次いで、ステップS425では、音声演出処理部63は、音声制御部25に対して、音声メモリs2に記憶した音声データの再生を開始する。
Next, in step S415, the sound effect processing unit 63 sets the sound start level (L1), fade-in time T1, maximum level (L2), duration T2, and fade-out time T3 in the sound control unit 25.
Next, in step S425, the sound effect processing unit 63 starts to reproduce the sound data stored in the sound memory s2 with respect to the sound control unit 25.

これにより、演出ファイルから取得した音声データを経過時間に応じて出力レベルを可変して出力することができる。すなわち、図21に示すように、0〜T1までの間に音圧レベルを上昇させてフェードインし、T2〜T3の間に音圧レベルを下降させてフェイドアウトしながら、「犬」の鳴き声の音声データをスピーカ27から時間T3になるまで再生することができる。
特に、図14に示すように、「犬」画像が斜め方向に順次に複製されて表示部31に表示されている間に、「犬」の鳴き声を再生することができる。これにより、ユーザに画像と同期した音声の再生による楽しみ方を提供することができる。
Thereby, the audio data acquired from the effect file can be output with the output level varied according to the elapsed time. That is, as shown in FIG. 21, the sound pressure level is raised between 0 and T1 and faded in, and the sound pressure level is lowered and faded out between T2 and T3. The audio data can be reproduced from the speaker 27 until time T3.
In particular, as shown in FIG. 14, the “dog” cry can be reproduced while the “dog” images are sequentially duplicated in the oblique direction and displayed on the display unit 31. Thereby, it is possible to provide the user with a way of enjoying by reproducing the sound synchronized with the image.

次いで、ステップS430では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS435では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS430に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S430, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S435, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S430. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第4本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像と演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the fourth embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image and the effect sound according to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<変形例1>
第2実施形態に係る多機能漫画再生装置1にあっては、画面上の特定の指示エリアに接触操作があった場合に、「犬」の画像を出力するように構成され、また、第4実施形態に係る多機能漫画再生装置1にあっては、画面上の特定の指示エリアに接触操作があった場合に、「犬」の音声を出力するように構成されていた。
<Modification 1>
The multi-function cartoon reproducing apparatus 1 according to the second embodiment is configured to output an image of “dog” when a touch operation is performed in a specific instruction area on the screen. The multi-functional cartoon reproducing apparatus 1 according to the embodiment is configured to output the voice of “dog” when a touch operation is performed in a specific instruction area on the screen.

しかしながら、本発明はこのような構成に限定されるものではなく、演出ファイル記憶部23cに記憶されている演出ファイルに、広告画面の内容を示す画像データ、広告音声の内容を示す音声データを記憶させておくことで、ユーザが興味を持った物品やサービスに対して、一層の興味を促す演出効果を与えることができ、ユーザの興味を一層拡大することができ、物品やサービスの拡販に寄与することができる。   However, the present invention is not limited to such a configuration, and image data indicating the content of the advertisement screen and audio data indicating the content of the advertisement sound are stored in the effect file stored in the effect file storage unit 23c. By doing so, it is possible to give a stunning effect to the goods and services that the user is interested in, to further increase the user's interests, and to contribute to the sales of goods and services can do.

<変形例2>
本発明の第1実施形態〜第4実施形態にあっては、多機能漫画再生装置1をタブレット型やノート型のパーソナルコンピュータに適用して説明した。
しかしながら、本発明はこのような構成に限定されるものではなく、タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、携帯電話機、PDA、テレビジョン受信装置に適用することができる。
<Modification 2>
In the first embodiment to the fourth embodiment of the present invention, the multi-function comic playback device 1 is applied to a tablet-type or notebook-type personal computer.
However, the present invention is not limited to such a configuration, and can be applied to a tablet personal computer, a notebook personal computer, a desktop personal computer, a mobile phone, a PDA, and a television receiver.

<変形例3>
本発明の第1実施形態〜第4実施形態にあっては、タッチパッド部33上で指示点エリア上に接触操作すると、タッチパッド制御部35が指先の接触位置の座標(x,y)をタッチ分析部43に出力するように構成した。
しかしながら、本発明はこのような構成に限定されるものではなく、指示手段としてマウスやトラックボール、ジョイスティックにより指示点エリア上に指示操作すると、指示位置の座標(x,y)を出力するように構成されたパーソナルコンピュータに適用することができる。
<Modification 3>
In the first to fourth embodiments of the present invention, when the touch operation is performed on the designated point area on the touch pad unit 33, the touch pad control unit 35 sets the coordinates (x, y) of the contact position of the fingertip. The output to the touch analysis unit 43 is configured.
However, the present invention is not limited to such a configuration, and when the pointing operation is performed on the pointing point area with the mouse, the trackball, or the joystick as the pointing means, the coordinates (x, y) of the pointing position are output. The present invention can be applied to a configured personal computer.

本発明の多機能漫画再生装置は、タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、携帯電話機、PDA、テレビジョン受信装置に利用できる。   The multi-functional cartoon reproducing apparatus of the present invention can be used for a tablet personal computer, a notebook personal computer, a desktop personal computer, a mobile phone, a PDA, and a television receiver.

1 多機能漫画再生装置
11 インターネット
13 配信サーバ
15 データベース部
21 通信制御部
23 メモリ部
25 音声制御部
27 スピーカ
29 表示制御部
31 表示部
33 タッチパッド部
35 タッチパッド制御部
37 制御部
41 ブラウザ部
43 タッチ分析部
45 画像処理部
47 音声処理部
51 漫画制御部
53 検索部
55 演出ファイル読込部
57 SW
59 SW
61 画像演出処理部
63 音声演出処理部
DESCRIPTION OF SYMBOLS 1 Multifunctional cartoon reproduction apparatus 11 Internet 13 Distribution server 15 Database part 21 Communication control part 23 Memory part 25 Voice control part 27 Speaker 29 Display control part 31 Display part 33 Touch pad part 35 Touch pad control part 37 Control part 41 Browser part 43 Touch analysis unit 45 Image processing unit 47 Audio processing unit 51 Cartoon control unit 53 Search unit 55 Production file reading unit 57 SW
59 SW
61 Image effect processing unit 63 Audio effect processing unit

本発明は、漫画の画像データや漫画の画像データに関連する音声データを再生することが可能な多機能漫画再生装置、多機能漫画再生方法およびコンピュータ・プログラムに関する。   The present invention relates to a multi-functional cartoon reproducing apparatus, a multi-functional cartoon reproducing method and a computer program capable of reproducing comic image data and audio data related to comic image data.

従来、漫画を表示する装置としては、一般に書籍として販売されている漫画本の各ページをスキャナで画像データ化し、この画像データを電子漫画の画像データとしてサーバ装置に蓄積しておき、ユーザが所望の電子漫画の画像データをダウンロードすることで、電子書籍表示装置に表示するものが知られている。   Conventionally, as a device for displaying comics, each page of a comic book generally sold as a book is converted into image data by a scanner, and the image data is stored in a server device as image data of an electronic comic. What is displayed on an electronic book display device by downloading the image data of the electronic comic book is known.

また、従来、漫画を表示する装置としては、特許文献1に記載された「漫画閲覧装置」が報告されている。
特許文献1には、少なくとも1コマの漫画コマ画像を含む少なくとも1ページの漫画ページ画像を表すページ・データおよび上記漫画コマ画像に関連する関連画像データを記憶しておき、ページ・データによって表される漫画ページ画像を表示装置の表示画面上に表示し、表示画面上に表示された漫画ページ画像に含まれる漫画コマ画像の少なくとも一部を関連画像データにもとづいて、その一部に重ね合わせて拡大して表示するという技術が開示されている。
Conventionally, as a device for displaying comics, a “cartoon browsing device” described in Patent Document 1 has been reported.
Patent Document 1 stores page data representing at least one comic page image including at least one comic frame image and related image data related to the comic frame image, and is represented by the page data. The comic page image is displayed on the display screen of the display device, and at least a part of the comic frame image included in the comic page image displayed on the display screen is superimposed on the part based on the related image data. A technique of enlarging and displaying is disclosed.

特に、表示画面上に表示された漫画ページ画像に含まれる漫画コマ画像の指定の入力を受付け、指定された漫画コマ画像の少なくとも一部をその一部に重ね合わせて拡大して表示するという技術が開示されている。
特許文献1に記載された技術では、表示画面上に漫画のページ画像を表示するとともに、そのページ画像に含まれるコマ画像の一部を拡大表示することによって、表示画面上に表示される漫画を読者(閲覧者)に読みやすく表示することできるという利点を有している。
In particular, a technology that accepts input for specifying a comic frame image included in a comic page image displayed on the display screen, and displays at least a portion of the specified comic frame image in an enlarged manner by superimposing it on that portion. Is disclosed.
In the technique described in Patent Document 1, a comic page image is displayed on the display screen, and a part of the frame image included in the page image is enlarged to display a comic displayed on the display screen. It has the advantage that it can be displayed in a readable manner for the reader (viewer).

特開2002−279398号公報JP 2002-279398 A

しかしながら、従来の「漫画閲覧装置」にあっては、コマ画像の一部を拡大表示するという1つの機能を有しているものの、1つの機能ではユーザが飽きてしまうといった問題があった。
そこで、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、多様な演出機能を有することでユーザに多様な楽しみ方を提供することが切望されている。
However, although the conventional “cartoon browsing device” has one function of enlarging and displaying a part of a frame image, there is a problem that the user gets bored with one function.
Therefore, it provides users with various ways of enjoying by having various directing functions for scenes that are likely to have directing interest among scenes developed on each page of the comic. It is anxious that.

本発明は、上記に鑑みてなされたもので、その目的としては、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像や演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる多機能漫画再生装置、多機能漫画再生方法およびコンピュータ・プログラムを提供することにある。   The present invention has been made in view of the above. For the purpose of the present invention, a screen is displayed on a scene where a user is likely to have directing interest among scenes developed on each page of a comic. When there is a touch operation from above, by playing the production image and production sound according to the location of the scene, it is possible to give a production effect that promotes further interest and enjoyment, and further enhances the user's interest and enjoyment. An object of the present invention is to provide a multi-functional cartoon reproducing apparatus, a multi-functional cartoon reproducing method and a computer program that can be expanded.

上記課題を解決するために、請求項1記載の発明は、少なくとも1ページ分の漫画の画像データを表示画面上に表示する表示手段と、前記漫画の画像データに関連する音声データを再生する音声再生手段とを備え、前記表示画面の特定位置に対してなされた接触操作に基づいて当該特定位置に対応した画像データおよび音声データの少なくとも一方を演出内容として出力するようにして多機能漫画を再生する多機能漫画再生装置であって、複数のページ分の漫画の画像データを記憶する第1記憶部と、漫画の画像データのページ番号と、前記ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を記憶する第2記憶部と、前記演出管理番号に対応する演出パラメータおよび演出ファイルを記憶する第3記憶部と、前記第1記憶部から1ページ分の漫画の画像データを読み込んで表示画面に表示する漫画表示手段と、前記表示画面上への接触操作に応じて指示点の位置を検出する位置検出手段と、前記表示中の漫画の画像データのページ番号と前記指示点の位置とをキーとして、前記第2記憶部から前記ページ番号と前記指示点の位置とに対応する演出管理番号を検索する検索手段と、前記検索結果となる演出管理番号をキーとして、前記第3記憶部から前記演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む読込手段と、前記読み込んだ演出ファイルが画像データである場合には、前記読み込んだ演出パラメータに基づいて該画像データに画像演出処理を施して再生する画像演出処理手段と、前記読み込んだ演出ファイルが音声データである場合には、前記読み込んだ演出パラメータに基づいて該音声データに音声演出処理を施して再生する音声演出処理手段と、を備えることを特徴とする多機能漫画再生装置である。   In order to solve the above problem, the invention described in claim 1 is characterized in that at least one page of comic image data for one page is displayed on a display screen, and audio for reproducing audio data related to the comic image data. Reproduction means, and based on a touch operation performed on a specific position on the display screen, at least one of image data and audio data corresponding to the specific position is output as a production content to reproduce the multi-function comic A multi-function comic reproducing device for storing a first storage unit storing comic image data for a plurality of pages, a page number of comic image data, and a specific position range on the screen corresponding to the page number A second storage unit for storing the production management number corresponding to the designated point area indicating the third, and a third storage for storing the production parameter and the production file corresponding to the production management number. A memory unit, a comic display unit for reading one-page comic image data from the first storage unit and displaying it on the display screen, and a position for detecting the position of the indication point according to the touch operation on the display screen Using the detection means and the page number of the displayed comic image data and the position of the designated point as keys, the production management number corresponding to the page number and the designated point position is searched from the second storage unit. Using the search management number as the search result as a key, reading means for reading the production parameter and production file corresponding to the production management number from the third storage unit, and the read production file as image data In some cases, an image effect processing means for performing image effect processing on the image data based on the read effect parameters and reproducing the image data, and the read effect file If a voice data is a multifunctional cartoon reproducing apparatus characterized by comprising a sound effect processing means for reproducing by performing audio effect process on the audio data based on the read presentation parameters.

本発明によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像や演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   According to the present invention, when a touch operation is performed from the screen on a scene where the user is highly likely to have directing interest in the scene developed on each page of the comic, By reproducing the production image and production sound according to the location, it is possible to provide a production effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

本発明の第1実施形態に係る多機能漫画再生装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1と配信サーバ13との間の通信シーケンスを表すシーケンス図である。It is a sequence diagram showing the communication sequence between the multi-function comics reproduction device 1 and distribution server 13 concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その1)である。It is a flowchart (the 1) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 図1に示すメモリ部23に記憶されているテーブルの構成についてより説明するための図である。It is a figure for demonstrating more about the structure of the table memorize | stored in the memory part 23 shown in FIG. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その2)である。It is a flowchart (the 2) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1による漫画画面(1ページ目)を示す表示例である。It is a display example which shows the comic screen (1st page) by the multi-function comic reproduction device 1 concerning a 1st embodiment of the present invention. 図6に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第1実施形態に係る多機能漫画再生装置1の動作を表すフローチャート(その3)である。It is a flowchart (the 3) showing operation | movement of the multifunctional comic reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1による演出効果を表示するための表示エリアを示す図である。It is a figure which shows the display area for displaying the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-function comics reproducing device 1 concerning a 1st embodiment of the present invention. 本発明の第2実施形態に係る多機能漫画再生装置1による漫画画面(2ページ目)を示す表示例である。It is a display example which shows the comic screen (2nd page) by the multi-function comic reproduction device 1 concerning a 2nd embodiment of the present invention. 図11に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第2実施形態に係る多機能漫画再生装置1による演出効果を表示するための表示エリアを示す図である。It is a figure which shows the display area for displaying the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1による漫画画面(3ページ目)を示す表示例である。It is a display example which shows the comic screen (3rd page) by the multi-functional comic reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 図15に示す表示例に対応する指示点エリアを示す図である。It is a figure which shows the indication point area corresponding to the example of a display shown in FIG. 本発明の第3実施形態に係る多機能漫画再生装置1による演出効果を表示するための表示エリアを示す図である。It is a figure which shows the display area for displaying the production effect by the multi-functional cartoon reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る多機能漫画再生装置1による演出効果の表示例を示す図である。It is a figure which shows the example of a display of the production effect by the multi-function comics reproducing device 1 concerning a 3rd embodiment of the present invention. 本発明の第4実施形態に係る多機能漫画再生装置1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the multifunctional cartoon reproduction apparatus 1 which concerns on 4th Embodiment of this invention. 本発明の第4実施形態に係る多機能漫画再生装置1による演出効果として音圧レベルと時間の関係を示す図である。It is a figure which shows the relationship between a sound pressure level and time as an effect by the multi-function comics reproduction device 1 concerning a 4th embodiment of the present invention.

以下、本発明の実施形態に係る多機能漫画再生装置について、図面を参照して説明する。
<第1実施形態>
図1に示すブロック図を参照して、本発明の第1実施形態に係る多機能漫画再生装置1の構成について説明する。なお、本実施形態では、タブレット型やノート型のパーソナルコンピュータを多機能漫画再生装置1に適用して説明する。
図1に示すように、多機能漫画再生装置1は、インターネット11を介して配信サーバ13に接続されている。配信サーバ13に設けられたデータベース部(DB部という)15には、各種漫画の多機能漫画データが蓄積されており、データベース部(DB部という)15から読み出された多機能漫画データが配信サーバ13、インターネット11を介して多機能漫画再生装置1にダウンロードされる。
Hereinafter, a multi-function cartoon reproducing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
With reference to the block diagram shown in FIG. 1, the structure of the multi-functional cartoon reproducing apparatus 1 according to the first embodiment of the present invention will be described. In the present embodiment, a tablet-type or notebook-type personal computer is applied to the multi-function comic reproduction device 1 for explanation.
As shown in FIG. 1, the multi-function comic reproduction device 1 is connected to a distribution server 13 via the Internet 11. The database unit (referred to as DB unit) 15 provided in the distribution server 13 stores multifunctional comic data of various comics, and the multifunctional comic data read from the database unit (referred to as DB unit) 15 is distributed. It is downloaded to the multi-function cartoon player 1 via the server 13 and the Internet 11.

多機能漫画再生装置1は、ハードウエアとして、通信制御部21、メモリ部23、音声制御部25、スピーカ27、表示制御部29、表示部31、タッチパッド部33、タッチパッド制御部35、制御部37を備えている。
通信制御部21は、インターネット11を介して配信サーバ13との間で所定の通信プロトコルに従ってパケット通信を行い、配信サーバ13から漫画の画像データ、演出管理テーブル、演出ファイル・演出パラメータ管理テーブル、演出ファイル、演出パラメータなどを多機能漫画データとしてダウンロードする。
The multi-function comic reproduction device 1 includes, as hardware, a communication control unit 21, a memory unit 23, a voice control unit 25, a speaker 27, a display control unit 29, a display unit 31, a touch pad unit 33, a touch pad control unit 35, and a control. A portion 37 is provided.
The communication control unit 21 performs packet communication with the distribution server 13 via the Internet 11 in accordance with a predetermined communication protocol. From the distribution server 13, comic image data, an effect management table, an effect file / effect parameter management table, an effect Download files, production parameters, etc. as multi-function comic data.

メモリ部23は、複数のページ分の漫画の画像データおよび音声データを記憶する漫画データ記憶部23a、漫画の画像データのページ番号と、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を記憶する演出管理記憶部23b、演出管理番号に対応する演出パラメータおよび演出ファイルを記憶する演出ファイル記憶部23cを有している。
演出ファイル記憶部23cに記憶されている演出ファイルには、広告画面の内容を示す画像データ、広告音声の内容を示す音声データが記憶されていることが好ましい。
The memory unit 23 includes a comic data storage unit 23a for storing comic image data and audio data for a plurality of pages, an instruction indicating a page number of the comic image data and a specific position range on the screen corresponding to the page number. There is an effect management storage unit 23b that stores an effect management number corresponding to the point area, and an effect file storage unit 23c that stores an effect parameter and an effect file corresponding to the effect management number.
The effect file stored in the effect file storage unit 23c preferably stores image data indicating the contents of the advertisement screen and sound data indicating the contents of the advertisement sound.

音声制御部25は、音声データを音声メモリs1に読み込んで音声信号に再生してスピーカ27に出力するとともに、音声演出処理を施した音声データを音声メモリs2に読み込んで音声信号に再生してスピーカ27に出力する。
表示制御部29は、1ページ分の漫画の画像データを画像メモリg1に読み込んで表示部31の表示画面に表示するとともに、画像演出処理を施した画像データを画像メモリg2に読み込んで表示部31の表示画面に表示する。
The audio control unit 25 reads the audio data into the audio memory s1, reproduces it as an audio signal and outputs it to the speaker 27, and reads the audio data subjected to the audio effect processing into the audio memory s2 and reproduces it as an audio signal. 27.
The display control unit 29 reads the comic image data for one page into the image memory g1 and displays it on the display screen of the display unit 31, and also reads the image data subjected to the image effect processing into the image memory g2 to display the display unit 31. On the display screen.

表示部31の表示画面には、表示画面と同一形状のタッチパッド部33が表示画面上に張り付けられている。
詳しくは、タッチパッド部33は、最上層にカバーガラスが配置され、この下面に導電膜付きフィルムまたは感圧式抵抗膜付きフィルムが配置されている。表示部31には、最上層から下方に向かって偏光板、ガラス基板、カラーフィルタ、液晶配向膜、ガラス基板、偏光板が配置されている。なお、表示部31の下方には、拡散シート、LED光を平面全体に導く導光板、反射フィルムの順に配置されている。
On the display screen of the display unit 31, a touch pad unit 33 having the same shape as the display screen is attached on the display screen.
Specifically, in the touch pad portion 33, a cover glass is disposed on the uppermost layer, and a film with a conductive film or a film with a pressure-sensitive resistance film is disposed on the lower surface. In the display unit 31, a polarizing plate, a glass substrate, a color filter, a liquid crystal alignment film, a glass substrate, and a polarizing plate are arranged from the uppermost layer downward. In addition, below the display part 31, it arrange | positions in order of the diffusion sheet, the light-guide plate which guides LED light to the whole plane, and a reflective film.

なお、本実施形態では、タッチパッド部33上の平面33aに対して、図1に示すように、(x,y)座標を用いて位置を表すこととし、一方、表示部31上の表示画面に対して、(X,Y)座標を用いて位置を表すこととし、説明の簡略化のために、x=X、y=Yとする。
タッチパッド制御部35は、タッチパッド部33に接続されており、タッチパッド部33に例えば指先が接触した場合に、指先の接触位置の座標(x,y)を出力する。
制御部37は、フラッシュメモリ37a(図示しない)、タイマを有し、フラッシュメモリ37a上に記憶されているOS(オペレーションシステム)を起動した後、ユーザによる所望のアプリケーションソフトウエアの選択により当該アプリケーションソフトウエアの起動が開始される。
In this embodiment, as shown in FIG. 1, the position is expressed using (x, y) coordinates with respect to the plane 33 a on the touch pad unit 33, while the display screen on the display unit 31 is displayed. On the other hand, the position is expressed by using (X, Y) coordinates, and x = X and y = Y for simplification of description.
The touch pad control unit 35 is connected to the touch pad unit 33, and outputs the coordinates (x, y) of the contact position of the fingertip when, for example, the fingertip contacts the touch pad unit 33.
The control unit 37 has a flash memory 37a (not shown) and a timer, and after starting an OS (operation system) stored on the flash memory 37a, the application software is selected by the user selecting a desired application software. The software starts up.

例えばアプリケーションソフトウエアの1つとして、多機能漫画再生ソフトウエアが選択された場合、制御部37に設けられたフラッシュメモリ37a上にブートされている多機能漫画再生ソフトウエアの各ソフトウエアモジュール(以下、モジュールという)が起動可能になる。
図1は、制御部37内のフラッシュメモリ37a上に実行可能に記憶されている、汎用のモジュール、多機能漫画再生ソフトウエアの各モジュールを示す。
For example, when multi-function comic reproduction software is selected as one of the application software, each software module (hereinafter referred to as the multi-function comic reproduction software) booted on the flash memory 37a provided in the control unit 37 is selected. , Called a module).
FIG. 1 shows a general-purpose module and a multi-function comic reproduction software module that are stored in the flash memory 37a in the control unit 37 so as to be executable.

まず、図1に示すブロック図を参照して、汎用のモジュールについて説明する。
ブラウザ部41は、指定したURLコードを通信制御部21からインターネットを介して配信サーバ13に送信し、ホームページをダウンロードして閲覧するためのモジュールである。
タッチ分析部43は、接触点のスピード(大きさ)、速度(大きさ及び方向)、加速度(大きさの変化及び/又は方向)を算出する。タッチ分析部43は、タッチパッド部33上への接触、接触移動、遮断を検出し、接触操作の検出に関連した種々の動作、例えば、接触操作が生じたかどうか決定し、接触操作の移動があるかどうか決定するとともに、タッチパッド部33上での移動を追跡し、接触操作が遮断したかどうか(即ち、接触操作が解除されたかどうか)決定する。これにより、タッチ分析部43は、+ページ捲り移動操作、または−ページ捲り移動操作を検出する。また、タッチ分析部43は、接触位置の座標(x,y)を出力する。
First, a general-purpose module will be described with reference to the block diagram shown in FIG.
The browser unit 41 is a module for transmitting a designated URL code from the communication control unit 21 to the distribution server 13 via the Internet, and downloading and browsing a home page.
The touch analysis unit 43 calculates the speed (size), speed (size and direction), and acceleration (size change and / or direction) of the contact point. The touch analysis unit 43 detects contact, contact movement, and interruption on the touch pad unit 33, determines whether various operations related to detection of the contact operation, for example, contact operation has occurred, and the movement of the contact operation is performed. In addition to determining whether or not there is a touch, the movement on the touch pad unit 33 is tracked to determine whether or not the contact operation has been interrupted (that is, whether or not the contact operation has been released). Thereby, the touch analysis unit 43 detects a + page turning movement operation or a -page turning movement operation. The touch analysis unit 43 outputs the coordinates (x, y) of the contact position.

画像処理部45は、入力される画像データに対して、表現方式や圧縮方式の相違を解消するために、表示制御部29で処理可能な画像データ形式への変換処理を行い、表示制御部29に出力する。
音声処理部47は、入力される音声データに対して、表現方式や圧縮方式の相違を解消するために、音声制御部25で処理可能な音声データ形式への変換処理を行い、音声制御部25に出力する。
なお、上述した汎用のモジュールについては、工場出荷時に制御部37に設けられたフラッシュメモリにあらかじめインストールされていることとして説明する。
The image processing unit 45 converts the input image data into an image data format that can be processed by the display control unit 29 in order to eliminate the difference in expression method and compression method. Output to.
The voice processing unit 47 performs conversion processing on the input voice data into a voice data format that can be processed by the voice control unit 25 in order to eliminate differences in expression method and compression method. Output to.
The general-purpose module described above will be described as being preinstalled in a flash memory provided in the control unit 37 at the time of factory shipment.

次に、多機能漫画再生ソフトウエアの各モジュールによる実行動作について説明する。
漫画制御部51は、ブラウザ部41を起動して多機能漫画データをダウンロードし、この多機能漫画データをメモリ部23に記憶する。また、漫画制御部51は、表示中の漫画の画像データのページを管理しており、タッチ分析部43からのページ捲り移動による指示に応じて、漫画データ記憶部23aから該当ページの漫画の画像データを読み出すように制御する。
Next, the execution operation by each module of the multi-function comic reproduction software will be described.
The comic controller 51 activates the browser unit 41 to download multi-function comic data, and stores the multi-function comic data in the memory unit 23. Further, the comic controller 51 manages the page of the comic image data being displayed, and the comic image of the corresponding page is read from the comic data storage unit 23a in response to an instruction by the page turning movement from the touch analysis unit 43. Control to read data.

検索部53は、漫画制御部51から表示中の漫画の画像データのページ番号を入力し、タッチ分析部43からタッチパッド部33への接触有りの決定と指示点の位置とを入力し、表示中の漫画の画像データのページ番号と指示点の位置とをキーとして、演出管理記憶部23bからページ番号と指示点の位置とに対応する演出管理番号を検索する。   The search unit 53 inputs the page number of the comic image data being displayed from the comic control unit 51, inputs the presence / absence of contact with the touch pad unit 33 from the touch analysis unit 43, and the position of the indication point. The production management number corresponding to the page number and the position of the designated point is searched from the production management storage unit 23b using the page number of the cartoon image data in the middle and the position of the designated point as keys.

演出ファイル読込部55は、上記の検索結果となる演出管理番号をキーとして、演出ファイル記憶部23cから演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む。
SW57は、漫画データ記憶部23aから出力されたデータの識別子を判断して、画像データである場合には、当該画像データを画像処理部45に出力する。また、SW57は、漫画データ記憶部23aから出力されたデータの識別子を判断して、上記画像データとは別に音声データがある場合には、当該音声データを音声処理部47に出力する。
The effect file reading unit 55 reads an effect parameter and an effect file corresponding to the effect management number from the effect file storage unit 23c using the effect management number as the search result as a key.
The SW 57 determines the identifier of the data output from the comic data storage unit 23a, and outputs the image data to the image processing unit 45 if it is image data. Further, the SW 57 determines the identifier of the data output from the comic data storage unit 23a, and outputs audio data to the audio processing unit 47 when audio data is present separately from the image data.

SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、画像データである場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、音声データである場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。   The SW 59 determines the identifier of the effect file or the effect parameter output from the effect file reading unit 55, and outputs the effect file or the effect parameter to the image effect processing unit 61 if it is image data. Further, the SW 59 determines the identifier of the effect file or the effect parameter output from the effect file reading unit 55, and outputs the effect file or the effect parameter to the sound effect processing unit 63 if it is audio data.

画像演出処理部61は、入力される演出ファイルが画像データである場合には、入力される演出パラメータに基づいて該画像データに画像演出処理を施して再生し、再生後の画像データを表示制御部29に出力する。
音声演出処理部63は、入力される演出ファイルが音声データである場合には、入力される演出パラメータに基づいて該音声データに音声演出処理を施して再生し、再生後の音声データを音声制御部25に出力する。
When the input effect file is image data, the image effect processing unit 61 performs image effect processing on the image data based on the input effect parameters and reproduces the image data, and controls the display of the reproduced image data. To the unit 29.
When the input effect file is sound data, the sound effect processing unit 63 performs sound effect processing on the sound data based on the input effect parameters and reproduces the sound data, and performs sound control on the reproduced sound data. To the unit 25.

なお、上述したブラウザ部41、タッチ分析部43、画像処理部45、音声処理部47、漫画制御部51、検索部53、演出ファイル読込部55、SW57、SW59、画像演出処理部61、音声演出処理部63等は、フラッシュメモリ37a(図示しない)に記憶されたプログラムモジュールであり、CPU(図示しない)がフラッシュメモリ37aから読み出して実行し、処理過程においてRAM(図示しない)をワーキングメモリとして用いることで、これらの処理を実行する。なお、異なるプログラムモジュール同士によるデータの引き渡しはRAM(図示しない)を用いて処理する。   The browser unit 41, the touch analysis unit 43, the image processing unit 45, the voice processing unit 47, the comic control unit 51, the search unit 53, the effect file reading unit 55, SW57, SW59, the image effect processing unit 61, and the sound effect described above. The processing unit 63 and the like are program modules stored in the flash memory 37a (not shown). The CPU (not shown) reads out and executes from the flash memory 37a, and uses a RAM (not shown) as a working memory in the process. Thus, these processes are executed. Note that data transfer between different program modules is processed using a RAM (not shown).

次に、図2に示すシーケンス図、図3に示すフローチャートを参照して、本発明の第1実施形態に係る多機能漫画再生装置1と配信サーバ13との間の通信シーケンス、多機能漫画再生装置1の動作について説明する。
まず、ID登録処理について説明する。
ユーザが、表示画面上にあるブラウザのアイコンの位置に対して、タッチパッド部33上に接触操作すると、タッチパッド制御部35から接触位置が制御部37に出力される。ここで、制御部37は、接触位置がブラウザのアイコンのエリア内にあることを判定して、制御部37はブラウザ部41を起動する。これにより、ブラウザ部41の操作画面が表示される。
Next, with reference to the sequence diagram shown in FIG. 2 and the flowchart shown in FIG. 3, the communication sequence between the multi-function comic reproduction device 1 and the distribution server 13 according to the first embodiment of the present invention, the multi-function comic reproduction The operation of the device 1 will be described.
First, the ID registration process will be described.
When the user performs a touch operation on the touch pad unit 33 with respect to the position of the browser icon on the display screen, the touch position is output from the touch pad control unit 35 to the control unit 37. Here, the control unit 37 determines that the contact position is within the area of the browser icon, and the control unit 37 activates the browser unit 41. Thereby, the operation screen of the browser unit 41 is displayed.

次いで、ステップS5において、ユーザが操作画面から配信サーバ13のURLコードを入力すると、手順Se1では、ブラウザ部41は、通信制御部21、インターネット11を介して配信サーバ13にHP要求を送信する。
このHP要求を受信した配信サーバ13が、ID登録ページを生成する。手順Se2では、配信サーバ13が、このID登録ページを多機能漫画再生装置1に送信する。
Next, when the user inputs the URL code of the distribution server 13 from the operation screen in step S <b> 5, in step Se <b> 1, the browser unit 41 transmits an HP request to the distribution server 13 via the communication control unit 21 and the Internet 11.
The distribution server 13 that has received this HP request generates an ID registration page. In step Se2, the distribution server 13 transmits this ID registration page to the multi-function comic reproducing device 1.

次いで、ステップS10において、手順Se3では、このID登録ページを受信した多機能漫画再生装置1では、ブラウザ部41は、ID登録ページを画面上に開き、例えば、ユーザIDとして「aaa」、メールアドレスとして「aaa@bbbbb.jp」、パスワードとして「ccccc」、氏名として「dddddd」等が入力され、ID登録情報とする。そして、「送信」ボタンが押された場合に、ブラウザ部41は、ID登録情報を通信制御部21から配信サーバ13に送信する。   Next, in step Se10, in step Se3, in the multi-function comic reproducing device 1 that has received this ID registration page, the browser unit 41 opens the ID registration page on the screen, for example, “aaa” as the user ID, mail address "Aaa@bbbbb.jp", "ccccc" as the password, "dddddd" as the name, etc. are entered as ID registration information. When the “Send” button is pressed, the browser unit 41 transmits the ID registration information from the communication control unit 21 to the distribution server 13.

次いで、ID登録情報を受信した配信サーバ14は、受信したID登録情報をDB部15に登録して、ID登録処理を行う。この結果、ID登録情報として、ユーザIDに対応するメールアドレス、パスワード、氏名が1レコードとしてDB部15に登録される。
次いで、配信サーバ13は、「メニュ」ボタンが付加されたID登録完了ページを生成する。手順Se4では、配信サーバ13がこのID登録完了ページを多機能漫画再生装置1に送信する。
Next, the distribution server 14 that has received the ID registration information registers the received ID registration information in the DB unit 15 and performs an ID registration process. As a result, as the ID registration information, the mail address, password, and name corresponding to the user ID are registered in the DB unit 15 as one record.
Next, the distribution server 13 generates an ID registration completion page to which the “menu” button is added. In step Se <b> 4, the distribution server 13 transmits this ID registration completion page to the multi-function comic reproduction device 1.

次に、多機能漫画データの配信処理について説明する。
上記ID登録を終了した後、ユーザ側の多機能漫画再生装置1には、「メニュ」ボタンが付加されたID登録完了ページが表示される。
ユーザが表示画面から「メニュ」ボタンを押すと、ブラウザ部41では、「メニュ」要求を示すURLコードが入力される。ステップS15において、手順Se11では、ブラウザ部41は、通信制御部21、インターネット11を介して配信サーバ13に「メニュページ」要求を含むHP要求を送信する。
このHP要求を受信した配信サーバ13は、配信可能な多機能漫画データに関する複数のタイトルを有するメニュページを生成する。手順Se12では、配信サーバ13がこのメニュページを多機能漫画再生装置1に送信する。
Next, multi-function comic data distribution processing will be described.
After completing the ID registration, the multifunctional cartoon reproducing device 1 on the user side displays an ID registration completion page with a “menu” button added.
When the user presses the “menu” button from the display screen, the browser unit 41 inputs a URL code indicating a “menu” request. In step S <b> 15, in step Se <b> 11, the browser unit 41 transmits an HP request including a “menu page” request to the distribution server 13 via the communication control unit 21 and the Internet 11.
Upon receiving this HP request, the distribution server 13 generates a menu page having a plurality of titles relating to multi-function comic data that can be distributed. In step Se12, the distribution server 13 transmits this menu page to the multi-function cartoon reproducing apparatus 1.

このメニュページを受信した多機能漫画再生装置1では、ブラウザ部41は、メニュページを表示部31の画面上に表示する。これにより、複数の多機能漫画データに関する「タイトル」ボタンが表示される。そして、ユーザにより所望の1つの「タイトル」ボタンが押された場合、ステップS20において、手順Se13では、ブラウザ部41は、当該タイトルで示される多機能漫画データをダウンロードするためのダウンロード要求を配信サーバ13に送信する。   In the multi-function cartoon player 1 that has received this menu page, the browser unit 41 displays the menu page on the screen of the display unit 31. As a result, a “title” button for a plurality of multi-function comic data is displayed. When one desired “title” button is pressed by the user, in step Se20, in step Se13, the browser unit 41 sends a download request for downloading the multi-function comic data indicated by the title. 13 to send.

このダウンロード要求を受信した配信サーバ13は、ダウンロード要求に含まれるタイトルをキーとしてDB部15を検索し、当該タイトルに対応する多機能漫画データと実行ファイルをDB部15から読み出す。次いで、手順Se14では、この多機能漫画データと実行ファイルを多機能漫画再生装置1に送信する。
次いで、ステップS25において、配信サーバ13から多機能漫画データと実行ファイルを受信した多機能漫画再生装置1では、制御部37は、多機能漫画データと実行ファイルをメモリ部23に保存する。
この結果、メモリ部23には多機能漫画データと実行ファイルが保存される。
The distribution server 13 that has received the download request searches the DB unit 15 using the title included in the download request as a key, and reads out the multi-function comic data and the execution file corresponding to the title from the DB unit 15. Next, in step Se14, the multi-function comic data and the execution file are transmitted to the multi-function comic reproducing device 1.
Next, in step S <b> 25, in the multi-function comic reproducing device 1 that has received the multi-function comic data and the execution file from the distribution server 13, the control unit 37 stores the multi-function comic data and the execution file in the memory unit 23.
As a result, the multifunctional cartoon data and the execution file are stored in the memory unit 23.

次に、インストール処理について説明する。
まず、制御部37は、表示部31の画面上に「インストールしますか?」、「Yes」、「No」と表示する。
ここで、ユーザが「Yes」ボタンを押した場合には、ステップS30において、制御部37は、インストールを開始する。
Next, the installation process will be described.
First, the control unit 37 displays “Do you want to install?”, “Yes”, “No” on the screen of the display unit 31.
If the user presses the “Yes” button, the control unit 37 starts installation in step S30.

このインストールでは、制御部37は、メモリ部23に保存された多機能漫画データに含まれる複数のページ分の漫画の画像データおよび音声データを漫画データ記憶部23aに記憶する。
また、制御部37は、漫画の画像データのページ番号と、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を演出管理記憶部23bに記憶する。
さらに、制御部37は、演出管理番号に対応する演出パラメータおよび演出ファイルを演出ファイル記憶部23cに記憶する。
In this installation, the control unit 37 stores the comic image data and audio data for a plurality of pages included in the multi-function comic data stored in the memory unit 23 in the comic data storage unit 23a.
Further, the control unit 37 stores the production management number corresponding to the page number of the comic image data and the designated point area indicating the specific position range on the screen corresponding to the page number in the production management storage unit 23b.
Further, the control unit 37 stores the effect parameter and the effect file corresponding to the effect management number in the effect file storage unit 23c.

次いで、制御部37は、メモリ部23に保存された上記実行ファイルを制御部37内に設けられたフラッシュメモリ37aにインストールする。
この結果、制御部37内に設けられたフラッシュメモリ37aには、多機能漫画再生ソフトウエアの各モジュールとして、漫画制御部51、検索部53、演出ファイル読込部55、SW57、SW59、画像演出処理部61、音声演出処理部63がインストールされる。また、制御部37によりフラッシュメモリ37aのデスクトップ画面フォルダには「漫画」アイコンが登録される。
Next, the control unit 37 installs the execution file stored in the memory unit 23 in the flash memory 37 a provided in the control unit 37.
As a result, in the flash memory 37a provided in the control unit 37, the comic control unit 51, the search unit 53, the effect file reading unit 55, SW57, SW59, and image effect processing are provided as modules of the multi-function comic reproduction software. The unit 61 and the sound effect processing unit 63 are installed. In addition, a “cartoon” icon is registered in the desktop screen folder of the flash memory 37 a by the control unit 37.

次に、図4に示すテーブルを参照して、多機能漫画再生装置1に設けられたメモリ部23の構成についてより詳しく説明する。
メモリ部23は、漫画データ記憶部23a、演出管理記憶部23b、演出ファイル記憶部23cを有している。
漫画データ記憶部23aには、図4(a)に示すように、ページ(P1〜Pn)のそれぞれに対応した漫画の画像データ名(Mg1〜Mgn)、音声データ名(Ms1〜Msn)を記憶した漫画・画像音声テーブル23atが記憶されている。また、漫画データ記憶部23aには、複数のページ(P1〜Pn)分の漫画の画像データ(Mg1〜Mgn)、音声データ(Ms1〜Msn)が記憶されている。
Next, with reference to the table shown in FIG. 4, the configuration of the memory unit 23 provided in the multi-function comic reproducing device 1 will be described in more detail.
The memory unit 23 includes a comic data storage unit 23a, an effect management storage unit 23b, and an effect file storage unit 23c.
In the comic data storage unit 23a, as shown in FIG. 4A, comic image data names (Mg1 to Mgn) and audio data names (Ms1 to Msn) corresponding to the pages (P1 to Pn) are stored. The comic / image sound table 23at is stored. The comic data storage unit 23a stores comic image data (Mg1 to Mgn) and audio data (Ms1 to Msn) for a plurality of pages (P1 to Pn).

演出管理記憶部23bには、図4(b)に示すように、漫画のページ番号P1〜Pnと、ページ番号に対応する画面上の特定の位置範囲を示す指示点エリア(Sa、Ea)とに対応する演出管理番号Nが演出管理テーブル23btとして記憶されている。指示点エリアは開始点位置Saと終点位置Eaとが1組のレコードになっており、開始点位置Saから終点位置Eaまでのエリア内を有効な接触操作とする。   In the effect management storage unit 23b, as shown in FIG. 4 (b), comic page numbers P1 to Pn and designated point areas (Sa, Ea) indicating a specific position range on the screen corresponding to the page numbers. The production management number N corresponding to is stored as the production management table 23bt. In the designated point area, the start point position Sa and the end point position Ea form a set of records, and the area from the start point position Sa to the end point position Ea is regarded as an effective contact operation.

演出ファイル記憶部23cは、図4(c)に示すように、演出管理番号Nに対応する演出パラメータ名(APG、APS)および演出ファイル名(G、S)を記憶する演出ファイル・演出パラメータ管理テーブル23ctを有している。また、演出ファイル記憶部23cは、演出パラメータ(APG、APS)、演出ファイル(G、S)等を記憶している。   As shown in FIG. 4C, the effect file storage unit 23c stores the effect parameter name (APG, APS) and the effect file name (G, S) corresponding to the effect management number N. It has a table 23ct. The effect file storage unit 23c stores effect parameters (APG, APS), effect files (G, S), and the like.

次に、図5に示すフローチャートを参照して、多機能漫画再生装置1の動作についてより詳しく説明する。
まず、ユーザが多機能漫画再生装置1に電源(図示しない)を投入すると、制御部37によりフラッシュメモリ37a内に記憶されているOSが起動され、表示部31においてデスクトップ画面の「漫画」アイコンが表示される。
Next, the operation of the multi-function comic reproducing device 1 will be described in more detail with reference to the flowchart shown in FIG.
First, when the user turns on the power (not shown) of the multi-functional cartoon player 1, the OS stored in the flash memory 37a is activated by the control unit 37, and the “cartoon” icon on the desktop screen is displayed on the display unit 31. Is displayed.

ユーザがタッチパッド部33上で「漫画」アイコン上に接触操作すると、タッチパッド制御部35は、指先の接触位置の座標(x,y)をタッチ分析部43に出力する。タッチ分析部43は、受け付けた座標(x,y)が「漫画」アイコンのエリアであることを判別する。次いで、タッチ分析部43は、ソフトウエアモジュールである漫画制御部51に起動命令を出力する。これにより、漫画制御部51は、図5のフローチャートで示す制御を開始する。   When the user performs a touch operation on the “manga” icon on the touch pad unit 33, the touch pad control unit 35 outputs the coordinates (x, y) of the contact position of the fingertip to the touch analysis unit 43. The touch analysis unit 43 determines that the received coordinates (x, y) are the area of the “manga” icon. Next, the touch analysis unit 43 outputs an activation command to the comic control unit 51 that is a software module. Thereby, the comic controller 51 starts the control shown in the flowchart of FIG.

ます、ステップS50では、漫画制御部51は、初期化処理として、ページp=1に設定する。
次いで、ステップS55では、漫画制御部51は、漫画データ記憶部23aからページpのデータを読み出し、このデータを再生する。
すなわち、漫画データ記憶部23aから読み出されたページpのデータ(Mg1またはMs1)がSW57に入力される。SW57では、入力されているデータの識別子が画像データを示す識別子(例えば、PNG,BMP,JPEG,TIF等のビットマップ系の識別子)である場合には、当該画像データMg1を画像処理部45に出力する。
First, in step S50, the comic controller 51 sets page p = 1 as an initialization process.
Next, in step S55, the comic control unit 51 reads the data of page p from the comic data storage unit 23a and reproduces this data.
That is, the page p data (Mg1 or Ms1) read from the comic data storage unit 23a is input to the SW 57. In SW57, when the identifier of the input data is an identifier indicating image data (for example, a bitmap identifier such as PNG, BMP, JPEG, TIF, etc.), the image data Mg1 is sent to the image processing unit 45. Output.

次いで、画像処理部45は、入力される画像データMg1に対して、表現方式や圧縮方式の相違を解消するために、表示制御部29で処理可能な画像データ形式への変換処理を行い、変換後の画像データを表示制御部29の画像メモリg1に出力する。
表示制御部29は、1ページ分の漫画の画像データを画像メモリg1に読み込んで表示部31の表示画面に表示する。
この結果、図6に示す初期画面(1ページ目)が表示部31に表示される。
Next, the image processing unit 45 converts the input image data Mg1 into an image data format that can be processed by the display control unit 29 in order to eliminate the difference in expression method and compression method. The subsequent image data is output to the image memory g1 of the display control unit 29.
The display control unit 29 reads the comic image data for one page into the image memory g 1 and displays it on the display screen of the display unit 31.
As a result, the initial screen (first page) shown in FIG.

一方、漫画データ記憶部23aから読み出されたページpのデータ(Mg1またはMs1)がSW57に入力される。SW57では、入力されているデータの識別子が音声データを示す識別子(例えば、MIDI,WMA,WAV,AU,AIFF,MP3,AVI,MPEG等)である場合には、当該音声データMs1を音声処理部47に出力する。   On the other hand, page p data (Mg1 or Ms1) read from the comic data storage unit 23a is input to the SW 57. In SW57, when the identifier of the input data is an identifier indicating audio data (for example, MIDI, WMA, WAV, AU, AIFF, MP3, AVI, MPEG, etc.), the audio data Ms1 is converted into an audio processing unit. Output to 47.

次いで、音声処理部47は、入力される音声データMs1に対して、表現方式や圧縮方式の相違を解消するために、音声制御部25で処理可能な音声データ形式への変換処理を行い、変換後の音声データを音声制御部25の音声メモリs1に出力する。
音声制御部25は、1ページ分の漫画の音声データを音声メモリs1に読み込んで再生し、スピーカ27に出力する。
この結果、図6に示す初期画面(1ページ目)に対応するテーマBGMがスピーカ27から出力される。これにより、ユーザに画像と同期したBGMの再生による楽しみ方を提供することができる。
Next, the voice processing unit 47 performs a conversion process on the input voice data Ms1 to a voice data format that can be processed by the voice control unit 25 in order to eliminate the difference in expression method and compression method. The subsequent audio data is output to the audio memory s1 of the audio control unit 25.
The audio control unit 25 reads the comic audio data for one page into the audio memory s 1, reproduces it, and outputs it to the speaker 27.
As a result, the theme BGM corresponding to the initial screen (first page) shown in FIG. As a result, it is possible to provide the user with a way to enjoy BGM reproduction synchronized with the image.

次いで、ステップS60では、漫画制御部51は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS65では、漫画制御部51は、タッチ分析部43が接触操作を検出したか否かを判断する。ここで、タッチ分析部43が接触操作を検出していない場合にはステップS55に戻る。
一方、タッチ分析部43が接触操作を検出した場合には、ステップS70において、漫画制御部51は、この接触操作が直後のページに移行するための+ページ捲り移動操作であるか、直前のページに移行するための−ページ捲り移動操作であるかを判断する。ここで、この接触操作が+ページ捲り移動操作である場合にはステップS75に進む。一方、この接触操作が−ページ捲り移動操作である場合にはステップS77に進む。
Next, in step S <b> 60, the comic control unit 51 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S65, the comic controller 51 determines whether or not the touch analysis unit 43 has detected a touch operation. Here, when the touch analysis unit 43 has not detected the contact operation, the process returns to step S55.
On the other hand, when the touch analysis unit 43 detects a touch operation, in step S70, the comic control unit 51 determines whether the touch operation is a + page turning movement operation for shifting to the next page or the previous page. It is determined whether the operation is a page turning movement operation for shifting to. Here, if this contact operation is a + page turning movement operation, the process proceeds to step S75. On the other hand, if this contact operation is a -page turning movement operation, the process proceeds to step S77.

ステップS75では、漫画制御部51は、ページ捲り移動のための接触操作に応じるために、ページp=p+1に設定する。これにより、表示部31に表示されている漫画のページを直後のページに移行する。次いで、ステップS55に進み、上述した処理を繰り返す。
なお、ステップS75の処理を行う毎にページpが大きくなり、いずれは最終ページに到達するが、本発明の特徴とするところとは直接に関係ないので、最終ぺージでの処理についてはフローチャートおよびその説明を省略する。
In step S75, the comic controller 51 sets page p = p + 1 in order to respond to the touch operation for turning the page. Thereby, the page of the manga displayed on the display unit 31 is shifted to the next page. Subsequently, it progresses to step S55 and the process mentioned above is repeated.
Note that each time the process of step S75 is performed, the page p becomes larger and eventually reaches the final page, but is not directly related to the feature of the present invention. The description is omitted.

ステップS77では、漫画制御部51は、−ページ捲り移動のための接触操作に応じるために、ページp=p−1に設定する。これにより、表示部31に表示されている漫画のページを直前のページに移行する。次いで、ステップS55に進み、上述した処理を繰り返す。
なお、ステップS77の処理を行う毎にページpが小さくなり、いずれは最初ページに到達するが、本発明の特徴とするところとは直接に関係ないので、最初ぺージでの処理についてはフローチャートおよびその説明を省略する。
In step S77, the comic controller 51 sets page p = p−1 in order to respond to the touch operation for turning the page. Thereby, the page of the manga displayed on the display unit 31 is shifted to the previous page. Subsequently, it progresses to step S55 and the process mentioned above is repeated.
Note that each time the process of step S77 is performed, the page p becomes smaller and eventually reaches the first page, but is not directly related to the feature of the present invention. The description is omitted.

上述した処理において、タッチパッド部33上への接触操作があり、かつ、ページ捲り移動のための接触操作ではない場合、タッチパッド部33上の所望の位置を意図的に接触した可能性がある。
そこで、ステップS80では、漫画制御部51は、タッチ分析部43に対してタッチ分析命令を出力する。タッチ分析部43は、タッチパッド部33上への接触位置(x,y)を検出し、この接触位置(x,y)を検索部53に出力する。
次いで、ステップS85では、漫画制御部51は、表示中の漫画のページを管理(ステップS75)しているので、現在表示されているページ番号pを抽出して、検索部53に出力する。
In the above-described processing, when there is a touch operation on the touch pad unit 33 and it is not a touch operation for turning the page, there is a possibility that a desired position on the touch pad unit 33 is intentionally touched. .
Therefore, in step S80, the comic controller 51 outputs a touch analysis command to the touch analysis unit 43. The touch analysis unit 43 detects the contact position (x, y) on the touch pad unit 33 and outputs the contact position (x, y) to the search unit 53.
Next, in step S85, the comic controller 51 manages the comic page being displayed (step S75), so the page number p currently displayed is extracted and output to the search unit 53.

次いで、ステップS90では、検索部53は、漫画制御部51から表示中の漫画のページ番号pを入力し、タッチ分析部43からタッチパッド部33への接触位置(x,y)とを入力し、演出管理テーブル23btから表示中の漫画のページ番号と指示点の位置とに対応する演出管理番号を検索する。
検索部53は、表示中の漫画のページ番号pと一致するページ番号が演出管理テーブル23btにある場合に、検出された指示点の接触位置(x,y)が演出管理テーブル23btに記憶された指示点エリア内にあるときの演出管理番号Nを検索結果として出力する。
Next, in step S90, the search unit 53 inputs the page number p of the displayed comic from the comic control unit 51, and inputs the contact position (x, y) from the touch analysis unit 43 to the touch pad unit 33. Then, the production management number corresponding to the page number of the currently displayed comic and the position of the designated point is retrieved from the production management table 23bt.
When the page number matching the page number p of the displayed comic is in the effect management table 23bt, the search unit 53 stores the detected contact point (x, y) of the indicated point in the effect management table 23bt. The production management number N when in the designated point area is output as a search result.

例えば、図6に示す1ページ目の漫画画面において、人物頭部の左右エリアに表示されている「花」の位置に対して、ユーザがタッチパッド部33上に接触した場合を想定する。図7は、図6に示す人物頭部の左右エリアを、あらかじめ指示点エリア[Sa(x1,y1)、Ea(x2,y2)]、[Sa(x3,y3)、Ea(x4,y4)]と設定したことを示す図であり、演出管理記憶部23bに演出管理テーブル23btとして記憶されている。   For example, it is assumed that the user touches the touch pad unit 33 with respect to the position of “flower” displayed in the left and right areas of the person's head on the first page comic screen shown in FIG. In FIG. 7, the left and right areas of the person's head shown in FIG. 6 are designated in advance by pointing point areas [Sa (x1, y1), Ea (x2, y2)], [Sa (x3, y3), Ea (x4, y4). ] Is set, and is stored as an effect management table 23bt in the effect management storage unit 23b.

検索部53は、ユーザによる接触位置(x,y)が、図7に示す指示点エリア内にある場合、すなわち、ユーザによる接触位置(x,y)が、演出管理記憶部23bに記憶されている演出管理テーブルの[Sa、Ea]で示すエリア内にある場合には、検索結果として演出管理番号N1を演出ファイル読込部55に出力する。
一方、ユーザの接触位置(x,y)が、図7に示す指示点エリア外にある場合、すなわち、ユーザの接触位置(x,y)が、演出管理テーブル23btの[Sa、Ea]で示すエリアにない場合には、検索結果として検索結果ゼロを漫画制御部51に出力する。
When the contact position (x, y) by the user is within the indicated point area shown in FIG. 7, the search unit 53 stores the contact position (x, y) by the user in the effect management storage unit 23b. If it is within the area indicated by [Sa, Ea], the production management number N1 is output to the production file reading unit 55 as a search result.
On the other hand, when the user's contact position (x, y) is outside the indicated point area shown in FIG. 7, that is, the user's contact position (x, y) is indicated by [Sa, Ea] in the effect management table 23bt. If not in the area, the search result zero is output to the comic controller 51 as the search result.

次いで、ステップS95では、検索部53は、検索結果ゼロが発生したか否かを判断する。ここで、検索結果ゼロが発生した場合には、NOP処理とし何も事象が発生しない。なお、NOP処理については、本発明と直接に関係しないので、その説明を省略する。一方、検索結果ゼロが発生していない場合、すなわち、検索部53が有効な演出管理番号N1を検索した場合には、ステップS100に進む。
次いで、ステップS100では、演出ファイル読込部55は、検索結果として演出管理番号N1を入力し、この演出管理番号N1をキーとして演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号N1に対応する演出パラメータ、演出ファイルを読み込む。
Next, in step S95, the search unit 53 determines whether a search result of zero has occurred. Here, if a search result of zero occurs, no event occurs as NOP processing. Note that the NOP processing is not directly related to the present invention, and thus the description thereof is omitted. On the other hand, when the search result zero is not generated, that is, when the search unit 53 searches for the effective production management number N1, the process proceeds to step S100.
Next, in step S100, the effect file reading unit 55 inputs the effect management number N1 as a search result, and using the effect management number N1 as a key, the effect parameter corresponding to the effect management number N1 from the effect file / effect parameter management table 23ct. Read the production file.

図4(c)に示すように、演出ファイル読込部55は、演出管理番号N1に対応する演出パラメータ名(APG1)および演出ファイル名(G1)を演出ファイル記憶部23cから抽出でき、演出パラメータ名(APG1)および演出ファイル名(G1)のファイルを演出ファイル・演出パラメータ管理テーブル23ctから読み出してSW59に出力する。   As shown in FIG. 4C, the effect file reading unit 55 can extract the effect parameter name (APG1) and the effect file name (G1) corresponding to the effect management number N1 from the effect file storage unit 23c. The file of (APG1) and effect file name (G1) is read from the effect file / effect parameter management table 23ct and output to SW59.

次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、ステップS105では、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、サブルーチンをコールする。
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in step S105, a subroutine is called in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63.

次いで、サブルーチンから復帰した場合には、ステップS110に進む。
ステップS110において、漫画制御部51は、この接触操作が+ページ捲り移動操作であるか−ページ捲り移動操作であるかを判断する。ここで、この接触操作が+ページ捲り移動操作である場合にはステップS75に進む。一方、この接触操作が−ページ捲り移動操作である場合にはステップS77に進む。
Next, when returning from the subroutine, the process proceeds to step S110.
In step S110, the comic controller 51 determines whether this contact operation is a + page turning movement operation or a -page turning movement operation. Here, if this contact operation is a + page turning movement operation, the process proceeds to step S75. On the other hand, if this contact operation is a -page turning movement operation, the process proceeds to step S77.

次に、図8に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図8に示すフローチャートは、図6に示す1ページ目の漫画画面において、人物頭部の左右エリアに表示されている「花」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、人物頭部の左右エリアに「花」が散っている様子を表示するためのサブルーチンである。   Next, with reference to the flowchart of the subroutine shown in FIG. 8, the effect file reproduction process performed in the image effect processing unit 61 will be described. Note that the flowchart shown in FIG. 8 shows that the user touches the touchpad unit 33 with respect to the position of “flower” displayed in the left and right areas of the person's head on the first page comic screen shown in FIG. This is a subroutine for displaying the appearance of “flowers” scattered in the left and right areas of the person's head.

まず、ステップS150では、画像演出処理部61は、演出ファイル(G1)から画像データを取得する。本実施形態では、「花びら」を示す画像データを2種類用いることとする。なお、「花びら」を示す画像データは、スクロール表示に用いるため、表示画面のY方向の辺よりも十分に長い画素からなり、アニメーションの開始位置(X1,Y1)から終了位置(X2,Y2)の間にスクロール表示することで、「花」が散っている様子を表示可能であればよい。   First, in step S150, the image effect processing unit 61 acquires image data from the effect file (G1). In the present embodiment, two types of image data indicating “petals” are used. Note that the image data indicating “petals” is composed of pixels that are sufficiently longer than the Y-direction side of the display screen for use in scroll display, and the animation start position (X1, Y1) to end position (X2, Y2) It suffices if it is possible to display a state where “flowers” are scattered by scrolling the display.

次いで、ステップS155では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS160では、画像演出処理部61は、演出パラメータ(APG1)から、アニメーションの開始位置(X1,Y1)および終了位置(X2,Y2)、画像の大きさ(nx1 dot× ny1 dot)を取得する。なお、さらにアニメーションの開始位置(X3,Y3)および終了位置(X4,Y4)を加えても良い。
Next, in step S <b> 155, the image effect processing unit 61 stores the acquired image data in the image memory g <b> 2 of the display control unit 29.
Next, in step S160, the image effect processing unit 61 determines the animation start position (X1, Y1) and end position (X2, Y2), and the image size (nx1 dot × ny1 dot) from the effect parameter (APG1). get. Furthermore, an animation start position (X3, Y3) and end position (X4, Y4) may be added.

次いで、ステップS165では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置および終了位置を表示制御部29に設定する。
これにより、図9に示すように、アニメーションの開始位置(X1,Y1)および終了位置(X2,Y2)からなる表示エリアと、アニメーションの開始位置(X3,Y3)および終了位置(X4,Y4)からなる表示エリアとの2つの表示エリアをアニメーションのために用いることができる。
Next, in step S165, the image effect processing unit 61 sets the start position and end position of the animation indicating the two display areas in the display control unit 29 as described above.
As a result, as shown in FIG. 9, the display area including the start position (X1, Y1) and end position (X2, Y2) of the animation, and the start position (X3, Y3) and end position (X4, Y4) of the animation. Two display areas can be used for animation: a display area consisting of

次いで、ステップS170では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データを回転・拡大縮小しつつ、Y方向にスクロールするモードに設定する。ここで、画像データの回転については、画像データに揺れを生じさせるために、y方向を回転軸としxz平面内において所定の角度範囲内で回転するモードに設定すればよい。また画像データの拡大縮小については、z軸方向において遠近感を生じさせるために、所定の倍率範囲内で拡大縮小するモードに設定すればよい。Y方向へのスクロールは、例えば1dot移動するモードに設定する。   Next, in step S170, the image effect processing unit 61 sets the display control unit 29 to a mode in which the image data stored in the image memory g2 is scrolled in the Y direction while being rotated / enlarged / reduced. Here, the rotation of the image data may be set to a mode that rotates within a predetermined angle range in the xz plane with the y direction as the rotation axis in order to cause the image data to shake. In addition, the enlargement / reduction of the image data may be set to a mode for enlargement / reduction within a predetermined magnification range in order to generate a sense of perspective in the z-axis direction. Scrolling in the Y direction is set to a mode that moves 1 dot, for example.

次いで、ステップS175では、画像演出処理部61は、アニメーションを開始するために、表示制御部29に対して、アニメーション開始命令を出力する。アニメーション開始命令を受け付けた表示制御部29は、設定されたモードに従って画像データに対するアニメーション描画処理を行う。
次いで、ステップS176では、画像演出処理部61は、Y方向にスクロールしている画像データの位置が終了位置に到達したか否かを判断する。画像データの位置が終了位置に到達した場合には、ステップS165に戻り、上記処理を繰り返す。一方、画像データの位置が終了位置に到達していない場合には、ステップS177に進む。
Next, in step S175, the image effect processing unit 61 outputs an animation start command to the display control unit 29 in order to start the animation. Upon receiving the animation start command, the display control unit 29 performs animation drawing processing on the image data according to the set mode.
Next, in step S176, the image effect processing unit 61 determines whether or not the position of the image data scrolling in the Y direction has reached the end position. If the position of the image data has reached the end position, the process returns to step S165 and the above process is repeated. On the other hand, if the position of the image data has not reached the end position, the process proceeds to step S177.

なお、本実施形態では、ステップS176での判定処理において、アニメーションが終了位置に到達したか否を判定するように記載したが、本発明はこのような場合に限定するものではなく、タイマが定期的に監視して所定時間に到達したか否かを判定してもよい。
次いで、ステップS177では、画像演出処理部61は、アニメーションを継続するために、表示制御部29に対して、アニメーション継続命令を出力する。
In the present embodiment, the determination process in step S176 is described to determine whether or not the animation has reached the end position. However, the present invention is not limited to such a case, and the timer is periodically set. It may be monitored to determine whether or not a predetermined time has been reached.
Next, in step S177, the image effect processing unit 61 outputs an animation continuation command to the display control unit 29 in order to continue the animation.

これにより、演出ファイルから取得した画像データを所定の方向にスクロールさせ、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図9に示す2つの表示エリア内に対して、2種類の「花びら」の画像データが揺れながらY方向にスクロールする画像を、図10に示す画像上に合成して表示部31に表示することができる。 As a result, the image data acquired from the effect file can be scrolled in a predetermined direction and combined and displayed in a predetermined display area on the current comic screen. That is, the display for two display area shown in FIG. 9, the two types of images to be scrolled in the Y direction while the image data is shaking the "petals", on the display unit 31 by combining on the image shown in FIG. 10 can do.

次いで、ステップS180では、画像演出処理部61は、タッチ分析部43に対してタッチ分析命令を出力する。タッチ分析部43は、タッチパッド部33上への接触操作を検出する。
次いで、ステップS185では、画像演出処理部61は、タッチ分析部43により検出された接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS176に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S180, the image effect processing unit 61 outputs a touch analysis command to the touch analysis unit 43. The touch analysis unit 43 detects a touch operation on the touch pad unit 33.
Next, in step S185, the image effect processing unit 61 determines whether or not the contact operation detected by the touch analysis unit 43 is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S176. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

この結果、表示画面の上から下に向けて花びらが散っているように視認することができる。これにより、ユーザに画像と同期したBGMの再生による楽しみ方を提供することができる。
従って、第1本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。
As a result, it can be visually recognized as if the petals are scattered from the top to the bottom of the display screen. As a result, it is possible to provide the user with a way to enjoy BGM reproduction synchronized with the image.
Therefore, according to the first embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第2実施形態>
本発明の第2実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第2実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図14に示すサブルーチンのフローチャートを用いることとする。
Second Embodiment
The multi-function comic reproduction device according to the second embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the second embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 14 instead of the flowchart of the subroutine shown in FIG.

次に、図14に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図14に示すフローチャートは、図11に示す2ページ目の漫画画面において、人物の右側エリアの吹き出しに表示されているテキスト「クローン技術」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、人物頭部の左側エリアに縮小された「犬」画像が斜め方向に順次に複製される様子を表示するためのサブルーチンである。 Next, with reference to the flowchart of the subroutine shown in FIG. 14 , the effect file playback process performed in the image effect processing unit 61 will be described. The flowchart shown in FIG. 14, in the second page of the comics the screen shown in FIG. 11, with respect to the position of the text "cloning technology" displayed on the balloon in the right area of the person, the user on the touch pad unit 33 This is a subroutine for displaying a state where the “dog” image reduced in the left area of the person's head is sequentially copied in an oblique direction when touching.

すなわち、2ページ目の漫画画面において、図12に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x5,y5)、Ea(x6,y6)]内に接触した場合を想定する。
これにより、第2実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P2)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P2)と指示点の位置とに対応する演出管理番号(N2)を検索したこととなる。
That is, assuming the second page of the comics the screen, as shown in FIG. 12, a case where the user designated point area on the touch pad unit 33 [Sa to (x5, y5), Ea ( x6, y6)] in contact with the To do.
Accordingly, in the second embodiment, the search unit 53 uses the page number (P2) of the displayed comic image data and the position of the designated point as keys, and the page number (P2) and the designated point from the effect management table 23bt. This means that the production management number (N2) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N2)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N2)に対応する演出パラメータ(G2,S2)および演出ファイル(APG2,APS2)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N2) as a search result as a key, the effect parameter (G2, S2) and the effect corresponding to the effect management number (N2) from the effect file / effect parameter management table 23ct. The file (APG2, APS2) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記のサブルーチンをコールする。
なお、第2実施形態では、図14に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the second embodiment, the flowchart of the subroutine shown in FIG. 14 will be described in detail.

まず、ステップS200では、画像演出処理部61は、演出ファイル(G2)から画像データを取得する。本実施形態では、「犬」を示す画像データを用いることとする。
次いで、ステップS205では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS210では、画像演出処理部61は、演出パラメータ(APG2)から、アニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)、画像の大きさ(mx1 dot× my1 dot)を取得する。
First, in step S200, the image effect processing unit 61 acquires image data from the effect file (G2). In this embodiment, image data indicating “dog” is used.
Next, in step S205, the image effect processing unit 61 stores the acquired image data in the image memory g2 of the display control unit 29.
Next, in step S210, the image effect processor 61 determines from the effect parameter (APG2) the start position A (X1, Y1) and end position B (X2, Y2) of the animation, and the size of the image (mx1 dot × my1 dot). ) To get.

次いで、ステップS215では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)を表示制御部29に設定する。
これにより、図13に示すように、アニメーションの開始位置A(X1,Y1)および終了位置B(X2,Y2)からなる表示エリアをアニメーションのために用いることができる。
次いで、ステップS220では、画像演出処理部61は、表示制御部に対して、アニメーション時の画像データの透明度を0〜1の間に設定する。
Next, in step S215, the image effect processing unit 61 sets the start position A (X1, Y1) and end position B (X2, Y2) of the animation indicating the two display areas in the display control unit 29 as described above. .
Thereby, as shown in FIG. 13 , the display area including the start position A (X1, Y1) and the end position B (X2, Y2) of the animation can be used for the animation.
Next, in step S220, the image effect processing unit 61 sets the transparency of the image data during animation to 0 to 1 for the display control unit.

次いで、ステップS225では、画像演出処理部61は、カウンタ値tを初期化するために、t=0と設定する。
次いで、ステップS210で取得した画像の大きさ(mx1 dot× my1 dot)のX成分からΔXを設定する。そして、A−B間の傾きmと、ΔXとからΔY=mΔXとする。これにより、アニメーション時の画像の表示位置の開始点P(X,Y)は、
X=X1+ΔX*t , Y=Y1+mΔX*t (1)
となる。
そこで、ステップS230では、画像演出処理部61は、X=X1+ΔX*t,Y=Y1+mΔX*tを算出して表示位置の開始点P(X,Y)を求める。
Next, in step S225, the image effect processing unit 61 sets t = 0 in order to initialize the counter value t.
Next, ΔX is set from the X component of the image size (mx1 dot × my1 dot) acquired in step S210. Then, ΔY = mΔX from the slope m between A and B and ΔX. As a result, the start point P (X, Y) of the display position of the image during animation is
X = X1 + ΔX * t, Y = Y1 + mΔX * t (1)
It becomes.
Therefore, in step S230, the image effect processing unit 61 calculates X = X1 + ΔX * t, Y = Y1 + mΔX * t to obtain the display position start point P (X, Y).

次いで、ステップS235では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データを開始点P(X、Y)に描画させる。
次いで、ステップS240では、画像演出処理部61は、カウンタ値tに対して、t=t+1と設定する。
ここで、表示位置の開始点P(X,Y)が終了位置B(X2,Y2)に近づいている度合い、すなわち、それぞれのX成分の差値(X2−X)が上記ΔX(画像の大きさのX成分)よりも近づいている場合には、描画を停止する。
Next, in step S235, the image effect processing unit 61 causes the display control unit 29 to draw the image data stored in the image memory g2 at the start point P (X, Y).
Next, in step S240, the image effect processing unit 61 sets t = t + 1 for the counter value t.
Here, the degree to which the start point P (X, Y) of the display position approaches the end position B (X2, Y2), that is, the difference value (X2−X) of each X component is ΔX (the size of the image). If the X component is closer, the drawing is stopped.

そこで、ステップS245では、画像演出処理部61は、差値(X2−X)<ΔXか否かを判断する。差値(X2−X)がΔXよりも大きい場合には、現在の描画位置Pが終了位置Bに到達していないとみなし、ステップS230に戻る。
一方、差値(X2−X)がΔXよりも小さい場合には、現在の描画位置Pが終了位置Bに到達していることとみなし、ステップS250に進み、描画処理を停止するために、表示制御部29に対して、アニメーション停止命令を出力する。
Therefore, in step S245, the image effect processing unit 61 determines whether or not the difference value (X2−X) <ΔX. When the difference value (X2−X) is larger than ΔX, it is considered that the current drawing position P has not reached the end position B, and the process returns to step S230.
On the other hand, if the difference value (X2−X) is smaller than ΔX, it is considered that the current drawing position P has reached the end position B, and the process proceeds to step S250 to display the display in order to stop the drawing process. An animation stop command is output to the control unit 29.

これにより、演出ファイルから取得した画像データの複製を所定の方向にシフトしながら所定の間隔を開けて配置し、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図13に示すように、A−B間の表示エリア内に対して縮小された「犬」の画像データが斜め方向に順次に複製された画像を、図15に示す画像上に合成して表示部31に表示することができる。 As a result, a copy of the image data acquired from the effect file can be arranged at a predetermined interval while being shifted in a predetermined direction, and can be combined and displayed in a predetermined display area on the current comic screen. That is, as shown in FIG. 13, the image which the image data is sequentially replicated in an oblique direction of the reduced against the display area between A-B "dog", and synthesized on the image shown in FIG. 15 Can be displayed on the display unit 31.

この結果、表示画面の斜め方向に順次に「犬」の画像が複製されることを視認することができる。これにより、漫画内の人物がイメージ(「クローン技術」)している内容を「犬」の複製画像として表示でき、多機能漫画の楽しみを提供することができる。
なお、本実施形態では、図13に示すように、A−B間の表示エリア内に対して縮小された「犬」の画像データを複製して表示させたが、ページ内の任意の領域に表示させてもよい。
As a result, it can be visually recognized that the images of the “dog” are sequentially copied in the diagonal direction of the display screen. As a result, it is possible to display the contents of the image of the person in the comic (“clone technology”) as a duplicate image of “dog”, and to provide the enjoyment of multi-function comics.
In the present embodiment, as shown in FIG. 13 , the image data of “dog” reduced in the display area between A and B is duplicated and displayed, but it is displayed in an arbitrary area in the page. It may be displayed.

次いで、ステップS255では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS260では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS255に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S <b> 255, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S260, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S255. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第2本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the second embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest in the scene developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第3実施形態>
本発明の第3実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第3実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図19に示すサブルーチンのフローチャートを用いることとする。
<Third Embodiment>
The multi-function comic reproduction device according to the third embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the third embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 19 instead of the flowchart of the subroutine shown in FIG.

次に、図19に示すサブルーチンのフローチャートを参照して、画像演出処理部61において行われる演出ファイル再生処理について説明する。なお、図19に示すフローチャートは、図16に示す3ページ目の漫画画面において、中央部分にいる人物の左腕部分に対して、ユーザがタッチパッド部33上に接触した場合に、人物の左腕が肘部分から手部分にかけて上方向に上がっている様子の画像と、左腕が一直線に上方に上がっている様子の画像とを繰り返して表示するためのサブルーチンである。 Next, with reference to the flowchart of the subroutine shown in FIG. 19 , the effect file reproduction process performed in the image effect processor 61 will be described. In the flowchart shown in FIG. 19 , in the comic screen on the third page shown in FIG. 16 , when the user touches the touchpad unit 33 with respect to the left arm portion of the person in the center portion, This is a sub-routine for repeatedly displaying an image of an upward movement from the elbow portion to the hand portion and an image of the left arm rising upward in a straight line.

すなわち、3ページ目の漫画画面において、図17に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x7,y7)、Ea(x8,y8)]内に接触した場合を想定する。
これにより、第3実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P3)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P3)と指示点の位置とに対応する演出管理番号(N3)を検索したこととなる。
That is, assuming the third page of the comics the screen, as shown in FIG. 17, a case where the user designated point area on the touch pad unit 33 [Sa of (x7, y7), Ea ( x8, y8)] in contact with the To do.
Thereby, in the third embodiment, the search unit 53 uses the page number (P3) of the displayed comic image data and the position of the designated point as keys, and the page number (P3) and the designated point from the effect management table 23bt. This means that the production management number (N3) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N3)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N3)に対応する演出パラメータ(G3)および演出ファイル(APG3)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N3) as a search result as a key, and the effect parameter (G3) and effect file (G3) corresponding to the effect management number (N3) from the effect file / effect parameter management table 23ct. APG3) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記サブルーチンをコールする。
なお、第3実施形態では、図19に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform the effect file reproduction process in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the third embodiment, the flowchart of the subroutine shown in FIG. 19 will be described in detail.

まず、ステップS300では、画像演出処理部61は、演出ファイル(G3)から画像データを取得する。本実施形態では、人物の「左腕」を示す画像データを用いることとする。
次いで、ステップS305では、画像演出処理部61は、取得した画像データを表示制御部29の画像メモリg2に記憶する。
次いで、ステップS310では、画像演出処理部61は、演出パラメータ(APG3)から、アニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)、画像の大きさ(mx2 dot× my2 dot)を取得する。
First, in step S300, the image effect processing unit 61 acquires image data from the effect file (G3). In this embodiment, image data indicating the “left arm” of a person is used.
Next, in step S305, the image effect processing unit 61 stores the acquired image data in the image memory g2 of the display control unit 29.
Next, in step S310, the image effect processing unit 61 determines from the effect parameter (APG3) the animation start position A (X7, Y7) and end position B (X8, Y8), and the size of the image (mx2 dot × my2 dot). ) To get.

次いで、ステップS315では、画像演出処理部61は、上述したように2つの表示エリアを示すアニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)を表示制御部29に設定する。
これにより、図18に示すように、アニメーションの開始位置A(X7,Y7)および終了位置B(X8,Y8)からなる表示エリアをアニメーションのために用いることができる。
次いで、ステップS320では、画像演出処理部61は、カウンタ値kを初期化するために、k=0と設定する。
次いで、ステップS325では、画像演出処理部61は、演出に用いる画像データに対して、透明度Opa1=0に設定する。
Next, in step S315, the image effect processing unit 61 sets the animation start position A (X7, Y7) and end position B (X8, Y8) indicating the two display areas in the display control unit 29 as described above. .
Thereby, as shown in FIG. 18 , the display area including the start position A (X7, Y7) and the end position B (X8, Y8) of the animation can be used for animation.
Next, in step S320, the image effect processing unit 61 sets k = 0 in order to initialize the counter value k.
Next, in step S325, the image effect processing unit 61 sets transparency Opa1 = 0 for the image data used for the effect.

次いで、ステップS330では、画像演出処理部61は、表示制御部29に対して、アニメーション時の画像データの透明度OpaをOpa1に設定する。
次いで、ステップS335では、画像演出処理部61は、表示制御部29に対して、画像メモリg2に記憶した画像データをA−B間に描画させる。
次いで、ステップS340では、画像演出処理部61は、0.5秒だけ待つ。
次いで、ステップS345では、画像演出処理部61は、カウンタ値kをk=k+1と設定する。
Next, in step S330, the image effect processing unit 61 sets the transparency Opa of the image data during the animation to Opa1 for the display control unit 29.
Next, in step S335, the image effect processing unit 61 causes the display control unit 29 to draw the image data stored in the image memory g2 between A and B.
Next, in step S340, the image effect processing unit 61 waits for 0.5 seconds.
Next, in step S345, the image effect processing unit 61 sets the counter value k to k = k + 1.

次いで、ステップS350では、画像演出処理部61は、透明度Opa1を反転させる。すなわち、Opa1が0である場合には1に設定し、Opa1が1である場合には0に設定する。これにより、演出に用いる画像データの透明度Opa1が0と1とを交互に繰り返すので、画像データが全表示と全透明表示とを繰り返すことができる。   Next, in step S350, the image effect processing unit 61 inverts the transparency Opa1. That is, when Opa1 is 0, it is set to 1, and when Opa1 is 1, it is set to 0. As a result, the transparency Opa1 of the image data used for production alternately repeats 0 and 1, so that the image data can be repeatedly displayed in full display and fully transparent.

次いで、ステップS355では、画像演出処理部61は、カウンタ値kがk=nになったか否かを判断する。なお、n値が例えば10の場合には5秒間のアニメーション表示となる。ここで、k=nになっていない場合には、ステップS330に戻り処理を繰り返す。一方、k=nになった場合には、ステップS360に進む。
次いで、ステップS360では、画像演出処理部61は、アニメーションを停止するために、表示制御部29に対して、アニメーション停止命令を出力する。
Next, in step S355, the image effect processing unit 61 determines whether or not the counter value k becomes k = n. If the n value is 10, for example, the animation is displayed for 5 seconds. If k = n is not satisfied, the process returns to step S330 to repeat the process. On the other hand, if k = n, the process proceeds to step S360.
Next, in step S360, the image effect processing unit 61 outputs an animation stop command to the display control unit 29 in order to stop the animation.

これにより、演出ファイルから取得した画像データを例えば0.5秒の時間間隔を開けて全表示と全透明表示とを交互に繰り返し、現在の漫画画面上の所定の表示エリア内に合成して表示することができる。すなわち、図18に示すように、A−B間の表示エリア内に対して、人物の左腕が肘部分から手部分にかけて上方向に上がるっている様子の画像と、左腕が一直線に上方に上がっている様子の画像とを0.5秒毎に繰り返し、図20に示す画像上に合成して表示部31に表示することができる。
この結果、表示画面の上方向に左腕の上げ下げを行う人物の画像を視認することができる。これにより、漫画内の人物によるジェスチャーを左腕の上げ下げとして表示でき、多機能漫画の楽しみを提供することができる。
As a result, the image data acquired from the production file is repeatedly displayed in a predetermined display area on the current comic screen by alternately repeating full display and full transparent display with a time interval of, for example, 0.5 seconds. can do. That is, as shown in FIG. 18 , with respect to the display area between A and B, an image of a person's left arm rising upward from the elbow part to the hand part, and the left arm rising straight up. repeated and the state of image every 0.5 seconds can be displayed on the display unit 31 and synthesized on the image shown in FIG. 20.
As a result, it is possible to visually recognize an image of a person who raises and lowers his left arm upward in the display screen. Thereby, the gesture by the person in a comic can be displayed as raising and lowering of the left arm, and the enjoyment of a multi-functional comic can be provided.

次いで、ステップS365では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS370では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS375に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S365, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S370, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S375. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第3本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the third embodiment, there is a touch operation from the screen on a scene where the user is highly likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image corresponding to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<第4実施形態>
本発明の第4実施形態に係る多機能漫画再生装置は、図1に示す第1実施形態に係る多機能漫画再生装置1の構成と同様であり、その説明を省略する。
本発明の第4実施形態に係る多機能漫画再生装置は、上述した図8に示すサブルーチンのフローチャートに代わって、図21に示すサブルーチンのフローチャートを用いることとする。
<Fourth embodiment>
The multi-function comic reproduction device according to the fourth embodiment of the present invention is the same as the configuration of the multi-function comic reproduction device 1 according to the first embodiment shown in FIG.
The multi-function cartoon reproducing apparatus according to the fourth embodiment of the present invention uses the flowchart of the subroutine shown in FIG. 21 instead of the flowchart of the subroutine shown in FIG.

次に、図21に示すサブルーチンのフローチャートを参照して、音声演出処理部63において行われる演出ファイル再生処理について説明する。なお、図21に示すフローチャートは、図11に示す2ページ目の漫画画面において、人物の右側エリアの吹き出しに表示されているテキスト「クローン技術」の位置に対して、ユーザがタッチパッド部33上に接触した場合に、「犬」の鳴き声の音声データをスピーカ27から再生する動作を示している。 Next, with reference to the flowchart of the subroutine shown in FIG. 21 , the effect file reproduction process performed in the sound effect processing unit 63 will be described. The flowchart shown in FIG. 21, in the second page of the comics the screen shown in FIG. 11, with respect to the position of the text "cloning technology" displayed on the balloon in the right area of the person, the user on the touch pad unit 33 The operation of reproducing the voice data of the “dog” cry from the speaker 27 when touching is shown.

すなわち、2ページ目の漫画画面において、図12に示すように、ユーザがタッチパッド部33上の指示点エリア[Sa(x5,y5)、Ea(x6,y6)]内に接触した場合を想定する。
これにより、第4実施形態では、検索部53が、表示中の漫画の画像データのページ番号(P2)と指示点の位置とをキーとして、演出管理テーブル23btからページ番号(P2)と指示点の位置とに対応する演出管理番号(N2)を検索したこととなる。
That is, assuming the second page of the comics the screen, as shown in FIG. 12, a case where the user designated point area on the touch pad unit 33 [Sa to (x5, y5), Ea ( x6, y6)] in contact with the To do.
Thus, in the fourth embodiment, the search unit 53 uses the page number (P2) of the displayed comic image data and the position of the designated point as keys, and the page number (P2) and the designated point from the effect management table 23bt. This means that the production management number (N2) corresponding to the position is searched.

さらに、演出ファイル読込部55は、検索結果となる演出管理番号(N2)をキーとして、演出ファイル・演出パラメータ管理テーブル23ctから演出管理番号(N2)に対応する演出パラメータ(G2,S2)および演出ファイル(APG2,APS2)を読み出してSW59に出力する。
次いで、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、PNG)が画像データを示す場合には、当該演出ファイルまたは演出パラメータを画像演出処理部61に出力する。
Further, the effect file reading unit 55 uses the effect management number (N2) as a search result as a key, the effect parameter (G2, S2) and the effect corresponding to the effect management number (N2) from the effect file / effect parameter management table 23ct. The file (APG2, APS2) is read and output to SW59.
Next, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, PNG) indicates image data, the effect file or effect parameter is displayed as the image effect. The data is output to the processing unit 61.

また、SW59は、演出ファイル読込部55から出力された演出ファイルまたは演出パラメータの識別子を判断して、識別子(例えば、MP3)が音声データを示す場合には、当該演出ファイルまたは演出パラメータを音声演出処理部63に出力する。
次いで、画像演出処理部61または音声演出処理部63において演出ファイル再生処理を行うために、下記のサブルーチンをコールする。
なお、第4実施形態では、図21に示すサブルーチンのフローチャートについて、詳しく説明するものである。
Further, the SW 59 determines the identifier of the effect file or effect parameter output from the effect file reading unit 55, and when the identifier (for example, MP3) indicates audio data, the SW 59 displays the effect file or effect parameter as the sound effect. The data is output to the processing unit 63.
Next, in order to perform effect file reproduction processing in the image effect processing unit 61 or the sound effect processing unit 63, the following subroutine is called.
In the fourth embodiment, the flowchart of the subroutine shown in FIG. 21 will be described in detail.

まず、ステップS400では、音声演出処理部63は、演出ファイル(APS2)から音声データを取得する。
次いで、ステップS405では、音声演出処理部63は、取得した音声データを音声制御部25の音声メモリs2に記憶する。
次いで、ステップS410では、音声演出処理部63は、演出パラメータ(S2)から、音声の開始レベル(L1)、フェードイン時間T1、最大レベル(L2)、継続時間T2、フェイドアウト時間T3を取得する。
First, in step S400, the audio effect processing unit 63 acquires audio data from the effect file (APS2).
Next, in step S <b> 405, the audio effect processing unit 63 stores the acquired audio data in the audio memory s <b> 2 of the audio control unit 25.
Next, in step S410, the sound effect processing unit 63 acquires the sound start level (L1), the fade-in time T1, the maximum level (L2), the duration time T2, and the fade-out time T3 from the effect parameter (S2).

次いで、ステップS415では、音声演出処理部63は、音声の開始レベル(L1)、フェードイン時間T1、最大レベル(L2)、継続時間T2、フェイドアウト時間T3を音声制御部25に設定する。
次いで、ステップS425では、音声演出処理部63は、音声制御部25に対して、音声メモリs2に記憶した音声データの再生を開始する。
Next, in step S415, the sound effect processing unit 63 sets the sound start level (L1), fade-in time T1, maximum level (L2), duration T2, and fade-out time T3 in the sound control unit 25.
Next, in step S425, the sound effect processing unit 63 starts to reproduce the sound data stored in the sound memory s2 with respect to the sound control unit 25.

これにより、演出ファイルから取得した音声データを経過時間に応じて出力レベルを可変して出力することができる。すなわち、図22に示すように、0〜T1までの間に音圧レベルを上昇させてフェードインし、T2〜T3の間に音圧レベルを下降させてフェイドアウトしながら、「犬」の鳴き声の音声データをスピーカ27から時間T3になるまで再生することができる。
特に、図15に示すように、「犬」画像が斜め方向に順次に複製されて表示部31に表示されている間に、「犬」の鳴き声を再生することができる。これにより、ユーザに画像と同期した音声の再生による楽しみ方を提供することができる。
Thereby, the audio data acquired from the effect file can be output with the output level varied according to the elapsed time. That is, as shown in FIG. 22 , the sound pressure level is raised between 0 and T1 and faded in, and the sound pressure level is lowered and faded out between T2 and T3. The audio data can be reproduced from the speaker 27 until time T3.
In particular, as shown in FIG. 15 , while the “dog” images are sequentially duplicated in the oblique direction and displayed on the display unit 31, the “dog” cry can be reproduced. Thereby, it is possible to provide the user with a way of enjoying by reproducing the sound synchronized with the image.

次いで、ステップS430では、画像演出処理部61は、タッチ分析部43に対して、タッチパッド部33上への接触操作を検出させる。
次いで、ステップS435では、画像演出処理部61は、この接触操作がページ捲り移動であるか否かを判断する。ここで、この接触操作がページ捲り移動ではない場合にはステップS430に戻る。一方、この接触操作がページ捲り移動である場合には、本サブルーチンから復帰する。
これにより、ページ捲り移動操作を検出したときには、画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することで、ユーザに違和感を起こさせることなく、直前のページまたは直後のページの漫画の画像表示に復帰することができる。
Next, in step S430, the image effect processing unit 61 causes the touch analysis unit 43 to detect a touch operation on the touch pad unit 33.
Next, in step S435, the image effect processing unit 61 determines whether this contact operation is a page turning movement. If the touch operation is not a page turning movement, the process returns to step S430. On the other hand, if this contact operation is a page turning movement, the process returns from this subroutine.
As a result, when a page turning movement operation is detected, by displaying the comic image data of the page immediately before or after the image rendering process, without causing the user to feel uncomfortable, It is possible to return to the comic image display of the page.

従って、第4本実施形態によれば、漫画のそれぞれのページに展開される場面の中でユーザが演出的興味を抱く可能性が高い場面の箇所に対して、画面上から接触操作があった場合に、当該場面の箇所に応じた演出画像と演出音声を再生することで、一層の興味や楽しみを促す演出効果を与えることができ、ユーザの興味や楽しみを一層拡大することができる。   Therefore, according to the fourth embodiment, there is a touch operation from the screen on a scene where the user is likely to have directing interest among scenes developed on each page of the comic. In this case, by reproducing the effect image and the effect sound according to the location of the scene, it is possible to provide an effect effect that promotes further interest and enjoyment, and the user's interest and enjoyment can be further expanded.

<変形例1>
第2実施形態に係る多機能漫画再生装置1にあっては、画面上の特定の指示エリアに接触操作があった場合に、「犬」の画像を出力するように構成され、また、第4実施形態に係る多機能漫画再生装置1にあっては、画面上の特定の指示エリアに接触操作があった場合に、「犬」の音声を出力するように構成されていた。
<Modification 1>
The multi-function cartoon reproducing apparatus 1 according to the second embodiment is configured to output an image of “dog” when a touch operation is performed in a specific instruction area on the screen. The multi-functional cartoon reproducing apparatus 1 according to the embodiment is configured to output the voice of “dog” when a touch operation is performed in a specific instruction area on the screen.

しかしながら、本発明はこのような構成に限定されるものではなく、演出ファイル記憶部23cに記憶されている演出ファイルに、広告画面の内容を示す画像データ、広告音声の内容を示す音声データを記憶させておくことで、ユーザが興味を持った物品やサービスに対して、一層の興味を促す演出効果を与えることができ、ユーザの興味を一層拡大することができ、物品やサービスの拡販に寄与することができる。   However, the present invention is not limited to such a configuration, and image data indicating the content of the advertisement screen and audio data indicating the content of the advertisement sound are stored in the effect file stored in the effect file storage unit 23c. By doing so, it is possible to give a stunning effect to the goods and services that the user is interested in, to further increase the user's interests, and to contribute to the sales of goods and services can do.

<変形例2>
本発明の第1実施形態〜第4実施形態にあっては、多機能漫画再生装置1をタブレット型やノート型のパーソナルコンピュータに適用して説明した。
しかしながら、本発明はこのような構成に限定されるものではなく、タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、携帯電話機、PDA、テレビジョン受信装置に適用することができる。
<Modification 2>
In the first embodiment to the fourth embodiment of the present invention, the multi-function comic playback device 1 is applied to a tablet-type or notebook-type personal computer.
However, the present invention is not limited to such a configuration, and can be applied to a tablet personal computer, a notebook personal computer, a desktop personal computer, a mobile phone, a PDA, and a television receiver.

<変形例3>
本発明の第1実施形態〜第4実施形態にあっては、タッチパッド部33上で指示点エリア上に接触操作すると、タッチパッド制御部35が指先の接触位置の座標(x,y)をタッチ分析部43に出力するように構成した。
しかしながら、本発明はこのような構成に限定されるものではなく、指示手段としてマウスやトラックボール、ジョイスティックにより指示点エリア上に指示操作すると、指示位置の座標(x,y)を出力するように構成されたパーソナルコンピュータに適用することができる。
<Modification 3>
In the first to fourth embodiments of the present invention, when the touch operation is performed on the designated point area on the touch pad unit 33, the touch pad control unit 35 sets the coordinates (x, y) of the contact position of the fingertip. The output to the touch analysis unit 43 is configured.
However, the present invention is not limited to such a configuration, and when the pointing operation is performed on the pointing point area with the mouse, the trackball, or the joystick as the pointing means, the coordinates (x, y) of the pointing position are output. The present invention can be applied to a configured personal computer.

本発明の多機能漫画再生装置は、タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、携帯電話機、PDA、テレビジョン受信装置に利用できる。   The multi-functional cartoon reproducing apparatus of the present invention can be used for a tablet personal computer, a notebook personal computer, a desktop personal computer, a mobile phone, a PDA, and a television receiver.

1 多機能漫画再生装置
11 インターネット
13 配信サーバ
15 データベース部
21 通信制御部
23 メモリ部
25 音声制御部
27 スピーカ
29 表示制御部
31 表示部
33 タッチパッド部
35 タッチパッド制御部
37 制御部
41 ブラウザ部
43 タッチ分析部
45 画像処理部
47 音声処理部
51 漫画制御部
53 検索部
55 演出ファイル読込部
57 SW
59 SW
61 画像演出処理部
63 音声演出処理部
DESCRIPTION OF SYMBOLS 1 Multifunctional cartoon reproduction apparatus 11 Internet 13 Distribution server 15 Database part 21 Communication control part 23 Memory part 25 Voice control part 27 Speaker 29 Display control part 31 Display part 33 Touch pad part 35 Touch pad control part 37 Control part 41 Browser part 43 Touch analysis unit 45 Image processing unit 47 Audio processing unit 51 Cartoon control unit 53 Search unit 55 Production file reading unit 57 SW
59 SW
61 Image effect processing unit 63 Audio effect processing unit

Claims (13)

少なくとも1ページ分の漫画の画像データを表示画面上に表示する表示手段と、前記漫画の画像データに関連する音声データを再生する音声再生手段とを備え、前記表示画面の特定位置に対してなされた接触操作に基づいて当該特定位置に対応した画像データおよび音声データの少なくとも一方を演出内容として出力するようにして多機能漫画を再生する多機能漫画再生装置であって、
複数のページ分の漫画の画像データを記憶する第1記憶部と、
漫画の画像データのページ番号と、前記ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を記憶する第2記憶部と、
前記演出管理番号に対応する演出パラメータおよび演出ファイルを記憶する第3記憶部と、
前記第1記憶部から1ページ分の漫画の画像データを読み込んで表示画面に表示する漫画表示手段と、
前記表示画面上への接触操作に応じて指示点の位置を検出する位置検出手段と、
前記表示中の漫画の画像データのページ番号と前記指示点の位置とをキーとして、前記第2記憶部から前記ページ番号と前記指示点の位置とに対応する演出管理番号を検索する検索手段と、
前記検索結果となる演出管理番号をキーとして、前記第3記憶部から前記演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む読込手段と、
前記読み込んだ演出ファイルが画像データである場合には、前記読み込んだ演出パラメータに基づいて該画像データに画像演出処理を施して再生する画像演出処理手段と、
前記読み込んだ演出ファイルが音声データである場合には、前記読み込んだ演出パラメータに基づいて該音声データに音声演出処理を施して再生する音声演出処理手段と、を備えることを特徴とする多機能漫画再生装置。
A display unit that displays at least one page of comic image data on a display screen; and an audio reproduction unit that reproduces audio data related to the comic image data. A multi-function comic reproduction device that reproduces a multi-function comic so as to output at least one of image data and audio data corresponding to the specific position based on the contact operation as production contents,
A first storage for storing comic image data for a plurality of pages;
A second storage unit for storing the production management number corresponding to the page number of the comic image data and the designated point area indicating the specific position range on the screen corresponding to the page number;
A third storage unit for storing an effect parameter and an effect file corresponding to the effect management number;
Comic display means for reading comic image data for one page from the first storage unit and displaying it on a display screen;
Position detecting means for detecting the position of the indication point in response to a contact operation on the display screen;
Search means for searching for an effect management number corresponding to the page number and the position of the indicated point from the second storage unit using the page number of the image data of the displayed comic and the position of the indicated point as keys. ,
Reading means for reading the production parameter and the production file corresponding to the production management number from the third storage unit using the production management number as the search result as a key;
If the read effect file is image data, image effect processing means for performing image effect processing on the image data based on the read effect parameter and reproducing the image data;
A sound effect processing means for performing sound effect processing on the sound data based on the read effect parameter and reproducing the sound data when the read effect file is sound data; Playback device.
前記検索手段は、前記表示中の漫画の画像データのページ番号と一致するページ番号が前記第2記憶部にある場合に、前記検出された指示点の位置が前記第2記憶部に記憶された指示点エリア内にあるときの演出管理番号を検索結果として出力する、ことを特徴とする請求項1記載の多機能漫画再生装置。   The search means stores the position of the detected indication point in the second storage unit when the page number that matches the page number of the displayed comic image data is in the second storage unit. 2. The multi-function comic reproducing apparatus according to claim 1, wherein the production management number when in the designated point area is output as a search result. 前記表示画面上への接触操作に応じてページ捲り移動操作を検出するページ捲り移動操作検出手段を備え、
前記画像再生処理手段により再生された画像データを、前記ページ内の任意の領域に表示した場合に、前記ページ捲り移動操作検出手段によりページ捲り移動操作を検出したときには、前記画像演出処理を行う直前のページまたは直後のページの漫画の画像データを表示することを特徴とする請求項1記載の多機能漫画再生装置。
Comprising a page turning movement detection means for detecting a page turning movement operation according to a contact operation on the display screen;
When the image data reproduced by the image reproduction processing means is displayed in an arbitrary area in the page, when the page turning movement detecting means is detected by the page turning movement detecting means, immediately before performing the image effect processing. 2. The multi-function comic reproducing apparatus according to claim 1, wherein the comic image data of the next page or the next page is displayed.
前記読込手段から出力された演出ファイルの識別子を判断し、当該演出ファイルが画像データである場合には、当該演出ファイルまたは演出パラメータを画像演出処理手段に出力し、当該演出ファイルが音声データである場合には、当該演出ファイルまたは演出パラメータを音声演出処理手段に出力するスイッチ手段を備えることを特徴とする請求項1記載の多機能漫画再生装置。   The identifier of the effect file output from the reading means is determined, and when the effect file is image data, the effect file or effect parameter is output to the image effect processing means, and the effect file is audio data. 2. The multi-function comic reproducing apparatus according to claim 1, further comprising switch means for outputting the effect file or the effect parameters to the sound effect processing means. 前記画像演出処理手段により再生された画像データを、前記ページ内の任意の領域に表示することを特徴とする請求項1記載の多機能漫画再生装置。   2. The multi-functional cartoon reproducing apparatus according to claim 1, wherein the image data reproduced by the image effect processing means is displayed in an arbitrary area in the page. 前記第3記憶部に記憶されている演出ファイルには、広告画面の内容を示す画像データ、広告音声の内容を示す音声データが記憶されていることを特徴とする請求項1記載の多機能漫画再生装置。   2. The multi-function cartoon according to claim 1, wherein the effect file stored in the third storage unit stores image data indicating contents of an advertisement screen and sound data indicating contents of advertisement sound. Playback device. 前記画像演出処理手段は、前記演出ファイルから取得した画像データを回転・拡大縮小しつつ、所定の方向にスクロールさせ、現在の漫画画面上の所定の表示エリア内に合成して表示することを特徴とする請求項1記載の多機能漫画再生装置。   The image effect processing means is characterized in that the image data acquired from the effect file is scrolled in a predetermined direction while being rotated / enlarged / reduced and combined and displayed in a predetermined display area on the current comic screen. The multi-function cartoon reproducing apparatus according to claim 1. 前記画像演出処理手段は、前記演出ファイルから取得した画像データの複製を所定の方向にシフトしながら所定の間隔を開けて配置し、現在の漫画画面上の所定の表示エリア内に合成して表示することを特徴とする請求項1記載の多機能漫画再生装置。   The image effect processing means arranges a copy of the image data acquired from the effect file in a predetermined direction while shifting the image data in a predetermined direction, and synthesizes and displays it in a predetermined display area on the current comic screen. The multi-function cartoon reproducing apparatus according to claim 1, wherein: 前記画像演出処理手段は、前記演出ファイルから取得した画像データを所定の時間間隔を開けて全表示と全透明表示とを交互に繰り返し、現在の漫画画面上の所定の表示エリア内に合成して表示することを特徴とする請求項1記載の多機能漫画再生装置。   The image effect processing means repeats all display and all transparent display alternately with a predetermined time interval for the image data acquired from the effect file, and synthesizes it in a predetermined display area on the current comic screen. 2. The multi-function comic reproducing apparatus according to claim 1, wherein the multi-functional cartoon reproducing apparatus is displayed. 前記音声演出処理手段は、前記演出ファイルから取得した音声データを経過時間に応じて出力レベルを可変して出力することを特徴とする請求項1記載の多機能漫画再生装置。   2. The multi-function comic reproducing apparatus according to claim 1, wherein the sound effect processing means outputs sound data acquired from the effect file with an output level varied according to an elapsed time. タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、携帯電話機、PDA、テレビジョン受信装置の何れか1つに適用可能であることを特徴とする請求項1乃至10記載の多機能漫画再生装置。   11. The multi-functional cartoon reproduction according to claim 1, which can be applied to any one of a tablet personal computer, a notebook personal computer, a desktop personal computer, a mobile phone, a PDA, and a television receiver. apparatus. 少なくとも1ページ分の漫画の画像データを表示画面上に表示する表示部と、前記漫画の画像データに関連する音声データを再生する音声再生部とを備え、前記表示画面の特定位置に対してなされた接触操作に基づいて当該特定位置に対応した画像データおよび音声データの少なくとも一方を演出内容として出力するようにして多機能漫画を再生する多機能漫画再生方法であって、
複数のページ分の漫画の画像データを第1記憶部に記憶する第1記憶ステップと、
漫画の画像データのページ番号と、前記ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を第2記憶部に記憶する第2記憶ステップと、
前記演出管理番号に対応する演出パラメータおよび演出ファイルを第3記憶部に記憶する第3記憶ステップと、
前記第1記憶部から1ページ分の漫画の画像データを読み込んで表示画面に表示する漫画表示ステップと、
前記表示画面上への接触操作に応じて指示点の位置を検出する位置検出ステップと、
前記表示中の漫画の画像データのページ番号と前記指示点の位置とをキーとして、前記第2記憶部から前記ページ番号と前記指示点の位置とに対応する演出管理番号を検索する検索ステップと、
前記検索結果となる演出管理番号をキーとして、前記第3記憶部から前記演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む読込ステップと、
前記読み込んだ演出ファイルが画像データである場合には、前記読み込んだ演出パラメータに基づいて該画像データに画像演出処理を施して再生する画像演出処理ステップと、
前記読み込んだ演出ファイルが音声データである場合には、前記読み込んだ演出パラメータに基づいて該音声データに音声演出処理を施して再生する音声演出処理ステップと、を行うことを特徴とする多機能漫画再生方法。
A display unit that displays at least one page of comic image data on a display screen; and an audio reproduction unit that reproduces audio data related to the comic image data, and is made at a specific position on the display screen. A multi-function comic reproduction method for reproducing a multi-function comic so as to output at least one of image data and audio data corresponding to the specific position based on the contact operation as production contents,
A first storage step of storing a plurality of pages of cartoon image data in the first storage unit;
A second storage step of storing, in the second storage unit, an effect management number corresponding to a page number of the image data of the cartoon and a designated point area indicating a specific position range on the screen corresponding to the page number;
A third storage step of storing an effect parameter and an effect file corresponding to the effect management number in a third storage unit;
A comic display step of reading comic image data for one page from the first storage unit and displaying it on a display screen;
A position detecting step for detecting the position of the indication point in accordance with the contact operation on the display screen;
A search step of searching for an effect management number corresponding to the page number and the position of the indicated point from the second storage unit, using the page number of the image data of the displayed cartoon and the position of the indicated point as keys. ,
Reading the production parameter and the production file corresponding to the production management number from the third storage unit using the production management number as the search result as a key;
When the read effect file is image data, an image effect processing step of performing image effect processing on the image data based on the read effect parameter and reproducing the image data;
If the read effect file is audio data, a voice effect processing step of performing audio effect processing on the audio data based on the read effect parameters and reproducing the sound data is performed. Playback method.
少なくとも1ページ分の漫画の画像データを表示画面上に表示する表示部と、前記漫画の画像データに関連する音声データを再生する音声再生部とを備え、前記表示画面の特定位置に対してなされた接触操作に基づいて当該特定位置に対応した画像データおよび音声データの少なくとも一方を演出内容として出力するようにして多機能漫画を再生するためのコンピュータ・プログラムであって、
複数のページ分の漫画の画像データを第1記憶部に記憶する第1記憶ステップと、
漫画の画像データのページ番号と、前記ページ番号に対応する画面上の特定の位置範囲を示す指示点エリアとに対応する演出管理番号を第2記憶部に記憶する第2記憶ステップと、
前記演出管理番号に対応する演出パラメータおよび演出ファイルを第3記憶部に記憶する第3記憶ステップと、
前記第1記憶部から1ページ分の漫画の画像データを読み込んで表示画面に表示する漫画表示ステップと、
前記表示画面上への接触操作に応じて指示点の位置を検出する位置検出ステップと、
前記表示中の漫画の画像データのページ番号と前記指示点の位置とをキーとして、前記第2記憶部から前記ページ番号と前記指示点の位置とに対応する演出管理番号を検索する検索ステップと、
前記検索結果となる演出管理番号をキーとして、前記第3記憶部から前記演出管理番号に対応する演出パラメータおよび演出ファイルを読み込む読込ステップと、
前記読み込んだ演出ファイルが画像データである場合には、前記読み込んだ演出パラメータに基づいて該画像データに画像演出処理を施して再生する画像演出処理ステップと、
前記読み込んだ演出ファイルが音声データである場合には、前記読み込んだ演出パラメータに基づいて該音声データに音声演出処理を施して再生する音声演出処理ステップとをコンピュータに処理させることを特徴とするコンピュータ・プログラム。
A display unit that displays at least one page of comic image data on a display screen; and an audio reproduction unit that reproduces audio data related to the comic image data, and is made at a specific position on the display screen. A computer program for reproducing a multi-function comic so as to output at least one of image data and audio data corresponding to the specific position based on the contact operation as a production content,
A first storage step of storing a plurality of pages of cartoon image data in the first storage unit;
A second storage step of storing, in the second storage unit, an effect management number corresponding to a page number of the image data of the cartoon and a designated point area indicating a specific position range on the screen corresponding to the page number;
A third storage step of storing an effect parameter and an effect file corresponding to the effect management number in a third storage unit;
A comic display step of reading comic image data for one page from the first storage unit and displaying it on a display screen;
A position detecting step for detecting the position of the indication point in accordance with the contact operation on the display screen;
A search step of searching for an effect management number corresponding to the page number and the position of the indicated point from the second storage unit, using the page number of the image data of the displayed cartoon and the position of the indicated point as keys. ,
Reading the production parameter and the production file corresponding to the production management number from the third storage unit using the production management number as the search result as a key;
When the read effect file is image data, an image effect processing step of performing image effect processing on the image data based on the read effect parameter and reproducing the image data;
When the read effect file is audio data, the computer causes the computer to process an audio effect processing step of performing audio effect processing on the audio data based on the read effect parameter and reproducing the audio data. ·program.
JP2011225535A 2011-10-13 2011-10-13 Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program Pending JP2013088837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011225535A JP2013088837A (en) 2011-10-13 2011-10-13 Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011225535A JP2013088837A (en) 2011-10-13 2011-10-13 Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program

Publications (1)

Publication Number Publication Date
JP2013088837A true JP2013088837A (en) 2013-05-13

Family

ID=48532735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011225535A Pending JP2013088837A (en) 2011-10-13 2011-10-13 Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program

Country Status (1)

Country Link
JP (1) JP2013088837A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016134177A (en) * 2015-01-16 2016-07-25 ネイバー コーポレーションNAVER Corporation Device, method, and computer program for generating cartoon data, and cartoon data display device
JP2016134179A (en) * 2015-01-16 2016-07-25 ネイバー コーポレーションNAVER Corporation Device, method, and computer program for generating cartoon data, and cartoon data display device
JP2016184390A (en) * 2015-03-25 2016-10-20 ネイバー コーポレーションNAVER Corporation Cartoon data generation system and cartoon data generation method
CN107209916A (en) * 2015-01-28 2017-09-26 纳宝株式会社 Caricature data presentation device and method
KR101837963B1 (en) * 2017-01-31 2018-03-13 리마 주식회사 System, method and program for protecting copying webtoon
WO2018143555A1 (en) * 2017-01-31 2018-08-09 리마 주식회사 System, method and program for preventing unauthorized copies of webcomics and tracking replicated webcomics
CN110249329A (en) * 2017-01-31 2019-09-17 立马公司 It prevents network caricature unauthorized duplication and is replicated network caricature tracing system, method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016134177A (en) * 2015-01-16 2016-07-25 ネイバー コーポレーションNAVER Corporation Device, method, and computer program for generating cartoon data, and cartoon data display device
JP2016134179A (en) * 2015-01-16 2016-07-25 ネイバー コーポレーションNAVER Corporation Device, method, and computer program for generating cartoon data, and cartoon data display device
CN107209916A (en) * 2015-01-28 2017-09-26 纳宝株式会社 Caricature data presentation device and method
US20170336937A1 (en) * 2015-01-28 2017-11-23 Naver Corporation Device and method for displaying cartoon data
JP2018514004A (en) * 2015-01-28 2018-05-31 ネイバー コーポレーションNAVER Corporation Cartoon data display apparatus and method
US10635285B2 (en) 2015-01-28 2020-04-28 Naver Corporation Device and method for moving the display of cartoon data
CN107209916B (en) * 2015-01-28 2021-03-23 纳宝株式会社 Cartoon data display device and method
JP2016184390A (en) * 2015-03-25 2016-10-20 ネイバー コーポレーションNAVER Corporation Cartoon data generation system and cartoon data generation method
KR101837963B1 (en) * 2017-01-31 2018-03-13 리마 주식회사 System, method and program for protecting copying webtoon
WO2018143555A1 (en) * 2017-01-31 2018-08-09 리마 주식회사 System, method and program for preventing unauthorized copies of webcomics and tracking replicated webcomics
CN110249329A (en) * 2017-01-31 2019-09-17 立马公司 It prevents network caricature unauthorized duplication and is replicated network caricature tracing system, method and program
US11409849B2 (en) 2017-01-31 2022-08-09 Lima Security Lab Co., Ltd. System, method and program for preventing unauthorized copies of webcomics and tracking replicated webcomics

Similar Documents

Publication Publication Date Title
US20210141506A1 (en) Device, method, and graphical user interface for managing folders with multiple pages
JP6336550B2 (en) Method and graphical user interface for editing on a multifunction device having a touch screen display
CN102033710B (en) Method for managing file folder and related equipment
CN102414755B (en) Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
JP5486593B2 (en) User interface for mobile device application management
CN106415431B (en) For sending method, computer-readable medium and the electronic equipment of instruction
JP6097835B2 (en) Device, method and graphical user interface for managing folders with multiple pages
JP5483908B2 (en) Portable electronic device with interface reconfiguration mode
US10013098B2 (en) Operating method of portable terminal based on touch and movement inputs and portable terminal supporting the same
JP2013088837A (en) Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program
CN103218148B (en) For configuration and the affined device for interacting of user interface, method and graphical user interface
CN102763058B (en) For accessing the device of optional key, method and graphical user interface
TWI503737B (en) Methods,devices,and computer readable storage medium for configuring an electronic device to interpret key input signals from a keyboard
CN110297679A (en) For providing the equipment, method and graphic user interface of audiovisual feedback
CN108363526A (en) Device and method for navigating between user interface
KR20110127760A (en) Editing interface
CN105260049A (en) Device, method, and graphical user interface for displaying additional information in response to a user contact
CN105393201A (en) Device, method, and graphical user interface for managing concurrently open software applications
JP2018511093A (en) Device, method and graphic user interface used to move application interface elements
JP2013092962A (en) Multifunctional cartoon reproduction device, multifunctional cartoon reproduction method and computer program
JP2020035468A (en) Device, method, and graphical user interface used for moving application interface element
TW201617800A (en) Method of providing content of a device and the device