JP2017187586A - Speech display system - Google Patents

Speech display system Download PDF

Info

Publication number
JP2017187586A
JP2017187586A JP2016075596A JP2016075596A JP2017187586A JP 2017187586 A JP2017187586 A JP 2017187586A JP 2016075596 A JP2016075596 A JP 2016075596A JP 2016075596 A JP2016075596 A JP 2016075596A JP 2017187586 A JP2017187586 A JP 2017187586A
Authority
JP
Japan
Prior art keywords
image
text
display
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016075596A
Other languages
Japanese (ja)
Inventor
小林 徹
Toru Kobayashi
徹 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2016075596A priority Critical patent/JP2017187586A/en
Publication of JP2017187586A publication Critical patent/JP2017187586A/en
Pending legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To display a translation sentence or the like in an easily viewable manner, while displaying the whole image such as comics.SOLUTION: A display device includes image display means for displaying an image on the display screen of a display, display position information acquisition means for acquiring the display position information in the display screen of the image, and text display means for displaying a text associated with the image. A second text corresponding to the text is displayed in a position where the image is not displayed.SELECTED DRAWING: Figure 5

Description

本発明は、電子データ化された漫画や雑誌等を表示するシステムに関し、特に、該データに関連付けられたセリフを表示するシステム、方法、及びコンピュータプログラムに関する。   The present invention relates to a system for displaying comics, magazines, and the like converted into electronic data, and more particularly, to a system, method, and computer program for displaying lines associated with the data.

近年、電子データ化された漫画、雑誌、及び書籍等のいわゆる電子書籍を、画像表示機能を備えたコンピュータ(例えば、パーソナルコンピュータ(personal computer)、以下「PC」という)や、携帯端末等(例えば、タブレット端末やスマートフォン等)に表示させる技術が普及している。   In recent years, so-called electronic books such as comics, magazines, and books converted into electronic data are converted into computers (for example, personal computers (hereinafter referred to as “PCs”) having image display functions, portable terminals, etc. (for example, Technology that displays on tablet terminals, smartphones, etc.) has become widespread.

特に、前記電子書籍のデータに含まれるセリフ等の文字列に関して、例えば、話し手から吹き出した形に描くセリフを囲む曲線(以下、単に「吹き出し」という)の表示領域を示す技術や、該吹き出し内に表示されるセリフの表示方法に関する技術が開示されている(例えば、特許文献1〜3参照)。   In particular, with respect to character strings such as words included in the data of the electronic book, for example, a technique for indicating a display area of a curve (hereinafter simply referred to as “speech balloon”) surrounding a speech drawn in a form ballooned from a speaker, The technique regarding the display method of the lines displayed on the screen is disclosed (for example, see Patent Documents 1 to 3).

特許文献1に開示されている技術によれば、電子コミックを閲覧する際に、セリフの原文を翻訳した翻訳文の全文が予め設定された文字サイズで入るか否かを判別し、該セリフの翻訳文の全文が入ると判別されると、該吹き出し内にセリフの翻訳文の全文を表示させる。一方、前記セリフの翻訳文の全文が入らないと判別されると、前記吹き出しを拡大表示されると共に、該拡大された吹き出し内にセリフの翻訳文を表示させる。
また、特許文献2に開示されている技術によれば、例えば、電子コミックを閲覧する際に、セリフの原文を翻訳した翻訳文が縦長の吹き出し内に収まらない場合、該縦長の吹き出しを横長の吹き出しに書き換えると共に、該翻訳文を該横長の吹き出し内に表示させる。
また、特許文献3に開示されている技術によれば、例えば、電子コミックを閲覧する際に、オリジナルの言語から任意の言語に変換されたセリフの文字列を過不足なく配置する吹き出しを描画する。また、表示されているイラストや写真やマンガのイメージを損なうことなく、セリフや解説を他の言語に自由に設定可能とすることができ、且つ、セリフや解説の表示位置を自由に設定できるようにする。
According to the technique disclosed in Patent Literature 1, when browsing an electronic comic, it is determined whether or not the entire sentence of the translated sentence translated from the original sentence is included in a preset character size. When it is determined that the entire sentence of the translated sentence is entered, the entire sentence of the translated sentence in the speech is displayed in the balloon. On the other hand, if it is determined that the whole sentence of the serif translation sentence does not enter, the speech balloon is enlarged and displayed, and the serif translation sentence is displayed in the enlarged speech balloon.
Further, according to the technique disclosed in Patent Document 2, for example, when browsing an electronic comic, if a translated sentence obtained by translating the original sentence is not contained in a vertically long balloon, the vertically long balloon is The translation is rewritten into a balloon and the translated sentence is displayed in the horizontally long balloon.
Further, according to the technique disclosed in Patent Document 3, for example, when browsing an electronic comic, a balloon that draws a character string of a serif converted from an original language into an arbitrary language is drawn. . In addition, it is possible to freely set dialogues and explanations in other languages without damaging the displayed illustrations, photos, and manga images, and to set the display positions of the dialogues and explanations freely. To.

ところで、前記特許文献1〜3に開示された技術では、ユーザが任意の翻訳文を選択し閲覧する際、翻訳文は前記吹き出し内に表示されるが、該翻訳文の文字数や行数が、原文である言語の文字数や行数よりも多い場合には、前記文字数や行数を前記吹き出し内に収める必要があった。
従って、前記吹き出しの大きさを大きくする必要があり、その結果、前記吹き出しがイラストに重なってしまい、漫画等の画像が隠れてしまうという不具合があった。
また、前記吹き出しがイラストに重ならない箇所に配置された場合であっても、翻訳文を前記吹き出し内に小さく表示させることになり、その結果、読みにくいという不具合があった。また、スクロール操作により翻訳文の全文を読めるように構成した場合であっても、操作が煩雑であるという不具合があった。
特許第5674451号公報 特許第5674450号公報 特許第3522644号公報
By the way, in the techniques disclosed in Patent Documents 1 to 3, when the user selects and browses an arbitrary translated sentence, the translated sentence is displayed in the balloon, but the number of characters and the number of lines of the translated sentence are: When there are more characters or lines than the original language, it is necessary to store the number of characters and lines in the balloon.
Therefore, it is necessary to increase the size of the speech balloon, and as a result, the speech balloon overlaps with the illustration, and the image such as a comic is hidden.
Further, even when the speech balloon is arranged at a location that does not overlap the illustration, the translated sentence is displayed in a small size in the speech balloon, and as a result, there is a problem that it is difficult to read. Moreover, even if it is a case where it is comprised so that the whole sentence of a translation can be read by scroll operation, there existed a malfunction that operation was complicated.
Japanese Patent No. 5675451 Japanese Patent No. 5675450 Japanese Patent No. 3522644

本発明は、以上のような従来の不具合を解消するためのものであって、その課題は、漫画等の画像全体を表示したまま、翻訳文等を見やすく表示することができるシステムを提供することにある。   The present invention is for solving the conventional problems as described above, and the problem is to provide a system that can display a translated sentence and the like in an easy-to-view manner while displaying an entire image of a cartoon or the like. It is in.

前記課題を解決するために、請求項1に記載の発明にあっては、ディスプレイの表示画面に画像を表示させる画像表示手段と、前記画像の前記表示画面内における表示位置情報を取得する表示位置情報取得手段と、前記画像に関連付けられたテキストを表示するテキスト表示手段とを有し、前記画像が表示されていない位置に、前記テキストに対応する第二テキストを表示することを特徴とする。
ここで、テキストとは、例えば漫画の画像に描かれている吹き出し内に記載されているセリフや、前記画像中の背景に記載された効果音や、ナレーション等の文字列である。
また、第二テキストとは、前記セリフの翻訳文や解説等の文字列である。
In order to solve the above-mentioned problem, in the invention according to claim 1, an image display means for displaying an image on a display screen of a display, and a display position for acquiring display position information of the image in the display screen It has an information acquisition means and a text display means for displaying text associated with the image, and displays a second text corresponding to the text at a position where the image is not displayed.
Here, the text is, for example, a character string written in a balloon drawn in a comic image, a sound effect written in the background in the image, or a character string such as a narration.
The second text is a character string such as a translated sentence or commentary of the line.

請求項1に記載の表示装置によれば、前記画像表示手段によって前記ディスプレイの表示画面に前記画像が表示され、前記表示位置情報取得手段によって前記画像の前記表示画面内における表示位置情報が取得されるため、前記テキスト表示手段によって前記ディスプレイの表示画面内の前記画像が表示されていない位置に、前記第二テキストを表示することができる。   According to the display device of claim 1, the image is displayed on the display screen of the display by the image display unit, and display position information of the image in the display screen is acquired by the display position information acquisition unit. Therefore, the second text can be displayed at a position where the image is not displayed on the display screen of the display by the text display means.

請求項2に記載の発明にあっては、前記テキストは、前記画像に近接して表示されていることを特徴とする。
請求項2に記載の表示装置によれば、前記テキストと前記画像とを互いに重なり合うことなく表示することができる。
The invention according to claim 2 is characterized in that the text is displayed close to the image.
According to the display device of the second aspect, the text and the image can be displayed without overlapping each other.

請求項3に記載の発明にあっては、前記第二テキストは、前記テキストの翻訳文であることを特徴とする。
請求項3に記載の表示装置によれば、前記画像が表示されていない位置に、前記テキストの翻訳文を表示することができる。
The invention according to claim 3 is characterized in that the second text is a translation of the text.
According to the display device of the third aspect, the translation of the text can be displayed at a position where the image is not displayed.

請求項4に記載の発明にあっては、前記画像表示手段は、前記画像の所定位置を選択した場合に、前記画像を下方に縮小表示させ、前記第二テキストを上方に横書きで表示することを特徴とする。
請求項4に記載の表示装置によれば、前記画像を縮小表示させることで、前記画像の全体イメージを表示した状態を保ちつつ、前記第二テキストを前記テキストと比べ、より大きく表示することができる。
According to a fourth aspect of the present invention, when the predetermined position of the image is selected, the image display means displays the image in a reduced size and displays the second text in horizontal writing in the upper direction. It is characterized by.
According to the display device of claim 4, by displaying the image in a reduced size, the second text can be displayed larger than the text while maintaining a state where the entire image of the image is displayed. it can.

請求項5に記載の発明にあっては、前記画像は、漫画、又はイラストであることを特徴とする。従って、例えば、漫画のセリフに対応する翻訳文を表示することができる。   The invention according to claim 5 is characterized in that the image is a cartoon or an illustration. Therefore, for example, a translation corresponding to a comic line can be displayed.

請求項6に記載の発明にあっては、前記画像は、動画のスクリーンショットであることを特徴とする。従って、例えば、動画のセリフに対応する翻訳文を表示することができる。   The invention according to claim 6 is characterized in that the image is a screen shot of a moving image. Therefore, for example, it is possible to display a translation corresponding to a moving image line.

本発明によれば、漫画等の画像全体を表示したまま、翻訳文等を見やすく表示することができる。   According to the present invention, it is possible to easily display a translated sentence or the like while displaying an entire image of a cartoon or the like.

図1は、本発明の一実施形態に係る画像表示システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an image display system according to an embodiment of the present invention. 図2は、図1の画像表示システムにおける、画像表示装置のイメージ図である。FIG. 2 is an image diagram of an image display device in the image display system of FIG. 図3は、図2に記載の画像表示装置における、ハードウェア構成の一例を示したブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration in the image display apparatus illustrated in FIG. 図4は、図2に記載の画像表示装置における、画像表示部に表示される画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image displayed on the image display unit in the image display device illustrated in FIG. 2. 図5は、図4に記載の画像における、セリフ選択時に表示される画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed when a line is selected in the image illustrated in FIG. 4. 図6は、図4に記載の画像における、効果音選択時に表示される画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image displayed when a sound effect is selected in the image illustrated in FIG. 4. 図7は、電子書籍ビューワ起動時における、画像表示処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of image display processing when the electronic book viewer is activated. 図8は、図2に記載の画像表示装置における、表示画面に表示される動画スクリーンショットの一例、及び字幕選択時に表示される画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a moving image screenshot displayed on the display screen and an example of an image displayed when subtitles are selected in the image display device illustrated in FIG. 2. 図9は、動画スクリーンショットビューワ起動時における、画像表示処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of image display processing when the moving image screen shot viewer is activated.

以下、本発明を実施するための形態を、図面を参照して詳細に説明する。なお、本発明の画像表示システムは、以下の実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. It should be noted that the image display system of the present invention is not limited to the following embodiments, and it is needless to say that various changes can be made without departing from the gist of the present invention.

<第一実施形態>
図1は、本発明の一実施形態に係る画像表示システムの構成例を示す図である。
画像表示システム10は、配信元サーバ1、PC5、外部記憶媒体8、画像表示装置20により構成されている。
配信元サーバ1は、図示しない通信インタフェースを備えており、電子データ化された漫画、雑誌、及び書籍等のいわゆる電子書籍を、インターネットやLAN(Local Area Network)等のネットワーク3を介しPC5や画像表示装置20に配信する機能を有する。
<First embodiment>
FIG. 1 is a diagram illustrating a configuration example of an image display system according to an embodiment of the present invention.
The image display system 10 includes a distribution source server 1, a PC 5, an external storage medium 8, and an image display device 20.
The distribution source server 1 is provided with a communication interface (not shown), and so-called electronic books such as comics, magazines, and books converted into electronic data are transferred to a PC 5 or an image via a network 3 such as the Internet or a LAN (Local Area Network). It has a function of delivering to the display device 20.

配信元サーバ1には、前記電子書籍の画像データや、前記画像に関連付けられたテキストデータ(例えば、漫画のセリフや効果音や解説文など)が格納されている。また、配信元サーバ1には、例えば、前記テキストデータに関連付けられている第二のテキストデータ(例えば、翻訳文)も格納されている。なお、前記種々のデータ(前記画像データ、前記画像に関連付けられたテキストデータ、及び前記テキストデータに関連付けられている第二のテキストデータ)の格納場所は、配信元サーバ1に限定されるものではなく、配信元が備える図示しない他の装置であってもよい。   The distribution source server 1 stores image data of the electronic book and text data associated with the image (for example, comic lines, sound effects, explanations, etc.). The distribution source server 1 also stores, for example, second text data (for example, translated text) associated with the text data. The storage location of the various data (the image data, the text data associated with the image, and the second text data associated with the text data) is not limited to the distribution source server 1. Alternatively, another device (not shown) included in the distribution source may be used.

PC5は、図示しない通信インタフェースを備えたコンピュータ(例えば、パーソナルコンピュータ(personal computer))であって、例えば携帯電話端末で利用されている無線通信方式(以下、「無線通信4」と記す)や、いわゆる無線LANで利用されている無線通信方式(以下、「無線通信9」と記す)を利用し、ネットワーク3へ接続する機能を有する。つまり、PC5は、無線通信4や無線通信9を通じて、ネットワーク3を介し、配信元サーバ1との相互通信を可能にする機能を有する、ユーザにより操作可能な装置である。   The PC 5 is a computer having a communication interface (not shown) (for example, a personal computer), for example, a wireless communication method (hereinafter referred to as “wireless communication 4”) used in a mobile phone terminal, It has a function of connecting to the network 3 by using a wireless communication system (hereinafter referred to as “wireless communication 9”) used in a so-called wireless LAN. That is, the PC 5 is a device that can be operated by the user and has a function of enabling mutual communication with the distribution source server 1 via the network 3 through the wireless communication 4 and the wireless communication 9.

また、PC5は、前記通信インタフェース、無線通信9を介して画像表示装置20と相互通信可能に接続でき、PC5と画像表示装置20との間で前記種々のデータの送受信を可能にする機能を有する。また、PC5は、例えばUSB(Universal Serial Bus)ポート(図示しない)を備えており、USB規格に従った通信によって、外部記憶媒体8と相互通信可能に接続でき、PC5と外部記憶媒体8との間で前記種々のデータの送受信を可能にする機能を有する。   Further, the PC 5 can be connected to the image display device 20 via the communication interface and the wireless communication 9 so as to be able to communicate with each other, and has a function of enabling transmission and reception of the various data between the PC 5 and the image display device 20. . Further, the PC 5 includes, for example, a USB (Universal Serial Bus) port (not shown), and can be connected to the external storage medium 8 through communication according to the USB standard so that the PC 5 and the external storage medium 8 can communicate with each other. A function of enabling the transmission and reception of the various data between them.

また、PC5は、配信元サーバ1や外部記憶媒体8や画像表示装置20より入手した前記種々のデータを格納する機能を有する。また、PC5は、本発明の一つを実現するためのアプリケーションプログラムを格納し、前記アプリケーションプログラムを所定の制御により実行する機能を有する。   The PC 5 has a function of storing the various data obtained from the distribution source server 1, the external storage medium 8, and the image display device 20. The PC 5 has a function of storing an application program for realizing one of the present invention and executing the application program by predetermined control.

ディスプレイ6は、PC5から出力された前記種々のデータを視認できるよう表示する表示画面を備えている。また、ディスプレイ6の表示画面は、ユーザが前記表示画面を直接触って操作するいわゆるタッチパネル方式に対応する機能を有する。なお、本実施例では、PC5とディスプレイ6は離れた構成として説明しているが、前記構成に限定されるものではない。   The display 6 includes a display screen that displays the various data output from the PC 5 so as to be visible. The display screen of the display 6 has a function corresponding to a so-called touch panel method in which the user operates the display screen by directly touching the display screen. In the present embodiment, the PC 5 and the display 6 are described as being separated from each other. However, the present invention is not limited to the above configuration.

マウス7は、ディスプレイ6の表示画面におけるポインティング手段の一つとして、PC5に接続される。マウス7は、Bluetooth(登録商標)等の無線接続、或いはUSBコネクタ等を使用した有線接続により接続される汎用品を使用することができる。   The mouse 7 is connected to the PC 5 as one of pointing means on the display screen of the display 6. The mouse 7 can be a general-purpose product that is connected by wireless connection such as Bluetooth (registered trademark) or wired connection using a USB connector or the like.

外部記憶媒体8は、例えば、不揮発性の半導体メモリであるフラッシュメモリであり、PC5や画像表示装置20とに備えられているUSBポートを介して、PC5や画像表示装置20とそれぞれ通信可能に接続できる。また、外部記憶媒体8は、PC5や画像表示装置20より入手した前記種々のデータが格納されている。外部記憶媒体8は、前記USBポートを介してPC5や画像表示装置20に接続されると、それぞれの装置(PC5や画像表示装置20)の制御下で、外部記憶媒体8に対するデータの読み出し、データの書き込み等の処理が行われる。   The external storage medium 8 is, for example, a flash memory that is a non-volatile semiconductor memory, and is connected to the PC 5 and the image display device 20 through a USB port provided in the PC 5 and the image display device 20 so that they can communicate with each other. it can. The external storage medium 8 stores the various data obtained from the PC 5 and the image display device 20. When the external storage medium 8 is connected to the PC 5 or the image display device 20 via the USB port, data is read from the external storage medium 8 or data under the control of the respective device (PC 5 or image display device 20). Processing such as writing is performed.

画像表示装置20は、図示しない通信インタフェースを備えた、例えばタブレット端末やスマートフォン等のユーザにより操作可能な携帯端末である。画像表示装置20は、前記通信インタフェースを介し、無線通信4や無線通信9を利用し、ネットワーク3へ接続する機能を有する。つまり、画像表示装置20は、無線通信4や無線通信9を通じて、ネットワーク3を介し、配信元サーバ1との相互通信を可能にする機能を有する、ユーザにより操作可能な装置である   The image display device 20 is a portable terminal that includes a communication interface (not shown) and can be operated by a user such as a tablet terminal or a smartphone. The image display device 20 has a function of connecting to the network 3 using the wireless communication 4 or the wireless communication 9 via the communication interface. That is, the image display device 20 is a device that can be operated by the user and has a function of enabling mutual communication with the distribution source server 1 through the network 3 through the wireless communication 4 and the wireless communication 9.

また、画像表示装置20は、前記通信インタフェース、無線通信9を介してPC5と相互通信可能に接続でき、画像表示装置20とPC5との間で前記種々のデータの送受信を可能にする機能を有する。また、画像表示装置20は、例えば前記USBポート(図示しない)を備えており、USB規格に従った通信によって、外部記憶媒体8と相互通信可能に接続でき、画像表示装置20と外部記憶媒体8との間で前記種々のデータの送受信を可能にする機能を有する。   The image display device 20 can be connected to the PC 5 via the communication interface and the wireless communication 9 so as to be able to communicate with each other. The image display device 20 has a function that enables transmission and reception of the various data between the image display device 20 and the PC 5. . Further, the image display device 20 includes, for example, the USB port (not shown), and can be connected to the external storage medium 8 through communication according to the USB standard so that the image display device 20 and the external storage medium 8 can communicate with each other. A function of enabling transmission and reception of the various data.

また、画像表示装置20は、配信元サーバ1やPC5や外部記憶媒体8より入手した前記種々のデータを格納する機能を有する。また、画像表示装置20は、本発明の一つを実現するためのアプリケーションプログラムを格納し、前記アプリケーションプログラムを所定の制御により実行する機能を有する。   The image display device 20 has a function of storing the various data obtained from the distribution source server 1, the PC 5, and the external storage medium 8. The image display device 20 has a function of storing an application program for realizing one of the present invention and executing the application program by predetermined control.

図2は、図1の画像表示システムにおける、画像表示装置のイメージ図である。
画像表示装置20は、配信元サーバ1やPC5や外部記憶媒体8より入手した前記種々のデータを視認できるよう表示する、画像表示部21を備えている。画像表示部21は、ユーザが画像表示部21の表面に直接触れて操作するいわゆるタッチパネル方式に対応している。なお、画像表示部21に表示されるイメージは、図4以降で詳述する。
FIG. 2 is an image diagram of an image display device in the image display system of FIG.
The image display device 20 includes an image display unit 21 that displays the various data obtained from the distribution source server 1, the PC 5, and the external storage medium 8 so as to be visible. The image display unit 21 corresponds to a so-called touch panel system in which a user operates by directly touching the surface of the image display unit 21. The image displayed on the image display unit 21 will be described in detail after FIG.

図3は、図2に記載の画像表示装置における、ハードウェア構成の一例を示したブロック図である。
画像表示装置20は、制御部41、記憶部42、表示位置情報取得部47、関連テキスト表示部48、第二テキスト表示部49、及び操作認識部50を備える。前記各部(41乃至50)は、バスライン45を通じて相互に通信可能に接続される構成になっている。
FIG. 3 is a block diagram illustrating an example of a hardware configuration in the image display apparatus illustrated in FIG.
The image display device 20 includes a control unit 41, a storage unit 42, a display position information acquisition unit 47, a related text display unit 48, a second text display unit 49, and an operation recognition unit 50. The units (41 to 50) are connected to each other through a bus line 45 so that they can communicate with each other.

制御部41は、画像表示装置20全体を制御する。具体的には、制御部41は、一例としてCPU(Central Processing Unit)であり、バスライン45を介して画像表示装置20内部のハードウェア構成要素(前記各部41乃至50)に接続される。また、制御部41は、記憶部42に格納されているアプリケーションプログラム44に従い、揮発性メモリからなるRAM(図示しない)を一時記憶作業領域として、画像表示装置20内部のハードウェア構成要素を制御することによって、画像表示装置20全体を制御する。
また、制御部41は、記憶部42に格納されているアプリケーションプログラム44に従い、必要に応じて、表示位置情報取得部47、関連テキスト表示部48、及び第二テキスト表示部49から読み込んだ種々のデータを用いて、アプリケーションプログラム44が要求する演算処理動作を行う。
また、制御部41は、画像表示部21を通じ操作認識部50を介して送信される、ユーザからの各種の指令に従い、画像表示装置20の前記各部(41乃至50)を制御する。
The control unit 41 controls the entire image display device 20. Specifically, the control unit 41 is a CPU (Central Processing Unit) as an example, and is connected to hardware components (the units 41 to 50) inside the image display device 20 via the bus line 45. The control unit 41 controls hardware components in the image display device 20 using a RAM (not shown) formed of a volatile memory as a temporary storage work area according to the application program 44 stored in the storage unit 42. Thus, the entire image display apparatus 20 is controlled.
In addition, the control unit 41 performs various readings from the display position information acquisition unit 47, the related text display unit 48, and the second text display unit 49 according to the application program 44 stored in the storage unit 42 as necessary. An arithmetic processing operation requested by the application program 44 is performed using the data.
In addition, the control unit 41 controls the respective units (41 to 50) of the image display device 20 according to various commands transmitted from the user through the operation recognition unit 50 through the image display unit 21.

記憶部42は、例えば、画像表示装置20が所定の処理動作を実行するのに必要なOS(オペレーティング・システム)(図示しない)や、制御部41が実行する演算処理動作を規定した、アプリケーションプログラム44と共に、図示しない種々のアプリケーションや種々のデータを記憶しておくためのメモリであり、例えばハードディスクや半導体メモリ等が用いられる。記憶部42に記憶される種々のデータは、それぞれ、バスライン45を介して制御部41から出力されるデータ書き込み指令信号に基づき書き込まれ、またバスライン45を介して制御部41から出力されるデータ読み出し指令信号に基づき読み込まれる。   The storage unit 42 is, for example, an application program that defines an OS (operating system) (not shown) necessary for the image display device 20 to execute a predetermined processing operation, and an arithmetic processing operation executed by the control unit 41 44 is a memory for storing various applications and various data (not shown), such as a hard disk or a semiconductor memory. Various data stored in the storage unit 42 is written based on a data write command signal output from the control unit 41 via the bus line 45, and is output from the control unit 41 via the bus line 45. Read based on data read command signal.

アプリケーションプログラム44は、例えば、制御部41により実行される、画像表示装置20の各部(41乃至50)を制御するための制御プログラムと、配信元サーバ1、PC5、外部記憶媒体8から入手した前記種々のデータと、前記種々のデータと前記種々のデータに関連するデータとを、前記電子書籍として画像表示部21へ表示するよう制御する、電子書籍ビューワプログラムとを含む。
アプリケーションプログラム44は、画像表示装置20の画像表示部21を通じてユーザから入力された指令情報に基づき、制御部41の制御動作を規定している。なお、アプリケーションプログラム44は、本実施例においては、画像表示装置20で実行可能としているが、プログラムであるため、例えばPC5のような制御部を備えるコンピュータであれば実行可能である。
The application program 44 is, for example, a control program for controlling each unit (41 to 50) of the image display device 20 that is executed by the control unit 41, the distribution source server 1, the PC 5, and the external storage medium 8. And an electronic book viewer program for controlling to display various data and the various data and data related to the various data on the image display unit 21 as the electronic book.
The application program 44 defines the control operation of the control unit 41 based on command information input from the user through the image display unit 21 of the image display device 20. Note that the application program 44 can be executed by the image display device 20 in this embodiment. However, since the application program 44 is a program, it can be executed by a computer including a control unit such as the PC 5.

表示位置情報取得部47は、制御部41の制御下で、配信元サーバ1や、PC5や、外部記憶媒体8より出力された前記電子書籍に係わる画像データから、画像表示部21における前記画像データを表示する位置に関する情報を取得する。表示位置情報取得部47により取得された表示位置情報は、制御部41の制御下で、バスライン45を介して記憶部42に格納される。表示位置情報取得部47により取得された表示位置情報は、制御部41の制御下で、アプリケーションプログラム44からの関連テキスト表示指令や第二テキスト表示指令に基づき、適宜参照される。   The display position information acquisition unit 47 controls the image data in the image display unit 21 from image data relating to the electronic book output from the distribution source server 1, the PC 5, or the external storage medium 8 under the control of the control unit 41. Get information about the position to display. The display position information acquired by the display position information acquisition unit 47 is stored in the storage unit 42 via the bus line 45 under the control of the control unit 41. The display position information acquired by the display position information acquisition unit 47 is appropriately referred to based on the related text display command and the second text display command from the application program 44 under the control of the control unit 41.

関連テキスト表示部48は、制御部41の制御下で、配信元サーバ1や、PC5や、外部記憶媒体8より出力された前記電子書籍に係わる画像データに関連付けられたテキストを表示する。本実施例においては、前記画像データに関連付けられたテキストとは、主にセリフや効果音や解説文等であるが、文字列であればこれらに限定されることはない。また、前記画像データに関連付けられたテキストは、配信元サーバ1や、PC5や、外部記憶媒体8から前記電子書籍が出力される際に、前記電子書籍の画像データに関連付けられて出力され、制御部41の制御下で、バスライン45を介して記憶部42に格納される。   The related text display unit 48 displays text associated with the image data related to the electronic book output from the distribution source server 1, the PC 5, or the external storage medium 8 under the control of the control unit 41. In this embodiment, the text associated with the image data is mainly words, sound effects, explanations, etc., but is not limited to these as long as it is a character string. The text associated with the image data is output in association with the image data of the electronic book when the electronic book is output from the distribution source server 1, the PC 5, or the external storage medium 8. The data is stored in the storage unit 42 via the bus line 45 under the control of the unit 41.

また、関連テキスト表示部48は、制御部41の制御下で、アプリケーションプログラム44より出力される関連テキスト表示指令に基づき、記憶部42に格納されている前記画像データに関連付けされたテキストを参照し、参照された前記テキストを画像表示部21へ表示する。   The related text display unit 48 refers to the text associated with the image data stored in the storage unit 42 based on the related text display command output from the application program 44 under the control of the control unit 41. The referenced text is displayed on the image display unit 21.

第二テキスト表示部49は、制御部41の制御下で、配信元サーバ1や、PC5や、外部記憶媒体8より出力された前記電子書籍に係わる前記テキストデータに関連付けられている第二のテキストを表示する。本実施例においては、前記第二のテキストとは、主に前記画像データに関連付けられたテキストの翻訳文であるが、これに限定されることはない。また、前記第二テキストは、配信元サーバ1や、PC5や、外部記憶媒体8から前記電子書籍が出力される際に、前記電子書籍の前記テキストデータに関連付けられて出力され、制御部41の制御下で、バスライン45を介して記憶部42に格納される。   The second text display unit 49 is a second text associated with the text data related to the electronic book output from the distribution source server 1, the PC 5, or the external storage medium 8 under the control of the control unit 41. Is displayed. In the present embodiment, the second text is mainly a translation of text associated with the image data, but is not limited to this. The second text is output in association with the text data of the electronic book when the electronic book is output from the distribution source server 1, the PC 5, or the external storage medium 8. Under control, the data is stored in the storage unit 42 via the bus line 45.

また、第二テキスト表示部49は、制御部41の制御下で、アプリケーションプログラム44より出力される第二テキスト表示指令に基づき、記憶部42に格納されている前記テキストデータに関連付けされた第二テキストを参照し、参照された前記第二テキストを画像表示部21へ表示する。   Also, the second text display unit 49 is controlled by the control unit 41, and based on the second text display command output from the application program 44, the second text display unit 49 is associated with the text data stored in the storage unit 42. With reference to the text, the referenced second text is displayed on the image display unit 21.

操作認識部50は、制御部41の制御下で、画像表示部21を通じて、ユーザからの選択指令信号を受信すると、前記選択指令信号を制御部41へ出力する。なお、本実施例においては、前記選択指令信号とは、画面表示部21に表示される種々の画像やテキストをユーザが選択した際に出力される信号や、ユーザの画面操作に応じた種々の動作(いわゆる、タップ、スワイプ、フリック、ピンチイン、ピンチアウト等)の実行を指令する信号としているが、これらに限定されることはない。   When the operation recognition unit 50 receives a selection command signal from the user through the image display unit 21 under the control of the control unit 41, the operation recognition unit 50 outputs the selection command signal to the control unit 41. In the present embodiment, the selection command signal is a signal output when the user selects various images and texts displayed on the screen display unit 21 and various selections according to the user's screen operation. Although it is set as the signal which instruct | indicates execution of operation | movement (a so-called tap, swipe, flick, pinch in, pinch out, etc.), it is not limited to these.

図4は、図2に記載の画像表示装置における、画像表示部に表示される画像の一例を示す図である。
ページ22は、ユーザが画像表示部21を操作することにより、画像表示装置20の制御部41の制御下で、アプリケーションプログラム44の画像表示指令に基づき、画像表示部21に表示される漫画画像の一部である。なお、本実施例においては、ページ22は、いわゆるコマ割りが複数なされているが、前記コマ割りは無くてもよく、これに限定されることはない。
FIG. 4 is a diagram illustrating an example of an image displayed on the image display unit in the image display device illustrated in FIG. 2.
The page 22 is a page of the comic image displayed on the image display unit 21 based on the image display command of the application program 44 under the control of the control unit 41 of the image display device 20 when the user operates the image display unit 21. It is a part. In the present embodiment, the page 22 is divided into a plurality of so-called frame divisions. However, the frame division may not be provided, and the present invention is not limited to this.

ページ22の漫画画像は、図4から明らかなように、特定の対象物である人物画像23、背景画像25、及び特定の対象物である乗り物画像26とで構成されている。人物画像23の近傍には、例えば、前記人物画像23に関連付けられたテキストがセリフ24(A)(例えば、「おはよう」)として表示されている。同様に、例えば、前記乗り物画像26の近傍には、例えば、前記乗り物画像26に関連付けられたテキストが効果音27(A)(例えば、「ビビー!」)として表示されている。
ページ22の漫画画像は、例えば、制御部41の制御下で、アプリケーションプログラム44の画像表示指令に基づき、予め記憶部42に格納されている閲覧したいページの画像データや、前記画像データに関連付けされたテキスト(セリフ)や、前記テキストデータに関連付けされた第二テキスト(翻訳文)、や、前記画像の表示位置情報などから、閲覧する際に必要なデータや情報が適宜、参照/選択されることで表示される。
また、ページ22の表示サイズは、出力先の画像表示部の大きさに合わせて、アプリケーションプログラム44の所定の処理動作に基づき適宜調整される。
As is apparent from FIG. 4, the comic image of the page 22 includes a person image 23 that is a specific object, a background image 25, and a vehicle image 26 that is a specific object. In the vicinity of the person image 23, for example, text associated with the person image 23 is displayed as a line 24 (A) (for example, “Good morning”). Similarly, for example, in the vicinity of the vehicle image 26, for example, text associated with the vehicle image 26 is displayed as a sound effect 27 (A) (for example, “Bibi!”).
The comic image of the page 22 is associated with, for example, image data of a page to be browsed previously stored in the storage unit 42 or the image data based on an image display command of the application program 44 under the control of the control unit 41. Data / information necessary for browsing is appropriately referred / selected from the text (serif), the second text (translated sentence) associated with the text data, the display position information of the image, etc. Is displayed.
Further, the display size of the page 22 is appropriately adjusted based on a predetermined processing operation of the application program 44 in accordance with the size of the output image display unit.

図5は、図4に記載の画像における、セリフ選択時に表示される画像の一例を示す図である。
図5に示す画像表示部21には、図4で詳述したページ22の一部をユーザが選択した際に表示されるイメージを示している。具体的には、画像表示部21は、テキストを表示するテキスト表示部21(A)と、ページ22の縮小版を表示する画像表示部21(B)と、テキスト表示部21(A)に表示されるテキストの拡張機能を選択する機能選択部21(C)との3つの領域に分かれている。画像表示部21の中で、これら3つの前記各部(21(A)乃至21(C))が占めるそれぞれの領域は、前記それぞれの領域に配置(表示)されるテキストの長さや文字の大きさ、或いは画像の大きさ等によって、制御部41の制御下で、アプリケーションプログラム44の所定の指令に基づき適宜調整される。そのため、本実施例で割り当てられた領域に限定はされない。
FIG. 5 is a diagram illustrating an example of an image displayed when a line is selected in the image illustrated in FIG. 4.
The image display unit 21 shown in FIG. 5 shows an image displayed when the user selects a part of the page 22 detailed in FIG. Specifically, the image display unit 21 displays a text display unit 21 (A) that displays text, an image display unit 21 (B) that displays a reduced version of the page 22, and a text display unit 21 (A). The function selection unit 21 (C) for selecting an extended function of text to be displayed is divided into three areas. In the image display unit 21, the areas occupied by the three parts (21 (A) to 21 (C)) are the length of text and the size of characters arranged (displayed) in the respective areas. Alternatively, it is appropriately adjusted based on a predetermined command of the application program 44 under the control of the control unit 41 depending on the size of the image. For this reason, the area allocated in this embodiment is not limited.

テキスト表示部21(A)には、図4のセリフ24(A)に関連付けられている第二テキストが表示される。上述したように、前記画像データには、前記画像データに関連付けられたテキスト(セリフ)や、前記テキスト(セリフ)に関連付けられた第二テキスト(翻訳文)が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図4のセリフ24(A)の選択操作がなされると、制御部41は、アプリケーションプログラム44の第二テキスト表示指令に基づいて、記憶部42から前記セリフ24(A)に関連付いている翻訳文(図5の翻訳文24(B))を抽出し、第二テキスト表示部49を介して、テキスト表示部21(A)に表示させる。
また、テキスト表示部21(A)には、スクロールバー28が配置されている。スクロールバー28は、例えば、翻訳文24(B)が長文であったり、文字サイズを大きく表示するような設定をしているような場合において、画面表示部21(A)の領域に収まりきらない時には、スクロールバー28をユーザが操作することで、テキスト表示部21(A)に表示されている全文を確認することができる。
The text display unit 21 (A) displays the second text associated with the dialogue 24 (A) in FIG. As described above, the image data is preliminarily associated with the text (serif) associated with the image data and the second text (translated sentence) associated with the text (serif), and the storage unit 42. Stored in For example, when the user selects the line 24 (A) in FIG. 4, the control unit 41 transfers the line 24 (A) from the storage unit 42 to the line 24 (A) based on the second text display command of the application program 44. The associated translated sentence (translated sentence 24 (B) in FIG. 5) is extracted and displayed on the text display unit 21 (A) via the second text display unit 49.
In addition, a scroll bar 28 is arranged in the text display unit 21 (A). For example, when the translated sentence 24 (B) is a long sentence or is set to display a large character size, the scroll bar 28 does not fit in the area of the screen display unit 21 (A). Sometimes, the user operates the scroll bar 28 to check the entire text displayed on the text display unit 21 (A).

画像表示部21(B)には、図4に表示されているページ22全体の、縮小画像が表示される。上述したように、前記画像データには、前記画像を表示する位置の情報である表示位置情報が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図4のセリフ24(A)の選択操作がなされると、制御部41は、予め取得している前記表示位置情報、及びアプリケーションプログラム44の画像縮小指令に基づいて、テキスト表示部21(A)及び機能選択表示部21(C)に重ならないように、図4のページ22を縮小し、画面表示部21(B)に表示させる。   On the image display unit 21 (B), a reduced image of the entire page 22 displayed in FIG. 4 is displayed. As described above, display position information, which is information on a position for displaying the image, is associated with the image data in advance, and stored in the storage unit 42. For example, when the user performs the selection operation of the dialogue 24 (A) in FIG. 4, the control unit 41 displays the text based on the display position information acquired in advance and the image reduction command of the application program 44. The page 22 of FIG. 4 is reduced and displayed on the screen display unit 21 (B) so as not to overlap the unit 21 (A) and the function selection display unit 21 (C).

機能選択部21(C)には、テキスト表示部21(A)に表示されるテキストの拡張機能を実行させる種々のアイコン(29(A)乃至29(F))が表示される。
例えばアイコン29(A)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、翻訳文24(B)の言語をユーザが所望する様々な国の言語に切り替え、表示することができる。
また、例えばアイコン29(B)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、翻訳文24(B)のコピーを記憶しておくことができる。
また、例えばアイコン29(C)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、翻訳文24(B)の意味や使用例を、図示しないブラウザを介してWeb上から検索することができる。
また、例えばアイコン29(D)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、前記Webから検索された結果を前記ブラウザに記憶させておくことができる。
また、例えばアイコン29(E)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、画像表示部21(A)を閉じ、画像表示部21(B)の領域を拡大し、前記拡大された領域に合わせて、ページ22を大きく表示することができる。
また、例えばアイコン29(F)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、ユーザ所望の種々の機能を追加できる。なお、本実施例においては、アイコン29(A)乃至29(E)の説明の中で、24(B)は翻訳文とし説明したが、これは翻訳文に限らず、文字列であれば効果音や解説文等でも同様の処理が可能である。
Various icons (29 (A) to 29 (F)) for executing the extended function of the text displayed on the text display unit 21 (A) are displayed on the function selection unit 21 (C).
For example, when the icon 29 (A) is selected by the user, under the control of the control unit 41, various languages desired by the user for the language of the translated sentence 24 (B) based on a predetermined processing operation of the application program 44. You can switch to the language of the country and display it.
For example, when the icon 29 (B) is selected by the user, a copy of the translated sentence 24 (B) is stored based on a predetermined processing operation of the application program 44 under the control of the control unit 41. be able to.
For example, when the icon 29 (C) is selected by the user, based on a predetermined processing operation of the application program 44 under the control of the control unit 41, the meaning and usage example of the translated sentence 24 (B) are: It is possible to search from the Web via a browser (not shown).
For example, when the icon 29 (D) is selected by the user, the search result from the Web is stored in the browser based on a predetermined processing operation of the application program 44 under the control of the control unit 41. I can keep it.
For example, when the icon 29 (E) is selected by the user, the image display unit 21 (A) is closed based on a predetermined processing operation of the application program 44 under the control of the control unit 41, and the image display unit By enlarging the area 21 (B), the page 22 can be displayed in a large size in accordance with the enlarged area.
For example, when the icon 29 (F) is selected by the user, various functions desired by the user can be added based on predetermined processing operations of the application program 44 under the control of the control unit 41. In the present embodiment, in the description of the icons 29 (A) to 29 (E), 24 (B) is described as a translated sentence, but this is not limited to a translated sentence, and it is effective if it is a character string. The same processing is possible for sounds and commentary.

図6は、図4に記載の画像における、効果音選択時に表示される画像の一例を示す図である。
なお、図5と図6の相違点は、テキスト表示部21(A)に表示される文字列が、ページ22のセリフ(図5の24(A))の翻訳文ではなく、特定の対象物である乗り物画像の近傍に表示されている効果音27(A)の翻訳文であることである。そのため、説明は、効果音27(A)及び翻訳文27(B)のみとする。
FIG. 6 is a diagram illustrating an example of an image displayed when a sound effect is selected in the image illustrated in FIG. 4.
Note that the difference between FIG. 5 and FIG. 6 is that the character string displayed on the text display unit 21 (A) is not a translated sentence of the page 22 (24 (A) in FIG. 5) but a specific object. This is a translation of the sound effect 27 (A) displayed in the vicinity of the vehicle image. For this reason, the description is limited to sound effects 27 (A) and translated sentences 27 (B).

テキスト表示部21(A)には、図4の効果音27(A)に関連付けられている第二テキストが表示される。上述したように、前記画像データには、前記画像データに関連付けられたテキスト(効果音)や、前記テキスト(効果音)に関連付けられた第二テキスト(翻訳文)が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図4の効果音27(A)の選択操作がなされると、制御部41は、アプリケーションプログラム44の第二テキスト表示指令に基づいて、記憶部42から前記効果音27(A)に関連付いている翻訳文(図5の翻訳文27(B))を抽出し、第二テキスト表示部49を介して、テキスト表示部21(A)に表示させる。   The text display unit 21 (A) displays the second text associated with the sound effect 27 (A) in FIG. As described above, the image data is associated with the text (sound effect) associated with the image data and the second text (translation) associated with the text (sound effect) in advance, and is stored. Stored in the unit 42. For example, when the user selects the sound effect 27 (A) in FIG. 4, the control unit 41 reads the sound effect 27 (A) from the storage unit 42 based on the second text display command of the application program 44. ) Is extracted (translated sentence 27 (B) in FIG. 5) and displayed on the text display unit 21 (A) via the second text display unit 49.

画像表示部21(B)には、図4に表示されているページ22全体の、縮小画像が表示される。上述したように、前記画像データには、前記画像を表示する位置の情報である表示位置情報が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図4の効果音27(A)の選択操作がなされると、制御部41は、予め取得している前記表示位置情報、及びアプリケーションプログラム44の画像縮小指令に基づいて、テキスト表示部21(A)及び機能選択部21(C)に重ならないように、図4のページ22を縮小し、画面表示部21(B)に表示させる。
なお、既に図5で詳述しているが、前記各部(21(A)乃至(C))が占めるそれぞれの領域は、前記それぞれの領域に配置(表示)されるテキストの長さや文字の大きさ、或いは画像の大きさ等によって、制御部41の制御下で、アプリケーションプログラム44の所定の指令に基づき適宜調整される。そのため、本実施例で割り振られた領域に限定はされない。
On the image display unit 21 (B), a reduced image of the entire page 22 displayed in FIG. 4 is displayed. As described above, display position information, which is information on a position for displaying the image, is associated with the image data in advance, and stored in the storage unit 42. For example, when the user performs the selection operation of the sound effect 27 (A) in FIG. 4, the control unit 41 reads the text based on the display position information acquired in advance and the image reduction command of the application program 44. The page 22 of FIG. 4 is reduced and displayed on the screen display unit 21 (B) so as not to overlap the display unit 21 (A) and the function selection unit 21 (C).
As already described in detail with reference to FIG. 5, the respective areas (21 (A) to (C)) occupy the lengths of text and characters arranged (displayed) in the respective areas. Depending on the size of the image or the like, it is adjusted as appropriate based on a predetermined command of the application program 44 under the control of the control unit 41. Therefore, the area allocated in this embodiment is not limited.

図7は、電子書籍ビューワ起動時における、画像表示処理の一例を示すフローチャートである。
図7において、まず、ユーザからの電子書籍ビューワ起動指示を受け、制御部41によりアプリケーションプログラム44が起動され、これにより以下に説明する画像表示処理が開始される(ステップS1)。
次に、制御部41は、ユーザが所望するいわゆる電子書籍を、配信元サーバ1や、PC5や、外部記憶媒体8等から取得するべく、所定の処理動作を実施する。次に、制御部41は、取得した電子書籍から、画像データや、前記画像データが表示される表示位置情報や、前記画像データに関連付けられているテキスト情報や、前記テキスト情報に関連付けられている第二テキスト情報などを取得する(ステップS2)。
次に、制御部41は、アプリケーションプログラム44の処理動作に基づき、取得した画像データを、画像表示部21に表示する(ステップS3)。これにより、ユーザは、画像(漫画)を閲覧することが可能となる。
そして、ユーザにより、例えば画像から吹き出しているセリフが選択されると、制御部41は、アプリケーションプログラム44の処理動作に基づき、取得した前記表示位置情報を参照し、画像が表示されていない位置を認識すると共に、予め前記セリフに関連付けられている第二テキスト(例えば翻訳文)を前記画像が表示されていない位置に横書きで表示し、さらに、前記取得した画像を前記第二テキストに重ならない位置に縮小表示させる(ステップS4)。
そして、ユーザからの電子書籍ビューワ終了指示を受け、制御部41によりアプリケーションプログラム44が終了され、一連の画像表示処理が終了する。(ステップS5)。なお、電子書籍ビューワを終了せずに、閲覧を続ける場合は、制御部41は、アプリケーションプログラム44の処理動作に基づき、ステップS2乃至S4までの処理を引き続き実行する。
FIG. 7 is a flowchart illustrating an example of image display processing when the electronic book viewer is activated.
In FIG. 7, first, upon receiving an electronic book viewer activation instruction from the user, the control unit 41 activates the application program 44, thereby starting an image display process described below (step S1).
Next, the control unit 41 performs a predetermined processing operation so as to acquire a so-called electronic book desired by the user from the distribution source server 1, the PC 5, the external storage medium 8, and the like. Next, the control unit 41 is associated with image data, display position information on which the image data is displayed, text information associated with the image data, and the text information from the acquired electronic book. Second text information and the like are acquired (step S2).
Next, the control unit 41 displays the acquired image data on the image display unit 21 based on the processing operation of the application program 44 (step S3). Thereby, the user can browse an image (manga).
For example, when a speech balloon is selected from the image by the user, the control unit 41 refers to the acquired display position information based on the processing operation of the application program 44, and determines a position where the image is not displayed. Recognizing and displaying in advance a second text (for example, a translation) associated with the line in advance in a position where the image is not displayed, and further, the position where the acquired image does not overlap the second text Are reduced and displayed (step S4).
Then, upon receiving an electronic book viewer end instruction from the user, the application program 44 is ended by the control unit 41, and a series of image display processing ends. (Step S5). Note that, when the browsing is continued without ending the electronic book viewer, the control unit 41 continues to execute the processes from step S2 to S4 based on the processing operation of the application program 44.

<第二実施形態>
図8は、図2に記載の画像表示装置における、表示画面に表示される動画スクリーンショットの一例、及び字幕選択時に表示される画像の一例を示す図である。
図8(A)は、ユーザが画像表示部21を操作することにより、画像表示装置20の制御部41の制御下で、アプリケーションプログラム44の動画スクリーンショット表示指令に基づき、画像表示部21に表示される動画のスクリーンショットの一部である。
なお、第二の実施形態においても、画像データや画像データに関連付けられているテキストや、前記テキストに関連付けられている第二のテキストや、前記画像の表示位置情報などの種々のデータ(情報)取得方法は、第一の実施形態で上述した方法と同様である。また、前記種々のデータ(情報)の表示方法、制御部41の制御下でアプリケーション44による処理方法も、また同様である。つまり、第一の実施形態では、表示処理する対象が画像(いわゆる電子書籍)であったが、第二の実施形態では、洋画や、海外ドラマや、インターネット配信される動画等のスクリーンショットである。
<Second embodiment>
FIG. 8 is a diagram illustrating an example of a moving image screenshot displayed on the display screen and an example of an image displayed when subtitles are selected in the image display device illustrated in FIG. 2.
FIG. 8A shows a display on the image display unit 21 based on a moving image screenshot display command of the application program 44 under the control of the control unit 41 of the image display device 20 when the user operates the image display unit 21. Is part of the screenshot of the video to be played.
Also in the second embodiment, various data (information) such as image data, text associated with the image data, second text associated with the text, display position information of the image, and the like. The acquisition method is the same as the method described above in the first embodiment. Further, the display method of the various data (information) and the processing method by the application 44 under the control of the control unit 41 are also the same. In other words, in the first embodiment, an object to be displayed is an image (so-called electronic book), but in the second embodiment, it is a screen shot of a Western movie, an overseas drama, a video distributed on the Internet, or the like. .

画像表示部21は、動画スクリーンショットを表示する動画スクリーンショット表示部30(A)と、動画スクリーンショットの場面に応じた字幕を表示する字幕表示部31(A)との2つの領域に分かれている。画像表示部21の中で、これら2つの前記表示部(30(A)、及び31(A))が占めるそれぞれの領域は、前記それぞれの領域に配置(表示)されるテキストの長さや文字の大きさ、或いは動画スクリーンショットの大きさ等によって、制御部41の制御下で、アプリケーションプログラム44の所定の指令に基づき適宜調整される。そのため、本実施例で割り振られた領域に限定はされない。
例えば、動画スクリーンショット表示部30(A)に表示されるスクリーンショットが洋画の場合には、字幕表示部31(A)には、例えば、特定の対象物である人物画像32の話している内容の字幕として(例えば、「Good Morning」33(A))と原文で表示される。
The image display unit 21 is divided into two areas: a video screen shot display unit 30 (A) that displays a video screen shot, and a subtitle display unit 31 (A) that displays subtitles according to the scene of the video screen shot. Yes. In the image display unit 21, each of the two display units (30 (A) and 31 (A)) occupies the length of text and characters arranged (displayed) in the respective regions. The size is adjusted as appropriate based on a predetermined command of the application program 44 under the control of the control unit 41 depending on the size or the size of the moving image screen shot. Therefore, the area allocated in this embodiment is not limited.
For example, when the screen shot displayed on the moving image screen shot display unit 30 (A) is a Western image, the subtitle display unit 31 (A) displays, for example, the content of the person image 32 that is a specific target object. As subtitles (for example, “Good Morning” 33 (A)).

図8(B)は、ユーザが画像表示部21を操作し、図8(A)の字幕33(A)を選択することにより、画像表示装置20の制御部41の制御下で、アプリケーションプログラム44の動画スクリーンショット表示指令に基づき、画像表示部21に表示される動画のスクリーンショットの一部である。
画像表示部21は、テキストを表示するテキスト表示部31(B)と、動画スクリーンショットの縮小版を表示する動画スクリーンショット表示部30(B)と、テキスト表示部31(B)に表示されるテキストの拡張機能を選択する機能選択部31(C)との3つの領域に分かれている。画像表示部21の中で、これら3つの前記各部(30(B)、31(B)、31(C)が占めるそれぞれの領域は、前記それぞれの領域に配置(表示)されるテキストの長さや文字の大きさ、或いは画像の大きさ等によって、制御部41の制御下で、アプリケーションプログラム44の所定の指令に基づき適宜調整される。そのため、本実施例で割り当てられた領域に限定はされない。
FIG. 8B shows an application program 44 under the control of the control unit 41 of the image display device 20 by the user operating the image display unit 21 and selecting the caption 33 (A) of FIG. Is a part of the screen shot of the moving image displayed on the image display unit 21 based on the moving image screenshot display command.
The image display unit 21 is displayed on a text display unit 31 (B) that displays text, a moving image screen shot display unit 30 (B) that displays a reduced version of the moving image screenshot, and a text display unit 31 (B). The area is divided into three areas: a function selection unit 31 (C) for selecting an extended function of text. In the image display unit 21, the areas occupied by these three parts (30 (B), 31 (B), 31 (C) are the lengths of texts arranged (displayed) in the respective areas, Depending on the size of the character or the size of the image, etc., it is appropriately adjusted based on a predetermined command of the application program 44 under the control of the control unit 41. Therefore, the area allocated in this embodiment is not limited.

テキスト表示部31(B)には、図8(A)の33(A)に関連付けられている原文の字幕を翻訳した文が表示される。上述したように、動画スクリーンショットには、前記動画スクリーンショットに関連付けられたテキスト(原文の字幕)や、前記テキスト(原文の字幕)に関連付けられた第二テキスト(翻訳文)が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図8の字幕33(A)の選択操作がなされると、制御部41は、アプリケーションプログラム44の第二テキスト表示指令に基づいて、記憶部42から字幕33(A)に関連付いている翻訳文(図8の翻訳文33(B))を抽出し、第二テキスト表示部49を介して、テキスト表示部31(B)に表示させる。
また、テキスト表示部31(B)には、スクロールバー34が配置されている。スクロールバー34は、例えば、翻訳文33(B)が長文であったり、文字サイズを大きく表示するような設定をしているような場合において、テキスト表示部31(B)の領域に収まりきらない時には、スクロールバー34をユーザが操作することで、テキスト表示部31(B)に表示されている全文を確認することができる。
The text display unit 31 (B) displays a sentence obtained by translating the original sentence subtitle associated with 33 (A) in FIG. As described above, the video screen shot is pre-associated with the text (original subtitle) associated with the video screen shot and the second text (translated text) associated with the text (original subtitle). Stored in the storage unit 42. For example, when the user performs the selection operation of the caption 33 (A) in FIG. 8, the control unit 41 relates to the caption 33 (A) from the storage unit 42 based on the second text display command of the application program 44. The attached translation (translation sentence 33 (B) in FIG. 8) is extracted and displayed on the text display section 31 (B) via the second text display section 49.
In addition, a scroll bar 34 is arranged in the text display portion 31 (B). For example, when the translated sentence 33 (B) is a long sentence or is set to display a large character size, the scroll bar 34 does not fit in the area of the text display unit 31 (B). Sometimes, the user operates the scroll bar 34 to check the entire text displayed on the text display unit 31 (B).

動画スクリーンショット表示部30(B)には、図8(A)の動画スクリーンショット表示部30(A)に表示されている動画のスクリーンショット全体の縮小画像が表示される。上述したように、前記動画スクリーンショットには、前記動画スクリーンショットを表示する位置の情報である表示位置情報が予め関連付けられており、記憶部42へ格納されている。例えば、ユーザにより、図8の字幕33(A)の選択操作がなされると、制御部41は、予め取得している前記表示位置情報、及びアプリケーションプログラム44の画像縮小指令に基づいて、テキスト表示部31(B)及び機能選択部31(C)に重ならないように、図8(A)の動画スクリーンショットを縮小し、動画スクリーンショット表示部30(B)に表示させる。   In the moving image screen shot display unit 30 (B), a reduced image of the entire screen shot of the moving image displayed in the moving image screen shot display unit 30 (A) of FIG. 8A is displayed. As described above, display position information, which is information on a position where the moving image screen shot is displayed, is associated with the moving image screen shot in advance, and stored in the storage unit 42. For example, when the user performs the selection operation of the caption 33 (A) in FIG. 8, the control unit 41 displays the text based on the display position information acquired in advance and the image reduction command of the application program 44. The moving image screen shot of FIG. 8A is reduced and displayed on the moving image screen shot display unit 30 (B) so as not to overlap the unit 31 (B) and the function selecting unit 31 (C).

機能選択部31(C)には、テキスト表示部31(B)に表示されるテキストの拡張機能を実行させる種々のアイコン(35(A)乃至35(F))が表示される。
例えばアイコン35(A)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、字幕33(A)や翻訳文33(B)の言語をユーザが所望する様々な国の言語に切り替え、表示することができる。
また、例えばアイコン35(B)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、字幕33(A)や翻訳文33(B)のコピーを記憶しておくことができる。
また、例えばアイコン35(C)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、字幕33(A)や翻訳文33(B)の意味や使用例を、図示しないブラウザを介してWeb上から検索することができる。
また、例えばアイコン35(D)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、前記Webから検索された結果を前記ブラウザに記憶させておくことができる。
また、例えばアイコン35(E)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、テキスト表示部31(B)を閉じ、動画スクリーンショット表示部30(B)の領域を拡大し、前記拡大された領域に合わせて、動画スクリーンショットを大きく表示することができる。
また、例えばアイコン35(F)がユーザにより選択された場合には、制御部41の制御下で、アプリケーションプログラム44の所定の処理動作に基づき、ユーザ所望の種々の機能を追加できる。
Various icons (35 (A) to 35 (F)) for executing an extended function of the text displayed on the text display unit 31 (B) are displayed on the function selection unit 31 (C).
For example, when the icon 35 (A) is selected by the user, the language of the caption 33 (A) or the translated sentence 33 (B) is controlled based on a predetermined processing operation of the application program 44 under the control of the control unit 41. The language can be switched to various languages desired by the user and displayed.
For example, when the icon 35 (B) is selected by the user, the subtitles 33 (A) and the translated sentence 33 (B) are controlled based on a predetermined processing operation of the application program 44 under the control of the control unit 41. A copy can be stored.
For example, when the icon 35 (C) is selected by the user, the subtitles 33 (A) and the translated sentence 33 (B) are controlled based on a predetermined processing operation of the application program 44 under the control of the control unit 41. Meanings and usage examples can be searched from the Web via a browser (not shown).
Further, for example, when the icon 35 (D) is selected by the user, the search result from the Web is stored in the browser based on a predetermined processing operation of the application program 44 under the control of the control unit 41. I can keep it.
For example, when the icon 35 (E) is selected by the user, the text display unit 31 (B) is closed based on a predetermined processing operation of the application program 44 under the control of the control unit 41, and a moving image screenshot is displayed. The area of the display unit 30 (B) can be enlarged, and a moving image screenshot can be displayed in a large size in accordance with the enlarged area.
For example, when the icon 35 (F) is selected by the user, various functions desired by the user can be added based on predetermined processing operations of the application program 44 under the control of the control unit 41.

図9は、動画スクリーンショットビューワ起動時における、画像表示処理の一例を示すフローチャートである。
図9において、まず、ユーザからの動画スクリーンショットビューワ起動指示を受け、制御部41によりアプリケーションプログラム44が起動され、これにより以下に説明する画像表示処理が開始される(ステップS11)。
次に、制御部41は、ユーザが所望する動画のスクリーンショットを、配信元サーバ1や、PC5や、外部記憶媒体8等から取得するべく、所定の処理動作を実施する。次に、制御部41は、取得した動画のスクリーンショットから、画像データや、前記画像データが表示される表示位置情報や、前記画像データに関連付けられているテキスト情報や、前記テキスト情報に関連付けられている第二テキスト情報などを取得する(ステップS12)。
次に、制御部41は、アプリケーションプログラム44の処理動作に基づき、取得した動画のスクリーンショットを、画像表示部21に表示する(ステップS13)。これにより、ユーザは、動画のスクリーンショットを閲覧することが可能となる。
そして、ユーザにより、例えば動画スクリーンショットの字幕が選択されると、制御部41は、アプリケーションプログラム44の処理動作に基づき、取得した前記表示位置情報を参照し、動画のスクリーンショットが表示されていない位置を認識すると共に、予め前記字幕に関連付けられている第二テキスト(例えば翻訳文)を前記動画のスクリーンショットが表示されていない位置に横書きで表示し、さらに、前記取得した動画のスクリーンショットを前記第二テキストに重ならない位置に縮小表示させる(ステップS14)。
そして、ユーザからの動画スクリーンショットビューワ終了指示を受け、制御部41によりアプリケーションプログラム44が終了され、一連の画像表示処理が終了する。(ステップS15)。なお、動画スクリーンショットビューワを終了せずに、閲覧を続ける場合は、制御部41は、アプリケーションプログラム44の処理動作に基づき、ステップS12乃至S14までの処理を引き続き実行する。
FIG. 9 is a flowchart showing an example of image display processing when the moving image screen shot viewer is activated.
In FIG. 9, first, upon receiving a moving image screen shot viewer activation instruction from the user, the control unit 41 activates the application program 44, thereby starting an image display process described below (step S11).
Next, the control unit 41 performs a predetermined processing operation in order to obtain a screen shot of a moving image desired by the user from the distribution source server 1, the PC 5, the external storage medium 8, or the like. Next, the control unit 41 correlates the image data, the display position information on which the image data is displayed, the text information associated with the image data, or the text information from the acquired screen shot of the moving image. The second text information is acquired (step S12).
Next, the control unit 41 displays a screen shot of the acquired moving image on the image display unit 21 based on the processing operation of the application program 44 (step S13). Thereby, the user can browse the screen shot of the moving image.
When the user selects, for example, a caption of a moving image screen shot, the control unit 41 refers to the acquired display position information based on the processing operation of the application program 44, and the moving image screen shot is not displayed. While recognizing the position, the second text (for example, translation) associated with the subtitle in advance is displayed horizontally in a position where the screen shot of the video is not displayed, and the screen shot of the acquired video is displayed. Reduced display is performed at a position that does not overlap the second text (step S14).
Then, upon receiving an instruction to end the moving image screen shot viewer from the user, the control unit 41 ends the application program 44, and a series of image display processing ends. (Step S15). In addition, when continuing browsing without ending the moving image screen shot viewer, the control unit 41 continues to execute the processes from step S12 to S14 based on the processing operation of the application program 44.

本発明に係る画像表示装置、画像表示システム、画像表示方法、及びコンピュータプログラムは、漫画等の画像全体を表示したまま、翻訳文等を見やすく表示することができ、電子書籍配信産業、及び映像コンテンツ配信産業等で利用が可能である。   An image display device, an image display system, an image display method, and a computer program according to the present invention can display translated sentences and the like in an easy-to-view manner while displaying an entire image such as a comic. It can be used in the distribution industry.

1 配信元サーバ
3 ネットワーク
4 無線通信(携帯電話端末で利用されている無線通信方式)
5 PC
6 ディスプレイ
7 マウス
8 外部記憶媒体
9 無線通信(無線LANで利用されている無線通信方式)
10 画像表示システム全体
20 画像表示装置
21 画像表示部
21(A) テキスト表示部
21(B) 画像表示部
21(C) 機能選択部
22 ページ
23 特定の対象物である人物画像
24(A) セリフ
24(B) 翻訳文
25 背景画像
26 特定の対象物である乗り物画像
27(A) 効果音
27(B) 翻訳文
28 スクロールバー
29(A)〜29(F) アイコン
30(A) 動画スクリーンショット表示部
30(B) 動画スクリーンショット表示部
31(A) 字幕表示部
31(B) テキスト表示部
31(C) 機能選択部
32 特定の対象物である人物画像
33(A) 字幕
33(B) 翻訳文
34 スクロールバー
35(A)〜35(F) アイコン
41 制御部
42 記憶部
44 アプリケーションプログラム
45 バスライン
47 表示位置情報取得部
48 関連テキスト表示部
49 第二テキスト表示部
50 操作認識部
1 Distribution source server 3 Network 4 Wireless communication (wireless communication method used in mobile phone terminals)
5 PC
6 Display 7 Mouse 8 External storage medium 9 Wireless communication (wireless communication method used in wireless LAN)
DESCRIPTION OF SYMBOLS 10 Image display system 20 Image display apparatus 21 Image display part 21 (A) Text display part 21 (B) Image display part 21 (C) Function selection part 22 Page 23 Person image 24 (A) line which is a specific target object 24 (B) Translated sentence 25 Background image 26 Vehicle image 27 (A) Sound effect 27 (B) Translated sentence 28 Scroll bar 29 (A) to 29 (F) Icon 30 (A) Movie screenshot Display unit 30 (B) Movie screen shot display unit 31 (A) Subtitle display unit 31 (B) Text display unit 31 (C) Function selection unit 32 Human image 33 (A) Subtitle 33 (B) as a specific object Translated sentence 34 Scroll bar 35 (A) to 35 (F) Icon 41 Control unit 42 Storage unit 44 Application program 45 Bus line 47 Display position information acquisition Part 48 related text display part 49 second text display part 50 operation recognition part

Claims (8)

ディスプレイの表示画面に画像を表示させる画像表示手段と、前記画像の前記表示画面内における表示位置情報を取得する表示位置情報取得手段と、前記画像に関連付けられたテキストを表示するテキスト表示手段とを有し、
前記画像が表示されていない位置に、前記テキストに対応する第二テキストを表示することを特徴とする表示装置。
Image display means for displaying an image on a display screen of a display, display position information acquisition means for acquiring display position information of the image in the display screen, and text display means for displaying text associated with the image Have
A display device, wherein a second text corresponding to the text is displayed at a position where the image is not displayed.
前記テキストは、前記画像に近接して表示されていることを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein the text is displayed in proximity to the image. 前記第二テキストは、前記テキストの翻訳文であることを特徴とする請求項2記載の表示装置。   The display device according to claim 2, wherein the second text is a translation of the text. 前記画像表示手段は、前記画像の所定位置を選択した場合に、前記画像を下方に縮小表示させ、前記第二テキストを上方に横書きで表示することを特徴とする請求項1記載の表示装置。   The display device according to claim 1, wherein when the predetermined position of the image is selected, the image display unit displays the image in a reduced size and displays the second text in a horizontal writing upward. 前記画像は、漫画、又はイラストであることを特徴とする請求項1〜4のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the image is a cartoon or an illustration. 前記画像は、動画のスクリーンショットであることを特徴とする請求項1〜4のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the image is a screen shot of a moving image. ディスプレイの表示画面に画像を表示させるステップと、前記画像の前記表示画面内における表示位置情報を取得するステップと、前記画像に関連付けられたテキストを表示するステップと、前記画像が表示されていない位置に、前記テキストに対応する第二テキストを表示するステップとを有する表示方法。   A step of displaying an image on a display screen of a display; a step of acquiring display position information of the image in the display screen; a step of displaying text associated with the image; and a position where the image is not displayed. And displaying a second text corresponding to the text. ディスプレイの表示画面に画像を表示させるステップと、前記画像の前記表示画面内における表示位置情報を取得するステップと、前記画像に関連付けられたテキストを表示するステップと、前記画像が表示されていない位置に、前記テキストに対応する第二テキストを表示するステップとをコンピュータに実行させるためのプログラム。   A step of displaying an image on a display screen of a display; a step of acquiring display position information of the image in the display screen; a step of displaying text associated with the image; and a position where the image is not displayed. And causing the computer to execute a step of displaying a second text corresponding to the text.
JP2016075596A 2016-04-05 2016-04-05 Speech display system Pending JP2017187586A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075596A JP2017187586A (en) 2016-04-05 2016-04-05 Speech display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075596A JP2017187586A (en) 2016-04-05 2016-04-05 Speech display system

Publications (1)

Publication Number Publication Date
JP2017187586A true JP2017187586A (en) 2017-10-12

Family

ID=60044844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075596A Pending JP2017187586A (en) 2016-04-05 2016-04-05 Speech display system

Country Status (1)

Country Link
JP (1) JP2017187586A (en)

Similar Documents

Publication Publication Date Title
US10725734B2 (en) Voice input apparatus
EP3447626A2 (en) Display apparatus and control method thereof
JP2015087911A (en) Electronic device, method, and program
JP5872264B2 (en) Method and apparatus for providing electronic book service in portable terminal
JP2014197341A (en) Electronic book production device, electronic book system, electronic book production method and program
CN110909274B (en) Page browsing method and device and electronic equipment
CN104123383A (en) Method and device used in media application
JP2013222458A (en) Electronic device and method for inputting and managing user data
EP2965181B1 (en) Enhanced canvas environments
US20160004389A1 (en) Display controller, display control method, control program, and recording medium
US20170329756A1 (en) Electronic document editing apparatus capable of inserting memo into paragraph, and operating method thereof
JP2013097535A (en) Electronic apparatus and display control method
JP2010134801A (en) Content creating apparatus and content browsing apparatus
JP5564641B2 (en) Electronic book display control device, electronic book display control program, electronic book display control method, electronic book
JP2017187586A (en) Speech display system
JP6198969B2 (en) Detection of user input that changes the attributes of rendered content
JP5752759B2 (en) Electronic device, method, and program
JP5861686B2 (en) Information processing terminal, control method thereof, and program
JP5999153B2 (en) Information processing apparatus and program
TWI828490B (en) Online text translation system for page-turning comics
KR20130105509A (en) Method and apparatus e-book providing
CN110730944B (en) Amplified input panel
US11379099B2 (en) Method and device for selecting text in electronic terminal
JP2012079141A (en) Mobile display device, operation control method therefor, and operation program therefor
JP6315039B2 (en) Information processing apparatus and program