JP2013041610A - Portable information apparatus, electronic book and program - Google Patents

Portable information apparatus, electronic book and program Download PDF

Info

Publication number
JP2013041610A
JP2013041610A JP2012233238A JP2012233238A JP2013041610A JP 2013041610 A JP2013041610 A JP 2013041610A JP 2012233238 A JP2012233238 A JP 2012233238A JP 2012233238 A JP2012233238 A JP 2012233238A JP 2013041610 A JP2013041610 A JP 2013041610A
Authority
JP
Japan
Prior art keywords
map image
finger
displayed
map
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012233238A
Other languages
Japanese (ja)
Other versions
JP2013041610A5 (en
Inventor
Yoichi Wakai
洋一 若井
Satoshi Nehashi
聡 根橋
Yasuhiro Nomura
靖浩 野村
Yoshio Chiyo
芳郁 千代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012233238A priority Critical patent/JP2013041610A/en
Publication of JP2013041610A publication Critical patent/JP2013041610A/en
Publication of JP2013041610A5 publication Critical patent/JP2013041610A5/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic book, a portable information apparatus and an information storage medium used for them capable of realizing functions such as rotation, expansion, shrinkage, and scroll of a map image via a user-friendly human interface.SOLUTION: An electronic book comprises a display part capable of displaying a map image. According to an operation history of a finger brought into contact with the display part, an execution instruction and an operation amount for at least one operation among rotation, expansion, shrinkage, and scroll of the map image can be inputted at the same time. By motion to separate the two fingers from each other, an expansion instruction and an expansion amount of the map image can be inputted. By motion to bring two fingers close to each other, a shrinkage instruction and a shrinkage amount of the map image can be inputted. By motion to turn one finger using another finger as an axis, a rotation instruction and a rotation amount of the map image can be inputted.

Description

本発明は、携帯情報機器、電子ブック及びこれらに使用される情報記憶媒体に関する。   The present invention relates to a portable information device, an electronic book, and an information storage medium used for them.

近年、文字、画像、音声などの情報を、CD−ROMやFDなどの電子メディアに記録し、書籍のように利用する出版形態である電子ブック、携帯情報機器、が実用化されている。   In recent years, electronic books and portable information devices, which are publishing forms in which information such as characters, images, and voices are recorded on electronic media such as CD-ROMs and FDs and used like books, have been put into practical use.

係る電子ブックや携帯情報機器は紙の本ではいきづまる物理的な限界を解消することができる。また非直線的読書スタイルも可能であり、読者はそれぞれの自由な視点から多角的に読書を楽しむことができる。   Such electronic books and portable information devices can overcome the physical limitations of paper books. Non-linear reading styles are also possible, and readers can enjoy reading from various perspectives.

さらに出版に金や手間がかからないため、だれもが手軽に出版することができたり、購読者が限定されるような専門的なものが出版できたりというような出版の理想像を実現することも可能となる。   Furthermore, since it takes less money and hassle to publish, it is possible to realize the ideal image of publishing where everyone can publish easily or publish specialized things with limited subscribers. It becomes possible.

ところで、係る電子ブックや携帯情報機器に地図情報を格納しておくと、出かける際や旅行時に携帯して、地図画像の参照ができて便利である。特に電子ブックや携帯情報機器においては、通常の地図と異なり、必要な部分のみ自由に拡大したり、縮小したり、また必要な部分をスクロールしたり等の充実した機能を実現することが可能となる。電子ブックや携帯情報機器は、情報を検索、活用する上で通常の紙の本に比べて格段に充実した機能を実現することができるからである。   By the way, storing map information in such an electronic book or portable information device is convenient because it can be carried with you when you go out or travel, and you can refer to the map image. Especially in e-books and portable information devices, unlike normal maps, it is possible to realize a wide range of functions such as free enlargement, reduction, and scrolling of necessary parts. Become. This is because electronic books and portable information devices can realize functions that are much more enriched than ordinary paper books in searching and using information.

しかし、いくら充実した機能を実現できても、操作が煩雑であったり困難であったり等使い勝手が悪い場合には、宝の持ち腐れとなってしまう。特に電子ブックや携帯情報機器は小型で携帯に便利に形成されているので、入力方法、操作方法もこれに適したものが望まれている。   However, no matter how many functions can be realized, if the operation is complicated or difficult, such as troublesome operation, the treasure is lost. In particular, since an electronic book and a portable information device are small and conveniently formed for carrying, an input method and an operation method suitable for this are desired.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、地図画像を表示可能な携帯情報機器や電子ブックにおいて、地図画像の回転、拡大、縮小、スクロール等の機能を使い勝手のよいヒューマンインターフェースで実現できる電子ブックや携帯情報機器及びこれらに使用する情報記憶媒体を提供することである。   The present invention has been made in view of the problems as described above. The object of the present invention is to rotate, enlarge, reduce, scroll, etc. a map image in a portable information device or an electronic book capable of displaying the map image. It is to provide an electronic book, a portable information device and an information storage medium used therefor that can realize the above functions with a user-friendly human interface.

本発明は、地図画像を表示可能な表示部を含む携帯情報機器であって、地図画像が表示された表示部に接触させた指の移動履歴を検出する指動作検出手段と、前記指の移動履歴にもとづき、地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作が入力されたと判断する操作内容判断手段と、前記判断に基づき、表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成する地図画像生成手段とを含むことを特徴とする。   The present invention is a portable information device including a display unit capable of displaying a map image, the finger motion detection means for detecting a movement history of a finger brought into contact with the display unit on which the map image is displayed, and the movement of the finger Based on the history, operation content determination means for determining that at least one operation of rotation, enlargement, reduction and scrolling of the map image has been input, and rotation, enlargement, reduction of the map image displayed on the display unit based on the determination. And map image generation means for generating a map image subjected to at least one scroll operation.

本発明によれば、ユーザーは指の移動履歴により、表示部に表示された地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作を入力することができる。   According to the present invention, the user can input at least one operation of rotation, enlargement, reduction, and scrolling of the map image displayed on the display unit based on a finger movement history.

表示部に接触させた指の移動履歴とは、経時的要素を含む概念であり、単に指で入力マ
ーク等をタッチする場合のように経時的要素を含まない操作とは区別される。
The movement history of the finger in contact with the display unit is a concept including a temporal element, and is distinguished from an operation that does not include a temporal element as in the case of simply touching an input mark or the like with a finger.

本発明によれば指の移動履歴により各種操作を入力できるため、筐体にボタンやキーボード等のハードを設ける必要がなく、よりコンパクトな携帯情報機器を提供することができる。また画面上に操作用の入力マーク表示等も不要になるため、携帯に適した小さな画面の有効活用を促進し、より見やすい画面表示が可能となる。   According to the present invention, various operations can be input based on the movement history of the finger, so that it is not necessary to provide hardware such as buttons and a keyboard on the housing, and a more compact portable information device can be provided. In addition, since an operation input mark display or the like is not required on the screen, effective use of a small screen suitable for carrying is promoted, and a screen display that is easier to view is possible.

また、ボタン等では1回の操作で実行指示及び実行内容を同時に入力することは困難であるため、実行内容を指定する操作や実行指示を行う操作等の複数の操作が必要となり、煩雑である。しかし、本発明は指の動作により入力するため、指の指示範囲や移動範囲等を検出することにより、操作量や操作範囲を同時に指定することが可能となり、使い勝手のよいヒューマンインターフェースを提供することができる。   In addition, since it is difficult to input an execution instruction and execution contents at the same time with a single operation using a button or the like, a plurality of operations such as an operation for specifying execution contents and an operation for executing execution instructions are required, which is complicated. . However, since the present invention is input by the movement of the finger, it is possible to simultaneously specify the operation amount and the operation range by detecting the finger instruction range, the movement range, etc., and provide an easy-to-use human interface. Can do.

また本発明は、前記操作内容判断手段が、前記指の移動履歴に基づき、地図画像の回転量、拡大量、縮小量及びスクロール量の少なくとも1つの操作量を決定し、前記地図画像生成手段が、決定された操作量に基づき表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成することを特徴とする。   According to the present invention, the operation content determination means determines at least one operation amount of a rotation amount, an enlargement amount, a reduction amount, and a scroll amount of the map image based on the movement history of the finger, and the map image generation means A map image obtained by performing at least one of rotation, enlargement, reduction, and scrolling on the map image displayed on the display unit based on the determined operation amount is generated.

本発明によれば、ユーザーは指の移動履歴により、表示部に表示された地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作の実行指示のみならず操作量をも同時に入力することができる。   According to the present invention, the user can simultaneously input an operation amount as well as an instruction to execute at least one of rotation, enlargement, reduction, and scrolling of the map image displayed on the display unit according to a finger movement history. it can.

操作の実行指示とは、回転や拡大や縮小やスクロール等のいずれかの操作の実行の指示することを意味する。また操作量とは、例えば回転操作であればその回転量、拡大操作であればその拡大量、縮小操作であればその縮小量、スクロール操作であればそのスクロール量等や、拡大や縮小や回転やスクロールして表示させたい範囲の指定等を意味する。   The operation execution instruction means an instruction to execute any operation such as rotation, enlargement, reduction, scrolling, and the like. The operation amount is, for example, the rotation amount for a rotation operation, the enlargement amount for an enlargement operation, the reduction amount for a reduction operation, the scroll amount for a scroll operation, and the enlargement / reduction or rotation. This means specifying the range to be displayed by scrolling.

本発明によれば指の移動履歴により各種操作の操作量を入力できるため、ユーザーは、自己のニーズに応じて指動作を調節することにより、所望の操作量を入力することができるようになる。   According to the present invention, the operation amount of various operations can be input based on the movement history of the finger. Therefore, the user can input a desired operation amount by adjusting the finger operation according to his / her needs. .

また、ボタンやタグでは、1回の操作で任意の操作量を指示して実行指示を行うことは困難であるため、操作量の指定や実行指示等の複数の操作が必要となり煩雑である。しかし、本発明は指の動作により入力するため、指の指示範囲や移動範囲等を検出することにより、操作量や操作範囲を同時に指定することが可能となり、簡単で使い勝手のよいヒューマンインターフェースを提供することができる。   In addition, since it is difficult for a button or tag to give an execution instruction by specifying an arbitrary operation amount in one operation, a plurality of operations such as an operation amount specification and an execution instruction are required, which is complicated. However, since the present invention is input by the movement of the finger, it is possible to simultaneously specify the operation amount and the operation range by detecting the finger instruction range, the movement range, etc., and provide a simple and easy-to-use human interface can do.

また本発明は、前記指動作検出手段が、地図画像が表示された表示部に接触させた2本の指を遠ざける動作を検出した場合には、前記操作内容判断手段が、地図画像の拡大操作が入力されたと判断し、前記地図画像生成手段が、拡大された地図画像を生成することを特徴とする。   Further, in the present invention, when the finger motion detection unit detects an operation of moving two fingers that are in contact with the display unit on which the map image is displayed, the operation content determination unit performs the map image enlargement operation. And the map image generating means generates an enlarged map image.

地図画像が表示された表示部に接触させた2本の指を遠ざける動作は、地図画像の拡大をイメージさせる動作であり、ユーザーは係る動作を拡大操作として違和感無く受け入れることができる。しかも、指の動作位置や動作量により、1回の動作で例えば拡大範囲や拡大量等の拡大内容を指定した実行指示も可能となる。   The operation of moving the two fingers in contact with the display unit on which the map image is displayed is an operation that gives an image of the enlargement of the map image, and the user can accept the operation as an enlargement operation without a sense of incongruity. In addition, it is possible to give an execution instruction that designates enlargement contents such as an enlargement range and an enlargement amount, etc., by a single action, depending on the action position and the action amount of the finger.

従って本発明によれば、ユーザーに使い勝手のよい拡大操作が可能な携帯情報機器の提供が可能となる。   Therefore, according to the present invention, it is possible to provide a portable information device capable of a user-friendly enlargement operation.

なお、地図画像の拡大は、1回の動作により常に一定の割合で拡大される場合でも良いし、指の移動距離に応じた割合で拡大される場合でもよい。指の移動距離に応じた割合で拡大すると、ユーザーは拡大量を指定した実行指示1回の動作で行うことができ、使い勝手のよいインターフェースを提供することができる。   Note that the map image may be enlarged at a constant rate by one operation, or may be enlarged at a rate corresponding to the movement distance of the finger. When enlarging at a rate corresponding to the movement distance of the finger, the user can perform the operation with a single execution instruction specifying the enlargement amount, and an easy-to-use interface can be provided.

また拡大された結果、表示部に表示される地図画像の範囲は、拡大前に指が接触していた位置の地図画像を含む範囲にすることが好ましい。このようにするとユーザーは拡大範囲を指定した実行指示を1回の動作で行うことができ使い勝手のよいインターフェースを提供することができる。   Moreover, it is preferable that the range of the map image displayed on the display unit as a result of the enlargement is a range including the map image at the position where the finger is in contact before the enlargement. In this way, the user can execute an execution instruction designating the expansion range in one operation, and can provide an easy-to-use interface.

また地図画像を拡大する態様は、単に縮尺を小さくする場合のみならず、たとえば、拡大前は主に地形や都市の位置等の情報を主体とした地図画像であったのを、都市の部分が拡大されて建物や道路等の情報を主体とした都市の詳細地図等になる場合も含まれる。   The mode of enlarging the map image is not limited to simply reducing the scale. For example, before the enlargement, the map portion is mainly a map image mainly of information such as topography and city position. This includes the case where the map is expanded to become a detailed map of a city based mainly on information such as buildings and roads.

また本発明は、前記指動作検出手段が、地図画像が表示された表示部に接触させた2本の指を近づける動作を検出した場合には、前記操作内容判断手段が、地図画像の縮小操作が入力されたと判断し、前記地図画像生成手段が、縮小された地図画像を生成することを特徴とする。   Further, in the present invention, when the finger motion detection unit detects an operation of bringing two fingers brought into contact with the display unit on which the map image is displayed, the operation content determination unit performs the map image reduction operation. And the map image generating means generates a reduced map image.

地図画像が表示された表示部に接触させた2本の指を近づける動作は、地図画像の縮小をイメージさせる動作であり、ユーザーは係る動作を縮小操作として違和感無く受け入れることができる。しかも、指の動作位置や動作量により、1回の動作で例えば縮小範囲や縮小量等の縮小内容を指定した実行指示も可能となる。   The operation of bringing two fingers brought into contact with the display unit on which the map image is displayed is an operation that makes a reduction in the map image appear, and the user can accept the operation as a reduction operation without a sense of incongruity. In addition, it is possible to give an execution instruction specifying a reduction content such as a reduction range or a reduction amount by a single operation according to the movement position and movement amount of the finger.

従って本発明によれば、ユーザーに使い勝手のよい縮小操作が可能な携帯情報機器の提供が可能となる。   Therefore, according to the present invention, it is possible to provide a portable information device capable of a user-friendly reduction operation.

なお、地図画像の縮小は、1回の動作により常に一定の割合で縮小される場合でも良いし、指の移動距離に応じた割合で縮小される場合でもよい。指の移動距離に応じた割合で縮小するとユーザーは縮小量を指定した実行指示1回の動作で行うことができ使い勝手のよいインターフェースを提供することができる。   The map image may be reduced at a constant rate by one operation, or may be reduced at a rate corresponding to the movement distance of the finger. When reduction is performed at a rate corresponding to the movement distance of the finger, the user can perform a single operation with an execution instruction specifying the reduction amount, and an easy-to-use interface can be provided.

また縮小された結果、表示部に表示される地図画像の範囲は、拡大前に指が接触していた位置の地図画像を含む範囲にすることが好ましい。このようにするとユーザーは縮小範囲を指定した実行指示を1回の動作で行うことができ使い勝手のよいインターフェースを提供することができる。   Moreover, it is preferable that the range of the map image displayed on the display unit as a result of the reduction is a range including the map image at the position where the finger is in contact before the enlargement. In this way, the user can execute an execution instruction designating a reduction range in one operation, and an easy-to-use interface can be provided.

また地図画像を縮小する態様は、単に縮尺を大きくする場合のみならず、たとえば、拡大前は主に建物や道路等の情報を主体としたタウンマップ風の地図画像であったのを、縮小することにより地形や都市の位置等の情報を主体とした地図画像等になる場合も含まれる。   Also, the mode of reducing the map image is not only when the scale is simply increased, but, for example, before the enlargement, it is reduced from a town map-like map image mainly composed of information such as buildings and roads. This includes cases where the map image is mainly based on information such as topography and city position.

また本発明は、前記指動作検出手段が、地図画像が表示された表示部に接触させた1本の指を軸に表示部に接触させた他の1本の指を回転させる動作を検出した場合には、前記操作内容判断手段が、地図画像の回転操作が入力されたと判断し、前記地図画像生成手段が、回転された地図画像を生成することを特徴とする。   According to the present invention, the finger motion detection means detects an operation of rotating another finger that is in contact with the display unit with one finger that is in contact with the display unit on which the map image is displayed as an axis. In this case, the operation content determination unit determines that a map image rotation operation has been input, and the map image generation unit generates a rotated map image.

地図画像が表示された表示部に接触させた1本の指を軸に表示部に接触させた他の1本の指を回転させる動作はコンパス使用時の動作に類似している。このため地図画像の回転をイメージさせ、ユーザーは係る動作を回転操作として違和感無く受け入れることができ
る。しかも、指の動作位置や動作量により、1回の動作で例えば回転範囲や回転量等の回転内容を指定した実行指示も可能となる。
The operation of rotating the other finger that is in contact with the display unit around the one finger that is in contact with the display unit on which the map image is displayed is similar to the operation when the compass is used. For this reason, it is possible to imagine the rotation of the map image, and the user can accept the operation as a rotation operation without a sense of incongruity. In addition, it is possible to give an execution instruction specifying the rotation contents such as the rotation range and the rotation amount in one operation by the operation position and operation amount of the finger.

従って本発明によれば、ユーザーに使い勝手のよい回転操作が可能な携帯情報機器の提供が可能となる。   Therefore, according to the present invention, it is possible to provide a portable information device capable of a user-friendly rotation operation.

また、現在ユーザーが向いている方位と画面上方位を一致させたい場合に、実際の地図の場合、地図自体を回転させることになる。しかし本発明の携帯情報機器の場合、表示された地図画像を回転させることにより同様の効果をえることができる。このため、ユーザーは簡単な操作で所望の方向に回転された地図画像をみることができ、実際の地図より使い勝手のよい提供携帯情報機器の提供が可能となる。   Further, when it is desired to match the orientation that the user is currently facing with the orientation on the screen, the map itself is rotated in the case of an actual map. However, in the case of the portable information device of the present invention, the same effect can be obtained by rotating the displayed map image. For this reason, the user can see the map image rotated in a desired direction with a simple operation, and can provide the provided portable information device that is easier to use than the actual map.

なお、地図画像の回転は、1回の動作により常に一定の割合で回転される場合でも良いし、指の移動距離に応じた割合で回転される場合でもよい。指の移動距離に応じた割合で回転するとユーザーは回転量を指定した実行指示を1回の動作で行うことができ使い勝手のよいインターフェースを提供することができる。   Note that the map image may be rotated at a constant rate by one operation, or may be rotated at a rate corresponding to the movement distance of the finger. When the user rotates at a rate corresponding to the movement distance of the finger, the user can execute an execution instruction specifying the rotation amount in one operation, and an easy-to-use interface can be provided.

また回転された結果、表示部に表示される地図画像の範囲は、回転前に指が接触していた位置の地図画像を含む範囲にすることが好ましい。このようにするとユーザーは回転範囲を指定した実行指示を1回の動作で行うことができ使い勝手のよいインターフェースを提供することができる。   Moreover, it is preferable that the range of the map image displayed on the display unit as a result of the rotation is a range including the map image at the position where the finger is in contact before the rotation. In this way, the user can perform an execution instruction specifying the rotation range in one operation, and can provide an easy-to-use interface.

また本発明は、前記記載の携帯情報機器であって、電子ブックとして使用されることを特徴とする。   The present invention is the portable information device described above, which is used as an electronic book.

即ち、地図画像を表示可能な表示部を含む電子ブックであって、地図画像が表示された表示部に接触させた指の移動履歴を検出する指動作検出手段と、前記指の移動履歴にもとづき、地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作が入力されたと判断する操作内容判断手段と、前記操作内容判断手段が判断に基づき、表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成する地図画像生成手段とを含むことを特徴とする。   That is, an electronic book including a display unit capable of displaying a map image, based on finger movement detection means for detecting a movement history of a finger brought into contact with the display unit on which the map image is displayed, and the movement history of the finger , An operation content determination unit that determines that at least one operation of rotation, enlargement, reduction, and scrolling of the map image has been input, and the operation content determination unit rotates and enlarges the map image displayed on the display unit based on the determination. And map image generation means for generating a map image subjected to at least one of reduction and scroll operations.

また前記電子ブックにおいて、前記操作内容判断手段が、前記指の移動履歴に基づき、地図画像の回転量、拡大量、縮小量及びスクロール量の少なくとも1つの操作量を決定し、前記地図画像生成手段が、決定された操作量に基づき表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成することを特徴とする。   In the electronic book, the operation content determination unit determines at least one operation amount of a rotation amount, an enlargement amount, a reduction amount, and a scroll amount of the map image based on the movement history of the finger, and the map image generation unit Is characterized by generating a map image obtained by performing at least one of rotation, enlargement, reduction, and scrolling on the map image displayed on the display unit based on the determined operation amount.

また前記電子ブックにおいて、前記指動作検出手段が、地図画像が表示された表示部に接触させた2本の指を遠ざける動作を検出した場合には、前記操作内容判断手段が、地図画像の拡大操作が入力されたと判断し、前記地図画像生成手段が、拡大された地図画像を生成することを特徴とする。   In the electronic book, when the finger motion detection unit detects a motion of moving two fingers away from the display unit on which the map image is displayed, the operation content determination unit is configured to enlarge the map image. It is determined that an operation has been input, and the map image generation unit generates an enlarged map image.

また前記電子ブックにおいて、前記指動作検出手段が、地図画像が表示された表示部に接触させた2本の指を近づける動作を検出した場合には、前記操作内容判断手段が、地図画像の縮小操作が入力されたと判断し、前記地図画像生成手段が、縮小された地図画像を生成することを特徴とする。   In the electronic book, when the finger movement detection unit detects an operation of bringing two fingers in contact with the display unit on which the map image is displayed, the operation content determination unit reduces the map image. It is determined that an operation has been input, and the map image generation means generates a reduced map image.

また前記電子ブックにおいて、前記指動作検出手段が、地図画像が表示された表示部に接触させた1本の指を軸に表示部に接触させた他の1本の指を回転させる動作を検出した
場合には、前記操作内容判断手段が、地図画像の回転操作が入力されたと判断し、前記地図画像生成手段が、回転された地図画像を生成することを特徴とする。
Further, in the electronic book, the finger motion detection unit detects an operation of rotating another finger that is in contact with the display unit with one finger that is in contact with the display unit on which the map image is displayed as an axis. In this case, the operation content determination means determines that a map image rotation operation has been input, and the map image generation means generates a rotated map image.

また本発明は、地図画像を表示可能な携帯情報機器及び電子ブックの少なくとも一方に使用する情報記憶媒体であって、地図画像が表示された表示部に接触させた指の移動履歴を検出するための情報と、前記指の移動履歴にもとづき、地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作が入力されたと判断するための情報と、前記判断に基づき、表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成するための情報を含むことを特徴とする。   Further, the present invention is an information storage medium used for at least one of a portable information device and an electronic book capable of displaying a map image, for detecting a movement history of a finger touching a display unit on which the map image is displayed. , Information for determining that at least one operation of rotation, enlargement, reduction and scrolling of the map image has been input based on the movement history of the finger, and a map displayed on the display unit based on the determination Information for generating a map image in which at least one of rotation, enlargement, reduction, and scrolling is performed on the image is included.

また前記情報記憶媒体において、前記指の移動履歴に基づき、地図画像の回転量、拡大量、縮小量及びスクロール量の少なくとも1つの操作量を決定し、決定された操作量に基づき表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成するための情報を含むように構成することが好ましい。   Further, in the information storage medium, at least one operation amount of a rotation amount, an enlargement amount, a reduction amount, and a scroll amount of the map image is determined based on the movement history of the finger, and displayed on the display unit based on the determined operation amount. It is preferable to include information for generating a map image that has been subjected to at least one of rotation, enlargement, reduction, and scrolling.

また前記情報記憶媒体において、地図画像が表示された表示部に接触させた2本の指を遠ざける動作を検出した場合には、地図画像の拡大操作が入力されたと判断し、拡大された地図画像を生成するための情報を含むように構成することが好ましい。   Further, in the information storage medium, when an operation of moving two fingers away from the display unit on which the map image is displayed is detected, it is determined that a map image enlargement operation has been input, and the enlarged map image is displayed. It is preferable to comprise so that the information for producing | generating may be included.

また前記情報記憶媒体において、地図画像が表示された表示部に接触させた2本の指を近づける動作を検出した場合には、地図画像の縮小操作が入力されたと判断し、縮小された地図画像を生成するための情報を含むように構成することが好ましい。   Further, in the information storage medium, when an operation of bringing two fingers brought into contact with the display unit on which the map image is displayed is detected, it is determined that a map image reduction operation has been input, and the reduced map image is displayed. It is preferable to comprise so that the information for producing | generating may be included.

また前記情報記憶媒体において、地図画像が表示された表示部に接触させた1本の指を軸に表示部に接触させた他の1本の指を回転させる動作を検出した場合には、地図画像の回転操作が入力されたと判断し、回転された地図画像を生成するための情報を含むように構成することが好ましい。   In addition, in the information storage medium, when an operation of rotating one finger that is in contact with the display unit around the one finger that is in contact with the display unit on which the map image is displayed is detected, It is preferable that the image rotation operation is determined to be input, and the information for generating the rotated map image is included.

本発明の特徴的機能を有する形態情報機器や電子ブックの機能ブロック図である。It is a functional block diagram of a form information device and an electronic book having the characteristic functions of the present invention. 図2(A)(B)(C)は本実施の形態の電子ブックの外観図を示している。2A, 2B, and 2C are external views of the electronic book of this embodiment. 旅行情報ソフトをセットした場合に表示される画面例を表した図である。It is a figure showing the example of a screen displayed when travel information software is set. 地図画像の表示例を表した図である。It is a figure showing the example of a display of a map image. 本実施の形態における地図の拡大ジェスチャーの操作例を説明するための図である。It is a figure for demonstrating the operation example of the expansion gesture of the map in this Embodiment. 図6(A)(B)は、本実施の形態における指動作例を説明するための図である。6A and 6B are diagrams for explaining an example of finger operation in the present embodiment. 本実施の形態における地図の拡大ジェスチャーの他の操作例を説明するための図である。It is a figure for demonstrating the other example of operation of the map expansion gesture in this Embodiment. 本実施の形態における地図のスクロールジェスチャーの操作例を説明するための図である。It is a figure for demonstrating the operation example of the scroll gesture of a map in this Embodiment. 本実施の形態における地図の縮小ジェスチャーの操作例を説明するための図である。It is a figure for demonstrating the operation example of the reduction gesture of the map in this Embodiment. 本実施の形態における地図の回転ジェスチャーの操作例を説明するための図である。It is a figure for demonstrating the operation example of the rotation gesture of the map in this Embodiment. 本実施の形態における地図の回転角について説明するための図である。It is a figure for demonstrating the rotation angle of the map in this Embodiment. 本実施の形態の検索処理の一例について説明するための図である。It is a figure for demonstrating an example of the search process of this Embodiment. 本実施の形態の論理積検索処理の一例について説明するための図である。It is a figure for demonstrating an example of the logical product search process of this Embodiment. 本実施の形態におけるページめくり操作について説明するための図である。It is a figure for demonstrating the page turning operation in this Embodiment. 本実施の形態における連続ページめくり操作について説明するための図である。It is a figure for demonstrating the continuous page turning operation in this Embodiment. 本実施の形態におけるしおり挿入操作について説明するための図である。It is a figure for demonstrating bookmark insertion operation in this Embodiment. 本実施の形態におけるしおり挿入操作について説明するための図である。It is a figure for demonstrating bookmark insertion operation in this Embodiment. 本実施の形態におけるしおり挿入箇所参照操作について説明するための図である。It is a figure for demonstrating bookmark insertion location reference operation in this Embodiment. ツールバーが表示された画面例を説明するための図である。It is a figure for demonstrating the example of a screen as which the tool bar was displayed. 本実施の形態におけるフローティング処理の操作例を説明するための図である。It is a figure for demonstrating the operation example of the floating process in this Embodiment. 本実施の形態におけるフローティング処理の操作例を説明するための図である。It is a figure for demonstrating the operation example of the floating process in this Embodiment. 本実施の形態におけるドラッグ・アンド・ドロップの操作例を説明するための図である。It is a figure for demonstrating the operation example of drag and drop in this Embodiment. 本実施の形態のカメラ撮影用操作画面を表した図である。It is a figure showing the operation screen for camera imaging | photography of this Embodiment. 本実施の形態における静止画の撮影処理を説明するための図である。It is a figure for demonstrating the imaging | photography process of the still image in this Embodiment. 本実施の形態における動画の撮影処理を説明するための図である。It is a figure for demonstrating the imaging | photography process of the moving image in this Embodiment. 本実施の形態におけるメモ入力処理を説明するための図である。It is a figure for demonstrating the memo input process in this Embodiment. 本実施の形態におけるメモ入力のドラッグ・アンド・ドロップ操作を説明するための図である。It is a figure for demonstrating the drag and drop operation of the memo input in this Embodiment. 本実施の形態における今日のフォルダ参照画面を表した図である。It is a figure showing today's folder reference screen in this Embodiment. 本実施の形態における今日のフォルダ参照処理を説明するための図である。It is a figure for demonstrating today's folder reference process in this Embodiment. 本実施の形態における今日のフォルダの活用の一例を説明するための図である。It is a figure for demonstrating an example of utilization of today's folder in this Embodiment. 本実施形態の電子ブックのハードウエア構成について説明するための図である。It is a figure for demonstrating the hardware constitutions of the electronic book of this embodiment. 本実施の形態の電子ブックの機能ブロック図の一例である。It is an example of a functional block diagram of the electronic book of this embodiment. 本実施の動作例を表したフローチャート図である。It is a flowchart figure showing the operation example of this Embodiment. 本実施の動作例を表したフローチャート図である。It is a flowchart figure showing the operation example of this Embodiment. 本実施の動作例を表したフローチャート図である。It is a flowchart figure showing the operation example of this Embodiment. 本実施の動作例(入力マーク操作処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (input mark operation process) of this Embodiment. 本実施の動作例(地図操作処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (map operation process) of this Embodiment. 本実施の動作例(検索処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (search process) of this Embodiment. 本実施の動作例(ページめくり処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (page turning process) of this embodiment. 本実施の動作例(連続ページめくり処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (continuous page turning process) of this Embodiment. 本実施の動作例(各種アイコン処理)を表したフローチャート図である。It is a flowchart figure showing the operation example (various icon processing) of this Embodiment. 本実施の形態におけるフローティング処理の他の操作例を説明するための図である。It is a figure for demonstrating the other operation example of the floating process in this Embodiment.

1.本発明の特徴
本発明の特徴は、地図画像を表示可能な形態情報機器や電子ブックにおいて、表示された地図画像上で指動作を行うことにより、地図画像の回転、拡大、縮小、スクロール等を行える点にある。
1. Features of the present invention A feature of the present invention is that a map image can be rotated, enlarged, reduced, scrolled, etc. by performing a finger operation on the displayed map image in a form information device or electronic book capable of displaying a map image. There is in point to be able to do.

図1は、本発明の特徴的機能を有する形態情報機器や電子ブックの機能ブロック図であ
る。
FIG. 1 is a functional block diagram of a morphological information device and an electronic book having the characteristic functions of the present invention.

指動作検出部10は、ユーザーが地図画像の拡大、縮小、回転、スクロール等の操作を入力するために、地図画像が表示された表示部上で行った指の移動履歴を検出するためのものである。指動作検出部10は、表示部60に透明なタッチパネル等を重ねて構成されている。指動作検出部10で得られた検出データは処理部20へ入力される。   The finger movement detection unit 10 is for detecting a movement history of a finger performed on a display unit on which a map image is displayed in order for a user to input operations such as enlargement, reduction, rotation, and scrolling of the map image. It is. The finger motion detection unit 10 is configured by overlaying a transparent touch panel or the like on the display unit 60. Detection data obtained by the finger motion detection unit 10 is input to the processing unit 20.

処理部20は、前記検出データ、所与のプログラム等基づいて地図画像を生成する処理を行うものである。この処理部20の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレーなど)IC、メモリなどのハードウエアにより実現できる。   The processing unit 20 performs processing for generating a map image based on the detection data, a given program, and the like. The function of the processing unit 20 can be realized by hardware such as a CPU (CISC type, RISC type), a DSP, a custom (gate array, etc.) IC, and a memory.

情報記憶媒体70は、プログラムやデータを記憶するためのものである。この情報記憶媒体70の機能は、CD−ROM、カセット、ICカード、MO、FD、DVD、ハードディスク、メモリ等のハードウエアにより実現できる。処理部20は、この情報記憶媒体70からのプログラム、データに基づいて種々の処理を行うことになる。   The information storage medium 70 is for storing programs and data. The function of the information storage medium 70 can be realized by hardware such as a CD-ROM, cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 20 performs various processes based on the program and data from the information storage medium 70.

処理部20は、操作内容判断部30、地図操作処理部40、画像生成部50を含んで構成される。   The processing unit 20 includes an operation content determination unit 30, a map operation processing unit 40, and an image generation unit 50.

操作内容判断部30は、指動作検出部10が検出した指の移動履歴に基づきユーザーが入力した操作内容を判断する。具体的には、指動作検出部10が検出した指の動作履歴が2本の指を遠ざける動作である場合には、地図画像の拡大操作が入力されたと判断する。また例えば、指動作検出部10が検出した指の動作履歴が2本の指が近づける動作である場合には、地図画像の縮小操作が入力されたと判断する。また例えば、指動作検出部10が検出した指の動作履歴が、1本の指を軸に他の1本の指を回転させる動作である場合には、地図画像の回転操作が入力されたと判断する。また例えば、指動作検出部10が検出した指の動作履歴が1本の指を移動させる動作である場合には、地図のスクロール操作が入力されたと判断する。   The operation content determination unit 30 determines the operation content input by the user based on the finger movement history detected by the finger motion detection unit 10. Specifically, when the finger motion history detected by the finger motion detection unit 10 is a motion to move two fingers away, it is determined that a map image enlargement operation has been input. Further, for example, when the finger motion history detected by the finger motion detection unit 10 is an operation in which two fingers are brought closer together, it is determined that a map image reduction operation has been input. Further, for example, when the finger motion history detected by the finger motion detection unit 10 is an operation of rotating another finger around one finger, it is determined that a map image rotation operation has been input. To do. Further, for example, if the finger motion history detected by the finger motion detection unit 10 is a motion of moving one finger, it is determined that a map scroll operation has been input.

地図操作処理部40は、操作内容判断部30で判断された操作が施された地図画像を生成するための処理を行うもので、拡大処理部42、縮小処理部44、回転処理部46、スクロール処理部48を含む。   The map operation processing unit 40 performs processing for generating a map image subjected to the operation determined by the operation content determination unit 30, and includes an enlargement processing unit 42, a reduction processing unit 44, a rotation processing unit 46, a scroll. A processing unit 48 is included.

拡大処理部42は、2本の指が遠ざかる距離に応じて拡大された地図画像を生成するために必要な処理を行う。縮小処理部44は、2本の指が近づく距離に応じて縮小された地図画像を生成するために必要な処理を行う。回転処理部46は、1本の回転角に応じて回転された地図画像を生成するために必要な処理を行う。
スクロール処理部48は、1本の指の移動に応じてスクロールされた地図画像を生成するために必要な処理を行う。
The enlargement processing unit 42 performs a process necessary for generating a map image enlarged according to the distance at which two fingers move away. The reduction processing unit 44 performs processing necessary to generate a map image reduced according to the distance at which two fingers approach. The rotation processing unit 46 performs processing necessary for generating a map image rotated according to one rotation angle.
The scroll processing unit 48 performs a process necessary for generating a map image that is scrolled in accordance with the movement of one finger.

画像生成部50は、地図操作処理部40が行った処理に基づき表示部に出力する地図画像を生成する。地図画像の生成は、最大の解像度の画像データを保持し、縮尺に応じて当該画像データを間引きして生成する手法でもよいし、データをすべてベクトルデータとして持ち必要に応じて演算を行い地図画像を生成する手法でもよい。   The image generation unit 50 generates a map image to be output to the display unit based on the processing performed by the map operation processing unit 40. The map image may be generated by holding the image data with the maximum resolution and generating the image data by thinning out the image data according to the scale. Alternatively, the map image may be generated as vector data and calculated as needed. The method of generating

2.本発明の好適な実施形態
以下、本発明の好適な実施形態について電子ブックを例にとり詳細に説明する。
2. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a preferred embodiment of the present invention will be described in detail using an electronic book as an example.

2.1 電子ブックの外観
図2(A)(B)(C)は本実施の形態の電子ブックの外観図を示している。図2(A
)の110は本実施の形態の電子ブックを閉じた状態の外観正面図であり、120は側面図である。130は、本実施の形態の電子ブックを開いた状態を表した図である。本実施の形態の電子ブックは携帯に便利なように、110のように電子ブックを閉じた状態で文庫本程度の大きさになるよう構成されている。
2.1 Appearance of Electronic Book FIGS. 2A, 2B, and 2C are external views of the electronic book of this embodiment. FIG.
110) is an external front view of the electronic book according to the present embodiment in a closed state, and 120 is a side view. 130 is a diagram showing a state in which the electronic book of the present embodiment is opened. The electronic book of this embodiment is configured to be about the size of a paperback book when the electronic book is closed as indicated by 110 for convenience of carrying.

図2(B)は、電子ブックに使用するソフトを納めたディスク140を示した図である。本実施の形態の電子ブックは図2(C)に示すように、電子ブック本体150に各種ソフトを納めたディスク140をセットすることにより、各種ソフトの内容に対応した情報を提供することができる。   FIG. 2B is a diagram showing a disk 140 in which software used for an electronic book is stored. As shown in FIG. 2C, the electronic book of this embodiment can provide information corresponding to the contents of various software by setting a disc 140 containing various software in the electronic book main body 150. .

2.2 指動作による地図画像の操作処理
次に、本実施の形態の電子ブックにおける指動作による地図画像の操作の具体例について説明する。
2.2 Map Image Manipulation Processing by Finger Movement Next, a specific example of map image manipulation by finger movement in the electronic book of the present embodiment will be described.

図3は、旅行情報ソフトをセットした場合に表示される画面例を表した図である。画面中央は主に情報表示領域として、画面の端領域は主に検索用タグ領域やツールバー表示領域として使用される。情報表示領域には、本の見開き1ページ分に記載されている内容が画像情報として表示されている。また検索用タグ領域には検索用タグ210〜230等が表示されている。また、表示領域の左右の端には「本の厚み」を模した画像240、242が表示されている。   FIG. 3 is a diagram showing an example of a screen displayed when travel information software is set. The center of the screen is mainly used as an information display area, and the end area of the screen is mainly used as a search tag area or a toolbar display area. In the information display area, the contents described in one page of the book are displayed as image information. Search tags 210 to 230 are displayed in the search tag area. In addition, images 240 and 242 simulating “book thickness” are displayed on the left and right edges of the display area.

2.2.1 地図の拡大操作
ユーザーが指250で検索用タグの「地図」220の欄をタッチすると、画面内に、「インド」の全体地図260が表示される(図4参照)。「ボンベイ」付近の情報を得たい場合には、図6(B)に示すように親指と人差し指を近づけた状態で画面上「ボンベイ」のあたりに親指と人差し指をおいて、親指と人差し指を遠ざける方向に動かす動作(地図の拡大ジェスチャー)を行う(図5参照)。このようにすると、親指と人差し指の移動履歴に応じて拡大された地図画像が表示される。即ち、親指と人差し指の離れる度合いが大きい程、縮尺が小さくより詳細な地図が表示される。
2.2.1 Map Enlargement Operation When the user touches the “map” 220 field of the search tag with the finger 250, the entire map 260 of “India” is displayed on the screen (see FIG. 4). To obtain information about “Bombay”, place the thumb and index finger around “Bombay” on the screen with the thumb and index finger close as shown in FIG. 6B, and move the thumb and index finger away. An action of moving in the direction (map enlargement gesture) is performed (see FIG. 5). In this way, a map image enlarged according to the movement history of the thumb and index finger is displayed. That is, the greater the degree of separation between the thumb and index finger, the smaller the scale and the more detailed the map is displayed.

このとき、親指と人差し指を遠ざける動作にリアルタイムに対応して、画面上の地図を拡大させてもよい。また、指の動きが止まった時点で最終的な拡大量が確定してから、その拡大量に応じて拡大された地図画像を表示してもよい。   At this time, the map on the screen may be enlarged corresponding to the operation of moving the thumb and index finger away in real time. Further, after the final enlargement amount is determined when the finger stops moving, a map image enlarged according to the enlargement amount may be displayed.

また図7に示すように親指を固定して人差し指のみを親指から遠ざける方向に移動させた場合も地図の拡大ジェスチャーに含ませても良い。   Further, as shown in FIG. 7, a case where the thumb is fixed and only the index finger is moved away from the thumb may be included in the map enlargement gesture.

拡大された地図を参照した結果、更に詳細な地図画像を得たいと思った場合には、前記地図の拡大ジェスチャーを繰りかえすことにより、更に詳細な地図画像を得ることができる。なお本実施の形態では、都市部の地図をある程度拡大したらタウンマップ等の都市の詳細地図が表示されるようになる。   As a result of referring to the enlarged map, when it is desired to obtain a more detailed map image, a more detailed map image can be obtained by repeating the map enlargement gesture. In the present embodiment, when the city map is enlarged to some extent, a detailed map of the city such as a town map is displayed.

2.2.2 地図のスクロール操作
また図8に示すように画面上に指をおいて、指を画面上に押し当てたまま希望の方向に動かすと(地図のスクロールジェスチャー)、動かした方向に動かした距離だけその地図が移動して表示される。
2.2.2 Map scrolling operation As shown in Fig. 8, if you place your finger on the screen and move it in the desired direction while pressing your finger on the screen (map scroll gesture), The map is moved and displayed by the distance moved.

2.2.3 地図の縮小操作
また、例えばより大きな縮尺の地図画像を見たい場合や広範囲の情報を画面に表示したい場合等のように地図を縮小したい場合には、最初に図6(A)に示すように親指と人差
し指を離した状態で画面上に表示された地図の上におき、図9に示すように親指と人差し指が近づく方向に動かす動作(地図の縮小ジェスチャー)を行う。このようにすると、親指と人差し指の移動履歴に応じて縮小された地図画像が表示される。即ち、親指と人差し指の離れる度合いが大きい程、縮尺が小さくより詳細な地図が表示される。
2.2.3 Map Reduction Operation In addition, when it is desired to reduce the map, for example, when it is desired to view a map image of a larger scale or to display a wide range of information on the screen, the map is first displayed as shown in FIG. As shown in FIG. 9, the thumb and index finger are separated from each other and placed on a map displayed on the screen, and the thumb and index finger are moved toward each other as shown in FIG. 9 (map reduction gesture). In this way, a map image reduced according to the movement history of the thumb and index finger is displayed. That is, the greater the degree of separation between the thumb and index finger, the smaller the scale and the more detailed the map is displayed.

このとき、親指と人差し指を近づける動作とともにリアルタイムに画面上の地図を縮小してもよい。また、指の動きが止まった時点で最終的な縮小量が確定してから、その縮小量に応じて縮小された地図画像を表示してもよい。   At this time, the map on the screen may be reduced in real time with the operation of bringing the thumb and index finger close together. In addition, after the final reduction amount is determined when the movement of the finger stops, a map image reduced according to the reduction amount may be displayed.

また図7とは逆に親指を固定して人差し指のみを親指に近づける方向に移動させた場合も地図の縮小ジェスチャーに含ませても良い。   In contrast to FIG. 7, the map reduction gesture may also include a case where the thumb is fixed and only the index finger is moved closer to the thumb.

縮小された地図を参照した結果、更に広範囲の地図画像が得たいと思った場合には、前記地図の縮小ジェスチャーを繰りかえすことにより、更に広範囲の地図画像を得ることができる。なお本実施の形態では、都市部の地図をある程度縮小したらタウンマップ等の都市の詳細地図から通常の地図表示に変更して表示されるようになる。   As a result of referring to the reduced map, if it is desired to obtain a map image of a wider range, a map image of a wider range can be obtained by repeating the map reduction gesture. In the present embodiment, if the city map is reduced to some extent, the detailed map of the city such as the town map is changed to the normal map display and displayed.

2.2.4 地図の回転操作
また、縮尺は変えずに表示されている地図画像の向きを変えたい場合には、最初に図6(A)に示すように親指と人差し指を離した状態で画面上に表示された地図の上におき、親指と人差し指のいずれか一方の指を固定し、固定した指を中心軸として、いずれか他方の指をコンパスのように回転させる動作(地図の回転ジェスチャー)を行う(図10参照)。このようにすると、親指と人差し指の移動履歴に応じて回転された地図画像が表示される。
2.2.4 Map rotation operation If you want to change the orientation of the displayed map image without changing the scale, first place your thumb and index finger apart as shown in Fig. 6 (A). Place on the map displayed on the screen, fix either one of the thumb or index finger, and rotate the other finger like a compass around the fixed finger (map rotation) Gesture) (see FIG. 10). In this way, a map image rotated according to the movement history of the thumb and index finger is displayed.

図11に示すように、点Oにいずれか一方の指を固定して、いずれか他方の指を点Aから点Bに回転させた場合、その回転角Θの分だけAからBへ回転する方向370に回転した地図画像が表示される。   As shown in FIG. 11, when one of the fingers is fixed to the point O and the other finger is rotated from the point A to the point B, it is rotated from A to B by the rotation angle Θ. A map image rotated in the direction 370 is displayed.

このとき、いずれか一方の指の回転とともにリアルタイムに画面上の地図を回転させても良い。また、指の動きが止まった時点で最終的な回転量が確定してから、その回転量に応じて縮小された地図画像を表示してもよい。   At this time, the map on the screen may be rotated in real time with the rotation of either one of the fingers. Further, after the final rotation amount is determined when the finger stops moving, a map image reduced according to the rotation amount may be displayed.

なお指動作は、親指と人差し指で行う場合に限られず、例えば親指と中指等でもよいし、その他の指の組み合わせで行ってもよい。   The finger movement is not limited to the case of performing with the thumb and the index finger, and may be performed with, for example, the thumb and the middle finger or a combination of other fingers.

2.3 検索処理
次に、本実施の形態の電子ブックにおける指動作による検索処理の具体例について説明する。
2.3 Search Process Next, a specific example of the search process by the finger movement in the electronic book of the present embodiment will be described.

2.3.1 通常の検索操作
例えばユーザーが、「南インド」のホテルの情報を得たい場合、図12に示すような方法もある。即ちまず「南インド」のタグを選択し、「南インド」の情報が掲載された先頭ページを表示させ、次に宿泊のタグを選択し、「南インドの宿泊」の情報が掲載された先頭ページを表示させる方法である。係る方法は、ユーザーが「南インド」について様々な情報を得たい場合、取り合えず「南インド」の情報が掲載された先頭ページを表示させ、その後「南インド」の様々な情報を検索したい場合等に有効である。
2.3.1 Normal Search Operation For example, when the user wants to obtain information on a hotel in “South India”, there is a method as shown in FIG. That is, first select the tag "South India", display the first page with information on "South India", then select the tag for accommodation, and the head with information on "South India accommodation" This is a method of displaying a page. When the user wants to obtain various information about “South India”, the user wants to display the first page on which information on “South India” is posted, and then searches for various information on “South India”. It is effective for etc.

2.3.2 論理積条件での検索操作
しかし、ユーザーが「南インドの宿泊」情報のみが必要な場合には、1回の操作でダイ
レクトに「南インドの宿泊」の情報が掲載された先頭ページが表示されることが好ましい。 そこで本実施の形態では、図13(A)に示すように、ユーザーが例えば左手の指で「南インド」のタグを、右手の指で「宿泊」のタグを同時にタッチした場合には、1回の操作でダイレクトに「南インドの宿泊」の情報が掲載された先頭ページが表示されるよう構成されている。
2.3.2 Search operation with AND condition However, if the user needs only “South India Accommodation” information, the information of “South India Accommodation” was posted directly in one operation. The first page is preferably displayed. Therefore, in this embodiment, as shown in FIG. 13A, when the user touches the tag “South India” with the finger of the left hand and the tag “stay” with the finger of the right hand, for example, It is configured to display the first page with information on “South India” directly.

「南インドの宿泊」の情報が複数ページに渡っている場合には、図13(B)に示すようにページめくり入力を行うことにより、次ページ以降に記載された情報を読むことができる。   When the information on “South India” is spread over a plurality of pages, the information described in the following pages can be read by performing page turning input as shown in FIG.

2.4 ページめくり、しおり処理等
次に、本実施の形態の電子ブックでページめくりを行う具体例について説明する。
2.4 Page Turning, Bookmark Processing, etc. Next, a specific example of turning pages with the electronic book of this embodiment will be described.

2.4.1 ページめくり入力操作
本実施の形態の電子ブックでは、各種操作は画面上の指動作として入力するため、筐体に操作入力用のボタン等がほとんどない。また本の内容が表示された画面においては、画面上に操作入力用マークがほとんどないのが特徴である(図3参照)。
2.4.1 Page turning input operation In the electronic book of the present embodiment, various operations are input as finger movements on the screen, so that there are almost no buttons for operation input on the housing. Further, the screen on which the contents of the book are displayed is characterized in that there are almost no operation input marks on the screen (see FIG. 3).

本実施の形態では、旅行情報ソフトを電子ブックにセットすることにより、ユーザーは旅行のガイドブックを参照するのと同様の使い勝手で、図3に示すような画面上で実際の本のページと同様の内容を参照することができる。   In the present embodiment, by setting the travel information software in the electronic book, the user can use the same as in the case of referring to the travel guidebook, and is similar to the actual book page on the screen as shown in FIG. You can refer to the contents of

ユーザーが次ページを参照したいと思った場合には、ユーザーが画面上の情報表示領域を紙の本のページめくる時のように人差し指で左から右へなぞると、図14に示すようにあたかもページがめくれるようなイメージで表示画面が次ページの内容に更新される。   When the user wants to refer to the next page, if the user traces the information display area on the screen with the index finger from the left to the right as when turning the page of a paper book, the page appears as shown in FIG. The display screen is updated to the contents of the next page with an image that turns over.

このとき、ユーザーは人差し指等をべったり画面に接触させて、ある程度の強さでこするように指を横方向に移動させることが必要である。本実施の形態では、ページめくりの入力を他の入力と区別するために、指が所定の面積以上かつ所定の圧力値以上で画面に接触されて、横方向に移動している場合に、ページめくりが入力されていると判断するからである。   At this time, it is necessary for the user to move his / her finger in the horizontal direction so as to rub with a certain degree of strength by sliding the index finger or the like on the screen. In this embodiment, in order to distinguish the page turning input from other inputs, when the finger is touching the screen at a predetermined area or more and a predetermined pressure value or more and moving in the horizontal direction, This is because it is determined that turning has been input.

なお、ページめくりの方向とページの昇降は、実際の本と同様に縦書きか横書きによって異なる。従って、縦書きの本の場合はページは右から左に進むので、図14のように指の移動を行うと、次ページがめくれるが、横書きの場合は前ページがめくれる。また逆に、縦書きの本の場合は図14と逆に人差し指で右から左へなぞると、前ページがめくれるが、横書きの場合は次ページがめくれることになる。   Note that the page turning direction and page up / down differ depending on the vertical writing or horizontal writing as in the actual book. Therefore, in the case of a vertically written book, the page advances from the right to the left. Therefore, when the finger is moved as shown in FIG. 14, the next page is turned, but in the case of horizontal writing, the previous page is turned. On the other hand, in the case of a vertically written book, the previous page is turned when tracing with the index finger from the right to the left, as opposed to FIG. 14, but in the case of horizontal writing, the next page is turned.

このように、ユーザーは通常の本を扱うの同様の感覚でページめくり入力が行えるので、操作の習得が容易で使い勝手のよいヒューマンインターフェースを提供できる。   In this way, the user can input the page turning in the same way as when handling a normal book, so that it is possible to provide a human interface that is easy to learn and easy to use.

なおページめくり入力時に、図14に示すように指の動きに応じてページがめくれる途中のイメージ画像を表示してもよいが、直接前ページ画面又は次ページ画面に切り替わる構成でもよい。   In addition, when inputting a page turning, an image in the middle of turning the page according to the movement of the finger may be displayed as shown in FIG. 14, but it may be configured to switch directly to the previous page screen or the next page screen.

またページめくりに対応して「パラ」等のページがめくれる音を連想できるようなイメージ音を出力してもよい。   In addition, an image sound that can be associated with the sound of turning the page such as “para” corresponding to the page turning may be output.

2.4.2 連続ページめくり入力操作
また図15に示すように、「本の厚み」を模した画像(以下「本の厚み」という)24
0、242をユーザーが所定時間以上タッチし続けると、ページがパラパラと連続してめくれる。このとき、ユーザーがタッチする強さを変えると、ページめくりの速度を変更することができる。即ち、ユーザーはより強くタッチすることでページがめくれる速度を早めることができる。またタッチする強さを弱めることで、ページがめくれる速度を遅くすることができる。ユーザーは自分が読みたいページが見つかった時点で、前記「本の厚み」から手を離すことにより、連続ページめくりを止めて、表示画面を当該ページに位置づけることができる。
2.4.2 Continuous page turning input operation Also, as shown in FIG. 15, an image imitating “book thickness” (hereinafter referred to as “book thickness”) 24
If the user keeps touching 0 and 242 for a predetermined time or more, the pages are flipped continuously. At this time, the page turning speed can be changed by changing the strength with which the user touches. That is, the user can increase the speed at which the page is turned by touching more strongly. Also, by reducing the strength of touching, you can slow down the page turning speed. When the user finds the page he / she wants to read, the user can release the “book thickness” to stop the continuous page turning and position the display screen on the page.

なお、前述したページめくりの場合と同様にページの昇降は縦書きか横書きによって異なる。従って、縦書きの本の場合は、図15のように左端の本の厚みをタッチし続けると次ページ方向に連続してページがめくれるが、横書きの場合は前ページ方向に連続してページがめくれる。また逆に、縦書きの本の場合は図15と逆に右端の本の厚みをタッチし続けると前ページ方向に連続してページがめくれるが、横書きの場合は次ページ方向に連続してページがめくれる。   As in the case of the page turning described above, the raising / lowering of the page differs depending on the vertical writing or the horizontal writing. Therefore, in the case of a vertically written book, if the thickness of the leftmost book is continuously touched as shown in FIG. 15, the page turns continuously in the direction of the next page, but in the case of horizontal writing, the page continues in the direction of the previous page. Turn over. On the other hand, in the case of vertical writing, conversely to FIG. 15, if you keep touching the thickness of the rightmost book, the page will turn continuously in the previous page direction, but in horizontal writing, the page will continue in the next page direction. Turn over.

このように、ユーザーは通常の本を扱うのと同様の感覚でページめくり入力が行えるので、操作の習得が容易で使い勝手のよいヒューマンインターフェースを提供できる。   In this way, the user can input the page turning in the same way as when handling a normal book, so that it is possible to provide a human interface that is easy to learn and easy to use.

なお連続ページめくり入力時に、図15に示すように指の動きに応じてページがめくれる途中のイメージ画像を表示してもよいが、直接前ページ画面又は次ページ画面に所定時間おきに切り替わる構成でもよい。   In addition, during continuous page turning input, an image in the middle of turning the page according to the movement of the finger may be displayed as shown in FIG. 15, but it may be configured to switch directly to the previous page screen or the next page screen every predetermined time. Good.

またページめくりに対応して「パラパラパラ」等のページがめくれる音を連想できるようなイメージ音を出力してもよい。   In addition, an image sound that can be associated with a sound that the page turns, such as “para-para-pala”, may be output corresponding to the page turning.

2.4.3 しおり挿入、参照操作
次に本実施の形態の有しているしおり機能について説明する。通常の読書の際に再び参照したい箇所にしおりを挿入するように、本実施の形態でも、再び参照したいページにしおりを付すことができる。
2.4.3 Bookmark insertion and reference operation Next, the bookmark function of this embodiment will be described. In this embodiment, it is possible to attach a bookmark to a page to be referred to again so that a bookmark is inserted at a position to be referred to again during normal reading.

図16に示すように、矢印部260をドラッグして画面の一番下まで指でなぞると当該ページにしおりを挿入することができる。即ち上記動作後から図17に示すように画面上にしおりマーク270が表示される。   As shown in FIG. 16, a bookmark can be inserted into the page by dragging the arrow portion 260 and tracing it with the finger to the bottom of the screen. That is, after the above operation, the bookmark mark 270 is displayed on the screen as shown in FIG.

ユーザーが他のページを参照している際には、図18(A)に示すように画面の下端にしおり270が表示されている。   When the user is referring to another page, a bookmark 270 is displayed at the lower end of the screen as shown in FIG.

ユーザーは、しおりを付したページを参照したくなった場合には、図18(B)に示すように画面の下部に表示されたしおり270を指でタッチすると、図18(C)に示すように、画面はしおりを付したページに切り替わる。   When the user wants to refer to the page with the bookmark, the user touches the bookmark 270 displayed at the bottom of the screen with a finger as shown in FIG. 18B, as shown in FIG. 18C. Then, the screen switches to a page with a bookmark.

なお、しおりを1本のみ挟む場合を例にとり説明したがこれに限られない。例えば、複数のページにしおりを付したい場合には複数の色のしおりマークを表示する等してもよい。   In addition, although it demonstrated taking the case where only one bookmark was pinched | interposed, it is not restricted to this. For example, when bookmarks are to be attached to a plurality of pages, bookmark marks of a plurality of colors may be displayed.

2.5 今日のフォルダの使用例
次に、本実施の形態の今日のフォルダーの使用の具体例について説明する。
2.5 Example of Use of Today's Folder Next, a specific example of use of today's folder of the present embodiment will be described.

図3において、280の入力用アイコンを指でタッチすると、図19に示すように画面下部に各種操作用アイコン(282、284、286、288)で構成されたツールバー
が表示される。
In FIG. 3, when the input icon 280 is touched with a finger, a toolbar composed of various operation icons (282, 284, 286, 288) is displayed at the bottom of the screen as shown in FIG.

282は、本電子ブックの各種設定入力を行うためのモードへの移行する際にタッチするアイコンである。また284は、本電子ブックの付属部品であるカメラで動画又は静止画を撮影するモードへ移行する際にタッチするアイコンである。286は、本電子ブックの付属部品であるペンを使って文字や図形等をメモ入力するモードへ移行する際にタッチするアイコンである。288は入力したデータや画面上で指定した情報を今日のフォルダに格納する際や、今日のフォルダの中味を参照したい場合等にタッチするアイコンである。この今日のフォルダとは毎日自動的に作成されるものであり、使い方は日々の使用シーンの中で作成しておいたデータを常に入れっぱなしにしておくいわば倉庫のようなものである。以下、今日のフォルダーの各種使用例について説明する。   Reference numeral 282 denotes an icon to be touched when shifting to a mode for inputting various settings of the electronic book. Reference numeral 284 denotes an icon to be touched when shifting to a mode for shooting a moving image or a still image with a camera which is an accessory of the electronic book. Reference numeral 286 denotes an icon to be touched when shifting to a mode in which characters, figures, and the like are input by using a pen that is an accessory part of the electronic book. Reference numeral 288 denotes an icon that is touched when the input data or information specified on the screen is stored in the today's folder, or when it is desired to refer to the contents of the today's folder. This today's folder is automatically created every day, and its usage is like a warehouse where data created in daily use scenes is always kept. Hereinafter, various usage examples of today's folder will be described.

2.5.1 電子ブックに格納されている情報をフローティングして格納する例
電子ブックに格納されている情報をフローティングして格納する例について図20〜図22を用いて説明する。例えば「北インド」の情報を得たい場合、「北インド」のインデックスをタッチしてページを開き読んでみる。その中でも「タージマハイル」の文字が赤色に表示してあるのでタッチしてみる(図20(A)参照)。すると「タージマハイル」のページに自動的にジャンプするよう構成されている。
2.5.1 Example of Floating and Stored Information Stored in Electronic Book An example of floating and storing information stored in an electronic book will be described with reference to FIGS. For example, if you want to get information on “North India”, touch the index of “North India” to open the page and read it. Among them, the word “Tajma Heil” is displayed in red, so touch it (see FIG. 20A). Then, it is configured to automatically jump to the “Tajma Hail” page.

例えば通常紙の本で「タージマハイル」について読んでみて、この部分をコピーして持ち歩きたいと思ったような場合、本電子ブックでは、以下のような操作を行うことができる。   For example, if you read about “Tajma Heil” in a regular paper book and want to copy this part and carry it with you, you can perform the following operations on this electronic book.

即ち、ユーザーが切り取りたいと思う情報が記載されている範囲を人差し指でなぞりながら四角形で囲み指を画面から離す(図20(B)の矢印410参照)。するとその囲われた部分が画面で浮き上がったように表示される(図21の420参照)。これをフローティング化という。   That is, the user encircles the area in which the information that the user wants to cut is written with the index finger, and moves the finger away from the screen (see arrow 410 in FIG. 20B). Then, the enclosed portion is displayed as if it was raised on the screen (see 420 in FIG. 21). This is called floating.

そしてフローティング化された部分を指で押さえて、ドラッグ・アンド・ドロップの要領で今日のフォルダのアイコン288まで移動してそこで指を離す(以下、「今日のフォルダにドラッグ・アンド・ドロップする」という)と(図22参照)、フローティング化された部分が今日のフォルダへ格納される。このように、本電子ブックでは、切り取りたい内容を指で指定して、今日のフォルダにドラッグ・アンド・ドロップすると、画面上指定した内容を今日のフォルダに格納することができる。   Then, press the floating part with your finger, move to the icon 288 of today's folder by dragging and dropping, and release your finger there (hereinafter referred to as “drag and drop to today's folder”) ) And (see FIG. 22), the floating part is stored in the folder of today. In this way, in this electronic book, if the content to be cut is designated with a finger and dragged and dropped into the today's folder, the content designated on the screen can be stored in the today's folder.

なお、フローティング化する領域は、閉曲線や多角形で囲んでできる領域だけでなく、画面の端と指で囲んだ部分で指定される領域でもよい。例えば図42(A)に示すように、指で840のように軌跡を描いて画面をなぞった場合に、軌跡840と画面の端の稜線850で囲まれる部分852(斜線領域)をフローティング化するようにしてもよい。   Note that the area to be floated is not limited to an area that can be enclosed by a closed curve or a polygon, but may be an area that is specified by an edge of the screen and a part enclosed by a finger. For example, as shown in FIG. 42A, when a trace is drawn with a finger like 840 and the screen is traced, a portion 852 (shaded area) surrounded by the trace 840 and the edge line 850 at the end of the screen is floated. You may do it.

また、図42(B)に示すように、画面上の2点P1、P2を指で指定して、当該2点を結ぶ線分を対角線とする長方形領域854(斜線領域)をフローティング化するようにしてもよい。   Further, as shown in FIG. 42B, two points P1 and P2 on the screen are designated with a finger, and a rectangular region 854 (hatched region) having a line segment connecting the two points as a diagonal is floated. It may be.

また、図42(C)に示すように、画面上の3点P3、P4、P5を指で指定して、当該3点をその円周上に有する円領域856(斜線領域)をフローティング化するようにしてもよい。   Further, as shown in FIG. 42 (C), three points P3, P4, and P5 on the screen are designated with a finger, and a circular region 856 (hatched region) having the three points on the circumference is floated. You may do it.

2.5.2 静止画及び動画を格納する例
次にカメラで撮影した映像を今日のフォルダに格納する例について図23〜図25を用
いて説明する。
2.5.2 Example of storing still images and moving images Next, an example of storing video captured by a camera in today's folder will be described with reference to FIGS.

例えばユーザーが旅行中に時刻表等の内容をひかえたい場合に、本電子ブックを利用すれば、図24(A)に示すように、電子ブック本体内に設けられているカメラレンズ520を引き出して、時刻表510を撮影し、撮影データを電子ブックに格納することができる。   For example, when the user wants to share the contents of the timetable during the trip, if the electronic book is used, the camera lens 520 provided in the electronic book body is pulled out as shown in FIG. The timetable 510 can be photographed and the photographing data can be stored in an electronic book.

即ちユーザーが電子ブックのツールバーを引き出しカメラアイコン284を指でタッチすると撮影モードになり、図23に示すようなカメラ撮影用操作表示画面が表示される。ユーザーは画面左側に大きく配置されたファインダー画面530の上に表示された「動画」と「静止画」のいずれかの画面スイッチ550、540を指でタッチすることにより、動画或いは静止画の撮影を選択することができる。   That is, when the user pulls out the toolbar of the electronic book and touches the camera icon 284 with his / her finger, the shooting mode is set, and a camera shooting operation display screen as shown in FIG. 23 is displayed. The user touches the screen switches 550 and 540 displayed on the finder screen 530 arranged largely on the left side of the screen with a finger to take a video or a still image. You can choose.

例えばユーザーが静止画の画面スイッチ540にタッチすると、撮影実行用スイッチ560の表示が「シャッター」に変わる。そしてユーザーが時刻表510にカメラレンズを向けると、ファインダー画面530にカメラレンズ520がとらえた時刻表映像が表示される。ユーザーが、「シャッター」ボタン560を指でタッチすると、取り終えた画像データが撮影日時とともに自動的にフォルダファイルに格納される。   For example, when the user touches the still image screen switch 540, the display of the shooting execution switch 560 changes to “shutter”. When the user points the camera lens toward the timetable 510, a timetable image captured by the camera lens 520 is displayed on the viewfinder screen 530. When the user touches the “shutter” button 560 with a finger, the image data that has been taken is automatically stored in the folder file together with the shooting date and time.

フォルダファイルとは、「今日のフォルダー」に入れる情報を記憶するためのファイルである。格納された情報は日時で管理され、日付単位で読み出し可能に形成されている。   The folder file is a file for storing information to be put in “today's folder”. The stored information is managed by date and time, and is formed so as to be readable in date units.

また例えばユーザーが動画像を撮影したい場合には、動画のスイッチ550にタッチすると、撮影実行用スイッチ560の表示が「録画待機中」に変わる。ユーザーが「録画待機中」のボタンにタッチすると動画像の撮影が開始される。   Further, for example, when the user wants to shoot a moving image, when the moving image switch 550 is touched, the display of the shooting execution switch 560 changes to “waiting for recording”. When the user touches the “recording standby” button, shooting of a moving image is started.

なお、図25に示すように本電子ブックのカメラレンズ520は電子ブック本体522から取り外せるワイヤレスタイプであるため、ユーザーは周りの人に気兼ねなく撮影することができる。またユーザーが「録画待機中」と表示された撮影実行用スイッチ560を押すと、表示が「撮影中」に切り替わる。ユーザーが撮影を中断したい場合には当該「撮影中」ボタンを指でタッチすると、撮影が中断され、表示は「撮影待機中」に切り替わる。そして撮影された画像は撮影日時とともにフォルダファイルに自動的に格納される。   Note that the camera lens 520 of the electronic book is a wireless type that can be removed from the electronic book main body 522 as shown in FIG. When the user presses the shooting execution switch 560 displayed as “Recording standby”, the display is switched to “Recording”. If the user wants to interrupt shooting, touching the “shooting” button with his / her finger stops shooting and the display switches to “waiting for shooting”. The captured image is automatically stored in the folder file together with the shooting date and time.

2.5.3 メモ書きを格納する例
次はユーザーのメモ書きを格納する例について図26、図27を用いて説明する。
2.5.3 Example of storing memos Next, an example of storing user memos will be described with reference to FIGS. 26 and 27. FIG.

ユーザーが画面下部にあるツールバーを引き出して、「メモ」のアイコン286を指でタッチすると、図26に示すようなメモ入力画面600が表示される。ユーザーが本電子ブック付属のペン610でこの画面上に文字等を入力すると、そのままイメージデータとして記録される。書き終えたのちに、図27に示すようにそのメモ入力画面を今日のフォルダにドラッグ・アンド・ドロップするとメモ入力画面600に記載した内容を格納日時とともにフォルダファイルに格納することができる。   When the user pulls out the toolbar at the bottom of the screen and touches the “memo” icon 286 with a finger, a memo input screen 600 as shown in FIG. 26 is displayed. When the user inputs characters or the like on this screen with the pen 610 attached to the electronic book, the image data is recorded as it is. After the writing, as shown in FIG. 27, when the memo input screen is dragged and dropped to today's folder, the contents described in the memo input screen 600 can be stored in the folder file together with the storage date and time.

2.5.4 今日のフォルダの参照処理
ユーザーが画面下部にあるツールバーを引き出して、「今日のフォルダ」のアイコン288を指でタッチすると、図28に示すようなその日の今日のフォルダ画面700が表示される。その中には、その日に今日のフォルダに格納されたデータがアイコン化(710、720、730、740)して表示されている。本電子ブックではユーザーが格納したデータ内容が、そのまま縮小されたイメージとしてアイコン化されるので、ユーザーはデータの中身についての記憶を喚起し易い。更にアイコンの下部にはデータを格納した時間
が表示されているので、ユーザーの行動記録としても活用し易く、後でデータを整理する場合にも便利である。
2.5.4 Reference processing of today's folder When the user pulls out the toolbar at the bottom of the screen and touches the “today's folder” icon 288 with his / her finger, the today's folder screen 700 of that day as shown in FIG. 28 is displayed. Is displayed. The data stored in today's folder on that day is displayed as icons (710, 720, 730, 740). In this electronic book, the data content stored by the user is converted into an icon as a reduced image as it is, so that the user can easily recall the contents of the data. Furthermore, since the time when the data is stored is displayed below the icon, it can be easily used as a user's action record, and is convenient for organizing the data later.

ユーザーは、アイコン化したデータ710、720、730、740を指でタッチして、「内容を見る」の部分750にドラッグ・アンド・ドロップさせると、その内容が画面上に表示される。同様に「捨てる」とかかれたゴミ箱部分780に入れると、その内容を自動的に消去できる。   When the user touches iconified data 710, 720, 730, 740 with a finger and drags and drops it to the “view contents” portion 750, the contents are displayed on the screen. Similarly, the contents can be automatically deleted by putting them in the trash box portion 780 marked “Discard”.

また「前の日」とかかれた部分760をタッチすると、前日の「今日のフォルダ画面」が表示され、「次の日」とかかれた部分770をタッチすると、次の日「今日のフォルダ画面」が表示される。ユーザーはこの「前の日」と「次の日」の部分をタッチすることで、過去のフォルダ画面にさかのぼり、また現在のフォルダ画面に帰ってくることができる。   Touching the portion 760 labeled “Previous Day” displays the “Today's Folder Screen” on the previous day, and touching the portion 770 labeled “Next Day” displays the “Today's Folder Screen” on the next day. Is displayed. The user can go back to the previous folder screen or return to the current folder screen by touching the “previous day” and “next day” portions.

また、図29に示すように関連のあるデータのアイコンを接触するように指で移動させると、接触しているデータがグループ化される。このため、データの整理に便利である。   Also, as shown in FIG. 29, when the icons of related data are moved with a finger so as to touch, the data in contact are grouped. Therefore, it is convenient for data organization.

図30は、今日のフォルダの活用の一例を説明するための図である。
例えば、ユーザーが約1ヶ月間の旅行に本電子ブックを携帯して、旅行中に様々なデータを今日のフォルダに格納したとする。ユーザーが、電子ブックを開いてみると、30個の今日のフォルダが記憶されている(図30(A)参照)。
FIG. 30 is a diagram for explaining an example of utilization of today's folder.
For example, assume that a user carries this electronic book on a trip for about one month and stores various data in today's folder during the trip. When the user opens the electronic book, 30 today's folders are stored (see FIG. 30A).

ユーザーは、電子ブック800に格納されてる今日のフォルダのデータをインターネットに接続されている他のコンピュータ810に書き込み、インターネットを利用して旅行データ収集会社820に送る(図30(B)参照)。   The user writes the data of today's folder stored in the electronic book 800 to another computer 810 connected to the Internet, and sends the data to the travel data collection company 820 using the Internet (see FIG. 30B).

旅行データ収集会社820は、回収したデータを編集して旅行用ソフト出版会社830に最新旅行データを供給する。そして旅行用ソフト出版会社830は最新データに基づきバージョンアップした旅行用ソフトを発売する。   The travel data collection company 820 edits the collected data and supplies the latest travel data to the travel software publishing company 830. The travel software publishing company 830 releases travel software upgraded based on the latest data.

このように電子出版産業が発達すれば、より最新のデータを反映した内容のデジタルソフトの供給が行える用になる。また、出版に金や手間がかからないため、だれもが手軽に出版することができたり、購読者が限定されるような専門的なものが出版できたりというような出版の理想像を実現することも可能となる。   If the electronic publishing industry develops in this way, it will be able to supply digital software that reflects the latest data. In addition, because it does not require money or hassle, publishing an ideal image of publishing that everyone can publish easily or can publish specialized things with limited subscribers. Is also possible.

2.6 電子ブックの構成
次に本実施の形態の電子ブックのハードウエア構成について図31を用いて説明する。
2.6 Configuration of Electronic Book Next, the hardware configuration of the electronic book of this embodiment will be described with reference to FIG.

図31に示すように、本実施の形態の電子ブックは、CPU(中央処理ユニット)1010、メモリ1020、ディスプレイコントローラ1030、タッチパネルコントローラ1040、バス1050、タッチパネル1060、ディスプレイ1070、ディスクドライブコントローラ1080、ディスクドライブ1090、情報記憶媒体1220、カメラ1130、ペン1120を含んで構成されている。   As shown in FIG. 31, the electronic book of this embodiment includes a CPU (central processing unit) 1010, a memory 1020, a display controller 1030, a touch panel controller 1040, a bus 1050, a touch panel 1060, a display 1070, a disk drive controller 1080, and a disk. A drive 1090, an information storage medium 1220, a camera 1130, and a pen 1120 are included.

ディスプレイ1070は液晶等で構成されており、ディスプレイコントローラ1030により、出力が制御される。   The display 1070 is composed of a liquid crystal or the like, and the output is controlled by the display controller 1030.

タッチパネル1060は、光学式、抵抗式、静電容量式、超音波式などのパネルによって構成されており、タッチパネルコントローラ1040により制御される。タッチパネル1060は、ディスプレイ1070に透明なタッチセンサ板を重ねて設置される。ユーザ
ーが指先やペン1120などで表示画面に接触すると、タッチパネル1060は指の接触位置情報及び接触圧力及び接触面積やペン1120で入力された文字や図形等のイメージデータを検出することができる。
The touch panel 1060 is constituted by a panel such as an optical type, a resistance type, a capacitance type, and an ultrasonic type, and is controlled by a touch panel controller 1040. The touch panel 1060 is installed by overlapping a transparent touch sensor plate on the display 1070. When the user touches the display screen with a fingertip, a pen 1120, or the like, the touch panel 1060 can detect finger contact position information, contact pressure and contact area, and image data such as characters and figures input with the pen 1120.

このようにディスプレイ1070の表面に透明なタッチセンサ板を重ねて一体化することにより表示画面上での指動作入力やペン入力が可能になる。   In this way, by integrating the transparent touch sensor plate on the surface of the display 1070 and integrating them, finger operation input and pen input on the display screen become possible.

CPU1010は装置全体の制御や各種データ処理、図2〜図30で説明した種々の処理の実行を行う。メモリは、ROM、RAMで構成されて、RAMはこのCPU1010の作業領域等として用いられる記憶手段であり、情報記憶媒体1220やROMの所与の内容、あるいはCPU1010の演算結果等が格納される。   The CPU 1010 performs control of the entire apparatus, various data processing, and various processing described with reference to FIGS. The memory is composed of a ROM and a RAM, and the RAM is a storage means used as a work area of the CPU 1010 and stores a given content of the information storage medium 1220 and the ROM, a calculation result of the CPU 1010, and the like.

ディスクドライブ1090はフロッピーディスク等の情報記憶媒体1220に対してデータの書き込み、読み込みを行うもので、ディスクドライブコントローラ1080により制御される。   A disk drive 1090 writes and reads data to and from an information storage medium 1220 such as a floppy disk, and is controlled by a disk drive controller 1080.

情報記憶媒体1220には、画像を生成するためのデータ、プログラム、図2〜図30で説明した種々の処理を行うための情報等が主に格納されている。   The information storage medium 1220 mainly stores data for generating an image, a program, information for performing various processes described with reference to FIGS.

カメラ1130は、動画及び静止画を撮影するためのものである。   The camera 1130 is for shooting moving images and still images.

ペン1120は表示画面上でメモ入力するためのものであり、ペンの形状をした棒もしくはインク等がディスプレイにつかなければなんでもよい。   The pen 1120 is used for inputting a memo on the display screen, and may be anything as long as a pen-shaped stick or ink does not stick to the display.

ユーザーがディスプレイ上で指操作を行ったり、メモ入力を行ったり、カメラで撮影を行ったり等の様々な入力を行うとCPU1010は、その入力内容に基づき、ユーザーが指示した操作を実行する。   When the user performs various operations such as performing a finger operation on the display, inputting a memo, or taking a picture with a camera, the CPU 1010 executes an operation instructed by the user based on the input content.

図32は、本電子ブックの機能ブロック図の一例である。   FIG. 32 is an example of a functional block diagram of the electronic book.

指動作検出部1110は、ユーザーが表示部上で行った指の移動履歴や接触圧力や接触面積を検出するためのものである。指動作検出部1110は、表示部1240に透明なタッチパネル等を重ねて構成されている。指動作検出部1110で得られた検出データは処理部1100へ入力される。   The finger motion detection unit 1110 is for detecting a finger movement history, a contact pressure, and a contact area performed by the user on the display unit. The finger motion detection unit 1110 is configured by overlaying a transparent touch panel or the like on the display unit 1240. Detection data obtained by the finger motion detection unit 1110 is input to the processing unit 1100.

ペン入力部1120は、ユーザーが表示部上にペンで記載した内容を入力するためのものである。ペン入力部1120は、ユーザーが前期ペン1120で表示部1240に文字や図形等を記載すると、表示部に重ねられた透明なタッチパネル等がその内容をイメージデータとして検出するよう構成されている。ペン入力部1120で得られた検出データは処理部1100へ入力される。   The pen input unit 1120 is used by the user to input content written with a pen on the display unit. The pen input unit 1120 is configured such that when a user writes a character, a figure, or the like on the display unit 1240 with the previous pen 1120, a transparent touch panel or the like superimposed on the display unit detects the content as image data. Detection data obtained by the pen input unit 1120 is input to the processing unit 1100.

撮影部1130は、ユーザーが動画及び静止画の少なくとも一方を撮影するためのものである。撮影部1130は、カメラ又はビデオカメラ等で構成されている。撮影部1130で撮影された撮影データは処理部1100へ入力される。   The photographing unit 1130 is for the user to photograph at least one of a moving image and a still image. The photographing unit 1130 is configured by a camera or a video camera. Shooting data shot by the shooting unit 1130 is input to the processing unit 1100.

処理部1100は、前記指動作やペン入力による検出データ、撮影データ、所与のプログラム等基づいて、表示部に表示する画像を生成する処理や、データをフォルダファイルに格納する処理等を行うものである。この処理部1100の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレーなど)IC、メモリなどのハードウエアにより実現できる。   The processing unit 1100 performs processing for generating an image to be displayed on the display unit, processing for storing the data in a folder file, and the like based on the detection data, photographing data, a given program, and the like by the finger movement and pen input. It is. The function of the processing unit 1100 can be realized by hardware such as a CPU (CISC type, RISC type), a DSP, a custom (gate array, etc.) IC, and a memory.

情報記憶媒体1220は、プログラムやデータを記憶するためのものである。この情報記憶媒体1220の機能は、CD−ROM、カセット、ICカード、MO、FD、DVD、ハードディスク、メモリ等のハードウエアにより実現できる。処理部1100は、この情報記憶媒体1220からのプログラム、データに基づいて種々の処理を行うことになる。   The information storage medium 1220 is for storing programs and data. The function of the information storage medium 1220 can be realized by hardware such as a CD-ROM, cassette, IC card, MO, FD, DVD, hard disk, memory, and the like. The processing unit 1100 performs various processes based on the program and data from the information storage medium 1220.

処理部1100は、処理内容決定部1140、各種処理部1150、画像生成部1200、記憶部1230を含んで構成される。   The processing unit 1100 includes a processing content determination unit 1140, various processing units 1150, an image generation unit 1200, and a storage unit 1230.

処理内容決定部1140は、指動作検出部1110、ペン入力部1120、撮影部1130から入力されたデータに基づき、処理すべき内容を決定する。   The processing content determination unit 1140 determines the content to be processed based on data input from the finger motion detection unit 1110, the pen input unit 1120, and the imaging unit 1130.

各種処理部1150は、拡大処理部1162、縮小処理部1164、回転処理部1166、スクロール処理部1168、通常の検索処理部1172、論理積検索処理部1174、ページめくり処理部1182、連続ページめくり処理部1184、しおり挿入処理部1186、しおり挿入箇所参照処理部1188、フローティング処理部1192、撮影処理部1194、メモ入力処理部1196、フォルダ参照処理部1198を含み、処理内容決定部1140の決定にしたがい、地図画像の拡大処理、縮小処理、回転処理、スクロール処理、通常の検索処理、論理積検索処理、ページめくり処理、連続ページめくり処理、しおり挿入処理、しおり挿入箇所参照処理、フローティング処理、撮影処理、メモ入力処理、フォルダ参照処理等を行う。   The various processing units 1150 are an enlargement processing unit 1162, a reduction processing unit 1164, a rotation processing unit 1166, a scroll processing unit 1168, a normal search processing unit 1172, a logical product search processing unit 1174, a page turning processing unit 1182, and a continuous page turning processing. Section 1184, bookmark insertion processing section 1186, bookmark insertion position reference processing section 1188, floating processing section 1192, imaging processing section 1194, memo input processing section 1196, and folder reference processing section 1198, according to the processing content determination section 1140. , Map image enlargement processing, reduction processing, rotation processing, scroll processing, normal search processing, logical product search processing, page turning processing, continuous page turning processing, bookmark insertion processing, bookmark insertion location reference processing, floating processing, shooting processing Memo input processing, folder reference processing, and the like.

記憶部1230は、各種情報を記憶するものであり、今日のフォルダに格納されたデータを記憶するためのフォルダファイル1232を含む。   The storage unit 1230 stores various types of information, and includes a folder file 1232 for storing data stored in today's folder.

画像生成部1200は、各種処理部1150が行った処理に基づき表示部に表示する画像を生成する。   The image generation unit 1200 generates an image to be displayed on the display unit based on processing performed by the various processing units 1150.

2.7 本実施の形態の動作例
図33〜図41は本実施の形態の電子ブックの動作例を表したフローチャート図である。
2.7 Operation Example of the Present Embodiment FIGS. 33 to 41 are flowcharts showing an operation example of the electronic book of the present embodiment.

本実施の形態の電子ブックで、指動作、ペン入力、撮影等の入力があると以下のようにして処理内容が決定される(図33のステップS10)。現在撮影モードであれば撮影処理が行われる(ステップS20、S30)。なお、通常は通常入力モードであり、ツールバーのカメラアイコンがタッチされると撮影モードに移行する。撮影モード下で入力を検出した場合には、図23〜図25で説明したような撮影処理が行われる。   In the electronic book of the present embodiment, when there is an input such as finger movement, pen input, photographing, etc., the processing content is determined as follows (step S10 in FIG. 33). If it is the current shooting mode, shooting processing is performed (steps S20 and S30). Note that the normal input mode is selected, and when the camera icon on the tool bar is touched, the shooting mode is entered. When an input is detected in the shooting mode, the shooting process described with reference to FIGS. 23 to 25 is performed.

例えば、ユーザーが画面中の操作ボタンを押したのが検出された場合は当該ボタンに対応した処理、例えば「動画」又は「静止画」ボタンがタッチされた場合には動画と静止画の選択処理、「シャッター」ボタンがタッチされた場合には静止画を撮影して、撮影画像データを撮影の日時を付してフォルダファイルに格納する処理、「録画待機中」ボタンがタッチされた場合には、動画の撮影を開始する処理、「録画中」ボタンがタッチされた場合には動画の撮影を終了して、撮影画像データを撮影の日時を付してフォルダファイルに格納する処理等が行われる。   For example, when it is detected that the user has pressed an operation button on the screen, processing corresponding to the button, for example, when a “moving image” or “still image” button is touched, selection processing of moving image and still image When the “Shutter” button is touched, a still image is shot, and the captured image data is stored in a folder file with the shooting date and time. When the “Recording standby” button is touched, , The process of starting the video recording, the process of ending the video recording when the “Recording” button is touched, and storing the captured image data in the folder file with the shooting date and time, etc. .

現在メモ入力モードであればメモ入力処理が行われる(ステップS40、S50)。なお、通常は通常入力モードであり、ツールバーのメモアイコンがタッチされるとメモ入力モードに移行する。メモ入力モード下で入力を検出した場合には、図26〜図27で説明
したようなメモ入力処理が行われる。
If it is the current memo input mode, a memo input process is performed (steps S40 and S50). Note that the normal input mode is selected, and when the memo icon on the toolbar is touched, the mode shifts to the memo input mode. When an input is detected in the memo input mode, the memo input process described with reference to FIGS. 26 to 27 is performed.

例えば、ユーザーが画面中にペンで文字等を入力したのが検出された場合は、入力内容をリアルタイムで画像表示し、入力内容をイメージデータとしてワークエリアに格納する処理が行われる。そして、入力内容がドラッグ・アンド・ドロップされた場合には、ワークエリアに格納されたイメージデータを、格納の日時を付してフォルダファイルに格納する処理等が行われる。   For example, when it is detected that the user has entered a character or the like with a pen on the screen, the input content is displayed in real time, and the input content is stored in the work area as image data. When the input content is dragged and dropped, a process of storing the image data stored in the work area in a folder file with the date and time of storage is performed.

現在フォルダ参照モードであればフォルダ参照処理が行われる(ステップS52、S54)。なお、通常は通常入力モードであり、ツールバーの今日のフォルダアイコンがタッチされるとフォルダ参照モードに移行する。フォルダ参照モード下で入力を検出した場合には、図28〜図29で説明したようなフォルダ参照処理が行われる。   If it is the current folder reference mode, folder reference processing is performed (steps S52 and S54). Normally, the mode is the normal input mode, and when today's folder icon on the toolbar is touched, the mode shifts to the folder reference mode. When an input is detected in the folder reference mode, the folder reference process described with reference to FIGS. 28 to 29 is performed.

例えば、ユーザーが画面中のアイコンをタッチして「内容を見る」の部分にドラッグ・アンド・ドロップされたのが検出された場合には、そのデータ内容を画面上に表示する処理が行われる。また、同様に「捨てる」とかかれたゴミ箱部分に入れたのが検出された場合には、そのデータを消去する処理が行われる。また「前の日」とかかれた部分がタッチされたのが検出されると、前日の「今日のフォルダ画面」を表示する処理がおこなわれ、「次の日」とかかれた部分がタッチされたのが検出される、次の日「今日のフォルダ画面」を表示する処理が行われる。   For example, when it is detected that the user has touched an icon on the screen and dragged and dropped it to the “view contents” portion, processing for displaying the data contents on the screen is performed. Similarly, when it is detected that the object has been put in the trash box marked “discard”, a process of deleting the data is performed. When it is detected that the part labeled “Previous Day” is touched, the process of displaying the “Today's Folder Screen” of the previous day is performed, and the part labeled “Next Day” is touched. The next day “Today's folder screen” is displayed on the next day.

通常入力モードにおいて、タッチパネルへの指の接触があった場合には以下のような処理が行われる(図33のステップS60、図34参照)。   In the normal input mode, when a finger touches the touch panel, the following processing is performed (see step S60 in FIG. 33 and FIG. 34).

ツールバーのアイコンへの接触があった場合には各種アイコン処理(図41参照)が行われる(ステップ図34のS70、S80)。   When there is contact with the icon on the tool bar, various icon processing (see FIG. 41) is performed (steps S70 and S80 in FIG. 34).

「検索用タグ」や「本の厚み」や「しおり」や「しおり挿入用矢印」等の各種入力マークへの接触であった場合には入力マーク操作処理(図36参照)が行われる(ステップS90、S100)。   In the case of contact with various input marks such as “search tag”, “book thickness”, “bookmark”, and “bookmark insertion arrow”, input mark operation processing (see FIG. 36) is performed (step 36). S90, S100).

タッチパネルへの2点目の接触があった場合、地図画像が表示されている場合には地図操作の処理を行う(ステップS110、S120、S130)。   If there is a second contact with the touch panel, and if a map image is displayed, map operation processing is performed (steps S110, S120, and S130).

2点目の接触が無かった場合には、接触点が移動しているか否かを検出し、移動している場合には、接触面積及び接触圧力によって指示入力されている処理内容を判断する(ステップS140、S150)。   If there is no contact at the second point, it is detected whether or not the contact point is moving, and if it is moving, the processing content that is instructed by the contact area and the contact pressure is determined ( Steps S140 and S150).

接触面積及び接触圧力が所定値以上である場合は、表示されているのが地図画像であればスクロール処理を行い、通常の本のページ画像である場合にはページめくりの処理を行う(ステップS160、S180)。   If the contact area and the contact pressure are equal to or greater than the predetermined values, scroll processing is performed if the displayed image is a map image, and page turning processing is performed if the displayed image is a normal book page image (step S160). , S180).

接触面積及び接触圧力が所定値以上でない場合は以下の処理を行う(図35参照)。「今日のフォルダ」へのドラッグ・アンド・ドロップでない場合に、指で囲まれた情報がある場合には、その指で囲まれた情報のフローティング処理を行う(ステップS910、S960、S970)。   When the contact area and the contact pressure are not equal to or greater than the predetermined value, the following processing is performed (see FIG. 35). If there is information surrounded by a finger when not dragging and dropping to “today's folder”, floating processing of the information surrounded by the finger is performed (steps S910, S960, and S970).

「今日のフォルダ」へのドラッグ・アンド・ドロップである場合、それがメモ内容であれば、メモ内容をイメージデータとして、格納日時を付してフォルダファイルに格納する(ステップS920、S930)。   In the case of drag and drop to “today's folder”, if it is a memo content, the memo content is stored as image data in a folder file with the storage date and time (steps S920 and S930).

それがフローティング化されたデータであれば、フローティング化されたデータに格納日時を付してフォルダファイルに格納する(ステップS940、S950)。   If it is floating data, the storage date is added to the floating data and stored in a folder file (steps S940 and S950).

図36は入力マークへのタッチを検出した場合の処理(図34のステップS100)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 36 is a flowchart for explaining detailed processing contents of the processing (step S100 in FIG. 34) when the touch to the input mark is detected.

ユーザーの指が検索用タグ上に接触している場合には検索処理を行う(ステップS210、S220)。   When the user's finger is in contact with the search tag, search processing is performed (steps S210 and S220).

ユーザーの指がしおり挿入用矢印マーク上に接触している場合にはしおり挿入処理を行う(ステップS230、S240)。   If the user's finger is in contact with the bookmark insertion arrow mark, bookmark insertion processing is performed (steps S230 and S240).

ユーザーの指がしおりマーク上に接触している場合にはしおり挿入箇所参照処理を行う(ステップS250、S260)。   If the user's finger is in contact with the bookmark mark, bookmark insertion location reference processing is performed (steps S250 and S260).

ユーザーの指が連続ページめくり用マーク上に接触している場合には連続ページめくり処理を行う(ステップS270、S280)。   If the user's finger is in contact with the continuous page turning mark, continuous page turning processing is performed (steps S270 and S280).

図37は地図操作の処理(図34のステップS130)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 37 is a flowchart for explaining detailed processing contents of the map operation processing (step S130 in FIG. 34).

2点間の距離の変化を演算し(ステップS310)、2点間の距離が拡大している場合には、拡大距離に応じた拡大処理を行う(ステップS320、S330)。   A change in the distance between the two points is calculated (step S310), and if the distance between the two points is enlarged, an enlargement process corresponding to the enlarged distance is performed (steps S320 and S330).

2点間の距離が縮小している場合には、縮小距離に応じた縮小処理を行う(ステップS340、S350)。   When the distance between the two points is reduced, a reduction process corresponding to the reduction distance is performed (steps S340 and S350).

2点間の距離が変化していない場合には、回転処理を行う(ステップS360、S370)。   If the distance between the two points has not changed, a rotation process is performed (steps S360 and S370).

図38は検索処理(図36のステップS220)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 38 is a flowchart for explaining detailed processing contents of the search processing (step S220 in FIG. 36).

ユーザーの指の2点目の接触が検出されない場合は、ユーザーの指が接触している検索用タグの検索条件を満たす情報が記載されているページを検索し、その先頭ページを表示する通常の検索処理を行う(ステップS410、S420)。   If the second contact of the user's finger is not detected, a page containing information that satisfies the search conditions of the search tag that the user's finger is touching is searched, and the first page is displayed. Search processing is performed (steps S410 and S420).

ユーザーの指の2点目の接触が検出され、それが検索用タグ上への接触である場合には、2つの検索用タグの検索条件の論理積が予定されている場合には、2つの検索条件の論理積にあたる条件を満たす情報が記載されているページを検索し、その先頭ページを表示部に表示する論理積検索処理を行う(ステップS440、S450)。   When the second contact of the user's finger is detected and the contact is on the search tag, if the AND of the search conditions of the two search tags is scheduled, A page in which information satisfying the condition corresponding to the logical product of the search conditions is searched is searched, and a logical product search process for displaying the first page on the display unit is performed (steps S440 and S450).

図39はページめくり処理(図34のステップS180)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 39 is a flowchart for explaining detailed processing contents of the page turning processing (step S180 in FIG. 34).

ユーザーの指の接触位置が画面上の左から右へ移動している場合、表示されている本が縦書きの本の場合には、次ページの画像に更新され、横書きの本の場合には前ページの画像に更新される(ステップS510、S520、S530、S540)。   When the contact position of the user's finger moves from left to right on the screen, if the displayed book is a vertical book, it is updated to the next page image, and if it is a horizontal book, The image of the previous page is updated (steps S510, S520, S530, S540).

ユーザーの指の接触位置が画面上の右から左へ移動している場合、表示されている本が縦書きの本の場合には、前ページの画像に更新され、横書きの本の場合には次ページの画像に更新される(ステップS550、S560、S570、S580)。   When the contact position of the user's finger moves from right to left on the screen, if the displayed book is a vertical book, it is updated to the previous page image, and if it is a horizontal book, The next page image is updated (steps S550, S560, S570, and S580).

図40は連続ページめくり処理(図36のステップS280)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 40 is a flowchart for explaining detailed processing contents of the continuous page turning processing (step S280 in FIG. 36).

ユーザーの指の接触圧力を検出し、所定の圧力値以上で無ければ、連続ページめくりを中止する(ステップS610、S620、S630)。   The contact pressure of the user's finger is detected, and if it is not equal to or higher than the predetermined pressure value, continuous page turning is stopped (steps S610, S620, S630).

所定の圧力値以上であれば、以下のように連続ページめくりを行う。   If the pressure value is equal to or higher than the predetermined pressure value, continuous page turning is performed as follows.

即ち、ユーザーの指の接触位置が画面上右端の本の厚みであれば、表示されている本が縦書きの本の場合には、前ページ方向に連続してページめくりを行い、横書きの本の場合には次ページ方向に連続してページめくりを行う(ステップS640、S650、S660、S670)。   That is, if the contact position of the user's finger is the thickness of the rightmost book on the screen, if the displayed book is a vertically written book, the page is continuously turned in the previous page direction, and the horizontally written book In this case, page turning is continuously performed in the next page direction (steps S640, S650, S660, S670).

また、ユーザーの指の接触位置が画面上左端の本の厚みであれば、表示されている本が縦書きの本の場合には、次ページ方向に連続してページめくりを行い、横書きの本の場合には前ページ方向に連続してページめくりを行う(ステップS640、S680、S690、S700)。   If the contact position of the user's finger is the thickness of the book at the left end of the screen, if the displayed book is a vertically written book, the page will be turned continuously in the direction of the next page, and the horizontally written book will be displayed. In this case, page turning is continuously performed in the previous page direction (steps S640, S680, S690, and S700).

図41は各種アイコン処理(図34のステップS80)の詳細な処理内容を説明するためのフローチャート図である。   FIG. 41 is a flowchart for explaining detailed processing contents of various icon processing (step S80 in FIG. 34).

カメラアイコン上への接触である場合には、図23に示すようなカメラ撮影用の操作画面を表示し撮影モードに移行する。(ステップS810、S820)。以下撮影モード中に入力があった場合には、図33のステップS30の撮影処理が実行される。   If the touch is on the camera icon, a camera shooting operation screen as shown in FIG. 23 is displayed and the mode is shifted to the shooting mode. (Steps S810 and S820). Hereinafter, when there is an input during the shooting mode, the shooting process of step S30 in FIG. 33 is executed.

メモアイコン上への接触である場合には、図26に示すようなメモ入力画面を表示しメモ入力モードに移行する。(ステップS830、S840)。以下メモ入力モード中に入力があった場合には、図33のステップS50のメモ入力処理が実行される。   If the touch is on the memo icon, a memo input screen as shown in FIG. 26 is displayed and the memo input mode is entered. (Steps S830 and S840). Hereinafter, when there is an input during the memo input mode, the memo input process of step S50 of FIG. 33 is executed.

今日のフォルダアイコン上への接触である場合には、図28に示すような今日のフォルダ画面を表示しフォルダ参照モードに移行する。(ステップS850、S860)。以下フォルダ参照モード中に入力があった場合には、図33のステップS54のフォルダ参照処理が実行される。   If the touch is on the today's folder icon, the today's folder screen as shown in FIG. 28 is displayed and the mode shifts to the folder reference mode. (Steps S850 and S860). When there is an input during the folder reference mode, the folder reference process in step S54 in FIG. 33 is executed.

2.8 その他種々の実施の形態
なお、本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
2.8 Other Various Embodiments The present invention is not limited to this embodiment, and various modifications can be made within the scope of the gist of the present invention.

本実施の形態では、親指と人差し指を使用して操作入力を行う場合を例にとり説明したがこれに限られない。例えば、親指と中指等でもよいし、その他の指の組み合わせでもよい。   In this embodiment, the case where operation input is performed using the thumb and index finger has been described as an example, but the present invention is not limited to this. For example, the thumb and middle finger may be used, or other combinations of fingers may be used.

本実施の形態では、電子ブックの場合を例に取り説明したため、検索項目の論理積となる検索情報が記載された先頭ページが表示されたが、電子ブック以外の携帯情報端末等の場合ページの概念がない場合もある。従って、ページに関係なく情報単位表示する場合でもよい。   In this embodiment, the case of an electronic book has been described as an example, so that the first page in which search information that is the logical product of search items is displayed is displayed. However, in the case of a portable information terminal other than an electronic book, There may be no concept. Therefore, information units may be displayed regardless of the page.

また、本実施の形態では、2つの検索項目を同時に指で接触すると、当該2つ項目の論理積となる検索情報を出力する場合を例にとり説明したがこれに限られない。例えば3つ以上の検索項目を同時に指で接触して、当該3つ以上の項目の論理積となる検索情報を出力する場合でもよい。   In the present embodiment, the case where two search items are simultaneously touched with a finger and search information that is the logical product of the two items is output has been described as an example. However, the present invention is not limited to this. For example, three or more search items may be simultaneously touched with a finger, and search information that is a logical product of the three or more items may be output.

また、同時に指で接触した場合に限られず、所定時間内に指で接触した場合も論理積となる検索情報を出力するようにしてもよい。   Further, the search information is not limited to the case of touching with a finger at the same time, and search information that is a logical product may be output when touching with a finger within a predetermined time.

また、同時又は所定時間内に指で接触された複数の検索項目に対応する検索条件と論理積の関係を有する情報がない場合には、論理和及び論理和と論理積の組み合わせの少なくとも一方を有する情報を表示部に出力する手段を更に含むよう構成してもよい。   In addition, when there is no information having a logical product relationship with a search condition corresponding to a plurality of search items touched with a finger at the same time or within a predetermined time, at least one of logical sum and a combination of logical sum and logical product is determined. You may comprise so that the means to output the information which it has to a display part may further be included.

例えば、「南インド」「宿泊」と「食事」のタグを同時にタッチした場合に、南インドの宿泊情報と南インドの食事情報を出力するような構成にしてもよい。   For example, when the tags “South India”, “Accommodation” and “Meals” are touched at the same time, the South India accommodation information and South India meal information may be output.

特にページに関係なく情報単位で表示する場合、係る構成をとると有効である。
例えば、電話番号が格納された電子ブックや携帯情報端末おいて、電話番号単位で検索出力可能な場合、目次欄で電話番号の検索項目を複数指定すると、その指定に応じて自動的に論理和や論理積の関係を有する電話番号をリストアップするような場合も含む。即ち例えば「A地区」と「病院」というように「A地区の病院」という共通集合が予定された関係にある項目が指定された場合には、論理積の関係にある情報を検索出力し、「A地区」と「B地区」や、「病院」と「図書館」というように共通集合が予定されていない関係にある項目が指定された場合には論理和の関係にある情報を検索出力するよう構成してもよい。
In particular, when the information is displayed regardless of the page, it is effective to take such a configuration.
For example, if an electronic book or a portable information terminal that stores phone numbers can be searched and output by phone number, specifying multiple phone number search items in the table of contents automatically performs an OR operation. And the case of listing telephone numbers having a logical product relationship. That is, for example, when an item in a common set of “A hospital in A district” such as “A district” and “hospital” is designated, information in a logical product relationship is retrieved and output, When items that are not related to a common set such as “A district” and “B district” or “hospital” and “library” are designated, information having a logical sum is retrieved and output. You may comprise.

また、本実施の形態では、メモ入力画面、写真モード画面など全画面として例示されているが、ウィンドウによる部分表示であってもかまわない。   In this embodiment, the screen is illustrated as a full screen such as a memo input screen or a photo mode screen, but a partial display using a window may be used.

10 指動作検出部 20 処理部 30 操作内容判断部 40 地図操作処理部
42 拡大処理部 44 縮小処理部 46 回転処理部 48 スクロール処理部
50 画像生成部 60 表示部 70 情報記憶媒体 1010 CPU(中央処理ユニット) 1020 メモリ 1030 ディスプレイコントローラ
1040 タッチパネルコントローラ 1050 バス 1060 タッチパネル
1070 ディスプレイ 1080 ディスクドライブコントローラ
1090 ディスクドライブ 1100 処理部 1110 指動作検出部
1120 入力部(ペン) 1130 撮影部(カメラ) 1140 処理内容決定部
1150 各種処理部 1160 地図操作処理部 1162 拡大処理部
1164 縮小処理部 1166 回転処理部 1168 スクロール処理部
1170 検索処理部 1172 通常の検索処理部 1174 論理積検索処理部
1182 ページめくり処理部 1184 連続ページめくり処理部
1186 しおり挿入処理部 1188 しおり挿入箇所参照処理部
1192 フローティング処理部 1194 撮影処理部 1196 メモ入力処理部
1198 フォルダ参照処理部 1200 画像生成部 1220 情報記憶媒体
1230 記憶部 1232 フォルダファイル 1240 表示部
DESCRIPTION OF SYMBOLS 10 Finger motion detection part 20 Processing part 30 Operation content judgment part 40 Map operation processing part 42 Enlargement processing part 44 Reduction processing part 46 Rotation processing part 48 Scroll processing part 50 Image generation part 60 Display part 70 Information storage medium 1010 CPU (Central processing) Unit) 1020 Memory 1030 Display controller 1040 Touch panel controller 1050 Bus 1060 Touch panel 1070 Display 1080 Disk drive controller 1090 Disk drive 1100 Processing unit 1110 Finger motion detection unit 1120 Input unit (pen) 1130 Imaging unit (camera) 1140 Processing content determination unit 1150 Various Processing unit 1160 Map operation processing unit 1162 Enlargement processing unit 1164 Reduction processing unit 1166 Rotation processing unit 1168 Scroll processing unit 1170 Search processing unit 11 72 Normal search processing unit 1174 AND search processing unit 1182 Page turning processing unit 1184 Continuous page turning processing unit 1186 Bookmark insertion processing unit 1188 Bookmark insertion location reference processing unit 1192 Floating processing unit 1194 Shooting processing unit 1196 Memo input processing unit 1198 Folder Reference processing unit 1200 Image generation unit 1220 Information storage medium 1230 Storage unit 1232 Folder file 1240 Display unit

Claims (7)

地図画像を表示可能な表示部を含む携帯情報機器であって、
地図画像が表示された表示部に接触させた指の移動履歴を検出する指動作検出手段と、
前記指の移動履歴にもとづき、地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作が入力されたと判断する操作内容判断手段と、
前記判断に基づき、表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成する地図画像生成手段とを含むことを特徴とする携帯情報機器。
A portable information device including a display unit capable of displaying a map image,
Finger movement detecting means for detecting a movement history of a finger brought into contact with the display unit on which the map image is displayed;
Operation content determination means for determining that at least one operation of rotation, enlargement, reduction and scrolling of the map image is input based on the movement history of the finger;
A portable information device comprising: map image generation means for generating a map image obtained by performing at least one of rotation, enlargement, reduction, and scrolling on the map image displayed on the display unit based on the determination.
請求項1において、
前記操作内容判断手段が、
前記指の移動履歴に基づき、地図画像の回転量、拡大量、縮小量及びスクロール量の少なくとも1つの操作量を決定し、
前記地図画像生成手段が、
決定された操作量に基づき表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成することを特徴とする携帯情報機器。
In claim 1,
The operation content determination means is
Based on the movement history of the finger, determine at least one operation amount of the rotation amount, enlargement amount, reduction amount and scroll amount of the map image,
The map image generating means
A portable information device that generates a map image obtained by performing at least one of rotation, enlargement, reduction, and scrolling on a map image displayed on a display unit based on a determined operation amount.
請求項1乃至2のいずれかにおいて、
前記指動作検出手段が、
地図画像が表示された表示部に接触させた2本の指を遠ざける動作を検出した場合には、
前記操作内容判断手段が、
地図画像の拡大操作が入力されたと判断し、
前記地図画像生成手段が、
拡大された地図画像を生成することを特徴とする携帯情報機器。
In any one of Claims 1 thru | or 2.
The finger motion detection means is
If it detects an action to move two fingers away from the display part where the map image is displayed,
The operation content determination means is
It is determined that a map image enlargement operation has been entered,
The map image generating means
A portable information device that generates an enlarged map image.
請求項1乃至3のいずれかにおいて、
前記指動作検出手段が、
地図画像が表示された表示部に接触させた2本の指を近づける動作を検出した場合には、
前記操作内容判断手段が、
地図画像の縮小操作が入力されたと判断し、
前記地図画像生成手段が、
縮小された地図画像を生成することを特徴とする携帯情報機器。
In any one of Claims 1 thru | or 3,
The finger motion detection means is
If it detects an action to bring two fingers that are in contact with the display where the map image is displayed,
The operation content determination means is
Determines that a map image reduction operation has been entered,
The map image generating means
A portable information device that generates a reduced map image.
請求項1乃至4のいずれかにおいて、
前記指動作検出手段が、
地図画像が表示された表示部に接触させた1本の指を軸に表示部に接触させた他の1本の指を回転させる動作を検出した場合には、
前記操作内容判断手段が、
地図画像の回転操作が入力されたと判断し、
前記地図画像生成手段が、
回転された地図画像を生成することを特徴とする携帯情報機器。
In any one of Claims 1 thru | or 4,
The finger motion detection means is
In the case of detecting the operation of rotating the other finger that is in contact with the display unit around the one finger that is in contact with the display unit on which the map image is displayed,
The operation content determination means is
Determines that a map image rotation operation has been entered,
The map image generating means
A portable information device that generates a rotated map image.
請求項1乃至5に記載の携帯情報機器であって、
電子ブックとして使用されることを特徴とする携帯情報機器。
The portable information device according to claim 1, wherein
A portable information device used as an electronic book.
地図画像を表示可能な携帯情報機器及び電子ブックの少なくとも一方としてコンピュー
タを機能させるプログラムが記憶された情報記憶媒体であって、
地図画像が表示された表示部に接触させた指の移動履歴を検出するための手段と、
前記指の移動履歴にもとづき、地図画像の回転、拡大、縮小及びスクロールの少なくとも1つの操作が入力されたと判断するための手段と、前記判断に基づき、表示部に表示された地図画像に回転、拡大、縮小及びスクロールの少なくとも1つの操作を施した地図画像を生成するための手段と、
してコンピュータを機能させるためのプログラムが記憶されていることを特徴とする情報記憶媒体。
An information storage medium storing a program for causing a computer to function as at least one of a portable information device and an electronic book capable of displaying a map image,
Means for detecting a movement history of a finger touching the display unit on which the map image is displayed;
Based on the movement history of the finger, a means for determining that at least one operation of rotation, enlargement, reduction and scrolling of the map image has been input, and rotation based on the determination, the map image displayed on the display unit, Means for generating a map image subjected to at least one operation of enlargement, reduction and scrolling;
And an information storage medium storing a program for causing the computer to function.
JP2012233238A 2012-10-22 2012-10-22 Portable information apparatus, electronic book and program Withdrawn JP2013041610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012233238A JP2013041610A (en) 2012-10-22 2012-10-22 Portable information apparatus, electronic book and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012233238A JP2013041610A (en) 2012-10-22 2012-10-22 Portable information apparatus, electronic book and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011209363A Division JP2012018687A (en) 2011-09-26 2011-09-26 Portable information apparatus and information storage medium

Publications (2)

Publication Number Publication Date
JP2013041610A true JP2013041610A (en) 2013-02-28
JP2013041610A5 JP2013041610A5 (en) 2013-04-11

Family

ID=47889882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012233238A Withdrawn JP2013041610A (en) 2012-10-22 2012-10-22 Portable information apparatus, electronic book and program

Country Status (1)

Country Link
JP (1) JP2013041610A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171473A (en) * 1994-12-20 1996-07-02 Hitachi Ltd Display device and method for classifying and displaying picture data therefor
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171473A (en) * 1994-12-20 1996-07-02 Hitachi Ltd Display device and method for classifying and displaying picture data therefor
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium

Similar Documents

Publication Publication Date Title
JP4542637B2 (en) Portable information device and information storage medium
JP5111003B2 (en) Portable information device, electronic book, information storage medium, portable information device control method, and electronic book control method
JP5075473B2 (en) Portable information device and information storage medium
US20240272788A1 (en) Electronic text manipulation and display
JP2000163444A (en) Portable information device and information storage medium
JP2000163193A (en) Portable information equipment and information storage medium
KR102352683B1 (en) Apparatus and method for inputting note information into an image of a photographed object
JP2000163443A (en) Portable information device and information storage medium
US20140189593A1 (en) Electronic device and input method
JP2010134938A (en) Portable information apparatus and information storage medium
JP2012018687A (en) Portable information apparatus and information storage medium
JP2016001486A (en) Portable information apparatus, electronic book, and information storage medium
JP5835592B2 (en) Portable information device, electronic book and information storage medium
JP5764542B2 (en) Portable information device, electronic book and information storage medium
JP2013050972A (en) Portable information apparatus, electronic book and program
AU2018202847B2 (en) Electronic text manipulation and display
JP2013041610A (en) Portable information apparatus, electronic book and program
JP2013058224A (en) Portable information apparatus, electronic book, program, and information storage medium
JP2013050971A (en) Portable information apparatus, server, electronic book, program and information storage medium
JP2013041609A (en) Portable information apparatus, server, electronic book, program and information storage medium
JP2013041608A (en) Portable information apparatus, server, electronic book, program and information storage medium
JP2013041607A (en) Portable information apparatus, server, electronic book, program and information storage medium
AU2020213353B2 (en) Electronic text manipulation and display
WO2015107617A1 (en) Electronic device, control method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130612

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130802