JP2015046041A - Image display device, control method of image display device, and computer program - Google Patents

Image display device, control method of image display device, and computer program Download PDF

Info

Publication number
JP2015046041A
JP2015046041A JP2013177154A JP2013177154A JP2015046041A JP 2015046041 A JP2015046041 A JP 2015046041A JP 2013177154 A JP2013177154 A JP 2013177154A JP 2013177154 A JP2013177154 A JP 2013177154A JP 2015046041 A JP2015046041 A JP 2015046041A
Authority
JP
Japan
Prior art keywords
display
page
displayed
objects
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013177154A
Other languages
Japanese (ja)
Inventor
弘 角尾
Hiroshi Sumio
弘 角尾
洋一 橿渕
Yoichi Kashibuchi
洋一 橿渕
元気 池田
Motoki Ikeda
元気 池田
山本 雅仁
Masahito Yamamoto
雅仁 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013177154A priority Critical patent/JP2015046041A/en
Publication of JP2015046041A publication Critical patent/JP2015046041A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device that can automatically designate a display area of a page according to the preference of a user.SOLUTION: An image display device includes display means for displaying a page including a plurality of objects on a screen, designation means for designating objects unnecessary to be displayed through operation on the screen, and determination means for determining objects identical to the object unnecessary to be displayed designated by the designation means and objects similar to the objects unnecessary to be displayed, where the display means displays, on the screen, objects except the objects unnecessary to be displayed, the objects identical to the objects unnecessary to be displayed, and the objects similar to the objects unnecessary to be displayed, which are determined by the determination means.

Description

本発明は画像表示装置、画像表示装置の制御方法およびコンピュータプログラムに関する。   The present invention relates to an image display device, a control method for the image display device, and a computer program.

携帯端末やタブレットなどの情報処理装置を用いてデジタル化した文書を画像データとして表示する方法が提案されている。しかしながら、小さな表示画面を備える装置でページの画像データ(ページ画像)全体を表示すると視認性が劣る。そこで、例えば、ページ画像の拡大時にレイアウトを解析し、ページ画像に含まれる文字オブジェクトを認識し、文字オブジェクトを表示画面の表示領域に合わせて文字単位で折り返して表示する表示方法が提案されている。特許文献1は、表示領域上に表示されるボタンをユーザが押下することによって、文章の全体が表示領域に表示できるように縮小した縮小画像と、文字オブジェクトを文字単位で折り返した折り返し画像のいずれかを表示する表示装置を開示している。また、この表示装置は、表示画像の切り替えを行わず、縮小画像と折り返し画像を同時に表示領域上に表示する。   A method of displaying a digitized document as image data using an information processing apparatus such as a portable terminal or a tablet has been proposed. However, when the entire page image data (page image) is displayed on an apparatus having a small display screen, the visibility is poor. For this reason, for example, a display method has been proposed in which a layout is analyzed when a page image is enlarged, a character object included in the page image is recognized, and the character object is displayed by being folded back in character units in accordance with the display area of the display screen. . Japanese Patent Application Laid-Open No. 2004-133867 describes either a reduced image that is reduced so that the entire sentence can be displayed in the display area when the user presses a button displayed on the display area, or a folded image in which a character object is folded in character units. A display device for displaying the above is disclosed. In addition, this display device displays the reduced image and the folded image simultaneously on the display area without switching the display image.

この方法によれば、文字オブジェクトを拡大して表示領域に折り返し表示した場合においても、上下、または左右の一方向にのみスクロールすれば文字オブジェクト内の文字を読むことができる。さらに、明示的なユーザ指示による二つの表示画像の切り替え、もしくは表示領域上への同時表示によって、文書全体を俯瞰しながら、文字オブジェクト内の文字を読むことができる。さらに、特許文献1には、一次元的な操作(右矢印キーの操作)によって、文書画像の読み順に従って二次元的に画面をスクロールすることで、文書画像内の各領域を順番に画面上に等倍表示する方法も開示されている。   According to this method, even when the character object is enlarged and folded and displayed in the display area, the character in the character object can be read by scrolling only in one direction, up and down or left and right. Furthermore, by switching between two display images according to an explicit user instruction or simultaneously displaying on the display area, it is possible to read the characters in the character object while overlooking the entire document. Further, Patent Document 1 discloses that each area in a document image is sequentially displayed on the screen by scrolling the screen two-dimensionally according to the reading order of the document image by a one-dimensional operation (operation of the right arrow key). A method of displaying the same size is also disclosed.

また、特許文献2には、ページのレイアウト構造が定義されているページ情報を表示する際、ユーザが関心領域のオブジェクトを選択することで、ページ上に関心領域を拡大し重畳して表示する方法が開示されている。これにより、ユーザは、手軽に、ページの中で関心のある一部分の領域を拡大して見やすく表示することが可能となる。   Further, in Patent Document 2, when displaying page information in which a layout structure of a page is defined, a method in which a user selects an object of a region of interest so that the region of interest is enlarged and superimposed on the page. Is disclosed. As a result, the user can easily enlarge a part of the region of interest in the page and display it easily.

特許第4094512号公報Japanese Patent No. 4094512 特表2010−504588号公報Special table 2010-504588 gazette

しかしながら、スワイプ操作による任意の方向へのスクロールとピンチアウト/ピンチイン操作による拡大縮小操作によって、ユーザが表示させたい領域である関心領域を指示し、ページ画像を読み進める場合、以下の課題があった。すなわち、ページ内には、どのページでも変化の無い、会社のロゴや、デザイン的な要素などが存在する場合があり、これらは、ユーザにとって関心のないページ内のレイアウト要素(以下、修飾オブジェクトとする)でありユーザが読みたい部分では無いことが多い。また、ユーザが読みたいコンテンツを読みやすく希望の大きさで見るためには、ページを切り替えるごとに、画面内に表示される画像の大きさや位置をユーザ自身が手動で調整する必要があった。   However, when scrolling in an arbitrary direction by swipe operation and enlarging / reducing operation by pinch-out / pinch-in operation to indicate a region of interest that is a region that the user wants to display and read a page image, there are the following problems . In other words, there may be company logos and design elements that do not change on any page, and these are the layout elements in the page that are not of interest to the user (hereinafter referred to as modifier objects). In many cases, this is not the part that the user wants to read. In addition, in order to view the content that the user wants to read easily and in a desired size, the user himself has to manually adjust the size and position of the image displayed on the screen each time the page is switched.

また、特許文献1にあるように一次元的な操作(右矢印キーの操作)によって、文書画像の読み順に従って二次元的に画面をスクロールする場合は次のような課題があった。すなわち、キー操作で文書画像内の各領域を順番に読む際に、各ページで変化の無い、もしくは読む必要のないレイアウト要素も、必ず順番に表示されてしまう。そのためユーザはその度に見る必要の無い要素を読む必要があった。   Further, as described in Patent Document 1, there is the following problem when the screen is scrolled two-dimensionally according to the reading order of the document image by a one-dimensional operation (right arrow key operation). That is, when each area in the document image is read sequentially by key operation, layout elements that do not change or do not need to be read on each page are always displayed in order. Therefore, the user has to read elements that do not need to be seen each time.

さらに、元のページ画像を、画像表示装置で表示しようとした場合に、文字が小さい等の理由で視認性が悪いなどの理由で、拡大して表示したい場合でも、修飾オブジェクトも含め、画像全体を表示するために、全体が小さく表示されるという課題もあった。そしてページを切り替える毎に必要以上に小さく表示されてしまい、各ページ毎にユーザは都合のいい大きさに拡大し位置を調整し文書を読む必要があるなどの不都合があった。   Furthermore, when the original page image is to be displayed on an image display device, even if it is desired to enlarge and display it for reasons such as poor visibility due to small characters etc. There is also a problem that the entire screen is displayed in a small size. Each time the pages are switched, the size is displayed smaller than necessary. For each page, the user needs to enlarge the page to a convenient size, adjust the position, and read the document.

本発明は、上述した課題の内少なくとも1つの課題を解決するものである。すなわち、本発明は、ユーザの好みに応じてページの表示領域を自動で指定することが可能な画像表示装置を提供することを目的とする。   The present invention solves at least one of the above-described problems. That is, an object of the present invention is to provide an image display device that can automatically specify a display area of a page according to a user's preference.

上記課題を解決するために、本発明の画像表示装置は、複数のオブジェクトを含むページを画面に表示する表示手段と、画面上の操作により表示不要のオブジェクトを指定する指定手段と、指定手段で指定された表示不要のオブジェクトと同一のオブジェクトおよび表示不要のオブジェクトに類似するオブジェクトを判定する判定手段と、を備え、表示手段は、判定手段で判定された表示不要のオブジェクト、表示不要のオブジェクトと同一のオブジェクト、表示不要のオブジェクトに類似するオブジェクトを除くオブジェクトを画面上に表示することを特徴とする。   In order to solve the above problems, an image display device according to the present invention includes a display unit that displays a page including a plurality of objects on a screen, a designation unit that designates an object that is not required to be displayed by an operation on the screen, and a designation unit. Determining means for determining an object that is the same as the specified display-unnecessary object and an object similar to the display-unnecessary object, and the display means includes the display-unnecessary object and the display-unnecessary object determined by the determination means An object other than the same object or an object similar to an object that does not need to be displayed is displayed on the screen.

本発明によれば、ユーザの好みに応じてページの表示領域を自動で指定することが可能な画像表示装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image display apparatus which can designate the display area of a page automatically according to a user's liking can be provided.

本発明に係る画像処理システムを示すブロック図である。1 is a block diagram showing an image processing system according to the present invention. 図1のMFPの機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the MFP in FIG. 1. アプリケーション画像データ生成のフローチャートである。It is a flowchart of application image data generation. スキャナからデータをビットマップにする処理フローである。It is a processing flow for converting data from a scanner into a bitmap. PCからデータをビットマップにする処理フローである。It is the processing flow which makes data bitmap from PC. メタ情報を付加する処理フローである。It is a processing flow to add meta information. オブジェクト分割の一例である。It is an example of object division. オブジェクト分割時の各属性のブロック情報および入力ファイル情報である。Block information and input file information of each attribute at the time of object division. ベクトル化のフローチャートである。It is a flowchart of vectorization. ベクトル化の処理における角抽出の処理を示す図である。It is a figure which shows the process of the corner extraction in the process of vectorization. ベクトル化の処理における輪郭線まとめの処理を示す図である。It is a figure which shows the process of the outline grouping in the process of vectorization. 輪郭に基づくベクトル化のフローチャート。Flow chart of vectorization based on contour. ベクトル化処理結果のデータを示すマップである。It is a map which shows the data of a vectorization process result. アプリケーション画像データ生成のフローチャートである。It is a flowchart of application image data generation. 文書構造ツリー生成のフローチャートである。It is a flowchart of document structure tree generation. 文書構造ツリー生成処理の対象となる文書を示す図である。It is a figure which shows the document used as the object of a document structure tree production | generation process. 図16の文書構造ツリーを示す図である。It is a figure which shows the document structure tree of FIG. SVG(Scalable Vector Graphics)形式の一例である。It is an example of a SVG (Scalable Vector Graphics) format. 携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of a portable terminal. 携帯端末のソフトウェアモジュール構成を示すブロック図である。It is a block diagram which shows the software module structure of a portable terminal. ジェスチャイベント名の一覧と、各イベントが発生したときに送信する情報を示した図である。It is a figure showing a list of gesture event names and information to be transmitted when each event occurs. 携帯端末がアプリケーション画像データを受信した際のフローチャートである。It is a flowchart when a portable terminal receives application image data. 携帯端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable terminal. アプリケーション画像データの操作制御に係わるソフトウェアモジュールの構成を示すブロック図である。It is a block diagram which shows the structure of the software module regarding the operation control of application image data. モード切替処理のフローチャートである。It is a flowchart of a mode switching process. 携帯端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable terminal. 部分領域表示範囲決定処理のフローチャートである。It is a flowchart of a partial area display range determination process. 次選択処理のフローチャートである。It is a flowchart of the next selection process. 前選択処理のフローチャートである。It is a flowchart of a pre-selection process. 移動範囲制限処理のフローチャートである。It is a flowchart of a movement range restriction process. 縮小時表示モード切替処理のフローチャートである。It is a flowchart of a display mode switching process at the time of reduction. オブジェクト選択処理のフローチャートである。It is a flowchart of an object selection process. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. 修飾オブジェクトリストを登録するフローチャートであるIt is a flowchart which registers a decoration object list. 関心領域表示モードに切り替えるフローチャートでるIt is a flowchart to switch to the region of interest display mode 修飾オブジェクトを登録する登録リストと、登録リスト情報の情報を示している。A registration list for registering a decoration object and information on registration list information are shown. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. 携帯情報端末のタッチUIの画面表示例である。It is the example of a screen display of touch UI of a portable information terminal. ページの描画範囲決定のフローチャートである。It is a flowchart of the drawing range determination of a page. オブジェクトの相関度から、同等のオブジェクトか否かを判定するフローチャートである。It is a flowchart which determines whether it is an equivalent object from the correlation degree of an object. オブジェクトが修飾オブジェクトと同等か否かを判定するフローチャートである。It is a flowchart which determines whether an object is equivalent to a decoration object. 修飾オブジェクトを登録する際のフローチャートであるIt is a flowchart at the time of registering a decoration object ページの描画範囲決定のフローチャートである。It is a flowchart of the drawing range determination of a page. オブジェクトNとKの相関係数Sを算出するフローチャートである。5 is a flowchart for calculating a correlation coefficient S between objects N and K. オブジェクトNとKの相関係数Sを算出するフローチャートである。5 is a flowchart for calculating a correlation coefficient S between objects N and K. 新規のページを表示する際の携帯情報端末のタッチUIの画面表示例である。It is a screen display example of the touch UI of the portable information terminal when displaying a new page.

以下、本発明を実施するための形態について図面等を参照して説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本発明を適用した画像処理システムの構成を示すブロック図である。図1に示すように、画像処理システムは、MFP(画像表示装置)100、クライアントPC101、プロキシサーバ103、文書管理サーバ106、文書管理サーバ106のためのデータベース105で構成される。MFP100は、複数種類の機能(複写機能、印刷機能、送信機能等)を実現する複合機である。クライアントPC101または携帯端末107は、例えば、印刷データをMFP100へ送信することで、その印刷データに基づく印刷物をMFP100に印刷させることが可能である。携帯端末上述した各装置は、無線または有線でLAN102に接続されている。LAN(Local Area Network)102は、また、プロキシサーバ103を介してネットワーク104に接続されている。なお、図1に示す構成は一例であり、同様の構成要素を有する複数のオフィスがネットワーク104上に接続されていても良い。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an image processing system to which the present invention is applied. As shown in FIG. 1, the image processing system includes an MFP (image display apparatus) 100, a client PC 101, a proxy server 103, a document management server 106, and a database 105 for the document management server 106. The MFP 100 is a multifunction device that realizes a plurality of types of functions (copying function, printing function, transmission function, etc.). For example, the client PC 101 or the mobile terminal 107 can cause the MFP 100 to print a print based on the print data by transmitting the print data to the MFP 100. Mobile terminal Each device described above is connected to the LAN 102 wirelessly or by wire. A LAN (Local Area Network) 102 is also connected to the network 104 via a proxy server 103. The configuration illustrated in FIG. 1 is an example, and a plurality of offices having similar components may be connected on the network 104.

クライアントPC101、プロキシサーバ103はそれぞれ、汎用コンピュータに搭載される標準的な構成要素を備える。例えば、クライアントPC101、プロキシサーバ103は、CPU、RAM、ROM、ハードディスク、ネットワークI/F、ディスプレイ、キーボード、マウス等を備える。CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。また、ネットワーク104は、典型的にはインターネットやLANやWANや電話回線、専用デジタル回線、ATMやフレームリレー回線、通信衛星回線、ケーブルテレビ回線、データ放送用無線回線等のいずれかで実現されている。WANは、Wide Area Networkの略称である。もちろん、それらの組み合わせにより実現されるいわゆる通信ネットワークであっても良いことは言うまでもなく、データの送受信が可能であれば良い。   Each of the client PC 101 and the proxy server 103 includes standard components mounted on a general-purpose computer. For example, the client PC 101 and the proxy server 103 include a CPU, RAM, ROM, hard disk, network I / F, display, keyboard, mouse, and the like. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory. The network 104 is typically realized by any of the Internet, LAN, WAN, telephone line, dedicated digital line, ATM, frame relay line, communication satellite line, cable TV line, data broadcasting wireless line, and the like. Yes. WAN is an abbreviation for Wide Area Network. Needless to say, a so-called communication network realized by a combination of these may be used as long as data can be transmitted and received.

図2は、図1に示すMFP100の機能構成を示すブロック図である。図2に示すように、MFP100は、画像読み取り部110、記憶装置(以下、BOXとも呼ぶ)111、記録装置112、データ処理装置115、入力装置113、表示装置116、ネットワークI/F114で構成される。   FIG. 2 is a block diagram showing a functional configuration of MFP 100 shown in FIG. As shown in FIG. 2, the MFP 100 includes an image reading unit 110, a storage device (hereinafter also referred to as a BOX) 111, a recording device 112, a data processing device 115, an input device 113, a display device 116, and a network I / F 114. The

画像読み取り部110は、図示しないAuto Document Feeder(以下、ADF)を有し、束状の或いは1枚の原稿の画像を光源で照射し、反射画像をレンズで固体撮像素子上に結像する。固体撮像素子は所定解像度(例えば600dpi)および所定輝度レベル(例えば8ビット)の画像読み取り信号を生成し、画像読み取り信号からラスターデータの画像データを生成する。データ処理装置115は、画像読み取り部110が生成したビットマップ画像データを後述するスキャン画像処理を行うことにより記録信号に変換する。   The image reading unit 110 has an Auto Document Feeder (hereinafter referred to as ADF) (not shown), irradiates a bundled or one document image with a light source, and forms a reflected image on a solid-state image sensor with a lens. The solid-state imaging device generates an image reading signal having a predetermined resolution (for example, 600 dpi) and a predetermined luminance level (for example, 8 bits), and generates raster data image data from the image reading signal. The data processing device 115 converts the bitmap image data generated by the image reading unit 110 into a recording signal by performing scan image processing described later.

記録装置112は、データ処理装置115が変換した記録信号を用いて画像形成(印刷出力)する。記録装置112は、複数枚複写の場合には、1頁分の記録信号を一旦BOX111に記憶保持した後、記録装置112に順次出力して、記録紙上に記録画像を形成する。BOX111は、画像読み取り部110からのデータやローカルPC102からドライバを経由して出力されるPDLデータをレンダリングしたデータを保存できる機能を有する。また、MFP100は、MFP100に設けられたキー操作部(入力装置113)を通じて操作され、操作入力の状態を表示装置116によって表示し得る。   The recording device 112 forms an image (prints out) using the recording signal converted by the data processing device 115. In the case of copying a plurality of sheets, the recording device 112 temporarily stores a recording signal for one page in the BOX 111 and then sequentially outputs it to the recording device 112 to form a recorded image on the recording paper. The BOX 111 has a function capable of storing data obtained by rendering data from the image reading unit 110 and PDL data output from the local PC 102 via a driver. Further, MFP 100 can be operated through a key operation unit (input device 113) provided in MFP 100, and the state of operation input can be displayed on display device 116.

ローカルPC101(もしくは他の汎用PC(不図示))からドライバを介してPDLデータが送信される場合、ネットワークI/F114は、LAN102とネットワークI/F114を介して受信する。そして、記録装置112は、当該受信したPDLデータに基づく画像を記録する。すなわち、ローカルPC101からドライバを経由して出力されるPDLデータは、LAN102からネットワークI/F114を経てデータ処理装置115に入力される。そして、データ処理装置115が言語を解釈・処理することで記録可能な記録信号に変換した後、MFP100は、記録紙上に記録画像として記録することが可能となる。   When PDL data is transmitted from the local PC 101 (or another general-purpose PC (not shown)) via a driver, the network I / F 114 receives via the LAN 102 and the network I / F 114. Then, the recording device 112 records an image based on the received PDL data. That is, PDL data output from the local PC 101 via the driver is input from the LAN 102 to the data processing device 115 via the network I / F 114. After the data processing device 115 interprets and processes the language to convert it into a recordable recording signal, the MFP 100 can record it as a recorded image on a recording sheet.

次に、図3を用いて、アプリケーション画像データの生成フローを説明する。本フローにおいて、MFP100は、ビットマップ画像データから、携帯端末107で表示するための所定のフォーマットのデータ(以下ではアプリケーション画像データと呼ぶこととする)を生成する。ビットマップ画像データは、MFP100の画像読み取り部110により取得される。または、ビットマップ画像データは、ローカルPC102上のアプリケーションソフトで作成されたドキュメントをMFP100内部でデータ処理装置115がレンダリングすることにより生成される。   Next, the flow of generating application image data will be described with reference to FIG. In this flow, the MFP 100 generates data in a predetermined format (hereinafter referred to as application image data) to be displayed on the portable terminal 107 from the bitmap image data. The bitmap image data is acquired by the image reading unit 110 of the MFP 100. Alternatively, the bitmap image data is generated when the data processing apparatus 115 renders a document created by application software on the local PC 102 inside the MFP 100.

まず、S301において、データ処理装置115は、ビットマップ画像データを属性毎のオブジェクトに分割するオブジェクト分割処理を行う。本実施形態において、オブジェクト分割後のオブジェクトの属性種類は、文字、写真、グラフィック(図面、線画、表、ライン)、背景を指す。S302において、データ処理装置115は、分割された各々のオブジェクトに対してオブジェクトの種類(文字、写真、グラフィック、背景)を判定する。オブジェクトが写真または背景と判定された場合、S303に処理は進み、データ処理装置115は当該オブジェクトのビットマップ画像をJPEG圧縮する。   First, in S301, the data processing device 115 performs object division processing for dividing bitmap image data into objects for each attribute. In the present embodiment, the attribute type of an object after object division indicates characters, photographs, graphics (drawings, line drawings, tables, lines), and backgrounds. In S302, the data processing apparatus 115 determines the type of object (character, photograph, graphic, background) for each divided object. If it is determined that the object is a photograph or a background, the process proceeds to S303, and the data processing apparatus 115 JPEG-compresses the bitmap image of the object.

一方、オブジェクトが文字またはグラフィックと判定された場合、処理はS304に進み、データ処理装置115はベクトル化処理を行って、パス化されたデータ(ベクトルデータ)に変換する。次に、S305において、データ処理装置115は該オブジェクトが文字かグラフィックであるかを判定する。文字の場合には、更にS308において、データ処理装置115はOCR処理を施し、文字コード化されたデータ(OCR結果の文字コードデータ)を取得する。   On the other hand, if it is determined that the object is a character or graphic, the process proceeds to S304, and the data processing device 115 performs vectorization processing to convert the data into pass data (vector data). In step S305, the data processing apparatus 115 determines whether the object is a character or a graphic. In the case of a character, in step S308, the data processing device 115 performs OCR processing to obtain character-coded data (character code data as an OCR result).

データ処理装置115は、S303及びS304で得た各オブジェクトのデータ(JPEGデータ、ベクトルデータ)と、S308で得た文字コードデータとを一つのファイルにまとめる。次に、S306において、データ処理装置115は各オブジェクトに対して、最適なメタデータを付与する。S307において、データ処理装置115は、メタデータを付与した各々のオブジェクトを携帯端末107が表示可能なアプリケーション画像データに生成する。最後に、S509において、データ処理装置115は、生成したアプリケーション画像データをネットワークI/Fを介して携帯端末107に送信する。   The data processing device 115 combines the data (JPEG data and vector data) of each object obtained in S303 and S304 and the character code data obtained in S308 into one file. In step S306, the data processing apparatus 115 assigns optimal metadata to each object. In step S <b> 307, the data processing device 115 generates each object to which metadata is added as application image data that can be displayed by the mobile terminal 107. Finally, in S509, the data processing apparatus 115 transmits the generated application image data to the mobile terminal 107 via the network I / F.

次に、図4と図5を用いて、ビットマップ画像データ(文書画像データ)の作成について説明する。図4は、MFP100の画像読み取り部110を使用してビットマップ画像データを作成するフローチャートを示す。MFP100を使用した場合、図4のS401において、画像読み取り部110は画像を読み込む。読み込まれた画像は、既にビットマップ画像データである。S402において、そのビットマップ画像データに対して、画像読み取り部110に依存するスキャナ画像処理を行う。ここで言うスキャナ画像処理とは、例えば、色処理やフィルタ処理を指す。   Next, creation of bitmap image data (document image data) will be described with reference to FIGS. FIG. 4 shows a flowchart for creating bitmap image data using the image reading unit 110 of the MFP 100. When the MFP 100 is used, the image reading unit 110 reads an image in S401 of FIG. The read image is already bitmap image data. In S402, scanner image processing depending on the image reading unit 110 is performed on the bitmap image data. The scanner image processing here refers to, for example, color processing and filter processing.

図5は、PC102上のアプリケーションを使用してビットマップ画像データを作成するフローチャートを示す。S501において、PC102上のアプリケーションを使用して作成したデータが、PC102が備えるプリントドライバを介してプリントデータに変換され、MFP100に送信される。ここで言うプリントデータとは、PDLを意味し、例えば、LIPS(商標)、Postscript(商標)等のページ記述言語を指す。次にS502において、MFP100のデータ処理装置115はインタープリタとして機能し、ディスプレイリストを生成する。S503において、データ処理装置115がディスプレイリストをレンダリングすることにより、ビットマップ画像データを生成する。   FIG. 5 shows a flowchart for creating bitmap image data using an application on the PC 102. In step S <b> 501, data created using an application on the PC 102 is converted into print data via a print driver included in the PC 102 and transmitted to the MFP 100. The print data referred to here means PDL, and refers to a page description language such as LIPS (trademark), Postscript (trademark), or the like. In step S502, the data processing apparatus 115 of the MFP 100 functions as an interpreter and generates a display list. In step S503, the data processing device 115 renders the display list to generate bitmap image data.

図6のフローチャートを用いて、図3のS308で行われるメタデータの付与処理の詳細について説明する。まず、S601において、データ処理装置115は、S301で分割されたオブジェクトのそれぞれについて、各オブジェクトの周囲で一番近くに存在する文字オブジェクトを選択する。次に、S602において、データ処理装置115は、選択した文字オブジェクトに対して、形態素解析を行う。次に、S603において、データ処理装置115は、S602で形態素解析結果により抽出した単語をメタデータとして各オブジェクトに付加する。なお、メタデータは、形態素解析に限定されず、例えば、画像特徴量抽出、構文解析等によっても作成できる。さらに、データ処理装置115は、以下の処理によりメタデータを作成することもできる。つまり、データ処理装置115はMFP100に内蔵されたBOX111や画像処理システムのデータベース105に既に保存されている文書、および、それに含まれるオブジェクトを対象に類似画像検索を行う。そして、データ処理装置115は、類似度の高い類似画像のオブジェクトとの関連付けを行う。   Details of the metadata adding process performed in S308 of FIG. 3 will be described with reference to the flowchart of FIG. First, in S601, the data processing apparatus 115 selects a character object that is closest to each object around each of the objects divided in S301. Next, in S602, the data processing apparatus 115 performs morphological analysis on the selected character object. Next, in S603, the data processing apparatus 115 adds the word extracted from the morphological analysis result in S602 to each object as metadata. Note that the metadata is not limited to morphological analysis, and can be created by, for example, image feature extraction, syntax analysis, or the like. Furthermore, the data processing device 115 can also create metadata by the following processing. That is, the data processing apparatus 115 performs a similar image search for documents already stored in the BOX 111 built in the MFP 100 or the database 105 of the image processing system and objects included therein. Then, the data processing device 115 associates the object with a similar image having a high similarity.

次に、図7と図8を用いて、S301のオブジェクト分割について、詳細に説明する。図7(A)は、入力されたビットマップ画像データを示す。図7(B)は、オブジェクト分割処理によって、ビットマップ画像データを複数のオブジェクトに分割した結果の一例である。図8は、オブジェクト分割したときの各オブジェクトのブロック情報および入力ファイル情報を表す。   Next, the object division in S301 will be described in detail with reference to FIGS. FIG. 7A shows the input bitmap image data. FIG. 7B is an example of the result of dividing bitmap image data into a plurality of objects by object division processing. FIG. 8 shows block information and input file information of each object when the object is divided.

S301において、データ処理装置115は、図7(A)に示す入力画像(図7の左)に対してオブジェクト分割処理を行うことにより、属性ごとに矩形ブロックに分割する。分割された矩形ブロックを図7(B)に示す。前述のように、矩形ブロックの属性としては、文字、写真、グラフィック(図面、線画、表、ライン)、色(カラー、白黒)がある。   In S301, the data processing apparatus 115 performs object division processing on the input image shown in FIG. 7A (left in FIG. 7) to divide each attribute into rectangular blocks. FIG. 7B shows the divided rectangular block. As described above, the attributes of the rectangular block include character, photograph, graphic (drawing, line drawing, table, line), and color (color, black and white).

オブジェクト分割処理の一手法としては、例えば以下のような手法がある。まず、MFP100内のRAM(不図示)に格納されたイメージデータを白黒に2値化し、黒画素輪郭で囲まれる画素塊を抽出する。さらに、抽出された黒画素塊の大きさを評価し、大きさが所定値以上の黒画素塊の内部にある白画素塊に対する輪郭追跡を行う。白画素塊に対する大きさ評価、内部黒画素塊の追跡というように、内部の画素塊が所定値以上である限り、再帰的に内部画素塊の抽出、輪郭追跡を行う。画素塊の大きさは、例えば画素塊の面積によって評価される。データ処理装置115は、このようにして得られた画素塊に外接する矩形ブロックを生成し、矩形ブロックの大きさ、形状に基づき属性を判定する。   As one method of object division processing, for example, the following methods are available. First, image data stored in a RAM (not shown) in the MFP 100 is binarized to black and white, and a pixel block surrounded by a black pixel outline is extracted. Further, the size of the extracted black pixel block is evaluated, and the contour tracking is performed for the white pixel block inside the black pixel block whose size is a predetermined value or more. As long as the internal pixel block is equal to or greater than a predetermined value, such as size evaluation for the white pixel block and tracking of the internal black pixel block, the internal pixel block is extracted recursively and the contour is traced. The size of the pixel block is evaluated by, for example, the area of the pixel block. The data processing device 115 generates a rectangular block circumscribing the pixel block obtained in this way, and determines the attribute based on the size and shape of the rectangular block.

例えば、縦横比が1に近く、大きさが一定の範囲の矩形ブロックは文字領域矩形ブロックの可能性がある文字相当ブロックとする。また、近接する文字相当ブロックが規則正しく整列しているときに、これら文字相当ブロックを纏めた新たな矩形ブロックを生成し、新たな矩形ブロックを文字領域矩形ブロックとする。また扁平な画素塊、もしくは、一定大きさ以上でかつ四角形の白画素塊を整列よく内包する黒画素塊をグラフィック領域矩形ブロック、それ以外の不定形の画素塊を写真領域矩形ブロックとする。   For example, a rectangular block having an aspect ratio close to 1 and having a constant size is assumed to be a character equivalent block that may be a character area rectangular block. Further, when adjacent character equivalent blocks are regularly arranged, a new rectangular block in which these character equivalent blocks are collected is generated, and the new rectangular block is set as a character area rectangular block. In addition, a flat pixel block or a black pixel block that is larger than a certain size and includes square white pixel blocks in a well-aligned manner is defined as a graphic area rectangular block, and other irregular pixel blocks are defined as a photographic area rectangular block.

次に、生成された矩形ブロックのそれぞれについて、データ処理装置115は、図8に示す属性等のブロック情報および入力ファイル情報を生成する。図8において、ブロック情報は、各ブロックの属性、位置の座標X、座標Y、幅W、高さH、OCR情報、色情報を含む。属性は1〜3の数値で与えられ、1は文字領域矩形ブロック、2は写真領域矩形ブロック、3はグラフィック領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は、S306のOCR処理で文字コード化されたデータへのポインタ情報の有無を示す。色情報は、1または2の数値で与えられ、1は、カラー、2は、白黒を示す。さらに入力ファイル情報として矩形ブロックの個数を示すブロック総数Nも保存しておく。   Next, for each of the generated rectangular blocks, the data processing device 115 generates block information such as attributes and input file information shown in FIG. In FIG. 8, the block information includes attributes of each block, position coordinates X, coordinates Y, width W, height H, OCR information, and color information. The attribute is given by a numerical value of 1 to 3, where 1 is a character area rectangular block, 2 is a photo area rectangular block, and 3 is a graphic area rectangular block. The coordinates X and Y are the X and Y coordinates (upper left corner coordinates) of the start point of each rectangular block in the input image. The width W and the height H are the width in the X coordinate direction and the height in the Y coordinate direction of the rectangular block. The OCR information indicates the presence / absence of pointer information to data that has been character-coded in the OCR process of S306. The color information is given as a numerical value of 1 or 2, where 1 indicates color and 2 indicates black and white. Further, the total number N of blocks indicating the number of rectangular blocks is also stored as input file information.

これらの矩形ブロックごとのブロック情報は、特定領域でのベクトル化に利用される。またブロック情報によって、特定領域とその他の領域を合成する際の相対位置関係を特定でき、入力画像のレイアウトを損なわずにベクトル化された領域とビットマップのままの領域を合成することが可能となる。   The block information for each rectangular block is used for vectorization in a specific area. In addition, the relative positional relationship when combining specific areas with other areas can be specified by block information, and vectorized areas and bitmap areas can be combined without impairing the layout of the input image. Become.

次に、図9のフローチャートを用いて、図3のS304のベクトル化処理について詳細に説明する。まず、S901において、データ処理装置115は、特定領域が文字領域矩形ブロックであるか否かを判断し、文字領域の矩形ブロックであればS902以下のステップに進む。一方、特定領域が文字領域矩形ブロックでないときは、S912に移行する。   Next, the vectorization process in S304 of FIG. 3 will be described in detail using the flowchart of FIG. First, in S901, the data processing apparatus 115 determines whether or not the specific area is a character area rectangular block, and if the specific area is a rectangular block of the character area, the process proceeds to S902 and subsequent steps. On the other hand, if the specific area is not a character area rectangular block, the process proceeds to S912.

S902〜S907では、データ処理装置115は、パターンマッチング等の手法を用いて文字認識処理を行い、対応する文字コードを得る。例えば、S902において、データ処理装置115は、特定領域に対し横書き、縦書きの判定(組み方向判定)を行うために、特定領域内で画素値に対する水平・垂直の射影を取る。次に、S903において、S902の射影の分散を評価する。水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判断する。S904において、S903の評価結果に基づき、組み方向を判定し、行の切り出しを行い、その後文字を切り出して文字画像を得る。文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、切り出された行に対する垂直方向の射影から、文字を切り出す。縦書きの文字領域に対しては、水平と垂直について逆の処理を行う。行、文字切り出しに際して、文字のサイズも検出し得る。   In S902 to S907, the data processing device 115 performs character recognition processing using a technique such as pattern matching to obtain a corresponding character code. For example, in step S <b> 902, the data processing apparatus 115 performs horizontal / vertical projections on pixel values in the specific area in order to perform horizontal writing and vertical writing determination (assembly direction determination) on the specific area. Next, in S903, the dispersion of the projection in S902 is evaluated. If the horizontal projection variance is large, it is determined as horizontal writing, and if the vertical projection variance is large, it is determined as vertical writing. In S904, based on the evaluation result in S903, the assembling direction is determined, lines are cut out, and then characters are cut out to obtain character images. In the case of horizontal writing, character strings and characters are cut out using horizontal projection, and characters are cut out from the projection in the vertical direction with respect to the cut lines. For vertically written character areas, the process is reversed for horizontal and vertical. When cutting out lines and characters, the size of characters can also be detected.

次に、S905において、データ処理装置115は、S904で切り出された各文字について、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルを生成する。特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴ベクトルとする方法がある。   Next, in S905, the data processing device 115 generates an observation feature vector obtained by converting the feature obtained from the character image into a numerical sequence of several tens of dimensions for each character cut out in S904. There are various known methods for extracting feature vectors. For example, there is a method in which characters are divided into meshes, and a mesh number-dimensional vector obtained by counting character lines in each mesh as line elements according to directions is used as a feature vector.

S906において、データ処理装置115は、S905で得られた観測特徴ベクトルと、あらかじめフォントの種類ごとに求められている辞書特徴ベクトルとを比較し、観測特徴ベクトルと辞書特徴ベクトルとの距離を算出する。S907において、S906で算出された距離を評価し、最も距離の近いフォントの種類を認識結果とする。次に、S908において、S907における距離評価の最短距離が所定値よりも大きいか否か、類似度を判断する。最短距離が所定値以上の場合(類似度が低い場合)は、辞書特徴ベクトルにおいて、形状が類似する他の文字に誤認識している可能性が高い。そこで最短距離が所定値以上の場合(類似度が低い場合)は、S907の認識結果を採用せず、S911の処置に進む。類似度が所定値より小さいとき(類似度が高い場合)は、S907の認識結果を採用し、S909に進む。   In S906, the data processing apparatus 115 compares the observation feature vector obtained in S905 with the dictionary feature vector obtained in advance for each font type, and calculates the distance between the observation feature vector and the dictionary feature vector. . In step S907, the distance calculated in step S906 is evaluated, and the type of font having the closest distance is used as the recognition result. Next, in S908, it is determined whether or not the shortest distance for distance evaluation in S907 is greater than a predetermined value. When the shortest distance is greater than or equal to a predetermined value (when the degree of similarity is low), there is a high possibility that the dictionary feature vector is erroneously recognized as another character having a similar shape. Therefore, when the shortest distance is equal to or greater than the predetermined value (when the degree of similarity is low), the recognition result of S907 is not adopted and the process proceeds to S911. When the similarity is smaller than a predetermined value (when the similarity is high), the recognition result of S907 is adopted, and the process proceeds to S909.

S909において、データ処理装置115は、文字フォントの種類を認識する。文字認識の際に用いる、フォントの種類数分の辞書特徴ベクトルを、文字形状種すなわちフォント種に対して複数用意しておく。これを、パターンマッチングの際に、文字コードとともにフォント種を出力することで、文字フォントを認識し得る。次に、S910において、データ処理装置115は、文字認識およびフォント認識よって得られた文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、各文字をベクトルデータに変換する。なお、入力画像がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。   In step S909, the data processing apparatus 115 recognizes the type of character font. A plurality of dictionary feature vectors corresponding to the number of font types used for character recognition are prepared for character shape types, that is, font types. By outputting the font type together with the character code at the time of pattern matching, the character font can be recognized. Next, in S910, the data processing device 115 converts each character into vector data using outline data prepared in advance using the character code and font information obtained by character recognition and font recognition. When the input image is color, the color of each character is extracted from the color image and recorded together with vector data.

一方、S911では、データ処理装置115は、文字をグラフィックと同様に扱い、該文字をアウトライン化する。すなわち誤認識を起こす可能性の高い文字については、見かけ上ビットマップに忠実なアウトラインのベクトルデータを生成する。また、S912では、データ処理装置115は、特定領域が文字領域矩形ブロックでないとき(すなわちグラフィック領域矩形ブロックのとき)、画像の輪郭に基づいてベクトル化の処理を実行する。以上の処理により、文字領域矩形ブロックおよびグラフィック領域矩形ブロックに属するイメージ情報をベクトルデータに変換出来る。   On the other hand, in S911, the data processing device 115 treats the character in the same manner as a graphic and outlines the character. That is to say, for characters that are likely to cause erroneous recognition, outline vector data that is apparently faithful to the bitmap is generated. In S912, when the specific area is not a character area rectangular block (that is, when the specific area is a graphic area rectangular block), the data processing apparatus 115 executes vectorization processing based on the contour of the image. Through the above processing, the image information belonging to the character area rectangular block and the graphic area rectangular block can be converted into vector data.

図10と図11、図12を用いて、S912のグラフィック領域矩形ブロックのベクトル化処理について詳細に説明する。グラフィック領域矩形ブロックのベクトル化処理は、該領域内で抽出された黒画素塊の輪郭に基づいてベクトル化を行う。図10は、ベクトル化の処理における角抽出の処理を示す図である。図11は、ベクトル化の処理における輪郭線まとめの処理を示す図である。図12は、グラフィック領域のベクトル化処理の詳細フローチャートである。   The vectorization process of the graphic area rectangular block in S912 will be described in detail with reference to FIG. 10, FIG. 11, and FIG. The vectorization processing of the graphic area rectangular block performs vectorization based on the outline of the black pixel block extracted in the area. FIG. 10 is a diagram illustrating corner extraction processing in vectorization processing. FIG. 11 is a diagram illustrating outline summarization processing in vectorization processing. FIG. 12 is a detailed flowchart of vectorization processing of the graphic area.

まず、図12のS1201において、データ処理装置115は、線画等を直線および/または曲線の組み合わせとして表現するために、曲線を複数の区間(画素列)に区切る「角」を検出する。角とは、曲率が極大となる点であり、図10に示すように、データ処理装置115は、曲線上の画素Piが角か否かの判断を以下のように行う。すなわち、Piを起点とし、曲線に沿ってPiから両方向に所定画素(k個とする)ずつ離れた画素Pi−k、Pi+kを線分Lで結ぶ。画素Pi−k、Pi+k間の距離をd1、線分Lと画素Piとの距離をd2、曲線の画素Pi−k、Pi+k間の弧の長さをAとする。d2が極大となるとき、あるいは比(d1/A)が閾値以下となるときに画素Piを角と判断する。角によって分割された画素列を、直線あるいは曲線で近似する。直線への近似は最小二乗法等により実行し、曲線への近似は3次スプライン関数などを用いる。画素列を分割する角の画素は近似直線あるいは近似直線における、始端または終端となる。   First, in S1201 of FIG. 12, the data processing apparatus 115 detects “corners” that divide a curve into a plurality of sections (pixel columns) in order to represent a line drawing or the like as a combination of straight lines and / or curves. The corner is a point at which the curvature becomes maximum. As shown in FIG. 10, the data processing apparatus 115 determines whether or not the pixel Pi on the curve is a corner as follows. That is, pixels Pi-k and Pi + k that are separated from Pi by both predetermined pixels (k pixels) in both directions along the curve are connected by a line segment L starting from Pi. The distance between the pixels Pi-k and Pi + k is d1, the distance between the line segment L and the pixel Pi is d2, and the arc length between the curved pixels Pi-k and Pi + k is A. When d2 reaches a maximum or when the ratio (d1 / A) is equal to or less than the threshold, the pixel Pi is determined to be a corner. The pixel row divided by the corner is approximated by a straight line or a curve. The approximation to a straight line is executed by the least square method or the like, and the approximation to a curve uses a cubic spline function or the like. The pixel at the corner that divides the pixel row is the approximate line or the start or end of the approximate line.

さらに、データ処理装置115は、ベクトル化された輪郭内に白画素塊の内輪郭が存在するか否かを判断し、内輪郭が存在するときはその輪郭をベクトル化し、内輪郭の内輪郭というように、再帰的に反転画素の内輪郭をベクトル化する。以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録する。   Further, the data processing device 115 determines whether or not the inner contour of the white pixel block exists in the vectorized contour. When the inner contour exists, the data processing device 115 vectorizes the inner contour and refers to the inner contour as the inner contour. As described above, the inner contour of the inverted pixel is recursively vectorized. As described above, the outline of a figure having an arbitrary shape can be vectorized by using the contour line approximation. If the original document is in color, the figure color is extracted from the color image and recorded together with vector data.

S1202で、データ処理装置115は、S1201で求めた輪郭線が近接している場合はそれらをまとめて太さを持った線とする処理を行う。図11に示すように、ある注目区間で外輪郭PRjと、内輪郭PRj+1あるいは別の外輪郭が近接している場合、2個あるいは複数の輪郭線をひとまとめにし、太さを持った線として表現することができる。例えば、輪郭PRj+1の各画素Piから輪郭PRj上で最短距離となる画素Qiまでの距離PiQiを算出し、PQiのばらつきが僅かである場合には、注目区間を画素Pi、Qiの中点Miの点列に沿った直線または曲線で近似し得る。近似直線、近似曲線の太さは、例えば距離PiQiの平均値とする。線や線の集合体である表罫線は、太さを持つ線の集合とすることにより、効率よくベクトル表現することができる。   In S1202, if the contour lines obtained in S1201 are close to each other, the data processing apparatus 115 performs a process of combining them into a line having a thickness. As shown in FIG. 11, when the outer contour PRj and the inner contour PRj + 1 or another outer contour are close to each other in a certain section of interest, two or a plurality of contour lines are combined and expressed as a line having a thickness. can do. For example, the distance PiQi from each pixel Pi of the contour PRj + 1 to the pixel Qi that is the shortest distance on the contour PRj is calculated. It can be approximated by a straight line or curve along the point sequence. The thickness of the approximate line and the approximate curve is, for example, an average value of the distance PiQi. A table ruled line, which is a line or a set of lines, can be efficiently expressed as a vector by using a set of lines having a thickness.

S1203において、データ処理装置115は、各ベクトルデータの始点、終点を算出する。S1204において、S1203で求められた始点、終点情報を用いて、図形要素を検出する。図形要素とは、区分線が構成している閉図形であり、検出に際しては、始点、終端となっている共通の角の画素においてベクトルを連結する。すなわち、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用する。   In S1203, the data processing device 115 calculates the start point and end point of each vector data. In S1204, a graphic element is detected using the start point and end point information obtained in S1203. A graphic element is a closed graphic formed by a dividing line, and a vector is connected at a common corner pixel serving as a start point and an end point for detection. That is, the principle that each vector constituting the closed shape has a vector connected to both ends thereof is applied.

S1205において、データ処理装置115は、ベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形を構成するベクトルを抽出する。S1206において、閉図形を構成するベクトルについて、いずれかのベクトルの端点(始点または終点)を開始点とし、一定方向、例えば時計回りに、順にベクトルを探索する。すなわち、他端点において他のベクトルの端点を探索し、所定距離内の最近接端点を連結ベクトルの端点とする。閉図形を構成するベクトルを1まわりして開始点に戻ったとき、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する。また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。   In step S1205, the data processing apparatus 115 removes unnecessary vectors that are not connected to both ends from the vector data, and extracts a vector constituting the closed figure. In step S1206, for the vectors constituting the closed figure, the vectors are searched in order in a certain direction, for example, clockwise, with the end point (start point or end point) of one of the vectors as the start point. That is, the end point of another vector is searched at the other end point, and the closest end point within a predetermined distance is set as the end point of the connected vector. When the vector constituting the closed figure is rotated by one and returned to the starting point, all the passed vectors are grouped as a closed figure constituting one graphic element. In addition, all closed graphic constituent vectors inside the closed graphic are also grouped. Further, the same processing is repeated with the starting point of a vector not yet grouped as a starting point.

S1207において、データ処理装置115は、S1205で除去された不要ベクトルのうち、S1206で閉図形としてグループ化されたベクトルに端点が近接しているベクトルを検出し、一つの図形要素としてグループ化する。これによって、図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとすることが出来る。また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。以上の処理によってグラフィック領域矩形ブロックを、ベクトル化された一つのオブジェクトに変換することが出来る。   In S1207, the data processing apparatus 115 detects a vector whose end point is close to the vector grouped as a closed graphic in S1206 among the unnecessary vectors removed in S1205, and groups them as one graphic element. As a result, other graphic elements or dividing lines existing in the graphic element can be grouped into one graphic object. If there is no other graphic element or dividing line in the graphic element, the graphic element is set as a graphic object. The graphic area rectangular block can be converted into one vectorized object by the above processing.

次に、図13と図14を用いて、S306のアプリケーション画像データ生成について詳細に説明する。図13は、本実施例に係るベクトル化処理結果のデータ構成を示すマップである。図14は、アプリケーション画像データ生成処理の詳細を示すフローチャートである。   Next, generation of application image data in S306 will be described in detail with reference to FIGS. FIG. 13 is a map showing the data structure of the vectorization processing result according to the present embodiment. FIG. 14 is a flowchart showing details of the application image data generation process.

まず、S1401において、S304のベクトル化処理で生成された中間データを取得する。本実施形態において、MFP100は、以下のようなドキュメント・アナリシス・アウトプット・フォーマット(以下、DAOF)と呼ぶ形式で中間データを記憶装置111に保存しているものとする。図13に示すように、DAOFは、ヘッダ1301、レイアウト記述データ部1302、文字認識記述データ部1303、表記述データ部1304、画像記述データ部1305を含む。   First, in S1401, intermediate data generated by the vectorization process in S304 is acquired. In the present embodiment, it is assumed that MFP 100 stores intermediate data in storage device 111 in a format called a document analysis output format (hereinafter referred to as DAOF) as follows. As shown in FIG. 13, the DAOF includes a header 1301, a layout description data portion 1302, a character recognition description data portion 1303, a table description data portion 1304, and an image description data portion 1305.

ヘッダ1301には、処理対象の入力画像に関する情報が保持される。レイアウト記述データ部1302には、入力画像中の矩形ブロックの属性である文字、グラフィック(線画、図面、表、ライン)、写真等の情報と、これら属性が認識された各矩形ブロックの位置情報が保持される。文字認識記述データ部1303には、文字領域矩形ブロックのうち、文字認識して得られる文字認識結果が保持される。表記述データ部1304には、表の属性を持つグラフィック領域矩形ブロックの表構造の詳細が格納される。画像記述データ部1305には、ベクトル化の処理が指示された特定領域においては、ベクトル化処理により得られたブロックの内部構造や、画像の形状や文字コード等あらわすデータの集合が保持される。一方、ベクトル化処理の対象ではない特定領域以外の矩形ブロックでは、オブジェクトに分割されたビットマップ画像データそのものが保持される。   The header 1301 holds information related to the input image to be processed. The layout description data portion 1302 includes information such as characters, graphics (line drawings, drawings, tables, lines), photographs, and the like, which are attributes of the rectangular blocks in the input image, and positional information of each rectangular block in which these attributes are recognized. Retained. The character recognition description data portion 1303 holds a character recognition result obtained by character recognition in the character area rectangular block. The table description data portion 1304 stores details of the table structure of the graphic area rectangular block having the table attribute. The image description data portion 1305 holds a set of data representing the internal structure of the block obtained by the vectorization process, the shape of the image, the character code, and the like in the specific area where the vectorization process is instructed. On the other hand, in a rectangular block other than the specific area that is not subject to vectorization processing, the bitmap image data itself divided into objects is held.

次に、S1402において、データ処理装置115は、後述する文書構造ツリー生成を行う。S1403において、データ処理装置115は、文書構造ツリーを元にDAOF内の実データを取得し、後述するアプリケーション画像データを生成する。   Next, in S1402, the data processing device 115 performs document structure tree generation described later. In step S1403, the data processing apparatus 115 acquires actual data in the DAOF based on the document structure tree, and generates application image data to be described later.

次に、図15と図16、図17を用いて、S1402の文書構造ツリー生成について説明する。図15は、文書構造ツリー生成の処理を示すフローチャートである。図16は、文書構造ツリー生成処理の対象となる文書の例を示す図である。図17は、文書構造ツリー生成の処理によって生成される文書構造ツリーを示す図である。   Next, document structure tree generation in S1402 will be described with reference to FIGS. 15, 16, and 17. FIG. FIG. 15 is a flowchart showing a document structure tree generation process. FIG. 16 is a diagram illustrating an example of a document to be subjected to document structure tree generation processing. FIG. 17 is a diagram illustrating a document structure tree generated by the document structure tree generation process.

図15に示す文書構造ツリー生成の処理における全体制御の基本ルールとして、処理の流れはミクロブロック(単一矩形ブロック)からマクロブロック(矩形ブロックの集合体)へ移行する。以後「矩形ブロック」は、ミクロブロックおよびマクロブロック両者を意味するものとする。   As a basic rule of overall control in the document structure tree generation process shown in FIG. 15, the flow of processing shifts from a micro block (single rectangular block) to a macro block (an assembly of rectangular blocks). Hereinafter, “rectangular block” means both a micro block and a macro block.

まず、S1501において、データ処理装置115は、矩形ブロック単位で、縦方向の関連性に基づいて、矩形ブロックを再グループ化する。図15の処理は繰り返し実行されることがあるが、処理開始直後はミクロブロック単位での判定となる。ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどの特徴によって定義される。また、データ処理装置115は、DAOFを参照し、距離、幅、高さなどの情報を抽出する。   First, in S1501, the data processing device 115 regroups rectangular blocks in units of rectangular blocks based on the vertical relevance. Although the process of FIG. 15 may be repeatedly executed, the determination is performed in units of micro blocks immediately after the start of the process. Here, the relevance is defined by characteristics such as a short distance and a substantially equal block width (height in the horizontal direction). In addition, the data processing device 115 refers to the DAOF and extracts information such as distance, width, and height.

例えば、図16に示す文書では、最上部で、矩形ブロックT1、T2が横方向に並列されている。矩形ブロックT1、T2の下には横方向セパレータS1が存在し、横方向セパレータS1の下に矩形ブロックT3、T4、T5、T6、T7が存在する。矩形ブロックT3、T4、T5は、横方向セパレータS1下側の領域における左半部において上から下に、縦方向に配列され、矩形ブロックT6、T7は、横方向セパレータS1下側の領域における右半部において上下に配列されている。データ処理装置115がS1501において縦方向の関連性に基づくグルーピングの処理を実行すると、矩形ブロックT3、T4、T5が1個のグループ(矩形ブロック)V1にまとめられる。また、矩形ブロックT6、T7が1個のグループ(矩形ブロック)V2にまとめられる。グループV1、V2は同一階層である。   For example, in the document shown in FIG. 16, rectangular blocks T1 and T2 are juxtaposed in the horizontal direction at the top. A horizontal separator S1 exists below the rectangular blocks T1 and T2, and rectangular blocks T3, T4, T5, T6, and T7 exist below the horizontal separator S1. The rectangular blocks T3, T4, and T5 are arranged in the vertical direction from top to bottom in the left half of the region below the horizontal separator S1, and the rectangular blocks T6 and T7 are arranged in the right side in the region below the horizontal separator S1. They are arranged vertically in the half. When the data processing device 115 executes grouping processing based on vertical relevance in S1501, the rectangular blocks T3, T4, and T5 are combined into one group (rectangular block) V1. In addition, the rectangular blocks T6 and T7 are grouped into one group (rectangular block) V2. Groups V1 and V2 are in the same hierarchy.

次に、S1502において、データ処理装置115は、縦方向のセパレータの有無をチェックする。セパレータは、DAOF中でライン属性を持つオブジェクトであり、明示的にブロックを分割する機能をもつ。セパレータを検出すると、処理対象の階層において、入力画像の領域を、セパレータを境界として左右に分割する。図16に示す文書例では、縦方向のセパレータは存在しない。   Next, in S1502, the data processing device 115 checks whether or not there is a vertical separator. The separator is an object having a line attribute in DAOF and has a function of explicitly dividing a block. When the separator is detected, the area of the input image is divided into left and right with the separator as a boundary in the processing target hierarchy. In the example document shown in FIG. 16, there is no vertical separator.

次に、S1503において、データ処理装置115は、縦方向のグループ高さの合計が入力画像の高さに等しくなったか否か判断する。すなわち縦方向(例えば上から下)に処理対象の領域を移動しながら、横方向のグルーピングを行うとき、入力画像全体の処理が終了したときには、グループの高さの合計が入力画像の高さになることを利用し、処理の終了判断を行う。グルーピングが終了したときはそのまま処理終了し、グルーピングが終了していなかったときはS1504に進む。   In step S1503, the data processing apparatus 115 determines whether the total group height in the vertical direction is equal to the height of the input image. In other words, when grouping in the horizontal direction is performed while moving the region to be processed in the vertical direction (for example, from top to bottom), when the processing of the entire input image is completed, the total height of the group becomes the height of the input image. Is used to determine the end of the process. When the grouping is finished, the process is finished as it is, and when the grouping is not finished, the process proceeds to S1504.

次に、S1504において、データ処理装置115は、横方向の関連性に基づくグルーピングの処理を実行する。これによって、例えば図16の矩形ブロックT1、T2が1個のグループ(矩形ブロック)H1にまとめられ、矩形ブロックV1、V2が1個のグループ(矩形ブロック)H2にまとめられる。グループH1、H2は同一階層となる。ここでも、処理開始直後はミクロブロック単位での判定となる。   In step S <b> 1504, the data processing device 115 executes grouping processing based on the relevance in the horizontal direction. Accordingly, for example, the rectangular blocks T1 and T2 in FIG. 16 are combined into one group (rectangular block) H1, and the rectangular blocks V1 and V2 are combined into one group (rectangular block) H2. The groups H1 and H2 are in the same hierarchy. Again, immediately after the start of processing, the determination is made in units of micro blocks.

次に、S1505において、データ処理装置115は、横方向のセパレータの有無をチェックする。セパレータを検出すると、処理対象の階層において、入力画像の領域を、セパレータを境界として上下に分割する。図16に示すように、横方向のセパレータS1が存在する。データ処理装置115は、以上の処理結果を図17に示す文書構造ツリーとして登録する。   In step S <b> 1505, the data processing apparatus 115 checks whether there is a horizontal separator. When the separator is detected, the area of the input image is divided into upper and lower parts with the separator as a boundary in the processing target hierarchy. As shown in FIG. 16, a horizontal separator S1 exists. The data processing apparatus 115 registers the above processing results as a document structure tree shown in FIG.

図17に示すように、入力された1ページ分のビットマップ画像データV0は、最上位階層にグループH1、H2、セパレータS1を有する。グループH1には第2階層の矩形ブロックT1、T2が属する。グループH2には、第2階層のグループV1、V2が属する。グループV1には、第3階層の矩形ブロックT3、T4、T5が属し、グループV2には、第3階層の矩形ブロックT6、T7が属する。本例では、V0はページを表し、V0の下位階層にあるものがオブジェクトを表す。   As shown in FIG. 17, the input bitmap image data V0 for one page has groups H1 and H2 and a separator S1 in the highest hierarchy. The group H1 includes rectangular blocks T1 and T2 in the second hierarchy. The group H2 includes groups V1 and V2 in the second hierarchy. The third level rectangular blocks T3, T4, and T5 belong to the group V1, and the third level rectangular blocks T6 and T7 belong to the group V2. In this example, V0 represents a page, and the object below V0 represents an object.

最後に、S1506において、データ処理装置115は、横方向のグループ長合計が入力画像の幅に等しくなったか否か判断する。これによって横方向のグルーピングに関する終了判断を行う。横方向のグループ長がページ幅となっている場合は、文書構造ツリー生成の処理を終了する。横方向のグループ長がページ幅となっていないときは、S1501に戻り、データ処理装置115は、再びもう一段上の階層で、縦方向の関連性チェックから繰り返す。   Finally, in S1506, the data processing apparatus 115 determines whether or not the total group length in the horizontal direction is equal to the width of the input image. In this way, the end determination regarding the grouping in the horizontal direction is performed. If the horizontal group length is the page width, the document structure tree generation process is terminated. If the group length in the horizontal direction is not the page width, the process returns to S1501, and the data processing apparatus 115 repeats the vertical relevance check again at the next higher level.

図18は、アプリケーション画像データのフォーマットの一例を示す。本実施形態では、アプリケーション画像データのフォーマットとして、Scalable Vector Graphics(以下、SVG)形式を用いて説明する。   FIG. 18 shows an example of the format of application image data. In the present embodiment, description will be given using the Scalable Vector Graphics (hereinafter, SVG) format as the format of application image data.

図18では説明のため、各オブジェクトの表記を枠1801〜1804で囲って示している。各オブジェクトは、オブジェクトの領域を示す領域情報と、DAOF内の実データから取得する描画要素を持つ。また、領域情報のみで描画要素を持たないオブジェクト(例えば図17のH1、H2、V1、V2など)を持つことも可能である。1801は写真属性を示す。写真属性には、写真オブジェクトの領域を示す領域情報と、描画要素としてビットマップ情報が示されている。1802は文字属性を示し、1803では、1802で示した内容をベクトル化されたオブジェクトとして示す。1804は、線画などのグラフィックオブジェクトを表す。複数ページのドキュメントを処理する場合、上述の動作をそれぞれのページ毎に繰り返すことで、複数ページのドキュメント全体に対して、処理を行うことができる。   In FIG. 18, the notation of each object is shown surrounded by frames 1801 to 1804 for explanation. Each object has area information indicating the area of the object and a drawing element acquired from actual data in the DAOF. It is also possible to have an object (for example, H1, H2, V1, V2, etc. in FIG. 17) that has only region information and does not have a drawing element. Reference numeral 1801 denotes a photograph attribute. In the photo attribute, area information indicating the area of the photographic object and bitmap information as a drawing element are shown. 1802 indicates a character attribute, and 1803 indicates the content indicated by 1802 as a vectorized object. Reference numeral 1804 denotes a graphic object such as a line drawing. When processing a multi-page document, it is possible to perform processing on the entire multi-page document by repeating the above-described operation for each page.

なお、本実施例ではアプリケーション画像データをSVG形式で表記しているが、文書の意味や構造を記述・保持できる画像フォーマットであれば良く、これに限定されるものではない。   In the present embodiment, the application image data is expressed in the SVG format, but any image format that can describe and hold the meaning and structure of the document may be used, and the present invention is not limited to this.

図19は、本実施形態における携帯端末107のハードウェア構成例を示すブロック図である。携帯端末107は、メインボード1900、LCD1901、タッチパネル1902、ボタンデバイス1903から構成される。また、LCD1901とタッチパネル1902をまとめてタッチUI1904と呼ぶこととする。   FIG. 19 is a block diagram illustrating a hardware configuration example of the mobile terminal 107 in the present embodiment. The mobile terminal 107 includes a main board 1900, an LCD 1901, a touch panel 1902, and a button device 1903. The LCD 1901 and the touch panel 1902 are collectively referred to as a touch UI 1904.

メインボード1900の主な構成要素は以下である。CPU1905、無線LANモジュール1906、電源コントローラ1907、ディスプレイコントローラ(DISPC)1908、パネルコントローラ(PANELC)1909、ROM1910、RAM1911、二次電池1912、タイマー1913。それぞれのモジュール1905〜1913は、バス(不図示)によって接続されている。   The main components of the main board 1900 are as follows. CPU 1905, wireless LAN module 1906, power controller 1907, display controller (DISPC) 1908, panel controller (PANELC) 1909, ROM 1910, RAM 1911, secondary battery 1912, timer 1913. The modules 1905 to 1913 are connected by a bus (not shown).

CPU1905は、バスに接続される各デバイスを制御すると共に、ROM1910に記憶された図20を用いて後述するソフトウェアモジュール2000を、RAM1911に展開して実行するプロセッサである。RAM1911は、CPU1905のメインメモリ、ワークエリア、LCD1901に表示するビデオイメージ用エリア、およびMFP100から送信されるアプリケーション画像データの保存領域として機能する。   The CPU 1905 is a processor that controls each device connected to the bus, and develops and executes a software module 2000, which will be described later using FIG. 20 stored in the ROM 1910, in the RAM 1911. The RAM 1911 functions as a main memory of the CPU 1905, a work area, a video image area displayed on the LCD 1901, and a storage area for application image data transmitted from the MFP 100.

ディスプレイコントローラ(DISPC)1908は、CPU1905の要求に応じて、RAM1911に展開されたビデオイメージ出力を高速に切り替えるとともに、LCD1901に同期信号を出力する。結果として、RAM1911のビデオイメージが、DISPC1908の同期信号に同期してLCD1901に出力され、LCD1901上にイメージが表示される。   A display controller (DISPC) 1908 switches the video image output developed in the RAM 1911 at a high speed in response to a request from the CPU 1905 and outputs a synchronization signal to the LCD 1901. As a result, the video image of the RAM 1911 is output to the LCD 1901 in synchronization with the synchronization signal of the DISPC 1908, and the image is displayed on the LCD 1901.

パネルコントローラ(PANELC)1909は、CPU1905の要求に応じて、タッチパネル1902およびボタンデバイス1903を制御する。その制御によって、タッチパネル1902上の指又はスタイラスペンなどの指示物の押下位置や、ボタンデバイス1903上の押下されたキーコードなどが、CPU1905に通知される。押下位置情報は、タッチパネル1902の横方向の絶対位置を示す座標値(以下x座標)と、縦方向の絶対位置を示す座標値(以下y座標)から成る。タッチパネル1902は複数ポイントの押下を検知することが可能で、その場合CPU1905には押下点数分の押下位置情報が通知される。   A panel controller (PANELC) 1909 controls the touch panel 1902 and the button device 1903 in response to a request from the CPU 1905. By the control, the CPU 1905 is notified of the pressing position of an indicator such as a finger or a stylus pen on the touch panel 1902, the pressed key code on the button device 1903, and the like. The pressed position information includes a coordinate value indicating the absolute position in the horizontal direction of the touch panel 1902 (hereinafter referred to as x coordinate) and a coordinate value indicating the absolute position in the vertical direction (hereinafter referred to as y coordinate). The touch panel 1902 can detect pressing of a plurality of points, and in this case, the CPU 1905 is notified of pressing position information for the number of pressing points.

電源コントローラ1907は、外部電源(不図示)と接続され電力の供給を受ける。これによって、電源コントローラ1907に接続された二次電池1912を充電しながら、且つ、携帯端末107全体に電力を供給する。外部電源から電力が供給されないときは、二次電池1912が携帯端末107全体に電力を供給する。   The power supply controller 1907 is connected to an external power supply (not shown) and receives power supply. As a result, the secondary battery 1912 connected to the power supply controller 1907 is charged and power is supplied to the entire mobile terminal 107. When power is not supplied from the external power source, the secondary battery 1912 supplies power to the entire mobile terminal 107.

無線LANモジュール1906は、CPU1905の制御に基づいて、LAN102に接続された無線アクセスポイント(不図示)上の無線LANモジュールとの無線通信を確立し、携帯端末107とMFP100など図1に示す各装置との通信を仲介する。無線LANモジュール1906には、例えばIEEE802.11bなどがある。   The wireless LAN module 1906 establishes wireless communication with a wireless LAN module on a wireless access point (not shown) connected to the LAN 102 based on the control of the CPU 1905, and each device shown in FIG. Mediate communication with. The wireless LAN module 1906 includes, for example, IEEE 802.11b.

タイマー1913は、CPU1905の制御に基づいて、図20に示すジェスチャイベント発生部2001へのタイマー割込を発生させる。ジェスチャイベント発生部2001については後述する。また、携帯端末107には不図示の地磁気センサや加速度センサがバスに接続されている。タイマー1913は、CPU1905の制御に基づいて、携帯端末107の傾きを検知し、携帯端末107が所定以上の傾きを得ると、携帯端末107の向きを変更し、描画部2003にLCD1901への描画の指示を送る。CPU1905は、携帯端末107の向きが変更されるとき、LCD1901の幅および高さを入れ替えて、以降の処理を行う。   The timer 1913 generates a timer interrupt to the gesture event generating unit 2001 shown in FIG. 20 based on the control of the CPU 1905. The gesture event generation unit 2001 will be described later. Further, the mobile terminal 107 is connected with a geomagnetic sensor and an acceleration sensor (not shown) to the bus. The timer 1913 detects the tilt of the mobile terminal 107 based on the control of the CPU 1905. When the mobile terminal 107 obtains a tilt greater than or equal to a predetermined level, the timer 1913 changes the orientation of the mobile terminal 107 and causes the drawing unit 2003 to draw on the LCD 1901. Send instructions. When the orientation of the mobile terminal 107 is changed, the CPU 1905 exchanges the width and height of the LCD 1901 and performs the subsequent processing.

図20は、携帯端末107のCPU1905で実行処理されるソフトウェアモジュール2000の構成を示すブロック図である。ソフトウェアモジュール2000を構成する各モジュールについて説明する。図20に示すように、ソフトウェアモジュール2000は、ジェスチャイベント発生部2001、ジェスチャイベント処理部、描画部2003を備える。   FIG. 20 is a block diagram illustrating a configuration of the software module 2000 that is executed by the CPU 1905 of the mobile terminal 107. Each module constituting the software module 2000 will be described. As illustrated in FIG. 20, the software module 2000 includes a gesture event generation unit 2001, a gesture event processing unit, and a drawing unit 2003.

ジェスチャイベント発生部2001は、ユーザのタッチ入力(画面上の操作)を受けて、後述する各種ジェスチャイベントを発生させる。ジェスチャイベント発生部2001は、発生したジェスチャイベントを、ジェスチャイベント処理部2002へ送信する。ジェスチャイベント処理部2002は、ジェスチャイベント発生部2001で発生したジェスチャイベントを受信して、各ジェスチャイベントと、アプリケーション画像データに記述された文書構造に応じた処理を実行する。描画部2003は、ジェスチャイベント処理部2002の実行結果に応じて、MFP100から送信されるアプリケーション画像データをLCD1901へ描画・表示する。アプリケーション画像データの表示の方法については後述する。   The gesture event generating unit 2001 receives various user touch inputs (operations on the screen) and generates various gesture events to be described later. The gesture event generation unit 2001 transmits the generated gesture event to the gesture event processing unit 2002. The gesture event processing unit 2002 receives the gesture event generated by the gesture event generating unit 2001, and executes processing according to each gesture event and the document structure described in the application image data. The drawing unit 2003 draws and displays application image data transmitted from the MFP 100 on the LCD 1901 in accordance with the execution result of the gesture event processing unit 2002. A method of displaying application image data will be described later.

図21は、ジェスチャイベント発生部2001が発生させるジェスチャイベント名の一覧と、ジェスチャイベント発生部2001がジェスチャイベント処理部2200へ送信する各イベントの情報を示す。   FIG. 21 shows a list of gesture event names generated by the gesture event generating unit 2001, and information on each event transmitted from the gesture event generating unit 2001 to the gesture event processing unit 2200.

図21(A)は、タッチ押下イベントであり、最新のタッチ座標の座標値とタッチ座標数が送信される。タッチ座標とは、タッチパネル1902にユーザの指が触れている1点の座標のことで、x座標とy座標で表される1組の座標値を持つ。また、タッチ座標数とは、タッチパネル1902にユーザの指が接触したタッチ座標の数を示している。なお、タッチ座標は、タッチパネル1902へユーザの指が触れたとき、指が移動したとき、指が離れたとき、タイマー1913からの割り込みが発生したときに更新される。   FIG. 21A shows a touch pressing event, in which the latest coordinate value and the number of touch coordinates are transmitted. The touch coordinates are coordinates of one point where the user's finger touches the touch panel 1902 and have a set of coordinate values represented by an x coordinate and a y coordinate. The number of touch coordinates indicates the number of touch coordinates at which the user's finger contacts the touch panel 1902. The touch coordinates are updated when the user's finger touches the touch panel 1902, when the finger moves, when the finger is released, or when an interrupt from the timer 1913 occurs.

図21(B)は、スワイプイベントであり、最新のタッチ座標の座標値と、最新と直前の座標値の差分から計算した移動距離がジェスチャイベント処理部2200に送信される。ここで、スワイプとは、指先をタッチパネル1902に接触させたまま、1方向に移動(滑らすような)動作のことをいう。   FIG. 21B shows a swipe event, and the movement distance calculated from the coordinate value of the latest touch coordinate and the difference between the latest and previous coordinate values is transmitted to the gesture event processing unit 2200. Here, “swipe” refers to an operation of moving (sliding) in one direction while keeping the fingertip in contact with the touch panel 1902.

図21(C)は、ピンチインイベントであり、最新の2点のタッチ座標の中心座標値、及び、2点のタッチ座標を結ぶ直線の縮小距離から計算したピンチインの縮小率がジェスチャイベント処理部2200に送信される。ここで、ピンチインとは、2つの指先をタッチパネル1902に接触させたまま、互いに近づける(つまむような)動作のことをいう。   FIG. 21C shows a pinch-in event, and the pinch-in reduction rate calculated from the center coordinate value of the latest two touch coordinates and the reduction distance of the straight line connecting the two touch coordinates is the gesture event processing unit 2200. Sent to. Here, pinch-in refers to an operation in which two fingertips are brought close to each other (pinch) while being in contact with the touch panel 1902.

図21(D)は、ピンチアウトイベントであり、最新の2点のタッチ座標の中心座標値、及び、2点のタッチ座標を結ぶ直線の拡大距離から計算したピンチアウトの拡大率がジェスチャイベント処理部2200に送信される。ここで、ピンチアウトとは、2つの指先をタッチパネル1902に接触させたまま、互いに遠ざける(指を広げるような)動作のことをいう。   FIG. 21D shows a pinch-out event, and the pinch-out enlargement rate calculated from the center coordinate value of the latest two touch coordinates and the enlargement distance of the straight line connecting the two touch coordinates is the gesture event processing. Transmitted to the unit 2200. Here, “pinch out” refers to an operation in which two fingertips are kept away from each other while touching the touch panel 1902 (like spreading fingers).

図21(E)は、2点スワイプイベントであり、最新の2点のタッチ座標の座標値、及び、2点のタッチ座標の最新と直前の座標値の差分から計算した移動距離がジェスチャイベント処理部2200に送信される。2点スワイプイベントは、2点のタッチ座標が同じ方向に移動している場合に発生する。   FIG. 21E shows a two-point swipe event. The coordinate values of the latest two touch coordinates and the movement distance calculated from the difference between the latest and previous coordinate values of the two touch coordinates are the gesture event processing. Transmitted to the unit 2200. A two-point swipe event occurs when the touch coordinates of two points are moving in the same direction.

図21(F)は、ローテートイベントであり、最新の2点のタッチ座標の座標値から計算した回転の中心座標値、及び、2点のタッチ座標の最新と直前の座標値から計算した回転角度がジェスチャイベント処理部2200に送信される。ここで、ローテートとは、2つの指先をタッチパネル1902に接触させたまま、2つの指先をタッチパネル1902に対して回転させる動作のことを言う。   FIG. 21F shows a rotation event, which is the rotation center coordinate value calculated from the latest two coordinate values of the touch coordinates, and the rotation angle calculated from the latest and previous coordinate values of the two touch coordinates. Is transmitted to the gesture event processing unit 2200. Here, “rotate” refers to an operation of rotating two fingertips with respect to the touch panel 1902 while keeping the two fingertips in contact with the touch panel 1902.

図21(G)は、フリックイベントであり、最新のタッチ座標の座標値、及び、最新と直前の座標値から計算した指の移動速度がジェスチャイベント処理部2200に送信される。ここで、フリックとは、スワイプ中に指を離す(指をはじくような)動作のことをいう。   FIG. 21G illustrates a flick event. The coordinate value of the latest touch coordinates and the finger movement speed calculated from the latest and previous coordinate values are transmitted to the gesture event processing unit 2200. Here, flicking refers to an action of releasing a finger during swiping (like repelling a finger).

図21(H)は、タッチ解除イベントであり、タッチパネル1902からユーザの指が離れたときの最新のタッチ座標の座標値、及び、座標数がジェスチャイベント処理部2200に送信される。   FIG. 21H illustrates a touch release event, in which the latest coordinate value of touch coordinates and the number of coordinates when the user's finger is released from the touch panel 1902 are transmitted to the gesture event processing unit 2200.

図21(I)は、ダブルタップイベントであり、最新のタッチ座標の座標値がジェスチャイベント処理部2200に送信される。ここで、ダブルタップとは、所定の時間内に後述のシングルタップイベントが2回発生したことを言う。   FIG. 21I is a double tap event, and the coordinate value of the latest touch coordinate is transmitted to the gesture event processing unit 2200. Here, the double tap means that a single tap event described later has occurred twice within a predetermined time.

図21(J)は、シングルタップイベントであり、最新のタッチ座標の座標値がジェスチャイベント処理部2200に送信される。ここで、シングルタップとは、前述のタッチ押下イベントの後、所定の時間内にタッチ解除イベントが発生したことを言う。   FIG. 21J shows a single tap event, and the coordinate value of the latest touch coordinate is transmitted to the gesture event processing unit 2200. Here, the single tap means that a touch release event has occurred within a predetermined time after the aforementioned touch pressing event.

図21(K)は、ロングタップイベントであり、最新のタッチ座標の座標値がジェスチャイベント処理部2200に送信される。ここで、ロングタップとは、前述のタッチ押下イベントの後、所定の時間以上経過してからタッチ解除イベントが発生したことを言う。   FIG. 21K is a long tap event, and the coordinate value of the latest touch coordinates is transmitted to the gesture event processing unit 2200. Here, the long tap means that a touch release event has occurred after a predetermined time or more has elapsed after the touch pressing event described above.

図21(L)は、タッチアンドホールドイベントであり、最新のタッチ座標の座標値がジェスチャイベント処理部2200に送信される。ここで、タッチアンドホールドイベントとは、タッチパネル1902にユーザの指が触れてから一度も移動することなく所定の時間以上経過したことを言う。   FIG. 21L illustrates a touch and hold event, and the latest coordinate value of the touch coordinates is transmitted to the gesture event processing unit 2200. Here, the touch-and-hold event means that a predetermined time or more has passed without moving even once the user's finger touches the touch panel 1902.

図21(M)は、トリプルタップイベントであり、最新のタッチ座料の座標値が、送信される。ここでトリプルタッチイベントとは、所定の時間内に後述のシングルタップイベントが3回発生したことを言う。   FIG. 21M illustrates a triple tap event, in which the latest coordinate value of the touch rent is transmitted. Here, the triple touch event means that a single tap event described later has occurred three times within a predetermined time.

図21(N)は、4点スワイプイベントであり、イベント発生座標値と、スワイプの移動距離情報が送付される。ここで、4点スワイプとは、4本の指先をタッチパネル1902に接触させたまま、1方向に移動(滑らすような)動作のことをいう。   FIG. 21N shows a four-point swipe event, in which event occurrence coordinate values and swipe movement distance information are sent. Here, the four-point swipe means an operation of moving (sliding) in one direction while keeping four fingertips in contact with the touch panel 1902.

なお、ここでは、ユーザのタッチ入力の例として指を使った場合を示すが、タッチ入力はスタイラスペンなどによる入力でも良い。   Here, a case where a finger is used is shown as an example of the user's touch input, but the touch input may be input with a stylus pen or the like.

次に、図22と図23を用いて、本実施形態において、携帯端末107がアプリケーション画像データ受信した際の処理について説明する。図22は、携帯端末107がアプリケーション画像データを受信した際のフローチャートである。図23は、携帯端末107のタッチUI1904の画面表示例である。   Next, processing when the mobile terminal 107 receives application image data in the present embodiment will be described with reference to FIGS. 22 and 23. FIG. 22 is a flowchart when the mobile terminal 107 receives application image data. FIG. 23 is a screen display example of the touch UI 1904 of the mobile terminal 107.

まず、S2200において、携帯端末107は、無線LANモジュール1906を介してMFP100からアプリケーション画像データを受信すると、RAM1911に受信したアプリケーション画像データを保存する。次に、S2201において、描画部2003は、RAM1911に保存したアプリケーション画像データの構文を解析し、先頭ページと、それに含まれるオブジェクトを読み込む。   First, in step S <b> 2200, when the mobile terminal 107 receives application image data from the MFP 100 via the wireless LAN module 1906, the mobile terminal 107 stores the received application image data in the RAM 1911. In step S <b> 2201, the drawing unit 2003 analyzes the syntax of the application image data stored in the RAM 1911 and reads the first page and objects included in the page.

次に、S2202において、描画部2003は読み込んだ先頭ページに含まれる背景、文字、写真、グラフィックの全てのオブジェクトを、オブジェクトの始点の座標と幅、高さに応じてレンダリングしてタッチUI1904の表示状態を更新する。このとき、先頭ページは、図23のページ2300に示すように、タッチUI1904の幅に合わせて表示倍率が制御される。また、表示倍率に縮小したときのページの高さがタッチUI1904よりも小さい場合は、タッチUI1904の中央に適合され表示されるように、タッチUI1904上の座標において、ページ2300の始点が制御される。また、表示倍率に縮小したときのページ2300の高さがタッチUI1904よりも大きい場合は、タッチUI1904上の座標において、ページ2300の始点がタッチUI1904の始点(例えば画面の左上)に合うように制御される。このように、タッチUI1904においてページ全体を表示する表示制御方法を、本実施例ではページ表示モード(第2の表示モード)を呼ぶこととする。   In step S2202, the drawing unit 2003 renders all the background, text, photo, and graphic objects included in the read first page according to the coordinates, width, and height of the start point of the object, and displays the touch UI 1904. Update state. At this time, the display magnification of the first page is controlled in accordance with the width of the touch UI 1904 as shown in a page 2300 in FIG. Further, when the page height when reduced to the display magnification is smaller than the touch UI 1904, the start point of the page 2300 is controlled at the coordinates on the touch UI 1904 so as to be displayed in the center of the touch UI 1904. . If the height of the page 2300 when reduced to the display magnification is larger than the touch UI 1904, control is performed so that the start point of the page 2300 matches the start point of the touch UI 1904 (for example, the upper left of the screen) in the coordinates on the touch UI 1904. Is done. In this way, the display control method for displaying the entire page on the touch UI 1904 is referred to as a page display mode (second display mode) in this embodiment.

なお、本実施形態のアプリケーション画像データに含まれる文字オブジェクトは、図18の文字属性1802に示した通り、ベクトルデータと共に文字コードデータ1803を保持している。描画部2003は、ページ内に文字オブジェクトがある場合、ページ2300のレンダリングにベクトルデータのみを用い、一方で、後述する文字折り返し画像のレンダリングに文字コードデータを用いる。   Note that the character object included in the application image data of the present embodiment holds character code data 1803 together with vector data, as indicated by the character attribute 1802 in FIG. When there is a character object in the page, the drawing unit 2003 uses only vector data for rendering the page 2300, while using character code data for rendering a character return image described later.

次に、図23と図24を用いて、携帯端末107のアプリケーション画像データの操作制御を行うソフトウェアモジュールについて説明する。図24は、ジェスチャイベント処理部2002が備える、アプリケーション画像データの操作制御に係わるソフトウェアモジュールの構成を示すブロック図である。ジェスチャイベント処理部2002は、表示変更イベント処理部2400、スワイプイベント処理部2401、拡大・縮小イベント処理部2405、オブジェクト選択処理部2407、関心領域イベント処理部208を備える。   Next, a software module that performs operation control of application image data of the mobile terminal 107 will be described with reference to FIGS. 23 and 24. FIG. 24 is a block diagram illustrating a configuration of a software module related to operation control of application image data included in the gesture event processing unit 2002. The gesture event processing unit 2002 includes a display change event processing unit 2400, a swipe event processing unit 2401, an enlargement / reduction event processing unit 2405, an object selection processing unit 2407, and a region of interest event processing unit 208.

ジェスチャイベント処理部2002は、ジェスチャイベント発生部2001から、図21に示すいずれかのジェスチャイベントを受信する。表示変更イベント処理部2400は、ジェスチャイベント処理部2002が受信するジェスチャイベントの内、シングルタップイベント(図21(J))に対する処理を行う。表示変更イベント処理部2400は、シングルタップイベントを受信すると、シングルタップイベントのタッチ座標の座標値が、図23のモード切替ボタン2301、次へボタン2302、前へボタン2303の何れかの上にあるかを判定する。そして、シングルタップイベントのタッチ座標が「モード切替ボタン」2301上である場合は、表示変更イベント処理部2400は、後述するモード切替処理を行う。また、タッチ座標が「次へボタン」2302上である場合は、表示変更イベント処理部2400は、後述する「次選択処理」(次へボタン選択処理)を行う。タッチ座標が「前へボタン」2303上である場合は、表示変更イベント処理部2400は、後述する「前選択処理」(前へボタン選択処理)を行う。表示変更イベント処理部2400が備える表示順番制御部2402と表示範囲制御部2403が、「次選択処理」と「前選択処理」を行う。   The gesture event processing unit 2002 receives one of the gesture events shown in FIG. 21 from the gesture event generating unit 2001. The display change event processing unit 2400 performs processing for a single tap event (FIG. 21J) among gesture events received by the gesture event processing unit 2002. When the display change event processing unit 2400 receives a single tap event, the coordinate value of the touch coordinates of the single tap event is on any of the mode switching button 2301, the next button 2302, and the previous button 2303 in FIG. Determine whether. When the touch coordinates of the single tap event are on the “mode switching button” 2301, the display change event processing unit 2400 performs a mode switching process described later. When the touch coordinates are on the “next button” 2302, the display change event processing unit 2400 performs a “next selection process” (next button selection process) described later. When the touch coordinates are on the “previous button” 2303, the display change event processing unit 2400 performs a “previous selection process” (previous button selection process) described later. The display order control unit 2402 and the display range control unit 2403 included in the display change event processing unit 2400 perform “next selection processing” and “previous selection processing”.

スワイプイベント処理部2401は、図21(B)のスワイプイベントに対する処理を行う。ジェスチャイベント処理部2002がスワイプイベントを受信すると、スワイプイベント情報が含む移動距離に応じて、タッチUI1904上の座標において、ページ2300の始点を移動させる。そして、その上でタッチUI1904の表示状態を更新する。また、スワイプイベント処理部2401が備える移動範囲制限部2404が、図30を用いて後述する移動範囲制限処理を行って、タッチUI1904に表示される部分領域の移動範囲を制限する。   The swipe event processing unit 2401 performs processing for the swipe event in FIG. When the gesture event processing unit 2002 receives the swipe event, the start point of the page 2300 is moved at the coordinates on the touch UI 1904 according to the moving distance included in the swipe event information. Then, the display state of the touch UI 1904 is updated. Further, the movement range restriction unit 2404 included in the swipe event processing unit 2401 performs a movement range restriction process described later with reference to FIG. 30 to restrict the movement range of the partial area displayed on the touch UI 1904.

拡大・縮小イベント処理部2405は、図21(C)のピンチインイベントと、図21(D)のピンチアウトイベントに対する処理を行う。ジェスチャイベント処理部2002は、ピンチインイベントやピンチアウトイベントを受信すると、二つのイベントの縮小率もしくは拡大率に応じてページ2300の表示倍率を変化させる。そして、拡大・縮小イベント処理部2405は、その上でタッチUI1904の表示状態を更新する。また、拡大・縮小イベント処理部2405が備える縮小時表示モード切替部2406が図31のフローチャートを用いて後述する縮小時表示モード切替処理を行う。   The enlargement / reduction event processing unit 2405 performs processing for the pinch-in event in FIG. 21C and the pinch-out event in FIG. When the gesture event processing unit 2002 receives the pinch-in event or the pinch-out event, the gesture event processing unit 2002 changes the display magnification of the page 2300 according to the reduction rate or the enlargement rate of the two events. The enlargement / reduction event processing unit 2405 then updates the display state of the touch UI 1904. Further, the reduction-time display mode switching unit 2406 included in the enlargement / reduction event processing unit 2405 performs a reduction-time display mode switching process, which will be described later, using the flowchart of FIG.

オブジェクト選択処理部2407は、図21(I)のダブルタップイベントに対する処理を行う。ジェスチャイベント処理部2002がダブルタップイベントを受信すると、ダブルタップイベントのタッチ座標の座標値を用いて、図32を参照して後述するオブジェクト選択処理を行う。なお、オブジェクト選択処理は、ページ表示モードでのみ動作するようオブジェクト選択処理部2407によって制御される。   The object selection processing unit 2407 performs processing for the double tap event of FIG. When the gesture event processing unit 2002 receives the double tap event, the object selection processing described later with reference to FIG. 32 is performed using the coordinate value of the touch coordinate of the double tap event. Note that the object selection processing is controlled by the object selection processing unit 2407 so as to operate only in the page display mode.

また、関心領域イベント処理部2408は、図21(M)のトリプルタップイベントに対する処理を行う。ジェスチャイベント処理部2002は、タッチUI1904にトリプルタップされることによって、ジェスチャイベント発生部2001からトリプルタップイベントを受信する。この時、トリプルタップイベントのタッチ座標の座標値を用いて、タッチされたオブジェクトを判定し、該オブジェクトに関する情報を、修飾オブジェクト登録部2410に、修飾オブジェクトとして登録する。なお、修飾オブジェクトとして登録する際の修飾オブジェクト登録処理は、ページ表示モードのみで動作するように、オブジェクト選択イベント処理部2407によって制御される。修飾オブジェクト登録処理の詳細は、後述する。   Further, the region-of-interest event processing unit 2408 performs processing for the triple tap event of FIG. The gesture event processing unit 2002 receives a triple tap event from the gesture event generating unit 2001 by being triple-tapped to the touch UI 1904. At this time, the touched object is determined using the coordinate value of the touch coordinate of the triple tap event, and information regarding the object is registered in the modified object registration unit 2410 as a modified object. Note that the modification object registration process when registering as a modification object is controlled by the object selection event processing unit 2407 so as to operate only in the page display mode. Details of the modification object registration process will be described later.

また、関心領域イベント処理部2408は、図21(N)の4点スワイプイベントに対する処理を行い。タッチUI1904に4点スワイプされることにより、ジェスチャイベント処理部2002がジェスチャイベント発生部2003より、4点スワイプイベントを受信する。4点スワイプイベントを受け取ると、関心領域イベント処理部2408は、関心領域表示モード(第3の表示モード)に切り替える処理を行い、この処理については、後述する。ここで、関心領域表示モードとは、修飾オブジェクト以外を表示するためのモードである。尚、新規に文書を読み込んだ時には関心領域表示モードはリセットされる。関心領域表示モードは携帯情報端末107のモード情報として保持される。   The region-of-interest event processing unit 2408 performs processing for the four-point swipe event in FIG. When the touch UI 1904 is swiped by four points, the gesture event processing unit 2002 receives a four-point swipe event from the gesture event generating unit 2003. Upon receiving the four-point swipe event, the region-of-interest event processing unit 2408 performs processing for switching to the region-of-interest display mode (third display mode), which will be described later. Here, the region of interest display mode is a mode for displaying other than the decoration object. Note that the region of interest display mode is reset when a new document is read. The region of interest display mode is held as mode information of the portable information terminal 107.

次に、図23と図25、図26を用いて、表示変更イベント処理部2400が行うモード切替処理について説明する。図25は、モード切替処理のフローチャートである。図23または図26(B)に示す表示モード切替項目であるモード切替ボタン2301がユーザによりタップ指示されるのに応じて処理が実行される。図26は、携帯端末107のタッチUI1904の画面表示例である。   Next, the mode switching process performed by the display change event processing unit 2400 will be described with reference to FIGS. 23, 25, and 26. FIG. 25 is a flowchart of the mode switching process. The processing is executed in response to a user's tap instruction on a mode switching button 2301 that is a display mode switching item shown in FIG. 23 or FIG. FIG. 26 is a screen display example of the touch UI 1904 of the mobile terminal 107.

まず、S2500において、表示変更イベント処理部2400は、モード切替ボタンが指示されたと判定すると、携帯端末107に設定中の表示モードを取得する。ここで、表示モードとは、携帯端末107がアプリケーション画像データをタッチUI1904に表示する方法を示し、本実施形態では、携帯端末107は、一例として次の3つの表示モードを有するものとする。第一に、図23に示すようにページ全体を表示するのに適したページ表示モードである。第二に、図26に示すようにページ内の一部の領域(すなわちページ画像内の各オブジェクト)を拡大表示するのに適した部分領域表示モードである。すなわち、部分領域表示モードは、ページ画像内の各オブジェクトを拡大表示する第1の表示モードである。前述した通り、アプリケーション画像データを携帯端末107が受信した直後は、ページ表示モードが設定されている。部分領域表示モードは、図26に示す通り、ページ2300内の各オブジェクトが大きく表示されるようにページ2300の表示倍率と始点を制御する表示モードである。   First, in S2500, when the display change event processing unit 2400 determines that the mode switching button has been instructed, the display change event processing unit 2400 acquires the display mode being set in the mobile terminal 107. Here, the display mode indicates a method in which the mobile terminal 107 displays application image data on the touch UI 1904. In the present embodiment, the mobile terminal 107 has the following three display modes as an example. First, a page display mode suitable for displaying the entire page as shown in FIG. Second, as shown in FIG. 26, the partial area display mode is suitable for enlarging and displaying a partial area in the page (that is, each object in the page image). That is, the partial area display mode is a first display mode in which each object in the page image is enlarged and displayed. As described above, the page display mode is set immediately after the mobile terminal 107 receives the application image data. As shown in FIG. 26, the partial area display mode is a display mode for controlling the display magnification and start point of the page 2300 so that each object in the page 2300 is displayed in a large size.

表示イベント処理部が、図26に示す文字オブジェクト2601をユーザがシングルタップした際にS2500において、表示モードを切り替えてもよい。あるいは、図23のモード切替ボタン2301がユーザにより押下されて図26(A)に示す画面を表示し、ユーザに拡大対象のオブジェクトを選択させる構成としてもよい。文字オブジェクト2601を拡大表示対象のオブジェクトとしてユーザが選択した場合、図26(B)に示す画像が表示される。   When the user single taps the character object 2601 shown in FIG. 26, the display event processing unit may switch the display mode in S2500. Alternatively, the mode switching button 2301 in FIG. 23 may be pressed by the user to display the screen illustrated in FIG. 26A and allow the user to select an object to be enlarged. When the user selects the character object 2601 as an object to be enlarged and displayed, an image shown in FIG. 26B is displayed.

なお、図26(A)のオブジェクト2601を囲む破線は、説明をわかり易くするために描いたもので、ページ2300上には存在しない。また、本実施例では、図26(B)に示すように、拡大表示対象のオブジェクト2601の領域が透明で且つそれ以外の領域が、斜線で示す半透明グレーの半透明マスク2600を、ページ2300の上に重ねて表示する。このようにコントラストを付して表示することで、対象のオブジェクトだけが見やすくなるという効果が得られる。つまり、半透明マスクを重ねて表示することにより、対象のオブジェクト以外が暗く表示されるので、対象のオブジェクトが強調表示され、ユーザは表示対象になっているオブジェクトの領域を特定しやすくなる。   Note that a broken line surrounding the object 2601 in FIG. 26A is drawn for easy understanding and does not exist on the page 2300. Further, in this embodiment, as shown in FIG. 26B, a semi-transparent mask 2600 of a translucent gray in which the area of the object 2601 to be enlarged and displayed is transparent and the other area is indicated by hatching is displayed on a page 2300. Overlaid on top of the display. By displaying the image with contrast in this way, it is possible to obtain an effect that only the target object is easy to see. That is, by displaying the semi-transparent masks in an overlapping manner, the objects other than the target object are darkly displayed, so that the target object is highlighted and the user can easily specify the region of the object to be displayed.

表示変更イベント処理部2400は、モード切替ボタン2301が指示されたときに設定中の表示モードが、部分領域表示モードまたは折り返し表示モードである場合にはS2501に移行し、ページ表示モードである場合にはS2504に移行する。   The display change event processing unit 2400 proceeds to S2501 when the display mode being set when the mode switching button 2301 is instructed is the partial area display mode or the folding display mode, and when the display mode is the page display mode. Shifts to S2504.

S2501において、表示変更イベント処理部2400は、図26の半透明マスク2600を非表示設定(半透明マスクOFF)にして、ページ画像全体を表示するページ表示モードへの切り替えを行う。S2502において、表示変更イベント処理部2400は、タッチUI1904の幅に合わせてページ2300の表示倍率を制御すると共に、ページ2300の始点を制御して、ページの表示範囲を決定する処理(表示範囲決定処理)を行う。S2502で行われる表示範囲決定処理の詳細は、後述する。次に、S2503において、表示変更イベント処理部2400は、当該決定されたページの表示範囲に基づいて、タッチUI1904の表示状態を更新する。   In step S2501, the display change event processing unit 2400 sets the semi-transparent mask 2600 in FIG. 26 to non-display (semi-transparent mask OFF) and switches to a page display mode in which the entire page image is displayed. In step S2502, the display change event processing unit 2400 controls the display magnification of the page 2300 according to the width of the touch UI 1904, and controls the start point of the page 2300 to determine the display range of the page (display range determination process). )I do. Details of the display range determination process performed in S2502 will be described later. In step S <b> 2503, the display change event processing unit 2400 updates the display state of the touch UI 1904 based on the determined display range of the page.

また、モード切替ボタン2301が指示されたときに設定中の表示モードがページ表示モードであった場合には、S2504において、表示変更イベント処理部2400は、表示モードを部分領域表示モードへ切り替る。そして、表示変更イベント処理部2400は、半透明マスク2600を表示する設定(半透明マスクON)に変更する。   If the display mode being set when the mode switching button 2301 is instructed is the page display mode, the display change event processing unit 2400 switches the display mode to the partial area display mode in S2504. Then, the display change event processing unit 2400 changes the setting to display the semi-transparent mask 2600 (semi-transparent mask ON).

次に、S2505において、表示変更イベント処理部2400は、ページ2300内の先頭オブジェクトを読み込み、先頭オブジェクトの始点と幅、高さを取得する。ここで、先頭オブジェクトとは、アプリケーション画像データの文書構造ツリーにおいて、最初に読み込まれるオブジェクトである。   In step S <b> 2505, the display change event processing unit 2400 reads the top object in the page 2300 and acquires the start point, width, and height of the top object. Here, the head object is an object that is read first in the document structure tree of application image data.

次にS2506にて、表示変更イベント処理部2400は、オブジェクトが終了かどうかを判定する。オブジェクトが終了していると判定された場合、S2501に進む。一方、終了していないと判定された場合、S2507にて、表示変更イベント処理部2400は、関心領域表示モードか否かを判定する。   In step S2506, the display change event processing unit 2400 determines whether the object is finished. If it is determined that the object has ended, the processing proceeds to S2501. On the other hand, if it is determined that the processing has not ended, the display change event processing unit 2400 determines in S2507 whether or not the region of interest display mode is set.

関心領域表示モードであると判定された場合は、S2508に移行する。S2508では、後述の図44に示すフローにて、読み込まれたオブジェクトが、修飾オブジェクトと同等か否かを判定する。修飾オブジェクトと同等であると判定された場合、読み込まれているオブジェクトは表示せず、S2509にて次のオブジェクトを読み込み、S2506に戻って再び処理を実行する。   If it is determined that the region-of-interest display mode is set, then the flow shifts to S2508. In S2508, it is determined whether or not the read object is equivalent to the decoration object in the flow shown in FIG. If it is determined that the object is equivalent to the qualified object, the read object is not displayed, the next object is read in S2509, and the process returns to S2506 to execute the process again.

一方、S2507で関心領域表示モードでないと判断した場合、およびS2508で修飾オブジェクトと同等では無いと判断された場合、S2510にて部分領域表示範囲決定処理を実行する。表示変更イベント処理部2400内の表示範囲制御部2403は、S2510において、後述する部分領域表示範囲決定処理を行った後、S2503で、当該決定された表示範囲に基づいてタッチUI1904の表示状態を更新する。なお、S2510の部分領域表示範囲決定処理では、S2505またはS2509で読み込んだオブジェクトの属性に応じて、ページの表示倍率や始点を制御し、タッチUI1904に表示する部分領域の表示範囲を決定する。部分領域表示範囲決定処理の詳細は後述する。また、このとき表示対象となっているオブジェクトの部分領域以外の領域にはグレーの半透明マスクがかけられるので、ユーザは、表示対象となっているオブジェクトを識別しやすくなる。   On the other hand, if it is determined in S2507 that the region of interest display mode is not set, or if it is determined in S2508 that it is not equivalent to the modified object, a partial region display range determination process is executed in S2510. In step S2510, the display range control unit 2403 in the display change event processing unit 2400 performs a partial area display range determination process described later. In step S2503, the display range control unit 2403 updates the display state of the touch UI 1904 based on the determined display range. To do. In the partial area display range determination process in S2510, the display magnification and start point of the page are controlled according to the object attributes read in S2505 or S2509, and the display range of the partial area displayed on the touch UI 1904 is determined. Details of the partial area display range determination processing will be described later. At this time, since the gray semi-transparent mask is applied to the region other than the partial region of the object to be displayed, the user can easily identify the object to be displayed.

次に、図25のS2510において表示範囲制御部2403が行う部分領域表示範囲決定処理の詳細について、図27のフローチャートを用いて説明する。まず、S2700において、表示範囲制御部2403は、読み込んだオブジェクトの属性を判定する。属性が文字の場合はS2701に進み、属性が表である場合はS2711に進み、それ以外の属性である場合はS2712に進む。   Next, details of the partial region display range determination process performed by the display range control unit 2403 in S2510 of FIG. 25 will be described using the flowchart of FIG. First, in step S2700, the display range control unit 2403 determines the attributes of the read object. If the attribute is a character, the process proceeds to S2701, if the attribute is a table, the process proceeds to S2711, and if the attribute is any other attribute, the process proceeds to S2712.

S2701において、表示範囲制御部2403は、文字属性である当該表示対象のオブジェクトが、箇条書きであるかを判定する。ここでいう箇条書きのオブジェクトとは、各文字列もしくは行の先頭に点や数字といった行頭文字が存在するオブジェクトを指すものとする。なお、行頭文字は、OCR結果から取得することができる。オブジェクトが箇条書きでなく、通常の文字列であった場合にはS2702に進み、箇条書きであった場合にはS2712に進む。   In step S2701, the display range control unit 2403 determines whether the display target object that is a character attribute is a bulleted item. The bulleted object here refers to an object having a bullet character such as a dot or a number at the beginning of each character string or line. The bullet can be acquired from the OCR result. If the object is not a bullet but a normal character string, the process proceeds to S2702, and if the object is a bullet, the process proceeds to S2712.

S2702において、表示範囲制御部2403は、オブジェクトの文字の組み方向を取得する。オブジェクトの組み方向は、S504のベクトル化の過程で得られている。S2703において、表示範囲制御部2403は、文字の組み方向を判定し、組み方向が縦書きである場合にはS2704に進み、横書きである場合にはS2705に進む。文字の組み方向が縦書きの場合、S2704において、表示範囲制御部2403は、当該オブジェクトの高さがタッチUI1904の画面の高さに入るようにページの表示倍率を設定する。また、文字の組み方向が横書きの場合、S2705において、表示範囲制御部2403は、当該オブジェクトの幅がタッチUI1904の画面の幅に入るようにページの表示倍率を設定する。   In step S2702, the display range control unit 2403 acquires the text composition direction of the object. The object assembly direction is obtained in the vectorization process of S504. In step S2703, the display range control unit 2403 determines the character combination direction. If the combination direction is vertical writing, the process proceeds to step S2704. If the writing direction is horizontal writing, the process proceeds to step S2705. When the character composition direction is vertical writing, in S2704, the display range control unit 2403 sets the display magnification of the page so that the height of the object falls within the height of the screen of the touch UI 1904. When the text composition direction is horizontal writing, in S2705, the display range control unit 2403 sets the display magnification of the page so that the width of the object falls within the screen width of the touch UI 1904.

次に、S2706において、S2704またはS2705で設定した表示倍率に拡縮したオブジェクトの全体がタッチUI1904に表示できるかを判断する。オブジェクト全体がタッチUI1904よりも大きく、全体を表示できない場合にはS2707に進み、一方、オブジェクト全体がタッチUI1904よりも小さく、全体を表示できる場合にはS2710に進む。   Next, in step S2706, it is determined whether the entire object scaled to the display magnification set in step S2704 or S2705 can be displayed on the touch UI 1904. If the entire object is larger than the touch UI 1904 and cannot be displayed, the process proceeds to S2707. If the entire object is smaller than the touch UI 1904 and can be displayed, the process proceeds to S2710.

S2707において、表示範囲制御部2403は、当該オブジェクトにおける文字の組み方向を判定し、縦書きであると判定した場合はS2708に進み、横書きであると判定した場合はS2709に進む。   In step S2707, the display range control unit 2403 determines the text composition direction of the object. If it is determined that the writing is vertical writing, the process proceeds to step S2708. If it is determined horizontal writing, the process proceeds to step S2709.

S2708において、表示範囲制御部2403は、オブジェクト全体がタッチUI1904に表示できない縦書きの文字領域を表示するので、当該オブジェクトの右上端がタッチUI1904の右上端に合うように、ページ2300の始点位置を設定する。すなわち、縦書きの場合の先頭行が表示されるように表示位置を設定する。   In step S <b> 2708, the display range control unit 2403 displays a vertically written character area that cannot be displayed on the touch UI 1904 as a whole. Set. That is, the display position is set so that the first line in the case of vertical writing is displayed.

S2709において、表示範囲制御部2403は、オブジェクト全体がタッチUI1904に表示できない横書きの文字領域を表示するので、当該オブジェクトの左上端がタッチUI1904の左上端に合うように、ページの始点を設定する。すなわち、横書きの場合の先頭行が表示されるように表示位置を設定する。   In step S <b> 2709, the display range control unit 2403 displays a horizontally written character area that cannot be displayed on the touch UI 1904 as a whole, and thus sets the start point of the page so that the upper left corner of the object matches the upper left corner of the touch UI 1904. That is, the display position is set so that the first line in horizontal writing is displayed.

また、S2710において、オブジェクト全体がタッチUI1904の画面内に収まるので、表示範囲制御部2403は、当該オブジェクトの中央がタッチUI1904の中央に合うようにページ2300の始点を設定する。   In S2710, since the entire object is within the screen of the touch UI 1904, the display range control unit 2403 sets the start point of the page 2300 so that the center of the object matches the center of the touch UI 1904.

なお、S2700でオブジェクトの属性が表であると判定した場合には、S2711において、表示範囲制御部2403は、表のヘッダ位置を検出する。ヘッダの位置は、例えば、先頭行(一番上の行)と先頭列(一番左の列)の文字のフォント種がボールドであるか否かや、ベクトル化した際のベクトルデータの近似曲線の太さ、表罫線の太さ、表の各セルの背景色などによって判断することができる。S2711で検出した表のヘッダ位置が先頭行である場合には、S2703からS2705に進む。また、表のヘッダ位置が先頭列である場合には、S2703からS2704に進む。また、S2707では、表のヘッダは一番上の行か一番左の列に存在することが一般的であるため、S2709に進み、オブジェクトの左上端がタッチUIの左上端に合うようにページの始点を設定する。このようにすることで、表のヘッダが表示されるように表示位置が設定されることになる。すなわち、上述の処理において表示範囲制御部2403は設定手段として機能し、オブジェクト属性が文字または表の場合に、文字の組み方向の範囲が画面内に入るように表示倍率と先頭オブジェクトの表示位置とを設定する。   If it is determined in S2700 that the attribute of the object is a table, the display range control unit 2403 detects the header position of the table in S2711. The position of the header is, for example, whether the font type of the characters in the first row (top row) and the first column (leftmost column) is bold, and an approximate curve of vector data when vectorized It can be determined by the thickness of the table, the thickness of the table ruled line, the background color of each cell of the table, and the like. When the header position of the table detected in S2711 is the first row, the process proceeds from S2703 to S2705. If the header position of the table is the first column, the process proceeds from S2703 to S2704. In S2707, since the table header generally exists in the top row or the leftmost column, the process proceeds to S2709, where the upper left corner of the object is aligned with the upper left corner of the touch UI. Set the start point. In this way, the display position is set so that the header of the table is displayed. That is, in the above-described processing, the display range control unit 2403 functions as a setting unit. When the object attribute is a character or a table, the display magnification and the display position of the first object are set so that the range of the character combination direction is within the screen. Set.

また、S2700でオブジェクトの属性がその他の属性(文字・表以外の属性)と判定された場合、または、S2701で箇条書きであると判断された場合、S2712において、表示範囲制御部2403は、以下の処理を行う。すなわち、表示範囲制御部2403は、当該オブジェクト全体がタッチUI1904に入るように、ページの表示倍率を設定する。そして、S2710において、オブジェクトの中央がタッチUI1904の中央に合うようにページ2300の始点を設定する。   If it is determined in S2700 that the attribute of the object is other attributes (attributes other than characters / tables), or if it is determined in S2701 that the item is a bulleted item, in S2712, the display range control unit 2403: Perform the process. That is, the display range control unit 2403 sets the display magnification of the page so that the entire object enters the touch UI 1904. In step S2710, the start point of the page 2300 is set so that the center of the object matches the center of the touch UI 1904.

「次へボタン」2302がユーザによりタップ(指定)されたときに実行される「次選択処理(次へボタン選択処理)」について、図28のフローチャートを用いて説明する。   The “next selection process (next button selection process)” executed when the “next button” 2302 is tapped (designated) by the user will be described with reference to the flowchart of FIG.

S2800において、表示変更イベント処理部2400は、次処理項目である「次へボタン」2302がタップされたときに携帯端末107に設定されている表示モードを取得する。取得した表示モードが部分領域表示モードである場合には、S2801に進み、ページ表示モードである場合にはS2805に進む。   In step S <b> 2800, the display change event processing unit 2400 acquires the display mode set in the mobile terminal 107 when the “next button” 2302 that is the next processing item is tapped. If the acquired display mode is the partial area display mode, the process proceeds to S2801, and if the acquired display mode is the page display mode, the process proceeds to S2805.

S2801において、表示順番制御部2402は、現在読み込んでいるページの全オブジェクトから、文書構造ツリーに基づいて次に表示すべきオブジェクトを選択し、そのオブジェクトを読み込む。本実施形態において、文書ツリー構造上の表示順番は、文書ツリー構造において、先頭の上位階層のオブジェクト、そのオブジェクトの下位階層に属するオブジェクトの順とする。更に、その下位階層のオブジェクトの表示が全て終わった後、次の上位階層のオブジェクト、その下位階層のオブジェクト、というような順番であるとする。   In step S2801, the display order control unit 2402 selects an object to be displayed next based on the document structure tree from all objects on the currently read page, and reads the object. In the present embodiment, the display order on the document tree structure is the order of the first upper layer object and the objects belonging to the lower layer of the object in the document tree structure. Furthermore, after all the display of the objects in the lower hierarchy is finished, it is assumed that the order is such as the next higher hierarchy object and the lower hierarchy object.

例えば、図17において、V0はページを表し、最初に読み込まれるオブジェクトはH1である。H1のオブジェクトが部分領域表示モードでタッチUI1904に表示されている状態で、「次選択処理」が行われると、H1は下位階層を持つため、T1のオブジェクトが読み込まれる。さらに、T1のオブジェクトが表示されている状態で「次選択処理」が行われると、T1は下位階層を持たず、同階層にT2が存在するため、T2が読み込まれる。T2のオブジェクトが表示されている状態で「次選択処理」が行われると、T2は下位階層を持たず、同階層に次のオブジェクトは存在しないため、次の上位階層のS1が読み込まれる。なお、本実施例において、描画要素を持たないH1を選択して読み込むとしているが、描画要素を持つT1やT2だけを選択するようにしても良いことは言うまでもない。また、例えば、文字属性のオブジェクトのみなど、特定の属性を持つオブジェクトのみを選択したり、特定の属性のみを除外して選択することも可能である。さらに、H1やV1といったそれ単体では描画要素を持たず、下位下層に描画要素を持つオブジェクトのみを選択することも可能である。   For example, in FIG. 17, V0 represents a page, and the first object read is H1. When the “next selection process” is performed in a state where the H1 object is displayed on the touch UI 1904 in the partial area display mode, the H1 has a lower hierarchy, so the T1 object is read. Further, when the “next selection process” is performed in a state where the object of T1 is displayed, T2 does not have a lower layer and T2 exists in the same layer, so that T2 is read. When the “next selection process” is performed in the state where the object of T2 is displayed, T2 does not have a lower hierarchy, and the next object does not exist in the same hierarchy, so S1 of the next higher hierarchy is read. In the present embodiment, H1 having no drawing element is selected and read. Needless to say, however, only T1 and T2 having drawing elements may be selected. Further, for example, it is possible to select only an object having a specific attribute such as only an object having a character attribute, or to exclude and select only a specific attribute. Furthermore, it is also possible to select only objects having drawing elements in lower layers, such as H1 and V1, which do not have drawing elements alone.

S2802において、表示順番制御部2402は、S2801で次のオブジェクトを読み込めたか否かを判定する。S2801で次のオブジェクトが読み込めた場合(選択可能なオブジェクトがあった場合)は、S2809に進み、関心領域表示モードか否かを判定する。S2809で関心領域表示モードであると判定された場合、S2810に進み、当該読み込んだオブジェクトが修飾オブジェクトか否かが判定される。S2810で修飾オブジェクトであると判定された場合、S2801に戻り、再び同じ処理を実行する。なお、修飾オブジェクトか否かを判定する処理は、後述する。   In step S2802, the display order control unit 2402 determines whether the next object has been read in step S2801. If the next object can be read in S2801 (if there is an object that can be selected), the process advances to S2809 to determine whether the region of interest display mode is set. If it is determined in S2809 that the region of interest display mode is set, the process advances to S2810 to determine whether or not the read object is a decoration object. If it is determined in S2810 that the object is a modified object, the process returns to S2801, and the same process is executed again. The process for determining whether or not the object is a modified object will be described later.

一方、S2809で関心領域表示モードでないと判定された場合、およびS2810で当該オブジェクトが修飾オブジェクトでないと判定された場合、読み込んだオブジェクトを表示対象としてステップS2510に進む。なお、ステップS2510の部分領域表示範囲決定処理は、既に説明したので、ここでの説明を省略する。そして、ステップS2803において、当該読み込まれたオブジェクトの属性および始点と幅、高さに基づいて制御されたページの表示倍率と始点を用いて、タッチUI1904の表示状態を更新する。   On the other hand, if it is determined in S2809 that the region of interest display mode is not selected, and if it is determined in S2810 that the object is not a qualified object, the process proceeds to step S2510 with the read object as a display target. Since the partial region display range determination process in step S2510 has already been described, description thereof is omitted here. In step S2803, the display state of the touch UI 1904 is updated using the page display magnification and start point controlled based on the attributes, start point, width, and height of the read object.

一方、S2801で次のオブジェクトが読み込めなかった場合(次に選択可能なオブジェクトが無かった場合)は、既にページ内の最終オブジェクトが読み込まれている状態である。従って、表示順番制御部2402は、S2802で全てのオブジェクトの表示処理が終了したと判断し、S2804に進む。S2804において、表示順番制御部2402は、部分領域表示モードを終了して半透明マスク2600を非表示にして、ページ表示モードへと切り替える。   On the other hand, when the next object cannot be read in S2801 (when there is no next selectable object), the last object in the page has already been read. Accordingly, the display order control unit 2402 determines that the display processing of all objects has been completed in S2802, and proceeds to S2804. In step S2804, the display order control unit 2402 ends the partial area display mode, hides the translucent mask 2600, and switches to the page display mode.

S2805において、表示モードがページ表示モードであるので、RAM1911に保存したアプリケーション画像データの構文を解析し、次のページと、それに含まれるオブジェクトを読み込む。   In S2805, since the display mode is the page display mode, the syntax of the application image data stored in the RAM 1911 is analyzed, and the next page and objects included in the page are read.

S2806において、表示順番制御部2402は、S2805で次のページが読み込めた場合はS2807に進む。一方、既にRAM1911に保存したアプリケーション画像データの最終ページが読み込まれている状態であり、S2805で次に読み込み可能なページが無かった場合は、S2808に進む。S2808では、RAM1911に保存したアプリケーション画像データの構文を解析し、先頭ページと、それに含まれるオブジェクトを読み込む。   In S2806, if the next page can be read in S2805, the display order control unit 2402 proceeds to S2807. On the other hand, if the last page of the application image data already stored in the RAM 1911 has been read and there is no next readable page in S2805, the process proceeds to S2808. In step S2808, the syntax of the application image data stored in the RAM 1911 is analyzed, and the first page and objects included in the page are read.

次に、S2807において、表示範囲制御部2403は、S2502で行われる表示範囲決定処理(詳細は後述)により、タッチUI1904の幅に合わせてページの表示倍率を制御すると共に、ページの始点を制御して、ページの表示範囲を決定する。S2803では、表示範囲制御部2403は、当該決定されたページ表示範囲に基づいてタッチUI1904の表示状態を更新する。以上により、ユーザに対して、修飾オブジェクトと判定したオブジェクトを表示することなく、関心をもっている領域のみを表示することが可能となる。   Next, in S2807, the display range control unit 2403 controls the display magnification of the page according to the width of the touch UI 1904 and the start point of the page by the display range determination process (details will be described later) performed in S2502. To determine the display range of the page. In step S2803, the display range control unit 2403 updates the display state of the touch UI 1904 based on the determined page display range. As described above, it is possible to display only an area of interest to the user without displaying an object determined as a qualified object.

次に、「前へボタン」2303がユーザによりタップ(指定)されたときに実行される「前選択処理(前へボタン選択処理)」について、図29のフローチャートを用いて説明する。前選択処理は、次選択処理とほぼ同じ構成であるため、ここでは処理が異なるS2900とS2901、S2902についてのみ説明する。   Next, the “previous selection process (previous button selection process)” executed when the “previous button” 2303 is tapped (designated) by the user will be described with reference to the flowchart of FIG. Since the pre-selection process has almost the same configuration as the next selection process, only S2900, S2901, and S2902 having different processes will be described here.

現在の表示モードが部分領域モードの場合、S2900において、表示順番制御部2402は、現在読み込んでいるページの全オブジェクトから文書構造ツリーに基づいて次に表示すべきオブジェクトを選択し、そのオブジェクトを読み込む。本実施例において、「前へボタン」が指定されたときの文書ツリー構造上の表示順番は、文書ツリー構造において末尾の下位階層のオブジェクト、そのオブジェクトの上位階層のオブジェクトというように、下位階層から上位階層への順番であるとする。すなわち、下位階層のオブジェクトの表示が全て終わった後、その上位階層における他のオブジェクトの表示へと移るものとする。   If the current display mode is the partial area mode, in step S2900, the display order control unit 2402 selects an object to be displayed next from all objects on the currently read page based on the document structure tree, and reads the object. . In the present embodiment, the display order on the document tree structure when “Previous button” is designated is from the lower hierarchy, such as the object at the end lower hierarchy in the document tree structure, and the object at the upper hierarchy of the object. It is assumed that the order is higher. In other words, after all the display of the objects in the lower layer is finished, the process proceeds to display of other objects in the upper layer.

例えば、図17において、最初に読み込まれるオブジェクトは末尾の下位階層オブジェクトであるT7である。部分領域表示モードで、T7のオブジェクトがタッチUI1904に表示されている状態で、前処理項目である「前へボタン」が押下されると、同じ階層にT6が存在するため、T6のオブジェクトが読み込まれる。さらに、T6のオブジェクトが表示されている状態で「前選択処理」が行われると、同じ階層にその他のオブジェクトが存在しないため、その上位階層であるV2が読み込まれる。V2のオブジェクトが表示されている状態で「前選択処理」が行われると、V2は同じ階層にV1を持ち、更にV1は下位階層にオブジェクトを持つため、V1の下位階層の末尾にあるT5のオブジェクトが読み込まれる。   For example, in FIG. 17, the object that is read first is T7, which is the last lower layer object. In the partial area display mode, when the T7 object is displayed on the touch UI 1904, when the “previous button” which is the pre-processing item is pressed, T6 exists in the same hierarchy, so the T6 object is read. It is. Further, when the “pre-selection process” is performed in the state where the object of T6 is displayed, since no other object exists in the same hierarchy, V2 which is the upper hierarchy is read. When the “pre-selection process” is performed in the state where the object of V2 is displayed, V2 has V1 in the same hierarchy, and V1 has an object in the lower hierarchy. Therefore, in T5 at the end of the lower hierarchy of V1, The object is loaded.

なお、「前選択処理」においても、「次選択処理」と同様に、描画要素を持つオブジェクトだけを選択するようにしても良く、また、特定の属性を持つオブジェクトのみを選択したり、特定の属性のみを除外して選択することも可能である。さらに、H1やV1といったそれ単体では描画要素を持たず、下位下層に描画要素を持つオブジェクトのみを選択することも可能である。   In the “previous selection process”, as in the “next selection process”, only an object having a drawing element may be selected, or only an object having a specific attribute may be selected. It is also possible to select only the attribute. Furthermore, it is also possible to select only objects having drawing elements in lower layers, such as H1 and V1, which do not have drawing elements alone.

S2901において、表示モードがページ表示モードであるので、RAM1911に保存したアプリケーション画像データの構文を解析し、前のページと、それに含まれるオブジェクトを読み込む。S2806において、既にRAM1911に保存したアプリケーション画像データの先頭ページが読み込まれている状態である。S2901で次に読み込み可能なページが無かった場合は、S2902において、RAM1911に保存したアプリケーション画像データの構文を解析し、最終ページと、それに含まれるオブジェクトを読み込む。   In S2901, since the display mode is the page display mode, the syntax of the application image data stored in the RAM 1911 is analyzed, and the previous page and the objects included therein are read. In S2806, the first page of the application image data already stored in the RAM 1911 has been read. If there is no page that can be read next in S2901, the syntax of the application image data stored in the RAM 1911 is analyzed in S2902, and the last page and the objects included therein are read.

次に、スワイプイベント処理部2401の移動範囲制限部2404が行う移動範囲制限処理について、図30のフローチャートを用いて説明する。S3000において、移動範囲制限部2404は、スワイプ操作が行われたときの携帯端末107に設定されている表示モードを取得して、現在の表示モードを判定する。移動範囲制限部2404は、表示モードが部分領域表示モードである場合にはS3001に処理を進め、ページ表示モードである場合には何も行わずに処理を終了する。   Next, the movement range restriction process performed by the movement range restriction unit 2404 of the swipe event processing unit 2401 will be described with reference to the flowchart of FIG. In S3000, the movement range restriction unit 2404 obtains the display mode set in the mobile terminal 107 when the swipe operation is performed, and determines the current display mode. If the display mode is the partial area display mode, the movement range restriction unit 2404 advances the process to S3001, and if the display mode is the page display mode, ends the process without performing anything.

S3000で表示モードが部分領域表示モードであると判定した場合には、S3001に処理が進む。S3001において、移動範囲制限部2404は、現在のページの表示倍率で表示したときの現在読み込まれているオブジェクトの幅が、タッチUI1904の画面の幅より大きいか否かを判定する。このとき、該オブジェクトの幅がタッチUIの画面幅よりも大きい場合には、S3002に進み、そうでない場合には、S3004に進む。   If it is determined in S3000 that the display mode is the partial area display mode, the process proceeds to S3001. In step S <b> 3001, the movement range restriction unit 2404 determines whether the width of the currently read object when displayed at the display magnification of the current page is larger than the screen width of the touch UI 1904. At this time, if the width of the object is larger than the screen width of the touch UI, the process proceeds to S3002, and if not, the process proceeds to S3004.

S3002において、スワイプイベント処理部2401がスワイプイベントの移動距離に応じてオブジェクトを含むページの表示位置を移動した際に、移動範囲制限部2404は、以下の判定を行う。つまり、移動範囲制限部2404は、オブジェクトの左右端のどちらか一端がタッチUI1904の画面内に移動したかを判定する。その結果、オブジェクトの左端または右端がタッチUIの画面内にあると判定した場合には、S3003に進み、そうでない場合には、S3006に進む。   In S3002, when the swipe event processing unit 2401 moves the display position of the page including the object according to the movement distance of the swipe event, the movement range restriction unit 2404 performs the following determination. That is, the movement range restriction unit 2404 determines whether one of the left and right ends of the object has moved within the screen of the touch UI 1904. As a result, if it is determined that the left end or right end of the object is within the touch UI screen, the process proceeds to S3003; otherwise, the process proceeds to S3006.

S3003において、移動範囲制限部2404は、画面内に移動された該オブジェクトの左端または右端をタッチUIの画面の端に移動させて、できるだけ該オブジェクトが表示されるように、ページの始点のx座標を補正する。   In step S3003, the movement range restriction unit 2404 moves the left or right edge of the object moved within the screen to the edge of the touch UI screen so that the object is displayed as much as possible. Correct.

一方、S3004において、スワイプイベントの移動距離に応じてオブジェクトを含むページの表示位置を移動した際に、移動範囲制限部2404は、オブジェクトの左端または右端がタッチUIの画面外に移動したかを判定する。その結果、オブジェクトの左端または右端がタッチUIの画面外にあると判定した場合には、S3005に進み、そうでない場合には、S3006に進む。   On the other hand, in S3004, when the display position of the page including the object is moved according to the movement distance of the swipe event, the movement range restriction unit 2404 determines whether the left end or right end of the object has moved outside the screen of the touch UI. To do. As a result, if it is determined that the left end or right end of the object is outside the screen of the touch UI, the process proceeds to S3005, and if not, the process proceeds to S3006.

S3005において、移動範囲制限部2404は、当該オブジェクトの左端または右端を画面の端に移動させて、該オブジェクトの全体が表示されるようにページの始点のx座標を補正する。オブジェクトの大きさが画面以下であれば、当該補正によりユーザの視認性が向上する。S3006において、移動範囲制限部2404は、現在のページの表示倍率で表示したときの現在読み込まれているオブジェクトの高さが、タッチUI1904の画面の高さより大きいか否かを判定する。このとき、該オブジェクトの高さがタッチUIの画面高さよりも大きい場合には、S3007に進み、そうでない場合には、S3009に進む。   In step S3005, the movement range restriction unit 2404 moves the left end or right end of the object to the end of the screen, and corrects the x coordinate of the start point of the page so that the entire object is displayed. If the size of the object is smaller than the screen, the user's visibility is improved by the correction. In step S <b> 3006, the movement range restriction unit 2404 determines whether the height of the currently read object when displayed at the display magnification of the current page is greater than the height of the touch UI 1904 screen. At this time, if the height of the object is larger than the screen height of the touch UI, the process proceeds to S3007, and if not, the process proceeds to S3009.

S3007において、移動範囲制限部2404は、スワイプイベントの移動距離に応じてオブジェクトを含むページの表示位置を移動した際に、オブジェクトの上下端のどちらか一端がタッチUI1904の画面内に移動したかを判定する。その結果、オブジェクトの上端または下端がタッチUIの画面内にあると判定した場合には、S3008に進み、そうでない場合には、S3011に進む。   In step S3007, the movement range restriction unit 2404 determines whether one of the upper and lower ends of the object has moved within the screen of the touch UI 1904 when the display position of the page including the object is moved according to the movement distance of the swipe event. judge. As a result, if it is determined that the upper end or lower end of the object is within the touch UI screen, the process proceeds to S3008; otherwise, the process proceeds to S3011.

S3008において、移動範囲制限部2404は、画面内に移動されたオブジェクトの上端または下端を画面の端に移動させて、できるだけ該オブジェクトが表示されるようにページの始点のy座標を補正する。   In step S3008, the movement range restriction unit 2404 moves the upper end or lower end of the object moved within the screen to the end of the screen, and corrects the y coordinate of the start point of the page so that the object is displayed as much as possible.

S3006でオブジェクトの高さがタッチUIの画面高さよりも大きくない場合には、S3009に処理が進む。S3009において、移動範囲制限部2404は、スワイプイベントの移動距離に応じてオブジェクトを含むページの表示位置を移動した際に、オブジェクトの上端または下端がタッチUIの画面外に移動したかを判定する。オブジェクトの上端または下端がタッチUIの画面外に移動したと判定した場合には、S3010に進み、そうでない場合には、S3011に進む。   If the height of the object is not larger than the screen height of the touch UI in S3006, the process proceeds to S3009. In step S3009, the movement range restriction unit 2404 determines whether the upper end or lower end of the object has moved outside the screen of the touch UI when the display position of the page including the object is moved according to the movement distance of the swipe event. If it is determined that the upper end or the lower end of the object has moved outside the screen of the touch UI, the process proceeds to S3010. If not, the process proceeds to S3011.

S3010において、移動範囲制限部2404は、当該オブジェクトの上端または下端を画面内に移動させて、該オブジェクトの全体が表示されるようにページの始点のy座標を補正する。最後に、S3011において、表示変更イベント処理部2400は、ページの表示倍率と始点に応じてタッチUI1904の表示状態を更新する。   In step S3010, the movement range restriction unit 2404 moves the upper end or lower end of the object into the screen and corrects the y coordinate of the start point of the page so that the entire object is displayed. Finally, in S3011, the display change event processing unit 2400 updates the display state of the touch UI 1904 in accordance with the display magnification of the page and the starting point.

このように、オブジェクトの移動範囲を制限することで、ユーザは、スワイプイベントの移動距離が大きい場合でもできるかぎりオブジェクト全体を認識することが可能となる。   In this way, by limiting the movement range of the object, the user can recognize the entire object as much as possible even when the movement distance of the swipe event is large.

次に、ピンチイン操作がなされたときに、拡大・縮小イベント処理部2405の縮小時表示モード切替部2406で行われる縮小時表示モード切替処理について、図31のフローチャートを用いて説明する。S3100において、縮小時表示モード切替部2406は、ユーザにより縮小処理を指示する操作が行われたときの携帯端末107に設定されている表示モードを取得する。取得した表示モードが部分領域表示モードである場合にはS3101に進み、ページ表示モードである場合には何も行わずに処理を終了する。   Next, the reduction-time display mode switching process performed by the reduction-time display mode switching unit 2406 of the enlargement / reduction event processing unit 2405 when a pinch-in operation is performed will be described with reference to the flowchart of FIG. In step S3100, the reduction-time display mode switching unit 2406 acquires the display mode set in the portable terminal 107 when an operation for instructing reduction processing is performed by the user. If the acquired display mode is the partial area display mode, the process proceeds to S3101. If the acquired display mode is the page display mode, the process ends without performing anything.

S3101において、縮小時表示モード切替部2406は、現在のページの表示倍率で表示したときの現在読み込まれているオブジェクトの幅が、タッチUI1904の画面の幅より小さいか否かを判定する。オブジェクトの幅がタッチUIの画面幅よりも小さい場合には、S3102に進み、そうでない場合には切替処理を行わずに処理を終了する。   In step S <b> 3101, the reduction display mode switching unit 2406 determines whether the width of the currently read object when displayed at the display magnification of the current page is smaller than the screen width of the touch UI 1904. If the width of the object is smaller than the screen width of the touch UI, the process proceeds to S3102. If not, the process ends without performing the switching process.

S3102において、縮小時表示モード切替部2406は、現在のページの表示倍率で表示したときの現在読み込まれているオブジェクトの高さが、タッチUI1904の画面の高さより小さいか否かを判定する。このとき、該オブジェクトの高さがタッチUIの画面高さよりも小さい場合には、S3103に進み、そうでない場合には切替処理を行わずに処理を終了する。   In step S <b> 3102, the reduction-time display mode switching unit 2406 determines whether the height of the currently read object when displayed at the display magnification of the current page is smaller than the height of the screen of the touch UI 1904. At this time, if the height of the object is smaller than the screen height of the touch UI, the process proceeds to S3103, and if not, the process ends without performing the switching process.

S3103において、該オブジェクトを含むページの表示倍率がさらに縮小されようとしているのかを判断する。すなわち、縮小時表示モード切替部2406が受信したイベントがピンチインイベントであるか否かを判定する。ここで、ページがさらに縮小されようとしていると判断した場合には、S3104に進み、そうでない場合には何も行わずに処理を終了する。   In step S3103, it is determined whether the display magnification of the page including the object is about to be further reduced. That is, it is determined whether or not the event received by the reduced display mode switching unit 2406 is a pinch-in event. If it is determined that the page is about to be further reduced, the process advances to step S3104. If not, nothing is performed and the process ends.

S3104において、縮小時表示モード切替部2406は、半透明マスク2600を非表示にして、携帯端末107の表示モードを部分領域表示モードからページ表示モードに切り替える。つまり、部分領域表示モードにおいてオブジェクト全体が画面内に表示されており、かつピンチイベントが行われている場合に縮小時表示モード切替部2406は第3の表示モードであるページ表示モードに切り替える。最後に、S3105において、表示変更イベント処理部2400は、該ピンチインイベントに基づいて決定されるページの表示倍率と始点に応じてタッチUI1904の表示状態を更新する。   In step S3104, the reduced display mode switching unit 2406 hides the translucent mask 2600 and switches the display mode of the portable terminal 107 from the partial area display mode to the page display mode. That is, when the entire object is displayed on the screen in the partial area display mode and a pinch event is performed, the reduced display mode switching unit 2406 switches to the page display mode that is the third display mode. Finally, in S3105, the display change event processing unit 2400 updates the display state of the touch UI 1904 according to the display magnification and start point of the page determined based on the pinch-in event.

次に、オブジェクト選択処理について、図32のフローチャートを用いて説明する。オブジェクト選択処理は、ユーザによりダブルタップ操作が行われた際にオブジェクト選択処理部2408が実行する処理である。まず、S3200において、オブジェクト選択処理部2408は、ユーザにより操作が行われたときの携帯端末107に設定されている表示モードを取得する。取得した表示モードがページ表示モードである場合にはS3201に進み、部分領域表示モードである場合には何も行わすに処理を終了する。   Next, the object selection process will be described with reference to the flowchart of FIG. The object selection process is a process executed by the object selection processing unit 2408 when a double tap operation is performed by the user. First, in step S3200, the object selection processing unit 2408 acquires the display mode set in the portable terminal 107 when the operation is performed by the user. If the acquired display mode is the page display mode, the process advances to step S3201. If the acquired display mode is the partial area display mode, the process ends without performing anything.

S3201において、オブジェクト選択処理部2408は、受信したダブルタップイベントのタッチ座標の座標値を取得する。タッチ座標の座標値はタッチUI1904上の座標値であるため、タッチUIに表示しているページの表示倍率と始点に基づいて、ページにおける座標値に換算する。   In step S3201, the object selection processing unit 2408 acquires the coordinate value of the touch coordinate of the received double tap event. Since the coordinate value of the touch coordinate is a coordinate value on the touch UI 1904, it is converted into a coordinate value on the page based on the display magnification and the starting point of the page displayed on the touch UI.

S3202において、タッチUIに表示している現在のページ内の全オブジェクトの中から先頭オブジェクトの情報を読み込む。S3203において、S3201で求めたページにおける座標値が、読み込んだオブジェクトの領域情報内に含まれるか否かを判定する。ページにおける座標値が当該読み込んだオブジェクトの領域情報内にある場合にはS3204に進み、そうでない場合にはS3206に進む。   In step S3202, information on the first object is read from all objects in the current page displayed on the touch UI. In S3203, it is determined whether or not the coordinate value in the page obtained in S3201 is included in the area information of the read object. If the coordinate value on the page is within the area information of the read object, the process proceeds to S3204; otherwise, the process proceeds to S3206.

S3204において、携帯端末107の表示モードをページ表示モードから部分領域表示モードに切り替える。同時に、非表示であった半透明マスク2600を表示することで、当該ダブルタップされたオブジェクト以外の領域に半透明マスクがかかるように制御し、S2510に進む。   In step S3204, the display mode of the portable terminal 107 is switched from the page display mode to the partial area display mode. At the same time, by displaying the non-displayed translucent mask 2600, control is performed so that the translucent mask is applied to the area other than the double-tapped object.

S2510において、S3202またはS3206で読み込んだオブジェクト(すなわち、当該ダブルタップされたオブジェクト)の部分領域表示範囲決定処理を行う。部分領域表示範囲決定処理については前述した通りであるので、ここでの詳細な説明は省く。   In step S2510, a partial area display range determination process for the object read in step S3202 or S3206 (that is, the double-tapped object) is performed. Since the partial region display range determination process is as described above, a detailed description thereof is omitted here.

そして、S3205において、表示変更イベント処理部2400は、部分領域表示範囲決定処理で決定したページの表示倍率と始点に応じてタッチUI1904の表示状態を更新する。   In step S3205, the display change event processing unit 2400 updates the display state of the touch UI 1904 in accordance with the display magnification and start point of the page determined in the partial area display range determination processing.

また一方、S3206において、オブジェクト選択処理部2408は、現在のページ内の全オブジェクトの中から、現在読み込んでいるオブジェクトの次のオブジェクトの情報を読み込む。   On the other hand, in step S3206, the object selection processing unit 2408 reads information on an object next to the currently read object from all objects in the current page.

S3207において、オブジェクト選択処理部2408は、S3206で次のオブジェクトが読み込めたか否かを判定し、読み込めた場合にはS3203に戻り、読み込めなかった場合には何もせずに処理を終了する。   In step S3207, the object selection processing unit 2408 determines whether or not the next object has been read in step S3206. If the next object has been read, the process returns to step S3203. If not, the process ends without doing anything.

なお、本実施例において、現在タッチUI1904に表示しているページ内の全オブジェクトを対象に、ページにおける座標値がオブジェクトの領域情報内にあるか否かを判定しているが、それに限るものではない。例えば、前選択処理や後選択処理と同様に、描画要素を持たないオブジェクトを無視し、描画要素を持つオブジェクトだけを選択するようにしても良い。また、例えば、文字属性のオブジェクトのみなど、特定の属性を持つオブジェクトのみを選択したり、特定の属性のみを除外して選択することも可能である。   In this embodiment, it is determined whether or not the coordinate value on the page is in the area information of the object for all objects in the page currently displayed on the touch UI 1904. However, the present invention is not limited to this. Absent. For example, as in the pre-selection process and the post-selection process, an object having no drawing element may be ignored and only an object having a drawing element may be selected. Further, for example, it is possible to select only an object having a specific attribute such as only an object having a character attribute, or to exclude and select only a specific attribute.

次に、関心領域イベント処理部2408が行う関心領域表示モードに切り替える処理について説明する。図38は、関心領域表示モードに切り替える処理を行うフローチャートである。まず、S3800で関心領域イベント処理部2408は、関心領域表示モードか否かを判定する。関心領域表示モードである場合は、S3801に進み、S3801にて関心領域表示モードを解除する。関心領域表示モードでない場合は、S3802に進み、S3802にて、表示モードを関心領域表示モードに設定する。これにより、関心領域表示モードと、それ以外のモードとを切り替えることができる。   Next, processing for switching to the region of interest display mode performed by the region of interest event processing unit 2408 will be described. FIG. 38 is a flowchart for performing processing for switching to the region of interest display mode. First, in step S3800, the region of interest event processing unit 2408 determines whether the region of interest display mode is set. If it is the region of interest display mode, the process proceeds to S3801, and the region of interest display mode is canceled in S3801. If it is not the region of interest display mode, the process proceeds to S3802, and the display mode is set to the region of interest display mode in S3802. Thereby, a region-of-interest display mode and other modes can be switched.

次に、後述の修飾オブジェクト登録処理により修飾オブジェクト登録部2410に登録される修飾オブジェクト情報について説明する。図39(A)は修飾オブジェクトの登録リストを示し、図39(B)は、修飾オブジェクトの登録リスト情報を示す。ドキュメントを新規に読み込んだ際には、それまでに登録されている、修飾オブジェクト登録リストと、それと対をなす、修飾オブジェクト登録リスト情報はすべて削除され初期化される。修飾オブジェクト登録リストと、修飾オブジェクトリスト情報は、記録装置112内に登録される。   Next, modified object information registered in the modified object registration unit 2410 by a modified object registration process described later will be described. FIG. 39A shows a registration list of qualified objects, and FIG. 39B shows registration list information of qualified objects. When a document is newly read, the modifier object registration list registered so far and the modifier object registration list information paired therewith are all deleted and initialized. The qualified object registration list and the qualified object list information are registered in the recording device 112.

次に、図45を参照して、修飾オブジェクト登録処理の一連の動作を説明する。ユーザが表示を望まない内容のオブジェクトをトリプルタップすると、ジェスチャイベント発生部2001は、ジェスチャイベント処理部2002にトリプルタップイベントを送り、修飾オブジェクト登録部2410が修飾オブジェクト登録処理を行う。   Next, with reference to FIG. 45, a series of operations of the decoration object registration process will be described. When the user triple-taps an object whose content is not desired to be displayed, the gesture event generation unit 2001 sends a triple tap event to the gesture event processing unit 2002, and the qualified object registration unit 2410 performs a modified object registration process.

まず、S4501で修飾オブジェクト登録部2410は、記録装置112内に現在表示しているページの修飾オブジェクト登録リストがあるか否かを判定する。該ページの修飾オブジェクト登録リストがある場合には、S4502移行し、現在のページの修飾オブジェクト登録リストに、トリプルタップされたオブジェクトの情報が、修飾オブジェクトとして登録される。そして、S4503で修飾オブジェクト登録部2410は、修飾オブジェクト登録リスト情報に、登録された該ページのページ内の修飾オブジェクト数NBをインクリメントする(増やす)。そして、S4504で、現在表示しているページの領域を、表示領域として登録する。   First, in S4501, the decoration object registration unit 2410 determines whether or not there is a decoration object registration list of the page currently displayed in the recording device 112. If there is a modified object registration list for the page, the process proceeds to S4502, and information on the triple-tapped object is registered as a modified object in the modified object registration list for the current page. In step S4503, the decoration object registration unit 2410 increments (increases) the number of decoration objects NB in the page of the registered page in the decoration object registration list information. In step S4504, the area of the currently displayed page is registered as a display area.

一方、S4501で、現在表示しているページに修飾オブジェクトの登録リストが無い場合には、S4505に移行し、記録装置112内に、修飾オブジェクト登録情報リストと修飾オブジェクト登録リスト情報を新規に作成する。そして、S4506で、修飾オブジェクト登録リスト情報のページ内の修飾オブジェクト数に0を登録し、ページ番号に、現在のページ番号を登録。登録ファイルIDに、現在までに作成された登録ファイル数+1の数値を登録する。   On the other hand, if there is no modifier object registration list in the currently displayed page in S4501, the process proceeds to S4505, and a modifier object registration information list and a modifier object registration list information are newly created in the recording device 112. . In step S4506, 0 is registered as the number of qualified objects in the page of the qualified object registration list information, and the current page number is registered as the page number. In the registered file ID, a numerical value of the number of registered files created so far + 1 is registered.

修飾オブジェクト登録リストに登録される情報は、図39(A)に示すように、登録しようとするオブジェクトの属性、位置の座標X、座標Y、幅W、高さH、OCR情報、色情報が含まれる。属性は1〜3の数値で与えられ、1は文字領域矩形ブロック、2は写真領域矩形ブロック、3はグラフィック領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は、OCR処理で文字コード化されたデータへのポインタ情報の有無を示す。色情報は1または2の数値で与えられ、1はカラー、2は白黒を示す。さらに、図39(B)に示すように、登録リスト情報としてそのページ上で登録された修飾オブジェクトのブロックの総個数を示すブロック総数N、修飾オブジェクトが登録されたページ番号を保存しておく。表示領域の矩形情報X、Y、XX、YYは、修飾オブジェクトが登録される毎に、その時点で表示されている表示領域が保存される。そして、新規のページに対して、修飾オブジェクトが登録される毎に、修飾オブジェクト登録リストと、修飾オブジェクト登録リスト情報は、記録装置112内に個別のメモリ領域が割り当てられ、新規にファイルとして作成され、格納される。   As shown in FIG. 39A, the information registered in the qualified object registration list includes the attribute of the object to be registered, the position coordinate X, the coordinate Y, the width W, the height H, the OCR information, and the color information. included. The attribute is given by a numerical value of 1 to 3, where 1 is a character area rectangular block, 2 is a photo area rectangular block, and 3 is a graphic area rectangular block. The coordinates X and Y are the X and Y coordinates (upper left corner coordinates) of the start point of each rectangular block in the input image. The width W and the height H are the width in the X coordinate direction and the height in the Y coordinate direction of the rectangular block. The OCR information indicates the presence / absence of pointer information to data that has been character-coded by OCR processing. The color information is given as a numerical value of 1 or 2, where 1 indicates color and 2 indicates black and white. Further, as shown in FIG. 39B, the block total number N indicating the total number of blocks of the modified object registered on the page and the page number where the modified object is registered are stored as registration list information. As the rectangular information X, Y, XX, and YY of the display area, the display area displayed at that time is saved every time the decoration object is registered. Each time a decoration object is registered for a new page, the decoration object registration list and the decoration object registration list information are created as a new file by allocating individual memory areas in the recording device 12. Stored.

次に、図42を参照して、S2502で行われる表示範囲決定処理を説明する。まず、S4201で、表示変更イベント処理部2400は、現在表示しているページ全体を読み込む。次に、S4202で、携帯情報端末107に設定されている関心領域表示モード情報を参照して、関心領域表示モードが設定されているか否かを判定する。関心領域表示モードが設定されている場合、S4203に進む。関心領域表示モードが設定されていない場合、S4209に進み、タッチUI1904の幅に合わせて現在のページの表示倍率を制御するとともに、現在のページの始点を制御してページ範囲を決定し、処理を終了する。   Next, the display range determination process performed in S2502 will be described with reference to FIG. First, in step S4201, the display change event processing unit 2400 reads the entire currently displayed page. Next, in S4202, the region-of-interest display mode information set in the portable information terminal 107 is referred to and it is determined whether the region-of-interest display mode is set. If the region of interest display mode is set, the process proceeds to S4203. If the region-of-interest display mode is not set, the process advances to step S4209 to control the display magnification of the current page according to the width of the touch UI 1904, determine the page range by controlling the start point of the current page, and perform the processing. finish.

一方、S4202で、関心領域表示モードが設定されていると判定された場合、現在のページ内のオブジェクト総数をMとし、オブジェクトの番号をNとして、Nは、1から開始する。次に、S4204で関心領域イベント処理部2408は、MとNの大小を判定する。N>Mでないと判定された場合、S4205に進む。S4205で、表示変更イベント処理部2400は、オブジェクトが修飾オブジェクトに相当するか否かを判定する。このときS4205で、ページ内のオブジェクトの全て、すなわちページ内のオブジェクト番号の1からMまでのすべてのオブジェクトについて判定する。修飾オブジェクトに相当すると判定された場合、S4208に進み、S4208で、該当するオブジェクト番号Nの属性を非表示に設定する。修飾オブジェクトに相当しないと判定された場合、S4206に進み、該当するオブジェクト番号Nの属性を表示に設定する。そして、S4207に進み、オブジェクト番号Nを1つ増やしてS4204に戻って処理を続行する。   On the other hand, if it is determined in S4202 that the region of interest display mode is set, the total number of objects in the current page is M, the object number is N, and N starts from 1. In step S4204, the region-of-interest event processing unit 2408 determines whether M and N are large or small. If it is determined that N> M is not satisfied, the process advances to step S4205. In step S4205, the display change event processing unit 2400 determines whether the object corresponds to a qualified object. At this time, in step S4205, all the objects in the page, that is, all the objects with object numbers 1 to M in the page are determined. If it is determined that the object corresponds to a qualified object, the process advances to step S4208, and the attribute of the corresponding object number N is set to non-display in step S4208. If it is determined that the object does not correspond to a qualified object, the process advances to step S4206 to set the attribute of the corresponding object number N to display. In step S4207, the object number N is incremented by 1, and the process returns to step S4204 to continue the processing.

一方、S4204で、N>Mと判定された場合、S4210に進む。そして、表示不要と判断されたオブジェクトを省いて残りのオブジェクトの全体をタッチUI1904の幅に合わせて表示倍率を制御すると共に、始点を制御してページの表示範囲を決定し、処理を終了する。   On the other hand, if it is determined in S4204 that N> M, the process proceeds to S4210. Then, the object determined not to be displayed is omitted, the display magnification is controlled by adjusting the entire remaining object to the width of the touch UI 1904, the starting point is controlled, the display range of the page is determined, and the process ends.

次に、図43、44を参照して、S4205で、オブジェクトが修飾オブジェクトに相当するか否かを判定する具体的な処理について説明する。ユーザが表示を望まない内容のオブジェクトは、修飾オブジェクト登録部2410により前述の修飾オブジェクト登録処理が行われ、装飾オブジェクトとして登録される。オブジェクトが修飾オブジェクトに相当するか否かを判定する処理では、具体的には、オブジェクトが図39に示す全ての修飾オブジェクト登録リストに掲載されている修飾オブジェクトのいずれかに相当するか、もしくはいずれにも相当しないかを判定する。   Next, with reference to FIGS. 43 and 44, specific processing for determining whether or not an object corresponds to a modified object in S4205 will be described. An object having contents that the user does not want to display is registered as a decoration object by performing the above-described decoration object registration processing by the decoration object registration unit 2410. In the process of determining whether or not an object corresponds to a modified object, specifically, the object corresponds to one of the modified objects listed in all the modified object registration lists shown in FIG. It is judged whether it corresponds to.

表示範囲決定処理でS4205に進むと、まず、図44のS4401に進み、オブジェクトNが修飾オブジェクトに相当するか否かの判定を開始する。次に、S4402で、修飾オブジェクト登録リストの総数をPMAXとし、リスト番号をPとして、Pは、1から開始する。次に、S4403で、PがPMAXより大きいか否かを判定する。PがPMAXよりも大きいと判定された場合、S4409に進み、オブジェクトNが修飾オブジェクトに相当しないと判定され、S4206に進む。   If the process proceeds to S4205 in the display range determination process, first, the process proceeds to S4401 in FIG. 44, where it is determined whether or not the object N corresponds to a decoration object. In step S4402, the total number of qualified object registration lists is PMAX, the list number is P, and P starts from 1. Next, in S4403, it is determined whether P is larger than PMAX. If it is determined that P is greater than PMAX, the process proceeds to S4409, where it is determined that the object N does not correspond to a decoration object, and the process proceeds to S4206.

一方、S4403で、PがPMAXより小さいと判定された場合、S4404に進み、ページIDがPの修飾オブジェクトのブロック総数をKMAXとし、ブロック番号をKとして、Kは、1から開始する。次に、S4405で、KがKMAXより大きいか否かを判定する。KがKMAXより大きいと判定された場合、S4408に進み、リスト番号Pを1つ増やしてS4403に戻って処理を続行する。   On the other hand, if it is determined in S4403 that P is smaller than PMAX, the process proceeds to S4404, where the total number of blocks of the qualified object whose page ID is P is KMAX, the block number is K, and K starts from 1. Next, in S4405, it is determined whether K is larger than KMAX. If it is determined that K is greater than KMAX, the process proceeds to S4408, the list number P is incremented by 1, and the process returns to S4403 to continue the process.

一方、S4405で、KがKMAXより小さいと判定された場合、S4406に進む。S4406で、オブジェクトNと修飾オブジェクト登録リスト情報のリスト番号Pのブロック番号Kのオブジェクトとが同等か否かを判定する。同等であると判定された場合、S4410に進み、オブジェクトNが修飾オブジェクトに相当すると判定され、S4208に進む。   On the other hand, if it is determined in S4405 that K is smaller than KMAX, the process proceeds to S4406. In S4406, it is determined whether or not the object N and the object of the block number K of the list number P of the qualified object registration list information are equivalent. If it is determined that they are equivalent, the process proceeds to S4410, where it is determined that the object N corresponds to a decoration object, and the process proceeds to S4208.

一方、S4406で、同等でないと判定された場合、S4407に進み、ブロック番号Kを1つ増やしてS4405に戻って処理を続行する。尚、S4406の判定における具体的な処理は、図43で説明する。   On the other hand, if it is determined in S4406 that they are not equivalent, the process proceeds to S4407, the block number K is incremented by 1, and the process returns to S4405 to continue the process. Note that specific processing in the determination of S4406 will be described with reference to FIG.

まず、S4301で、Sを1とする。ここで、Sは、オブジェクトNと修飾オブジェクト登録リスト情報のリスト番号Pのブロック番号Kのオブジェクトとの相関度である。次に、S4302で、オブジェクトNの種類と修飾オブジェクトKのオブジェクトの種類を比較し、両者のオブジェクトの種類が一致するか否かを判定する。両者が一致すると判定された場合、S4303で、SをS×1とする。一方、両者が一致しないと判定された場合、S4304で、SをS×0.8とする。   First, in S4301, S is set to 1. Here, S is the degree of correlation between the object N and the object of the block number K of the list number P of the qualified object registration list information. In step S4302, the type of the object N is compared with the type of the object of the decoration object K, and it is determined whether or not the types of the two objects match. If it is determined that both match, S is set to S × 1 in S4303. On the other hand, if it is determined that the two do not match, S is set to S × 0.8 in S4304.

次に、S4305で、Sを、オブジェクトNの面積でオブジェクトNと修飾オブジェクトKとの位置が重なる面積を割った値を、Sに乗じた値とする。次に、S4306で、Sを、オブジェクトNの面積と修飾オブジェクトKの面積との最大値でオブジェクトNの面積と修飾オブジェクトKの面積との最小値を割った値を、Sに乗じた値とする。   Next, in S4305, the value obtained by dividing S by the area where the position of the object N and the decoration object K overlap by the area of the object N is multiplied by S. Next, in S4306, S is obtained by multiplying S by a value obtained by dividing the minimum value of the area of the object N and the area of the decoration object K by the maximum value of the area of the object N and the area of the decoration object K. To do.

次に、S4307で、オブジェクトNの色と修飾オブジェクトKの色とを比較し、同じ色であるか否かを判定する。両者が同じ色であると判定された場合(すなわち、両者が色黒または両者がカラーである場合)、S4308で、SをS×1とする。一方、両者が異なる色であると判定された場合、S4309で、SをS×0.8とする。   In step S4307, the color of the object N and the color of the decoration object K are compared to determine whether the colors are the same. When it is determined that both are the same color (that is, when both are black or both are color), S is set to S × 1 in S4308. On the other hand, when it is determined that the two colors are different, S is set to S × 0.8 in S4309.

次に、S4301で、Sが0.5より大きいか否かを判定する。Sが0.5よりも大きいと判定された場合、S4311で、オブジェクトNと修飾オブジェクト登録リスト情報のリスト番号Pのブロック番号Kのオブジェクトとが同等であると判定され、S4410に進む。一方、Sが0.5よりも小さいと判定された場合、S4312で、オブジェクトNと修飾オブジェクト登録リスト情報のリスト番号Pのブロック番号Kのオブジェクトとが同等でないと判定され、S4407に進む。   Next, in S4301, it is determined whether S is greater than 0.5. If it is determined that S is greater than 0.5, it is determined in S4311 that the object N is equal to the object of the block number K of the list number P of the qualified object registration list information, and the process proceeds to S4410. On the other hand, if it is determined that S is smaller than 0.5, it is determined in S4312 that the object N and the object of the block number K of the list number P of the qualified object registration list information are not equivalent, and the process proceeds to S4407.

次に、図26と図33、図34を用いて、本実施形態における部分領域表示モードの表示を具体的に説明する。なお、図33および図34は、本実施形態における携帯情報端末107のタッチUI1904の画面表示例である。   Next, the display of the partial area display mode in the present embodiment will be specifically described with reference to FIGS. 26, 33, and 34. 33 and 34 are screen display examples of the touch UI 1904 of the portable information terminal 107 in the present embodiment.

図26において、オブジェクト2601は横書きの文字の属性を持つオブジェクトである。オブジェクト2601は、図26(A)のように破線で示す領域情報を持つ。オブジェクト2601の属性は文字であるため、オブジェクト2601が読み込まれた直後、部分領域表示範囲決定処理において、オブジェクトの幅は、タッチUI1904の画面幅に入るようなページの表示倍率で設定される。オブジェクト2601を表示する場合、設定されたページの表示倍率で表示すると、オブジェクトの高さがタッチUI1904の画面の高さより小さくなる。そのため、該オブジェクトの中心がタッチUI1904の中心に合うように、ページの始点が設定され、図26(B)に示すように表示される。   In FIG. 26, an object 2601 is an object having a horizontally written character attribute. The object 2601 has area information indicated by a broken line as shown in FIG. Since the attribute of the object 2601 is a character, immediately after the object 2601 is read, in the partial area display range determination process, the width of the object is set at a page display magnification that falls within the screen width of the touch UI 1904. When the object 2601 is displayed, when the object is displayed at the set display magnification of the page, the height of the object becomes smaller than the height of the screen of the touch UI 1904. Therefore, the start point of the page is set so that the center of the object is aligned with the center of the touch UI 1904, and is displayed as shown in FIG.

また、図33(A)において、オブジェクト3300は縦書きの文字の属性を持つオブジェクトである。また、オブジェクト3300は、図33(A)の破線で示す領域情報を持つ。オブジェクト3300の属性は文字であるため、オブジェクト3300が読み込まれた直後は、部分領域表示範囲決定処理において、ページの表示倍率は、オブジェクトの高さがタッチUI1904の画面高さに入る倍率に設定される。また、オブジェクト3300を表示する場合、当該設定されたページの表示倍率において、オブジェクトの幅がタッチUI1904の画面の幅よりも大きくなる。そのため、オブジェクト右上端がタッチUI1904の右上端に合うように、ページの始点が設定され、図33(B)に示すように表示される。   In FIG. 33A, an object 3300 is an object having a vertically written character attribute. The object 3300 has area information indicated by a broken line in FIG. Since the attribute of the object 3300 is a character, immediately after the object 3300 is read, the display magnification of the page is set to a magnification in which the height of the object falls within the screen height of the touch UI 1904 in the partial area display range determination process. The When the object 3300 is displayed, the width of the object is larger than the screen width of the touch UI 1904 at the set display magnification of the page. Therefore, the start point of the page is set so that the upper right edge of the object matches the upper right edge of the touch UI 1904, and the display is displayed as shown in FIG.

また、図34において、オブジェクト3400は図面の属性を持つオブジェクトである。オブジェクト3400は、図34(A)のように破線で示す領域情報を持つ。オブジェクト3400の属性は図面であるため、オブジェクト3400が読み込まれた直後は、部分領域表示範囲決定処理において、ページの表示倍率は、オブジェクトの幅と高さがタッチUI1904の画面幅と高さに入る倍率に設定される。また、オブジェクト中心がタッチUI1904の中心に合うように、ページの始点が設定され、図34(B)に示すように表示される。   In FIG. 34, an object 3400 is an object having a drawing attribute. The object 3400 has area information indicated by a broken line as shown in FIG. Since the attribute of the object 3400 is a drawing, immediately after the object 3400 is read, in the partial area display range determination process, the page display magnification is such that the width and height of the object fall within the screen width and height of the touch UI 1904. Set to magnification. In addition, the start point of the page is set so that the center of the object matches the center of the touch UI 1904, and the page is displayed as shown in FIG.

次に、図34と図35、図36を用いて、本実施形態における移動範囲制限処理の制限例を具体的に説明する。図35および図36は、本実施形態における携帯情報端末107のタッチUI1904の画面表示例である。   Next, a restriction example of the movement range restriction process in this embodiment will be specifically described with reference to FIGS. 34, 35, and 36. FIG. FIGS. 35 and 36 are screen display examples of the touch UI 1904 of the portable information terminal 107 in the present embodiment.

図35(A)は、オブジェクト3400をタッチUI1904に表示した一例である。図35(A)では、図34(B)と同様に、ページの表示倍率は、オブジェクトの幅と高さがタッチUI1904の画面幅と高さに入る倍率に設定され、オブジェクト中心がタッチUI1904の中心に合うように、ページの始点が設定されている。そのため、オブジェクト3400の幅と高さがタッチUI1904の画面幅と高さよりも小さく、オブジェクト3400がタッチUIの画面内に全て収まるように表示されている。図35(B)は、ユーザの指が3500から3501の方向(すなわち左方向)にスワイプ動作されたときの表示例である。スワイプイベント処理部2401は、スワイプイベントを受信するたびに移動距離だけページの始点を動かしてタッチUI1904の表示を更新する。図35(B)では、ユーザのスワイプ動作によって、オブジェクト3400の左端がタッチUI1904の画面外に移動したことを示す。図35(C)は、スワイプイベント処理部2401によって図35(B)のように左端が画面外に移動されたオブジェクト3400を、移動範囲制限処理によって画面内に戻して表示するように、ページの始点を補正した場合を示す。すなわち、オブジェクト3400は、表示中のオブジェクトの幅と高さが、タッチUI1904の画面の幅と高さよりも小さいため、オブジェクト3400が画面外に移動すると、移動範囲制限処理によって、画面内に表示されるようにページの始点が補正される。   FIG. 35A shows an example in which the object 3400 is displayed on the touch UI 1904. In FIG. 35A, similarly to FIG. 34B, the display magnification of the page is set such that the width and height of the object fall within the screen width and height of the touch UI 1904, and the center of the object is the touch UI 1904. The starting point of the page is set so that it is centered. Therefore, the width and height of the object 3400 are smaller than the screen width and height of the touch UI 1904, and the object 3400 is displayed so as to be entirely contained within the touch UI screen. FIG. 35B is a display example when the user's finger is swiped in the direction of 3500 to 3501 (that is, leftward). The swipe event processing unit 2401 updates the display of the touch UI 1904 by moving the start point of the page by the moving distance every time a swipe event is received. FIG. 35B shows that the left end of the object 3400 has moved out of the screen of the touch UI 1904 by the user's swipe operation. In FIG. 35C, the swipe event processing unit 2401 displays the object 3400 whose left end is moved out of the screen as shown in FIG. The case where the starting point is corrected is shown. That is, since the width and height of the displayed object 3400 are smaller than the width and height of the screen of the touch UI 1904, when the object 3400 moves outside the screen, the object 3400 is displayed on the screen by the movement range restriction process. The starting point of the page is corrected so that

図36(A)は、オブジェクト3400をピンチアウト動作によって拡大してタッチUI1904に表示した一例である。図36(A)は、表示中のオブジェクト3400の幅がタッチUI1904の画面幅よりも大きく、オブジェクト3400の左右端がタッチUI1904の画面外に、上下端が画面内に表示されていることを示す。図36(B)は、ユーザの指が3600から3601の方向(すなわち、右から左に向かう方向)にスワイプ動作されたときの表示例である。スワイプイベント処理部2401は、スワイプイベントを受信するたびに移動距離だけページの始点を動かしてタッチUI1904の表示を更新する。図36(B)では、ユーザのスワイプ動作によって、オブジェクト3400の右端がタッチUI1904の画面内に移動している。図36(C)は、右端が画面の内側に移動されたオブジェクト3400を、移動範囲制限処理によって、当該オブジェクト3400の右端がタッチUI1904の画面の右端にほぼ合うようにページの始点を補正した場合の表示例である。すなわち、オブジェクト3400は、表示中のオブジェクトの幅がタッチUI1904の画面幅よりも大きい。そのため、オブジェクト3400の端が画面内に移動された場合、移動範囲制限処理によって、当該オブジェクトの多くができるだけ画面内に表示されるように、当該オブジェクトの端が画面の端に合うようにページの始点が補正される。   FIG. 36A shows an example in which the object 3400 is enlarged and displayed on the touch UI 1904 by a pinch-out operation. FIG. 36A shows that the width of the object 3400 being displayed is larger than the screen width of the touch UI 1904, the left and right ends of the object 3400 are displayed outside the screen of the touch UI 1904, and the upper and lower ends are displayed on the screen. . FIG. 36B is a display example when the user's finger is swiped in a direction from 3600 to 3601 (that is, a direction from right to left). The swipe event processing unit 2401 updates the display of the touch UI 1904 by moving the start point of the page by the moving distance every time a swipe event is received. In FIG. 36B, the right end of the object 3400 is moved within the screen of the touch UI 1904 by the user's swipe operation. FIG. 36C shows a case where the start point of the page is corrected by moving the object 3400 whose right end is moved to the inside of the screen so that the right end of the object 3400 substantially matches the right end of the screen of the touch UI 1904 by the movement range restriction process. Is a display example. That is, the object 3400 has a displayed object whose width is larger than the screen width of the touch UI 1904. Therefore, when the edge of the object 3400 is moved within the screen, the movement range restriction process causes the page to be aligned with the edge of the screen so that most of the object is displayed within the screen as much as possible. The starting point is corrected.

なお、本実施例において、MFP100は携帯情報端末107に表示用のアプリケーション画像データを送付し、携帯情報端末107は受信したアプリケーション画像データを表示する構成としている。しかしながら、例えば、MFP100において、アプリケーション画像データを内部に保持する携帯情報端末107で実行可能なアプリケーションを生成し、携帯情報端末107に配信するような構成にしても良いことは言うまでもない。なお、そのときの携帯情報端末107で実行可能なアプリケーションは、本実施例で説明したソフトウェアモジュールであるジェスチャイベント処理部2002を内部に持って、アプリケーション画像データを制御する。   In this embodiment, the MFP 100 is configured to send display application image data to the portable information terminal 107, and the portable information terminal 107 displays the received application image data. However, it goes without saying that, for example, the MFP 100 may be configured to generate an application executable on the portable information terminal 107 that holds the application image data and distribute it to the portable information terminal 107. Note that an application that can be executed by the portable information terminal 107 at that time has the gesture event processing unit 2002, which is a software module described in the present embodiment, and controls application image data.

また、MFP100は、生成したアプリケーション画像データを文書管理サーバ106に送信すると共に、携帯情報端末107にそのアプリケーション画像データの場所を示すアドレスを送付するようにしても良い。この場合、携帯情報端末107はアプリケーション画像データの実体データは持たず、LAN102を通して、文書管理サーバ106のデータが保持されるデータベース105から随時ページやオブジェクトの情報を取得・表示する。   The MFP 100 may transmit the generated application image data to the document management server 106 and send an address indicating the location of the application image data to the portable information terminal 107. In this case, the portable information terminal 107 does not have application image data entity data, and acquires and displays page and object information as needed from the database 105 in which the data of the document management server 106 is held via the LAN 102.

以上、本実施形態において、ユーザが関心の無い、表示が不要なオブジェクトを修飾オブジェクトとして登録することで、関心のある領域のみ表示することが可能である。そして、関心領域表示モードで表示する場合の表示例を図40(A)〜(C)を参照して説明する。   As described above, in this embodiment, it is possible to display only an area of interest by registering an object that the user is not interested in and that does not need to be displayed as a qualified object. A display example in the case of displaying in the region of interest display mode will be described with reference to FIGS.

まず、図40(A)はユーザが登録する修飾オブジェクトを示すページの一例である。上分割線4001は、本文4007とタイトルなどの情報を示すコンテンツであるデザイン4002およびコンテンツ4003を分割する線であり、装飾4004は、章を判別しやすくするレイアウト装飾である。ページ番号4005は、表示しているページの番号を示し、下分割線4006は、本文4007とページ番号4005の領域とを分割する線である。また、端末4008は、携帯端末などの端末である。さらに、モード切替ボタン4010は、表示モードを切り替えるボタンで、前へボタン4009および次へボタン4011は、表示しているオブジェクトの前、または次のオブジェクトを表示させるためのボタンである。従来の表示方法では、図40(A)のオブジェクトのページを携帯端末などの端末に表示した場合は、図40(B)のように、常にページの全体が表示される。   First, FIG. 40A is an example of a page showing a decoration object registered by the user. An upper dividing line 4001 is a line that divides the text 4007 and the design 4002 and contents 4003 that are contents indicating information such as a title, and the decoration 4004 is a layout decoration that makes it easy to distinguish chapters. A page number 4005 indicates the number of the displayed page, and a lower dividing line 4006 is a line that divides the text 4007 and the area of the page number 4005. The terminal 4008 is a terminal such as a mobile terminal. Further, the mode switching button 4010 is a button for switching the display mode, and the previous button 4009 and the next button 4011 are buttons for displaying the previous object or the next object displayed. In the conventional display method, when the page of the object shown in FIG. 40A is displayed on a terminal such as a portable terminal, the entire page is always displayed as shown in FIG.

本実施形態において、例えば、ユーザがページ内の上分割線4001、コンテンツ4002および4003、装飾4004、ページ番号4005、下分割線4006の表示を望まない場合、それらを修飾オブジェクトとして登録することができる。特定のページ全体を表示した状態で、上記のオブジェクトをトリプルタップすることで、修飾オブジェクトとして登録することが可能となる。そして、ユーザがモード切替ボタン4010を指示することで、図40(C)のように、表示を望むオブジェクト(本実施形態では、本文4007)のみを表示することが可能となる。なお、修飾オブジェクトとして登録した後は、関心領域表示モードで新たなページを表示する際、修飾オブジェクトと同等のオブジェクトを表示させることが可能となる。   In the present embodiment, for example, when the user does not want to display the upper dividing line 4001, the contents 4002 and 4003, the decoration 4004, the page number 4005, and the lower dividing line 4006 in the page, they can be registered as a modification object. . It is possible to register as a modified object by triple-tapping the above object in a state where the entire specific page is displayed. Then, when the user designates the mode switching button 4010, as shown in FIG. 40C, it is possible to display only the object that is desired to be displayed (in the present embodiment, the text 4007). After registration as a decoration object, when a new page is displayed in the region of interest display mode, an object equivalent to the decoration object can be displayed.

次に、部分表示モードで表示する場合の表示例を図41(A)〜(E)を参照して説明する。まず、図41(A)は、新規に表示するページのレイアウトを示す。上分割線4101は、オブジェクト4100の本文部分とタイトルなどの情報を示すコンテンツ4102および4103を分割する線であり、装飾4104は、章を判別しやすくするレイアウト装飾である。ページ番号4105は、表示しているページの番号を示し、下分割線4106は、本文部分とページ番号4105の領域とを分割する線である。また、本文部分には、上本文4107、本文装飾4108、下本文4109を含む。   Next, a display example in the case of displaying in the partial display mode will be described with reference to FIGS. First, FIG. 41A shows a layout of a page to be newly displayed. An upper dividing line 4101 is a line that divides contents 4102 and 4103 indicating information such as a body part and a title of the object 4100, and a decoration 4104 is a layout decoration that makes it easy to distinguish chapters. The page number 4105 indicates the number of the displayed page, and the lower dividing line 4106 is a line that divides the body part and the area of the page number 4105. The body part includes an upper body 4107, a body decoration 4108, and a lower body 4109.

従来の表示方法を用いて部分表示モードで表示した場合、まず、図41(B)のように、コンテンツ4103部分が表示される。そして、次へボタン4011を指示することで、図41(C)のように、デザイン4102部分が表示される。また、次へボタン4011を指示することで、図41(D)のように、上分割線4101部分が表示される。さらに、次へボタン4011を指示することで、図41(E)のように上本文4107部分が表示される。こうして、次へボタン4011を指示するごとにオブジェクト4100の各部分が順番に表示されていく。なお、前へボタン4009を指示した場合は、逆の順番で表示される。このように、従来の表示方法では、ユーザが表示させたい部分や表示させる必要のない部分に関係なく、オブジェクト4100の各部分が前へボタン4009および次へボタン4011を指示するごとに順番に表示される。その結果として、オブジェクト4100の全ての部分が表示される。このため、ユーザは、表示させたい部分まで、前へボタン4009または次へボタン4011を必要以上に指示し続けなければならない。   When displaying in the partial display mode using the conventional display method, first, the content 4103 portion is displayed as shown in FIG. Then, by designating the next button 4011, the design 4102 portion is displayed as shown in FIG. Further, by instructing the next button 4011, the upper dividing line 4101 portion is displayed as shown in FIG. Further, by instructing the next button 4011, the upper body 4107 portion is displayed as shown in FIG. Thus, each time the next button 4011 is designated, each part of the object 4100 is displayed in order. When the previous button 4009 is instructed, they are displayed in reverse order. As described above, in the conventional display method, each part of the object 4100 is displayed in turn every time the previous button 4009 and the next button 4011 are instructed regardless of the part that the user wants to display or the part that does not need to be displayed. Is done. As a result, all parts of the object 4100 are displayed. For this reason, the user must continue to instruct the previous button 4009 or the next button 4011 more than necessary up to the portion to be displayed.

一方、本実施形態では、予めユーザが表示する必要のない部分(オブジェクト)を修飾オブジェクトとして登録することで、部分表示モードでオブジェクト4100を表示する場合、ユーザが表示させたい部分のみを表示させることが可能となる。従来の表示方法とは異なり、表示する必要のない部分が表示されないので、必要以上に、前へボタン4009または次へボタン4011を指示しなくてもよい。   On the other hand, in this embodiment, by registering a part (object) that the user does not need to display in advance as a decoration object, when displaying the object 4100 in the partial display mode, only the part that the user wants to display is displayed. Is possible. Unlike the conventional display method, a portion that does not need to be displayed is not displayed, so that it is not necessary to instruct the previous button 4009 or the next button 4011 more than necessary.

例えば、図41において、ユーザが図41(E)のみを表示させたいとする場合、従来の表示方法では、図41(B)から順番に次へボタン4011を指示して、図41(E)を表示させる。一方、本実施形態によれば、表示する必要のない部分を予め修飾オブジェクトを登録しておくことで、次へボタン4011を指示することなく、図41(B)〜(D)を飛ばして図41(E)を表示させることができる。そして、新規に図41(A)のようなページを表示する際にも、修飾オブジェクトに相当するオブジェクトの表示を省くことができ、最初から図41(E)に示すような、ユーザが表示させたい部分のみを表示することができる。   For example, in FIG. 41, when the user wants to display only FIG. 41E, in the conventional display method, the next button 4011 is instructed sequentially from FIG. 41B, and FIG. Is displayed. On the other hand, according to the present embodiment, by registering a modified object in advance for a portion that does not need to be displayed, the next button 4011 is not instructed, and FIGS. 41B to 41D are skipped. 41 (E) can be displayed. Further, when a new page as shown in FIG. 41A is displayed, the display of the object corresponding to the decoration object can be omitted, and the user can display the page as shown in FIG. 41E from the beginning. Only the desired part can be displayed.

このように、本実施形態では、特定のページ全体を表示した状態で、ユーザが表示することを望まないコンテンツのオブジェクトをトリプルタップすることで修飾オブジェクトとして登録することができる。それによって、以後、関心領域モードにおいて、新しくページを表示する際、登録した修飾オブジェクトと同等のオブジェクトを省いて、ユーザが表示させたいコンテンツのみを表示させることが可能となる。図49(A)〜(C)は、ユーザにより修飾オブジェクトが登録され、関心領域モードにて新しく表示するページがどのように表示されるかを示す。   As described above, in the present embodiment, it is possible to register an object having contents that the user does not want to display as a modified object by triple-tapping the entire specific page. As a result, when a new page is subsequently displayed in the region of interest mode, it is possible to omit only an object equivalent to the registered decoration object and display only the content that the user wants to display. 49A to 49C show how a decoration object is registered by a user and a page to be newly displayed in the region of interest mode is displayed.

まず、図49(A)は、新規に表示するページのページ全体のレイアウトであり、図49(B)は、従来の表示方法で端末上に表示されるページの表示例を示し、図49(C)は、本実施形態に係る関心領域表示モードにてページを表示した場合の表示例を示す。本実施形態において、新規にページを表示する際、ページ内のオブジェクトは、まず、過去に登録された修飾オブジェクトと同等なものであるか否かが判定される。   First, FIG. 49A shows a layout of the entire page of a page to be newly displayed, and FIG. 49B shows a display example of a page displayed on the terminal by a conventional display method. C) shows a display example when a page is displayed in the region of interest display mode according to the present embodiment. In this embodiment, when a page is newly displayed, it is first determined whether or not an object in the page is equivalent to a modified object registered in the past.

ここで、図49に示す上分割線4801は、オブジェクト4800の本文部分とタイトルなどの情報を示すコンテンツ4802および4803を分割する線であり、装飾4804は、章を判別しやすくするレイアウト装飾である。ページ番号4805は、表示しているページの番号を示し、下分割線4806は、本文部分とページ番号4805の領域とを分割する線である。また、本文部分には、上本文4807、本文装飾4808、下本文4809を含む。   Here, an upper dividing line 4801 shown in FIG. 49 is a line that divides contents 4802 and 4803 indicating information such as a body part of the object 4800 and a title, and a decoration 4804 is a layout decoration that makes it easy to distinguish chapters. . The page number 4805 indicates the number of the displayed page, and the lower dividing line 4806 is a line that divides the body part and the area of the page number 4805. The body portion includes an upper body text 4807, a body text decoration 4808, and a lower body text 4809.

例えば、図40に示す上分割線4001〜下分割線4006が修飾オブジェクトとして登録されている場合、図43の処理により、上分割線4801〜下分割線4806が修飾オブジェクトとオブジェクトの種類、位置、面積、大きさなどが同等であると判定される。その結果、図49(C)のように修飾オブジェクトと同等と判定されたオブジェクトが省かれて表示される。一般に、ページ内の読書対象(本文など)のコンテンツは、ページにより変わることが多いが、デザインのためのレイアウトは、ページが変わっても位置や大きさ、オブジェクトの種類が共通であることが多い。   For example, if the upper dividing line 4001 to the lower dividing line 4006 shown in FIG. 40 are registered as the modified objects, the upper dividing line 4801 to the lower dividing line 4806 are changed from the modified object to the object type, position, It is determined that the area, size, etc. are equivalent. As a result, as shown in FIG. 49C, the object determined to be equivalent to the modified object is omitted and displayed. In general, the content to be read (such as text) in a page often changes depending on the page, but the layout for design often has the same position, size, and object type even if the page changes. .

本実施形態では、表示するページの中でユーザが読む必要の無いオブジェクトを修飾オブジェクトとして登録することで、自動的に読みたい(表示させたい)オブジェクトのみを表示させることが可能である。また、ページを読み進めて新たにページを表示させた際にも、修飾オブジェクトと同等のオブジェクトか否かを自動的に判定し、表示対象から外した状態で表示させ、ページを読み進むことが可能である。従って、ユーザが不要なコンテンツを見ずに、見たいコンテンツのみを見やすい大きさに拡大し、ドキュメントを読み進むことができる。   In this embodiment, by registering an object that the user does not need to read as a decoration object in the page to be displayed, it is possible to display only the object that the user wants to automatically read (to display). In addition, when a page is read and a new page is displayed, it is automatically determined whether the object is equivalent to a modified object, and the object is removed from the display target, and the page can be read. Is possible. Therefore, it is possible to enlarge the size of only the content that the user wants to see without seeing unnecessary content and read the document.

なお、本実施形態では、修飾オブジェクトを指定する方法として、オブジェクトを直接指定して、修飾オブジェクトとして指定したが、修飾オブジェクト以外のオブジェクトを選択し、それ以外のオブジェクトを修飾オブジェクトと指定することも可能である。また、本実施形態では、修飾オブジェクトの指定方法として、オブジェクトを直接指定する方法を説明したが、表示エリアを指示して、表示エリア外のオブジェクトを修飾オブジェクトとして指定することでも可能である。   In this embodiment, as a method for designating a qualified object, an object is directly designated and designated as a qualified object. However, it is also possible to select an object other than the qualified object and designate another object as the qualified object. Is possible. In this embodiment, the method of directly specifying an object has been described as a method for specifying a decoration object. However, it is also possible to specify a display area and specify an object outside the display area as a decoration object.

以上説明したように、本実施形態によれば、ユーザは、自分にとって読みたい対象で無いオブジェクトを修飾オブジェクトとして登録することで、修飾オブジェクトと同等のオブジェクトを省いてドキュメントを読み進むことが可能である。そして、ページ表示モードでは、不要なオブジェクトを表示しない分、ユーザにとって読みやすく拡大して表示することが可能である。また、部分表示モードでは、ユーザにとって不要な修飾オブジェクトと同等のオブジェクトを省いて部分表示することが可能である。そして、ユーザは、「次へボタン」や「前へボタン」操作により、ページ内の不要なオブジェクトの表示をすることなく、表示させたい範囲を適切な順序で次々に表示することが可能であるとともに、効率よくドキュメントを閲覧することができる。   As described above, according to the present embodiment, the user can proceed with reading a document by omitting an object equivalent to the decoration object by registering an object that is not a target to be read as a decoration object. is there. In the page display mode, an unnecessary object is not displayed, so that it can be enlarged and displayed easily for the user to read. In the partial display mode, it is possible to perform partial display by omitting an object equivalent to a decoration object unnecessary for the user. The user can display the range to be displayed one after another in an appropriate order without displaying unnecessary objects in the page by operating the “next button” or “previous button”. At the same time, documents can be viewed efficiently.

(第2実施形態)
第2実施形態では、表示不要な修飾オブジェクトを登録する際、トリプルタップにより図37に示す処理を用いて修飾オブジェクトを登録し、図46〜48に示す処理を用いて表示範囲(表示領域)の決定をし、表示不要な修飾オブジェクトを指定する。なお、第1実施形態と同様の部分に関しては、同一番号を付けて説明を省略し、異なる部分のみを以下に説明する。
(Second Embodiment)
In the second embodiment, when a decoration object that does not need to be displayed is registered, the decoration object is registered using the process shown in FIG. 37 by a triple tap, and the display range (display area) is displayed using the process shown in FIGS. Make a decision and specify a qualified object that does not need to be displayed. In addition, about the part similar to 1st Embodiment, the same number is attached | subjected and description is abbreviate | omitted and only a different part is demonstrated below.

まず、第1実施形態では、図25のS2502または図28のS2807にて、図42で示す処理により表示範囲を決定する方法を採用している。それに対し、第2実施形態では、S2502またはS2807にて図46〜48で示すフローにより表示領域を決定する方法を採用している。また、第2実施形態では、ユーザは、表示不要なオブジェクトを修飾オブジェクトとして登録する際、ページ表示モードにてページ全体を表示している時に、ピンチインとピンチアウトなどの操作で、都合の良い位置、倍率(ユーザが読みたい範囲)を調整する。ユーザが読みたい範囲を決めたところでトリプルタップを行うことによって、タッチパネル1902は、ジェスチャイベント発生部2001に信号を送り、ジェスチャイベント処理部2002は、図37に示すトリプルタップ時の処理を行う。   First, in the first embodiment, the method of determining the display range by the process shown in FIG. 42 in S2502 in FIG. 25 or S2807 in FIG. 28 is adopted. On the other hand, in the second embodiment, the method of determining the display area by the flow shown in FIGS. 46 to 48 in S2502 or S2807 is adopted. In the second embodiment, when the user registers an object that does not need to be displayed as a decoration object, the user can display a convenient position by performing operations such as pinch-in and pinch-out while displaying the entire page in the page display mode. , Adjust the magnification (the range that the user wants to read). The touch panel 1902 sends a signal to the gesture event generating unit 2001 by performing a triple tap when the user has determined the range to be read, and the gesture event processing unit 2002 performs the process at the time of the triple tap shown in FIG.

まず、S3700でジェスチャイベント処理部2002は、ページ表示モードか部分領域モードかを判定する。ページ表示モードと判定された場合、S3701に進み、S3701で、トリプルタップした際の表示エリア外のオブジェクトの全てを、修飾オブジェクトと決定する。そして、図39(A)に示す、修飾オブジェクトリストを作成して登録する。次に、S3702で、ページ内の修飾オブジェクトの数、表示している表示領域の座標情報、表示しているページ番号の情報、登録ファイルIDの情報から成る修飾オブジェクト登録リスト情報のファイルを作成する。なお、登録ファイルIDは、修飾オブジェクト登録リストを登録する際の登録番号に相当するIDであり、ファイル作成毎に1から昇順にIDが割り当てられる。そして、S3703で処理を終了する。一方、S3700で、部分領域モードと判定された場合、S3703に進み、処理を終了する。   First, in S3700, the gesture event processing unit 2002 determines whether the page display mode or the partial area mode is selected. If it is determined that the page display mode is selected, the process advances to step S3701, and in step S3701, all objects outside the display area when the triple tap is performed are determined to be decoration objects. Then, a qualified object list shown in FIG. 39A is created and registered. In step S3702, a file of qualified object registration list information including the number of qualified objects in the page, coordinate information of the displayed display area, information of the displayed page number, and registered file ID information is created. . The registered file ID is an ID corresponding to a registration number when registering the qualified object registration list, and is assigned in ascending order from 1 every time a file is created. In step S3703, the process ends. On the other hand, if it is determined in S3700 that the partial area mode is selected, the process proceeds to S3703 and the process ends.

次に、ユーザが関心領域表示モードでページを表示する際に、ページ表示モードでページの表示をした場合の表示範囲決定の処理について説明する。第1実施形態では、ページ表示のS2502およびS2807にて実行されるが、本実施形態では、図46および47を参照して説明する。   Next, the processing for determining the display range when the page is displayed in the page display mode when the user displays the page in the region of interest display mode will be described. In the first embodiment, the processing is executed in S2502 and S2807 of page display. In the present embodiment, description will be given with reference to FIGS.

図46および47に示す表示領域決定の処理フローは、ページ表示モードでユーザが新しいページを表示させる際の処理フローであり、その中でも関心領域表示モードで表示させる際の表示領域計算の方法に最も特徴がある。すなわち、関心領域表示モードで表示する際には、現在表示しようとしているページ内のオブジェクトに対し、これまでに記憶(登録)された各修飾オブジェクト登録リストのどのリストともっとも相関が高いかを算出する。そして、もっとも相関の高い修飾オブジェクト登録リストの登録リスト情報のファイルに登録されている表示範囲を表示領域として採用するというところに特徴がある。これにより、ユーザが任意のページにて、好みの表示位置と倍率を調整し、表示範囲以外を修飾オブジェクトと判断して登録する。従って、新しいページを表示する際に、過去に登録したページと同様の修飾オブジェクトを持つページは、先にユーザが調整した表示範囲と同じ表示範囲で自動的に表示することができる。   The processing flow for determining the display area shown in FIGS. 46 and 47 is a process flow when the user displays a new page in the page display mode, and among these, the display area calculation method is most suitable for displaying in the region of interest display mode. There are features. In other words, when displaying in the region of interest display mode, it is calculated which list of each modified object registration list stored (registered) so far has the highest correlation for the object in the page that is currently displayed. To do. A feature is that the display range registered in the file of the registration list information of the decoration object registration list having the highest correlation is adopted as the display area. As a result, the user adjusts the preferred display position and magnification on an arbitrary page, and registers other than the display range as a qualified object. Therefore, when a new page is displayed, a page having a modification object similar to a previously registered page can be automatically displayed in the same display range as the display range adjusted by the user.

次に、図46および47に示す表示領域決定の処理の流れについて説明する。なお、修飾オブジェクトの各オブジェクトに相当するオブジェクトの現在のページのページIDのリスト番号がPとし、そのページの各オブジェクトと該ページのオブジェクトとの一致度の平均がSMAXとする。まず、S4600で、現在表示しているページが関心領域表示モードか否かを判定する。関心領域表示モードでないと判定された場合、S4620に進み、S4620で、現在表示しようとしているページ全体を表示領域として設定し、S4621で処理を終了する。   Next, the flow of the display area determination process shown in FIGS. 46 and 47 will be described. Note that the list number of the page ID of the current page of the object corresponding to each object of the decoration object is P, and the average of the degree of coincidence between each object on the page and the object on the page is SMAX. First, in S4600, it is determined whether the currently displayed page is in the region of interest display mode. If it is determined that the region of interest display mode is not selected, the process advances to step S4620. In step S4620, the entire page currently displayed is set as the display area, and the process ends in step S4621.

一方、S4600で、関心領域表示モードであると判定された場合、S4601に進む。そして、S4601で、修飾オブジェクト登録リストの総数をPMAXとし、リスト番号をPとして、Pは、1から開始する。次に、S4602で、PがPMAXよりも大きいか否かを判定する。S4602で、PがPMAXよりも大きいと判定された場合、S4613に進む。S4613については後述する。一方、S4602で、PがPMAXよりも小さいと判定された場合、S4603に進み、S4603で、ページIDのリスト番号Pに相当する修飾オブジェクトのオブジェクトブロック数をKMAXとし、ブロック番号をKとして1から開始する。そして、S(K)を0とし、SMAXを0としてS4604に進む。   On the other hand, if it is determined in S4600 that the region of interest display mode is selected, the process proceeds to S4601. In step S4601, the total number of qualified object registration lists is PMAX, the list number is P, and P starts from 1. Next, in S4602, it is determined whether P is larger than PMAX. If it is determined in S4602 that P is larger than PMAX, the process proceeds to S4613. S4613 will be described later. On the other hand, if it is determined in S4602 that P is smaller than PMAX, the process proceeds to S4603, and in S4603, the number of object blocks of the modified object corresponding to the page ID list number P is set to KMAX, and the block number is set to 1 from 1. Start. Then, S (K) is set to 0, SMAX is set to 0, and the process proceeds to S4604.

次に、S4604で、KがKMAXより大きいか否かを判定する。KがKMAXよりも大きいと判定された場合、S4612で、ブロック番号Kを1からKMAXまで変化させた際のS(K)の平均をSP(P)とし、リスト番号Pを1つ増やして、S4602に戻って処理を続行する。   Next, in S4604, it is determined whether K is larger than KMAX. If it is determined that K is larger than KMAX, in S4612, the average of S (K) when the block number K is changed from 1 to KMAX is SP (P), and the list number P is increased by one. It returns to S4602 and continues processing.

一方、KがKMAXよりも小さいと判定された場合、S4604に進み、S4604で、表示をしようとしているページ内のオブジェクト数をNMAXとし、オブジェクト番号をNとして1から開始する。次に、S4606で、NがNMAXよりも大きいか否かを判定する。NがNMAXよりも大きい場合、S4611進み、S4611で、S(K)にSMAXを代入し、ブロック番号Kを1つ増やして、S4604に戻って処理を続行する。   On the other hand, if it is determined that K is smaller than KMAX, the process proceeds to S4604, where the number of objects in the page to be displayed is NMAX and the object number is N, starting from 1. Next, in S4606, it is determined whether N is larger than NMAX. If N is larger than NMAX, the process advances to S4611, and in S4611, SMAX is substituted into S (K), the block number K is incremented by 1, and the process returns to S4604 to continue the process.

このとき、S(K)には、修飾オブジェクトKに対し、ページ内のオブジェクトのうちもっとも相関の高かったオブジェクトとの相関度Sが保存される。そして、S4611からS4606に戻る際に、修飾オブジェクトKに一番一致したページ内オブジェクトの相関値がS(K)に代入される。   At this time, the correlation degree S with the object having the highest correlation among the objects in the page is stored in S (K). When returning from S4611 to S4606, the correlation value of the in-page object that most closely matches the decoration object K is substituted into S (K).

一方、S4606で、NがNMAXよりも小さいと判定された場合、S4607に進み、S4607で、相関度Sを計算する。Sの算出方法については、図48を参照して後述する。次に、S4608で、S4607にて相関度Sを計算した後、SがSMAXより大きいか否かを判定する。SがSMAXよりも大きいと判定された場合、S4609に進み、S4609で、SMAXをSとして、S4610に進む。一方、SがSMAXよりも小さいと判定された場合、S4610に進む。そして、S4610で、オブジェクト番号Nを1つ増やして、S4606に戻って処理を続行する。   On the other hand, if it is determined in S4606 that N is smaller than NMAX, the process proceeds to S4607, and the correlation degree S is calculated in S4607. A method for calculating S will be described later with reference to FIG. Next, in S4608, after calculating the correlation degree S in S4607, it is determined whether S is greater than SMAX. If it is determined that S is larger than SMAX, the process proceeds to S4609. In S4609, SMAX is set to S and the process proceeds to S4610. On the other hand, if it is determined that S is smaller than SMAX, the process proceeds to S4610. In step S4610, the object number N is incremented by 1, and the process returns to step S4606 to continue the processing.

S4602で、PがPMAXよりも大きいと判定された場合、S4613で、Pを1とし、SMAXを0とする。次に、S4614で、PがPMAXより大きいか否かを判定する。PがPMAXよりも小さいと判定された場合、S4615に進み、S4615で、S(P)がSMAXよりも大きいか否かを判定する。S(P)がSMAXよりも大きい場合、S4616に進み、S4616で、SMAXをS(P)とし、SMAXにPを代入し、S4617に進む。一方、S4615で、S(P)がSMAXよりも小さい場合、S4617に進む。そして、S4617で、リスト番号Pを1つ増やして、S4614に戻って処理を続行する。   If it is determined in S4602 that P is larger than PMAX, P is set to 1 and SMAX is set to 0 in S4613. Next, in S4614, it is determined whether P is greater than PMAX. If it is determined that P is smaller than PMAX, the process proceeds to S4615, and it is determined in S4615 whether S (P) is larger than SMAX. If S (P) is larger than SMAX, the process proceeds to S4616. In S4616, SMAX is set to S (P), P is substituted for SMAX, and the process proceeds to S4617. On the other hand, if S (P) is smaller than SMAX in S4615, the process proceeds to S4617. In step S4617, the list number P is incremented by 1, and the process returns to step S4614 to continue the processing.

一方、S4614で、PがPMAXよりも大きいと判定された場合、S4618に進む。S4618で、SMAXが0.5より大きいか否かを判定する。SMAXが0.5より大きいと判定された場合、S4619に進み、S4619で、ページIDがSMAXの修飾オブジェクトリストに記憶されている表示領域情報を表示領域として設定、S4621に進み、処理を終了する。   On the other hand, if it is determined in S4614 that P is larger than PMAX, the process proceeds to S4618. In S4618, it is determined whether SMAX is larger than 0.5. If it is determined that SMAX is greater than 0.5, the process proceeds to S4619. In S4619, the display area information stored in the qualified object list with the page ID SMAX is set as the display area, and the process proceeds to S4621 and the process is terminated. .

一方、S4618で、SMAXが0.5より小さいと判定された場合、修飾オブジェクトリストのどれとも一致しているものが無いということなので、S4620に進む。S4620で、現在表示しようとしているページ全体を表示領域として設定し、S4621で処理を終了する。   On the other hand, if it is determined in S4618 that SMAX is smaller than 0.5, it means that there is no match in any of the qualified object lists, so the flow proceeds to S4620. In step S4620, the entire page to be displayed is set as a display area, and the process ends in step S4621.

次に、図48を参照して、S4607のオブジェクトNと修飾オブジェクト登録リスト情報のリスト番号Pのブロック番号Kのオブジェクトとの相関度Sを計算するフローについて説明する。なお、図48において、S4301〜S4309は、図43にて説明したフローと同等であるため、それらの説明を省略する。図48に示すフローは、図43のフローのうち、S4310、S4311、S4312が無く、S4308またはS4309にて算出したSの値を保持し、S4701で、S4607に戻る。   Next, with reference to FIG. 48, a flow for calculating the correlation degree S between the object N in S4607 and the object of the block number K of the list number P of the qualified object registration list information will be described. In FIG. 48, S4301 to S4309 are the same as the flow described in FIG. The flow shown in FIG. 48 does not have S4310, S4311, and S4312 in the flow of FIG. 43, retains the value of S calculated in S4308 or S4309, and returns to S4607 in S4701.

以上のように、第2実施形態において、例えば、図40(A)のようなドキュメントを表示する際、まず、ユーザが図40(C)のように表示範囲を選択して、トリプルタップ動作をする。それによって、表示範囲外のオブジェクトが修飾オブジェクトリストとして、図39(A)に示すリストに登録される。また、その際、ページ内の修飾オブジェクト数、表示領域、表示しているページのページ番号、登録ファイルIDが図39(B)に示す修飾オブジェクト登録リスト情報に登録される。すなわち、図40(A)の上分割線4001〜下分割線4006が修飾オブジェクトとしてリストに登録される。   As described above, in the second embodiment, for example, when a document as shown in FIG. 40A is displayed, first, the user selects a display range as shown in FIG. To do. Thereby, objects outside the display range are registered in the list shown in FIG. 39A as a qualified object list. At that time, the number of qualified objects in the page, the display area, the page number of the displayed page, and the registration file ID are registered in the qualified object registration list information shown in FIG. In other words, the upper dividing line 4001 to the lower dividing line 4006 in FIG. 40A are registered in the list as modified objects.

また、例えば、図49(A)を参照して、既に登録されている修飾オブジェクト登録リストとの相関を図る。すると、上分割線4801〜下分割線4806は、上分割線4001〜下分割線4006のそれぞれと、オブジェクトの種類、位置座標、大きさが同等(同一またはその近傍)であると認識できる。従って、上分割線4001〜下分割線4006が修飾オブジェクト登録リストに予め登録されている場合、それらと上分割線4801〜下分割線4806とは、相関が高いと判定される。   Further, for example, referring to FIG. 49A, a correlation with the already registered qualified object registration list is made. Then, it can be recognized that the upper dividing line 4801 to the lower dividing line 4806 have the same type of object, position coordinates, and size (same or the vicinity thereof) as the upper dividing line 4001 to the lower dividing line 4006, respectively. Accordingly, when the upper dividing line 4001 to the lower dividing line 4006 are registered in advance in the decoration object registration list, it is determined that the upper dividing line 4801 to the lower dividing line 4806 have a high correlation.

これにより、図49(A)に示すページを新たに表示する場合、自動的に修飾オブジェクト登録リストに対する修飾オブジェクト登録リスト情報に記憶されている表示領域を用いして表示する。その結果、ユーザが新たにページを表示させる毎に表示領域を手動で調整する必要がなく、自動的に図49(C)に示すようなユーザにとって必要な領域を拡大して表示が可能である。   Thus, when a page shown in FIG. 49A is newly displayed, the page is automatically displayed using the display area stored in the modified object registration list information for the modified object registration list. As a result, it is not necessary to manually adjust the display area every time the user newly displays a page, and the area necessary for the user as shown in FIG. 49C can be automatically enlarged and displayed. .

また、第1実施形態では、修飾オブジェクトを省いて表示する際の表示領域をシステムが自動で決定するため、必ずしもユーザの好みの表示領域と一致するとは限らないということがあった。それに対し、第2実施形態では、実際にユーザが調整して表示した表示領域とその際の修飾オブジェクトを記憶し、新たにページを表示する際に、過去に登録した修飾オブジェクトと同等のオブジェクトがあるかを判定する。そして、同等のオブジェクトがある場合、ユーザが以前に設定したページの表示領域と同じ表示領域で新たなページを表示することができる。   In the first embodiment, since the system automatically determines the display area when displaying without displaying the decoration object, the display area does not always match the user's favorite display area. On the other hand, in the second embodiment, the display area actually adjusted and displayed by the user and the modification object at that time are stored, and when a page is newly displayed, an object equivalent to the modification object registered in the past is displayed. Determine if there is. If there is an equivalent object, a new page can be displayed in the same display area as the page display area previously set by the user.

また、第2実施形態の修飾オブジェクトリストの登録方法は、図37に示す処理に限定することなく、第1実施形態と同様に、図45に示す処理でオブジェクトを直接指定してもよい。その場合、表示されている領域の中に含まれるオブジェクトを修飾オブジェクトとして登録し、同時にその際の表示領域も記憶する。そして、新たなページを表示する際に、該ページ内に修飾オブジェクトと同等のオブジェクトがあれば、修飾オブジェクトを登録した際の表示範囲で該ページを自動的に表示することが可能である。その結果、新たなページを表示する際、ユーザの好みの表示領域を自動的に推定して表示することが可能である。   Further, the method for registering the modified object list of the second embodiment is not limited to the process shown in FIG. 37, and an object may be directly specified by the process shown in FIG. 45 as in the first embodiment. In that case, an object included in the displayed area is registered as a decoration object, and the display area at that time is also stored. When a new page is displayed, if there is an object equivalent to the decoration object in the page, the page can be automatically displayed within the display range when the decoration object is registered. As a result, when a new page is displayed, it is possible to automatically estimate and display the display area preferred by the user.

また、関心領域表示モードかつページ表示モードでドキュメントを読み進める場合、新たなページを表示する際に、ページ全体が表示されず、ページの一部分のみが表示されることが考えられる。そして、該ページの表示されない部分に、本来ユーザが関心のある、修飾オブジェクトとは異なる別のオブジェクトが存在し得る。その場合は、画面外に追いやられて読めないオブジェクトについて、修飾オブジェクトと同等なオブジェクトか否かを判定する。そして、修飾オブジェクトでは無いと判定されるオブジェクトが存在する場合、表示エリア外にそのようなオブジェクトが存在することをユーザに明示する。ユーザへの明示方法としては、表示エリアの周囲のうち、オブジェクトが存在する方向の一部分にマークを表示する方法の他、全体表示をした上で、ユーザの好みの表示領域に自動的に縮小表示する方法、ページ全体を表示する方法などが考えられる。   Further, when reading a document in the region of interest display mode and the page display mode, when displaying a new page, it is considered that the entire page is not displayed but only a part of the page is displayed. Then, there may be another object different from the qualified object that is originally of interest to the user in the non-displayed portion of the page. In this case, it is determined whether or not an object that is driven out of the screen and cannot be read is an object equivalent to the decoration object. When there is an object that is determined not to be a qualified object, the user is clearly informed that such an object exists outside the display area. As an explicit method to the user, in addition to displaying a mark in a part of the surrounding area of the display area in the direction in which the object exists, the entire display is performed and the image is automatically reduced and displayed in the user's preferred display area. And a method for displaying the entire page.

第1および第2実施形態において、オブジェクトの相関値を決定する方法として、図43または図47の処理により、相関値を算出し、オブジェクトが一致しているか否かの判定を行う方法を例示した。しかしながら、これらに限定されるものでは無く、オブジェクト同士の面積、種類、色などの情報のうち、少なくとも1つ以上の情報を用いた演算で相関値を算出し、予め定めた条件(判定基準)に一致するか否かで、オブジェクトの一致を判定してもよい。また、より簡単に判定するには、単純にそれぞれオブジェクトの座標のみを比較し、重なり合う面積が、各オブジェクトの面積の一定割合以上か否かを判定することで、オブジェクトが一致しているかどうかを判定してもよい。さらに、登録した修飾オブジェクトと左右対称の位置座標をさらに登録しておくことで、左右対称になったページのオブジェクトが修飾オブジェクトと一致しているかどうかを判定してもよい。   In the first and second embodiments, as a method of determining the correlation value of the object, a method of calculating the correlation value by the processing of FIG. 43 or FIG. 47 and determining whether or not the objects match is illustrated. . However, the present invention is not limited to these, and a correlation value is calculated by calculation using at least one piece of information such as the area, type, and color of objects, and a predetermined condition (determination criterion). Whether the object matches may be determined based on whether or not it matches. In order to make the determination easier, simply compare only the coordinates of the objects, and determine whether the overlapping areas are equal to or greater than a certain percentage of the area of each object. You may judge. Furthermore, it may be determined whether or not the object on the page that is left-right symmetric coincides with the decoration object by further registering the position coordinates symmetrical with the registered decoration object.

さらに、第1および第2実施形態では、ユーザが修飾オブジェクトを登録する際に、トリプルタップなどのアクションを行い、登録をする例を示した。しかしながら、これに限定されるものでは無く、例えば、ユーザが一定時間、ページの任意の表示範囲を表示した後に操作した場合、該表示範囲を記憶し、該表示範囲外のオブジェクトを修飾オブジェクトとして登録することも可能である。   Further, in the first and second embodiments, when the user registers a decoration object, an example is shown in which an action such as a triple tap is performed and registration is performed. However, the present invention is not limited to this. For example, when a user performs an operation after displaying an arbitrary display range of a page for a certain period of time, the display range is stored, and an object outside the display range is registered as a modified object. It is also possible to do.

別の修飾オブジェクトを登録する方法として、ユーザが選択したジェスチャや、任意のジェスチャを組み合わせることにより修飾オブジェクトを判定および登録してもよい。また、別の修飾オブジェクトを登録するする方法として、複数のアクションを組み合わせる、またはユーザが好みのアクションを定義することで修飾オブジェクトを判定および登録してもよい。   As a method for registering another decoration object, the decoration object may be determined and registered by combining a gesture selected by the user or an arbitrary gesture. Further, as a method of registering another decoration object, a modification object may be determined and registered by combining a plurality of actions or by defining a user's favorite action.

(その他の実施例)
本発明は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。また本発明の目的は、前述の実施例の機能を実現するプログラムコード(コンピュータプログラム)を記録した記録媒体を、システムあるいは装置に供給する。供給されたシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体およびプログラムコードを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.) or an apparatus composed of a single device (for example, a copier, a facsimile machine, etc.). May be. Another object of the present invention is to supply a system or apparatus with a recording medium on which a program code (computer program) for realizing the functions of the above-described embodiments is recorded. This can also be achieved by the computer of the supplied system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

また、本発明には、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた場合についても、本発明は適用される。その場合、書き込まれたプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される。   Further, according to the present invention, the operating system (OS) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. This is also included. Furthermore, the present invention is also applied to the case where the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. In that case, based on the instruction of the written program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. .

また、上述した実施形態では、コンピュータがプログラムを実行することにより、各処理部として機能するものとしたが、処理の一部または全部を専用の電子回路(ハードウェア)で構成するようにしても構わない。   In the above-described embodiment, the computer functions as each processing unit by executing a program. However, part or all of the processing may be configured by a dedicated electronic circuit (hardware). I do not care.

Claims (12)

複数のオブジェクトを含むページを画面に表示する表示手段と、
前記画面上の操作により表示不要のオブジェクトを指定する指定手段と、
前記指定手段で指定された前記表示不要のオブジェクトと同一のオブジェクトおよび前記表示不要のオブジェクトに類似するオブジェクトを判定する判定手段と、
を備え、
前記表示手段は、前記判定手段で判定された前記表示不要のオブジェクト、前記表示不要のオブジェクトと同一のオブジェクト、前記表示不要のオブジェクトに類似するオブジェクトを除くオブジェクトを前記画面上に表示する
ことを特徴とする画像表示装置。
Display means for displaying a page including a plurality of objects on the screen;
A designation means for designating an object that is not required to be displayed by an operation on the screen;
A determination unit that determines the same object as the display-unnecessary object specified by the designation unit and an object similar to the display-unnecessary object;
With
The display means displays on the screen objects excluding the display unnecessary object determined by the determination means, the same object as the display unnecessary object, and an object similar to the display unnecessary object. An image display device.
前記複数のオブジェクトを個別に表示する第1の表示モードと、
前記ページ全体を表示する第2の表示モードと、
をさらに備え、
前記第1の表示モードおよび前記第2の表示モードは、前記画面上の操作により切り換えることができる
ことを特徴とする請求項1に記載の画像表示装置。
A first display mode for individually displaying the plurality of objects;
A second display mode for displaying the entire page;
Further comprising
The image display apparatus according to claim 1, wherein the first display mode and the second display mode can be switched by an operation on the screen.
前記指定手段は、前記画面上の操作によって前記ページを拡大または縮小して表示した表示領域を除く領域に含まれるオブジェクトを前記表示不要のオブジェクトと指定する
ことを特徴とする請求項1または2に記載の画像表示装置。
3. The designating unit according to claim 1, wherein the designating unit designates an object included in an area excluding a display area displayed by enlarging or reducing the page by an operation on the screen as the display unnecessary object. The image display device described.
前記指定手段は、前記画面上の操作のうち所定の操作を検知する検知手段
を含み、
前記検知手段により検知された前記所定の操作に基づいて、前記表示領域を除く領域に含まれる前記オブジェクトを前記表示不要のオブジェクトとして指定する
ことを特徴とする請求項3に記載の画像表示装置。
The designation means includes a detection means for detecting a predetermined operation among the operations on the screen,
The image display apparatus according to claim 3, wherein the object included in an area excluding the display area is designated as the display-unnecessary object based on the predetermined operation detected by the detection unit.
前記検知手段は、前記画面の操作において、前記画面の操作が行われなかった所定の時間を検知し、
前記指定手段は、前記検出手段で検知した前記所定の時間に表示された領域を除く領域に含まれる前記オブジェクトを前記表示不要のオブジェクトとして指定する
ことを特徴とする請求項4に記載の画像表示装置。
The detection means detects a predetermined time when the screen operation is not performed in the operation of the screen,
5. The image display according to claim 4, wherein the designation unit designates the object included in a region excluding the region displayed at the predetermined time detected by the detection unit as the display unnecessary object. apparatus.
前記指定手段は、予め定めた前記画面の操作によって前記複数のオブジェクトのうち1つ以上の選択されたオブジェクトを前記表示不要のオブジェクトとして指定する
ことを特徴とする請求項1または2に記載の画像表示装置。
3. The image according to claim 1, wherein the designating unit designates one or more selected objects among the plurality of objects as the display-unnecessary object by an operation on the predetermined screen. 4. Display device.
前記指定手段は、予め定めた前記画面の操作によって前記複数のオブジェクトのうち選択されたオブジェクトを表示するオブジェクトとし、前記選択された表示するオブジェクトを除くオブジェクトを前記表示不要のオブジェクトとして指定する
ことを特徴とする請求項1または2に記載の画像表示装置。
The designation means designates an object selected from among the plurality of objects as a result of a predetermined operation on the screen, and designates an object other than the selected object to be displayed as the display unnecessary object. The image display device according to claim 1, wherein the image display device is a display device.
前記判定手段は、前記表示不要のオブジェクトの前記画面上に存在する位置座標、面積、種類、色のうち少なくとも1つ以上が前記複数のオブジェクトの前記情報と一致するか否かを予め定められた判定基準に基づいて判定することにより、前記同一のオブジェクトまたは前記類似するオブジェクトであると判定する
ことを特徴とする請求項1または2に記載の画像表示装置。
The determination unit determines in advance whether at least one of position coordinates, area, type, and color of the display-unnecessary object on the screen matches the information of the plurality of objects. The image display apparatus according to claim 1, wherein the image display apparatus determines that the objects are the same object or the similar object by determining based on a determination criterion.
前記位置座標は、前記表示不要のオブジェクトの前記画面上に存在する前記位置座標と左右対称になる位置座標を含む
ことを特徴とする請求項8に記載の画像表示装置。
The image display device according to claim 8, wherein the position coordinates include position coordinates that are symmetric with respect to the position coordinates that exist on the screen of the object that does not need to be displayed.
表示しようとする前記複数のオブジェクトのうち、前記表示不要のオブジェクトの前記位置座標と同一または前記位置座標の近傍にあるオブジェクトの面積が、前記表示不要のオブジェクトの前記面積と所定の割合以上で重なる場合、前記判定手段は、前記オブジェクトが前記同一のオブジェクトまたは前記類似するオブジェクトであると判定する
ことを特徴とする請求項8または9に記載の画像表示装置。
Among the plurality of objects to be displayed, the area of the object that is the same as or near the position coordinate of the object that does not need to be displayed overlaps the area of the object that does not need to be displayed at a predetermined ratio or more. The image display apparatus according to claim 8, wherein the determination unit determines that the object is the same object or the similar object.
前記表示不要のオブジェクトと前記オブジェクトの前記ページにおける位置座標、面積、種類、色の少なくとも1つを用いて演算を行い、算出した結果が所定の範囲に含まれる場合、前記判定手段は、前記オブジェクトが前記同一のオブジェクトまたは前記類似するオブジェクトであると判定する
ことを特徴とする請求項1または2に記載の画像表示装置。
When the calculation is performed using at least one of the display unnecessary object and the position coordinates, area, type, and color of the object on the page, and the calculated result is included in a predetermined range, the determination unit includes the object The image display device according to claim 1, wherein the image display device determines that the same object or the similar object.
前記表示不要のオブジェクトと同一のオブジェクトおよび前記表示不要のオブジェクトに類似するオブジェクトを表示せず、かつ前記同一のオブジェクトおよび前記類似のオブジェクトを除くオブジェクトのみを前記画面上に表示する第3の表示モードをさらに含む
ことを特徴とする請求項1〜11のいずれか1項に記載の画像表示装置。

Third display mode in which only objects that are the same as the objects that do not need to be displayed and objects that are similar to the objects that do not need to be displayed are displayed on the screen. The image display device according to claim 1, further comprising:

JP2013177154A 2013-08-28 2013-08-28 Image display device, control method of image display device, and computer program Pending JP2015046041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013177154A JP2015046041A (en) 2013-08-28 2013-08-28 Image display device, control method of image display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013177154A JP2015046041A (en) 2013-08-28 2013-08-28 Image display device, control method of image display device, and computer program

Publications (1)

Publication Number Publication Date
JP2015046041A true JP2015046041A (en) 2015-03-12

Family

ID=52671485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013177154A Pending JP2015046041A (en) 2013-08-28 2013-08-28 Image display device, control method of image display device, and computer program

Country Status (1)

Country Link
JP (1) JP2015046041A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114356479A (en) * 2021-12-27 2022-04-15 珠海豹趣科技有限公司 Page rendering method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114356479A (en) * 2021-12-27 2022-04-15 珠海豹趣科技有限公司 Page rendering method and device
CN114356479B (en) * 2021-12-27 2024-03-08 珠海豹趣科技有限公司 Page rendering method and device

Similar Documents

Publication Publication Date Title
JP6261237B2 (en) Image display apparatus, image display apparatus control method, and computer program
JP5984439B2 (en) Image display device and image display method
JP6188490B2 (en) Image display apparatus, control method, and computer program
JP6099961B2 (en) Image display apparatus, image display apparatus control method, and computer program
JP6399744B2 (en) Display device and display method
JP5247601B2 (en) Image processing apparatus, image processing method, and computer program
JP4502385B2 (en) Image processing apparatus and control method thereof
EP1698988A1 (en) Image processing apparatus and its method
JP4738857B2 (en) Image processing apparatus and method
JP2013150025A (en) Image reading device, portable terminal device, and program
JP5256956B2 (en) Image processing apparatus, image display system, and program
US8181108B2 (en) Device for editing metadata of divided object
JP4177325B2 (en) Image processing apparatus, image processing program, and image processing method
JP6322086B2 (en) Display control device, display device, program, recording medium
JP2015046041A (en) Image display device, control method of image display device, and computer program
JP2015225509A (en) Information processor, information processing system, control method of information processor and computer program
JP4323856B2 (en) Image processing method
US20130104014A1 (en) Viewer unit, server unit, display control method, digital comic editing method and non-transitory computer-readable medium
JP6223077B2 (en) Image processing apparatus, image processing method, and program
JP2015106289A (en) Display device, display method and computer program
JP4501731B2 (en) Image processing device
JP2015103086A (en) Image conversion device, image conversion method, and computer program
JP2006261772A (en) Image forming apparatus and image forming method