JP2012221367A - Display unit and display control program - Google Patents

Display unit and display control program Download PDF

Info

Publication number
JP2012221367A
JP2012221367A JP2011088468A JP2011088468A JP2012221367A JP 2012221367 A JP2012221367 A JP 2012221367A JP 2011088468 A JP2011088468 A JP 2011088468A JP 2011088468 A JP2011088468 A JP 2011088468A JP 2012221367 A JP2012221367 A JP 2012221367A
Authority
JP
Japan
Prior art keywords
image
character string
displayed
writing area
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011088468A
Other languages
Japanese (ja)
Other versions
JP5811435B2 (en
Inventor
Juntaro Ado
潤太郎 阿土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2011088468A priority Critical patent/JP5811435B2/en
Publication of JP2012221367A publication Critical patent/JP2012221367A/en
Application granted granted Critical
Publication of JP5811435B2 publication Critical patent/JP5811435B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an image from a character string displayed on a manuscript and display the image by a simple operation.SOLUTION: A display unit comprises a screen that displays an image of a manuscript, and has a function to recognize a character in the manuscript displayed on the screen and a function to recognize a figure written on the screen by a touch pen. The display unit further comprises: an input/output management section that identifies a write area defined by a figure when the figure is written to the screen where the image of the manuscript is displayed, and acquires a character string displayed in the write area; an input image analysis section that analyzes the acquired character string, and identifies an image type of the image to be generated on the basis of the character string or displays a candidate for allowing a user to select the image type; an image generation section that generates an image of the identified or selected image type; and an image display section that displays the image of the manuscript displayed on the screen by overlapping the displayed image with the generated image.

Description

本発明は、表示装置及び表示制御プログラムに関し、特に、タッチペン等で入力が可能なタッチパネルを備える表示装置及び表示装置で動作する表示制御プログラムに関する。   The present invention relates to a display device and a display control program, and more particularly to a display device including a touch panel that can be input with a touch pen or the like, and a display control program that operates on the display device.

近年、タブレット端末のようなタッチパネルを備えた表示装置が会議等に利用されており、例えば、表示装置上で動作する電子会議アプリケーションを用いて、表示装置の画面に会議の原稿を表示したり、表示した原稿にメモなどを追記したり、保存したりすることが行われている。   In recent years, display devices equipped with a touch panel such as a tablet terminal have been used for conferences, etc., for example, using an electronic conference application that operates on the display device, to display a conference document on the screen of the display device, A memo or the like is added to or saved in the displayed manuscript.

原稿にメモなどを追記する技術として、例えば、下記特許文献1には、原稿画像を読取り、画像データを得る読取手段と、前記画像データに基づいて、表示装置で前記画像データを表示させるための電子文書データを生成する電子文書化手段と、前記画像データより、手書きで追記された部分を含む追記領域を抽出する抽出手段と、前記追記領域に基づいて注釈用のデータを生成する生成手段と、前記画像データ上の前記追記領域の位置に基づいて、前記表示装置が前記電子文書データに前記注釈用データを表示するための位置を算出し、前記注釈用のデータに対して設定する設定手段とを備える、画像形成装置が開示されている。   As a technique for adding a memo or the like to a manuscript, for example, Japanese Patent Application Laid-Open No. 2004-151867 discloses a reading unit that reads a manuscript image and obtains image data, and a method for displaying the image data on a display device based on the image data. Electronic document generation means for generating electronic document data; extraction means for extracting a write-once area including a part added by handwriting from the image data; and generation means for generating annotation data based on the write-once area Setting means for calculating a position for the display device to display the annotation data on the electronic document data based on the position of the additional recording area on the image data, and setting the position for the annotation data An image forming apparatus is disclosed.

特開2008−181485号公報JP 2008-181485 A

表示されている原稿にタッチペンで追記できるようにすることで、紙媒体に印刷した原稿と同様に、原稿に文字を付加することができるが、従来の方法では、メモ書き程度の文字を追記したり、付箋などに貼り付けたりすることができるだけであり、追記としては不十分であった。   By making it possible to add a note to a displayed document with a touch pen, characters can be added to the document in the same way as a document printed on a paper medium. It can only be pasted on sticky notes, etc., and it was insufficient as a postscript.

例えば、原稿等に住所が含まれている場合にその住所を地図上で確認できたり、原稿等にデータが含まれている場合にそのデータをグラフで確認できたり、原稿等にURL(Uniform Resource Locator)が含まれている場合にそのURLをコード情報として確認できたりすれば、原稿の閲覧するユーザにとって非常に便利である。   For example, when an address is included in a manuscript or the like, the address can be confirmed on a map, when data is included in a manuscript or the like, the data can be confirmed in a graph, or a URL (Uniform Resource If the URL can be confirmed as code information when a (Locator) is included, it is very convenient for the user viewing the document.

しかしながら、従来の方法では、地図やグラフ、コード情報のような画像を手書きで追記することは困難である。また、地図やグラフのような画像を手書きで追記できたとしても、住所やデータなどのテキスト情報を地図やグラフなどの画像に変換する処理はユーザ自身が行わなければならないため、操作が煩雑である。また、ユーザ自身が画像を手書きで追記する場合は、地図データに基づいて作成される正確な地図や、データ処理アプリケーションを用いて作成される正確なグラフを追記することができない。   However, with the conventional method, it is difficult to add an image such as a map, a graph, or code information by handwriting. Even if an image such as a map or graph can be added by hand, the process of converting text information such as an address or data into an image such as a map or graph must be performed by the user himself. is there. In addition, when the user himself / herself adds an image by hand, an accurate map created based on the map data and an accurate graph created using a data processing application cannot be added.

本発明は、上記問題点に鑑みてなされたものであって、その主たる目的は、簡便な操作で、原稿に表示された文字列から画像を生成して表示することができる表示装置及び表示制御プログラムを提供することにある。   The present invention has been made in view of the above problems, and a main object of the present invention is to provide a display device and display control capable of generating and displaying an image from a character string displayed on a document with a simple operation. To provide a program.

上記目的を達成するため、本発明は、原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置であって、前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部と、取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部と、取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部と、前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部と、を備えるものである。   In order to achieve the above object, the present invention has a screen for displaying an image of a document, a function for recognizing characters in the document displayed on the screen, and a figure written on the screen with a touch pen. And when a graphic is written on the screen on which the image of the document is displayed, a writing area defined by the graphic is specified and displayed in the writing area. An input / output management unit that obtains a character string, and an analysis of the obtained character string to identify an image type of an image to be generated based on the character string, or a candidate for allowing the user to select the image type An input image analysis unit to be displayed, an image generation unit that generates an image of the specified or selected image type based on the acquired character string, and an image of the document displayed on the screen An image display unit for displaying overlapping the image, but with a.

また、本発明は、原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置で動作する表示制御プログラムであって、前記表示装置を、前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部、取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部、取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部、前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部、として機能させるものである。   The present invention also has a screen for displaying an image of a document, a function for recognizing characters in the document displayed on the screen, and a function for recognizing a graphic written on the screen with a touch pen. A display control program that operates on a display device provided with the display device, when a graphic is written on the screen on which an image of the document is displayed, specifies a writing area defined by the graphic, and the writing Input / output management unit that acquires the character string displayed in the area, analyzes the acquired character string, specifies the image type of the image to be generated based on the character string, or selects the image type to the user An input image analysis unit that displays candidates for image generation, an image generation unit that generates an image of the image type specified or selected based on the acquired character string, and before being displayed on the screen The image of a document, an image display unit for displaying overlapping the generated the image, is intended to function as a.

本発明の表示装置及び表示制御プログラムによれば、簡便な操作で、原稿に表示された文字列から画像を生成して表示することができる。   According to the display device and the display control program of the present invention, an image can be generated and displayed from a character string displayed on a manuscript with a simple operation.

その理由は、原稿に記載された文字列を囲むように書き込みが行われると、書き込み領域内の文字列を取得して解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、画像種別をユーザに選択させるための候補を表示し、取得した文字列から、特定又は選択された画像種別の画像を生成し、原稿の画像に重ね合わせて表示する制御を行うからである。   The reason is that when writing is performed so as to surround the character string described in the document, the character string in the writing area is acquired and analyzed, and the image type of the image generated based on the character string is specified, or This is because a candidate for allowing the user to select an image type is displayed, an image of the specified or selected image type is generated from the acquired character string, and is displayed so as to be superimposed on the image of the document.

これにより、表示装置に原稿を表示する使用形態の特徴を十分に生かして、原稿を閲覧するユーザに有益な情報を提供することができ、ユーザの利便性を格段に向上させることができる。   Thereby, it is possible to provide useful information to the user who browses the document by making full use of the characteristics of the usage pattern in which the document is displayed on the display device, and the convenience for the user can be greatly improved.

また、文字列の囲み方や文字列を解析し、履歴情報に基づいて学習することにより、ユーザが所望する画像を即座に提供することができる。   In addition, by analyzing how to enclose character strings and character strings and learning based on history information, an image desired by the user can be provided immediately.

本発明の一実施例に係る表示装置の一例を示す図である。It is a figure which shows an example of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置の主要構成及び概略動作を示す図である。It is a figure which shows the main structures and schematic operation | movement of the display apparatus which concern on one Example of this invention. 本発明の一実施例に係る表示装置の全体処理を示すフローチャート図である。It is a flowchart figure which shows the whole process of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置を用いた画像生成処理の具体例を示す図である。It is a figure which shows the specific example of the image generation process using the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置を用いた画像生成処理のバリエーションを示す図である。It is a figure which shows the variation of the image generation process using the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置の画像生成処理を示すフローチャート図である。It is a flowchart figure which shows the image generation process of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置の囲み領域解析処理を示すフローチャート図である。It is a flowchart figure which shows the surrounding area analysis process of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置の文字列解析処理を示すフローチャート図である。It is a flowchart figure which shows the character string analysis process of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る表示装置の実際の処理を示すフローチャート図である。It is a flowchart figure which shows the actual process of the display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る検索キーワード記憶テーブルの一例を示す図である。It is a figure which shows an example of the search keyword storage table which concerns on one Example of this invention. 本発明の一実施例に係る解析情報記憶テーブル(デフォルト値)の一例を示す図である。It is a figure which shows an example of the analysis information storage table (default value) which concerns on one Example of this invention. 本発明の一実施例に係る解析情報記憶テーブルの一例を示す図である。It is a figure which shows an example of the analysis information storage table which concerns on one Example of this invention. 本発明の一実施例に係る解析情報記憶テーブル(ユーザA)の一例を示す図である。It is a figure which shows an example of the analysis information storage table (user A) which concerns on one Example of this invention.

背景技術で示したように、タブレット端末などのタッチパネルを備える表示装置を用い、当該装置で動作する電子会議アプリケーションを利用して、会議の原稿などを表示したり、表示した原稿にタッチペンで文字などを追記したりすることができる。   As shown in the background art, using a display device equipped with a touch panel such as a tablet terminal and using an electronic conference application that operates on the device, a conference document or the like is displayed, or characters and the like are displayed on the displayed document with a touch pen Can be added.

ここで、例えば、表示されている原稿に住所が含まれている場合に、その住所近傍の地図を表示したり、原稿にデータが含まれている場合に、そのデータを処理したグラフを表示したり、原稿にURLが含まれている場合に、そのURLを携帯端末で読み取るためのコード情報を表示したりすることによって、原稿を閲覧するユーザの便利性を向上させることができる。   Here, for example, when an address is included in the displayed manuscript, a map near the address is displayed, and when the manuscript includes data, a graph in which the data is processed is displayed. When a URL is included in a document, the code information for reading the URL with a mobile terminal is displayed, thereby improving the convenience of the user viewing the document.

しかしながら、従来の方法では、地図やグラフ、URLなどの画像を追記することは困難である。また、追記できたとしても、住所やデータなどのテキスト情報を地図やグラフなどの画像情報に変換する処理はユーザ自身が行わなければならないため、操作が煩雑である。また、手書きでは正確な地図や正確なグラフを追記することができない。   However, it is difficult to add an image such as a map, a graph, or a URL with the conventional method. Even if it can be added, the process of converting text information such as addresses and data into image information such as maps and graphs must be performed by the user himself, and the operation is complicated. In addition, an accurate map or an accurate graph cannot be added by handwriting.

そこで、本発明の一実施の形態では、画面上に表示された文字列に基づいて自動的に画像を生成し、生成した画像を原稿の画像に重ね合わせて表示できるようにする手法を提案する。   Therefore, in one embodiment of the present invention, a method is proposed in which an image is automatically generated based on a character string displayed on a screen, and the generated image can be displayed superimposed on an image of a document. .

例えば、原稿に住所が含まれている場合に、住所の文字列をタッチペンで囲むと、その住所近傍の地図を自動的に生成して表示したり、原稿に数値が含まれている場合に、数値の文字列をタッチペンで囲むと、その数値に基づくグラフを自動的に生成して表示したり、原稿にURLが含まれている場合に、URLの文字列をタッチペンで囲むと、そのURLをコード化したQRコードを自動的に生成して表示したりする。   For example, if an address is included in the manuscript and the address string is enclosed with a touch pen, a map near the address is automatically generated and displayed, or if the manuscript contains a numerical value, When a numeric character string is enclosed with a touch pen, a graph based on the numeric value is automatically generated and displayed, or when a URL is included in a manuscript, enclosing the URL character string with a touch pen causes the URL to be displayed. A coded QR code is automatically generated and displayed.

また、上記文字列の囲み方や囲まれている文字列の内容を解析し、各々のユーザが所望する画像を学習し、よく変換されている画像を自動的に生成したり、よく変換されている画像の候補を画面に提示したりする。   Also, the method of enclosing the character string and the contents of the enclosed character string are analyzed, each user learns the desired image, and a well-converted image is automatically generated or well converted. Present image candidates on the screen.

上記した本発明の実施の形態についてさらに詳細に説明すべく、本発明の一実施例に係る表示装置及び表示制御プログラムについて、図1乃至図13を参照して説明する。図1は、本実施例の表示装置の一例を示す図であり、図2は、表示装置の主要構成及び概略動作を示す図である。また、図3は、本実施例の表示装置の全体処理を示すフローチャート図であり、図4及び図5は、本実施例の表示装置を用いた画像生成処理の一例を示す図である。また、図6乃至図9は、本実施例の表示装置の画像生成処理の詳細を示すフローチャート図であり、図10乃至図13は、画像生成処理の際に参照するテーブルの一例を示す図である。   In order to describe the above-described embodiment of the present invention in more detail, a display device and a display control program according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a display device according to the present embodiment, and FIG. 2 is a diagram illustrating a main configuration and a schematic operation of the display device. FIG. 3 is a flowchart showing the overall processing of the display device of this embodiment, and FIGS. 4 and 5 are diagrams showing an example of image generation processing using the display device of this embodiment. FIGS. 6 to 9 are flowcharts showing details of the image generation processing of the display device of the present embodiment, and FIGS. 10 to 13 are diagrams showing examples of tables referred to in the image generation processing. is there.

図1に示すように、本実施例の表示装置10は、タブレット端末や電子ブック、薄型のコンピュータ装置などの表示デバイスを備えた装置である。この表示装置10には、原稿の画像を表示する領域(原稿表示画面)と、原稿表示画面に表示する原稿を選択する領域(原稿選択画面)と、追記するためのペンの選択、色や幅の指定などを行う領域(ペン選択コントロール)と、が設けられており、ペン選択コントロールでペン/筆アイコンをクリックすると、原稿表示画面に表示されるペン/筆で原稿に追記ができるようになっている。   As illustrated in FIG. 1, the display device 10 according to the present exemplary embodiment includes a display device such as a tablet terminal, an electronic book, or a thin computer device. The display device 10 includes an area for displaying an image of an original (original display screen), an area for selecting an original to be displayed on the original display screen (original selection screen), selection of a pen for additional writing, color, and width. There is an area (pen selection control) for designating, etc., and when the pen / brush icon is clicked with the pen selection control, the pen / brush displayed on the original display screen can be added to the original. ing.

図2は、表示装置10の主要構成及び概略動作を示しており、表示装置10は、画像表示コンポーネント11と、入出力管理モジュール12と、入力画像解析モジュール13と、画像生成モジュール14と、画像表示モジュール15と、画像保存モジュール16と、通信部17と、解析情報記憶部18と、記憶部19などで構成される。   FIG. 2 shows the main configuration and schematic operation of the display device 10. The display device 10 includes an image display component 11, an input / output management module 12, an input image analysis module 13, an image generation module 14, and an image. The display module 15, the image storage module 16, the communication unit 17, the analysis information storage unit 18, and the storage unit 19 are configured.

画像表示コンポーネント11は、例えば、液晶表示装置や有機EL(electroluminescence)表示装置等の表示部上に、透明電極が格子状に配置された感圧式のタッチパネル等の操作部を備えている。また、画像表示コンポーネント11は、OCR(Optical Character Recognition)機能を備えており、表示部に表示された原稿を構成する文字を認識することができる。そして、タッチペン等を用いて矩形や楕円などの所定の図形を書き込むと、画像表示コンポーネント11は、入出力管理モジュール12に対して書き込みイベントを通知する。また、タッチペン等を用いて保存が指示(保存ボタンがタッチ)されると、画像表示コンポーネント11は、画像保存モジュール16に対して保存イベントを通知する。なお、所定の図形は、領域を特定できればよく、例えば、「」などの記号としてもよい。   The image display component 11 includes an operation unit such as a pressure-sensitive touch panel in which transparent electrodes are arranged in a grid on a display unit such as a liquid crystal display device or an organic EL (electroluminescence) display device. Further, the image display component 11 has an OCR (Optical Character Recognition) function, and can recognize characters constituting the document displayed on the display unit. When a predetermined graphic such as a rectangle or an ellipse is written using a touch pen or the like, the image display component 11 notifies the input / output management module 12 of a write event. Further, when an instruction to save is given using a touch pen or the like (the save button is touched), the image display component 11 notifies the image saving module 16 of a save event. The predetermined figure only needs to be able to specify an area, and may be a symbol such as “”, for example.

入出力管理モジュール12は、書き込みイベントを検出すると、画像表示コンポーネント11から上記所定の図形の座標を取得して、所定の図形で囲まれた領域(書き込み領域と呼ぶ。)を特定する共に、画像表示コンポーネント11のOCR機能を利用して、書き込み領域内に表示されている文字列を取得し、特定した書き込み領域の情報と取得した文字列の情報とを入力画像解析モジュール13に通知する。   When the input / output management module 12 detects a write event, the input / output management module 12 acquires the coordinates of the predetermined graphic from the image display component 11, specifies an area surrounded by the predetermined graphic (referred to as a write area), and displays an image. Using the OCR function of the display component 11, the character string displayed in the writing area is acquired, and the input image analysis module 13 is notified of the specified writing area information and the acquired character string information.

入力画像解析モジュール13は、入出力管理モジュール12から書き込み領域情報と文字列情報とを受信すると、書き込み領域内の文字列を解析し、解析情報記憶部18に予め記憶されている情報(後述する検索キーワード記憶テーブル)に基づいて、文字列に含まれるキーワードを抽出し、解析情報記憶部18に予め記憶されている情報(後述する解析情報記憶テーブル)から、抽出したキーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する。また、入力画像解析モジュール13は、書き込み領域のサイズを取得し、解析情報記憶部18に予め記憶されている情報(後述する解析情報記憶テーブル)から、取得したサイズに近いサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する。また、入力画像解析モジュール13は、画像変換候補を提示して、ユーザに画像種別を選択させる。そして、特定又は選択された画像種別の画像を生成する画像生成モジュール14に文字列情報を通知する。   When the input image analysis module 13 receives the write area information and the character string information from the input / output management module 12, the input image analysis module 13 analyzes the character string in the write area and stores information stored in advance in the analysis information storage unit 18 (described later). Based on the search keyword storage table, a keyword included in the character string is extracted, and a character string including the extracted keyword is searched from information stored in advance in the analysis information storage unit 18 (an analysis information storage table described later). Then, the image type corresponding to the searched character string is specified as the image type of the image to be generated. Further, the input image analysis module 13 acquires the size of the writing area, and searches for a writing area having a size close to the acquired size from information (an analysis information storage table described later) stored in advance in the analysis information storage unit 18. Then, the image type corresponding to the searched writing area is specified as the image type of the image to be generated. The input image analysis module 13 presents image conversion candidates and allows the user to select an image type. Then, the character string information is notified to the image generation module 14 that generates an image of the specified or selected image type.

画像生成モジュール14は、入力画像解析モジュール13から受け取った文字列情報に基づいて画像を生成する部分であり、本実施例では、コード情報生成モジュール14aとグラフ生成モジュール14bと地図情報生成モジュール14cとを含む。コード情報生成モジュール14aは、文字列がURLの場合に動作するモジュールであり、公知の技術を利用してURLをコード化し、QRコード(登録商標)やバーコードなどのコード情報を生成し、生成したコード情報を画像表示モジュール15に送信する。グラフ生成モジュール14bは、書き込み領域のサイズが2行以上の文字列を含む大きさの場合に動作するモジュールであり、文字列から数値を取得し、その数値を用いて、円グラフや折れ線グラフ、棒グラフなどを生成し、生成したグラフを画像表示モジュール15に送信する。地図情報生成モジュール14cは、文字列が住所の場合に動作するモジュールであり、予め記憶した地図の中からその住所近傍の地図を抽出して地図情報を生成し、生成した地図情報を画像表示モジュール15に送信する。   The image generation module 14 is a part that generates an image based on the character string information received from the input image analysis module 13, and in this embodiment, the code information generation module 14a, the graph generation module 14b, the map information generation module 14c, including. The code information generation module 14a is a module that operates when a character string is a URL. The code information generation module 14a generates a code information such as a QR code (registered trademark) or a barcode by encoding the URL using a known technique. The code information thus transmitted is transmitted to the image display module 15. The graph generation module 14b is a module that operates when the size of the writing area includes a character string of two or more lines. The graph generation module 14b acquires a numerical value from the character string and uses the numerical value to generate a pie chart, a line graph, A bar graph or the like is generated, and the generated graph is transmitted to the image display module 15. The map information generation module 14c is a module that operates when the character string is an address. The map information generation module 14c generates a map information by extracting a map in the vicinity of the address from a prestored map, and the generated map information is displayed as an image display module. 15 to send.

画像表示モジュール15は、原稿選択画面で選択された原稿を原稿表示画面に表示させたり、ペン選択コントロールで選択されたペンの画像を原稿表示画面に表示させたり、画像生成モジュール14で生成された画像(コード情報又はグラフ又は地図情報)を原稿の画像に重ね合わせて原稿表示画面に表示させたりする。   The image display module 15 displays the document selected on the document selection screen on the document display screen, displays the pen image selected by the pen selection control on the document display screen, or is generated by the image generation module 14. An image (code information or graph or map information) is superimposed on the image of the document and displayed on the document display screen.

画像保存モジュール16は、保存イベントを検出すると、画像表示コンポーネント11から原稿表示画面に表示された合成画像情報(原稿の画像に、生成された画像を重ね合わせた画像情報)を取得し、その画像情報を記憶部19に保存する。また、通信部17を介してインターネットなどから画像情報をダウンロードした場合は、ダウンロードした画像情報を記憶部19に保存する。   When the storage event is detected, the image storage module 16 acquires composite image information (image information obtained by superimposing the generated image on the original image) displayed on the original display screen from the image display component 11, and the image Information is stored in the storage unit 19. When image information is downloaded from the Internet or the like via the communication unit 17, the downloaded image information is stored in the storage unit 19.

通信部17は、NIC(Network Interface Card)やモデムなどであり、LAN(Local Area Network)やWAN(Wide Area Network)などの通信ネットワークを介して、外部装置(例えば、原稿データを保存するサーバ、画像情報を提供するサーバ、表示した画像情報を印刷するプリンタやMFP(Multi Function Peripheral)などの画像形成装置)と接続する。   The communication unit 17 is a NIC (Network Interface Card), a modem, or the like, and via a communication network such as a LAN (Local Area Network) or a WAN (Wide Area Network), an external device (for example, a server that stores document data, A server that provides image information, a printer that prints the displayed image information, and an image forming apparatus such as an MFP (Multi Function Peripheral) are connected.

解析情報記憶部18は、メモリやHDD(Hard Disk Drive)であり、図10に示すような検索キーワード記憶テーブルや、図11乃至図13に示すような解析情報記憶テーブルなどを記憶すると共に、入力画像解析モジュール13で解析した結果を履歴情報として上記解析情報記憶テーブルに反映する。   The analysis information storage unit 18 is a memory or HDD (Hard Disk Drive), and stores a search keyword storage table as shown in FIG. 10, an analysis information storage table as shown in FIGS. The result analyzed by the image analysis module 13 is reflected in the analysis information storage table as history information.

記憶部19も、メモリやHDDであり、画像表示コンポーネント11から取得した画像情報や通信部17を介してインターネットなどからダウンロードした画像情報などを記憶する。なお、解析情報記憶部18と記憶部19とは、単一のメモリ乃至はHDDの異なる記憶エリアをそれぞれ使用することにより構成しても良い。   The storage unit 19 is also a memory or an HDD, and stores image information acquired from the image display component 11, image information downloaded from the Internet or the like via the communication unit 17, and the like. The analysis information storage unit 18 and the storage unit 19 may be configured by using different storage areas of a single memory or HDD.

なお、図2では、入出力管理モジュール12、入力画像解析モジュール13、画像生成モジュール14、画像表示モジュール15、画像保存モジュール16をハードウェアとして構成しているが、これらは、CPU(Central Processing Unit)とROM(Read Only Memory)やRAM(Random Access Memory)などのメモリとで構成される制御部により実行されるプログラム(表示制御プログラム)として構成してもよい。   In FIG. 2, the input / output management module 12, the input image analysis module 13, the image generation module 14, the image display module 15, and the image storage module 16 are configured as hardware. ) And a program (display control program) executed by a control unit including a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory).

次に、上記構成の表示装置10の全体処理について、図3のフローチャート図を参照して概説する。   Next, the overall processing of the display device 10 having the above configuration will be outlined with reference to the flowchart of FIG.

まず、ユーザが表示装置10の原稿選択画面を操作して原稿を選択すると、表示装置10の画像表示モジュール15は、画像表示コンポーネント11(原稿表示画面)に、選択された原稿を表示させる(S101)。   First, when the user operates the document selection screen of the display device 10 to select a document, the image display module 15 of the display device 10 displays the selected document on the image display component 11 (document display screen) (S101). ).

次に、ユーザが表示装置10のペン選択コントロールを操作してペンを選択し、タッチペン等を用いて表示された原稿の所定の文字列を囲むように所定の図形の書き込みを行うと、画像表示コンポーネント11は、所定の図形の書き込みを検出し、所定の図形が書き込まれたことを知らせる書き込みイベントを入出力管理モジュール12に通知する(S102)。なお、所定の図形の書き込み方法は特に限定されず、手書きで図形を描画してもよいし、始点と終点を指定して矩形を描画してもよい。   Next, when the user operates the pen selection control of the display device 10 to select a pen and writes a predetermined figure so as to surround a predetermined character string of a document displayed using a touch pen or the like, an image display is performed. The component 11 detects writing of a predetermined graphic and notifies the input / output management module 12 of a write event notifying that the predetermined graphic has been written (S102). The method for writing the predetermined figure is not particularly limited, and the figure may be drawn by hand, or a rectangle may be drawn by specifying the start point and the end point.

次に、入出力管理モジュール12は、画像表示コンポーネント11から所定の図形の座標を取得して、所定の図形で囲まれた書き込み領域を特定する共に、書き込み領域内に表示されている文字列を取得し(S103)、特定した書き込み領域情報と取得した文字列情報とを入力画像解析モジュール13に通知する。   Next, the input / output management module 12 acquires the coordinates of a predetermined graphic from the image display component 11, specifies the writing area surrounded by the predetermined graphic, and converts the character string displayed in the writing area. It acquires (S103), and notifies the input image analysis module 13 of the specified writing area information and the acquired character string information.

通知を受けた入力画像解析モジュール13は、文字列を解析し、解析した文字列を解析情報記憶部18に記憶された検索キーワード記憶テーブル(図10参照)のキーワードで検索し、文字列に含まれるキーワードを抽出する(S104)。なお、入力画像解析モジュール13は、書き込み領域のサイズの解析も行う場合もあるが、このフローでは理解を容易にするために書き込み領域のサイズの解析については説明しない。   Upon receiving the notification, the input image analysis module 13 analyzes the character string, searches the analyzed character string with the keyword in the search keyword storage table (see FIG. 10) stored in the analysis information storage unit 18, and includes the character string. Keywords to be extracted are extracted (S104). Note that the input image analysis module 13 may also analyze the size of the writing area, but in this flow, the analysis of the size of the writing area will not be described for easy understanding.

次に、入力画像解析モジュール13は、抽出したキーワードで解析情報記憶部18に記憶された解析情報記憶テーブル(図11乃至図13参照)を検索し、キーワードに対応する画像種別を特定し(S105)、特定した画像種別及び文字列情報を画像生成モジュール14に通知する。   Next, the input image analysis module 13 searches the analysis information storage table (see FIGS. 11 to 13) stored in the analysis information storage unit 18 with the extracted keyword, and specifies the image type corresponding to the keyword (S105). ) Notify the image generation module 14 of the specified image type and character string information.

次に、特定した画像種別に対応する画像生成モジュール14(コード情報生成モジュール14a又はグラフ作成モジュール14b又は地図情報作成モジュール14c)は、文字列情報から、特定した画像種別に対応する画像を生成し(S106)、生成した画像の情報を画像表示モジュール15に通知する。   Next, the image generation module 14 (code information generation module 14a, graph generation module 14b, or map information generation module 14c) corresponding to the specified image type generates an image corresponding to the specified image type from the character string information. (S106) Information on the generated image is notified to the image display module 15.

次に、画像表示モジュール15は、画像表示コンポーネント11(原稿表示画面)に表示されている原稿の画像に、特定した画像種別に対応する画像を重ね合わせて表示させる(S107)。なお、特定した画像種別に対応する画像を表示する位置は特に限定されないが、画像の元となる文字列の近傍(例えば、文字列の上下左右の余白領域など)に表示することが好ましい。   Next, the image display module 15 superimposes and displays an image corresponding to the specified image type on the image of the document displayed on the image display component 11 (document display screen) (S107). The position for displaying the image corresponding to the specified image type is not particularly limited, but it is preferably displayed in the vicinity of the character string that is the source of the image (for example, the upper, lower, left, and right margin areas of the character string).

その後、画像保存モジュール16は、画像表示コンポーネント11(原稿表示画面)から、原稿の画像に特定した画像種別に対応する画像を重ね合わせた合成画像の情報を取得し、その合成画像の情報を記憶部19に保存して(S108)、一連の処理を終了する。   Thereafter, the image storage module 16 acquires, from the image display component 11 (original display screen), information on a composite image obtained by superimposing an image corresponding to the specified image type on the original image, and stores the information on the composite image. The data is stored in the unit 19 (S108), and the series of processing ends.

このように、表示された原稿の所定の文字列を囲むように所定の図形の書き込みを行うと、その書き込み領域内の文字列を解析し、その文字列に含まれるキーワードを抽出し、抽出したキーワードに対応する画像種別を特定し、文字列から特定した画像種別に対応する画像を生成して、原稿に重ね合わせて表示するため、ユーザは表示された原稿に関連する有益な情報を得ることができる。   As described above, when a predetermined figure is written so as to surround a predetermined character string of the displayed document, the character string in the writing area is analyzed, and a keyword included in the character string is extracted and extracted. Since the image type corresponding to the keyword is specified, and the image corresponding to the specified image type is generated from the character string and displayed superimposed on the original, the user can obtain useful information related to the displayed original. Can do.

以下、文字列から画像を生成する画像生成処理について、図4及び図5の具体例、図6乃至図9のフローチャート図、図10乃至図13のテーブルを参照して具体的に説明する。なお、図6は、図3のフローチャート図のS104からS106までの処理の詳細を表しており、図7及び図8は、各々、図6の書き込み領域解析処理、文字列解析処理の詳細を表している。   Hereinafter, image generation processing for generating an image from a character string will be specifically described with reference to specific examples of FIGS. 4 and 5, flowcharts of FIGS. 6 to 9, and tables of FIGS. 10 to 13. FIG. 6 shows details of the processing from S104 to S106 in the flowchart of FIG. 3, and FIGS. 7 and 8 show details of the writing area analysis processing and character string analysis processing of FIG. 6, respectively. ing.

[画像生成処理]
図6に示すように、入力画像解析モジュール13は、入出力管理モジュール12から書き込み領域情報と文字列情報を取得すると、書き込み領域内の文字列を解析する(S210)。
[Image generation processing]
As shown in FIG. 6, when the input image analysis module 13 acquires the writing area information and the character string information from the input / output management module 12, the input image analysis module 13 analyzes the character string in the writing area (S210).

次に、1文字の縦横のサイズを取得する(S220)。なお、文字列を構成する各文字のサイズが異なる場合は、最も多くの文字で使用されているサイズや最も小さい文字のサイズ、平均的な文字のサイズなどを取得することができる。   Next, the vertical and horizontal sizes of one character are acquired (S220). In addition, when the size of each character which comprises a character string differs, the size used by the most characters, the size of the smallest character, the size of an average character, etc. are acquirable.

次に、入力画像解析モジュール13は、書き込み領域の縦のサイズと1文字の縦のサイズとを比較する(S230)。なお、書き込み領域を手書きした場合は、書き込み領域の縦のサイズは一定にはならないが、その場合は、間隔が最も狭い部分の寸法や間隔が平均的な部分の寸法を縦のサイズとすることができる。   Next, the input image analysis module 13 compares the vertical size of the writing area with the vertical size of one character (S230). Note that when the writing area is handwritten, the vertical size of the writing area is not constant, but in that case, the dimension of the part with the smallest interval or the dimension of the part with the average interval should be the vertical size. Can do.

そして、入力画像解析モジュール13は、書き込み領域の縦のサイズが1文字の縦のサイズの2倍以上(すなわち、文字列が複数行)であるかを判断し(S240)、文字列が複数行(例えば、図4のダウンロード時間を示す文字列)の場合は、書き込み領域解析処理を行って画像種別を特定する(S250)、文字列が1行(例えば、図4の住所を示す文字列やURLを示す文字列)の場合は、文字列解析処理を行って画像種別を特定する(S260)。   Then, the input image analysis module 13 determines whether or not the vertical size of the writing area is at least twice the vertical size of one character (that is, the character string has a plurality of lines) (S240). In the case of (for example, a character string indicating the download time in FIG. 4), the writing area analysis process is performed to specify the image type (S250), and the character string is one line (for example, a character string indicating the address in FIG. In the case of a character string indicating a URL), a character string analysis process is performed to identify the image type (S260).

[書き込み領域解析処理]
図7は、図6のS250の詳細を示すフローチャート図である。書き込み領域解析処理では、入力画像解析モジュール13は、解析情報記憶テーブルに記載された書き込み領域情報の中から、特定した書き込み領域の縦横のサイズに近いもの(サイズが略等しいもの)を検索する(S251)。この検索は、例えば、SQL(Structured Query Language)のSELECT文で実行することができる。
[Write area analysis processing]
FIG. 7 is a flowchart showing details of S250 in FIG. In the writing area analysis process, the input image analysis module 13 searches the writing area information described in the analysis information storage table for a thing close to the vertical and horizontal sizes of the specified writing area (those having substantially the same size) ( S251). This search can be executed by, for example, a SELECT statement of SQL (Structured Query Language).

なお、初期状態では、解析情報記憶テーブルは図11に示すような構成であり、書き込み領域情報が記録されていないため、書き込み領域の縦横のサイズに近いものを検索することはできないが、本実施例の画像生成処理を繰り返すと、解析情報記憶テーブルには、解析した文字列とその文字列の書き込み領域情報とその文字列から生成した画像の画像種別とが登録されて図12のような構成になるため、書き込み領域の縦横のサイズに近いものを検索することができるようになる。   In the initial state, the analysis information storage table has a configuration as shown in FIG. 11 and no writing area information is recorded. Therefore, it is not possible to search for an area close to the vertical and horizontal sizes of the writing area. When the image generation processing of the example is repeated, the analyzed character string, the writing area information of the character string, and the image type of the image generated from the character string are registered in the analysis information storage table, and the configuration as shown in FIG. As a result, it is possible to search for a size close to the vertical and horizontal sizes of the writing area.

次に、入力画像解析モジュール13は、解析情報記憶テーブルに登録された書き込み領域情報の中に、特定した書き込み領域の縦横サイズに近いものがあるかを判断する(S252)。そして、特定した書き込み領域の縦横サイズに近いものがあれば、同じ種別の画像に変換する可能性が高いことから、必要に応じて、その書き込み領域情報に対応する画像種別(過去に変換した画像種別)を画像変換候補として表示する(S253)。一方、特定した書き込み領域の縦横サイズに近いものがなければ、どの種別の画像に変換すればよいかが判断できないことから、画像種別をユーザに選択させるための複数の画像変換候補を表示する(S254)。なお、特定した書き込み領域の縦横サイズに近い書き込み領域情報が複数あり、それらの書き込み領域情報に対応する画像種別が複数の場合は、複数の画像変換候補を表示してもよく、その場合は、書き込み領域情報の数が多い順に画像種別を表示することができる。   Next, the input image analysis module 13 determines whether any of the write area information registered in the analysis information storage table is close to the specified horizontal and vertical size of the write area (S252). If there is a size that is close to the vertical and horizontal size of the specified writing area, there is a high possibility that it will be converted to the same type of image. Therefore, if necessary, the image type corresponding to the writing area information (an image converted in the past) Type) is displayed as an image conversion candidate (S253). On the other hand, if there is no size that is close to the vertical and horizontal size of the specified writing area, it is impossible to determine which type of image should be converted, so a plurality of image conversion candidates for allowing the user to select the image type are displayed (S254). ). In addition, when there are a plurality of writing area information close to the vertical and horizontal sizes of the specified writing area and there are a plurality of image types corresponding to the writing area information, a plurality of image conversion candidates may be displayed. The image types can be displayed in descending order of the number of writing area information.

そして、入力画像解析モジュール13は、過去に変換した画像種別、若しくは、画像変換候補の中からユーザが選択した画像種別を、文字列を変換する画像種別として特定し(S255)、その画像種別に応じた画像生成モジュール14に文字列情報を通知する。   Then, the input image analysis module 13 specifies the image type converted in the past or the image type selected by the user from the image conversion candidates as the image type for converting the character string (S255). The character string information is notified to the corresponding image generation module 14.

[文字列解析処理]
図8は、図6のS260の詳細を示すフローチャート図である。文字列解析処理では、入力画像解析モジュール13は、解析した文字列を検索キーワード記憶テーブルのキーワードで検索する(S261)。この検索もSQLのSELECT文で実行することができる。例えば、図9(a)に示すような書き込みを行った場合、図9(b)に示すように、書き込み領域内の文字列が「神奈川県厚木市上落合231−1」と認識され、図9(c)、(d)に示すように、順次、検索キーワード記憶テーブルからキーワードが検索される。具体的には、図10に示すような検索キーワード記憶テーブルが登録されている場合は、キーワード3の「神奈川」とキーワード4の「県」とキーワード6の「市」とが検索される。
[String analysis processing]
FIG. 8 is a flowchart showing details of S260 of FIG. In the character string analysis process, the input image analysis module 13 searches the analyzed character string with a keyword in the search keyword storage table (S261). This search can also be executed with the SQL SELECT statement. For example, when writing as shown in FIG. 9A is performed, the character string in the writing area is recognized as “Kami Ochiai 231-1, Atsugi-shi, Kanagawa” as shown in FIG. As shown in (c) and (d), keywords are sequentially searched from the search keyword storage table. Specifically, when a search keyword storage table as shown in FIG. 10 is registered, “Kanagawa” of keyword 3, “prefecture” of keyword 4, and “city” of keyword 6 are searched.

次に、入力画像解析モジュール13は、文字列内にキーワードが見つかったかを判断し(S262)、キーワードが見つかった場合は、該当したキーワードで解析情報記憶テーブルを検索する(S263)。この検索もSQLのSELECT文で実行することができる。例えば、解析情報記憶テーブルが図12の構成の場合は、ID=2、4、6、8、9、10の6つが検索される。   Next, the input image analysis module 13 determines whether a keyword is found in the character string (S262). If a keyword is found, the analysis information storage table is searched with the corresponding keyword (S263). This search can also be executed with the SQL SELECT statement. For example, when the analysis information storage table has the configuration shown in FIG. 12, six IDs of 2, 4, 6, 8, 9, 10 are searched.

次に、入力画像解析モジュール13は、検索結果の件数が多いかを判断し(S264)、検索結果が多い場合は、同じ種別の画像に変換する可能性が高いことから、必要に応じて、過去に変換した画像種別を画像変換候補として表示する(S265)。例えば、上記例では、図9(e)に示すように、解析情報記憶テーブルの全13件中の6件が該当しているため、図9(f)で、過去に変換した画像種別(地図)を候補として表示する。一方、検索結果が少ない場合は、どの種別の画像に変換すればよいかの判断が難しいことから、画像種別をユーザに選択させるための画像種別候補を表示する(S266)。例えば、図5(a)に示すように、URLを囲むように書き込みを行った場合、図5(b)に示すような複数の画像変換候補を表示する。なお、検索結果が多い場合であって、検索結果に対応する画像種別が複数の場合は、複数の画像変換候補を表示してもよい。また、複数の画像変換候補を表示する場合は、検索結果の数が多い順に画像種別を表示することができる。   Next, the input image analysis module 13 determines whether the number of search results is large (S264). If there are many search results, there is a high possibility of conversion to the same type of image. The image types converted in the past are displayed as image conversion candidates (S265). For example, in the above example, as shown in FIG. 9 (e), 6 out of all 13 cases in the analysis information storage table are applicable, so in FIG. ) As a candidate. On the other hand, when there are few search results, it is difficult to determine which type of image to convert, and therefore image type candidates for allowing the user to select an image type are displayed (S266). For example, as shown in FIG. 5A, when writing is performed so as to surround the URL, a plurality of image conversion candidates as shown in FIG. 5B are displayed. When there are many search results and there are a plurality of image types corresponding to the search results, a plurality of image conversion candidates may be displayed. Further, when displaying a plurality of image conversion candidates, the image types can be displayed in the order of the number of search results.

そして、入力画像解析モジュール13は、過去に変換した画像種別、若しくは、画像変換候補の中からユーザが選択した画像種別を、文字列を変換する画像種別として特定し(S267)、その画像種別に対応する画像生成モジュール14に文字列情報を通知する。例えば、図9(f)で、過去に変換した画像種別として地図を表示した場合は、入力画像解析モジュール13は、地図情報作成モジュール14cに文字列情報を通知する。また、図5(b)に示すような画像変換候補の中から、ユーザが「QRコード生成」を選択した場合は、入力画像解析モジュール13は、コード情報生成モジュール14aに文字列情報を通知する。   Then, the input image analysis module 13 specifies the image type converted in the past or the image type selected by the user from the image conversion candidates as the image type for converting the character string (S267). The character string information is notified to the corresponding image generation module 14. For example, in FIG. 9F, when the map is displayed as the image type converted in the past, the input image analysis module 13 notifies the map information creation module 14c of the character string information. When the user selects “QR code generation” from the image conversion candidates as shown in FIG. 5B, the input image analysis module 13 notifies the code information generation module 14a of the character string information. .

図6のフローチャート図に戻って、特定された画像種別に応じた画像生成モジュール14(コード情報生成モジュール14a又はグラフ作成モジュール14b又は地図情報作成モジュール14c)は、通知された文字列情報から特定した画像種別に応じた画像を生成する(S270)。例えば、図5(b)の画像変換候補でユーザが「QRコード生成」を選択した場合は、コード情報生成モジュール14aは、図5(c)に示すようなQRコードを生成する。   Returning to the flowchart of FIG. 6, the image generation module 14 (code information generation module 14a, graph generation module 14b, or map information generation module 14c) corresponding to the specified image type is specified from the notified character string information. An image corresponding to the image type is generated (S270). For example, when the user selects “QR code generation” in the image conversion candidate of FIG. 5B, the code information generation module 14a generates a QR code as shown in FIG. 5C.

なお、解析情報記憶テーブルは図12に示すように装置毎に設けてもよいが、図13に示すようにユーザ毎に設けることもでき、ユーザ毎の解析情報記憶テーブルを使用することにより、そのユーザが所望する画像を確実に生成することができる。   The analysis information storage table may be provided for each device as shown in FIG. 12, but may be provided for each user as shown in FIG. 13, and by using the analysis information storage table for each user, It is possible to reliably generate an image desired by the user.

また、本発明は上記実施例に限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて、その構成や制御は適宜変更可能である。例えば、上記実施例では、画像種別として地図とグラフとコード情報を例示したが、文字列から変換可能な画像であればよい。   The present invention is not limited to the above-described embodiments, and the configuration and control thereof can be changed as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, the map, the graph, and the code information are exemplified as the image type, but any image that can be converted from a character string may be used.

本発明は、タッチペン等で入力が可能なタッチパネルを備える表示装置及び当該表示装置で動作する表示制御プログラムに利用可能である。   The present invention is applicable to a display device including a touch panel that can be input with a touch pen or the like, and a display control program that operates on the display device.

10 表示装置
11 画像表示コンポーネント
12 入出力管理モジュール
13 入力画像解析モジュール
14 画像生成モジュール
14a コード情報生成モジュール
14b グラフ生成モジュール
14c 地図情報生成モジュール
15 画像表示モジュール
16 画像保存モジュール
17 通信部
18 解析情報記憶部
19 記憶部
DESCRIPTION OF SYMBOLS 10 Display apparatus 11 Image display component 12 Input / output management module 13 Input image analysis module 14 Image generation module 14a Code information generation module 14b Graph generation module 14c Map information generation module 15 Image display module 16 Image storage module 17 Communication part 18 Analysis information storage Part 19 Storage part

Claims (8)

原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置であって、
前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部と、
取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部と、
取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部と、
前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部と、を備えることを特徴とする表示装置。
A display device having a screen for displaying an image of a document, and having a function of recognizing characters in the document displayed on the screen and a function of recognizing a graphic written on the screen with a touch pen ,
When a graphic is written on the screen on which the image of the document is displayed, an input / output management unit that identifies a writing area defined by the graphic and acquires a character string displayed in the writing area;
Analyzing the acquired character string, specifying an image type of an image to be generated based on the character string, or an input image analysis unit that displays candidates for allowing the user to select the image type;
An image generation unit that generates an image of the specified image type based on the acquired character string;
An image display unit, comprising: an image display unit that displays the generated image superimposed on the image of the document displayed on the screen.
以前に取得した文字列と当該文字列に基づいて生成した画像の画像種別とを対応付けるテーブルが予め記憶されており、
前記入力画像解析部は、取得した前記文字列から予め定めたキーワードを抽出し、前記テーブルから、抽出した前記キーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項1に記載の表示装置。
A table that associates a previously acquired character string with an image type of an image generated based on the character string is stored in advance,
The input image analysis unit extracts a predetermined keyword from the acquired character string, searches a character string including the extracted keyword from the table, and generates an image type corresponding to the searched character string The display device according to claim 1, wherein the display device is specified as an image type of an image.
以前に取得した文字列と以前に書き込まれた図形で規定される書き込み領域のサイズと当該文字列に基づいて生成した画像の画像種別とを対応付けるテーブルが予め記憶されており、
前記入力画像解析部は、書き込まれた前記図形で規定される書き込み領域のサイズを取得し、前記テーブルから、取得したサイズと略等しいサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項1に記載の表示装置。
A table is previously stored that associates the previously acquired character string with the size of the writing area defined by the previously written graphic and the image type of the image generated based on the character string,
The input image analysis unit acquires the size of a writing area defined by the written graphic, searches the table for a writing area having a size substantially equal to the acquired size, and corresponds to the searched writing area The display device according to claim 1, wherein the type is specified as an image type of an image to be generated.
前記入力画像解析部は、前記テーブルから、前記キーワードを含む文字列又は取得したサイズに近いサイズの書き込み領域が複数検索され、検索された複数の文字列又は書き込み領域に対応する画像種別が複数ある場合は、複数の画像種別の候補を検索数が多い順に表示する、ことを特徴とする請求項2又は3に記載の表示装置。   The input image analysis unit searches the table for a plurality of character strings including the keyword or a writing area having a size close to the acquired size, and there are a plurality of image types corresponding to the searched character strings or writing areas. 4. The display device according to claim 2, wherein a plurality of image type candidates are displayed in descending order of the number of searches. 原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置で動作する表示制御プログラムであって、
前記表示装置を、
前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部、
取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部、
取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部、
前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部、として機能させることを特徴とする表示制御プログラム。
Operates on a display device having a screen for displaying an image of a document and having a function of recognizing characters in the document displayed on the screen and a function of recognizing a graphic written on the screen with a touch pen A display control program,
The display device;
When a figure is written on the screen on which the image of the document is displayed, an input / output management unit that identifies a writing area defined by the figure and acquires a character string displayed in the writing area;
Analyzing the acquired character string, specifying an image type of an image to be generated based on the character string, or an input image analysis unit for displaying a candidate for allowing the user to select the image type,
An image generation unit that generates an image of the specified image type based on the acquired character string,
A display control program that functions as an image display unit that displays the generated image superimposed on the image of the document displayed on the screen.
以前に取得した文字列と当該文字列に基づいて生成した画像の画像種別とを対応付けるテーブルが予め記憶されており、
前記入力画像解析部は、取得した前記文字列から予め定めたキーワードを抽出し、前記テーブルから、抽出した前記キーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項5に記載の表示制御プログラム。
A table that associates a previously acquired character string with an image type of an image generated based on the character string is stored in advance,
The input image analysis unit extracts a predetermined keyword from the acquired character string, searches a character string including the extracted keyword from the table, and generates an image type corresponding to the searched character string The display control program according to claim 5, wherein the display control program is specified as an image type of an image.
以前に取得した文字列と以前に書き込まれた図形で規定される書き込み領域のサイズと当該文字列に基づいて生成した画像の画像種別とを対応付けるテーブルが予め記憶されており、
前記入力画像解析部は、書き込まれた前記図形で規定される書き込み領域のサイズを取得し、前記テーブルから、取得したサイズと略等しいサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項5に記載の表示制御プログラム。
A table is previously stored that associates the previously acquired character string with the size of the writing area defined by the previously written graphic and the image type of the image generated based on the character string,
The input image analysis unit acquires the size of a writing area defined by the written graphic, searches the table for a writing area having a size substantially equal to the acquired size, and corresponds to the searched writing area The display control program according to claim 5, wherein the type is specified as an image type of an image to be generated.
前記入力画像解析部は、前記テーブルから、前記キーワードを含む文字列又は取得したサイズに近いサイズの書き込み領域が複数検索され、検索された複数の文字列又は書き込み領域に対応する画像種別が複数ある場合は、複数の画像種別の候補を検索数が多い順に表示する、ことを特徴とする請求項6又は7に記載の表示制御プログラム。   The input image analysis unit searches the table for a plurality of character strings including the keyword or a writing area having a size close to the acquired size, and there are a plurality of image types corresponding to the searched character strings or writing areas. 8. The display control program according to claim 6, wherein a plurality of image type candidates are displayed in descending order of the number of searches.
JP2011088468A 2011-04-12 2011-04-12 Display device and display control program Expired - Fee Related JP5811435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011088468A JP5811435B2 (en) 2011-04-12 2011-04-12 Display device and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011088468A JP5811435B2 (en) 2011-04-12 2011-04-12 Display device and display control program

Publications (2)

Publication Number Publication Date
JP2012221367A true JP2012221367A (en) 2012-11-12
JP5811435B2 JP5811435B2 (en) 2015-11-11

Family

ID=47272762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011088468A Expired - Fee Related JP5811435B2 (en) 2011-04-12 2011-04-12 Display device and display control program

Country Status (1)

Country Link
JP (1) JP5811435B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130408A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Graph preparation program, information processing device, and graph preparation method
US9632691B2 (en) 2013-07-29 2017-04-25 Fujitsu Limited Non-transitory computer-readable medium storing selected character specification program, selected character specification method, and selected character specification device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149881A (en) * 1992-11-09 1994-05-31 Ricoh Co Ltd Dictionary consultant device, document processor, and digital copying machine
JPH0778148A (en) * 1993-09-08 1995-03-20 Canon Inc Information processor and method therefor
JP2002236684A (en) * 2001-02-07 2002-08-23 Fujitsu Ten Ltd Information processing method
JP2006065754A (en) * 2004-08-30 2006-03-09 Toshiba Corp Information processor, information processing method, and program
JP2009104396A (en) * 2007-10-23 2009-05-14 Sharp Corp Content selection apparatus, television, content selection program and storage medium
JP2010541097A (en) * 2007-10-01 2010-12-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Arrangement of graphics objects on the page by control based on relative position

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149881A (en) * 1992-11-09 1994-05-31 Ricoh Co Ltd Dictionary consultant device, document processor, and digital copying machine
JPH0778148A (en) * 1993-09-08 1995-03-20 Canon Inc Information processor and method therefor
JP2002236684A (en) * 2001-02-07 2002-08-23 Fujitsu Ten Ltd Information processing method
JP2006065754A (en) * 2004-08-30 2006-03-09 Toshiba Corp Information processor, information processing method, and program
JP2010541097A (en) * 2007-10-01 2010-12-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Arrangement of graphics objects on the page by control based on relative position
JP2009104396A (en) * 2007-10-23 2009-05-14 Sharp Corp Content selection apparatus, television, content selection program and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130408A (en) * 2012-12-28 2014-07-10 Fujitsu Ltd Graph preparation program, information processing device, and graph preparation method
US9632691B2 (en) 2013-07-29 2017-04-25 Fujitsu Limited Non-transitory computer-readable medium storing selected character specification program, selected character specification method, and selected character specification device

Also Published As

Publication number Publication date
JP5811435B2 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
KR102489578B1 (en) Formula inputting method, apparatus and electronic device
US9449031B2 (en) Sorting and filtering a table with image data and symbolic data in a single cell
RU2662632C2 (en) Presenting fixed format documents in reflowed format
US20130238968A1 (en) Automatic Creation of a Table and Query Tools
US9558170B2 (en) Creating and switching a view of a collection including image data and symbolic data
CN101639760A (en) Input method and input system of contact information
US20110316796A1 (en) Information Search Apparatus and Information Search Method
WO2016018683A1 (en) Image based search to identify objects in documents
US10552535B1 (en) System for detecting and correcting broken words
JP2015135596A (en) Information processing apparatus and information processing program
JP6237135B2 (en) Information processing apparatus and information processing program
JP5811435B2 (en) Display device and display control program
CN107534710B (en) Electronic equipment and label processing method
WO2016018682A1 (en) Processing image to identify object for insertion into document
JP5881937B2 (en) Information processing apparatus, information processing method, and program
JP2016085547A (en) Electronic apparatus and method
US20150199450A1 (en) Systems and Methods for Associating User Sketches with Resources
US20200279172A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP6481901B2 (en) Product information management apparatus, product information management method, and program
JP2020115260A (en) Information processing device and information processing program
CN111367478A (en) Data interaction printing system for laboratory instrument and printing method thereof
JP6657799B2 (en) Graphic processing apparatus, graphic processing method, and graphic processing program
JP6459470B2 (en) Document management program, method, and document management apparatus
US9721155B2 (en) Detecting document type of document
JP2006031129A (en) Document processing method and document processor

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150903

R150 Certificate of patent or registration of utility model

Ref document number: 5811435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees