JP2012221367A - Display unit and display control program - Google Patents
Display unit and display control program Download PDFInfo
- Publication number
- JP2012221367A JP2012221367A JP2011088468A JP2011088468A JP2012221367A JP 2012221367 A JP2012221367 A JP 2012221367A JP 2011088468 A JP2011088468 A JP 2011088468A JP 2011088468 A JP2011088468 A JP 2011088468A JP 2012221367 A JP2012221367 A JP 2012221367A
- Authority
- JP
- Japan
- Prior art keywords
- image
- character string
- displayed
- writing area
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置及び表示制御プログラムに関し、特に、タッチペン等で入力が可能なタッチパネルを備える表示装置及び表示装置で動作する表示制御プログラムに関する。 The present invention relates to a display device and a display control program, and more particularly to a display device including a touch panel that can be input with a touch pen or the like, and a display control program that operates on the display device.
近年、タブレット端末のようなタッチパネルを備えた表示装置が会議等に利用されており、例えば、表示装置上で動作する電子会議アプリケーションを用いて、表示装置の画面に会議の原稿を表示したり、表示した原稿にメモなどを追記したり、保存したりすることが行われている。 In recent years, display devices equipped with a touch panel such as a tablet terminal have been used for conferences, etc., for example, using an electronic conference application that operates on the display device, to display a conference document on the screen of the display device, A memo or the like is added to or saved in the displayed manuscript.
原稿にメモなどを追記する技術として、例えば、下記特許文献1には、原稿画像を読取り、画像データを得る読取手段と、前記画像データに基づいて、表示装置で前記画像データを表示させるための電子文書データを生成する電子文書化手段と、前記画像データより、手書きで追記された部分を含む追記領域を抽出する抽出手段と、前記追記領域に基づいて注釈用のデータを生成する生成手段と、前記画像データ上の前記追記領域の位置に基づいて、前記表示装置が前記電子文書データに前記注釈用データを表示するための位置を算出し、前記注釈用のデータに対して設定する設定手段とを備える、画像形成装置が開示されている。 As a technique for adding a memo or the like to a manuscript, for example, Japanese Patent Application Laid-Open No. 2004-151867 discloses a reading unit that reads a manuscript image and obtains image data, and a method for displaying the image data on a display device based on the image data. Electronic document generation means for generating electronic document data; extraction means for extracting a write-once area including a part added by handwriting from the image data; and generation means for generating annotation data based on the write-once area Setting means for calculating a position for the display device to display the annotation data on the electronic document data based on the position of the additional recording area on the image data, and setting the position for the annotation data An image forming apparatus is disclosed.
表示されている原稿にタッチペンで追記できるようにすることで、紙媒体に印刷した原稿と同様に、原稿に文字を付加することができるが、従来の方法では、メモ書き程度の文字を追記したり、付箋などに貼り付けたりすることができるだけであり、追記としては不十分であった。 By making it possible to add a note to a displayed document with a touch pen, characters can be added to the document in the same way as a document printed on a paper medium. It can only be pasted on sticky notes, etc., and it was insufficient as a postscript.
例えば、原稿等に住所が含まれている場合にその住所を地図上で確認できたり、原稿等にデータが含まれている場合にそのデータをグラフで確認できたり、原稿等にURL(Uniform Resource Locator)が含まれている場合にそのURLをコード情報として確認できたりすれば、原稿の閲覧するユーザにとって非常に便利である。 For example, when an address is included in a manuscript or the like, the address can be confirmed on a map, when data is included in a manuscript or the like, the data can be confirmed in a graph, or a URL (Uniform Resource If the URL can be confirmed as code information when a (Locator) is included, it is very convenient for the user viewing the document.
しかしながら、従来の方法では、地図やグラフ、コード情報のような画像を手書きで追記することは困難である。また、地図やグラフのような画像を手書きで追記できたとしても、住所やデータなどのテキスト情報を地図やグラフなどの画像に変換する処理はユーザ自身が行わなければならないため、操作が煩雑である。また、ユーザ自身が画像を手書きで追記する場合は、地図データに基づいて作成される正確な地図や、データ処理アプリケーションを用いて作成される正確なグラフを追記することができない。 However, with the conventional method, it is difficult to add an image such as a map, a graph, or code information by handwriting. Even if an image such as a map or graph can be added by hand, the process of converting text information such as an address or data into an image such as a map or graph must be performed by the user himself. is there. In addition, when the user himself / herself adds an image by hand, an accurate map created based on the map data and an accurate graph created using a data processing application cannot be added.
本発明は、上記問題点に鑑みてなされたものであって、その主たる目的は、簡便な操作で、原稿に表示された文字列から画像を生成して表示することができる表示装置及び表示制御プログラムを提供することにある。 The present invention has been made in view of the above problems, and a main object of the present invention is to provide a display device and display control capable of generating and displaying an image from a character string displayed on a document with a simple operation. To provide a program.
上記目的を達成するため、本発明は、原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置であって、前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部と、取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部と、取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部と、前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部と、を備えるものである。 In order to achieve the above object, the present invention has a screen for displaying an image of a document, a function for recognizing characters in the document displayed on the screen, and a figure written on the screen with a touch pen. And when a graphic is written on the screen on which the image of the document is displayed, a writing area defined by the graphic is specified and displayed in the writing area. An input / output management unit that obtains a character string, and an analysis of the obtained character string to identify an image type of an image to be generated based on the character string, or a candidate for allowing the user to select the image type An input image analysis unit to be displayed, an image generation unit that generates an image of the specified or selected image type based on the acquired character string, and an image of the document displayed on the screen An image display unit for displaying overlapping the image, but with a.
また、本発明は、原稿の画像を表示する画面を有し、前記画面に表示されている原稿中の文字を認識する機能と、前記画面にタッチペンで書き込まれた図形を認識する機能と、を備える表示装置で動作する表示制御プログラムであって、前記表示装置を、前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部、取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部、取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部、前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部、として機能させるものである。 The present invention also has a screen for displaying an image of a document, a function for recognizing characters in the document displayed on the screen, and a function for recognizing a graphic written on the screen with a touch pen. A display control program that operates on a display device provided with the display device, when a graphic is written on the screen on which an image of the document is displayed, specifies a writing area defined by the graphic, and the writing Input / output management unit that acquires the character string displayed in the area, analyzes the acquired character string, specifies the image type of the image to be generated based on the character string, or selects the image type to the user An input image analysis unit that displays candidates for image generation, an image generation unit that generates an image of the image type specified or selected based on the acquired character string, and before being displayed on the screen The image of a document, an image display unit for displaying overlapping the generated the image, is intended to function as a.
本発明の表示装置及び表示制御プログラムによれば、簡便な操作で、原稿に表示された文字列から画像を生成して表示することができる。 According to the display device and the display control program of the present invention, an image can be generated and displayed from a character string displayed on a manuscript with a simple operation.
その理由は、原稿に記載された文字列を囲むように書き込みが行われると、書き込み領域内の文字列を取得して解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、画像種別をユーザに選択させるための候補を表示し、取得した文字列から、特定又は選択された画像種別の画像を生成し、原稿の画像に重ね合わせて表示する制御を行うからである。 The reason is that when writing is performed so as to surround the character string described in the document, the character string in the writing area is acquired and analyzed, and the image type of the image generated based on the character string is specified, or This is because a candidate for allowing the user to select an image type is displayed, an image of the specified or selected image type is generated from the acquired character string, and is displayed so as to be superimposed on the image of the document.
これにより、表示装置に原稿を表示する使用形態の特徴を十分に生かして、原稿を閲覧するユーザに有益な情報を提供することができ、ユーザの利便性を格段に向上させることができる。 Thereby, it is possible to provide useful information to the user who browses the document by making full use of the characteristics of the usage pattern in which the document is displayed on the display device, and the convenience for the user can be greatly improved.
また、文字列の囲み方や文字列を解析し、履歴情報に基づいて学習することにより、ユーザが所望する画像を即座に提供することができる。 In addition, by analyzing how to enclose character strings and character strings and learning based on history information, an image desired by the user can be provided immediately.
背景技術で示したように、タブレット端末などのタッチパネルを備える表示装置を用い、当該装置で動作する電子会議アプリケーションを利用して、会議の原稿などを表示したり、表示した原稿にタッチペンで文字などを追記したりすることができる。 As shown in the background art, using a display device equipped with a touch panel such as a tablet terminal and using an electronic conference application that operates on the device, a conference document or the like is displayed, or characters and the like are displayed on the displayed document with a touch pen Can be added.
ここで、例えば、表示されている原稿に住所が含まれている場合に、その住所近傍の地図を表示したり、原稿にデータが含まれている場合に、そのデータを処理したグラフを表示したり、原稿にURLが含まれている場合に、そのURLを携帯端末で読み取るためのコード情報を表示したりすることによって、原稿を閲覧するユーザの便利性を向上させることができる。 Here, for example, when an address is included in the displayed manuscript, a map near the address is displayed, and when the manuscript includes data, a graph in which the data is processed is displayed. When a URL is included in a document, the code information for reading the URL with a mobile terminal is displayed, thereby improving the convenience of the user viewing the document.
しかしながら、従来の方法では、地図やグラフ、URLなどの画像を追記することは困難である。また、追記できたとしても、住所やデータなどのテキスト情報を地図やグラフなどの画像情報に変換する処理はユーザ自身が行わなければならないため、操作が煩雑である。また、手書きでは正確な地図や正確なグラフを追記することができない。 However, it is difficult to add an image such as a map, a graph, or a URL with the conventional method. Even if it can be added, the process of converting text information such as addresses and data into image information such as maps and graphs must be performed by the user himself, and the operation is complicated. In addition, an accurate map or an accurate graph cannot be added by handwriting.
そこで、本発明の一実施の形態では、画面上に表示された文字列に基づいて自動的に画像を生成し、生成した画像を原稿の画像に重ね合わせて表示できるようにする手法を提案する。 Therefore, in one embodiment of the present invention, a method is proposed in which an image is automatically generated based on a character string displayed on a screen, and the generated image can be displayed superimposed on an image of a document. .
例えば、原稿に住所が含まれている場合に、住所の文字列をタッチペンで囲むと、その住所近傍の地図を自動的に生成して表示したり、原稿に数値が含まれている場合に、数値の文字列をタッチペンで囲むと、その数値に基づくグラフを自動的に生成して表示したり、原稿にURLが含まれている場合に、URLの文字列をタッチペンで囲むと、そのURLをコード化したQRコードを自動的に生成して表示したりする。 For example, if an address is included in the manuscript and the address string is enclosed with a touch pen, a map near the address is automatically generated and displayed, or if the manuscript contains a numerical value, When a numeric character string is enclosed with a touch pen, a graph based on the numeric value is automatically generated and displayed, or when a URL is included in a manuscript, enclosing the URL character string with a touch pen causes the URL to be displayed. A coded QR code is automatically generated and displayed.
また、上記文字列の囲み方や囲まれている文字列の内容を解析し、各々のユーザが所望する画像を学習し、よく変換されている画像を自動的に生成したり、よく変換されている画像の候補を画面に提示したりする。 Also, the method of enclosing the character string and the contents of the enclosed character string are analyzed, each user learns the desired image, and a well-converted image is automatically generated or well converted. Present image candidates on the screen.
上記した本発明の実施の形態についてさらに詳細に説明すべく、本発明の一実施例に係る表示装置及び表示制御プログラムについて、図1乃至図13を参照して説明する。図1は、本実施例の表示装置の一例を示す図であり、図2は、表示装置の主要構成及び概略動作を示す図である。また、図3は、本実施例の表示装置の全体処理を示すフローチャート図であり、図4及び図5は、本実施例の表示装置を用いた画像生成処理の一例を示す図である。また、図6乃至図9は、本実施例の表示装置の画像生成処理の詳細を示すフローチャート図であり、図10乃至図13は、画像生成処理の際に参照するテーブルの一例を示す図である。 In order to describe the above-described embodiment of the present invention in more detail, a display device and a display control program according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a display device according to the present embodiment, and FIG. 2 is a diagram illustrating a main configuration and a schematic operation of the display device. FIG. 3 is a flowchart showing the overall processing of the display device of this embodiment, and FIGS. 4 and 5 are diagrams showing an example of image generation processing using the display device of this embodiment. FIGS. 6 to 9 are flowcharts showing details of the image generation processing of the display device of the present embodiment, and FIGS. 10 to 13 are diagrams showing examples of tables referred to in the image generation processing. is there.
図1に示すように、本実施例の表示装置10は、タブレット端末や電子ブック、薄型のコンピュータ装置などの表示デバイスを備えた装置である。この表示装置10には、原稿の画像を表示する領域(原稿表示画面)と、原稿表示画面に表示する原稿を選択する領域(原稿選択画面)と、追記するためのペンの選択、色や幅の指定などを行う領域(ペン選択コントロール)と、が設けられており、ペン選択コントロールでペン/筆アイコンをクリックすると、原稿表示画面に表示されるペン/筆で原稿に追記ができるようになっている。
As illustrated in FIG. 1, the
図2は、表示装置10の主要構成及び概略動作を示しており、表示装置10は、画像表示コンポーネント11と、入出力管理モジュール12と、入力画像解析モジュール13と、画像生成モジュール14と、画像表示モジュール15と、画像保存モジュール16と、通信部17と、解析情報記憶部18と、記憶部19などで構成される。
FIG. 2 shows the main configuration and schematic operation of the
画像表示コンポーネント11は、例えば、液晶表示装置や有機EL(electroluminescence)表示装置等の表示部上に、透明電極が格子状に配置された感圧式のタッチパネル等の操作部を備えている。また、画像表示コンポーネント11は、OCR(Optical Character Recognition)機能を備えており、表示部に表示された原稿を構成する文字を認識することができる。そして、タッチペン等を用いて矩形や楕円などの所定の図形を書き込むと、画像表示コンポーネント11は、入出力管理モジュール12に対して書き込みイベントを通知する。また、タッチペン等を用いて保存が指示(保存ボタンがタッチ)されると、画像表示コンポーネント11は、画像保存モジュール16に対して保存イベントを通知する。なお、所定の図形は、領域を特定できればよく、例えば、「」などの記号としてもよい。
The
入出力管理モジュール12は、書き込みイベントを検出すると、画像表示コンポーネント11から上記所定の図形の座標を取得して、所定の図形で囲まれた領域(書き込み領域と呼ぶ。)を特定する共に、画像表示コンポーネント11のOCR機能を利用して、書き込み領域内に表示されている文字列を取得し、特定した書き込み領域の情報と取得した文字列の情報とを入力画像解析モジュール13に通知する。
When the input /
入力画像解析モジュール13は、入出力管理モジュール12から書き込み領域情報と文字列情報とを受信すると、書き込み領域内の文字列を解析し、解析情報記憶部18に予め記憶されている情報(後述する検索キーワード記憶テーブル)に基づいて、文字列に含まれるキーワードを抽出し、解析情報記憶部18に予め記憶されている情報(後述する解析情報記憶テーブル)から、抽出したキーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する。また、入力画像解析モジュール13は、書き込み領域のサイズを取得し、解析情報記憶部18に予め記憶されている情報(後述する解析情報記憶テーブル)から、取得したサイズに近いサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する。また、入力画像解析モジュール13は、画像変換候補を提示して、ユーザに画像種別を選択させる。そして、特定又は選択された画像種別の画像を生成する画像生成モジュール14に文字列情報を通知する。
When the input
画像生成モジュール14は、入力画像解析モジュール13から受け取った文字列情報に基づいて画像を生成する部分であり、本実施例では、コード情報生成モジュール14aとグラフ生成モジュール14bと地図情報生成モジュール14cとを含む。コード情報生成モジュール14aは、文字列がURLの場合に動作するモジュールであり、公知の技術を利用してURLをコード化し、QRコード(登録商標)やバーコードなどのコード情報を生成し、生成したコード情報を画像表示モジュール15に送信する。グラフ生成モジュール14bは、書き込み領域のサイズが2行以上の文字列を含む大きさの場合に動作するモジュールであり、文字列から数値を取得し、その数値を用いて、円グラフや折れ線グラフ、棒グラフなどを生成し、生成したグラフを画像表示モジュール15に送信する。地図情報生成モジュール14cは、文字列が住所の場合に動作するモジュールであり、予め記憶した地図の中からその住所近傍の地図を抽出して地図情報を生成し、生成した地図情報を画像表示モジュール15に送信する。
The
画像表示モジュール15は、原稿選択画面で選択された原稿を原稿表示画面に表示させたり、ペン選択コントロールで選択されたペンの画像を原稿表示画面に表示させたり、画像生成モジュール14で生成された画像(コード情報又はグラフ又は地図情報)を原稿の画像に重ね合わせて原稿表示画面に表示させたりする。
The
画像保存モジュール16は、保存イベントを検出すると、画像表示コンポーネント11から原稿表示画面に表示された合成画像情報(原稿の画像に、生成された画像を重ね合わせた画像情報)を取得し、その画像情報を記憶部19に保存する。また、通信部17を介してインターネットなどから画像情報をダウンロードした場合は、ダウンロードした画像情報を記憶部19に保存する。
When the storage event is detected, the image storage module 16 acquires composite image information (image information obtained by superimposing the generated image on the original image) displayed on the original display screen from the
通信部17は、NIC(Network Interface Card)やモデムなどであり、LAN(Local Area Network)やWAN(Wide Area Network)などの通信ネットワークを介して、外部装置(例えば、原稿データを保存するサーバ、画像情報を提供するサーバ、表示した画像情報を印刷するプリンタやMFP(Multi Function Peripheral)などの画像形成装置)と接続する。
The
解析情報記憶部18は、メモリやHDD(Hard Disk Drive)であり、図10に示すような検索キーワード記憶テーブルや、図11乃至図13に示すような解析情報記憶テーブルなどを記憶すると共に、入力画像解析モジュール13で解析した結果を履歴情報として上記解析情報記憶テーブルに反映する。
The analysis
記憶部19も、メモリやHDDであり、画像表示コンポーネント11から取得した画像情報や通信部17を介してインターネットなどからダウンロードした画像情報などを記憶する。なお、解析情報記憶部18と記憶部19とは、単一のメモリ乃至はHDDの異なる記憶エリアをそれぞれ使用することにより構成しても良い。
The
なお、図2では、入出力管理モジュール12、入力画像解析モジュール13、画像生成モジュール14、画像表示モジュール15、画像保存モジュール16をハードウェアとして構成しているが、これらは、CPU(Central Processing Unit)とROM(Read Only Memory)やRAM(Random Access Memory)などのメモリとで構成される制御部により実行されるプログラム(表示制御プログラム)として構成してもよい。
In FIG. 2, the input /
次に、上記構成の表示装置10の全体処理について、図3のフローチャート図を参照して概説する。
Next, the overall processing of the
まず、ユーザが表示装置10の原稿選択画面を操作して原稿を選択すると、表示装置10の画像表示モジュール15は、画像表示コンポーネント11(原稿表示画面)に、選択された原稿を表示させる(S101)。
First, when the user operates the document selection screen of the
次に、ユーザが表示装置10のペン選択コントロールを操作してペンを選択し、タッチペン等を用いて表示された原稿の所定の文字列を囲むように所定の図形の書き込みを行うと、画像表示コンポーネント11は、所定の図形の書き込みを検出し、所定の図形が書き込まれたことを知らせる書き込みイベントを入出力管理モジュール12に通知する(S102)。なお、所定の図形の書き込み方法は特に限定されず、手書きで図形を描画してもよいし、始点と終点を指定して矩形を描画してもよい。
Next, when the user operates the pen selection control of the
次に、入出力管理モジュール12は、画像表示コンポーネント11から所定の図形の座標を取得して、所定の図形で囲まれた書き込み領域を特定する共に、書き込み領域内に表示されている文字列を取得し(S103)、特定した書き込み領域情報と取得した文字列情報とを入力画像解析モジュール13に通知する。
Next, the input /
通知を受けた入力画像解析モジュール13は、文字列を解析し、解析した文字列を解析情報記憶部18に記憶された検索キーワード記憶テーブル(図10参照)のキーワードで検索し、文字列に含まれるキーワードを抽出する(S104)。なお、入力画像解析モジュール13は、書き込み領域のサイズの解析も行う場合もあるが、このフローでは理解を容易にするために書き込み領域のサイズの解析については説明しない。
Upon receiving the notification, the input
次に、入力画像解析モジュール13は、抽出したキーワードで解析情報記憶部18に記憶された解析情報記憶テーブル(図11乃至図13参照)を検索し、キーワードに対応する画像種別を特定し(S105)、特定した画像種別及び文字列情報を画像生成モジュール14に通知する。
Next, the input
次に、特定した画像種別に対応する画像生成モジュール14(コード情報生成モジュール14a又はグラフ作成モジュール14b又は地図情報作成モジュール14c)は、文字列情報から、特定した画像種別に対応する画像を生成し(S106)、生成した画像の情報を画像表示モジュール15に通知する。
Next, the image generation module 14 (code information generation module 14a,
次に、画像表示モジュール15は、画像表示コンポーネント11(原稿表示画面)に表示されている原稿の画像に、特定した画像種別に対応する画像を重ね合わせて表示させる(S107)。なお、特定した画像種別に対応する画像を表示する位置は特に限定されないが、画像の元となる文字列の近傍(例えば、文字列の上下左右の余白領域など)に表示することが好ましい。
Next, the
その後、画像保存モジュール16は、画像表示コンポーネント11(原稿表示画面)から、原稿の画像に特定した画像種別に対応する画像を重ね合わせた合成画像の情報を取得し、その合成画像の情報を記憶部19に保存して(S108)、一連の処理を終了する。 Thereafter, the image storage module 16 acquires, from the image display component 11 (original display screen), information on a composite image obtained by superimposing an image corresponding to the specified image type on the original image, and stores the information on the composite image. The data is stored in the unit 19 (S108), and the series of processing ends.
このように、表示された原稿の所定の文字列を囲むように所定の図形の書き込みを行うと、その書き込み領域内の文字列を解析し、その文字列に含まれるキーワードを抽出し、抽出したキーワードに対応する画像種別を特定し、文字列から特定した画像種別に対応する画像を生成して、原稿に重ね合わせて表示するため、ユーザは表示された原稿に関連する有益な情報を得ることができる。 As described above, when a predetermined figure is written so as to surround a predetermined character string of the displayed document, the character string in the writing area is analyzed, and a keyword included in the character string is extracted and extracted. Since the image type corresponding to the keyword is specified, and the image corresponding to the specified image type is generated from the character string and displayed superimposed on the original, the user can obtain useful information related to the displayed original. Can do.
以下、文字列から画像を生成する画像生成処理について、図4及び図5の具体例、図6乃至図9のフローチャート図、図10乃至図13のテーブルを参照して具体的に説明する。なお、図6は、図3のフローチャート図のS104からS106までの処理の詳細を表しており、図7及び図8は、各々、図6の書き込み領域解析処理、文字列解析処理の詳細を表している。 Hereinafter, image generation processing for generating an image from a character string will be specifically described with reference to specific examples of FIGS. 4 and 5, flowcharts of FIGS. 6 to 9, and tables of FIGS. 10 to 13. FIG. 6 shows details of the processing from S104 to S106 in the flowchart of FIG. 3, and FIGS. 7 and 8 show details of the writing area analysis processing and character string analysis processing of FIG. 6, respectively. ing.
[画像生成処理]
図6に示すように、入力画像解析モジュール13は、入出力管理モジュール12から書き込み領域情報と文字列情報を取得すると、書き込み領域内の文字列を解析する(S210)。
[Image generation processing]
As shown in FIG. 6, when the input
次に、1文字の縦横のサイズを取得する(S220)。なお、文字列を構成する各文字のサイズが異なる場合は、最も多くの文字で使用されているサイズや最も小さい文字のサイズ、平均的な文字のサイズなどを取得することができる。 Next, the vertical and horizontal sizes of one character are acquired (S220). In addition, when the size of each character which comprises a character string differs, the size used by the most characters, the size of the smallest character, the size of an average character, etc. are acquirable.
次に、入力画像解析モジュール13は、書き込み領域の縦のサイズと1文字の縦のサイズとを比較する(S230)。なお、書き込み領域を手書きした場合は、書き込み領域の縦のサイズは一定にはならないが、その場合は、間隔が最も狭い部分の寸法や間隔が平均的な部分の寸法を縦のサイズとすることができる。
Next, the input
そして、入力画像解析モジュール13は、書き込み領域の縦のサイズが1文字の縦のサイズの2倍以上(すなわち、文字列が複数行)であるかを判断し(S240)、文字列が複数行(例えば、図4のダウンロード時間を示す文字列)の場合は、書き込み領域解析処理を行って画像種別を特定する(S250)、文字列が1行(例えば、図4の住所を示す文字列やURLを示す文字列)の場合は、文字列解析処理を行って画像種別を特定する(S260)。
Then, the input
[書き込み領域解析処理]
図7は、図6のS250の詳細を示すフローチャート図である。書き込み領域解析処理では、入力画像解析モジュール13は、解析情報記憶テーブルに記載された書き込み領域情報の中から、特定した書き込み領域の縦横のサイズに近いもの(サイズが略等しいもの)を検索する(S251)。この検索は、例えば、SQL(Structured Query Language)のSELECT文で実行することができる。
[Write area analysis processing]
FIG. 7 is a flowchart showing details of S250 in FIG. In the writing area analysis process, the input
なお、初期状態では、解析情報記憶テーブルは図11に示すような構成であり、書き込み領域情報が記録されていないため、書き込み領域の縦横のサイズに近いものを検索することはできないが、本実施例の画像生成処理を繰り返すと、解析情報記憶テーブルには、解析した文字列とその文字列の書き込み領域情報とその文字列から生成した画像の画像種別とが登録されて図12のような構成になるため、書き込み領域の縦横のサイズに近いものを検索することができるようになる。 In the initial state, the analysis information storage table has a configuration as shown in FIG. 11 and no writing area information is recorded. Therefore, it is not possible to search for an area close to the vertical and horizontal sizes of the writing area. When the image generation processing of the example is repeated, the analyzed character string, the writing area information of the character string, and the image type of the image generated from the character string are registered in the analysis information storage table, and the configuration as shown in FIG. As a result, it is possible to search for a size close to the vertical and horizontal sizes of the writing area.
次に、入力画像解析モジュール13は、解析情報記憶テーブルに登録された書き込み領域情報の中に、特定した書き込み領域の縦横サイズに近いものがあるかを判断する(S252)。そして、特定した書き込み領域の縦横サイズに近いものがあれば、同じ種別の画像に変換する可能性が高いことから、必要に応じて、その書き込み領域情報に対応する画像種別(過去に変換した画像種別)を画像変換候補として表示する(S253)。一方、特定した書き込み領域の縦横サイズに近いものがなければ、どの種別の画像に変換すればよいかが判断できないことから、画像種別をユーザに選択させるための複数の画像変換候補を表示する(S254)。なお、特定した書き込み領域の縦横サイズに近い書き込み領域情報が複数あり、それらの書き込み領域情報に対応する画像種別が複数の場合は、複数の画像変換候補を表示してもよく、その場合は、書き込み領域情報の数が多い順に画像種別を表示することができる。
Next, the input
そして、入力画像解析モジュール13は、過去に変換した画像種別、若しくは、画像変換候補の中からユーザが選択した画像種別を、文字列を変換する画像種別として特定し(S255)、その画像種別に応じた画像生成モジュール14に文字列情報を通知する。
Then, the input
[文字列解析処理]
図8は、図6のS260の詳細を示すフローチャート図である。文字列解析処理では、入力画像解析モジュール13は、解析した文字列を検索キーワード記憶テーブルのキーワードで検索する(S261)。この検索もSQLのSELECT文で実行することができる。例えば、図9(a)に示すような書き込みを行った場合、図9(b)に示すように、書き込み領域内の文字列が「神奈川県厚木市上落合231−1」と認識され、図9(c)、(d)に示すように、順次、検索キーワード記憶テーブルからキーワードが検索される。具体的には、図10に示すような検索キーワード記憶テーブルが登録されている場合は、キーワード3の「神奈川」とキーワード4の「県」とキーワード6の「市」とが検索される。
[String analysis processing]
FIG. 8 is a flowchart showing details of S260 of FIG. In the character string analysis process, the input
次に、入力画像解析モジュール13は、文字列内にキーワードが見つかったかを判断し(S262)、キーワードが見つかった場合は、該当したキーワードで解析情報記憶テーブルを検索する(S263)。この検索もSQLのSELECT文で実行することができる。例えば、解析情報記憶テーブルが図12の構成の場合は、ID=2、4、6、8、9、10の6つが検索される。
Next, the input
次に、入力画像解析モジュール13は、検索結果の件数が多いかを判断し(S264)、検索結果が多い場合は、同じ種別の画像に変換する可能性が高いことから、必要に応じて、過去に変換した画像種別を画像変換候補として表示する(S265)。例えば、上記例では、図9(e)に示すように、解析情報記憶テーブルの全13件中の6件が該当しているため、図9(f)で、過去に変換した画像種別(地図)を候補として表示する。一方、検索結果が少ない場合は、どの種別の画像に変換すればよいかの判断が難しいことから、画像種別をユーザに選択させるための画像種別候補を表示する(S266)。例えば、図5(a)に示すように、URLを囲むように書き込みを行った場合、図5(b)に示すような複数の画像変換候補を表示する。なお、検索結果が多い場合であって、検索結果に対応する画像種別が複数の場合は、複数の画像変換候補を表示してもよい。また、複数の画像変換候補を表示する場合は、検索結果の数が多い順に画像種別を表示することができる。
Next, the input
そして、入力画像解析モジュール13は、過去に変換した画像種別、若しくは、画像変換候補の中からユーザが選択した画像種別を、文字列を変換する画像種別として特定し(S267)、その画像種別に対応する画像生成モジュール14に文字列情報を通知する。例えば、図9(f)で、過去に変換した画像種別として地図を表示した場合は、入力画像解析モジュール13は、地図情報作成モジュール14cに文字列情報を通知する。また、図5(b)に示すような画像変換候補の中から、ユーザが「QRコード生成」を選択した場合は、入力画像解析モジュール13は、コード情報生成モジュール14aに文字列情報を通知する。
Then, the input
図6のフローチャート図に戻って、特定された画像種別に応じた画像生成モジュール14(コード情報生成モジュール14a又はグラフ作成モジュール14b又は地図情報作成モジュール14c)は、通知された文字列情報から特定した画像種別に応じた画像を生成する(S270)。例えば、図5(b)の画像変換候補でユーザが「QRコード生成」を選択した場合は、コード情報生成モジュール14aは、図5(c)に示すようなQRコードを生成する。
Returning to the flowchart of FIG. 6, the image generation module 14 (code information generation module 14a,
なお、解析情報記憶テーブルは図12に示すように装置毎に設けてもよいが、図13に示すようにユーザ毎に設けることもでき、ユーザ毎の解析情報記憶テーブルを使用することにより、そのユーザが所望する画像を確実に生成することができる。 The analysis information storage table may be provided for each device as shown in FIG. 12, but may be provided for each user as shown in FIG. 13, and by using the analysis information storage table for each user, It is possible to reliably generate an image desired by the user.
また、本発明は上記実施例に限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて、その構成や制御は適宜変更可能である。例えば、上記実施例では、画像種別として地図とグラフとコード情報を例示したが、文字列から変換可能な画像であればよい。 The present invention is not limited to the above-described embodiments, and the configuration and control thereof can be changed as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, the map, the graph, and the code information are exemplified as the image type, but any image that can be converted from a character string may be used.
本発明は、タッチペン等で入力が可能なタッチパネルを備える表示装置及び当該表示装置で動作する表示制御プログラムに利用可能である。 The present invention is applicable to a display device including a touch panel that can be input with a touch pen or the like, and a display control program that operates on the display device.
10 表示装置
11 画像表示コンポーネント
12 入出力管理モジュール
13 入力画像解析モジュール
14 画像生成モジュール
14a コード情報生成モジュール
14b グラフ生成モジュール
14c 地図情報生成モジュール
15 画像表示モジュール
16 画像保存モジュール
17 通信部
18 解析情報記憶部
19 記憶部
DESCRIPTION OF
Claims (8)
前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部と、
取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部と、
取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部と、
前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部と、を備えることを特徴とする表示装置。 A display device having a screen for displaying an image of a document, and having a function of recognizing characters in the document displayed on the screen and a function of recognizing a graphic written on the screen with a touch pen ,
When a graphic is written on the screen on which the image of the document is displayed, an input / output management unit that identifies a writing area defined by the graphic and acquires a character string displayed in the writing area;
Analyzing the acquired character string, specifying an image type of an image to be generated based on the character string, or an input image analysis unit that displays candidates for allowing the user to select the image type;
An image generation unit that generates an image of the specified image type based on the acquired character string;
An image display unit, comprising: an image display unit that displays the generated image superimposed on the image of the document displayed on the screen.
前記入力画像解析部は、取得した前記文字列から予め定めたキーワードを抽出し、前記テーブルから、抽出した前記キーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項1に記載の表示装置。 A table that associates a previously acquired character string with an image type of an image generated based on the character string is stored in advance,
The input image analysis unit extracts a predetermined keyword from the acquired character string, searches a character string including the extracted keyword from the table, and generates an image type corresponding to the searched character string The display device according to claim 1, wherein the display device is specified as an image type of an image.
前記入力画像解析部は、書き込まれた前記図形で規定される書き込み領域のサイズを取得し、前記テーブルから、取得したサイズと略等しいサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項1に記載の表示装置。 A table is previously stored that associates the previously acquired character string with the size of the writing area defined by the previously written graphic and the image type of the image generated based on the character string,
The input image analysis unit acquires the size of a writing area defined by the written graphic, searches the table for a writing area having a size substantially equal to the acquired size, and corresponds to the searched writing area The display device according to claim 1, wherein the type is specified as an image type of an image to be generated.
前記表示装置を、
前記原稿の画像が表示されている前記画面に図形が書き込まれたら、当該図形で規定される書き込み領域を特定し、前記書き込み領域内に表示されている文字列を取得する入出力管理部、
取得した前記文字列を解析し、当該文字列に基づいて生成する画像の画像種別を特定、若しくは、前記画像種別をユーザに選択させるための候補を表示する入力画像解析部、
取得した前記文字列に基づいて、特定又は選択された前記画像種別の画像を生成する画像生成部、
前記画面に表示されている前記原稿の画像に、生成した前記画像を重ねて表示する画像表示部、として機能させることを特徴とする表示制御プログラム。 Operates on a display device having a screen for displaying an image of a document and having a function of recognizing characters in the document displayed on the screen and a function of recognizing a graphic written on the screen with a touch pen A display control program,
The display device;
When a figure is written on the screen on which the image of the document is displayed, an input / output management unit that identifies a writing area defined by the figure and acquires a character string displayed in the writing area;
Analyzing the acquired character string, specifying an image type of an image to be generated based on the character string, or an input image analysis unit for displaying a candidate for allowing the user to select the image type,
An image generation unit that generates an image of the specified image type based on the acquired character string,
A display control program that functions as an image display unit that displays the generated image superimposed on the image of the document displayed on the screen.
前記入力画像解析部は、取得した前記文字列から予め定めたキーワードを抽出し、前記テーブルから、抽出した前記キーワードを含む文字列を検索し、検索した文字列に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項5に記載の表示制御プログラム。 A table that associates a previously acquired character string with an image type of an image generated based on the character string is stored in advance,
The input image analysis unit extracts a predetermined keyword from the acquired character string, searches a character string including the extracted keyword from the table, and generates an image type corresponding to the searched character string The display control program according to claim 5, wherein the display control program is specified as an image type of an image.
前記入力画像解析部は、書き込まれた前記図形で規定される書き込み領域のサイズを取得し、前記テーブルから、取得したサイズと略等しいサイズの書き込み領域を検索し、検索した書き込み領域に対応する画像種別を、生成する画像の画像種別として特定する、ことを特徴とする請求項5に記載の表示制御プログラム。 A table is previously stored that associates the previously acquired character string with the size of the writing area defined by the previously written graphic and the image type of the image generated based on the character string,
The input image analysis unit acquires the size of a writing area defined by the written graphic, searches the table for a writing area having a size substantially equal to the acquired size, and corresponds to the searched writing area The display control program according to claim 5, wherein the type is specified as an image type of an image to be generated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011088468A JP5811435B2 (en) | 2011-04-12 | 2011-04-12 | Display device and display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011088468A JP5811435B2 (en) | 2011-04-12 | 2011-04-12 | Display device and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012221367A true JP2012221367A (en) | 2012-11-12 |
JP5811435B2 JP5811435B2 (en) | 2015-11-11 |
Family
ID=47272762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011088468A Expired - Fee Related JP5811435B2 (en) | 2011-04-12 | 2011-04-12 | Display device and display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5811435B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014130408A (en) * | 2012-12-28 | 2014-07-10 | Fujitsu Ltd | Graph preparation program, information processing device, and graph preparation method |
US9632691B2 (en) | 2013-07-29 | 2017-04-25 | Fujitsu Limited | Non-transitory computer-readable medium storing selected character specification program, selected character specification method, and selected character specification device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149881A (en) * | 1992-11-09 | 1994-05-31 | Ricoh Co Ltd | Dictionary consultant device, document processor, and digital copying machine |
JPH0778148A (en) * | 1993-09-08 | 1995-03-20 | Canon Inc | Information processor and method therefor |
JP2002236684A (en) * | 2001-02-07 | 2002-08-23 | Fujitsu Ten Ltd | Information processing method |
JP2006065754A (en) * | 2004-08-30 | 2006-03-09 | Toshiba Corp | Information processor, information processing method, and program |
JP2009104396A (en) * | 2007-10-23 | 2009-05-14 | Sharp Corp | Content selection apparatus, television, content selection program and storage medium |
JP2010541097A (en) * | 2007-10-01 | 2010-12-24 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Arrangement of graphics objects on the page by control based on relative position |
-
2011
- 2011-04-12 JP JP2011088468A patent/JP5811435B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149881A (en) * | 1992-11-09 | 1994-05-31 | Ricoh Co Ltd | Dictionary consultant device, document processor, and digital copying machine |
JPH0778148A (en) * | 1993-09-08 | 1995-03-20 | Canon Inc | Information processor and method therefor |
JP2002236684A (en) * | 2001-02-07 | 2002-08-23 | Fujitsu Ten Ltd | Information processing method |
JP2006065754A (en) * | 2004-08-30 | 2006-03-09 | Toshiba Corp | Information processor, information processing method, and program |
JP2010541097A (en) * | 2007-10-01 | 2010-12-24 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Arrangement of graphics objects on the page by control based on relative position |
JP2009104396A (en) * | 2007-10-23 | 2009-05-14 | Sharp Corp | Content selection apparatus, television, content selection program and storage medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014130408A (en) * | 2012-12-28 | 2014-07-10 | Fujitsu Ltd | Graph preparation program, information processing device, and graph preparation method |
US9632691B2 (en) | 2013-07-29 | 2017-04-25 | Fujitsu Limited | Non-transitory computer-readable medium storing selected character specification program, selected character specification method, and selected character specification device |
Also Published As
Publication number | Publication date |
---|---|
JP5811435B2 (en) | 2015-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102489578B1 (en) | Formula inputting method, apparatus and electronic device | |
US9449031B2 (en) | Sorting and filtering a table with image data and symbolic data in a single cell | |
RU2662632C2 (en) | Presenting fixed format documents in reflowed format | |
US20130238968A1 (en) | Automatic Creation of a Table and Query Tools | |
US9558170B2 (en) | Creating and switching a view of a collection including image data and symbolic data | |
CN101639760A (en) | Input method and input system of contact information | |
US20110316796A1 (en) | Information Search Apparatus and Information Search Method | |
WO2016018683A1 (en) | Image based search to identify objects in documents | |
US10552535B1 (en) | System for detecting and correcting broken words | |
JP2015135596A (en) | Information processing apparatus and information processing program | |
JP6237135B2 (en) | Information processing apparatus and information processing program | |
JP5811435B2 (en) | Display device and display control program | |
CN107534710B (en) | Electronic equipment and label processing method | |
WO2016018682A1 (en) | Processing image to identify object for insertion into document | |
JP5881937B2 (en) | Information processing apparatus, information processing method, and program | |
JP2016085547A (en) | Electronic apparatus and method | |
US20150199450A1 (en) | Systems and Methods for Associating User Sketches with Resources | |
US20200279172A1 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
JP6481901B2 (en) | Product information management apparatus, product information management method, and program | |
JP2020115260A (en) | Information processing device and information processing program | |
CN111367478A (en) | Data interaction printing system for laboratory instrument and printing method thereof | |
JP6657799B2 (en) | Graphic processing apparatus, graphic processing method, and graphic processing program | |
JP6459470B2 (en) | Document management program, method, and document management apparatus | |
US9721155B2 (en) | Detecting document type of document | |
JP2006031129A (en) | Document processing method and document processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20130417 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150512 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5811435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |