JP2012064051A - Help display device, help display method and help display program - Google Patents

Help display device, help display method and help display program Download PDF

Info

Publication number
JP2012064051A
JP2012064051A JP2010208559A JP2010208559A JP2012064051A JP 2012064051 A JP2012064051 A JP 2012064051A JP 2010208559 A JP2010208559 A JP 2010208559A JP 2010208559 A JP2010208559 A JP 2010208559A JP 2012064051 A JP2012064051 A JP 2012064051A
Authority
JP
Japan
Prior art keywords
screen
help
character recognition
item
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010208559A
Other languages
Japanese (ja)
Inventor
Yukiyo Yoshitaki
幸世 吉瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Priority to JP2010208559A priority Critical patent/JP2012064051A/en
Publication of JP2012064051A publication Critical patent/JP2012064051A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a help display device capable of presenting a position to be operated on an application screen corresponding to a content displayed on a help screen to a user, without preliminarily storing positional relation between operational object displayed on the help screen and operational object on the application screen in a memory unit.SOLUTION: A display part of the help display device displays the application screen and the help screen related to the application screen. A character recognition processing part performs character recognition processing for a screen image of the display part. A position search part compares an item on the help screen with the processing result of the character recognition processing and searches at which position on the application screen the item on the help screen exists. A highlighting part highlights an item on the application screen corresponding to the item on the help screen based on the search result of the position search part.

Description

本発明の実施形態は、ヘルプ表示装置、ヘルプ表示方法及びヘルプ表示プログラムに関
する。
Embodiments described herein relate generally to a help display device, a help display method, and a help display program.

従来、各種アプリケーションにおけるヘルプ画面にはアプリケーションに関する操作方
法の手順などが記載されている。このヘルプ画面を参照してアプリケーションの操作を行
うためにはアプリケーション上のどこに操作対象(以下コントロールという)があるのか
を探さなくてはならない。
Conventionally, a help screen for various applications describes a procedure of an operation method related to the application. In order to operate the application by referring to the help screen, it is necessary to find out where the operation target (hereinafter referred to as control) exists on the application.

これに対し、予めすべての誘導内容を格納したデータベースを用いて、アプリケーショ
ン上のコントロールへの誘導を行う技術がある。また、ヘルプ画面上にキーボードのイメ
ージを表示しコントロールの位置をヘルプ画面上で提示する技術もある。
On the other hand, there is a technique for performing guidance to control on an application using a database in which all guidance contents are stored in advance. There is also a technique for displaying a keyboard image on the help screen and presenting the position of the control on the help screen.

特開2002−73232号公報JP 2002-73232 A

ヘルプ画面上に表示されているコントロールが、実際のアプリケーション画面上でどの
位置に存在するかをあらかじめ記憶装置に保存しておくことなく、ヘルプ画面に表示され
た内容に対応するアプリケーション画面上の操作対象の位置をユーザに提示することを可
能とするヘルプ表示装置、ヘルプ表示方法及びヘルプ表示プログラムを提供することであ
る。
Operations on the application screen corresponding to the contents displayed on the help screen without saving in advance to the storage device the position of the control displayed on the help screen on the actual application screen To provide a help display device, a help display method, and a help display program capable of presenting a target position to a user.

実施形態のヘルプ表示装置は、アプリケーション画面と、前記アプリケーション画面に
関するヘルプ画面とを表示する表示部と、前記表示部の画面イメージを文字認識処理する
文字認識処理部と、前記ヘルプ画面上の項目と前記文字認識処理の処理結果とを照合して
、前記ヘルプ画面上の項目が前記アプリケーション画面上のどの位置に存在するかを検索
する位置検索部と、前記位置検索部による検索結果をもとに前記ヘルプ画面上の項目に対
応する前記アプリケーション画面上の項目を強調表示する強調表示部と、を備える。
The help display device of the embodiment includes a display unit that displays an application screen, a help screen related to the application screen, a character recognition processing unit that performs character recognition processing on a screen image of the display unit, and items on the help screen. Based on the result of the search by the position search unit that searches the position on the application screen where the item on the help screen exists by collating with the processing result of the character recognition process A highlighting unit that highlights an item on the application screen corresponding to an item on the help screen.

本実施形態に係るヘルプ表示システムの全体構成の一例を示すブロック図。The block diagram which shows an example of the whole structure of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの処理の一例を示すフローチャート。The flowchart which shows an example of the process of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの検索対象一覧格納用データテーブルの一例を示す図。The figure which shows an example of the search target list storage data table of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムにおいて作成される画面イメージの一例を示す図。The figure which shows an example of the screen image produced in the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの文字認識処理結果格納用データテーブルの一例を示す図。The figure which shows an example of the data table for character recognition process result storage of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの画面イメージにおける文字認識処理から除外される領域の一例を示す図。The figure which shows an example of the area | region excluded from the character recognition process in the screen image of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの操作対象位置検索部が抽出する項目名と左上座標と右下座標の一例を示す図。The figure which shows an example of the item name, the upper left coordinate, and the lower right coordinate which the operation target position search part of the help display system which concerns on this embodiment extracts. 本実施形態に係るヘルプ表示システムの表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the help display system which concerns on this embodiment. 本実施形態に係るヘルプ表示システムの表示部に表示される画面の一例を示す図。The figure which shows an example of the screen displayed on the display part of the help display system which concerns on this embodiment.

(第1の実施形態)
第1の実施形態のヘルプ表示システムについて図面を参照して説明する。以下、ヘルプ
とはオンラインヘルプのことであり、OSやソフトウェアの操作方法などの参考情報につ
いてコンピュータ上で閲覧可能な形式のヘルプ文書のことを指す。なお、ヘルプ画面とは
上述したヘルプ文書を表示する画面である。
(First embodiment)
A help display system according to a first embodiment will be described with reference to the drawings. Hereinafter, “help” refers to online help, and refers to a help document in a format that can be browsed on a computer for reference information such as an operating method of the OS and software. The help screen is a screen for displaying the above-described help document.

図1は、本実施形態のヘルプ表示システム100の全体構成の一例を示すブロック図で
ある。
FIG. 1 is a block diagram showing an example of the overall configuration of the help display system 100 of the present embodiment.

図1に示すように、本実施形態のヘルプ表示システム100は、入力部10と計算機2
0と表示部30とを備えており、計算機20に入力部10と表示部30が接続されている
As shown in FIG. 1, the help display system 100 of this embodiment includes an input unit 10 and a computer 2.
0 and a display unit 30, and an input unit 10 and a display unit 30 are connected to the computer 20.

ユーザは入力部10を用いて表示部30に表示されるヘルプ画面上の文字列を選択する
。選択された文字列情報は入力部10から計算機20に送信される。入力部10は例えば
マウスやキーボードである。本実施形態では入力部10はマウスであるとする。
The user selects a character string on the help screen displayed on the display unit 30 using the input unit 10. The selected character string information is transmitted from the input unit 10 to the computer 20. The input unit 10 is, for example, a mouse or a keyboard. In the present embodiment, it is assumed that the input unit 10 is a mouse.

表示部30は例えば液晶ディスプレイであり、ユーザによって利用される任意のアプリ
ケーションに関するユーザインターフェースの一種であるアプリケーション画面とこのア
プリケーションに対するヘルプ画面とを表示する。
The display unit 30 is, for example, a liquid crystal display, and displays an application screen that is a kind of user interface related to an arbitrary application used by the user and a help screen for the application.

アプリケーション画面にはコントロールが表示されており、ユーザはこれらのコントロ
ールを操作することで、目的の操作を実現する。すなわち、コントロールとはボタン、ア
イコン、リンク、タブ、チェックボックス、コンボボックスなど、ディスプレイ上に表示
されており、ユーザがコンピュータを用いて目的の操作を実現するために操作する対象の
ことを指す。
Controls are displayed on the application screen, and the user realizes a desired operation by operating these controls. That is, the control refers to an object that is displayed on a display, such as a button, an icon, a link, a tab, a check box, or a combo box, and is operated by a user to realize a desired operation using a computer.

計算機20は、選択範囲解析部21と、画面イメージ作成部22と、文字認識処理部2
3と、操作対象位置検索部24と、画面ハイライト部25と、検索対象一覧格納部26と
、文字認識処理結果格納部27とを備える。
The computer 20 includes a selection range analysis unit 21, a screen image creation unit 22, and a character recognition processing unit 2.
3, an operation target position search unit 24, a screen highlight unit 25, a search target list storage unit 26, and a character recognition process result storage unit 27.

選択範囲解析部21は入力部10と検索対象一覧格納部26とに接続される。選択範囲
解析部21は入力部10により入力された文字列を解析して、名詞を抽出する。また、選
択範囲解析部21は検索対象一覧格納部26に検索対象一覧テーブル260を作成して解
析結果の名詞を検索対象一覧テーブル260に格納する。
The selection range analysis unit 21 is connected to the input unit 10 and the search target list storage unit 26. The selection range analysis unit 21 analyzes the character string input by the input unit 10 and extracts nouns. The selection range analysis unit 21 creates a search target list table 260 in the search target list storage unit 26 and stores the nouns of the analysis results in the search target list table 260.

画面イメージ作成部22は、表示部30と選択範囲解析部21と文字認識処理部23と
に接続されており、表示部30に表示されている画面の画面イメージを作成して文字認識
処理部23に送信する。
The screen image creation unit 22 is connected to the display unit 30, the selection range analysis unit 21, and the character recognition processing unit 23. The screen image creation unit 22 creates a screen image of the screen displayed on the display unit 30 and creates the character recognition processing unit 23. Send to.

文字認識処理部23は、画面イメージ作成部22と文字認識処理結果格納部27とに接
続される。文字認識処理部23は、画面イメージ作成部22が作成した画面イメージに対
して文字認識処理を行い、名詞を抽出する。また、文字認識処理部23は、文字認識処理
結果格納部27に文字認識処理結果格納テーブル270を作成して文字認識処理結果格納
テーブル270に抽出結果を格納する。
The character recognition processing unit 23 is connected to the screen image creation unit 22 and the character recognition processing result storage unit 27. The character recognition processing unit 23 performs character recognition processing on the screen image created by the screen image creation unit 22 and extracts nouns. In addition, the character recognition processing unit 23 creates a character recognition process result storage table 270 in the character recognition process result storage unit 27 and stores the extraction result in the character recognition process result storage table 270.

操作対象位置検索部24は、検索対象一覧格納部26と文字認識処理結果格納部27と
に接続される。操作対象位置検索部24は、検索対象一覧格納部26に格納されたデータ
と文字認識処理結果格納部27に格納されたデータに基づき、入力部により選択されたヘ
ルプ画面32上の文字列に含まれる、アプリケーション画面31上のコントロールを表す
コントロール名がアプリケーション画面31のどの位置にあるかを検索する。
The operation target position search unit 24 is connected to a search target list storage unit 26 and a character recognition processing result storage unit 27. The operation target position search unit 24 is included in the character string on the help screen 32 selected by the input unit based on the data stored in the search target list storage unit 26 and the data stored in the character recognition processing result storage unit 27. The position of the control name representing the control on the application screen 31 is searched in the application screen 31.

画面ハイライト部25は操作対象位置検索部24と表示部30とに接続されており、操
作対象位置検索部24によって検索されたコントロール名の位置情報に基づいて表示部3
0の特定の領域を例えばハイライト表示によって強調表示する。
The screen highlight unit 25 is connected to the operation target position search unit 24 and the display unit 30, and the display unit 3 is based on the position information of the control name searched by the operation target position search unit 24.
A specific area of 0 is highlighted by highlighting, for example.

本実施形態のヘルプ表示システム100の処理について、図2乃至図11を用いて説明
する。
Processing of the help display system 100 according to the present embodiment will be described with reference to FIGS.

図2は本実施形態のヘルプ表示システム100の処理の一例を示すフローチャートであ
る。
FIG. 2 is a flowchart showing an example of processing of the help display system 100 of the present embodiment.

本実施形態のヘルプ表示システム100の処理は、あらかじめ表示部30に任意のアプ
リケーション画面31とこのアプリケーションに対応するヘルプ画面32とが表示されて
いる状態から開始する。任意のアプリケーション画面31と、このアプリケーションに対
応するヘルプ画面32とが表示された表示部30の一例を図3に示す。本実施形態のアプ
リケーション画面31は窓口業務用アプリケーションソフトを操作するためのユーザイン
ターフェースとして機能する画面であり、ヘルプ画面32は窓口業務用アプリケーション
に関するヘルプ文書を表示する画面である。
The processing of the help display system 100 of this embodiment starts from a state in which an arbitrary application screen 31 and a help screen 32 corresponding to this application are displayed on the display unit 30 in advance. An example of the display unit 30 on which an arbitrary application screen 31 and a help screen 32 corresponding to this application are displayed is shown in FIG. The application screen 31 of this embodiment is a screen that functions as a user interface for operating the window business application software, and the help screen 32 is a screen that displays a help document related to the window business application.

ユーザによって入力部10であるマウスが操作され、図3に示す表示部30に表示され
たヘルプ画面32上の文字列が選択される。文字列を選択した状態でマウスを右クリック
すると、ショートカットメニューが表示される。このショートカットメニューの「位置検
索」がユーザの入力部10の操作により押下されることによって、選択された範囲の文字
列が入力される(ステップS1)。この際の表示部30の一例を図4に示す。選択された
文字列は図4の右上がり斜線の領域に含まれる文字列である。
The user operates the mouse as the input unit 10 to select a character string on the help screen 32 displayed on the display unit 30 shown in FIG. Right-clicking the mouse with the character string selected displays a shortcut menu. By pressing “position search” in the shortcut menu by the user's operation of the input unit 10, a character string in the selected range is input (step S1). An example of the display unit 30 at this time is shown in FIG. The selected character string is a character string included in the area of the upper right diagonal line in FIG.

なお、文字列の入力は、ヘルプ画面32上に検索ボタンを配置し、文字列を選択した状
態でこの検索ボタンが入力部10によってクリックされると選択された文字列が入力され
るようにすることも可能である。また、ヘルプ画面32の文字列が選択されると自動的に
入力されるようにすることも可能である。すなわち、ヘルプ画面32に表示された文字列
が選択されたことを本実施形態のヘルプ表示装置100が認識すると入力される。
In order to input a character string, a search button is arranged on the help screen 32. When the search button is clicked by the input unit 10 in a state where the character string is selected, the selected character string is input. It is also possible. It is also possible to automatically input a character string on the help screen 32 when it is selected. That is, it is input when the help display device 100 of this embodiment recognizes that the character string displayed on the help screen 32 has been selected.

選択範囲解析部21は、ステップS1で入力部10から入力された文字列を解析して文
字列に含まれる名詞を抽出する(ステップS2)。なお、抽出されたヘルプ画面32上の
名詞は後述する操作対象位置検索処理に用いられる。
The selection range analysis unit 21 analyzes the character string input from the input unit 10 in step S1 and extracts nouns included in the character string (step S2). The extracted nouns on the help screen 32 are used for operation target position search processing described later.

選択範囲解析部21は検索対象一覧格納部26に検索対象一覧テーブル260を作成し
、作成した検索対象一覧テーブル260の検索項目名欄261に抽出した名詞を格納する
。図5に検索対象一覧格納部26の検索対象一覧テーブル260の一例を示す。
The selection range analysis unit 21 creates a search target list table 260 in the search target list storage unit 26 and stores the extracted nouns in the search item name column 261 of the created search target list table 260. FIG. 5 shows an example of the search target list table 260 in the search target list storage unit 26.

ステップS2で文字列が解析され、検索項目名欄261が格納されると、選択範囲解析
部21は画面イメージ作成部22に画面イメージ作成要求を送信する。画面イメージ作成
要求を受信した画面イメージ作成部22は表示部30に表示されている画面の画面イメー
ジ300を作成する(ステップS3)。ステップS3で作成される画面イメージ300の
一例を図6に示す。
When the character string is analyzed in step S 2 and the search item name field 261 is stored, the selection range analysis unit 21 transmits a screen image creation request to the screen image creation unit 22. The screen image creation unit 22 that has received the screen image creation request creates a screen image 300 of the screen displayed on the display unit 30 (step S3). An example of the screen image 300 created in step S3 is shown in FIG.

続いて、文字認識処理部23は画面イメージ作成部22によって作成された画面イメー
ジ300に文字認識処理を行う(ステップS4)。具体的には、文字認識処理部23は作
成された画面イメージ300に文字認識処理を行い、処理結果から名詞を抽出する。
Subsequently, the character recognition processing unit 23 performs character recognition processing on the screen image 300 created by the screen image creation unit 22 (step S4). Specifically, the character recognition processing unit 23 performs character recognition processing on the created screen image 300 and extracts a noun from the processing result.

そして文字認識処理部23は名詞を抽出すると文字認識処理結果格納部27に文字認識
処理結果格納テーブル270を作成し、作成した文字認識処理結果格納テーブル270の
項目名欄271に文字認識処理の処理結果である名詞と、この名詞の画面イメージ300
における位置情報とをあわせて格納する。本実施形態の文字認識処理結果項目の画面イメ
ージ300における位置情報は左上座標と右下座標で表される矩形の領域である。
When the character recognition processing unit 23 extracts a noun, the character recognition processing result storage table 270 is created in the character recognition processing result storage unit 27, and character recognition processing is performed in the item name field 271 of the created character recognition processing result storage table 270. Result noun and screen image 300 of this noun
Together with the position information at. The position information in the screen image 300 of the character recognition processing result item of this embodiment is a rectangular area represented by upper left coordinates and lower right coordinates.

図7に文字認識処理結果格納テーブル270の一例を示す。図7に示すように、処理結
果格納テーブル270は、文字認識処理によって抽出された名詞を格納する欄である項目
名271と、文字認識処理結果項目の画面イメージ300における位置情報を格納する欄
である左上座標272と右下座標273を有する。
FIG. 7 shows an example of the character recognition processing result storage table 270. As shown in FIG. 7, the processing result storage table 270 is a column for storing item names 271 which are columns for storing nouns extracted by character recognition processing, and position information in the screen image 300 of character recognition processing result items. There are certain upper left coordinates 272 and lower right coordinates 273.

文字認識処理部23は文字認識処理によって抽出された抽出結果を文字認識処理結果格
納テーブル270に格納後、操作対象位置検索部24に操作対象位置検索要求を送信する
The character recognition processing unit 23 stores the extraction result extracted by the character recognition processing in the character recognition processing result storage table 270 and then transmits an operation target position search request to the operation target position search unit 24.

なお、文字認識処理の対象の画面イメージにおいて背景色が白であるエリアに存在する
文字列は、一般的にユーザが編集を行えるテキストエリアやコンテンツ部分である可能性
が高い。したがって、ステップS4で行う文字認識処理の対象から除外してもよい。これ
により、コントロールではない部分の誤抽出防止と処理速度向上を可能とする。
Note that a character string existing in an area whose background color is white in a screen image to be subjected to character recognition processing generally has a high possibility of being a text area or a content portion that can be edited by the user. Therefore, you may exclude from the object of the character recognition process performed by step S4. This makes it possible to prevent erroneous extraction of non-control parts and improve processing speed.

ここで、図6に示した画面イメージ300に文字認識処理する際に背景色が白であるエ
リアを除外する際の方法について説明する。
Here, a method for excluding an area whose background color is white when performing character recognition processing on the screen image 300 shown in FIG. 6 will be described.

文字認識処理部23が文字認識処理を行い画面イメージ300における文字を検索する
際に、検索された文字の背景色が白であった場合、文字認識処理部23は検索した文字に
隣接した領域から背景色が白の領域をすべて検索し、検索した領域を文字認識処理の対象
から除外する。例えば、画面イメージ300から「窓」という背景色が白の文字を検索す
ると、「窓」に隣接した背景色が白の領域を検索し、文字認識処理の対象から除外する。
なお、除外の実施可否や除外する背景色は、ヘルプ表示システム100に対してユーザに
より予め設定できるものとする。図8は画面イメージ300において文字認識処理から除
外される領域を斜線で示した図である。
When the character recognition processing unit 23 performs character recognition processing and searches for a character in the screen image 300, if the background color of the searched character is white, the character recognition processing unit 23 starts from an area adjacent to the searched character. All areas with a white background color are searched, and the searched areas are excluded from character recognition processing targets. For example, when a character with a white background color of “window” is searched from the screen image 300, an area with a white background color adjacent to “window” is searched and excluded from the target of character recognition processing.
It should be noted that whether or not exclusion can be performed and the background color to be excluded can be set in advance for the help display system 100 by the user. FIG. 8 is a diagram showing areas excluded from the character recognition process in the screen image 300 by hatching.

操作対象位置検索要求を受信した操作対象位置検索部24は、検索対象一覧格納部26
と文字認識処理結果格納部27とを検索して操作対象位置検索処理を行う(ステップS5
)。
The operation target position search unit 24 that has received the operation target position search request receives the search target list storage unit 26.
And the character recognition processing result storage unit 27 are searched for operation target position search processing (step S5).
).

すなわち、操作対象位置検索部24はステップS2で作成されて検索対象一覧格納部2
6に格納された検索項目名261と文字認識処理結果格納部27に格納された項目名27
1を照合し、一致する項目名271が存在しているか否かの判定を検索対象一覧格納部2
6に格納された検索項目名261すべてに対して順次行う。ステップ05における検索の
結果、文字認識処理結果格納テーブル270の項目名271中にこれらの検索項目名26
1と一致する項目名が存在しない場合(ステップS6がNo)、処理を終了する。
That is, the operation target position search unit 24 is created in step S2, and the search target list storage unit 2
6 and the item name 27 stored in the character recognition processing result storage unit 27.
1, and the search target list storage unit 2 determines whether there is a matching item name 271.
The search item names 261 stored in 6 are sequentially performed. As a result of the search in step 05, these search item names 26 are included in the item names 271 of the character recognition processing result storage table 270.
If there is no item name that matches 1 (No in step S6), the process ends.

検索項目名261と一致する項目名271が存在する場合(ステップS6がYes)、
操作対象位置検索部24はこの項目名271が、ユーザが位置を確認したいコントロール
の名称(以下コントロール名という)であると認識し、文字認識処理結果格納部27を参
照して対象の項目名271の左上座標272と右下座標273とを抽出し、項目名271
と左上座標272と右下座標273とを画面ハイライト部25に送信する(ステップS7
)。
すなわち、本実施形態ではヘルプ画面上のコントロール名の、「名詞である」という特
徴を利用してコントロールを認識している。そのほかに、例えばヘルプ画面上でコントロ
ールを表現する場合のコントロール名の記載方法などを利用してコントロール名を抽出す
ることも可能である。なお、コントロール名の記載方法としては、[]もしくは「」で区切
る方法や、「XXボタンをクリックします」というようにコントロール名の後ろにボタン
と記載する方法などがある。
なお、一致するコントロールが複数存在する場合には、一致する全てのコントロールに
対する左上座標272と右下座標273の取得を行う。本実施形態において抽出される項
目名271と、この項目名271に対応した左上座標272と右下座標273の一例を図
9に示す。図9に示すように本実施形態では一致する項目名は「貯金オンライン」と「顧
客管理」であり、各項目名に対応した左上座標と右下座標とが対応して抽出されている。
When there is an item name 271 that matches the search item name 261 (step S6 is Yes),
The operation target position search unit 24 recognizes that the item name 271 is the name of the control for which the user wants to confirm the position (hereinafter referred to as the control name), and refers to the character recognition processing result storage unit 27 for the target item name 271. The upper left coordinate 272 and the lower right coordinate 273 are extracted, and the item name 271 is extracted.
And the upper left coordinates 272 and the lower right coordinates 273 are transmitted to the screen highlight unit 25 (step S7).
).
In other words, in the present embodiment, the control is recognized by using the feature “noun” of the control name on the help screen. In addition, it is also possible to extract the control name using, for example, a control name description method when the control is expressed on the help screen. In addition, as a description method of the control name, there are a method of delimiting with [] or “”, a method of describing a button after the control name such as “click XX button ”, and the like.
When there are a plurality of matching controls, the upper left coordinates 272 and the lower right coordinates 273 are acquired for all the matching controls. An example of the item name 271 extracted in the present embodiment, and the upper left coordinate 272 and the lower right coordinate 273 corresponding to the item name 271 are shown in FIG. As shown in FIG. 9, in the present embodiment, the matching item names are “savings online” and “customer management”, and the upper left coordinates and lower right coordinates corresponding to the item names are extracted correspondingly.

画面ハイライト部25は、受信した左上座標と右下座標から得られる表示部30におけ
る領域をハイライト表示することで、コントロールを強調表示し(ステップS8)、処理
を終了する。強調表示の方法としては、例えば透過性のある蛍光色をステップS7で抽出
された領域にオーバーレイ表示する、文字と背景を反転させて表示するなどの方法がある
The screen highlight unit 25 highlights the control by highlighting the area in the display unit 30 obtained from the received upper left coordinates and lower right coordinates (step S8), and ends the process. As a highlighting method, for example, a transparent fluorescent color is displayed in an overlay on the area extracted in step S7, and a character and background are reversed and displayed.

図10にステップS8の処理によりハイライト表示された表示部30の一例を示す。図
10に示すように本実施形態ではステップS8で得られた左上座標と右下座標が示す領域
をそれぞれ斜線領域もしくはひし形格子領域として表示するとともに、抽出された項目名
が枠で囲まれている場合はこの枠を太枠として表示し、太枠内の背景を白に変更している
FIG. 10 shows an example of the display unit 30 highlighted by the process of step S8. As shown in FIG. 10, in the present embodiment, the areas indicated by the upper left coordinates and the lower right coordinates obtained in step S8 are respectively displayed as hatched areas or rhombus lattice areas, and the extracted item names are surrounded by a frame. In this case, this frame is displayed as a thick frame, and the background in the thick frame is changed to white.

なお、このときヘルプ画面32上の項目名についても同様のハイライト表示を行うこと
で、アプリケーション画面31のコントロールとヘルプ画面32のコントロール名との関
連性をユーザに対して提示することが可能である。すなわち、ヘルプの内容に対応するコ
ントロールの位置をユーザに提示できる。これにより、作業の効率化を図ることができる
At this time, the item names on the help screen 32 are also highlighted in the same manner, so that the relationship between the control on the application screen 31 and the control name on the help screen 32 can be presented to the user. is there. That is, the control position corresponding to the content of the help can be presented to the user. Thereby, work efficiency can be improved.

なお、一致する項目名271が複数存在した場合、項目名271ごとにハイライト表示
を行う色などを変えることで、ヘルプ画面32のどの項目名がアプリケーション画面31
のどの項目名に対応するかの判別を容易にすることが可能となる。
Note that when there are a plurality of matching item names 271, which item name on the help screen 32 is changed to the application screen 31 by changing the color or the like for highlighting for each item name 271.
It is possible to easily determine which item name corresponds to.

もしくは、図11に示すように、ステップ06で抽出されたコントロール名の存在する
領域の周囲にコントロール名を吹き出しで表示してもよい。
Alternatively, as shown in FIG. 11, the control name may be displayed in a balloon around the area where the control name extracted in step 06 exists.

なお、ステップ08でハイライト表示を行った後、ユーザが何らかの入力動作を実行し
た場合、もしくはユーザによってあらかじめ設定された時間が経過した場合にハイライト
表示を終了するようにしてもよい。
Note that after the highlight display is performed in step 08, the highlight display may be terminated when the user performs some input operation or when a time preset by the user has elapsed.

上述したように本実施形態のヘルプ表示システム100は、ヘルプ画面32に表示され
ているコントロール名と実際のアプリケーション画面31上のコントロールとの位置関係
をあらかじめ記憶装置に保存しておくことなく、ヘルプ画面32において記載されている
コントロール名が、実際にユーザが使用するアプリケーション画面31のどの位置に表示
されているか、すなわちアプリケーション画面31におけるコントロールの位置を提示で
きる。
As described above, the help display system 100 according to the present embodiment does not save the positional relationship between the control name displayed on the help screen 32 and the control on the actual application screen 31 in the storage device in advance. It is possible to present where the control name described on the screen 32 is actually displayed on the application screen 31 used by the user, that is, the position of the control on the application screen 31.

したがって専用のデータベースなどを構築することなく、ヘルプ機能を備える多様なア
プリケーションで活用することが可能である。例えば、本実施形態のヘルプ表示システム
100は銀行等の窓口業務用アプリケーション、画像や映像の編集を行うアプリケーショ
ン、および医療用アプリケーションのように、ヘルプ情報をもつアプリケーション全般に
応用可能であり、ボタンの種類が多く習熟に時間のかかるアプリケーションに適している

これらのようなアプリケーションは機能の数も多いため、ヘルプなどのデータと画面の
対応をもたせたヘルプシステムを構築する場合、数種類の機能のみを持つ単純なアプリケ
ーションやWebアプリケーションよりも構築に工数がかかる可能性がある。したがって、
本実施形態のより専用のヘルプシステムの構築が不要となり構築にかかる費用を削減でき
る。
以上のように本発明の実施形態を説明したが、この実施形態は例として提示したもので
あり発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々
な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置
き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含ま
れるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。例えば、
実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
Therefore, it can be used in various applications having a help function without building a dedicated database. For example, the help display system 100 according to the present embodiment can be applied to all applications having help information, such as a window business application such as a bank, an image and video editing application, and a medical application. Suitable for many types of applications that take time to learn.
Applications such as these have a large number of functions, so when building a help system that supports the correspondence between data such as help and screens, it takes more time to build than a simple application or web application that has only a few functions. there is a possibility. Therefore,
It is not necessary to construct a dedicated help system according to the present embodiment, and the cost for the construction can be reduced.
Although the embodiment of the present invention has been described as described above, this embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof. For example,
You may delete a some component from all the components shown by embodiment.

例えば、ステップS3で作成された画像イメージ300に文字認識処理を行う際にヘル
プ画面32を文字認識処理の対象から除外してもよい。これにより、ヘルプ画面32の項
目名を抽出せず、処理速度を向上することが可能となる。
For example, the help screen 32 may be excluded from the target of the character recognition process when the character recognition process is performed on the image 300 created in step S3. Thereby, it is possible to improve the processing speed without extracting the item name of the help screen 32.

ヘルプ画面32を文字認識処理の対象から除外する方法は、例えば図2のステップS1
において、「位置検索」が押下された際にマウスカーソルが存在していた領域を含むウィ
ンドウについてはヘルプ画面32であると認識し、このウィンドウを文字認識処理の対象
から除外するとしてもよい。すなわち、ステップS1において「位置検索」が押下された
際のマウスカーソルの位置を計算機20が取得する。取得したマウスカーソルが存在して
いる位置と背景色が同じ領域(ウィンドウ)を検索し、検索した領域をヘルプ画面32で
あるとして文字認識処理の対象から除外する。
A method of excluding the help screen 32 from the target of character recognition processing is, for example, step S1 in FIG.
The window including the region where the mouse cursor was present when “position search” was pressed may be recognized as the help screen 32, and this window may be excluded from the target of the character recognition process. That is, the computer 20 acquires the position of the mouse cursor when “position search” is pressed in step S1. An area (window) having the same background color as the position where the acquired mouse cursor exists is searched, and the searched area is excluded from the character recognition processing target as the help screen 32.

もしくは、画面イメージ作成部22が、画面イメージを作成する際に一時的にヘルプ画
面32を最小化して作成するとしてもよい。
Alternatively, the screen image creating unit 22 may temporarily create the help screen 32 when creating the screen image.

10…入力部、20…計算機、21…選択範囲解析部、22…画面イメージ作成部223
…文字認識処理部、24…操作対象位置検索部、25…操作対象位置検索部、26…検索
対象一覧格納部、27…文字認識処理結果格納部、30…表示部、100…ヘルプ表示シ
ステム、300…画面イメージ
DESCRIPTION OF SYMBOLS 10 ... Input part, 20 ... Computer, 21 ... Selection range analysis part, 22 ... Screen image creation part 223
... Character recognition processing unit, 24 ... Operation target position search unit, 25 ... Operation target position search unit, 26 ... Search target list storage unit, 27 ... Character recognition process result storage unit, 30 ... Display unit, 100 ... Help display system, 300 ... Screen image

Claims (7)

アプリケーション画面と、前記アプリケーション画面に関するヘルプ画面とを表示する
表示部と、
前記表示部の画面イメージを文字認識処理する文字認識処理部と、
前記ヘルプ画面上の項目と前記文字認識処理の処理結果とを照合して、前記ヘルプ画面
上の項目が前記アプリケーション画面上のどの位置に存在するかを検索する位置検索部と

前記位置検索部による検索結果をもとに前記ヘルプ画面上の項目に対応する前記アプリ
ケーション画面上の項目を強調表示する強調表示部と、
を備えるヘルプ表示装置。
A display unit for displaying an application screen and a help screen for the application screen;
A character recognition processing unit that performs character recognition processing on the screen image of the display unit;
A position search unit that compares the item on the help screen with the processing result of the character recognition process to search in which position on the application screen the item on the help screen exists,
A highlighting unit that highlights an item on the application screen corresponding to an item on the help screen based on a search result by the position search unit;
A help display device comprising:
前記文字認識処理部は、
前記画面イメージにおけるあらかじめユーザによって設定された所定の背景色の領域に
文字が存在する場合に、前記背景色の領域を前記文字認識処理の対象から除外する請求項
1に記載のヘルプ表示装置。
The character recognition processing unit
The help display device according to claim 1, wherein when a character is present in a predetermined background color region preset by a user in the screen image, the background color region is excluded from the target of the character recognition processing.
前記文字認識処理部は、
前記画面イメージにおけるヘルプ画面を前記文字認識処理から除外する請求項1乃至請
求項2のいずれか1項に記載のヘルプ表示装置。
The character recognition processing unit
The help display device according to claim 1, wherein a help screen in the screen image is excluded from the character recognition processing.
前記文字認識処理部は、
前記画面イメージに前記文字認識処理を行う際に、マウスカーソルが存在していた領域
を含むウィンドウについては処理対象から除外する請求項1乃至請求項2のいずれか1項
に記載のヘルプ表示装置。
The character recognition processing unit
3. The help display device according to claim 1, wherein when performing the character recognition process on the screen image, a window including an area where a mouse cursor is present is excluded from a processing target. 4.
前記強調表示部は、
前記ヘルプ画面上の項目と対応する前記アプリケーション画面上の項目との組み合わせ
が複数ある場合に、前記組み合わせごとに異なる強調表示を行う請求項1乃至請求項4の
いずれか1項に記載のヘルプ表示装置。
The highlight section
The help display according to any one of claims 1 to 4, wherein when there are a plurality of combinations of the item on the help screen and the corresponding item on the application screen, different highlighting is performed for each combination. apparatus.
アプリケーション画面と、前記アプリケーション画面に関するヘルプ画面とを表示する
ステップと、
前記表示部の画面イメージを文字認識処理するステップと、
前記ヘルプ画面上の項目と前記文字認識処理の処理結果とを照合して、前記ヘルプ画面
上の項目が前記アプリケーション画面上のどの位置に存在するかを検索するステップと、
前記位置検索部による検索結果をもとに前記ヘルプ画面上の項目に対応する前記アプリ
ケーション画面上の項目を強調表示するステップと、
を備えるヘルプ表示方法。
Displaying an application screen and a help screen for the application screen;
Performing character recognition processing on the screen image of the display unit;
Collating the item on the help screen with the processing result of the character recognition process, and searching for the position on the application screen where the item on the help screen exists;
Highlighting an item on the application screen corresponding to an item on the help screen based on a search result by the position search unit;
Help display method with.
ヘルプ表示装置において、コンピュータに、
アプリケーション画面と、前記アプリケーション画面に関するヘルプ画面とを表示する
機能と、
前記表示部の画面イメージを文字認識処理する機能と、
前記ヘルプ画面上の項目と前記文字認識処理の処理結果とを照合して、前記ヘルプ画面
上の項目が前記アプリケーション画面上のどの位置に存在するかを検索する機能と、
前記位置検索部による検索結果をもとに前記ヘルプ画面上の項目に対応する前記アプリ
ケーション画面上の項目を強調表示する機能と、
を実行させるためのヘルプ表示プログラム。
In the help display device,
A function for displaying an application screen and a help screen for the application screen;
A function of character recognition processing of the screen image of the display unit;
A function for comparing the item on the help screen with the processing result of the character recognition processing to search in which position on the application screen the item on the help screen exists;
A function for highlighting an item on the application screen corresponding to an item on the help screen based on a search result by the position search unit;
Help display program to execute.
JP2010208559A 2010-09-16 2010-09-16 Help display device, help display method and help display program Withdrawn JP2012064051A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010208559A JP2012064051A (en) 2010-09-16 2010-09-16 Help display device, help display method and help display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010208559A JP2012064051A (en) 2010-09-16 2010-09-16 Help display device, help display method and help display program

Publications (1)

Publication Number Publication Date
JP2012064051A true JP2012064051A (en) 2012-03-29

Family

ID=46059682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010208559A Withdrawn JP2012064051A (en) 2010-09-16 2010-09-16 Help display device, help display method and help display program

Country Status (1)

Country Link
JP (1) JP2012064051A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186374A (en) * 2013-03-21 2014-10-02 Casio Comput Co Ltd Information process device, information process method and program
JP2015028795A (en) * 2012-12-12 2015-02-12 シャープ株式会社 Electrical equipment
US10970088B2 (en) 2016-12-05 2021-04-06 Jeol Ltd. User interface help control device, and information storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028795A (en) * 2012-12-12 2015-02-12 シャープ株式会社 Electrical equipment
JP2014186374A (en) * 2013-03-21 2014-10-02 Casio Comput Co Ltd Information process device, information process method and program
US10970088B2 (en) 2016-12-05 2021-04-06 Jeol Ltd. User interface help control device, and information storage medium

Similar Documents

Publication Publication Date Title
US9418336B2 (en) Automatic recognition and insights of data
US20130283195A1 (en) Methods and apparatus for dynamically adapting a virtual keyboard
US20130262968A1 (en) Apparatus and method for efficiently reviewing patent documents
US20080275850A1 (en) Image tag designating apparatus, image search apparatus, methods of controlling operation of same, and programs for controlling computers of same
US9594736B2 (en) Display and selection of bidirectional text
US20100257479A1 (en) Graphical User Interface with Dynamic Toolbar Search Functionality
JP2006228210A (en) Using existing content to generate active content wizard executable file for execution of task
KR20140039209A (en) Web browser with quick site access user interface
JP6514084B2 (en) OPERATION SUPPORT SYSTEM, OPERATION SUPPORT METHOD, AND OPERATION SUPPORT PROGRAM
US20160078115A1 (en) Interactive System and Method for Processing On-Screen Items of Textual Interest
WO2014099866A2 (en) Building long search queries
JP6020383B2 (en) Display / execution auxiliary program
JP2012064051A (en) Help display device, help display method and help display program
JP2017033361A (en) Document associating device, document associating system, and program
JP2008217534A (en) Application screen preparation system and method, and application program
JP5451696B2 (en) Subtitle adding apparatus, content data, subtitle adding method and program
US20170357412A1 (en) Data creating device, data creating method, and data creating program
US20160292140A1 (en) Associative input method and terminal
US20150186363A1 (en) Search-Powered Language Usage Checks
JP2006276912A (en) Device, method, and program for editing document
US11163938B2 (en) Providing semantic based document editor
JP5703244B2 (en) Trace support device, trace support system, trace support method, and trace support program
JP6002328B2 (en) Search system, search program, and search condition input method
JP4960188B2 (en) Screen transition diagram display method and system
JP2001117918A (en) Document editing processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131203