JPWO2004068407A1 - アプリケーション間のデータ連携支援方法 - Google Patents
アプリケーション間のデータ連携支援方法 Download PDFInfo
- Publication number
- JPWO2004068407A1 JPWO2004068407A1 JP2004567517A JP2004567517A JPWO2004068407A1 JP WO2004068407 A1 JPWO2004068407 A1 JP WO2004068407A1 JP 2004567517 A JP2004567517 A JP 2004567517A JP 2004567517 A JP2004567517 A JP 2004567517A JP WO2004068407 A1 JPWO2004068407 A1 JP WO2004068407A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- screen
- information
- program
- linkage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 207
- 238000012545 processing Methods 0.000 claims description 91
- 230000008676 import Effects 0.000 claims 2
- 208000036762 Acute promyelocytic leukaemia Diseases 0.000 description 149
- 230000008569 process Effects 0.000 description 106
- 238000012790 confirmation Methods 0.000 description 52
- 238000010586 diagram Methods 0.000 description 21
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 239000000284 extract Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Character Input (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
Description
1)まず、ターゲットAPLのデータ項目を表示する画面を紙等に出力させ、人手を用いて、その画面中で必要なデータ項目を連携APLに再入力する。
2)ターゲットAPLと連携APLとの間でデータ連携が可能となるように、両方のAPLに改造を行う。
この従来技術によれば、手順1)では作業の際に人手が必要であるため、データ入力の負担が生じると共に誤入力が発生する可能性があるという問題があった。手順2)では、連携APLのみならずターゲットAPLを改造することが必要となるため、システム開発の規模が大きくなり、これに伴い、開発予算及び期間が増大するという問題があった。また、ターゲットAPLの開発者が連携APLのそれと異なる場合等には、機密情報の開示が必要となる場合もあり、開発者双方の合意が得られなければ、そもそも、ターゲットAPLを改造する事ができない場合もあるという問題もあった。
なお、公開特許公報特開平8−83285号によれば、スキャナを用いて紙に出力されたデータを画像データとして読みこみ、その画像データから文字を表示する領域を認識し、認識された領域中の画像データから文字コードを生成し、その文字コードをデータベースに登録するシステムが開示されている。
また、公開特許公報特開平10−240901号によれば、予め文書構造のレイアウト規則を記憶し、さらに、文書の画像データを蓄積し、蓄積された画像データのレイアウトを上記レイアウト規則に基づいて解析し、解析結果に基づいて上記画像データから文字パターンを切り出し、その切り出された文字パターンから文字を認識し、文字認識の結果をファイルに格納するシステムを開示する。
両発明は、上記の手順1)における人手を用いた再入力を省くことを可能とする。しかし、両発明ともプログラム間のデータ連携を可能とするためには、画面を紙に出力すること、及び、ターゲットAPL及び連携APLに改造を行う事が必要であるという問題を依然として有する。
上記目的を達成するために、本発明の1態様によれば、プログラム間のデータ連携を支援するデータ連携支援装置において、第1のプログラム(ターゲットAPL)から表示画面の画面イメージデータを取込む表示画面取込手段と、取込まれた前記画面イメージデータから第2のプログラム(連携APL)へ出力すべき連携データを取得する項目情報取得手段と、取得された前記連携データを前記第2のプログラムへ出力する項目情報出力手段とを備える。
上記構成において、第1のプログラム中の表示画面を紙等に出力するのではなく、第1のプログラムから画面イメージデータとして取込み、取込まれた画面イメージデータから連携データを取得し、取得された連携データを第2のプログラムに出力する。これにより、上記目的を達成する。
また、上記データ連携支援装置は、表示画面中の領域を示す座標情報及び前記領域に表示されるイメージデータを含む画面種別判定情報に基づいて、前記画面イメージデータから前記領域に表示されるイメージデータを切り出し、切り出されたイメージデータと前記画面種別判定情報に含まれるイメージデータとが一致するか否か判定することにより表示画面を識別する画面種別判定手段を更に含み、上記項目情報取得手段は、識別された表示画面の画面イメージデータから連携データを取得することとしてもよい。
これにより、表示画面の識別をイメージデータに基づいて自動的に行うことを可能とする。
また、上記項目情報取得手段は、表示画面中の領域を示す座標情報及び前記領域に表示されるデータの属性を示すデータ属性情報を含む認識項目情報に基づいて、前記画面イメージデータから前記領域に表示されるデータを切り出し、切り出されたデータを前記データ属性情報に基づいて認識し、前記連携データを認識結果として取得することとしてもよい。
また、上記データ連携支援装置は、前記第2のプログラムによって処理された前記連携データを前記第1のプログラムに出力する項目情報出力手段を更に備えることとしても良い。これにより、第2のプログラムによる連携データの処理結果を第1のプログラムに返すことが可能となる。
なお、上記項目情報出力手段は、表示画面中の領域を示す座標情報を含む出力方法情報に基づいて、前記第2のプログラムによって処理された前記連携データは、前記第1のプログラムの表示画面中の前記領域に出力することとしてもよい。
また、本発明の別の1態様によれば、プログラム間のデータ連携を支援するデータ連携支援装置において、第1のプログラムから表示画面の画面イメージデータを取り込む表示画面取込手段と、表示画面中の領域を示す座標情報及び前記領域に表示されるイメージデータを含む画面種別判定情報に基づいて、前記画面イメージデータから前記領域に表示されるイメージデータを切り出し、切り出されたイメージデータと前記画面種別判定情報に含まれるイメージデータとが一致するか否か判定することにより表示画面を識別する画面種別判定手段と、第2のプログラムによって処理された連携データを前記第1のプログラムに出力する項目情報出力手段を備える。
上記構成において、第1のプログラム中の表示画面を画面イメージデータとして取込み、取込まれた画面イメージデータに基づいて取込まれた表示画面を識別し、識別された表示画面に、第2のプログラムによって処理されたデータを出力させる事が可能となる。これによっても、第1及び第2のプログラムを改造しなくとも、第1及び第2のプログラムの間でデータ連携を実現することが可能となり、上記目的を達成する。
また、上記データ連携支援装置によって行われる処理と同様の手順を行うデータ連携支援方法によっても、上記コンピュータと同様の作用・効果が得られる。従って、上記データ連携支援方法も上記目的を達成することが可能である。
また、上記データ連携支援方法において行われる手順と同様の制御をプロセッサに行わせるプログラムも、そのプログラムをプロセッサに実行させることによって、上記目的を達成することが可能である。さらに、上記プログラムを記録した記録媒体(記録装置)から、そのプログラムをプロセッサに読み出させて実行させることによっても、上記目的を達成することができる。
図2は、第1実施形態に係わるシステムの構成図である。
図3は、スクリーンプラグの機能構成図である。
図4は、画面定義処理の概要を説明する図である。
図5は、データ連携処理の概要を説明する図である。
図6は、表示画面取込処理の手順を示すフローチャートである。
図7は、画面種別定義処理の手順を示すフローチャートである。
図8は、上記画面種別判定定義サブルーチンの手順を示すフローチャートである。
図9は、認識項目定義サブルーチンの手順を示すフローチャートである。
図10は、連携方法定義サブルーチンの手順を示すフローチャートである。
図11は、定義重複確認処理の手順を示すフローチャートである。
図12は、画面種別判定処理の手順を示すフローチャートである。
図13は、イメージ比較サブルーチンの手順を示すフローチャートである。
図14は、項目情報取得・認識処理の手順を示すフローチャートである。
図15は、連携処理の手順を示すフローチャートである。
図16は、項目情報出力処理の手順を示すフローチャートである。
図17は、ターゲットAPLの表示画面の一例を示す図である。
図18は、画面種別判定情報の一例を示す図である。
図19は、認識項目情報の一例を示す図である。
図20は、連携方法情報の一例を示す図である。
図21は、出力方法情報の一例を示す図である。
図22は、画面イメージデータ中から切り出される領域について説明する図である。
図23は、イメージ比較サブルーチンにおいてマスクされる部分について説明する図である。
図24は、画面イメージデータ中から連携すべきデータを取り出して認識する処理について説明する図である。
図25は、図19に示す認識項目情報に基づいて図24に示す画面から取得された認識項目を示す図である。
図26は、図24に示す画面から取得された認識項目の確認画面の一例を示す図である。
図27は、連携APLによる印鑑照合処理の結果を示す画面の一例を示す図である。
図28は、連携処理の結果の確認画面の一例を示す図である。
図29は、ターゲットAPLの画面に連携結果情報を出力した画面の一例を示す図である。
図30は、第1実施形態の1変形例におけるデータ連携処理の概要を説明する図である。
図31は、第2実施形態に係わるシステムの構成図である。
本発明は、コンピュータを用いて実現される。まず、図1を用いてコンピュータの構成について説明する。
図1に示すようにコンピュータは、CPU11、メモリ12、入力装置13、出力装置14、外部記憶装置15、媒体駆動装置16、及びネットワーク接続装置17を備え、それらはバス18により互いに接続されている。
メモリ12は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等を含み、処理に用いられるプログラムとデータを格納する。プログラム間のデータ連携を支援する制御をコンピュータに行わせるデータ連携支援プログラム(後述)は、コンピュータのメモリ12の特定のプログラムコードセグメントに格納される。また、メモリ12は、後述の画面イメージ書き込み部228を実現する。
CPU11は、メモリ12を利用して上述のプログラムを実行することにより、必要な処理を行う。メモリ12に、データ連携支援プログラムを格納し、このプログラムをCPU11に実行させることにより、コンピュータに、データ連携支援装置として機能させることが可能となる。
入力装置13は、例えば、キーボード、ポインティングデバイス、タッチパネル等であり、ユーザからの指示や情報の入力に用いられる。出力装置14は、例えば、ディスプレイやプリンタ等であり、コンピュータのユーザへの問い合わせ、処理結果等の出力に用いられる。
外部記憶装置15は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置等である。外部記憶装置15は、後述の画面情報DB229を実現する。さらに、上述のプログラムをコンピュータの外部記憶装置15に保存しておき、必要に応じて、それらをメモリ12にロードして使用することもできる。
媒体駆動装置16は、可搬記録媒体19を駆動し、その記録内容にアクセスする。可搬記録媒体19としては、メモリカード、メモリスティック、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、光ディスク、光磁気ディスク、DVD(Digital Versatile Disk)等、任意のコンピュータ読み取り可能な記録媒体が用いられる。この可搬記録媒体19に上述のデータ連携支援プログラムを格納しておき、必要に応じて、それをコンピュータのメモリ12にロードして使用することもできる。
ネットワーク接続装置17は、LAN、WAN等の任意のネットワーク(回線)を介して外部の装置と通信し、通信に伴うデータ変換を行う。また、必要に応じて、上述のプログラムを外部の装置から受け取り、それをコンピュータのメモリ12にロードして使用することもできる。
次に、図2を用いて、本発明の第1実施形態に係わるシステムの構成について説明する。
図2に示すように、コンピュータ20には、連携APL21、データ連携支援プログラム(以下、スクリーンプラグという)22、ターゲットAPL23及びオペレーションシステム(以下、OS)24がインストールされている。
連携APL21は、スクリーンプラグ22を介してターゲットAPL23から連携すべきデータを受け取り、そのデータを用いて所定のアルゴリズムに基づいて処理を行う。
スクリーンプラグ22は、ターゲットAPL23から表示画面の画面イメージデータを取り込み、その画面イメージデータからデータを取得する。そして、取り出したデータを連携APL21へ出力する。これにより、スクリーンプラグ22は、連携APL21とターゲットAPL23との間のデータ連携を実現する。また、必要に応じて、スクリーンプラグ22は、連携APL21による処理結果をターゲットAPL23に戻す。
ターゲットAPL23は、所定のアルゴリズムに基づいてデータを処理する。OS24は、連携APL21、スクリーンプラグ22及びターゲットAPL23等のアプリケーションに対して、システム管理機能を提供する。
なお、スクリーンプラグ22がデータを連携させる、連携APL21及びターゲットAPL23が行う処理は、どのようなものであってもよい。図2では、例として、コンピュータ20とコンピュータ30はネットワークを介して接続され、コンピュータ20内のターゲットAPL23は、コンピュータ30のデータベース31から検索システム32を介してデータを取得し、そのデータを用いて処理を行う場合を示す。ここで、ネットワークNは、1つのネットワークであっても、複数のネットワークの組み合わせであってもよい。ネットワークNとして、インターネット、電話回線網、無線回線網等のWAN(Wide Area Network)及びLAN(Local Area Network)等が考えられる。
以下、図3を用いて、スクリーンプラグ22の機能構成について説明する。
図3に示すようにスクリーンプラグ22は、表示画面取込部221、画面種別定義部222、定義重複確認部223、画面種別判定部224、項目情報取得/認識部225、連携処理部226、項目情報出力部227、画面イメージ書き込み部228、画面情報データベース(以下、データベースをDBと略記する)229を備える。
スクリーンプラグ22が行う処理には、大別して、画面定義処理とデータ連携処理とがある。前者は、データ連携を行う前に行う処理であり、ターゲットAPL23から取得するべきデータが、どの表示画面のどの位置にどのようなデータ形式で存在するのか、取得したデータをどのプログラムにどのようにして出力するのか等を定義する処理である。表示画面取込部221、画面種別定義部222及び定義重複確認部223によってこの処理が行われ、この処理の結果は、画面情報DB229に書き込まれる。後者は、画面定義処理の結果に基づいて、ターゲットAPL23から取り出したデータを連携APL21に連携させる処理である。表示画面取込部221、画面種別判定部224、項目情報取得/認識部225、連携処理部226及び項目情報出力部227によってこの処理が行われる。この処理の際には、画面情報DB229に書きこまれた画面定義処理の結果が用いられる。
以下、各部が行う処理について説明する。
表示画面取込部221は、ターゲットAPL23から表示画面の画面イメージデータを取り込み、画面イメージ書き込み部228に書き込む。
画面種別定義部222は、画面イメージ書き込み部228に書きこまれた画面イメージデータに基づいて、ターゲットAPL23から取り出すべきデータの画面における位置及びデータの属性等を定義する画面定義情報を作成する。画面定義情報に含まれる情報について詳しくは後述する。定義重複確認部223は、、画面種別定義部222によって作成された画面定義情報が、画面情報DB229に格納されている画面定義情報と重複しているか否か確認し、重複していないことを確認した場合、作成された画面定義情報を画面情報DB229に格納させる。
画面種別判定部224は、画面情報DB229に格納された画面定義情報と画面イメージ書き込み部228に書きこまれた画面イメージデータとに基づいて、取り込まれた画面を識別する。画面が識別された場合、項目情報取得/認識部225は、画面定義情報に基づいて、画面イメージデータから連携APL21で連携させるべきデータを取り出す。
連携処理部226は、取り出されたデータをデータの連携先となる連携APL21の所定のデータ領域に所定の連携方法で出力する。なお、データの連携先となる連携APLは連携先識別情報によって予め指定され、データの連携方法は連携方法指定情報によって予め定義されている。連携先識別情報及び連携方法指定情報は共に、画面定義情報に含まれる。また、連携処理部226は、連携APL21から処理されたデータを受け取り、項目情報出力部227に出力する。項目情報出力部227は、連携APL21によって処理されたデータをターゲットAPL23又は、他のアプリケーションに出力する。連携APL21による処理結果の出力先は、画面定義情報に含まれる出力先定義情報によって指定される。なお、図2では、連携APL21による処理結果がターゲットAPL23に戻される場合を示している。
画面イメージ書き込み部228には、表示画面取込部221によって取り込まれた画面イメージデータが書き込まれる。この画面イメージ書き込み部228は、原則的に、現在、画面定義処理又はデータ取り出し処理の対象となっている画面の画面イメージデータが書き込まれる。
画面情報DB229には、画面種別定義部222によって作成された画面定義情報が格納される。
以下、図4及び図5を用いて、上記画面定義処理及びデータ連携処理の概要について説明する。図4及び図5において、スクリーンプラグ22によって行われる処理は、点線で囲まれている。各処理について、詳しくは後述する。
まず、画面定義処理の概要について説明する。キーボード等の入力装置13からの入力を契機として画面定義処理が開始されると、まず、表示画面取込部221は、ターゲットAPL23から表示画面を取り込む表示画面取込処理を行う。取り込まれた画面の画面イメージデータは画面イメージ書き込み部228に書き込まれる。画面種別定義部222は、画面イメージ書き込み部228に書きこまれた画面イメージデータ及びユーザの指示に基づいて画面定義情報を作成し、作成された画面定義情報を画面情報DB229に書き込む。定義重複確認部223は、画面情報DB229に格納されている画面定義情報のうちで互いに重複しているものがあるか否か確認する定義重複確認処理を行う。確認の結果、重複している場合、定義重複確認部223は、重複している旨を示す情報を出力する。
次に、データ連携処理の概要について説明する。キーボード等の入力装置13からの入力を契機としてデータ連携処理が開始されると、まず、表示画面取込部221は、ターゲットAPL23から表示画面を取り込む表示画面取込処理を行う。取り込まれた画面の画面イメージデータは画面イメージ書き込み部228に書き込まれる。画面種別判定部224は、画面情報DB229から画面定義情報を読み出して、その画面定義情報に基づいて画面イメージ書き込み部228に画面イメージデータが書きこまれた画面を識別する。項目情報取得/認識部225は、識別結果及びその画面に対応する画面定義情報に基づいて、画面イメージデータから連携APL21に出力するべきデータを取り出し、取り出したデータを確認するための確認画面を出力装置14に表示させる。ユーザは、この確認画面に基づいて取り出されたデータを確認することができる。なお、この確認画面の表示処理は、省略する事が可能である。
続いて、連携処理部226は、画面定義情報に含まれる連携方法情報に基づいて、取り出されたデータを所定の連携APL21に所定の連携方法で出力する。さらに、連携処理部226は、連携APL21から処理されたデータを受け取り、そのデータを確認する連携結果の確認画面を出力装置14に表示させる。なお、この連携結果の確認画面の表示処理は省略可能である。
項目情報出力部227は、画面定義情報に含まれる出力方法情報に基づいて、連携結果として得られたデータをターゲットAPL23の所定の領域に出力する。さらに、項目情報出力部227は、このデータ連携処理の結果を確認する結果確認画面を出力装置14に表示させる。なお、連携結果として得られたデータの出力処理及びその確認画面の表示処理は省略可能である。また、図2と同様に、図5でも、連携APL21による処理結果がターゲットAPL23に戻される場合を示している。
以下、図6から図29を用いて各処理について詳しく説明する。なお、以下の説明において、ターゲットAPL23を金融送金業務用プログラムであると仮定し、連携APL21を印鑑照合プログラムであると仮定する。そして、ターゲットAPL23の「送金処理」画面から取り出されたデータ項目に基づいて連携APL21に印鑑照合処理を行わせ、その照合結果をターゲットAPL23に戻させる場合を例とする。また、説明にあたり、具体的な送金処理画面の例を用いる。これらの仮定は、説明を具体的にすることにより理解を容易にするためであり、ターゲットAPL23及び連携APL21を限定したり、本発明の応用範囲を限定したりする趣旨ではない。
まず、図6を用いて、表示画面取込処理の手順について説明する。図6に示すように、まず、表示画面取込部221は、ターゲットAPL23から表示画面を取り込み、その画面中のキャレット或いはカーソルを非表示状態にする(ステップS1)。続いて、表示画面取込部221は、その画面の画面イメージデータが存在するメモリ中の領域を取得し(ステップS2)、その領域からその画面の画面イメージデータをコピーする(ステップS3)。その後、表示画面取込部221は、その表示画面中のキャレット或いはカーソルを表示状態に戻す(ステップS4)。表示画面取込部221は、コピーされた画目イメージデータを、画面イメージ書き込み部228に書き込む(ステップS5)。
図17に、表示画面取込部221によって取り込まれた表示画面の一例を示す。図17に示す表示画面は、金融送金業務用プログラムによる送金処理において表示される。この画面には、この画面で行われる処理を示す文字情報として図17の向かって左上に「送信処理」が表示され、さらに、画面識別番号として図17の向かって右上に「Menu 00201」が表示されている。なお、画面識別番号は、画面種別定義部222が設定する画面IDと一致する必要はない。
また、この画面には、取引情報として、顧客データベース番号(CIF番号、CIF:Customer Interaction File)、顧客名、送金金額、印鑑照合の結果を入力する欄、及び送金処理の申し込み用紙から読取られた印鑑(以下、読取印という)の画像イメージ(以下、読取印)が表示されている。
以下、図17に示すこの表示画面の画面イメージデータを参照しながら、図7から図10を用いて、画面種別定義処理の手順について説明する。この画面種別定義処理は、画面定義処理に含まれる。まず、図7に示すように、画面種別定義処理において、画面種別定義部222は、画面イメージ書き込み部228から画面イメージデータを読み出す(ステップS11)。続いて、画面種別定義部222は、画面を識別する画面IDを設定する(ステップS12)。さらに、画面種別定義部222は、画面種別判定定義サブルーチン(ステップS13)、認識項目定義サブルーチン(ステップS14)、及び連携方法定義サブルーチン(ステップS15)を行い、処理を終了する。各サブルーチンについて詳しくは後述する。
画面定義情報は、連携させるべきデータを含む画面に対応して作成される。画面定義情報は、画面種別判定情報、認識項目情報及び連携方法情報を含む。連携APL21による処理結果を所定のアプリケーションに出力する場合、画面定義情報は、更に、出力方法情報を含む。画面種別判定情報は画面種別判定定義サブルーチンにおいて、認識項目定義情報は認識項目定義サブルーチンにおいて、連携方法情報と出力方法情報は連携方法定義サブルーチンにおいて、それぞれ作成される。
以下、図8及び図18を用いて、上記画面種別判定定義サブルーチンの手順について説明する。図8に示すように、画面種別定義部222は、取り込まれた画面から画面種別判定情報として取り出すべき項目の指定を受けると、その項目に項目IDを付す(ステップS21)。続いて、画面種別定義部222は、画面イメージ中で取り出すべき項目が表示されている領域(識別部分)の指定を受けると(ステップS22)、その座標に基づいて画面イメージデータからイメージデータを切り出す(ステップS23)。画面種別定義部222は、項目ID、座標及び切り出したイメージデータを含む画面識別判定情報を作成する。ステップS21からS23を画面種別判定情報として取り出すべき全ての項目について行った場合(ステップS24:Yes)、処理を終了する。そうでない場合(ステップS24:No)、ステップS21にもどる。
図18に、図17に示す画面についての画面種別判定情報の一例を示す。図18に示すように、図17に示す画面についての画面種別判定情報は、2つある。1つは、図17の向かって左上に表示される「送信処理」という文字が表示される画面中の領域を示す座標情報及びその座標情報に基づいて切り出されたイメージデータを含む画面種別判定情報であり、1つは、「Menu 00201」という番号が表示される画面中の領域を示す座標情報及びその座標情報に基づいて切り出されたイメージデータを含む画面種別判定情報である。なお、図18において、例として、領域は、矩形を形成する4つの頂点のうち相対する2つの頂点の座標を用いて示されている。また、図18において画面種別判定情報には「項目ID」の代わりに「項目名」が含まれているが、いずれであってもよい。画面種別判定情報は、後述のデータ連携処理において、ターゲットAPL23から取り込まれた画面を識別する際に用いられる。
次に、図9及び図19を用いて、認識項目定義サブルーチンの手順について説明する。図9に示すように、まず、画面種別定義部222は、表示画面取込部221によって取り込まれた画面から認識項目として取り出すべきデータの項目名の指定を受ける。なお、この項目名は、画面中の項目名と一致させることとしても良い(ステップS31)。続いて、画面種別定義部222は、その画面中において、認識項目が表示される領域の指定を受ける(ステップS32)。さらに、画面種別定義部222は、その領域に表示されるデータの属性の指定を受ける(ステップS33)。画面種別定義部222は、ステップS31からS33の指定に基づいて、画面種別定義部222は、項目名、指定された領域を示す座標情報、及びデータ属性を示すデータ属性情報を含む認識項目情報を作成する。データ属性として、例えば、文字データ、エディット・コントロール、スタティック・コントロール及びイメージデータ等が挙げられる。ステップS31からS33を認識項目として取り出すべき全ての項目について行った場合(ステップS34:Yes)、処理を終了する。そうでない場合(ステップS34:No)、ステップS31にもどる。認識項目情報は、後述のデータ連携処理において、ターゲットAPL23から取り込まれた画面から連携APL21に連携させるべきデータを取り出す際に用いられる。
図19に、図17に示す画面についての認識項目情報の一例を示す。図19に示すように、図17に示す画面についての認識項目情報は、4つある。1つ目は、CIF番号の入力欄に対応する認識項目情報であり、2つ目は、顧客名の入力欄に対応する認識項目情報であり、3つ目は、送金金額の入力欄に対応する認識項目情報であり、4つ目は、読取印の画像イメージに対応する認識項目情報である。また、図19に示すように、各認識項目情報は、項目名、その項目が画面上に表示されている領域を示す座標情報、及びその項目のデータ属性情報を含む。図18と同様に、図19においても、領域は、矩形を形成する相対する2つの頂点の座標を用いて示されている。
次に、図10、図20及び図21を用いて、連携方法定義サブルーチンの手順について説明する。図10に示すように、まず、画面種別定義部222は、連携APL21の指定と連携方法の指定を受ける(ステップS41)。画面種別定義部222は、指定に基づいて、連携APL21を識別する連携先識別情報と連携方法を指定する連携方法指定情報を含む連携方法情報を作成する。連携方法として、例えば、TCP/IP(Transmission Control Protocol/Internet Protocol)、HTTP(Hypertext Transmission Protocol)、API(Application Program Interface)、DLL(Dynamic Link Library)等が挙げられる。
図20に、連携方法情報の一例を示す。図20に示す例では、連携方法情報には、連携APL21を識別する連携先識別情報として連携APL21のプログラム名が含まれている。また、連携APL21とターゲットAPL23間のデータの連携方法としてTCP/IP、ソケット通信が指定されている。
続いて、画面種別定義部222は、連携APL21が連携されたデータを処理した結果として得られた情報(以下、連携結果情報)を連携APL21からターゲットAPL23へ出力するか否かを指定する情報を受ける(ステップS42)。指定に基づいて、連携結果情報をターゲットAPL23へ出力すると判定した場合(ステップS42:Yes)、ステップS43に進む。そうでない場合(ステップS42:No)、ステップS46に進む。
ステップS42でYesの場合、ステップS43において、画面種別定義部222は、ユーザの指定に基づいて連携結果情報の項目名及びその連携結果情報を表示するべき画面中の出力先領域を示す座標情報を含む出力方法情報を作成する(ステップS43及びS44)。なお、連携結果情報として複数の項目を出力する場合、各項目に対応して複数の出力方法情報が作成される。
画面種別定義部222は、連携結果情報を出力するべき全ての項目についてステップS41からS43を行った場合(ステップS45:Yes)、処理を終了する。そうでない場合(ステップS45:No)、ステップS43にもどる。この出力方法情報は、後述のデータ連携処理において、連携結果情報をターゲットAPL23の画面に出力する際に用いられる。
ステップS42でNoの場合、ステップS46において、出力方法情報を作成する必要はないため、処理を終了する。
図21に、出力方法情報の一例を示す。図21に示すように、出力方法情報は、連携結果情報の項目名とその連携結果情報を出力するべき画面上の出力先領域を示す座標情報を含む。図21の場合、連携結果情報として出力される項目は1つであるため、作成される出力方法情報も1つである。この出力方法情報に基づいて、連携結果情報は、図17に示す画面中の照合結果の入力欄に表示される。
上記の画面種別定義処理において作成された画面定義情報は、画面情報DB229に書き込まれる。続いて、定義重複確認処理において、作成された画面定義情報が、先に作成された画面定義情報と重複しているか否か確認される。この定義重複確認処理は、画面定義処理に含まれる。以下、図11を用いて、定義重複確認処理の手順について説明する。図11に示すように、まず、定義重複確認部223は、まだ重複確認処理を行っていない画面定義情報を画像情報DB229から読み出す(ステップS51)。画像情報DB229中の全ての画面定義情報について重複確認処理を既に行っていた場合(ステップS52:Yes)、ステップS58に進む。そうでない場合(ステップS52:No)、ステップS53以降を行う。
画面定義情報には1以上の画面種別判定情報が含まれる。各画面種別判定情報には、画面上の領域を示す座標情報及びイメージデータが含まれる。ステップS53において、定義重複確認部223は、ステップS51で読み出した画面定義情報から、まだ重複判定処理が行われていない画面種別判定情報からイメージデータを取得する。ステップS51で読み出した画面定義情報中の全ての画面種別判定情報について重複確認処理を既に行っていた場合(ステップS54:Yes)、ステップS57に進む。そうでない場合(ステップS54:No)、ステップS55及びS56を行う。
ステップS55において、定義重複確認部223は、ステップS53で取得したイメージデータに対応する座標情報に基づいて、画面イメージ書き込み部228に書き込まれている画面イメージデータからイメージデータを切り出す。そして、定義重複確認部223は、ステップS53で取得したイメージデータと、切り出したイメージデータとを比較し、イメージデータの比較結果に基づいて、両者が一致するか否か判定する。このイメージを比較する手順については、イメージ比較サブルーチンとして、詳しくは後述する。そして、定義重複確認部223は、ステップS53で取得したイメージデータについての判定結果を一時記憶格納領域に記録し(ステップS56)、ステップS53に戻る。
ステップS57において、定義重複確認部223は、一時記憶格納領域に記録された判定結果が、「全ての判定において一致」を示すか否か判定し、ステップS51で読み出された画面定義情報についての判定結果を「一致」として一時記憶格納領域に格納し、ステップS53にもどる。
ステップS58において、定義重複確認部223は、判定結果が「一致」となっている画面定義情報の数をカウントする。さらに、定義重複確認部223は、その数が「1」である場合「重複なし」と判定し、その数が「2以上」である場合「重複有り」と判定する。定義重複確認部223は、判定結果をユーザに通知し、処理を終了する。
なお、上記において、画面定義情報を作成するごとに定義重複確認処理を行うとして説明した。しかし、定義するべき全ての画面についての画面定義情報を作成し、画面情報DB229に書き込んだ後、定義重複確認処理をおこなって、画面情報DB229に重複した画面定義情報が格納されているか否か判定することとしてもよい。
以下、図12及び図22を用いて、画面種別判定処理の手順について説明する。この画面種別判定処理は、データ連携処理に含まれる。まず、画面種別判定処理に先立って、図6を用いて説明したようにして表示画面取込処理が行われる。その後、画面種別判定部224は、画面イメージ書き込み部228から画面イメージデータを取得し(ステップS61)、さらに、画面情報DB229から、まだ画面種別判定処理が行われていない画面定義情報を1つ取り出す(ステップS62)。
画像情報DB229中の全ての画面定義情報について画面種別処理を既に行っていた場合(ステップS63:Yes)、ステップS69に進む。そうでない場合(ステップS63:No)、ステップS64以降を行う。
画面定義情報には、1以上の画面種別判定情報が含まれ、各画面種別判定情報には、画面イメージデータ中の領域を示す座標情報及びイメージデータが含まれる。ステップS64からS66は、ステップS62で取得した画面定義情報に含まれる全ての画面種別判定情報について行われる。
ステップS64において、画面種別判定部224は、ステップS62で取得した画面定義情報から1つの画面種別判定情報を取得する。さらに、画面種別判定部224は、その画面種別判定情報中の座標情報に基づいて、ステップS61で取得した画面イメージデータからイメージデータを切り出す。
以下、図22を用いて、画面イメージデータ中から切り出される領域について説明する。
図22には、図18に示す画面種別判定情報中の座標によって示される領域が矢印で示されている。図22に示すように、画面イメージデータから、文字「送金処理」が表示される領域及び画面識別番号「Menu 00201」が表示される領域が、画面種別判定処理のために図18に示す画面種別判定情報に基づいて切り出される。
続いて、画面種別判定部224は、ステップS64で取得した画面種別判定情報中のイメージデータと、画面イメージデータから切り出したイメージデータとを比較するイメージ比較サブルーチンを行う(ステップS65)。このイメージ比較サブルーチンについて、詳しくは後述する。
続いて、画面種別判定部224は、イメージ比較サブルーチンの結果に基づいて、画面種別判定情報に含まれるイメージデータとステップS64で切り出されたイメージデータとが一致するか否か判定する(ステップS66)。両者が一致しない場合(ステップS66:No)、ステップS62にもどる。両者が一致する場合(ステップS66:Yes)、ステップS67に進む。
ステップS67において、画面種別判定部224は、ステップS62で取得された画面定義情報中の全ての画面種別判定情報についてステップS64からS66を行ったか否か判定する。全ての画面種別判定情報についてステップS64からS66を行った場合(ステップS67:Yes)、ステップS68に進む。そうでない場合(ステップS67:No)、ステップS64に戻る。
ステップS68において、画面種別判定部224は、ステップS62で取得した画面定義情報は、ステップS61で取得した画面イメージデータに対応すると判定し(ステップS68)、処理を終了する。
ステップS69において、画面種別判定部224は、画面情報DB229には、ステップS61で取得された画面イメージデータに対応する画面定義情報は格納されていないと判定する。画面種別判定部224は、取り込まれたその画面は、データベースに登録されていないため処理エラーが発生した旨をユーザに通知し、処理を終了する。
以下、図13及び図23を用いてイメージ比較サブルーチンの手順について説明する。図13に示すように、まず、画面種別判定部224は、ステップS64で取得した画面種別判定情報中のイメージデータと、画面イメージデータから切り出したイメージデータとについて、1画素ごとの色の分布を検出する(ステップS71)。続いて、画面種別判定部224は、、画面種別判定情報中のイメージデータと画面イメージデータから切り出したイメージデータのそれぞれについて、色の分布に基づいて背景色となっている色を決定し、その色をマスクする(ステップS72)。
さらに、画面種別判定部224は、画面種別判定情報中のイメージデータにおいてマスクされずに残った部分の画像パターンと、画面イメージデータから切り出したイメージデータにおけるマスクされずに残った部分の画像パターンとを比較し、両者のマッチングを行う(ステップS73)。そのマッチング結果は、上記ステップS66の判定に用いられる(ステップS74)。
以下、図23を用いて、イメージ比較サブルーチンにおいてマスクされる部分について説明する。
図23には、図18に示す2つの画面種別判定情報中に含まれるイメージデータと、各画面種別判定情報に含まれる座標に基づいて切り出されたイメージデータとが示されている。例えば、項目名が「処理名」である2つのイメージデータは、文字「送金処理」を表示する。これらのイメージデータにおいて、網掛け部分が背景色として判定され、マスクされる。この結果、両イメージデータ中、文字「送金処理」を表示する画像パターンがマスクされずに残り、画面種別判定部224によって互いに比較される。
次に、図14及び図24を用いて、項目情報取得・認識処理の手順について説明する。この項目情報取得・認識処理は、データ連携処理に含まれる。画面定義情報には、1以上の認識項目情報が含まれる。以下のステップS81からS93は、ステップS61で取得した画面イメージデータに対応する画面定義情報に含まれる認識項目情報それぞれについて行われる。
まず、項目情報取得/認識部225は、1つの認識項目情報を画面定義情報から取得し、その認識項目情報に含まれるデータ属性を示す情報に基づいて、項目認識の処理モードを判定する(ステップS81)。例えば、データ属性が「文字データ」を示す場合、項目情報取得/認識部225は、処理モードをOCR(Optical Character Reader)等を用いた文字認識であると判定し(ステップS81:認識)、ステップS82に進む。また、例えば、データ属性が「エディット・コントロール」や「スタティック・コントロール」を示す場合、項目情報取得/認識部225は、処理モードをデータ項目の読み出しであると判定し(ステップS81:項目読み出し)、ステップS89に進む。データ属性が「イメージデータ」を示す場合(ステップS81:イメージ)、ステップS93に進む。
ステップS82において、項目情報取得/認識部225は、その認識項目情報に含まれる座標情報に基づいて、取り込まれた画面イメージデータからイメージデータを切り出して、そのイメージデータを構成する画素1つ1つを走査して色の判定を行う事により、文字を示す色と背景を示す色とを判定する(ステップS82)。
続いて、項目情報取得/認識部225は、背景画像と文字を分離する閾値を用いてイメージデータを2値化することにより、文字を示す色と背景を示す色とを分離する(ステップS83)。2値化することによって文字を示す色が白、背景画像を示す色が黒となってしまった場合、項目情報取得/認識部225は、両者の色を示す値(ビット)を反転させる(ステップS84)。
さらに、項目情報取得/認識部225は、連続する黒画素群(ラベル情報)を取得することにより、1文字ずつのラベル情報を抽出する(ステップS85)。項目情報取得/認識部225は、ラベル情報を抽出した結果に基づいて1文字のサイズを判定し、その1文字のサイズが文字認識処理のために適当ではない場合、適当なサイズになるように文字を拡大又は縮小する(ステップS86)。
続いて、項目情報取得/認識部225は文字の認識を行い(ステップS87)、その認識結果をユーザに通知する。なお、2以上の認識項目情報が画面定義情報に含まれる場合、全ての認識認識項目情報についての認識処理が終了した後に、確認画面を表示させることにより認識結果をユーザに通知する事としても良い。
ステップS89において、項目情報取得/認識部225は、認識項目情報に含まれる座標に基づいて認識すべきデータ項目のコントロールハンドルを取得する。さらに、認識項目情報に含まれるデータ属性を示す情報に基づいて、コントロールがエディット・コントロールであるのか、スタティック・コントロールであるのか判定する(ステップS90)。
コントロールがエディット・コントロールである場合(ステップS90:エディット・コントロール)、項目情報取得/認識部225は、例えば、クラスメンバ関数GetLine()等を用いて、コントロールからデータを読み出し、認識結果として取得し(ステップS91)、ステップS88に進む。コントロールがスタティック・コントロールである場合(ステップS90:スタティック・コントロール)、項目情報取得/認識部225は、例えば、クラスメンバ関数GetText()等を用いて、コントロールからデータを読み出して、認識結果として取得し(ステップS92)、ステップS88に進む。
ステップS93において、項目情報取得/認識部225は、認識項目情報に含まれる座標情報に基づいて、画面イメージデータからイメージデータを切り出して、ステップS88に進む。
以下、図24を用いて、画面イメージデータ中から連携すべきデータを取り出して認識する処理について説明する。
図24には、図19に示す4つの認識項目情報に基づいて取り出される画面イメージデータ中の4つの認識項目を示す。例えば、項目名が「CIF番号」である認識項目は、画像イメージデータからイメージデータとして切り出され、文字認識処理を経て文字データとして取得される。また、例えば、項目名が「顧客名」である認識項目及び項目名が「送金金額」である認識項目は、それぞれ画像イメージデータ中の入力欄から直接にデータとして取得される。また、項目名が「読取印」である認識項目は、画像イメージデータからイメージデータとして切り出され、そのまま取得される。なお、図24において、具体的なクラスメンバ関数が記載されているが、これは例示に過ぎない。図25に、図19に示す認識項目情報に基づいて図24に示す画面から取得された認識項目を示す。
図26に、図24に示す画面から取得された認識項目の確認画面の一例を示す。図26において、データ属性が「イメージデータ」である認識項目以外の認識項目については、画面イメージデータから切り出され、まだ認識処理がされていないデータ、及び、認識処理の結果得られたデータの両方が比較可能なように表示される。図中、認識項目毎に、切り出されたままで認識処理がされていないデータが上段に表示され、認識処理の結果得られたデータが下段に表示される。データ属性が「イメージデータ」である認識項目については、画面イメージデータから切り出されたイメージデータが表示される。ユーザは、この確認画面に基づいて、認識処理が適切に行われているか否か判定し、必要に応じて、この確認画面において認識結果を修正する。確認及び修正の結果、データ連携処理を行ってよいと判定した場合、ユーザは、図26に示す「連携開始」ボタンを押下する。これにより、項目情報取得/認識部225から認識結果が連携処理部226に出力され連携処理が開始される。なお、ユーザへの認識結果の通知及び確認画面の表示は省略可能である。
以下、図15を用いて連携処理の手順について説明する。この連携処理は、データ連携処理に含まれる。図15に示すように、まず、連携処理部226は、項目情報取得/認識部225から認識結果を連携すべきデータとして受け取る(ステップS101)。さらに、連携処理部226は、取り込まれた画像イメージデータに対応する画像定義情報から連携方法情報を取り出す(ステップS102)。
連携方法情報には、連携すべきデータの出力先となる連携APL21を識別する連携先識別情報及び連携方法を指定する連携方法指定情報を含む。連携処理部226は、連携方法情報に基づいて、指定された連携APL21に、指定された連携方法で、連携すべきデータを出力する(ステップS103)。その応答として、連携処理部226は、連携APL21から処理されたデータ(連携結果情報)を受け、その連携処理の結果の確認画面を出力する(ステップS104)。その後、処理を終了する。なお、連携処理の結果の確認画面の出力は省略可能である。
以下、図27及び図28を用いて、この説明において連携APL21として仮定されている印鑑照合プログラムによって行われる処理について説明する。上記のように、ターゲットAPL23である金融送金業務用プログラムの画面から、4つの項目、「CIF番号」、「顧客名」、「送金金額」及び「読取印」が取得され、連携APL21に出力される。連携APL21は、そのCIF番号及び顧客名に対応する届出印の画像イメージを不図示の届出印を記録するDBから取得し、その届出印の画像イメージとターゲットAPL23から取得された読取印の画像イメージが一致するか否か判定する。なお、印鑑の照合処理について詳しくは省略する。
図27に、連携APL21による印鑑照合処理の結果を示す画面の一例を示す。図27に示す画面には、ターゲットAPL23の画面から取得されたCIF番号、顧客名及び読取印の画像イメージ、並びに、DBから取得された届出印の画像イメージが表示されている。さらに、画面には照合結果として、両者を重ね合わせた画像が表示されている。図27に示す画面によると、印鑑照合の結果、読取印と届出印の画像データは一致していると判定されている事が分かる。
図28に、連携処理の結果の確認画面の一例を示す。図28は、連携処理の結果、読取印と届出印の画像データは一致していると判定されていた場合の確認画面を示す。ユーザは、この確認画面に基づいて、連携処理が良好に実行されたか否か判定し、連携処理が良好に実行された場合、「処理継続」ボタンを押下することにより、後続する処理の実行を指示することができる。
以下、図16及び図29を用いて、項目情報出力処理の手順について説明する。なお、この項目情報出力処理は、連携結果情報をターゲットAPL23に出力することが必要な場合に行われる。連携結果情報をターゲットAPL23に出力することが不要な場合は、省略可能である。
まず、図16に示すように、項目情報出力部227は、連携処理部226から連携結果情報を受け取り(ステップS111)、さらに、現在処理中の画面に対応する画面定義情報から出力方法情報を取得する(ステップS112)。画面定義情報には、1以上の出力方法情報が含まれ、各出力方法情報には、連携結果情報の項目名及びその連携結果情報を表示するべき画面中の出力先領域を示す座標情報が含まれる。
以下の処理は、出力方法情報毎に行われる。
まず、項目情報出力部227は、1つの出力方法情報を取り出し、出力方法情報に含まれる座標情報に基づいて、出力先領域についてのコントロール情報を、ターゲットAPL23中の出力先となる画面の画面データから取得し(ステップS113)、このコントロール情報に基づいて、画面中の出力先領域に、その連携結果情報を表示させる(ステップS114)。
さらに、項目情報出力部227は、全ての出力方法情報についての出力処理を終了したか否か判定する(ステップS115)。全ての出力方法情報について出力処理が終了していない場合(ステップS115:No)、項目情報出力部227は、出力処理が済んだ出力方法情報の数を1インクリメントし、未処理の出力方法情報を1つ取り出す(ステップS116)。さらに、項目情報出力部227は、まだ出力処理が済んでいない項目を連携結果情報から取り出し(ステップS117)、ステップS114にもどる。
カウント数が、出力方法情報の総数と同じ値になった場合、項目情報出力部227は全ての出力方法情報について出力処理が終了したと判定し(ステップS115:Yes)、処理を終了する。
図29に、ターゲットAPL23の画面に連携結果情報を出力した画面の一例を示す。図29において、「照合結果」と記載された入力欄に連携結果情報として「印鑑の照合を確認」が出力されている。
次に、第1実施形態の変形例について説明する。第1実施形態では、ターゲットAPL23の画面から連携すべきデータを取り出し、取出したデータを連携APL21に出力するとして説明した。しかし、ターゲットAPL23の画面を識別し、その識別された画面に、連携APL21で処理されたデータを連携すべきデータとして出力させることも可能である。以下、この場合について説明する。
この変形例によれば、ターゲットAPL23の画面を識別するが、その識別された画面から連携すべきデータを取り出す必要はなく、そのデータを連携APL21に出力する必要もない。従って、上記第1実施形態と第1実施形態の変形例とは、以下の点が異なる。
・第1実施形態の変形例によれば、スクリーンプラグ22は、項目情報取得/認識部225を備える必要はない。従って、第1実施形態の変形例に係わるスクリーンプラグ22は、図3の機能構成図から項目情報取得/認識部225を除いた構成を有することとしてもよい。
・第1実施形態の変形例によれば、画面定義情報は、認識項目情報を含まない。
・第1実施形態の変形例によれば、画面種別定義部222は、画面種別定義処理において認識項目定義サブルーチンを行わない。
・第1実施形態の変形例によれば、データ連携処理において項目情報取得・認識処理は行われない。
以下、図30を用いて、第1実施形態の変形例の場合のデータ連携処理の概要について説明する。なお、第1実施形態において既に説明したため、ここでは改めて各処理について詳しく説明することを省略する。
図30に示すように、第1実施形態の変形例によれば、キーボード等の入力装置13からの入力を契機としてデータ連携処理が開始されると、まず、表示画面取込部221は、ターゲットAPL23から表示画面を取り込む表示画面取込処理を行う。取り込まれた表示画面の画面イメージデータは画面イメージ書き込み部228に書き込まれる。画面種別判定部224は、画面情報DB229から画面定義情報を読み出して、その画面定義情報に基づいて画面イメージ書き込み部228に画面イメージデータが書きこまれた画面を識別する。画面種別判定部224は、画面の識別結果を確認するための確認画面を出力装置14に表示させる。ユーザは、この確認画面に基づいて取り出されたデータを確認することができる。なお、この確認画面の表示処理は、省略する事が可能である。連携処理部226は、連携方法情報に基づいて、指定された連携方法で指定された連携APL21から処理されたデータを受け取り、そのデータを確認する連携結果の確認画面を出力装置14に表示させる。なお、この連携結果の確認画面の表示処理は省略可能である。項目情報出力部227は、画面定義情報に含まれる出力方法情報に基づいて、得られたデータをターゲットAPL23の所定の領域に出力する。さらに、項目情報出力部227は、このデータ連携処理の結果を確認する結果確認画面を出力装置14に表示させる。なお、確認画面の表示処理は省略可能である。このように、第1実施形態と異なり、第1実施形態の変形例では、ターゲットAPL23の画面から情報を取得する項目情報取得・認識処理が行われない。この両者の相違点は、図5と図30を比較すると明確である。
以下、ターゲットAPL23を金融送金業務用プログラムであると仮定し、連携APL21を伝票処理及び印鑑照合プログラムであると仮定して、第1実施形態の変形例について具体的に説明する。連携APL21は、口座番号及び送金金額が記載され、読取印が押印された預金入金票を、スキャナを用いて画像イメージデータとして読みこみ、その画像イメージデータから読取印の画像イメージを切り出し、口座番号及び送金金額を文字データとして認識する。さらに、連携APL21は、口座番号に対応するCIF番号、顧客名及び届出印の画像イメージを不図示のDBから取得し、読取印の画像イメージと届出印の画像イメージに基づいて印鑑を照合する。
一方、スクリーンプラグ22は、ターゲットAPL23の「送金処理」画面を識別し、CIF番号、顧客名、送金金額、照合結果及び読取印の画像イメージを連携APL21から受け取り、受け取ったこれらの情報を識別された画面に出力させる。「送金処理」画面の例は、図17に示される。第1実施形態の変形例の場合、ターゲットAPL23の「送金処理」画面中の「CIF番号」、「顧客名」、「送金金額」、「照合結果」及び「読取印」の各入力欄は、画面の識別当初は「空(から)」であり、スクリーンプラグ22が、連携APL21による処理データをこの画面に出力させる。
これにより、スキャナを用いて預金入金伝票を画像データとして読みこみ、その画像データから必要な情報を取得する機能を有していないターゲットAPL23に、その機能を有する連携APL21による処理結果を与える事が可能となる。延いては、ターゲットAPL23に改造を行わずに、ターゲットAPL23に新たな機能を組み込むことが可能となる。
なお、これらの仮定は、説明を具体的にすることにより理解を容易にするためであり、ターゲットAPL23及び連携APL21を限定したり、本発明の応用範囲を限定したりする趣旨ではない。 次に、第1実施形態の更なる変形例について説明する。第1実施形態では、ターゲットAPL23と連携APL21は、同じコンピュータにインストールされているが、両者を異なるコンピュータにインストールする事としても良い。この場合、スクリーンプラグ22は、ターゲットAPL23がインストールされるコンピュータに備えられることとなる。この場合も、処理の手順は上記の通りである。
また、上記説明において、連携結果情報は、ターゲットAPL23から連携すべきデータを取り出した画面と同一画面上に出力されるとして説明したが、ターゲットAPL23中のデータを取り出した画面と異なる画面に出力される事としても良い。この場合、連携結果情報を出力する画面を予め定義する必要がある。
また、連携結果情報は、ターゲットAPL23以外の第3のプログラムに出力されることとしてもよい。この場合、出力方法情報は、第3のプログラムを識別する情報を更に含むこととなる。また、連携結果情報は、そのプログラムにおいてさらに処理される事としても良い。
次に、第2実施形態について説明する。第1実施形態において、ターゲットAPL23から取り出されたデータが連携APL21に出力されて連携処理され、その連携処理結果がターゲットAPL23に戻される場合について説明した。この場合、データは、ターゲットAPL23から連携APL21の方向に出力される。第2実施形態では、ターゲットAPLと連携APLとが双方向にデータを取り出し、連携することを可能とする構成について説明する。
図31に、第2実施形態に係わるシステムの構成を示す。図31に示すように、ターゲットAPL23−1と23−2が同じコンピュータにインストールされている。スクリーンプラグ22−1は、ターゲットAPL23−1の画面上から連携すべきデータを取り出し、そのデータをターゲットAPL23−2に出力する。その応答として、スクリーンプラグ22−1は、ターゲットAPL23−2から連携処理の結果を受け、ターゲットAPL23−1に出力する。一方、スクリーンプラグ22−2は、ターゲットAPL23−2の画面上から連携すべきデータを取り出し、そのデータをターゲットAPL23−1に出力する。その応答として、スクリーンプラグ22−2は、ターゲットAPL23−1から連携処理の結果を受け、ターゲットAPL23−2に出力する。つまり、ターゲットAPL23−2は、ターゲットAPL23−1の連携APLとなっており、ターゲットAPL23−1は、ターゲットAPL23−2の連携APLとなっている。これにより、2つのプログラム間で双方向にデータを連携させることが可能となる。この場合も、データ連携のために両プログラムを改造する事は不要である。
なお、第1実施形態の変形例と同様に、ターゲットAPL23−1及びターゲットAPL23−2は、異なる2つのコンピュータにインストールされる事としてもよい。この場合、ターゲットAPL23−1とスクリーンプラグ22−1は、一方のコンピュータにインストールされ、ターゲットAPL23−2とスクリーンプラグ22−2は、他方のコンピュータにインストールされる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではなく、その他の様々な変更が可能である。
上記のように、本発明に係わるデータ連携技術によれば、既存のアプリケーションを改造することなく、既存のアプリケーションの表示画面に表示される情報を、更なる別のアプリケーションにおいて用いることを可能とするという効果を奏する。さらに、データの紙媒体への出力及び人手を用いた入力作業も不要となるという効果を奏する。
Claims (9)
- コンピュータが、プログラム間のデータ連携を支援するデータ連携支援方法であって、
第1のプログラムから表示画面の画面イメージデータを取り込み、
前記画面イメージデータから第2のプログラムへ出力すべき連携データを取得し、
前記連携データを前記第2のプログラムへ出力する、
ことを含むことを特徴とするデータ連携支援方法。 - 表示画面中の領域を示す座標情報及び前記領域に表示されるイメージデータを含む画面種別判定情報に基づいて、前記画面イメージデータから前記領域に表示されるイメージデータを切り出し、切り出されたイメージデータと前記画面種別判定情報に含まれるイメージデータとが一致するか否か判定することにより表示画面を識別する、
ことを更に含み、
前記連携データは、認識された表示画面の画面イメージデータから取得される、
ことを特徴とする請求項1に記載のデータ連携支援方法。 - 表示画面中の領域を示す座標情報及び前記領域に表示されるデータのデータ属性を示すデータ属性情報を含む認識認識項目情報に基づいて、前記画面イメージデータから前記領域に表示されるデータを切り出し、切り出されたデータを前記データ属性情報に基づいて認識する、
ことを更に含み、
前記連携データは、認識結果として取得される、
ことを特徴とする請求項1に記載のデータ連携支援方法。 - 前記第2のプログラムによって処理された前記連携データは、前記第1のプログラムに出力される、
ことを更に含むことを特徴とする請求項1に記載のデータ連携支援方法。 - 表示画面中の領域を示す座標情報を含む出力方法情報に基づいて、前記第2のプログラムによって処理された前記連携データは、前記第1のプログラムの表示画面中の前記領域に出力される、
ことを更に含むことを特徴とする請求項1に記載のデータ連携支援方法。 - コンピュータが、プログラム間のデータ連携を支援するデータ連携支援方法であって、
第1のプログラムから表示画面の画面イメージデータを取り込み、
前記画面イメージデータに基づいて前記表示画面を識別し、
第2のプログラムから連携データを取得し、
識別された前記表示画面に前記連携データを出力する、
ことを含むことを特徴とするデータ連携支援方法。 - コンピュータに、プログラム間のデータ連携を支援する制御を行わせるプログラムを記録する、前記コンピュータで読み取り可能な記録媒体であって、
第1のプログラムから表示画面の画面イメージデータを取得し、
前記画面イメージデータから第2のプログラムへ出力すべき連携データを取得し、
前記連携データを前記第2のプログラムへ出力する、
ことを含む制御を前記コンピュータに行わせるプログラムを格納する記録媒体。 - コンピュータに、プログラム間のデータ連携を支援する制御を行わせるプログラムであって、
第1のプログラムから表示画面の画面イメージデータを取得し、
前記画面イメージデータから第2のプログラムへ出力すべき連携データを取得し、
前記連携データを前記第2のプログラムへ出力する、
ことを含む制御を前記コンピュータに行わせるプログラム。 - プログラム間のデータ連携を支援するデータ連携支援装置であって、
第1のプログラムから表示画面の画面イメージデータを取得する表示画面取込手段と、
取得された前記画面イメージデータから第2のプログラムへ出力すべき連携データを取得する項目情報取得手段と、
取得された前記連携データを前記第2のプログラムへ出力する連携処理手段と、
を備えることを特徴とするデータ連携支援方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2003/000802 WO2004068407A1 (ja) | 2003-01-28 | 2003-01-28 | アプリケーション間のデータ連携支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004068407A1 true JPWO2004068407A1 (ja) | 2006-05-25 |
JP4102365B2 JP4102365B2 (ja) | 2008-06-18 |
Family
ID=32800802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004567517A Expired - Lifetime JP4102365B2 (ja) | 2003-01-28 | 2003-01-28 | アプリケーション間のデータ連携支援方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7958458B2 (ja) |
EP (1) | EP1589474A4 (ja) |
JP (1) | JP4102365B2 (ja) |
CN (1) | CN1324524C (ja) |
AU (1) | AU2003208051A1 (ja) |
WO (1) | WO2004068407A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5146320B2 (ja) | 2006-11-29 | 2013-02-20 | 日本電気株式会社 | アプリケーション連携システム、アプリケーション連携方法、記録媒体およびアプリケーション連携プログラム |
US9824079B1 (en) | 2014-07-11 | 2017-11-21 | Google Llc | Providing actions for mobile onscreen content |
US10176336B2 (en) | 2015-07-27 | 2019-01-08 | Microsoft Technology Licensing, Llc | Automated data transfer from mobile application silos to authorized third-party applications |
US9300678B1 (en) | 2015-08-03 | 2016-03-29 | Truepic Llc | Systems and methods for authenticating photographic image data |
CN105160562A (zh) * | 2015-10-10 | 2015-12-16 | 金大甲 | 利用移动客户终端的电子章系统及方法 |
JP6646214B2 (ja) * | 2016-02-10 | 2020-02-14 | 富士通株式会社 | 情報処理システム、情報処理装置、情報処理方法および情報処理プログラム |
US10375050B2 (en) | 2017-10-10 | 2019-08-06 | Truepic Inc. | Methods for authenticating photographic image data |
JP7315192B2 (ja) * | 2017-12-28 | 2023-07-26 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
US10360668B1 (en) * | 2018-08-13 | 2019-07-23 | Truepic Inc. | Methods for requesting and authenticating photographic image data |
US11037284B1 (en) | 2020-01-14 | 2021-06-15 | Truepic Inc. | Systems and methods for detecting image recapture |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257714A (ja) | 1990-03-13 | 1993-10-08 | Selecterm Inc | 1台のコンピュータで複数のアプリケーションプログラムをコオペレートするための方法 |
US5586240A (en) * | 1992-03-11 | 1996-12-17 | Genesis Software, Inc. | Image generation and retrieval system integrated with arbitrary application using layered interface |
JPH05290049A (ja) | 1992-04-13 | 1993-11-05 | Hitachi Ltd | データ交換方法 |
JPH0728801A (ja) | 1993-07-08 | 1995-01-31 | Ricoh Co Ltd | イメージデータ処理方法及びその装置 |
US6339767B1 (en) * | 1997-06-02 | 2002-01-15 | Aurigin Systems, Inc. | Using hyperbolic trees to visualize data generated by patent-centric and group-oriented data processing |
JPH0883285A (ja) | 1994-09-13 | 1996-03-26 | N T T Data Tsushin Kk | 文字コ−ド生成方法及び文書デ−タベ−ス登録システムの前処理装置 |
US5819261A (en) * | 1995-03-28 | 1998-10-06 | Canon Kabushiki Kaisha | Method and apparatus for extracting a keyword from scheduling data using the keyword for searching the schedule data file |
US6702736B2 (en) * | 1995-07-24 | 2004-03-09 | David T. Chen | Anatomical visualization system |
US5889518A (en) | 1995-10-10 | 1999-03-30 | Anysoft Ltd. | Apparatus for and method of acquiring, processing and routing data contained in a GUI window |
JPH09198506A (ja) * | 1996-01-17 | 1997-07-31 | Hitachi Ltd | 帳票イメージ切り出し方法 |
JPH09282477A (ja) | 1996-04-10 | 1997-10-31 | Hitachi Ltd | 仕様書生成方法及びそのシステム |
JP3422897B2 (ja) | 1996-05-17 | 2003-06-30 | 株式会社テクノクラフト | 文字列抽出システム及び文字列抽出方法 |
US6272235B1 (en) * | 1997-03-03 | 2001-08-07 | Bacus Research Laboratories, Inc. | Method and apparatus for creating a virtual microscope slide |
US5911044A (en) * | 1996-11-08 | 1999-06-08 | Ricoh Company, Ltd. | Network image scanning system which transmits image information from a scanner over a network to a client computer |
US5815149A (en) * | 1997-02-19 | 1998-09-29 | Unisys Corp. | Method for generating code for modifying existing event routines for controls on a form |
JP3598711B2 (ja) | 1997-02-21 | 2004-12-08 | 三菱電機株式会社 | 文書ファイリング装置 |
JPH11265404A (ja) | 1998-03-17 | 1999-09-28 | Fujitsu Ltd | 図形処理システムおよび記憶媒体 |
JPH11312231A (ja) * | 1998-04-28 | 1999-11-09 | Omron Corp | データ処理プログラムを記録した記録媒体、データ処理装置およびデータ処理方法 |
JP2000048215A (ja) * | 1998-07-27 | 2000-02-18 | Sharp Corp | データ処理装置及びその制御プログラムを記憶した媒体 |
US6480304B1 (en) * | 1998-12-09 | 2002-11-12 | Scansoft, Inc. | Scanning system and method |
JP2000194869A (ja) * | 1998-12-25 | 2000-07-14 | Matsushita Electric Ind Co Ltd | 文書作成装置 |
JP2001052015A (ja) | 1999-08-09 | 2001-02-23 | Sony Corp | 情報処理装置、情報処理方法及びプログラム格納媒体 |
US6836780B1 (en) * | 1999-09-01 | 2004-12-28 | Jacada, Ltd. | Method and system for accessing data in legacy applications |
JP2001118077A (ja) | 1999-10-15 | 2001-04-27 | Ricoh Co Ltd | 文書作成装置および文書作成方法 |
EP1267290A4 (en) * | 2000-03-30 | 2003-05-02 | Sony Corp | DONATION PROCESSING SYSTEM |
EP1300784A1 (en) * | 2000-05-11 | 2003-04-09 | Kazuyoshi Kouketsu | Method of offering member services, member service offering system, and mobile telephone customer reservation administrating system |
US7116807B1 (en) * | 2000-09-22 | 2006-10-03 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for linking images and reports at remote view station |
US6686930B2 (en) * | 2000-11-29 | 2004-02-03 | Xerox Corporation | Technique for accomplishing copy and paste and scan to fit using a standard TWAIN data source |
JP2002222196A (ja) | 2001-01-29 | 2002-08-09 | Sharp Corp | 画像処理装置 |
JP4344185B2 (ja) * | 2003-01-28 | 2009-10-14 | シャープ株式会社 | クライアント端末装置、情報処理方法、サブクライアント端末装置、コンピュータ実行可能なプログラム、及び記録媒体 |
-
2003
- 2003-01-28 WO PCT/JP2003/000802 patent/WO2004068407A1/ja active Application Filing
- 2003-01-28 CN CNB038254395A patent/CN1324524C/zh not_active Expired - Fee Related
- 2003-01-28 EP EP03703065A patent/EP1589474A4/en not_active Ceased
- 2003-01-28 AU AU2003208051A patent/AU2003208051A1/en not_active Abandoned
- 2003-01-28 JP JP2004567517A patent/JP4102365B2/ja not_active Expired - Lifetime
-
2005
- 2005-05-26 US US11/137,364 patent/US7958458B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
AU2003208051A8 (en) | 2004-08-23 |
EP1589474A1 (en) | 2005-10-26 |
WO2004068407A1 (ja) | 2004-08-12 |
EP1589474A4 (en) | 2008-03-05 |
CN1703721A (zh) | 2005-11-30 |
US7958458B2 (en) | 2011-06-07 |
AU2003208051A1 (en) | 2004-08-23 |
US20050213824A1 (en) | 2005-09-29 |
CN1324524C (zh) | 2007-07-04 |
JP4102365B2 (ja) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7991778B2 (en) | Triggering actions with captured input in a mixed media environment | |
US7672543B2 (en) | Triggering applications based on a captured text in a mixed media environment | |
KR102149050B1 (ko) | 인공지능을 이용한 ocr 기반 문서 분석 시스템 및 방법 | |
US7920759B2 (en) | Triggering applications for distributed action execution and use of mixed media recognition as a control input | |
US7587412B2 (en) | Mixed media reality brokerage network and methods of use | |
US7769772B2 (en) | Mixed media reality brokerage network with layout-independent recognition | |
US7958458B2 (en) | Method for supporting data linkage between applications | |
US20140188756A1 (en) | Systems and methods for automatic processing of forms using augmented reality | |
JP2009295153A (ja) | ウェブベースのテキスト検出方法及びシステム | |
AU2017410934B2 (en) | Detecting orientation of textual documents on a live camera feed | |
JP7328797B2 (ja) | 端末装置、文字認識システム及び文字認識方法 | |
US20080024834A1 (en) | Information registration apparatus for registering information onto registering destination on network and method thereof | |
US11887390B2 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory recording medium | |
JP4275973B2 (ja) | 加筆画像抽出装置、プログラム、記憶媒体及び加筆画像抽出方法 | |
JP2003223610A (ja) | 文字認識装置及び文字認識方法 | |
KR100776864B1 (ko) | 어플리케이션간의 데이터 제휴 지원 방법 | |
JP6850323B2 (ja) | 情報処理装置、その制御方法及びプログラム | |
JP2017097859A (ja) | 情報処理装置と、その処理方法及びプログラム | |
JP5445740B2 (ja) | 画像処理装置、画像処理システムおよび処理プログラム | |
JP5673277B2 (ja) | 画像処理装置およびプログラム | |
JP6708935B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
CN112052150A (zh) | 页面加载时间检测方法、设备、存储介质及装置 | |
CN113408553A (zh) | 图片类别的识别方法、装置、电子设备及存储设备 | |
JP2020047138A (ja) | 情報処理装置 | |
JPWO2020044537A1 (ja) | 画像照合装置、画像照合方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080321 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4102365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130328 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140328 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |